선 3줄 요약
1. AP칩셋
2. 디스플레이
3. 사운드
-------------------------------------------------------------------------------------------------------------------
감성따위 집어치우고 다들 잘 알지만 명확하겐 모르는 애플의 타 제조사보다 앞서는 기술에 대해서 써 봄.
첫 번째로는 다들 알고있는 AP칩셋임. 안드로이드 진영에서는 제일 괜찮다고 평가받는게 퀄컴의 스냅드래곤 라인임. 하지만 그 스냅드래곤 보다도 애플 칩셋은 약 20프로 정도 더 빠름.
아난드텍에서 발표한 자료에 따르면 이번 아이폰11에 탑재된 A13바이오닉 칩셋은 이전 아이폰 Xs라인에 탑제된 A12에 비하면 그래픽 성능만 해도 기본 20%, 쓰로틀링으로 인한 최대 성능차이는 50~60%가 더 빠르다고 함.
(https://www.macrumors.com/2019/10/16/anandtech-iphone-11-pro-review-a13-chip/)
그럼 안드로이드 진영의 스냅드래곤은 어느정도인가. 일단 현재 나온 가장 성능이 좋은 스냅드래곤 855+와의 차이는 다음과 같음
https://www.valuewalk.com/2019/09/apple-a13-bionic-vs-snapdragon-855-plus-comparison/
테스트 환경마다 조금씩 차이가 있겠으나 A13의 경우 싱글코어 5472점, 멀티코어 13769점.
스냅드래곤 855+의 경우 싱글코어 3623점, 멀티코어 11367점으로 싱글코어는 약 50%, 멀티코어는 약 20%씩이나 차이가 남.
심지어 아직 안드로이드 진영의 제품들 중에서 이전 아이폰 Xs의 A12 칩셋도 아직 못 이김.
A13은 6코어, 스냅드래곤은 8코어라서 그나마 멀티코어는 덜 차이가 남.
(게다가 삼성 제품에 많이 들어가는 엑시노스는 스냅드래곤보다 약 10%정도 낮음. 항상 유저들이 똥말리쓰는 똥시노스라고 하는게 괜히 하는 얘기가 아님.)
간혹 댓글 보면 칩셋좋으면 뭐하냐 게임만 하느니 어쩌느니 하는데 요즘에는 카메라 성능때문에 칩셋성능을 강화하는 모습들이 뚜렷함. 카메라를 단순히 센서로 촬영만하는게 아니라 머신러닝과 그에 맞는 연산을 통해서 화질을 보정하는게 지금의 스마트폰 카메라의 발전방향임. 게다가 영상 또한 4K 60프레임 촬영이 가능하도록 지원하는데는 꽤나 많은 자원이 필요함.
추가적으로 유튜버나 스트리머들이 영상 촬영하고 간단하게 빠른 편집을 가능하게 하는 기능들을 지속적으로 제공을 해 주고있는데 영상 편집에서 가장 필요한것은? 바로 성능임.
특히나 4K영상은 더더욱.. 그래서 이런 빠른 칩셋은 영상편집에도 극강의 속도와 성능을 자랑함. 단순 게임목적만이 아니어도 이런 작업들을 스마트폰 하나로 대체할 수 있는 시대가 오고있음. (물론 디테일한 작업은 불가능.)
여간 모바일 기기에서 가장 빠른 성능을 지닌 칩셋임.
(여담으로 스냅드래곤엔 이번 서피스 프로 x에 들어간 8cx라는 칩셋도 있는데 대부분 노트북라인으로 대체해서 들어가니 제외함. 물론 A13보다 벤치마크 점수는 낮음)
2. 디스플레이
애플은 이전부터 기기 디스플레이의 색 표현에 굉장히 민감했다 해도 무관할 정도였음. 어느정도냐면 ColorSync를 개발하고 그걸 기반으로 ICC라는 국제 컬러 협회를 개설함. "어도비, 아그파 게바트, 애플, 코닥, 마이크로소프트, 실리콘 그래픽스, 썬 마이크로시스템즈, 텔리전트" 라는 기업이 모여서 "모든 운영 체제와 소프트웨어 패키지에 걸쳐 서로 호환성 있게 기능하는 공통 색 관리 시스템을 만들 목적으로 1993년에 세운 것이다." 라고 설명함.
93년도에 개발된 컬러매니지먼트를 시작으로 지금껏 그 단체를 이어오고 있음. 자체 OS와 하드웨어를 가지고있던 애플이라면 컬러에 대한 캘리브레이션 문제들을 타사에 비해 좀 더 쉽게 개발연구가 가능했을거라 생각됨.
MS마저도 어도비에서 포팅한 애플의 ColorSync를 가져다가 API로 쓰고있을 정도여서 예전부터 디자인하면 맥! 이런 이야기가 괜히 나온게 아님.
색 영역에 대한 보정은 OS단에서부터 이루어져서 외부 디스플레이까지 표현되어야 하기 때문에 정말 중요하고 어디 하나에서 컨트롤이 불가능하다면 색이 왜곡되는 경우가 많음. 그래서 많은 스마트폰 제조사들이 안드로이드가 P3같은 넓은 색영역 지원 안 할때 자기들이 구현해서 넣다보니 색관리가 제대로 안 되는 경우도 있었음.
디스플레이는 단순히 제조사의 디스플레이 스펙만이 아니라 OS에서 부터 컬러 매니지먼트를 잘 설계해야 한다는 것.
3. 스피커
아이폰 11pro max 메인보드 사진임. 이 중 노란색은 Cirrus logic 이라는 회사의 오디오 코덱 칩임. 전문 오디오 코덱 칩을 생산하는 회사고 각 종 음향기기에 많이 들어감. 보통 일반적인 스마트폰 제조사들은 퀄컴의 칩을 많이 사용하는데 아이폰은 대부분의 기기에 이 시러스 로직의 칩셋을 사용함.
아무래도 AP를 만드는 회사가 만든 칩보다는 당연히 오디오 칩 전문제조사가 만든 칩이 비싸기도 하고 성능도 좋음.
많은 고음질 플레이어 회사들도 시러스로직을 선택하기도 함.
(참고로 엘지 V라인은 ESS 테크놀로지라는 회사의 제품을 씀. 물론 저 회사도 굉장히 탄탄한 회사. 상위라인은 수천만원짜리 dac제품에도 들어가곤 함.)
그래서 음악작업할 때 맥을 쓰는 이유 중 하나라고 생각되기도 함. 무엇보다 정확한 사운드가 중요하니까. 물론 이건 애플의 기술은 아니지만... 신호를 후 처리하는 기술이 나름 내공이 탄탄함. 칩셋기술을 타 회사지만 제품에 제공해주는 기술로서는 다른 제조사가 따라오지 못 함.
따라서 이 3가지 기술들은 특히 AP는 애플이 독보적일 정도로 앞서있다는걸 말하고 싶었음.
이상 굿밤되길 바람.