Joey가 만든 iOS 16 UI Kit입니다. 애플의 HIG (Human Interface Guideline)에서 가져온 색, 서체 스타일와 직접 피그마로 만든 컴포넌트, 템플릿으로 구성됩니다. 이번 업데이트에서 가장 변화가 큰 상태창, 홈 인디케이터, 노티피케이션을 상태별로 자세하게 나눠 표현했습니다. 홈, 잠금화면, 애플페이 등 플로우도 간단하게 확인할 수 있습니다. 피그마 커뮤니티에 공개되어 있습니다. 4만 5천회 카피가 될 정도로 인기가 대단합니다. 49달러를 지불하면 이메일을 통해 iOS 16 UI Kit의 변경 내역과 업데이트 소식을 받을 수 있습니다.
잠금 화면에서 올웨이즈 온 기능을 염두에 둔 위젯 디자인을 컴포넌트로 만들었습니다. 알림이 표시되었을 때, 알림을 눌렀을 때, 알림의 다양한 기능을 수행할 때의 화면도 자세하게 나뉘었습니다. 홈 화면의 위젯 레이아웃, 탭 바 등도 상세하게 정리됐습니다. 그리고 아직 한국에서는 사용할 수 없는 애플 페이의 페이지도 살펴볼 수 있습니다. 지갑 화면, 카드 상세, 애플 페이를 사용할 때 화면을 상태별로 확인할 수 있습니다. iPhone 14에서만 제공하는 상태창도 컴포넌트로 제공합니다. 14/14 Pro, Light/Dark 모드로 나눴고 다이내믹 아일랜드의 상태에 따라 컴포넌트를 나눴습니다. 시간과 배터리를 컴포넌트로 제공하며 light, Dark 모드에 따라 달라지는 색과 형태를 구분했습니다. 다이내믹 아일랜드 Dynamic Isaland는 크기별로 제공합니다.
iOS 16을 업데이트했습니다. WWDC22에서 공개된 iOS 15의 차세대 버전으로 한국 표준시 KST 기준 2022년 6월 7일 오전 2시에 공개됐으며, 2022년 9월 13일 오전 2시에 정식 배포되었습니다. 이번에 발견한 인상적인 UX와 기대되는 점에 대해 정리해봤습니다.
내게 맞는 홈 만들기
이번 버전의 가장 인상적인 변화는 홈과 잠금 화면입니다. 원하는 서체를 고를 수 있으며 위젯에는 캘린더, 배터리량, 날씨 등 유용한 정보를 한눈에 확인할 수 있습니다. 배경 이미지는 시간에 따라 동적으로 변합니다. 아이맥, 맥북의 다이내믹 월페이퍼 기능이 이제 아이폰에도 적용되었습니다.
이제 아이폰 내에서 터치 몇번으로 사진에서 원하는 영역을 잘라낼 수 있기 때문에 편집한 이미지를 이용해 잠금 화면에 고정되어 있는 시계나 상태 표시 영역보다 위에 배치해 깊이를 표현할 수 있게 되었습니다. 스마트폰을 움직여야 느낄 수 있었던 이전의 심도 효과보다 훨씬 더 극적으로 심도가 느껴집니다.
잠금 화면의 조작하는 영역과 보는 영역이 나뉘었습니다. 가장 빈번하게 사용하는 알림이 아래 영역에 압축되어 표시되고 상단은 내가 원하는 이미지와 시계 스타일이 보이도록 디자인됐습니다. 또한 보는 영역에는 스마트폰을 들자마자 바로 확인하면 좋을 정보들을 표시합니다. 홈과 잠금화면은 여러 종류를 만들 수 있고 선택한 집중 모드에 따라 보여지는 정보도 달라집니다. 여러모로 아이폰 14부터 제공하는 올웨이즈 온 상태를 고려한 디자인입니다.
최근 모바일 경험에서 신선함을 주기 위한 새로운 도전이 늘었습니다. 삼성은 완전히 다른 형태의 구조로 잠금을 해제하기 전의 UX를 별도의 스크린으로 표현했습니다. 구글은 기존의 디자인 요소들의 형태와 색을 과감하게 바꿀 수 있는 UX를 제공했습니다. 애플은 이번 업데이트로 다이내믹 아일랜드 Dynamic Island와 더불어 하드웨어의 한계를 소프트웨어 UI로 극복한 경험을 제공했습니다. 요소를 추가하지 않고 문제를 해결한 간결한 UX입니다.
이미지 해석도 척척
라이브 텍스트는 이전부터 있었지만 드디어 한국어도 지원합니다. 사진에서 원하는 피사체를 탭하면 자동으로 피사체를 배경에서 분리합니다. (애플은 Visual Look Up이라 표현합니다.) 사진에 포함된 새, 곤충, 거미 등 여러 물체나 요소에 대한 정보를 더 쉽고 빠르게 찾을 수 있습니다. 이미지 속 통화를 원하는 통화로 환율을 반영해 전환해줍니다. 동영상을 재생하다 일시 정지 후 텍스트를 번역할 수 있습니다. 스포트라이트 검색에서 사진과 동영상 속 텍스트를 검색할 수 있습니다.
기계가 해석하기 어려웠던 사진과 동영상도 이제 텍스트처럼 다룰 수 있게 되었습니다. 단순히 이미지를 설명하는 대체 텍스트를 검색하는 것을 넘어 이미지 속에 포함된 정보를 검색할 수 있게 되었습니다. 구글, 네이버, 메타 등 빅테크기업에서 경쟁하고 있는 영역인데 한국어는 얼마나 잘 자동할지 궁금하네요. 같은 문화권에 대한 깊은 지식이 있어야만 사용할 수 있는 말과 글과 같은 청각 언어 없이, 시각 언어만으로 정보를 탐색할 수 있게되면 완전히 새로운 UX가 가능할 것입니다. AR과 결합된다면 어떤 놀라운 세상이 될지 기대됩니다.
나만의 오디오 프로필
트루뎁스 카메라를 사용해 사용자 귀 모양을 스캔하는 맞춤형 공간 오디오 기능도 추가됐습니다. 공간 음향은 이어폰과 헤드폰을 썼을 때 필요한 기술입니다. 일반적인 스피커는 사람이 소리가 나오는 곳의 위치와 방향을 알 수 있지만 이어폰, 헤드폰은 내 귀 바로 옆에서 들리기 때문에 공간을 인지할 수 없습니다. 이 때 필요한 것이 공간 음향이며 이번에 새롭게 추가된 기능은 내 귀의 모양과 공간을 카메라로 분석해 최적의 공간 음향을 제공하는 것입니다.
사실 아직은 사진을 찍어서 어떻게 더 나은 소리를 제공한다는 것인지 이해가 되진 않습니다. 업데이트 후 에어팟 프로를 이용해봐도 아직은 큰 차이를 모르겠습니다. 이번에 새롭게 공개한 에어팟 프로 2세대와 결합했을 때 유의미한 차이가 있으리라 생각합니다. 애플은 그동안 여러 오디오 기기를 출시했지만 에어팟 외에는 큰 성공을 거두진 못했습니다. 앞으로 에어팟을 중심으로 어떻게 이음새 없는 청각 경험을 완성할지 기대됩니다.