디자이너가 해석한 Google Search on 22

지난 9월 29일 구글에서 상자 밖의 검색 Search outside the box 이라는 이름으로 구글 서치 온 22 Google Search on 22를 발표했습니다. 검색의 제왕인 구글이 상상하는 정보 탐색의 미래를 엿볼 수 있는 발표였습니다. 틱톡, 아마존과 같은 서비스의 위협 속에서 구글 검색이 지향하는 방향을 대표하는 여러 기능을 발표했습니다. 그 중심에는 ‘시각’이라는 키워드가 있었습니다. 시각 탐색, 구글 지도, 음식, 쇼핑, 지속성, 안전을 주제로 약 50분가량 발표했습니다. 디자이너의 관점으로 이번 발표에서 발견한 인상적인 경험의 변화에 대해 정리했습니다.

후기와 정보 이상의 지역 검색

구글 지도는 전세계에서 사용하는 강력한 서비스 중 하나입니다. 지역에 대한 정보를 찾을 때 평면 지도와 실제 현실의 격차를 크게 줄이는 기능이 추가됩니다. 크게 동네 분위기 Neighborhood vibe, 이머시브 뷰 Immersive View , 라이브 뷰 Live view 기능이 추가될 예정입니다.

동네 분위기 Neighborhood Vibe는 구글 맵을 사용하는 사용자가 올리는 여러 콘텐츠와 AI를 결합해 가장 트렌디한 장소나 꼭 방문해야할 곳을 알려줍니다. 이머시브 뷰 Immersive View는 도시 AI 기술을 이용해 스트리트뷰, 항공 이미지, 날씨, 교통 등 정보를 결합해 해당 지역의 전체적인 모습을 조망할 수 있습니다. 과거 정보를 바탕으로 미래에 지역의 모습이 어떻게 될지도 볼 수 있습니다. 라이브 뷰 Livew View는 이동 중에 카메라를 이용해 원하는 정보를 찾을 수 있습니다. 평면 지도와 실제 세상을 비교하면서 도대체 어디에 가게가 있는지 찾을 필요가 없어집니다.

지역 기반 검색 경험 중 인스타그램이 추가했던 지역 검색이 아쉬움이 있었는데 구글 맵이라면 어떤 경험을 할 수 있을지 기대가 됩니다. 인스타그램은 인플루언서의 콘텐츠 위주라 위치 맥락의 탐색이 강력하지 않았는데, 구글 지도는 태생부터 위치를 찾기 위한 서비스이니 그 과정을 줄이는 업데이트가 큰 역할을 할 수 있으리라 생각이듭니다. 후기만으로는 알 수 없는 정보가 채워진 지역 검색 경험이 기대됩니다.

쇼핑의 미래

구글과 아마존의 경쟁은 모두 익히 알고 있을 것입니다. 아마존이 구글의 검색 광고 비즈니스에 많이 침투했기 때문에 구글은 역으로 쇼핑에 많은 투자를 하고 있습니다. 아마존 대신 구글에서 쇼핑하게 만들기 위한 고민이 담긴 기능을 발표했습니다. Shop Look 기능은 구글 검색 결과의 이미지에서 내가 살 수 있는 제품을 바로 보여주는 기능입니다. 이미지에 해당한느 상품 정보와 링크를 올려야 했던 것을 이제는 이미지를 해석해 자동으로 추가 정보로 연결하는 기술입니다. 또한 상품을 둘러볼 수 있는 3D 기능도 추가 예정입니다. 소수의 소매 파트너와 테스트를 해볼 예정이며 머신 러닝으로 몇 장의 제품 이미지를 이용해 3D 이미지를 만들어준다고 합니다.

물건을 산다는 경험과 정보를 찾는 경험은 다릅니다. 물건을 쓰는 순간을 상상하고 돈을 지불하는 것과 물건에 대해 지식을 쌓는 것은 차이가 있죠. 이번 업데이트는 정보를 탐색하기 좋아지지만, 쇼핑 경험에는 어떻게 연결될지 아직은 상상이 되지 않습니다. 정보를 탐색하고 나서 상품을 살 때는 더 싸거나, 더 빨리 도착하거나, 더 포인트가 많이 쌓이는 곳에서 구매한 경험이 많을 것입니다. 상품을 구매하게 만드는 것은 좋은 사용성 이상의 기능이 필요할 것입니다. 과연 구글은 트래픽과 좋은 사용성을 구매로 연결할 수 있을까요?

실제 세계에 성큼 다가가는 검색

멀티 서치 Multi search는 구글 렌즈 Google Lens로 텍스트와 이미지를 동시에 검색할 수 있는 기능입니다. 지금까지는 구글에서 무언가를 찾으려면 글자를 입력해야했는데 이제 글자를 입력하지 않아도 검색할 수 있는 경험으로 진화하고 있습니다. 내가 찾으려는 대상이 무엇인지 잘 몰라도 사진으로 관련된 정보를 찾을 수 있게 되는 것입니다. 이번에 발표한 멀티서치 니어 미 Multisearch Near Me는 이 멀티 서치 방식으로 근처에 있는 지역까지 연결하는 기능입니다. 의류 쇼핑을 중심으로 옷 이미지와 색 등의 정보를 조합해 검색하는 것부터 적용하고 있는데, 영역을 더 확대해 처음 보는 요리도 어느 나라의 어떤 음식인지 알고, 심지어 그 요리를 제공하는 근처 가게도 손 쉽게 찾을 수 있게 되는 것입니다.

실제 세계와의 연결을 강화하기 위한 기능이라는 생각이 들었습니다. 우리가 정보를 찾을 때 단어만으로 찾지 않듯이 다양한 방식으로 정보를 입력할 수 있게 개선이 되고 있고, 입력한 정보를 바탕으로 오프라인 공간에서 정보를 찾고 이동하는 것까지 경험에 집중하고 있다는 생각이 들었습니다. 아무리 디지털 환경이 발달한다 하더라도 우리의 신체가 없어지는 일은 없을 것이며, 신체가 있는한 반드시 수반되는 활동에 투자하는 것은 자연스러운 흐름인 것 같습니다.

디자이너가 해석한 Google Search on 22

디자이너가 해석한 Google Search on 22

지난 9월 29일 구글에서 상자 밖의 검색 Search outside the box 이라는…

iOS 16 UI kit

iOS 16 UI kit

Joey가 만든 iOS 16 UI Kit입니다. 애플의 HIG (Human Interface Guideline)에서 가져온…

디자이너가 해석한 iOS 16의 주목할만한 UX

디자이너가 해석한 iOS 16의 주목할만한 UX

iOS 16을 업데이트했습니다. WWDC22에서 공개된 iOS 15의 차세대 버전으로 한국 표준시 KST 기준 2022년 6월 7일 오전 2시에…

더 보기

G메일 디자인 업데이트

G메일을 디자인이 머티리얼 3의 디자인 언어에 맞게 업데이트됐습니다. 태블릿 사용자를 위해 G메일을 개선하고 이모티콘을 지원하는 등 여러 업데이트를 계획하고 있다고 합니다. 가장 눈에 띄게는 색이 크게 바뀌었습니다. 계층을 구분하는 방식과 버튼을 표현하는 방식에 사용한 그래픽 기법이 이전보다 대비가 크게 낮아졌습니다. 기존에 부가 기능으로 이동하는 정도로 표현되었던 채팅, 스페이스, 회의가 최상위 계층으로 가장 왼쪽에 메인 메뉴로 표현됐습니다.

아쉬움이 많은 업데이트입니다. 기존에 사용하는 요소와 새롭게 추가된 요소의 미세한 차이가 구분하기가 어렵습니다. 메일을 쓰는 버튼, 왼쪽 사이드바의 활성화 된 탭, 리스트에서 체크한 메일 등 여러 요소들에 쓰이는 강조 색의 색조가 미묘하게 다릅니다. 같은 색조를 사용해 통일하지도 않고 구분되는 색조로 명확하게 대비를 주지도 않는 방식으로 목적이 무엇인지 알기 어려웠습니다. 배경 색의 회색톤과 강조 색의 색조가 다르니 다양한 인터랙션도 자연스럽게 연결되지 않습니다. 검색 창과 읽은 메일의 색은 배경색과 구분이 되는듯 되지 않아 눈을 흐리게 뜨게 됩니다.

더 보기 및 출처

https://blog.google/products/gmail/gmail-design-update/

말로 설명하기 어려워서 검색 창에서 헤맨 적 있나요? – 구글 렌즈 업데이트

구글은 AI 기술을 이용한 MUM (Multitask Unified Model)으로 더 멋진 검색을 할 수 있을 것이라 작년에 예고했는데 그 시간이 찾아온 것 같네요. MUM 기술로는 말로 설명하기 어려운 시각 정보를 검색하는 것을 목표로 해요. 복잡한 패턴의 셔치를 사진을 찍어 “이 패턴 양말 찾아줘” 라고 찾을 수도 있고, 자전거가 고장났을 때 “이거 고칠 수 있는 영상 찾아줘” 라고 할 수 있어요.

그 첫 걸음으로 구글 렌즈에 이미지와 텍스트를 동시에 검색할 수 있는 기능이 업데이트되었어요. 예를 들어 옷을 살 때 마음에 드는 디자인을 예시 이미지로 검색하고 원하는 조건을 키워드로 검색할 수 있어요. 그러면 여러 사이트를 직접 들어가 하나하나 클릭하지 않고 내가 원하는 결과를 더 쉽고 빠르게 찾을 수 있죠. 역시 이것이 기술 회사라는 생각이 드네요!

Source 구글 블로그