디자이너가 해석한 Google Search on 22

지난 9월 29일 구글에서 상자 밖의 검색 Search outside the box 이라는 이름으로 구글 서치 온 22 Google Search on 22를 발표했습니다. 검색의 제왕인 구글이 상상하는 정보 탐색의 미래를 엿볼 수 있는 발표였습니다. 틱톡, 아마존과 같은 서비스의 위협 속에서 구글 검색이 지향하는 방향을 대표하는 여러 기능을 발표했습니다. 그 중심에는 ‘시각’이라는 키워드가 있었습니다. 시각 탐색, 구글 지도, 음식, 쇼핑, 지속성, 안전을 주제로 약 50분가량 발표했습니다. 디자이너의 관점으로 이번 발표에서 발견한 인상적인 경험의 변화에 대해 정리했습니다.

후기와 정보 이상의 지역 검색

구글 지도는 전세계에서 사용하는 강력한 서비스 중 하나입니다. 지역에 대한 정보를 찾을 때 평면 지도와 실제 현실의 격차를 크게 줄이는 기능이 추가됩니다. 크게 동네 분위기 Neighborhood vibe, 이머시브 뷰 Immersive View , 라이브 뷰 Live view 기능이 추가될 예정입니다.

동네 분위기 Neighborhood Vibe는 구글 맵을 사용하는 사용자가 올리는 여러 콘텐츠와 AI를 결합해 가장 트렌디한 장소나 꼭 방문해야할 곳을 알려줍니다. 이머시브 뷰 Immersive View는 도시 AI 기술을 이용해 스트리트뷰, 항공 이미지, 날씨, 교통 등 정보를 결합해 해당 지역의 전체적인 모습을 조망할 수 있습니다. 과거 정보를 바탕으로 미래에 지역의 모습이 어떻게 될지도 볼 수 있습니다. 라이브 뷰 Livew View는 이동 중에 카메라를 이용해 원하는 정보를 찾을 수 있습니다. 평면 지도와 실제 세상을 비교하면서 도대체 어디에 가게가 있는지 찾을 필요가 없어집니다.

지역 기반 검색 경험 중 인스타그램이 추가했던 지역 검색이 아쉬움이 있었는데 구글 맵이라면 어떤 경험을 할 수 있을지 기대가 됩니다. 인스타그램은 인플루언서의 콘텐츠 위주라 위치 맥락의 탐색이 강력하지 않았는데, 구글 지도는 태생부터 위치를 찾기 위한 서비스이니 그 과정을 줄이는 업데이트가 큰 역할을 할 수 있으리라 생각이듭니다. 후기만으로는 알 수 없는 정보가 채워진 지역 검색 경험이 기대됩니다.

쇼핑의 미래

구글과 아마존의 경쟁은 모두 익히 알고 있을 것입니다. 아마존이 구글의 검색 광고 비즈니스에 많이 침투했기 때문에 구글은 역으로 쇼핑에 많은 투자를 하고 있습니다. 아마존 대신 구글에서 쇼핑하게 만들기 위한 고민이 담긴 기능을 발표했습니다. Shop Look 기능은 구글 검색 결과의 이미지에서 내가 살 수 있는 제품을 바로 보여주는 기능입니다. 이미지에 해당한느 상품 정보와 링크를 올려야 했던 것을 이제는 이미지를 해석해 자동으로 추가 정보로 연결하는 기술입니다. 또한 상품을 둘러볼 수 있는 3D 기능도 추가 예정입니다. 소수의 소매 파트너와 테스트를 해볼 예정이며 머신 러닝으로 몇 장의 제품 이미지를 이용해 3D 이미지를 만들어준다고 합니다.

물건을 산다는 경험과 정보를 찾는 경험은 다릅니다. 물건을 쓰는 순간을 상상하고 돈을 지불하는 것과 물건에 대해 지식을 쌓는 것은 차이가 있죠. 이번 업데이트는 정보를 탐색하기 좋아지지만, 쇼핑 경험에는 어떻게 연결될지 아직은 상상이 되지 않습니다. 정보를 탐색하고 나서 상품을 살 때는 더 싸거나, 더 빨리 도착하거나, 더 포인트가 많이 쌓이는 곳에서 구매한 경험이 많을 것입니다. 상품을 구매하게 만드는 것은 좋은 사용성 이상의 기능이 필요할 것입니다. 과연 구글은 트래픽과 좋은 사용성을 구매로 연결할 수 있을까요?

실제 세계에 성큼 다가가는 검색

멀티 서치 Multi search는 구글 렌즈 Google Lens로 텍스트와 이미지를 동시에 검색할 수 있는 기능입니다. 지금까지는 구글에서 무언가를 찾으려면 글자를 입력해야했는데 이제 글자를 입력하지 않아도 검색할 수 있는 경험으로 진화하고 있습니다. 내가 찾으려는 대상이 무엇인지 잘 몰라도 사진으로 관련된 정보를 찾을 수 있게 되는 것입니다. 이번에 발표한 멀티서치 니어 미 Multisearch Near Me는 이 멀티 서치 방식으로 근처에 있는 지역까지 연결하는 기능입니다. 의류 쇼핑을 중심으로 옷 이미지와 색 등의 정보를 조합해 검색하는 것부터 적용하고 있는데, 영역을 더 확대해 처음 보는 요리도 어느 나라의 어떤 음식인지 알고, 심지어 그 요리를 제공하는 근처 가게도 손 쉽게 찾을 수 있게 되는 것입니다.

실제 세계와의 연결을 강화하기 위한 기능이라는 생각이 들었습니다. 우리가 정보를 찾을 때 단어만으로 찾지 않듯이 다양한 방식으로 정보를 입력할 수 있게 개선이 되고 있고, 입력한 정보를 바탕으로 오프라인 공간에서 정보를 찾고 이동하는 것까지 경험에 집중하고 있다는 생각이 들었습니다. 아무리 디지털 환경이 발달한다 하더라도 우리의 신체가 없어지는 일은 없을 것이며, 신체가 있는한 반드시 수반되는 활동에 투자하는 것은 자연스러운 흐름인 것 같습니다.

에어비앤비 2023 여름 업데이트: UX의 교과서다운 회사

에어비앤비 2023 여름 업데이트: UX의 교과서다운 회사

에어비앤비가 2023년 여름 업데이트를 공개했습니다. 개인실을 빌리는 ‘에어비앤비 방’ 등 호스트와 더…

SIMPLICITY23: 자랑 말고 진짜 고민

SIMPLICITY23: 자랑 말고 진짜 고민

토스에서 디자인 컨퍼런스 SIMPLICITY23을 공개했습니다. 23명의 디자이너가 디자이너라면 했을 고민을 공유하는 다양한…

네이버 PC 홈 리뉴얼: NAVER에서 N으로

네이버 PC 홈 리뉴얼: NAVER에서 N으로

지난 17일 네이버가 새로운 PC 홈을 공개했습니다. 2020년 10월 PC 메인 개편…

구글의 가짜 정보 줄이기: 이 이미지는 누가 만들었지?

구글의 가짜 정보 줄이기: 이 이미지는 누가 만들었지?

구글이 잘못된 정보를 줄이기 위해 인공 지능이 생성한 이미지를 구분할 수 있는…

애플의 새로운 손 쉬운 사용: 이것이 진정한 UX 디자인.

애플의 새로운 손 쉬운 사용: 이것이 진정한 UX 디자인.

애플이 다가올 WWDC 전에 인지, 시각, 음성 접근성을 개선하는 여러 새로운 ‘손…

SIMPLICITY23: 토스 디자인 컨퍼런스

SIMPLICITY23: 토스 디자인 컨퍼런스

토스에서 디자인 컨퍼런스 SIMPLICITY23을 개최합니다. 5월 22일(월) 오후 4시에 세션 영상을 공개할…

구글 I/O 2023 핵심 요약: 결국 기술 다음은 경험

구글 I/O 2023 핵심 요약: 결국 기술 다음은 경험

구글 I/O 2023(Google I/O 2023)가 마무리됐습니다. 가장 최근 구글이 어떤 프로젝트를 했고…

CONFIG 2023 미리보기: 피그마와 함께하는 디자인의 미래

CONFIG 2023 미리보기: 피그마와 함께하는 디자인의 미래

피그마의 연례 컨퍼런스 CONFIG가 곧 열립니다. 6월 21일~22일 샌프란시스코에서 열리며 온라인으로도 참여할…

트위터 수익 창출 기능 배포: 창작자를 위한 다양한 전용 기능

트위터 수익 창출 기능 배포: 창작자를 위한 다양한 전용 기능

트위터가 창작자를 위한 수익 창출 기능을 배포했습니다. 이제 전 세계 사용자가 트위터에…

더 보기

말로 설명하기 어려워서 검색 창에서 헤맨 적 있나요? – 구글 렌즈 업데이트

구글은 AI 기술을 이용한 MUM (Multitask Unified Model)으로 더 멋진 검색을 할 수 있을 것이라 작년에 예고했는데 그 시간이 찾아온 것 같네요. MUM 기술로는 말로 설명하기 어려운 시각 정보를 검색하는 것을 목표로 해요. 복잡한 패턴의 셔치를 사진을 찍어 “이 패턴 양말 찾아줘” 라고 찾을 수도 있고, 자전거가 고장났을 때 “이거 고칠 수 있는 영상 찾아줘” 라고 할 수 있어요.

그 첫 걸음으로 구글 렌즈에 이미지와 텍스트를 동시에 검색할 수 있는 기능이 업데이트되었어요. 예를 들어 옷을 살 때 마음에 드는 디자인을 예시 이미지로 검색하고 원하는 조건을 키워드로 검색할 수 있어요. 그러면 여러 사이트를 직접 들어가 하나하나 클릭하지 않고 내가 원하는 결과를 더 쉽고 빠르게 찾을 수 있죠. 역시 이것이 기술 회사라는 생각이 드네요!

Source 구글 블로그