구글이 새로운 실험적 도구 ‘Stitch’를 공개했습니다. Stitch는 간단한 텍스트 설명이나 이미지 입력만으로 사용자 인터페이스를 설계하고, 그 결과를 실제 프론트엔드 코드로 전환할 수 있는 AI 기반 디자인 도구입니다. 5월 20일 구글 랩스를 통해 첫 선을 보인 이 도구는 Gemini 2.5 Pro 모델의 멀티모달 능력을 활용해 디자인과 개발의 간극을 좁히는 데 집중하고 있습니다.
Stitch는 제품 디자이너와 엔지니어가 함께 고안한 프로젝트로, 디자이너의 창의성과 개발자의 기술적 요구를 동시에 만족시키는 워크플로우를 제공하는 것을 목표로 합니다. 사용자는 텍스트나 이미지 기반 입력을 통해 UI를 생성할 수 있으며, 이후 이를 Figma로 내보내거나 실제 웹 환경에 적용 가능한 코드로 바로 변환할 수 있습니다.
1. 자연어 기반 UI 생성
- 사용자는 만들고자 하는 앱의 기능, 색상 구성, 사용자 경험 등을 영어로 설명하기만 하면 됩니다. Stitch는 이를 바탕으로 시각적 인터페이스를 생성합니다.
2. 이미지 기반 UI 생성
- 화이트보드에 그린 스케치나 마음에 드는 UI 스크린샷, 대략적인 와이어프레임을 업로드하면 Stitch가 이를 분석해 디지털 UI로 전환합니다.
3. 반복적 디자인 실험
- 여러 레이아웃, 컴포넌트, 스타일을 실험하며 다양한 디자인을 생성할 수 있습니다. UI 디자인의 반복적 특성을 반영해 빠른 아이디어 실험이 가능합니다.
4. 개발을 위한 연계 기능
- 디자인을 Figma로 붙여넣을 수 있어 팀 협업이나 디자인 시스템 통합이 쉬우며, 생성된 UI를 바탕으로 즉시 사용 가능한 프론트엔드 코드도 제공합니다.
구글은 Stitch를 통해 누구나 쉽게 앱을 디자인하고 구현할 수 있는 새로운 흐름을 제시하고자 합니다. 지금은 실험적 단계로 Google Labs에서 제공되고 있으며, 사용자들은 stitch.withgoogle.com을 통해 직접 체험해 볼 수 있습니다.











