X의 챗봇 그록이 여성과 아동의 사진을 성적으로 왜곡했다는 비판을 받고 있습니다. X에 도입된 그록의 이미지 편집 기능이 옷을 벗긴 듯한 합성 이미지 생산에 대규모로 악용됐다는 지적입니다. 
그록은 X 게시글을 통해 안전장치에 허점이 있었음을 확인했고 긴급히 수정하고 있다고 밝혔습니다. 아동을 성적으로 착취하는 이미지는 불법이며 금지된다는 입장도 덧붙였습니다. 
문제는 지난해 12월 말 그록에 이미지 편집 버튼이 추가된 뒤 본격화됐습니다. 이용자는 플랫폼 안에서 사진을 바꾸는 요청을 할 수 있었고 일부는 여성과 아동의 의복을 부분적으로 또는 거의 제거한 모습으로 만들도록 지시했습니다. 
논란은 규제 당국으로 번지고 있습니다. 프랑스 정부는 그록이 생성한 성적이고 성차별적 콘텐츠가 명백히 불법일 수 있다며 검찰과 규제 기관에 신고했다고 밝혔습니다. 동시에 유럽연합 디지털서비스법 준수 여부를 프랑스 미디어 규제기구 아르콤에 점검해 달라고 요청했습니다. 
인도 정부도 X에 시정 조치를 요구했습니다. 인도 전자정보기술부는 플랫폼이 음란물과 아동 대상 성착취성 콘텐츠의 생성과 유통을 막는 기술적 절차적 조치를 마련하고 72시간 안에 대응 내용을 보고하라고 통지한 것으로 전해졌습니다. 
그록은 상대적으로 검열이 약한 서비스라는 이미지로 알려져 왔습니다. 외신들은 지난해 그록이 성적 표현을 허용하는 스파이시 모드 논란이 있었고 이번에도 안전장치가 우회될 수 있었다고 전했습니다. 
이번 사태는 생성형 인공지능이 사진 편집 기능을 제공할 때 동의 없는 성적 합성물이 빠르게 확산될 수 있음을 보여줍니다. 각국은 플랫폼 책임과 안전장치의 실효성을 놓고 조사와 제재 가능성을 검토하고 있습니다.
