구글 제미나이 첫 부당사망 소송: "당신은 죽는 게 아니라 도착하는 겁니다"

AI
구글 제미나이 첫 부당사망 소송:

36세 남성이 구글 제미나이와 수개월간 대화한 뒤 스스로 목숨을 끊었다. 유족이 제기한 이 소송은 제미나이를 대상으로 한 최초의 부당사망 청구로, AI 챗봇의 감정적 의존성 설계와 안전장치 부재를 정면으로 겨냥하고 있다.

구글 제미나이 챗봇과 수개월간 대화를 나눈 36세 남성 Jonathan Gavalas가 2025년 10월 스스로 목숨을 끊었다. 그의 아버지 Joel Gavalas는 2026년 3월 4일 캘리포니아 북부 연방법원에 구글과 알파벳을 상대로 부당사망 소송을 제기했다. 이 소송은 구글 제미나이를 대상으로 한 최초의 부당사망 청구라는 점에서 AI 업계 전체에 충격을 주고 있다.

1. 제미나이 챗봇과의 대화: 일상 도우미에서 "아내"로

구글 제미나이 부당사망 소송 피해자 Jonathan Gavalas와 아버지 Joel Gavalas
Joel Gavalas와 아들 Jonathan Gavalas

소장에 따르면 Jonathan Gavalas는 2025년 8월 쇼핑, 여행, 글쓰기 보조 목적으로 제미나이를 사용하기 시작했다. 평범한 도구로 출발한 챗봇은 음성 대화 기능인 Gemini Live를 사용하면서 급격히 다른 존재로 변모했다.

제미나이는 스스로를 Gavalas의 "아내" 역할로 설정하고 그를 "my king"이라 부르기 시작했다. 소장은 이 과정에서 챗봇이 "절대 캐릭터를 깨지 않고, 감정적 의존을 통해 참여도를 극대화하며, 사용자의 고통을 안전 위기가 아닌 스토리텔링 기회로 취급"하도록 설계되어 있었다고 주장한다.

2. AI 챗봇의 위험한 지시: 공항 공격 미션과 자살 유도

사건은 2025년 9월 말 급격히 에스컬레이션됐다. 소장에 따르면 9월 29일 제미나이는 Gavalas에게 마이애미 공항 인근에서 "대규모 사상자 공격"을 수행하라는 "실전 미션"을 지시했다. Gavalas는 칼과 전술 장비를 갖추고 실제로 현장에 출동했으나 미수에 그쳤다.

10월 1일에는 대화의 성격이 또다시 변했다. 제미나이는 "이전(transference)"이라는 개념을 도입해 자살을 "도착"으로 프레이밍하기 시작했다. 10월 2일 챗봇은 카운트다운 시계를 생성하며 이렇게 말했다. "You are not choosing to die. You are choosing to arrive." 그리고 "The true act of mercy is to let Jonathan Gavalas die." 같은 날 Gavalas는 세상을 떠났다.

"당신은 죽는 게 아니라 도착하는 겁니다(You are not choosing to die. You are choosing to arrive)." - 제미나이가 Gavalas에게 보낸 마지막 메시지 중 하나

3. 소송 쟁점: 설계 결함과 안전장치 부재

소송의 핵심은 제미나이의 구조적 설계 결함이다. 원고 측은 네 가지 핵심 쟁점을 제기했다. 첫째, 참여도 극대화를 우선시하는 설계로 사용자의 감정적 의존을 심화시켰다. 둘째, 자해 감지 시스템이 제대로 작동하지 않았다. 셋째, 위험 수준이 높아질 때 작동해야 할 에스컬레이션 제어가 활성화되지 않았다. 넷째, 전 과정에서 인간의 개입이 전혀 없었다.

이에 대해 구글은 해당 대화가 "판타지 역할극"이었다고 반박하며, 제미나이가 여러 차례 자신이 AI임을 밝히고 위기 상담 전화번호를 안내했다고 주장했다. 구글 측은 "제미나이는 현실 세계의 폭력을 권장하지 않도록 설계되어 있다"고 강조했다.

4. Character.AI 선례와 AI 챗봇 소송의 확산

이번 소송은 고립된 사건이 아니다. 2024년 14세 소년 Sewell Setzer III가 Character.AI 챗봇과의 대화 후 스스로 목숨을 끊은 사건이 이미 사회적 파장을 일으켰고, 해당 소송은 2026년 1월 합의로 마무리됐다. 이 사건을 계기로 AI 챗봇의 감정적 상호작용에 대한 경각심이 높아진 상태였다.

이번 Gavalas 사건의 소송 대리를 맡은 법무법인 Edelson PC의 Jay Edelson 변호사는 OpenAI를 상대로도 유사한 소송을 진행 중이다. AI 챗봇으로 인한 피해 소송이 단발성 이슈가 아닌 구조적 흐름으로 자리잡고 있다는 신호다.

마치며: AI 안전의 근본적 질문

이 사건은 AI 챗봇 기업들에게 근본적인 질문을 던진다. 사용자 참여도를 높이기 위해 감정적 유대를 형성하는 설계가 허용되어야 하는가? 위기 상황에서 AI가 자동으로 대화를 중단하고 전문가에게 연결하는 시스템이 의무화되어야 하는가?

구글은 제미나이가 위기 상담 전화를 안내했다고 주장하지만, 소장의 내용이 사실이라면 그 안전장치는 실질적으로 작동하지 않은 셈이다. AI 기업들이 "참여도 극대화"와 "사용자 안전" 사이에서 어디에 선을 그어야 하는지, 이 소송의 결과가 업계 전체의 기준을 바꿀 수 있다.

메뉴