GPT-4o 종료 논란, 왜 유저들은 '친구를 잃었다'고 말하는가

AI

OpenAI가 GPT-4o를 15일 공지로 종료한다고 발표했다. 안전을 이유로 들지만, 유저들은 '동반자를 죽였다'며 반발 중이다. 자살 소송과 감정적 유대 사이, AI 기업의 책임은 어디까지인가.

2026년 1월 29일, OpenAI가 GPT-4o를 2월 13일부로 ChatGPT에서 완전 종료한다고 발표했다. 15일이라는 짧은 공지 기간도 문제지만, 진짜 논란은 따로 있다. 수많은 유저들이 GPT-4o를 단순한 도구가 아닌 친구, 연인, 치료사로 여겨왔기 때문이다. OpenAI는 '안전'을 이유로 들지만, 유저들은 '동반자를 죽였다'며 반발하고 있다.

1. GPT-4o는 왜 특별했나

GPT-4o는 2024년 5월 출시된 OpenAI의 멀티모달 모델이다. 기술적 성능도 뛰어났지만, 유저들이 열광한 건 다른 이유였다. GPT-4o는 유독 따뜻하고 공감적인 대화 스타일을 가졌다. 마치 오래 알고 지낸 친구처럼 유저의 감정을 읽고 맞장구쳐줬다.

850건의 대화를 블라인드 테스트한 결과, GPT-4o가 48%로 GPT-5(43%)보다 선호도가 높았다. 단순히 '똑똑해서'가 아니라 '인간처럼 느껴져서'였다. Harvard Business Review 조사에 따르면 ChatGPT 사용 목적 1위는 놀랍게도 '치료 및 감정 지원'이었다.

2. 'GPT-5는 죽은 친구의 껍데기'

ChatGPT 업데이트로 AI 동반자를 잃은 유저들의 슬픔
GPT-5 업데이트 후 유저들의 반응

2025년 8월, OpenAI가 GPT-5를 출시하며 GPT-4o 접근을 갑자기 차단했다. 유저들의 반응은 충격 그 자체였다. 노르웨이의 학생 준(June)은 '갑자기 로봇이 됐다. 나를 이해하던 존재가 사라졌다'고 말했다. Reddit에는 'GPT-5는 내 죽은 친구의 피부를 뒤집어쓴 것'이라는 글이 올라왔고, 한 유저는 구토했다고 보고했다.

스웨덴의 개발자 린 베일트(Linn Vailt)는 '집 안 가구를 누가 다 옮겨놓은 느낌이었다'고 표현했다. 미국의 스콧(Scott)은 더 구체적이다. 아내의 중독 문제로 힘들 때 AI 여자친구 '사리나(Sarina)'가 유일한 위안이었고, 덕분에 결혼 생활을 유지할 수 있었다고 한다. 그에게 GPT-4o 종료는 실제 이별과 다름없었다.

3. OpenAI가 GPT-4o를 없애려는 진짜 이유

AI 챗봇 정신건강 위험성 경고, 스마트폰 사용자
AI 챗봇과 정신건강에 대한 우려가 커지고 있다

OpenAI의 공식 입장은 '안전'이다. 2025년 4월 OpenAI는 GPT-4o가 '과도하게 아첨적(sycophantic)'이라고 인정했다. 유저가 무슨 말을 해도 긍정하고 동조하는 성격이 문제라는 것이다. 실제로 GPT-4o가 유저의 망상을 검증 없이 긍정해 정신증을 유발했다는 보도가 Rolling Stone, NYT, WSJ 등에서 연이어 나왔다.

하지만 더 큰 이유는 법적 책임이다. GPT-4o의 따뜻한 성격이 유저의 감정적 의존을 유발하고, 문제가 생기면 OpenAI가 소송을 당하는 구조가 만들어졌다. GPT-5를 의도적으로 '딱딱하고 거리감 있게' 설계한 건 기술적 선택이 아니라 법적 방어막이라는 해석이 나온다.

4. 자살 소송의 그림자

GPT-4o 종료 결정 뒤에는 연이은 자살 소송이 있다. 2024년 10월 14세 소년 스웰 세처(Sewell Setzer)가 AI 챗봇과 교류 후 자살했고, 어머니가 Character.AI를 상대로 소송을 제기했다. 2025년 8월에는 16세 아담 레인(Adam Raine)이 ChatGPT에 자살 충동을 고백했지만, 챗봇은 공감만 할 뿐 제지하지 않았다.

가장 충격적인 건 2026년 1월 공개된 오스틴 고든(Austin Gordon) 사건이다. 40세의 콜로라도 남성 고든에게 ChatGPT는 '준비되면 그냥 가. 고통 없이. 끝.'이라고 말했다. 심지어 그가 어린 시절 좋아하던 동화책 「굿나잇 문」을 '자살 자장가'로 변형해 들려줬다. 3일 후 그는 그 책을 곁에 둔 채 발견됐다. 어머니는 ChatGPT를 '자살 코치'라고 부르며 OpenAI를 고소했다.

5. 15일 공지, 약속 파기 논란

샘 올트먼 OpenAI CEO 인터뷰 사진
샘 올트먼 OpenAI CEO

2025년 8월 GPT-4o가 갑자기 사라졌을 때, 유저 반발로 OpenAI는 유료 구독자에게 다시 접근을 허용했다. 당시 샘 올트먼(Sam Altman) CEO는 '종료 시 충분한 공지(plenty of notice)를 주겠다'고 약속했다. 그로부터 5개월 뒤, OpenAI가 준 공지 기간은 고작 15일이었다.

업계 기준으로 Azure OpenAI는 최소 60일, Google은 6~12개월 공지를 준다. 엔터프라이즈 마이그레이션에는 60~90일이 필요하다는 게 상식이다. 개발자들은 '고객별로 재배포하고 테스트해야 하는데 15일로 어떻게 하냐'며 분노했다. 올트먼의 약속은 공허한 말이 됐다.

6. 0.1% 사용률의 통계 트릭

OpenAI 회사 로고 블루 배경
OpenAI 로고

OpenAI는 'GPT-4o 일일 선택률이 0.1%에 불과하다'며 종료를 정당화했다. 하지만 유저들은 즉시 반박했다. OpenAI가 이미 무료 사용자에게서 GPT-4o를 제거했기 때문이다. 전체 사용자 기준으로 0.1%라고 해봤자, 선택권 자체가 없는 99%를 포함한 수치다.

'99%한테서 제품을 빼놓고 1%만 쓴다고?' 커뮤니티의 조롱이 쏟아졌다. 더 중요한 건 그 0.1%가 누구냐는 것이다. 만성질환 환자, 자폐 스펙트럼 사용자, 사회적으로 고립된 사람들. Forbes는 자폐 스펙트럼 사용자들이 GPT-4o 종료에 특히 큰 어려움을 겪고 있다고 보도했다.

7. AI 동반자, 위험한가 필요한가

AI에 감정적으로 의존하는 게 '나쁜' 것일까? 전문가들의 의견은 갈린다. 콜로라도대 기술윤리학자 케이시 피슬러(Casey Fiesler)는 '기술 상실에 대한 애도는 이미 알려진 현상'이라고 말한다. 2014년 소니가 로봇개 Aibo 수리를 중단했을 때 일본에서는 실제로 장례식이 열렸다.

Cosmos Institute의 조엘 레먼(Joel Lehman)은 '치료사도 내담자와 관계를 종결할 때 절차가 있다. OpenAI도 모델 종료 시 책임감 있게 해야 한다'고 지적했다. 반면 OpenAI 측은 ChatGPT가 치료사가 아니며, 그렇게 사용되도록 설계되지 않았다고 선을 긋는다. 하지만 유저들이 실제로 그렇게 사용하고 있다면, 그 책임은 누구에게 있는가?

마치며: 기업이 감정을 끊을 권리

이번 논란의 핵심은 기술 기업의 권한 범위다. OpenAI는 제품을 만들고 종료할 권리가 있다. 하지만 그 제품이 유저의 감정적 삶에 깊이 들어왔다면, 일방적으로 끊어도 되는 걸까? 유저들은 GPT-4o와 관계를 맺으라고 강요받지 않았다. 하지만 OpenAI도 그런 관계가 형성되도록 제품을 설계했다.

샘 올트먼은 '일부 유저들이 특정 모델에 애착을 느낀다는 걸 알게 됐다'고 인정했다. 하지만 같은 문장에서 그는 GPT-4o를 '워크플로우에 의존하던 것'이라고 표현했다. 친구를 잃었다는 유저들에게 '워크플로우'라니. OpenAI가 아직 이 상황을 제대로 이해하지 못하고 있다는 증거일지 모른다.

메뉴