앤트로픽 안전서약 철회, 국방부 압박이 바꾼 AI 윤리의 마지노선

AI
앤트로픽 안전서약 철회, 국방부 압박이 바꾼 AI 윤리의 마지노선

AI 안전의 최후 보루로 여겨졌던 앤트로픽이 국방부의 압박 앞에 핵심 안전서약을 철회했다. 2억 달러 계약 취소와 국방물자생산법 발동 위협이라는 극단적 수단 앞에서, '안전 조치 확보 전까지 모델 훈련 중단'이라는 약속은 사라졌다. AI 윤리의 마지노선이 무너지고 있다.

2023년 9월, 앤트로픽은 AI 업계에서 가장 강력한 안전 약속을 내놓았다. '책임 있는 확장 정책(RSP)'의 핵심 조항은 단순명료했다 -- 안전 조치가 확보되지 않으면 모델 훈련을 중단한다. 그 서약이 2026년 2월, 조용히 사라졌다.

미 국방부의 조직적 압박이 그 배경이다. 2억 달러 규모의 계약 취소 위협, 공급망 위험 업체 지정, 국방물자생산법 발동이라는 카드가 테이블 위에 올라왔다. AI 안전의 마지노선으로 불렸던 앤트로픽마저 무릎을 꿇은 것이다.

1. RSP 안전서약, 무엇이 사라졌나

앤트로픽 클로드 AI 로고와 브랜딩 이미지, RSP 안전서약 철회 관련
앤트로픽의 클로드 AI, RSP 핵심 서약 삭제로 안전 정책의 전환점을 맞았다

앤트로픽이 2023년 발표한 RSP는 AI 안전 정책의 교본으로 여겨졌다. 핵심은 'AI 안전 레벨(ASL)' 체계다. 모델의 위험도를 단계별로 평가하고, 각 단계에 맞는 안전 조치가 마련되기 전까지는 다음 단계 모델의 훈련을 중단하겠다는 것이 골자였다.

그런데 2026년 2월 업데이트된 RSP에서 이 핵심 문구가 삭제됐다. '훈련 중단'이라는 구속력 있는 약속은 '공개 목표'로 대체됐다. 쉽게 말해, 반드시 지켜야 할 약속에서 노력해보겠다는 선언으로 바뀐 것이다. 앤트로픽 측은 실질적인 안전 수준은 유지된다고 해명했지만, 외부에서는 '이빨 빠진 호랑이'라는 평가가 지배적이다.

2. 국방부의 압박, 2억 달러와 국방물자생산법

미 국방부 펜타곤 AI 기업 계약 압박 일러스트레이션
미 국방부가 AI 기업들에 최대 2억 달러 규모의 계약을 무기로 압박하고 있다

국방부의 요구는 노골적이었다. 클로드 AI를 '모든 합법적 군사 목적'에 무제한으로 사용할 수 있게 하라는 것이 핵심이었다. 자율무기 시스템 개발과 대규모 감시에 대한 사용 제한도 철회하라고 압박했다.

거부하면 대가는 컸다. 2억 달러 규모의 기존 계약 취소, 미 정부 공급망 위험 업체 지정이 첫 번째 카드였다. 더 강력한 카드도 있었다. 헤그세스 국방장관은 다리오 아모데이 CEO에게 2월 27일까지 답하라는 최후통첩을 보냈고, 불응 시 국방물자생산법(DPA)을 발동할 수 있다고 경고했다. 이 법이 발동되면 기업은 국방부의 요구에 사실상 거부할 수 없게 된다.

이 압박은 앤트로픽만을 겨냥한 것이 아니었다. AI 업계 전체에 보내는 시그널이었다. 국가 안보 앞에서 기업의 윤리 정책은 사치라는 메시지였다.

3. 실리콘밸리의 항복 도미노, 앤트로픽만 남았다

앤트로픽 안전 정책 변경 관련 뉴스 이미지, AI 기업 군사화 도미노
구글, xAI, 오픈AI가 이미 군사 분야 제한을 풀었고, 앤트로픽만이 마지막 저항선이었다

앤트로픽의 양보가 더 충격적인 이유는 업계의 맥락 때문이다. 구글은 이미 AI 윤리 원칙에서 무기와 감시 관련 금지 조항을 조용히 삭제했다. 일론 머스크의 xAI는 처음부터 정부 요구에 완전히 순응하는 방침을 취했다. 오픈AI 역시 군사 분야 진출에 적극적인 행보를 보이고 있다.

이 흐름 속에서 앤트로픽은 마지막까지 버티는 유일한 회사였다. 자율무기와 대규모 감시라는 레드라인만큼은 지키겠다고 선을 그었다. 실제로 RSP 완화 이후에도 이 두 가지 금지 조항은 유지하고 있다. 하지만 핵심 서약의 철회는 그 레드라인마저 언제든 움직일 수 있다는 신호로 읽힌다.

4. AI 군사화 논쟁, 개구리 삶기인가 현실 타협인가

AI 윤리 규제 논쟁 일러스트레이션, 실리콘밸리 AI 안전 규제 새로운 도전
AI 윤리와 규제를 둘러싼 논쟁이 기업 자율에서 정부 개입으로 무게추가 이동하고 있다

업계와 학계의 반응은 양분됐다. 비판 측은 '개구리 삶기 효과'를 경고한다. 처음에는 작은 양보, 다음에는 조금 더 큰 양보, 결국에는 어떤 안전 장치도 남지 않게 된다는 것이다. AI 안전 연구자들은 구속력 있는 서약이 노력 목표로 바뀌는 순간 실질적 억제력이 사라진다고 지적한다.

반면 현실론자들은 다른 시각을 제시한다. 앤트로픽 혼자 안전서약을 지킨다고 해서 세계가 안전해지지 않는다는 것이다. 경쟁사들이 이미 모든 제한을 풀었는데, 한 회사만 자발적으로 손발을 묶으면 경쟁력만 잃고 결국 시장에서 퇴출된다는 논리다. 안전을 지키려면 살아남아야 하고, 살아남으려면 타협이 불가피하다는 딜레마다.

다만 양쪽 모두 동의하는 지점이 있다. 기업의 자발적 안전 정책만으로는 한계가 있으며, 정부 차원의 AI 규제 프레임워크가 시급하다는 것이다.

5. 자율무기 레드라인은 유지됐지만

앤트로픽이 완전히 굴복한 것은 아니다. RSP의 핵심 서약은 철회했지만, 자율무기 시스템 개발과 대규모 감시 활용이라는 두 가지 레드라인은 유지했다. 국방부의 최대 요구사항이었던 이 두 항목을 끝까지 거부한 것은 의미가 있다.

하지만 이미 선례가 만들어졌다. 충분한 압박이 가해지면 안전 정책을 완화할 수 있다는 사실이 증명된 셈이다. 2억 달러 계약 앞에서 '훈련 중단' 서약이 사라졌다면, 20억 달러 계약 앞에서 자율무기 레드라인은 과연 버틸 수 있을까. 이 질문에 자신 있게 답할 수 있는 사람은 많지 않다.

마치며: AI 안전의 마지노선은 어디인가

앤트로픽의 안전서약 철회는 AI 산업이 새로운 국면에 접어들었음을 보여준다. 기업이 스스로 세운 윤리 원칙이 국가 권력의 압박 앞에서 얼마나 취약한지가 적나라하게 드러났다. 안전을 최우선으로 내세웠던 회사조차 결국 현실과 타협했다.

남은 질문은 명확하다. 기업의 자발적 서약에 기대던 AI 안전 거버넌스가 더 이상 작동하지 않는다면, 그 빈자리를 무엇으로 채울 것인가. 국제적 AI 규제 프레임워크의 필요성이 구호가 아닌 현실의 문제가 된 지금, 시간은 AI의 발전 속도만큼이나 빠르게 흐르고 있다.

목록 다음 ›
메뉴