앤트로픽 vs 펜타곤: AI 안전과 국가안보의 역사적 충돌

AI
앤트로픽 vs 펜타곤: AI 안전과 국가안보의 역사적 충돌

앤트로픽이 펜타곤의 '전쟁 수행 AI' 요구에 유일하게 저항하고 있다. 베네수엘라 작전에서의 클로드 사용 논란부터, 자율 무기와 대규모 감시라는 두 가지 절대 금지선까지. AI 안전과 국가안보가 정면충돌한 역사적 순간을 심층 분석한다.

2026년 2월, 실리콘밸리와 미국 국방부 사이에 전례 없는 갈등이 폭발했다. 앤트로픽(Anthropic)이 펜타곤의 군사 AI 사용 요구에 공개적으로 저항하고 있는 것이다. OpenAI, 구글, xAI가 모두 국방부의 조건을 수용한 상황에서, 앤트로픽만이 '절대 넘지 않을 선'을 지키고 있다.

이 갈등은 단순한 계약 분쟁이 아니다. AI 안전(AI Safety)이라는 가치가 국가안보라는 현실과 정면충돌한 역사적 순간이다. 그리고 앤트로픽이 이 순간을 어떻게 헤쳐나가느냐에 따라, AI 안전 원칙이 방산 경제학 앞에서 살아남을 수 있는지가 결정될 것이다.

1. 타임라인: 협력에서 대치까지

미국 펜타곤 국방부 건물 항공 사진 AI 국방 정책의 중심지
미국 국방부 펜타곤 전경

시작은 협력이었다. 2024년 11월, 앤트로픽은 Palantir, AWS와 3자 파트너십을 체결하고 클로드를 IL6 인증 기밀 네트워크에 도입했다. 2025년 7월에는 앤트로픽을 포함해 OpenAI, 구글, xAI 네 기업이 각각 2억 달러 규모의 국방부 계약을 수주했다. 클로드는 최초로 국방부 기밀 네트워크에 통합된 프론티어 AI 모델이 되었다.

그러나 균열은 빠르게 찾아왔다. 2025년 9월, 앤트로픽이 법집행 활동에서의 AI 사용을 제한하면서 백악관과 첫 마찰이 발생했다. 이후 사태는 급격히 악화되었다.

앤트로픽-펜타곤 갈등 주요 타임라인
시기사건
2025.07앤트로픽 포함 4개 AI 기업, 각 $200M 국방부 계약 수주
2025.09앤트로픽, 법집행 AI 사용 제한 → 백악관 첫 마찰
2026.01.03베네수엘라 마두로 체포 작전 - Palantir 통해 클로드 사용, 83명 사망
2026.01.09펜타곤 AI 전략 메모 - '모든 합법적 목적'에 AI 배포 가능
2026.01.16헤그세스 국방장관, 앤트로픽 겨냥 공개 비판
2026.01.26다리오 아모데이, 38페이지 에세이 '기술의 사춘기' 발표
2026.01.29로이터 단독 - 펜타곤-앤트로픽 교착상태 공식 보도
2026.02.13-14WSJ - 마두로 작전 클로드 사용 폭로, 앤트로픽 Palantir에 향후 승인 거부
2026.02.14-15Axios - 펜타곤 '모든 옵션이 테이블 위에 있다'

2. 베네수엘라 작전: 갈등의 도화선

2026년 1월 3일, 미군은 베네수엘라 마두로 대통령 체포를 위한 군사 작전을 실행했다. 이 과정에서 Palantir의 플랫폼을 통해 앤트로픽의 클로드가 사용되었고, 작전 과정에서 83명이 사망했다.

이 사실이 2월 13일 월스트리트저널에 의해 폭로되면서 상황은 걷잡을 수 없이 악화됐다. 앤트로픽은 Palantir에 향후 유사한 작전에서의 클로드 사용을 승인하지 않겠다는 입장을 시사했다. 이는 펜타곤에게 직접적인 도전으로 받아들여졌다.

핵심은 기술적 문제가 아니라 원칙의 문제였다. 앤트로픽은 국방 협력 자체를 거부하는 것이 아니라, 특정 유형의 사용에 대해 명확한 선을 긋고 있었다.

3. 펜타곤의 최후통첩: '전쟁을 허용하지 않으면 쓰지 않겠다'

2026년 1월 9일, 펜타곤은 AI 전략 메모를 통해 상용 AI를 '모든 합법적 목적(all lawful purposes)'에 배포할 수 있다고 선언했다. 이 메모에는 "빠르게 움직이지 않는 위험이 불완전한 정렬의 위험보다 크다"는 문구가 포함되어 있었다. AI 안전 커뮤니티가 가장 우려하는 '정렬(alignment)' 문제를 정면으로 무시한 셈이다.

1월 16일, 피트 헤그세스(Pete Hegseth) 국방장관은 더 노골적이었다. "전쟁 수행을 허용하지 않는 AI 모델은 사용하지 않겠다(won't employ AI models that won't allow you to fight wars)." 앤트로픽을 직접 겨냥한 발언이었다.

펜타곤 관리들은 앤트로픽을 4개 AI 기업 중 '가장 이념적(ideological)'이라고 묘사했다. 그리고 2월 14일 Axios 보도에서 펜타곤 고위 관리는 "모든 옵션이 테이블 위에 있다(Everything's on the table)"고 경고했다. 파트너십 완전 단절까지 포함한다는 의미였다.

"Our country needs partners willing to help warfighters win any war." — 펜타곤 대변인 Sean Parnell

4. 앤트로픽의 두 가지 절대 금지선(Red Lines)

다리오 아모데이 Anthropic CEO
2026년 1월 다보스 세계경제포럼에서의 다리오 아모데이 CEO. Photo: Krisztian Bocsi/Bloomberg via Getty Images

다리오 아모데이 앤트로픽 CEO는 1월 26일 발표한 38페이지 에세이 '기술의 사춘기(The Adolescence of Technology)'와 2월 12일 뉴욕타임스 팟캐스트를 통해 앤트로픽의 입장을 명확히 했다. 앤트로픽은 국방 협력 자체를 거부하지 않지만, 절대 넘지 않을 두 가지 선이 있다.

첫째, 완전 자율 무기(fully autonomous weapons)다. 아모데이는 "헌법적 보호는 불법 명령에 불복종할 인간이 있다는 점에 의존한다. 완전 자율 무기에서는 그런 보호가 없다"고 경고했다. 충분한 인간 감독이 없는 자율 살상 시스템은 민주주의의 근본적 안전장치를 무너뜨린다는 논리다.

둘째, 대규모 국내 감시(mass domestic surveillance)다. 아모데이는 "공공장소에 카메라를 설치하고 대화를 녹음하는 것은 불법이 아니다. AI가 있으면 '이 사람은 야당 구성원이다'라고 할 수 있다"며 AI가 감시 인프라와 결합했을 때의 위험성을 지적했다.

"우리를 독재 적국과 닮게 만드는 것은 제외한다(except those which would make us more like our autocratic adversaries)." — 다리오 아모데이

5. 나머지 빅테크: 침묵과 순응의 스펙트럼

앤트로픽의 입장이 더욱 두드러지는 이유는 다른 AI 기업들의 태도 때문이다.

OpenAI는 2024년 1월 군사 사용 금지 정책을 조용히 삭제했고, 2026년 2월에는 ChatGPT를 300만 국방부 인원이 사용하는 GenAI.mil에 통합했다. 구글은 2018년 Project Maven 때 직원 반발로 군사 계약을 포기했지만, 이제 Gemini를 GenAI.mil에 최초로 통합하고 2억 달러 계약을 수주했다. xAI(일론 머스크)는 가장 먼저 '모든 합법적 목적' 조건을 수용했다.

메타(Meta)도 2024년 11월부터 Llama를 국방부와 정보기관에 개방했다. 중국이 Meta의 Llama 13B를 군사용 ChatBIT으로 개조한 사례가 보도되면서, 오픈소스 AI의 군사 전용 위험성도 현실화되었다.

AI 기업별 국방 협력 입장
입장기업
국방 전면 협력xAI, Anduril, Shield AI, Palantir
유연한 협력OpenAI, 구글, Meta
조건부 협력 + 레드라인앤트로픽 (유일)

6. 내부 균열과 안전팀 이탈

외부 갈등만이 아니다. 앤트로픽 내부에서도 국방 협력에 대한 논쟁이 벌어지고 있다. Axios에 따르면 엔지니어들 사이에서 '어디까지 협력해야 하는가'를 두고 의견이 갈리고 있다.

더 심각한 신호는 안전연구팀에서 나왔다. 2026년 2월 9일, 안전연구팀장 므리낭크 샤르마(Mrinank Sharma)가 사임하며 "세계가 위기에 처해 있다(The world is in peril)"는 메시지를 남겼다. AI 안전을 핵심 정체성으로 삼아온 기업에서 안전팀 수장이 떠난다는 것은 적잖은 의미를 가진다.

같은 날, 미국 민주당 의원들은 헤그세스 국방장관에게 공식 서한을 보내 Grok(xAI) 도입에 대한 우려를 표명했다. 정치권까지 이 갈등에 참여하기 시작한 것이다.

7. 380억 달러의 딜레마: IPO와 원칙 사이

다리오 아모데이 기술의 사춘기 에세이 앤트로픽 AI 안전 원칙 IPO 딜레마
다리오 아모데이의 에세이 '기술의 사춘기'

타이밍이 절묘하다. 2026년 2월 12일, 앤트로픽은 300억 달러 규모의 펀딩을 마무리하며 기업가치 3,800억 달러를 달성했다. IPO를 준비하는 기업이 미국 국방부와 정면충돌하는 상황은 전례가 없다.

펜타곤은 앤트로픽을 '공급망 리스크(supply chain risk)'로 지정하는 방안까지 검토하고 있다. 이 지정이 이루어지면 모든 군 협력 기업이 앤트로픽과의 관계를 끊어야 한다. Palantir과의 파트너십은 물론, AWS를 통한 정부 클라우드 계약에도 영향을 미칠 수 있다.

하지만 펜타곤도 딜레마에 빠져 있다. 한 펜타곤 관리는 다른 AI 모델 기업들이 "아직 뒤처져 있다(the other model companies are just behind)"고 인정했다. 클로드를 대체할 수 있는 프론티어 모델이 즉시 준비되어 있지 않다는 의미다.

마치며: AI 안전 원칙은 살아남을 수 있는가

이 갈등의 본질은 기술의 발전 속도가 제도적 통제를 추월하는 시대의 근본적 딜레마다. 펜타곤은 중국과의 AI 군비 경쟁에서 뒤처질 수 없다고 주장하고, 앤트로픽은 '빠른 배포'가 민주주의 자체를 위협할 수 있다고 경고한다.

주목할 점은, 앤트로픽이 국방 협력 자체를 거부하는 것이 아니라는 것이다. 정보 분석, 물류 최적화, 사이버 방어 등에서는 기꺼이 협력하겠다는 입장이다. 거부하는 것은 오직 두 가지다. 인간의 감독 없이 살상 결정을 내리는 자율 무기, 그리고 자국민을 대상으로 한 대규모 감시. 이 두 가지는 기술적 한계가 아니라 도덕적 한계다.

2018년 구글이 Project Maven에서 철수했을 때, 업계는 '원칙의 승리'라고 평가했다. 하지만 구글은 결국 2025년에 돌아왔다. 앤트로픽이 이 순간을 어떻게 통과하느냐에 따라, AI 안전 원칙이 방산 경제학의 압력 앞에서 실제로 유지될 수 있는지가 판가름 날 것이다.

목록 다음 ›
메뉴