엔비디아 AI 칩 독점에 균열? 빅테크 탈 엔비디아 러시
OpenAI가 엔비디아가 아닌 세라브라스 칩 기반의 GPT-5.3-코덱스-스파크를 출시했다. 구글, 마이크로소프트, AWS까지 자체 칩 개발에 수천억 달러를 쏟아붓고 있다. 하지만 엔비디아의 AI 칩 독점은 정말 흔들리고 있는 걸까, 아니면 새로운 형태의 공존이 시작되는 걸까?
2월 12일, OpenAI가 새로운 코딩 모델 GPT-5.3-코덱스-스파크를 출시했다. 초당 1,000 토큰 이상의 추론 속도로 화제를 모았지만, 정작 업계를 뒤흔든 건 속도가 아니었다. 이 모델이 엔비디아 GPU가 아닌 세라브라스의 웨이퍼스케일 칩 위에서 돌아간다는 사실이었다.
OpenAI뿐 아니라 구글, 마이크로소프트, 아마존, 메타까지 자체 AI 칩 개발에 수천억 달러를 투자하고 있다. AI 시대의 사실상 독점 공급자였던 엔비디아의 입지가 정말로 흔들리기 시작한 걸까? 아니면 도전자들의 시도는 결국 엔비디아의 벽 앞에서 멈추게 될까?
1. 세라브라스-OpenAI 동맹, 엔비디아 독점을 흔들 수 있을까
세라브라스는 세상에서 가장 큰 칩을 만드는 회사다. WSE-3(웨이퍼 스케일 엔진 3)는 면적 46,225mm², 트랜지스터 4조 개를 탑재한다. 일반 GPU 대비 57배 큰 단일 칩이다. 이 거대한 칩의 장점은 명확하다. 데이터가 칩 사이를 오갈 필요가 없어 추론 지연이 극적으로 줄어든다.
1월 14일, 세라브라스와 OpenAI는 100억 달러 이상 규모의 다년 계약을 발표했다. 2028년까지 750MW급 웨이퍼스케일 시스템을 구축하는 것이 핵심이다. 한 달 뒤 그 결과물이 GPT-5.3-코덱스-스파크로 나타났다.
시장조사기관 퓨처럼은 "세라브라스는 엔비디아에 대한 가장 큰 단일 위협"이라고 평가했다. OpenAI 입장에서 세라브라스 카드는 특정 칩 공급처에 대한 의존도를 낮추고, 추론 비용 절감이라는 실질적 이점을 확보하기 위한 전략적 선택이다.
2. OpenAI의 칩 다변화 전략, 엔비디아 없이도 가능할까
OpenAI의 탈(脫)엔비디아 행보는 세라브라스에서 멈추지 않는다. 브로드컴과 협력해 자체 칩 '타이탄'을 개발 중이다. TSMC 3nm 공정 기반으로 2026년 말 양산을 목표로 하고 있다. 자체 칩까지 확보하면 OpenAI는 추론 비용을 획기적으로 낮출 수 있다.
AMD와도 다년 공급 계약을 맺었다. 인스팅트 6GW 칩을 대량 확보해 GPU 공급원을 다각화하고 있다. 여기에 AWS와는 380억 달러 규모의 클라우드 계약까지 체결했다. 하나의 공급처에 목을 매지 않겠다는 의지가 분명히 읽힌다.
이 전략의 배경에는 실질적 비용 문제가 있다. AI 추론 시장이 급성장하면서, 엔비디아 GPU만으로는 수요를 감당하기 어렵고 비용도 치솟고 있다. 추론은 학습과 달리 대량의 요청을 실시간으로 처리해야 하기 때문에, 전력 효율과 단위 비용이 핵심이다. 이 영역에서 커스텀 칩이 엔비디아 대비 비용 우위를 보여주는 사례가 나오고 있다.
3. 구글 아이언우드 TPU, 추론 시장의 판도를 바꿀까
구글도 가만히 있지 않다. 최신 TPU v7 '아이언우드'는 구글이 처음으로 '추론 특화'를 전면에 내세운 칩이다. 칩 하나의 FP8 성능이 4,614 TFLOPS에 달하며, 192GB HBM을 탑재했다. 9,216개 칩을 연결한 슈퍼팟은 42.5 엑사플롭스(ExaFLOPS)라는 경이적인 추론 성능을 제공한다.
구글은 AI 인프라에 총 1,850억 달러를 투자하겠다고 선언했다. 자체 TPU로 제미나이를 포함한 모든 AI 서비스를 구동하면서, 엔비디아 의존도를 체계적으로 줄이고 있다. Anthropic도 구글 클라우드의 TPU 100만 개에 대한 접근 계획을 발표해, TPU 생태계가 구글 내부를 넘어 확장되고 있다.
4. 마이크로소프트 마이아 200과 AWS 트레이니엄3, 빅테크의 자체 칩 경쟁
마이크로소프트는 자체 AI 가속기 마이아 200을 올해 본격 배치하고 있다. 3nm 공정 기반에 FP4 기준 10+ PFLOPS 성능을 자랑하며, 이미 GPT-5.2 모델 구동에 투입됐다. 애저 데이터센터에 대규모로 깔리면서 엔비디아 GPU 의존도를 낮추는 핵심 무기가 되고 있다.
AWS도 트레이니엄3를 내놨다. 3nm 공정 기반으로 전작 트레이니엄2 대비 3배의 성능 향상을 달성했다. 아마존은 자체 칩으로 AWS의 AI 서비스 비용을 엔비디아 기반 대비 40% 이상 절감하겠다는 목표를 세우고 있다.
AMD도 추론 시장 공략에 적극적이다. 차세대 MI350은 전작 대비 AI 추론 성능 35배 도약을 예고했다. 메타 역시 자체 MTIA(메타 Training and Inference Accelerator) 칩 개발을 진행 중이다. 빅테크 기업 중 자체 AI 칩이 없는 곳을 찾기 어려울 정도다.
5. 엔비디아 독점적 지위, 무너지나?
도전자들의 행보가 활발하지만, 엔비디아가 당장 위험한 것은 아니다. 최신 GB300(블랙웰 울트라) 플랫폼은 2026년 AI 서버 시장의 70~80%를 점유할 것으로 전망된다. 학습 분야에서의 우위는 여전히 압도적이며, CUDA 소프트웨어 생태계라는 강력한 해자도 건재하다.
다만 추론 시장에서는 이야기가 달라질 수 있다. 커스텀 칩들이 비용 대비 성능에서 엔비디아와의 격차를 좁히는 사례가 늘고 있고, AI 워크로드가 학습에서 추론 중심으로 이동하면서 이 영역의 중요성은 계속 커지고 있다. 문제는 이것이 단기적 소란에 그칠지, 아니면 진짜 구조적 변화의 시작인지다.
빅테크 전체가 커스텀 칩으로 이동하려는 움직임은 확실히 감지되고 있다. 하지만 자체 칩 개발은 수년이 걸리는 프로젝트이고, CUDA 생태계를 대체할 소프트웨어 스택을 구축하는 건 칩을 만드는 것 이상으로 어렵다. 단일 고객의 이탈과 업계 전체의 구조적 전환 사이에는 아직 큰 간극이 있다.
마치며: 엔비디아의 위기인가? 단순한 해프닝인가?
OpenAI-세라브라스 동맹, 구글 TPU의 추론 특화 진화, 마이크로소프트와 AWS의 자체 칩 양산, 그리고 OpenAI 자체 칩 '타이탄' 개발까지. 도전의 규모와 속도는 전례 없는 수준이다. 하지만 이것이 엔비디아 독점의 끝으로 이어질지, 아니면 엔비디아가 여전히 중심에 있되 주변에 대안이 생기는 '새로운 공존'의 형태로 재편될지는 아직 알 수 없다.
엔비디아는 학습 시장에서 여전히 압도적이고, CUDA 생태계의 전환 비용은 막대하다. 반면 추론 시장에서는 커스텀 칩들이 비용 측면에서 경쟁력을 입증하는 사례가 늘고 있다. 2~3년 뒤 AI 칩 시장이 어떤 모습일지, '엔비디아 중심의 질서'가 유지될지, 아니면 전혀 다른 지형이 펼쳐질지는 앞으로의 핵심 관전 포인트가 될 전망이다.
- VentureBeat - OpenAI deploys Cerebras chips for 'near-instant' code generation
- TechCrunch - A new version of OpenAI's Codex is powered by a new dedicated chip
- Ars Technica - OpenAI sidesteps Nvidia with unusually fast coding model on plate-sized chips
- AI Business - Cerebras Poses an Alternative to Nvidia With $10B OpenAI Deal
- Google Blog - Ironwood: Our most performant TPU yet, built for the age of inference
- Microsoft Blog - Maia 200: The AI accelerator built for inference
- OpenAI Blog - OpenAI and Broadcom Announce Strategic Collaboration