GPT-5.4 미니와 나노 등장, 가격 인상은 아쉬움으로
오픈AI가 '가장 강력한 소형 모델'이라며 GPT-5.4 미니와 나노를 공개했다. SWE-Bench Pro에서 풀 모델의 94%에 달하는 성능을 보여줬지만, 전작 대비 최대 4배 가격 인상과 긴 컨텍스트에서의 성능 저하가 논란이다. 성능과 비용 사이에서 개발자들이 따져봐야 할 것들을 정리한다.
2026년 3월 17일, 오픈AI가 GPT-5.4 미니(Mini)와 GPT-5.4 나노(Nano)를 공개했다. "가장 강력한 소형 모델"이라는 수식어를 달고 나온 이 두 모델은 400K 토큰 컨텍스트 윈도우와 텍스트/이미지 멀티모달 입력을 지원하며, 풀사이즈 GPT-5.4에 근접하는 벤치마크 수치를 내놨다. 그런데 가격표를 보면 분위기가 달라진다. 전작 GPT-5 미니 대비 입력 비용이 최대 4배 뛰었다.
풀 모델의 94%를 따라잡은 소형 모델
GPT-5.4 미니는 SWE-Bench Pro에서 54.4%를 기록하며 풀사이즈 GPT-5.4(57.7%)의 94%에 도달했다. GPT-5 미니가 45.7%에 머물렀던 것과 비교하면 세대를 뛰어넘은 도약이다.
핵심 벤치마크 수치를 살펴보면, 미니의 약진이 눈에 띈다. 고난이도 과학 추론을 측정하는 GPQA Diamond에서 미니는 88.0%를 기록해 풀 모델(93.0%)과의 격차를 5%p로 좁혔다. Terminal-Bench 2.0에서는 60.0%로, GPT-5 미니(38.2%)를 21.8%p 앞질렀다. 도구 사용 능력을 측정하는 Toolathlon에서도 42.9%로 GPT-5 미니(26.9%)를 크게 넘어섰다.
나노도 자신의 가격대에서 놀라운 수치를 보여준다. SWE-Bench Pro 52.4%, GPQA Diamond 82.8%로, 이전 세대의 '미니' 급 모델보다 나은 성적을 거뒀다. 오픈AI 역대 가장 저렴한 모델이 이전 세대 중간급 모델의 성능을 웃돈다는 점은 소형 모델 진화의 속도를 실감하게 한다.
성능은 올랐지만, 가격 인상이 남긴 아쉬움
문제는 가격이다. GPT-5.4 미니의 API 가격은 입력 100만 토큰당 $0.75, 출력 $4.50이다. 캐시 적중 시 입력은 $0.075로 내려가지만, 전작 GPT-5 미니와 비교하면 입력 비용이 3배, 출력 비용이 2.25배 올랐다. 나노는 입력 $0.20, 출력 $1.25로, 역시 전작 대비 입력 4배, 출력 3.125배 인상이다.
| 모델 | 입력/100만 토큰 | 캐시 적중 | 출력/100만 토큰 | 전작 대비 |
|---|---|---|---|---|
| GPT-5.4 Mini | $0.75 | $0.075 | $4.50 | 입력 3배, 출력 2.25배 |
| GPT-5.4 Nano | $0.20 | $0.02 | $1.25 | 입력 4배, 출력 3.125배 |
| 제미나이 3.1 플래시 라이트 | $0.25 | - | $1.50 | - |
| Claude 4.5 Haiku | 비공개(상위) | - | 비공개(상위) | - |
나노는 제미나이 3.1 플래시 라이트(입력 $0.25, 출력 $1.50)보다 저렴한 가격을 유지하며 최저가 구간을 노린다. 하지만 '소형 모델은 저렴해야 한다'는 시장의 기대와 최대 4배 인상이라는 현실 사이의 괴리가 커뮤니티에서 논란을 일으키고 있다. 성능 향상분이 가격 인상을 정당화하느냐는 결국 각 개발자의 사용 패턴에 달려 있다.
개발자 커뮤니티 반응: 찬사와 회의 사이
해커뉴스(Hacker News)와 X(구 트위터)에서 개발자들의 반응은 갈렸다. 코딩 작업에서 단계별 추론 능력이 향상됐다는 긍정적 평가가 있는 반면, 프론트엔드 코드 품질이나 외부 도구 통합에서 여전히 부족하다는 지적도 나왔다. 특히 실제 프로덕션 코딩 성능이 벤치마크 수치만큼 나오느냐에 대한 의문이 반복적으로 제기됐다.
가격 인상에 대한 반발도 상당하다. "성능이 올라봤자 비용도 같이 올리면 소형 모델의 존재 이유가 뭐냐"는 비판이 대표적이다. 반면 성능 대비 비용을 따지면 여전히 풀 모델보다 훨씬 저렴하고, 캐시 적중률이 높은 사용 패턴에서는 실질 비용이 크게 낮아진다는 반론도 있다.
소형 모델 전쟁의 새 국면
GPT-5.4 미니와 나노의 출시로 소형 AI 모델 시장의 경쟁이 한 단계 격화됐다. 구글의 제미나이 3.1 플래시 라이트가 대량 처리와 속도에서 강점을 보이고, 앤트로픽의 Claude 4.5 Haiku가 에이전트 워크플로우에 특화된 가운데, 오픈AI는 풀 모델 근접 성능이라는 카드를 꺼내 들었다.
그러나 '가장 강력한 소형 모델'이라는 타이틀이 곧 '가장 적합한 소형 모델'을 의미하지는 않는다. 긴 컨텍스트 성능 저하, 전작 대비 최대 4배 가격 인상, 그리고 API 전용인 나노의 제한된 접근성은 개발자들이 선택 전에 따져봐야 할 변수들이다. 결국 소형 모델 시장에서도 프론티어 모델과 동일한 질문이 되풀이된다. 내 워크로드에 가장 잘 맞는 모델은 무엇인가. 벤치마크 1등이 곧 최선은 아니라는 교훈이, 소형 모델 시장에서도 유효하다.
- OpenAI - Introducing GPT-5.4 Mini and Nano
- The Decoder - OpenAI ships GPT-5.4 Mini and Nano: faster and more capable, but up to 4x pricier
- Simon Willison - GPT-5.4 Mini and Nano
- 9to5Mac - OpenAI releases GPT-5.4 Mini and Nano, its most capable small models yet
- Adam Holter - GPT-5.4 Mini and Nano: benchmarks, pricing, and what they're actually good for