메타 차기 AI모델 아보카도, 내부 테스트 평가 루머
메타의 차세대 AI 모델 '아보카도'가 프리트레이닝만으로 기존 SOTA 모델과 경쟁할 수 있는 수준이라는 내부 메모가 유출됐다. 매버릭 대비 10배, 비히모스 대비 100배 효율적이라는 평가까지 나온 가운데, 라마4 실패 후 알렉산더 왕 체제에서 나온 첫 결과물이라 업계의 이목이 집중되고 있다.
메타의 차세대 프론티어 AI 모델 '아보카도(Avocado)'의 성능이 처음으로 구체적으로 알려졌다. 더 인포메이션이 입수한 메타 내부 메모에 따르면, 아보카도는 프리트레이닝만 완료된 상태에서도 기존 오픈소스 모델을 능가하고 포스트트레이닝된 SOTA 모델들과 경쟁 가능한 수준이라고 한다.
이 모델은 라마4의 실망스러운 출시와 조직 대개편을 거친 메타가 새 리더십 하에서 내놓는 첫 본격적인 결과물이다. 업계에서는 메타가 AI 경쟁에서 진정한 반전을 이뤄낼 수 있을지 주목하고 있다.
1. 아보카도 모델: 메타 역사상 가장 유능한 사전학습 모델
아보카도는 메타 슈퍼인텔리전스 랩(MSL) 산하 TBD 랩에서 개발 중인 차세대 텍스트 기반 프론티어 모델이다. 코드네임에서 알 수 있듯 아직 정식 명칭은 정해지지 않았으며, 함께 개발 중인 '망고(Mango)'는 이미지와 비디오 생성에 특화된 멀티모달 모델이다.
MSL의 프로덕트 매니저 메건 푸(Megan Fu)가 작성한 내부 메모에 따르면, 아보카도는 메타 역사상 '가장 유능한 사전학습 기반 모델'로 평가받고 있다. 특히 주목할 점은 아직 포스트트레이닝이 적용되지 않은 상태임에도 지식, 시각 인식, 다국어 처리 영역에서 포스트트레이닝된 SOTA 모델들과 경쟁할 수 있다는 것이다.
효율성 측면에서도 눈에 띄는 수치가 나왔다. 메모에 따르면 아보카도는 라마4 매버릭(Maverick) 대비 10배, 비히모스(Behemoth) 대비 100배 효율적이라고 한다. CTO 앤드루 보스워스도 다보스 포럼에서 새 모델이 '매우 좋다'고 언급한 바 있다.
2. 라마4 실패가 촉발한 대대적 조직 개편
아보카도의 배경을 이해하려면 2025년의 라마4 사태를 짚어야 한다. 메타가 야심차게 내놓은 라마4는 벤치마크 조작 논란에 휩싸이며 큰 타격을 입었다. 내부적으로도 모델 품질에 대한 불만이 팽배했고, 이는 메타 AI 조직의 대대적인 재편으로 이어졌다.
가장 큰 변화는 스케일AI(Scale AI) CEO 알렉산더 왕(Alexandr Wang)의 영입이다. 28세의 나이에 143억 달러 규모의 스케일AI를 이끌던 왕은 메타의 최고AI책임자(Chief AI Officer)로 합류했다. 2025년 6월 메타는 메타 슈퍼인텔리전스 랩(MSL)을 창설하고, 왕을 수장으로 앉히며 기존 4개 부서로 분산돼 있던 AI 조직을 하나로 통합했다.
오랜 기간 메타 AI를 이끌어온 얀 르쿤(Yann LeCun)은 이 과정에서 600명 감원과 함께 퇴사했다. 또한 메타는 오픈AI에서 o3와 GPT-4o 개발에 핵심적으로 기여한 연구원들을 대거 영입했는데, 1억 달러에 달하는 사이닝 보너스를 제안했다는 소문이 돌기도 했다. 이에 대해 샘 올트먼이 직접 반응할 정도로 업계에 큰 파장을 일으켰다.
3. 오픈소스에서 클로즈드로: 메타의 AI 전략 전환
아보카도가 주목받는 또 다른 이유는 메타의 AI 전략 자체가 근본적으로 바뀌고 있기 때문이다. 기존에 라마 시리즈를 오픈소스로 공개하며 AI 민주화의 기수를 자처했던 메타가 아보카도부터는 독점(클로즈드) 모델로 전환할 가능성이 높다.
이 전환의 직접적 계기 중 하나는 중국의 딥시크(DeepSeek)가 라마 모델을 활용해 빠르게 경쟁 모델을 만들어낸 것이다. 자사가 막대한 비용을 투자해 개발한 모델이 경쟁자의 발판이 되는 상황에 메타 경영진의 불만이 커졌고, 결국 전략 선회로 이어진 것으로 알려져 있다.
메타는 2026년 AI 관련 자본 지출(CapEx)을 1,150억~1,350억 달러로 책정했다. 전년 대비 73% 증가한 이 규모는 메타가 AI에 얼마나 진심인지를 보여준다. 오픈AI, 구글, 앤트로픽과의 직접 경쟁을 위해 모든 것을 쏟아붓겠다는 의지의 표현이다.
4. 프리트레이닝 성능의 의미: 기대와 불확실성
내부 메모의 성능 평가가 인상적이긴 하지만, 몇 가지 맥락을 고려할 필요가 있다. 우선 현재 공개된 수치는 프리트레이닝 단계의 결과다. 프리트레이닝은 대규모 데이터로 모델의 기본 능력을 학습시키는 단계이고, 이후 RLHF 등 포스트트레이닝을 거쳐야 실제 서비스에 배포할 수 있는 모델이 완성된다.
좋은 소식은 프리트레이닝 성능이 뛰어나다면 포스트트레이닝 후 더 큰 도약을 기대할 수 있다는 것이다. 내부 메모도 '포스트트레이닝 전임에도 SOTA 모델과 경쟁 가능'이라는 표현을 썼는데, 이는 최종 모델의 잠재력이 상당하다는 신호로 읽힌다.
다만 이것이 내부 메모라는 점도 감안해야 한다. 새 조직의 첫 성과를 보고하는 문서인 만큼 긍정적 톤이 있을 수 있고, 실제 벤치마크 수치가 공개되지 않은 상태에서 '기존 모델과 경쟁 가능'이라는 표현이 정확히 어떤 수준인지는 아직 알 수 없다.
마치며: 메타 AI의 진짜 시험대
아보카도는 단순한 신모델 그 이상의 의미를 가진다. 라마4의 실패, 얀 르쿤의 퇴장, 알렉산더 왕의 영입, 오픈소스에서 클로즈드로의 전략 전환까지, 메타 AI가 겪은 격변의 첫 결실이기 때문이다. 2026년 상반기로 예상되는 출시 시점에 아보카도가 내부 메모의 기대에 부응하는 성능을 보여줄 수 있을지가 관건이다.
확실한 것은 메타가 더 이상 오픈소스의 '좋은 형' 역할에 안주하지 않겠다는 점이다. 1,000억 달러가 넘는 투자, 경쟁사 인재 대거 영입, 조직 전면 개편까지, 메타는 오픈AI와 구글, 앤트로픽이 지배하는 프론티어 AI 시장에 정면 도전장을 내밀었다. 아보카도가 그 도전의 첫 시험대가 될 것이다.
- The Information - Meta Memo: New 'Avocado' Model Is Most Capable the Company Has Built
- CNBC - Meta's 'Avocado' AI strategy and the issues holding it back
- Reuters - Meta's new AI team has delivered first key models internally
- The Decoder - Meta's internal memo signals AI comeback after rocky year
- Bloomberg - Inside Meta's Pivot From Open Source to Money-Making AI Model