메뉴 글로벌이코노믹 로고 검색
검색버튼

알리바바, '효율성' 앞세워 AI 경쟁서 우위 점한다… 비용은 90%↓, 속도는 10배↑

"하이브리드 어텐션, 고희소성 전문가 혼합" 기술 혁신… 'DeepSeek'·'문샷AI' 능가
'컴팩트' 모델, 소비자급 하드웨어 최적화… "훈련 비용 급등 문제 해결"
알리바바와 Qwen 로고. 사진=로이터이미지 확대보기
알리바바와 Qwen 로고. 사진=로이터
기술 혁신을 통해 중국 인공지능(AI) 붐의 선두주자 중 하나인 알리바바 그룹 홀딩스(Alibaba Group Holding)가 훨씬 작고 비용 효율적인 차세대 기반 모델을 개발하는 데 성공했다.
이는 모델 확장 비용 상승에 대해 점점 더 우려하고 있는 전 세계 AI 전문가들 사이에서 흥분을 불러일으키고 있다고 14일(현지시각) 사우스차이나모닝포스트(SCMP)가 보도했다.

알리바바의 AI 및 클라우드 컴퓨팅 사업부인 알리바바 클라우드(Alibaba Cloud)는 지난 12일 새로운 'Qwen3-Next' 아키텍처를 기반으로 구축된 최신 대규모 언어 모델(LLM)을 공개했다.

개발자에 따르면, 이 모델은 4월에 출시된 이전 모델 'Qwen3-32B'보다 일부 작업에서 10배 더 빠르게 수행되는 동시에, 훈련 비용을 90% 절감한다고 한다.
알리바바는 이 모델이 컴팩트한 크기에도 불구하고, 자체 '최고' 모델을 능가하는 성능을 보였다고 밝혔다.

그 핵심은 효율성에 있다. 연구원들은 알리바바의 새로운 모델이 '하이브리드 어텐션(hybrid attention)'과 '고희소성 전문가 혼합(MoE, Mixture-of-Experts)' 아키텍처와 같은 첨단 기술 덕분에, 컴퓨팅 비용을 최소화하면서 성능을 극대화할 수 있었다고 설명했다.

'하이브리드 어텐션'은 기존 모델이 입력 길이가 길어질수록 효율성이 떨어지는 문제를 해결한다. '고희소성 MoE' 아키텍처는 모델을 입력 데이터의 하위 집합을 전문으로 하는 '전문가' 네트워크로 나누어 작업을 공동으로 수행하게 함으로써, 성능과 효율성 사이의 균형을 맞춘다.

알리바바는 최신 MoE 아키텍처의 '희소성'을 강화하여, 딥시크(DeepSeek) V3.1과 동등한 수준의 성능을 달성하면서도 훨씬 적은 수의 활성 매개변수만 사용했다.
AI 모델 평가 플랫폼 'Artificial Analysis'에 따르면, 알리바바의 새로운 모델은 딥시크 R1과 문샷 AI(Moonshot AI)의 최신 버전을 모두 능가했다.

알리바바 AI 엔지니어 빈위안 후이(Binyuan Hui)는 "Qwen3-Next-80B-A3B는 중국어-영어 텍스트 이해, 복잡한 지침 따르기, 다국어 능력 및 도구 호출이 크게 향상되었다"며, "공식 릴리스는 여러분을 더욱 놀라게 할 것"이라고 말했다.

알리바바의 Qwen3-Next 모델은 이제 단일 엔비디아(Nvidia) H200 그래픽 처리 장치에서도 작동할 수 있을 만큼 컴팩트해졌다. 오픈소스 개발자 플랫폼 '허깅 페이스(Hugging Face)'에서 이 모델은 출시 24시간 만에 거의 2만 건의 다운로드를 기록하며 빠르게 인기 순위표에 진입했다.

알리바바의 새로운 모델 아키텍처는 업계 최대 모델의 확장과 관련된 비용에 대한 우려가 높아지는 가운데, 더 작지만 더 효율적인 AI 모델에 대한 관심을 반영한다.
AI 리서치 회사 에포크 AI(Epoch AI)에 따르면, 현재까지 가장 비싼 AI 훈련 실행은 xAI의 그록 4(Grok 4)로 4억 9천만 달러의 비용이 들었으며, 향후 훈련 실행은 2027년까지 10억 달러를 초과할 것으로 예상된다. 알리바바의 이번 혁신은 이러한 막대한 훈련 비용 문제를 해결하는 데 중요한 역할을 할 것으로 보인다.

알리바바의 이번 기술 혁신은 중국 AI 기업들이 하드웨어 한계를 소프트웨어와 시스템 설계로 극복하며, 글로벌 AI 시장에서 경쟁 우위를 확보하려는 전략을 보여준다.

알리바바는 Qwen을 개발자를 위한 '세계 최대의 오픈소스 AI 생태계'로 구축했으며, 이번 신모델 출시를 통해 그 입지를 더욱 공고히 할 것으로 기대된다.


신민철 글로벌이코노믹 기자 shincm@g-enews.com
맨위로 스크롤