오픈소스 전략 가속화…"컴퓨팅 비용 최소화, 성능 극대화" 목표
애플 MLX 프레임워크 최적화… '하이브리드 어텐션'·'고희소성 전문가 혼합' 등 기술 적용
애플 MLX 프레임워크 최적화… '하이브리드 어텐션'·'고희소성 전문가 혼합' 등 기술 적용

이는 이전 모델보다 10배 더 강력하면서도 구축 비용은 10분의 1에 불과한 획기적인 발전으로, 알리바바가 AI 경쟁에서 비용 효율성을 앞세워 미국 기업들과의 격차를 좁히고 있음을 보여준다고 12일(현지시각) 사우스차이나모닝포스트(SCMP)가 보도했다.
알리바바 클라우드의 Qwen 팀은 개발자 플랫폼 깃허브(GitHub)에 게시된 메모에서, 컴퓨팅 비용을 최소화하면서 성능을 극대화하는 일련의 아키텍처 혁신을 채택했다고 밝혔다. Qwen3 제품군의 일부로 4월에 출시된 'Qwen3-32B'와 비교할 때, 800억 개의 매개변수를 갖춘 새로운 모델 'Qwen3-Next-80B-A3B'는 훈련 비용이 10분의 1에 불과하며 특정 작업에서 10배 더 빠르게 수행된다.
또한, 이 모델은 알리바바의 주력 모델인 'Qwen3-235B-A22B'의 성능과 동등한 수준이라고 알리바바 클라우드는 밝혔다. 새로운 모델은 소비자급 하드웨어에서 효율적인 배포 및 작동에 최적화되어 있다.
알리바바의 이번 오픈소스 접근 방식은 타사 개발자들이 AI 모델의 소스 코드를 자유롭게 사용, 수정, 배포할 수 있도록 함으로써, 미국 기업과의 격차를 좁히고 항저우에 본사를 둔 알리바바 클라우드를 '세계 최대의 오픈소스 AI 생태계'로 구축하려는 전략을 반영한다.
알리바바의 Qwen 팀은 지난 6월 애플(Apple)의 MLX 프레임워크에 최적화된 오픈소스 Qwen3 모델을 출시한 바 있다. 이는 애플이 중국 본토의 '애플 인텔리전스(Apple Intelligence)'에 알리바바의 Qwen 모델을 사용하는 계약을 체결한 것과 관련이 있다.
최신 Qwen 모델은 지난주 출시된 1조 개 이상의 매개변수를 갖춘 알리바바 클라우드의 가장 큰 AI 모델 'Qwen-3-Max-Preview'에 이어 출시되었다.
이 모델은 AI 모델 평가 플랫폼 LMArena의 최신 텍스트 분야 순위에서 6위로 데뷔하며, 중국의 AI 기술력이 글로벌 시장에서 인정받고 있음을 보여준다.
신민철 글로벌이코노믹 기자 shincm@g-enews.com