자체 개발한 대규모 언어모델(LLM) ‘라마2(Llama 2)’로 개방형 인공지능(AI) 시장을 주도하고 있는 마크 저커버그의 메타가 차세대 AI 개발을 위한 AI 전용 신규 데이터센터를 공개했다.
메타는 개발자 블로그를 통해 2개의 클러스터로 구성된 신규 AI 전용 데이터센터를 구축했다고 12일(현지 시간) 밝혔다.
한 클러스터당 2만4000여 개의 엔비디아 H100 GPU를 갖춘 메타의 새로운 AI 전용 데이터센터는 자사의 대표 LLM인 라마2의 후속 모델인 ‘라마3(Llama 3)’의 학습과 이에 기반한 새로운 AI 기술 및 서비스 개발에 활용된다.
메타의 새로운 AI 전용 데이터센터는 지난 2022년 공개하고, 라마2의 개발 및 훈련에 사용됐던 ‘AI 연구 슈퍼클러스터(AI Research SuperCluster·RSC)’의 운용 경험을 토대로 개발됐다.
총 1만6000여개의 엔비디아 A100 GPU를 갖춘 기존 RCA에 비해 GPU 개수 배 이상으로 늘어나고, 처리 성능이 대폭 향상된 신규 클러스터는 더욱 크고 복잡한 언어 모델의 개발과 학습을 지원한다.
이를 통해 메타는 자연어 처리, 음성 인식, 이미지 생성 등의 분야에서 기존 라마2보다 진보한 차세대 생성형 AI 개발을 가속하는 것은 물론, AI 업계의 궁극적인 목표이자 인간과 유사한 판단력과 지능을 갖춰 대부분의 업무를 대체할 수 있는 ‘일반 인공지능(AGI)’의 실현에도 더욱 속도를 낸다는 방침이다.
또한 메타의 새로운 AI 전용 데이터센터는 대규모 AI 워크로드를 지원하기 위해 메타가 자체 개발한 개방형 GPU 하드웨어 플랫폼 ‘그랜드 티턴(Grand Teton)’과 더욱 유연한 데이터센터 구축이 가능한 ‘오픈 랙(Open Rack)’ 아키텍처로 설계됐다. 이를 통해 GPU 데이터 대역폭이 2~4배 향상되고, 필요에 따라 클러스터를 확장해 추가 성능 향상도 가능하다.
이를 바탕으로 메타는 신규 AI 데이터센터에 35만여 개의 엔비디아 H100 칩을 추가할 수 있도록 인프라를 확장할 계획이다. 최종적으로는 올해 말까지 약 60만 개의 H100 GPU에 해당하는 AI 컴퓨팅 성능을 구축하는 것이 목표다.
또한, 더욱 강력한 AI 컴퓨팅 성능을 바탕으로 차세대 AI 개발에 속도를 내는 동시에, 자신들이 주도적으로 추진하고 있는 ‘개방형 AI’ 생태계의 확대와 혁신도 더욱 가속한다는 방침이다.
최용석 글로벌이코노믹 기자 rpch@g-enews.com