챗GPT 앞으로 인류의 삶에, 경제계에 얼마나 많은 충격파를 던질 지에 대해서도 전문가들 사이에서 다양한, 때로는 상이한 평가와 전망이 쏟아지고 있다.
그러나 전례 없이 획기적으로 진화한 AI 기술이란 점에서 집중적인 관심을 받는 것에 비하면 챗GPT를 뒷받침하는 컴퓨팅 시스템을 운영하는데 드는 비용에 대해서는 많이 알려진 것이 없다.
CNBC가 챗GPT를 운영하는데 들어가는 비용을 구체적으로 확인해 13일(현지시간) 보도했다. 결론적으로 ‘천문학적’ 규모의 자금이 전세계적으로 챗GPT 서비스를 제공하는데 투입되고 있다는 것.
◇챗GPT 성능 좌우하는 데이터센터용 GPU 대당 가격만 최소 1300만원
CNBC에 따르면 챗GPT 서비스를 운영하는데 필수적인 AI 시스템의 핵심 부품은 데이터센터용 그래픽처리장치(GPU).
AI 시스템의 성능을 결정적으로 좌우하는 것이 연산 능력인데 이 연산 과정을 처리하는 부품이 바로 GPU라는 얘기다. GPU가 AI의 두뇌로 일컬어지는 이유이기도 하다.
데이터센터용 GPU를 사실상 독점적으로 생산하고 있는 곳은 외장형 GPU 시장의 80%를 점유하고 있는 미국의 반도체 제조업체 엔비디아인데 엔비디아가 만드는 데이터센터용 GPU 한 개의 가격이 무려 1만달러(약 1300만원) 이상이다.
챗GPT를 개발한 오픈AI가 챗GPT를 구동하는데 사용하는 GPU의 약 80% 이상이 바로 엔비디아의 데이터센터용 ‘A100 GPU'인 것으로 알려져 있다. 챗GPT 구동을 위해 약 1만개의 A100 GPU가 사용되는 것으로 전해졌다.
따라서 1만개로만 가정해도 GPU를 갖추는데 들어가는 돈만 해도 최소 1억달러(약 1300억 원)다.
여기에다 챗GPT의 기반이 되는 ‘GPT-3’라는 이름의 AI용 자연어 처리 모델, 즉 대규모 언어 모델(LLM)을 가동하는데 드는 비용도 가히 천문학적이다. GPT-3은 약 1750억개의 매개변수를 지닌 언어 모델로 챗GPT의 놀라운 추론 능력은 바로 이 때문에 실현 가능했다.
CNBC는 “전문가에 따르면 GPT-3를 구동하는데 드는 비용만 400만달러(약 52억원)를 웃도는 것으로 추산되고 있다”고 전했다.
◇머신러닝 학습과 딥러닝 추론 과정에서도 막대한 자금 들어가
프랑스계 AI 스타업 허깅페이스의 클레몽 들롱 최고경영자(CEO)는 CNBC와 인터뷰에서 AI는 제 스스로 능력을 지닌 것이 아니라는 점을 지적했다. GPT-3 같은 대규모 언어 모델은 학습 과정을 거쳐야만 뛰어난 능력을 발휘할 수 있다는 것이 챗GPT의 본질이라는 것.
여기서 학습이란 규칙을 일일이 프로그래밍하지 않아도 AI가 자동으로 데이터에서 규칙을 학습하는 알고리즘을 뜻하는 머신러닝을 말한다.
들롱 CEO는 “GPT-3는 늘 학습된 상태가 아니라는 사실을 이해하는 것이 중요하다”면서 “챗GPT가 최근에 발생한 사건에 대해서는 잘 알지 못하는 것으로 나타나는 이유도 최근 사건에 대해서는 아직 학습을 마치지 못한 상태이기 때문”고 강조했다.
최근에 일어난 사건을 비롯해 최근 정보에 대해 업데이트된 상태를 유지하기 위해서는 천문학적인 자금이 매일같이 투입하고 그렇지 못하면 챗GPT 서비스가 제대로 제공되기 어렵다는 뜻이다.
그는 “챗GPT가 갖고 있는 지식은 2021년까지의 정보를 학습해 지니고 있는 것”이라고 덧붙였다.
AI 전문가들에 따르면 머신러닝보다 더 큰 돈이 일상적으로 들어가는 분야는 ‘딥러닝을 이용한 추론’ 과정이다.
딥러닝이란 머신러닝의 여러 방법 가운데 가장 중요한 것으로 인공신경망을 사용해 머신러닝 학습을 수행하는 일을 말한다. AI 분야에서는 이 딥러닝 과정을 통해 만들어진 모델을 실제로 새로운 입력 데이터에 적용해 결과를 내놓은 과정을 추론이라고 한다.
챗GPT의 능력을 좌우하는 딥러닝 기반의 추론은 일반적인 머신러닝 과정보다 훨씬 복잡하고 방대한 양의 연산이 이뤄지는 과정이기 때문에 이 과정에서 추가적으로 막대한 자금이 소요된다는게 전문가들의 설명이다.
김현철 글로벌이코노믹 기자 rock@g-enews.com