구글은 13일(현지 시간) 구글 클라우드를 통해 "2세대 TPU를 채용한 'TPU V2 팟'을 채용하여 기계학습의 연산 속도를 대폭 향상시켰으며, 사용자는 더 낮은 비용으로 연산할 수 있게 됐다"며 TPU 팟에서 기계학습의 시간과 비용이 극적으로 줄어들 것이라고 강조했다.
구글은 이날 발표에서 TPU를 256개 탑재한 풀 스케일의 TPU V2 팟은 엔비디아(NVIDIA)의 '테슬라(Tesla) V100'에 비해 200배 이상의 기계학습 연산 속도를 가진다고 주장했다. 또한 'ResNet-50'을 훈련하는 경우 'n1-standard-64'의 구글 클라우드 VM에 8개의 테슬라 V100을 탑재한 머신에 비해 TPU V2 팟은 계산 속도가 27배로 빠른 반면, 총 계산 비용은 38% 절감할 수 있다고 설명했다.
구글은 기계학습과 딥러닝에 최적화된 인공지능 전문 칩 'TPU'를 2013년 자체 개발한 이후 2015년부터 운용하기 시작했으며, 2017년 'TPU V2'를 거쳐 올해 5월에는 수냉식인 'TPU 3.0'을 발표했다. 이어 7월에는 하드웨어 AI 가속기를 클라우드뿐만 아니라 엣지까지 전 영역에서 운영할 수 있는 업그레이드 버전 '엣지 TPU'를 개발했다. 그리고 이번에 보다 빠르고 낮은 비용의 기계학습을 구현하는데 성공함으로써 기술력을 한 단계 업그레이드했다.
기계학습이나 딥러닝에서는 모델을 트레이닝하는 데 엄청난 연산을 처리할 필요가 있기 때문에, 학습 실행에는 며칠에서 몇 주가 걸리는 경우가 있다. 따라서 개발의 생산성을 향상시키기 위해 훈련 등의 연산 속도를 높이는 것은 기술 성장의 가장 큰 과제가 되고 있다. 구글은 '구글 클라우드 플랫폼(GPC)'을 통해 TPU 시스템을 클라우드에서 렌탈하는 서비스 '클라우드 TPU'를 제공해 왔다.
김길수 기자 gskim@g-enews.com