닫기

글로벌이코노믹

[글로벌-Biz 24] 구글 기계학습 시스템 '클라우드 TPU 팟' 신형 공개…엔비디아 '테슬라 V100'보다 200배 빨라

공유
5

[글로벌-Biz 24] 구글 기계학습 시스템 '클라우드 TPU 팟' 신형 공개…엔비디아 '테슬라 V100'보다 200배 빨라

TPU 팟에서 기계학습 시간과 비용 크게 줄어

구글이 기계학습 시스템 '클라우스 TPU 팟'의 신형 버전을 공개했다. 자료=구글 클라우드이미지 확대보기
구글이 기계학습 시스템 '클라우스 TPU 팟'의 신형 버전을 공개했다. 자료=구글 클라우드
[글로벌이코노믹 김길수 기자] 구글(Google)이 개발하는 머신러닝(기계학습) 전용 프로세서인 'TPU(Tensor Processing Unit)'를 구글 데이터 센터 네트워크와 연결한 머신 'TPU 팟(Pod)'의 새로운 버전이 탄생했다.

구글은 13일(현지 시간) 구글 클라우드를 통해 "2세대 TPU를 채용한 'TPU V2 팟'을 채용하여 기계학습의 연산 속도를 대폭 향상시켰으며, 사용자는 더 낮은 비용으로 연산할 수 있게 됐다"며 TPU 팟에서 기계학습의 시간과 비용이 극적으로 줄어들 것이라고 강조했다.
신형 버전은 엔비디아(NVIDIA)의 '테슬라 V100'보다 200배 빠른 것으로 나타났다. 자료=구글 클라우드이미지 확대보기
신형 버전은 엔비디아(NVIDIA)의 '테슬라 V100'보다 200배 빠른 것으로 나타났다. 자료=구글 클라우드

구글은 이날 발표에서 TPU를 256개 탑재한 풀 스케일의 TPU V2 팟은 엔비디아(NVIDIA)의 '테슬라(Tesla) V100'에 비해 200배 이상의 기계학습 연산 속도를 가진다고 주장했다. 또한 'ResNet-50'을 훈련하는 경우 'n1-standard-64'의 구글 클라우드 VM에 8개의 테슬라 V100을 탑재한 머신에 비해 TPU V2 팟은 계산 속도가 27배로 빠른 반면, 총 계산 비용은 38% 절감할 수 있다고 설명했다.

이미지 확대보기

구글은 기계학습과 딥러닝에 최적화된 인공지능 전문 칩 'TPU'를 2013년 자체 개발한 이후 2015년부터 운용하기 시작했으며, 2017년 'TPU V2'를 거쳐 올해 5월에는 수냉식인 'TPU 3.0'을 발표했다. 이어 7월에는 하드웨어 AI 가속기를 클라우드뿐만 아니라 엣지까지 전 영역에서 운영할 수 있는 업그레이드 버전 '엣지 TPU'를 개발했다. 그리고 이번에 보다 빠르고 낮은 비용의 기계학습을 구현하는데 성공함으로써 기술력을 한 단계 업그레이드했다.

기계학습이나 딥러닝에서는 모델을 트레이닝하는 데 엄청난 연산을 처리할 필요가 있기 때문에, 학습 실행에는 며칠에서 몇 주가 걸리는 경우가 있다. 따라서 개발의 생산성을 향상시키기 위해 훈련 등의 연산 속도를 높이는 것은 기술 성장의 가장 큰 과제가 되고 있다. 구글은 '구글 클라우드 플랫폼(GPC)'을 통해 TPU 시스템을 클라우드에서 렌탈하는 서비스 '클라우드 TPU'를 제공해 왔다.

그로 인해, 데이터 센터 네트워크에 접속한 TPU 팟을 사용하는 것으로, 대규모 계산 자원을 필요로 하는 기계학습이나 딥러닝 등을 '텐서플로(TensorFlow)'로 실시할 수 있게 되었으며, 그 결과 연구자와 개발자는 저비용으로 기계학습의 계산 결과를 빠르게 얻을 수 있게 되었다.


김길수 기자 gskim@g-enews.com