닫기
닫기

인공지능 서비스를 위한 연산 가속기 기술

2017.09.06 FacebookTwitterNaver

▲ 인공지능 스피커 누구(NUGU)를 사용하고 있는 가정의 모습

“아리아~ 상어 가족 들려줘~”, “아리아~ 사랑해~” 요즘 제 어린 딸이 인공지능 스피커를 향해서 하는 말입니다. 최근 인공지능 스피커가 하나둘씩 출시되고 있습니다. 사람의 말을 이해하고 원하는 서비스와 연결해 주는 인공지능 기능은 주로 클라우드 서비스를 통해 이뤄집니다. 오늘은 인공지능 클라우드 서비스를 빠르고 저렴하게 제공하기 위한 ‘연산 처리 가속기 기술 및 글로벌 주요 기업의 동향’을 소개하겠습니다.

글로벌 주요 기업의 가속기 개발/적용 현황

▲ 인공지능 서비스의 품질은 데이터 연산 처리 성능에 좌우됩니다

인공지능 클라우드 서비스를 위한 ICT 인프라는 데이터센터에 구축돼 있습니다. 실제 인공지능 서비스를 처리하는 곳은 데이터센터 내의 서버죠. 인공지능 서비스 품질에 있어서 가장 중요한 것은 많은 데이터의 연산 처리 성능입니다. 본래 서버에서의 연산은 CPU가 담당하고 있지만, 인공지능에서 요구하는 대규모 연산 처리 성능을 홀로 감당하기에는 한계가 있습니다. 그래서, 최근 데이터센터에서는 연산 가속기를 서버에 적절히 장착해 활용하는 추세입니다. 주로 ‘GPU’, ‘FPGA’, ‘ASIC’ 형태의 가속기를 사용하고 있죠.

▲ 인공지능 연산 가속기(GPU, FPGA, ASIC)

그래픽 처리용으로 개발된 GPU는 수천 개에 달하는 코어를 탑재했습니다. GPU는 CPU보다 코어 성능은 떨어지지만, 수천 개 코어를 활용하는 대규모 병렬처리에 최적화된 가속기입니다. 대규모 데이터의 연산 처리에 GPU를 사용하면, 병렬처리를 통해 인공지능의 학습 시간이 크게 줄어드는 효과를 얻을 수 있습니다. 이 발견은 인공지능 발전의 기폭제가 되었죠. 현재는 다양한 분야에서 GPU를 활용해 인공지능의 학습 및 추론 서비스를 하고 있으며, 효율성을 극대화하기 위해 GPU를 8개 이상 다수 장착한 서버(NVIDIA의 DGX-1 등)도 등장하고 있습니다.

그러나 GPU는 많은 양의 전력 소모와 발열 문제가 생깁니다. 특히, 대규모 서버를 운영하는 데이터센터에서는 전력 및 냉각을 위해 발생하는 높은 비용과 발열로 인한 안정성 문제가 심각한 고민거리입니다. 최근에는 이를 해결하기 위해 높은 연산 성능을 제공하면서 전력 소비량이 적은 기술 ’FPGA’(Field Programmable Gate Array, 프로그래밍 가능한 반도체)와 ‘ASIC’(Application Specific Integrated Circuit, 주문형 반도체)가 주목받고 있습니다.

‘FPGA’는 특정 함수에 맞춘 H/W 프로그래밍이 가능해 신경망 모델 출력 값을 빠르게 계산하는 인공지능 추론 서비스 구현에 적합합니다. 게다가 높은 구현 자유도를 활용해 용도 및 상황에 따른 맞춤화도 가능하죠. ‘ASIC’는 특정 용도에 특화되게 설계했고 집적회로 구성이 최적화되므로, FPGA나 GPU에 비해 적은 공간을 차지하면서 더 좋은 성능과 낮은 전력 효율을 함께 제공할 수 있습니다. 하지만 큰 초기 개발비를 지불해야 하는 단점이 있습니다.

글로벌 주요 기업의 가속기 개발/적용 현황

▲ 글로벌 주요 기업 가속기 개발 현황

현재 GPU 개발을 주도하는 업체는 ‘엔비디아(NVIDIA)’입니다. 엔비디아는 연산 성능을 향상한 GPU를 계속해서 출시하고 있으며 경쟁 업체들을 앞서가고 있습니다. 세계 시장 점유율은 70% 이상입니다. 또한 GTC(GPU Technology Conference) 행사는 이제 세계인들의 관심을 한 몸에 받는 이벤트가 되었죠. 주식 또한 5년 전과 비교해 9배 이상 상승하는 등 AI로 인해 기업 가치가 크게 높아졌습니다.

다른 칩셋 업체들도 새로운 제품들을 출시하고 있습니다. ‘인텔’은 FPGA로 유명한 알테라(Altera)를 인수한 후 CPU(Xeon)와 FPGA를 통합 패키징 한 제품을 출시했습니다. ‘퀄컴’은 자사 AP(Application Processor) 내에 가속 전용 프로세서를 내장하고 NRE(Neural Processing Engine) SDK(Software Development Kit)를 제공해 인공지능을 지원하는 스마트폰 앱의 생태계를 활성화하려는 연구를 진행 중입니다. 더불어 다양한 스타트업(Start-up)들이 등장하고 있습니다.

알파고로 유명한 ‘구글’은 인공지능의 모든 분야에서 두각을 나타내고 있는데요. 특히 가속기 분야에서는 ASIC인 TPU(TensorFlow Processing Unit)를 개발해 구글 포토, 지도, 검색 등 구글의 다양한 서비스에 적용하고 있습니다. GPU 대비 연산 성능과 전력 효율이 수십 배 좋다고 자랑하고 있죠. 1세대에서는 추론에 특화돼 있었지만, 올해는 심층 학습까지 가능한 2세대 TPU를 발표했습니다. 2세대 TPU는 클라우드를 통해 서비스를 제공할 예정이라고 합니다.

MS는 최근 FPGA 기반의 인공지능 인프라를 자사 애저(Azure) 클라우드를 통해 서비스하기 위한 ‘브레인웨이브(Brainwave)’ 프로젝트를 발표하였습니다. 브레인웨이브는 FPGA를 기반으로 심층신경망 엔진을 구동하는 하드웨어와 고성능 분산시스템 아키텍처, 학습된 AI 모델을 배포하기 위한 컴파일러와 런타임 3가지로 구성되는 인공지능 플랫폼입니다. 또한, 자사 MR(Mixed Reality) 헤드셋인 홀로렌즈의 HPU(Holographic Processing Unit)에 인공지능 처리 전담 프로세서를 추가해 출시할 예정입니다.

현재 주로 출시되는 가속기는 데이터센터 서버에 장착을 목적으로 하고 있습니다. VR/AR 헤드셋, 스마트폰, 드론, 자율주행차 등에 장착 가능한 초소형, 초저전력 가속기도 속속 출시되고 있죠. 이러한 가속기를 활용하면, 원격지의 인공지능 클라우드 서비스 이용 시의 인터넷 통신 지연으로 인한 서비스 끊김 현상과 개인 보안 등의 문제를 해결할 수 있을 것으로 기대되는데요. 다양한 인공지능 기기의 개발이 가능해짐으로써 인공지능의 대중화가 성큼 다가올 것 같습니다.

SK텔레콤 R&D 현황 및 계획

▲ SK텔레콤은 HBM을 사용한 ASIC 기반의 가속기에 대한 선행 연구 중입니다

SK텔레콤에서는 음성과 영상 인식 등 다양한 인공지능 서비스를 대상으로 인공지능 신경망을 병렬 처리하는 연산 가속기를 FPGA 기반으로 개발하고 있습니다. 서버에 이 가속기를 장착하면, 인공지능 서비스의 처리 성능이 월등히 향상되면서 전력 사용량도 줄어들게 됩니다. 따라서, 데이터센터에서는 인공지능 서비스 처리 용량을 늘리면서도, 전력과 냉각 비용 절감이 가능해져 고성능의 인공지능 서비스를 저렴하게 제공할 수 있게 됩니다.

또한, SK텔레콤은 가족 회사인 SK하이닉스와 함께 차세대 고성능 메모리인 HBM(High-Bandwidth Memory)을 사용한 ASIC 기반의 가속기에 대해서도 선행 연구 중입니다. 업계에서는 가속기에서의 메모리 성능 병목을 극복하기 위해 최신의 고성능 메모리 기술을 접목하려고 노력하고 있는데요. 엔비디아의 최신 GPU인 볼타(Volta)가 삼성전자의 HBM2 메모리를 장착한 것이 그 예입니다. SK텔레콤에서도 SK하이닉스의 HBM2를 가속기에 적용해 한층 향상된 성능을 제공할 계획입니다.

SK텔레콤에서는 이렇게 최신 가속기 기술을 바탕으로 데이터센터의 ICT 인프라를 개선해 고품질의 인공지능 서비스를 더욱 빠르고 저렴하게 제공하기 위해 노력하고 있습니다. 앞으로 이 인프라 기반으로 다양한 인공지능 서비스들이 출시돼 사람들의 일상에 인공지능이 유용하게 활용되는 세상을 기대해 봅니다.

FacebookTwitterNaver