닫기
닫기

구글 I/O 2018을 통해 바라본 구글 AI의 진화 2편

2018.07.12
공감 12,202
FacebookTwitterNaver

▲ 모두를 위한 인공 지능을 선보인 ‘구글 I/O 2018’은 인공 지능의 방향을 제시했습니다

지난 1편에서는 구글 I/O 2018에서 가장 화제를 모았던 구글 듀플렉스에 대해 정리했습니다. 사실 구글 듀플렉스는 아직 테스트 버전이고 특정 상황에서의 전화 응대에 대해서만 수행할 수 있도록 특정되어 있습니다. 하지만 분명한 것은 향후 인공 지능 비서가 어떠한 방향으로 개발이 되고, 실생활 등에 적용될지를 제시했다는 점인데요.

구글은 이러한 미래에 다가올 인공 지능의 방향성 외에도 현재 우리가 생활하며 편리하게 도움을 받을 수 있는 다양한 인공 지능 서비스들도 함께 선보였습니다. 가장 대표적인 예가 우리가 잠을 자는 시간을 제외하곤 함께 살고 있다고 해도 과언이 아닌 스마트폰 OS ‘안드로이드’의 인공 지능 서비스입니다.

이와 함께 가까운 미래에 우리의 생활을 크게 바꿔 줄 자율 주행 자동차 프로젝트인 ‘웨이모’의 인공 지능에 대한 공개도 있었습니다. 2편에서는 이러한 내용들을 통해 과연 얼마나 많은 부분에서 구글의 인공 지능이 우리가 생각한 것 이상으로 진화하고 있는지 좀 더 자세히 살펴보도록 하겠습니다.

당장은 스마트폰, 안드로이드 P 스며든 인공지능

이번 구글 I/O에서 가장 시선을 끈 건 분명 듀플렉스가 적용된 구글 어시스턴트의 시연이었습니다. 하지만 이번 콘퍼런스의 모토인 모두를 위한 인공 지능(AI For Everyone)’의 실체를 확인한 것 역시 큰 수확이었죠. 안드로이드 기반 스마트폰의 차세대 운영체제인 안드로이드P를 통해서 확인할 수 있었는데요. 실제로 확인해보니 거창한 인공 지능이라 할 수는 없지만, 스마트폰 사용자의 사용성을 높이고, 서비스의 만족을 향상할 수 있는 부분에 집중했다는 것을 알 수 있었습니다.

몇 가지를 살펴보면, 우리가 자주 사용하는 이메일이나 카메라, 사진 등을 들 수 있는데요. G메일의 새로운 기능인 ‘스마트 작성 (Smart Compose)’의 경우, 우리가 흔히 알고 있는 단어의 자동 완성을 한 단계 업그레이드시켰습니다. 이메일 내용의 맥락을 인공 지능이 이해하고 여기에 맞게 사용자가 빠르게 이메일을 작성할 수 있도록 상황에 맞는 문장을 제안하죠. 예를 들어 사용자가 이메일을 작성하기 시작하면 타이핑을 하는 내용을 따라 그 뒷부분에 인공 지능이 제안하는 내용이 흐릿한 글씨들로 표시가 되고 해당 내용을 사용자가 탭(Tap)을 통해 선택할 수 있는 방식입니다.

▲ 안드로이드P에 적용된 구글의 인공 지능은 더욱 사용자의 편의성을 높이는데 최적화된 모습이었습니다

이번 안드로이드 P에서 인공 지능의 적용이 가장 두드러진 서비스는 사용자의 사용 패턴에 따라 배터리의 사용 시간을 최적화하는 ‘어댑티브 배터리(Adaptive Battery)’ 기능과 인공 지능의 이미지와 맥락 분석을 활용해 미리 보기 기능에 적용한 ‘오버뷰 인터페이스(Overview Interface)’ 기능입니다.

어댑티브 배터리는 우리에게도 잘 알려진 알파고의 개발사로 유명한 딥마인드와 협업을 통해 개발된 일종의 사용자 행위 분석 기반의 배터리 최적화 기술입니다. 이 기능을 활성화하면 배터리 소모가 큰 앱은 자동으로 종료시키고, 각각의 앱마다 적정한 화면의 밝기를 분석해 화면 밝기를 최적화하고 효율적으로 조정해 실제 효율을 30% 이상 개선할 수 있습니다.

오버 뷰 인터페이스는 일종의 미리 보기 기능입니다. 미리 보기에 포함된 텍스트와 이미지를 분석하고 주소, 전화번호, URL과 같은 정보들을 인식해 사용자에게 적절한 활용법을 제안하는 것인데요. 예를 들어 미리 보기 내에 어떤 주소가 나온다면 구글 맵과 연동해 길 안내를 제안하고 전화번호나 이메일 주소가 나오면 연락처에 추가나 전화 걸기, 이메일 작성 같은 것들을 제안하는 형태입니다.

특히 미리 보기 내용 중 이미지에 들어가 있는 텍스트까지 인식해 선택할 수도 있습니다. 이것은 구글의 인공 지능이 이미지의 배경과 사물, 글자의 차이를 정확하게 구분하고 인식할 수 있는 수준이며, 사용자에게 이러한 정보를 세밀하게 제공할 수 있는 단계까지 왔다는 것을 의미하기도 합니다.

우리가 모르는 일상 속의 구글 인공 지능

▲ 우리가 모르는 분야에서도 구글의 인공 지능은 개발되고 있습니다

지금까지는 인공 지능이라고 하면 대부분 인공 지능 비서 서비스를 떠올렸습니다. 구글 어시스턴트, 애플 시리, 아마존 알렉사처럼 우리가 음성으로 어떤 행위를 말하고, 이를 실제 사람처럼 처리해 주는 서비스들 말이죠. 하지만 아직 인공지능 기술은 사용자와의 인터렉션이 가능하게끔 하는 것보다 빅데이터를 활용한 딥러닝을 통해 인간을 돕는 방향으로 발전하고 있습니다.

그런 의미에서 헬스케어 분야는 향후 인공 지능의 쓰임새가 가장 잘 적용될 분야로 인식되고 있습니다. 그리고 구글 역시 이 분야에 대한 투자와 연구 개발을 진행 중이죠. 이번 구글 I/O 2018에서 구글의 CEO 순다 피차이가 언급한 사례는 구글이 의료 분야에 의미 있는 진전을 이뤄내고 있다는 증거일 것입니다.

순다는 구글이 2년 전 안구 사진을 통해 당뇨병을 통한 망막증의 징후를 감지하는 인공 지능 신경망을 이미 개발했고, 그동안 딥러닝 모델을 활용해 같은 안구 사진으로 특정 환자의 심장 마비 또는 뇌졸중 발생 위험률을 높은 정확도로 예측할 수 있게 됐다고 발표했습니다.

또한, 비식별 의료 기록의 정보를 분석해 환자의 재입원, 입원 기간 등의 의료 관련 내용을 예측할 수 있다는 점도 함께 발표하며, 이러한 내용을 이미 논문으로 발표했거나 향후 발표할 예정이라는 점도 언급했는데요. 그만큼 당장 수익화 모델을 기대하기보다는 향후 인공 지능을 활용해 좀 더 나은 의료 서비스와 질병의 예방과 예측에 활용할 계획임을 내비친 것으로 보입니다.

이외에도 청각 장애인을 위한 TV 자막 서비스에 인공 지능을 활용하는 방안도 선보였습니다. 지금까지의 TV 자막 생성 기술은 화자가 여러 명이고 동시에 말을 할 경우 텍스트가 구분되지 않은 채 화면에 출력되기 때문에 청각 장애인들 입장에선 대화의 맥락을 제대로 이해하기 어렵고, 실제 대화 내용을 정확히 따라가기 어렵다는 문제가 있었습니다. 하지만 인공 지능을 통해 오디오와 비디오 데이터를 인식, 이를 화자 별로 대화를 분리해 각각의 목소리를 개별 자막으로 분리하는 기술을 선보이기도 했습니다.

▲ 구글은 이제 자율주행 자동차 분야에서의 또 다른 혁신을 준비하고 있습니다

모든 이의 관심이 집중된 내용은 바로 가장 베일에 감춰져 있던 구글의 자율 주행차 기술이 아니었을까 싶습니다. 이번 구글 I/O에선 구글의 자율주행 자동차를 개발 중인 자회사 ‘웨이모(Waymo)’가 무대에 등장해 구글의 최신 자율 기술 정보를 발표했습니다. 발표에서 웨이모는 기존 자율 주행 엔지니어와 인공 지능 연구진의 협력을 통해 딥러닝을 활용하여 기존보다 에러율을 100배 이상 줄였다고 밝히면서 지각(Perception), 예측(Prediction), 의사 결정(Decision-making), 그리고 맵핑(Mapping)의 부분에서 각각 어떻게 인공 지능이 적용됐는지에 대해 설명하는 시간을 가졌습니다.

일상 생활 속으로 파고드는 인공 지능, 그리고 구글

이번 구글 I/O 2018은 작년부터 이어져 온 인공 지능에 대한 구글의 강조점을 확인할 수 있는 자리였습니다. 작년까지는 인공 지능이라는 기술을 하드웨어나 소프트웨어로 어떻게 구현할지, 그리고 그걸 구현하기 위해 어떤 기술들이 있는지 소개하는 것에 방점이 찍혔다면, 올해는 아직 초보적인 수준이긴 하지만 인공 지능을 어떻게 사용자들이 거부감을 느끼지 않고 자연스럽게 사용할 수 있을지, 그리고 이러한 인공 지능이 사용자들의 일상에 어떠한 도움을 줄 수 있는지에 대해 고민하는 모습이 역력했습니다.

결국 인공지능은 점차 우리의 일상으로 스며들어올 것입니다. 언제, 어떤 모습으로 들어올지는 지켜봐야겠지만, 과연 인공지능이 함께하는 우리의 삶을 얼마나 편하게 바꿔줄지에 대해 기대를 해봐도 좋지 않을까 생각합니다. 인공 지능의 세상은 이제부터 시작될 테니까요.

글. 커넥팅랩(최형욱)

FacebookTwitterNaver