"순수 하드웨어의 혁신은 끝났다. 이제는 하드웨어와 소프트웨어에 AI를 조합해 나갈 것이다"
구글의 픽셀(Pixel) 카메라 담당 프로덕트 매니저인 이삭 레이놀즈는 28일 일본 도쿄에서 열린 아시아-태평양지역 기자간담회에서 전세계에서 쏟아지는 스마트폰을 예로 들며 "하드웨어만으로 경쟁하던 시기는 끝났다"고 말했다. 최신 스마트폰일지라도 크기, 디자인, 프로세서, 카메라 할 것 없이 "기존 폰과 별다른 차이가 없다"는 것이다.
그는 DSLR 카메라와 구글 스마트폰 픽셀2 XL로 찍은 사진을 비교하며 "(픽셀2 XL에는) 구글의 기계 학습 기술이 담겼다"고 말했다.
두 사진은 언뜻보면 비슷해보였지만 구글 픽셀2로 찍은 사진은 배경을 흐림처리에 인물이 더 또렷하게 보였다. 이는 렌즈가 큰 DSLR로 단순히 피사체에 초점을 두고 찍은 '아웃포커싱' 기술과는 전혀 다른 것이라고 설명했다.
픽셀 2 시리즈 카메라는 '듀얼 픽셀 센서'를 탑재한다. 사람 눈이 2개인 것처럼 픽셀2에도 2개의 이미지 센서가 있다는 것. 이삭은 "카메라는 하나뿐이지만, 왼쪽에서 들어온 풍경은 오른쪽 센서, 오른쪽에서 들어온 풍경은 왼쪽의 센서에서 수신한다"면서 "인간의 눈처럼 촬영하면서 심도 맵 (Depth Map)을 작성한다"고 말했다.
카메라가 포착한 사진에서 인물과 배경 등 백만여개 이미지를 학습해, 심도맵을 그린 다음 인물 이외의 부분은 흐리게 처리해 더욱 선명하게 떠오르도록 한다는 것이다. "이미지에서 인물과 경계가 불분명한 스카프나 모자까지도 구분할 수 있도록 딥 러닝 구조로 실현했다"고 그는 강조했다.
이런 사진은 보통 여러 개의 렌즈를 사용하는 대형 카메라가 있어야 하지만, 픽셀 폰에서는 앞뒤에 각각 하나씩 있는 렌즈만으로도 가능하다. 구글 스마트폰 카메라로 사진을 찍으면 포착된 건물 정보를 알려주거나 관련 이벤트를 가르쳐주는 것도 AI 학습 결과다.
이미지뿐만 아니라 소리까지도 학습하면서 특징을 배워 간다. 구글의 스마트 스피커
'구글 홈'에는 음성 인식 마이크가 2개 있다. 개발시에는 8개의 마이크를 탑재하려 했다. 주변 소음이 있을 때도 이를 걸러내고 사용자 목소리를 인식하기 위해서다. 그러나 마이크 수를 줄일 수 있었던 건 "하드웨어를 소프트웨어와 AI로 개선한 덕분"이라고 이삭 레이놀드는 말했다. 구글홈은 이같은 머신러닝을 통해 최대 6명이 하나의 구글 홈 기기에 자신의 계정을 연결할 수 있다.
한 단계 나아간 '구글 홈 맥스'는 집 안 어디에서도, 혹은 스피커를 어디 두더라도 음향을 조정해주는 기능을 갖추고 있다. "구글홈보다 20배 정도 성능이 강력하다"고 구글이 소개할 정도로 주변 환경을 인식한 AI 기반의 사운드 재생 기능이 뛰어나다.
구글의 AI 기술은 의료와 환경 보호에까지 활용되고 있다. 인류가 직면한 여러가지 중요하면서도 어려운 문제를 해결하는 도구를 제공한다는 것이다.
예를 들어 이미지 인식 기술을 활용해 실명 우려가 있는 질병을 발견하는 것이다. 리서치 의학 영상팀 릴리 펭 프로덕트 매니저는 머신러닝을 통해 당뇨성 안과 질환을 진단하는 데 필요한 도구를 개발하고 있다.
안구를 촬영하고 이미지를 분석해 혈관 상태 등을 진단하고 그에 맞게 치료를 하는 방식이다. 현재 인도에서는 12만 7000명의 안과 의사가 필요한 실정이다. 환자 중 45%가 진단도 받기 전에 실명하고 만다. 릴리 펭은 "의사와 동등한 수준의 정확도를 보이고 있고 안과 의사가 부족한 지역에 큰 도움이 될 것"이라고 말했다.
이런 머신러닝은 현재 암 진단 도구에도 활용되고 있다. 추후 화학과 유전학 등 다른 과학 분야로도 확대될 예정이다.
환경 보호에 활용되는 것도 마찬가지다. 멸종 위기종인 '해우(SEA COW)' 보호 활동이 그 예다. 사람의 눈으론 식별불가능한 해우의 그림자를 머신러닝으로 단 번에 포착한다.
멸종 위기 조류를 보호하는 데도 쓰인다. 이번엔 이미지가 아닌 '소리' 학습을 통해서다. 뉴질랜드 희귀 조류 보존에 나선 빅터 안톤은 1년 동안 1만 5000시간 분량의 녹음을 수집했다. 이는 꼬박 2년 동안 쉬지 않고 들어야만 확인 가능한 데이터다.
그러나 구글 머신러닝으로 지저귀는 소리만으로 새들의 종류를 구별한다. 스마트폰으로 지금 울고 있는 새가 무엇인지 실시간으로 알려주는 서비스도 준비중이다.
일본 대표 식품 업체 '큐피'는 구글의 머신러닝 오픈소스 텐서플로(TensorFlow)를 활용해 식품 검사를 자동화했다.
큐피는 하루 100만개 이상의 1cm 깍뚝 썰기한 감자를 검수할 때 조금이라도 변색했다면 불량으로 제거한다. 직원이 일일이 체크하기 힘들었던 것을 텐서플로를 적용한 뒤엔 작업이 훨씬 수월해졌다. "불량품을 찾는 것'이 아닌 '불량 인식' 장치가 돼 식품 업계에도 텐서플로는 상용화될 전망이다.
구글 리서치팀을 총괄하는 제프 딘 (Jeff Dean)은 "이처럼 모두를 위한 AI를 실현하는 것이 구글의 비전"이라고 강조했다. 구글은 내년부터 구글 소속 개발자들이 내부 연수용으로 쓰던 머신러닝 집중 교육 강좌를 온라인으로 제공한다는 방침이다. 일반인도 무료로 들을 수 있다.
이는 구글의 AI 기술의 활용을 대중화하는 한편, 구글의 AI 플랫폼격인 '텐서플로'를 널리 퍼뜨리기 위한 것으로 분석된다.
현재 구글 텐서플로에 맞설만한 플랫폼이 없는 상황에서 "구글에의 기술 종속이 심화되지 않겠냐"는 우려에 제프 딘은 "개발자나 사용자에게 보다 유용한 도구를 제공하는 게 목표"라면서 "사람들이 자기가 달성하고자 하는 기술이나 시스템에 보템이 되고 싶다. 궁극적인 건 사람들의 삶"이라고 강조했다.
또 AI가 인간의 많은 직업을 대체하는 것에 대해 "자동화는 지난 200년간 진행된 일이고 예전엔 자동화가 불가능했던 게 지금은 가능해졌을 뿐"이라면서 "모든 기술은 인간의 노동력을 대체하면서 발전하게 된다"고 말했다. 다만, "AI 발전은 예전엔 상상하지 못하는 새로운 일자리를 만들어 낼 것 "이라면서 "소셜 미디어 컨설튼트가 생긴 것처럼 앞으로는 예전엔 상상하지 못한 새로운 일자리가 생겨날 것"이라고 강조했다.
또 "머신러닝을 통해서 작업이 단순화된다면 사람은 이를 통해 더 많은 새로운 일들을 할 것"이라면서도 "구글 역시 일자리 문제에 책임감을 가질 것이고 각국 정부도 관심을 가져야할 것"이라고 덧붙였다.