AI 메이커스, 인공지능 전쟁의 최전선

우리는 컴퓨팅의 미래를 볼 수 있는 위치에 자리 잡아야 합니다

수츠케버의 번역기

일리야 수츠케버 Ilya Sutskever가 구글에 합류했을 때는 이미 딥러닝이 구글의 음성 및 이미지 인식 기술을 개선한 후였다. 다음 단계는 주어진 언어를 즉시 다른 언어로 번역할 수 있는 기술, 즉 '기계 번역'이었다. 이 기술은 연속적 대상(문장을 이루는 단어들)을 인식해 또 다른 연속적 대상(번역된 문장)으로 전환할 수 있는지에 관한 것이었다.

구글 브레인은 이미 '워드 임베딩 word embeddings'을 탐구하고 있었다. 이 기술의 용도는 신경망을 사용해 문장 속 단어들의 관계를 학습하기 좋은 뉴스 기사, 위키피디아 항목 등 방대한 텍스트를 분석함으로써 언어의 수학적 지도를 구축하는 것이었다. 그 지도는 도로 지도 같은 2차원이나 비디오 게임 같은 3차원의 지도가 아니었다. 지도에서 단어 '하버드'는 언어학적으로 아무런 관련이 없음에도 '대학교' '아이비리그' '보스턴'과 가까웠다. 워드 임베딩 시스템은 단어 하나하나에 다른 단어와의 관계를 정의하는 수학적 값을 부여하는데, 이를 '벡터 vector'라고 한다. '하버드'의 벡터는 '예일'의 벡터와 매우 유사하지만 똑같지는 않다. 수츠케버의 번역 시스템은 이 이아디어를 확장한 것이었다. 수츠케버와 그의 동료들이 구축한 시스템은 기존의 모든 번역 기술의 성능을 능가했다. 적어도 그들이 테스트에 사용한 영어 및 프랑스어 번역에서는 말이다.

TPU, tensor processing unit

구글은 위스콘신주 매디슨에 있는 반기밀 연구소에서 수년간 데이터센터 하드웨어를 설계했다. 그 결과물이 텐서 처리 장치였다. 신경망을 뒷받침하는 수학적 도구인 텐서를 처리하도록 설계한 것이었다. 일반 프로세서보다 계산이 '덜 정확'하다는 것이 바로 묘수였다. 신경망이 수행하는 계산의 수는 대단히 방대했으며 각각의 계산이 정확할 필요는 없었다. TPU는 부동 소수점 수가 아닌 정수를 취급했다. 즉 '1.3646 곱하기 45.828'는 소수점 아래 값을 버리고 '13 곱하기 45'로 처리했다. TPU가 초당 수조 개의 추가 계산을 수행할 수 있었다. 2015년 2월 일반 하드웨어로 10초나 걸렸던 문장 번역이 새로운 구글 칩의 덕택에 수밀리초 밖에 걸리지 않았다.

매너리즘에 빠진 마이크로소프트

알파고가 이세돌에게 승리를 거둬 테크업계는 일종의 인공지능 열풍에 휩싸여 있었다. 심지어 엔비디아, 트위터, 우버처럼 규모가 그리 크지 않은 실리콘밸리 기업들조차 그 하나의 목표를 향한 경주에 뛰어들었다. 그러나 마이크로소프는 상황이 불리했다. 이 회사는 빅테크 기업이기는 하지만 스마트폰이나 자율주행차를 만드는 회사도 아니었다. 사실상 인공지능으로 새로운 무언가를 개발하고 있지 않았다.

첫 번째 엉덩이 수술을 받고 회복한 루 Lu Qi는 마이크로소프트의 핵심 참모들에게 자율주행차 사업을 건의했다. 루는 자율주행차를 팔아야 한다고 주장하는 것이 아니었다. 자율주행차를 '개발'해야 한다는 것이 그의 주장이었다. 그럼으로써 회사가 다른 수많은 분야에서 성공하는 데 필요한 실력과 기술 및 통찰력을 갖추게 될 것이었다.

구글이 그토록 많은 시장을 점유하게 된 원인은 아무도 경험하지 못한 수준으로까지 인터넷이 확장되는 시기에 검색 엔진을 개발했기 때문이라고 루는 믿었다. 제프 딘 같은 개발자들이 누구도 개발해본 적 없는 기술들을 개발할 수밖에 없었고, 그 기술들이 이후 수년에 걸쳐 지메일부터 유튜브와 안드로이드까지 모든 것의 추진력이 됐다. 루는 "그 검색 엔진이 그들에게 일련의 기술적 도전 과제를 던져준 것입니다. 우리는 컴퓨팅의 미래를 볼 수 있는 위치에 자리 잡아야 합니다"라고 말했다.

진짜보다 진짜 같은 가짜 이미지

이안 굿펠로는 실사 이미지를 생성할 수 있는 기계를 개발하기 위한 최선의 방식에 대해 동료들과 근본적으로 다른 해결책을 내놓았다. 바로 '다른 신경망으로부터' 학습할 줄 아는 신경망을 구축하자는 것이었다. 원리는 다음과 같았다. 첫 번째 신경망은 이미지를 생성해 두 번째 신경망이 그것을 실제 이미지라고 믿도록 속인다. 두 번째 신경망은 첫 번째 신경망이 어디서 틀렸는지 청확히 찾아낼 것이다. 그러면 첫 번째 신경망은 다시 시도한다. 그렇게 양 신경망 사이의 대결이 충분히 길어진다면 실제처럼 보이는 이미지를 생성할 수 있다. 굿펠로는 이 아이디어를 설명한 논문을 작성하며 자신이 구축한 신경망을 'GANs 생성적 적대신경망'라고 명명했다.

---

굿펠로는 이 기술이 더욱 발전하면, 이미지가 어떤 일이 발생했다는 증거가 되는 시대는 종말을 고할 것이라고 주장하며 다음과 같이 연설했다. "역사적으로 어떤 일이 실제 있었다는 증거로서 동영상을 신뢰할 수 있었던 것은 약간의 우연이었어요. 이미지/영상 이전에는 우리는 어떤 문제에 관한 이야기 속에서 누가 무슨 말을 했는지, 누가 무슨 말을 할 동기가 있는지, 즉 누구의 말에 신빙성이 있는지 생각해야만 했죠. 그리고 우리는 다시 그런 시대로 돌아가고 있는 것 같습니다."

딥러닝의 개척자가 내다본 인공지능의 미래

제프리 힌턴은 어떤 이유로 다른 연구자들이 AGI (인공 일반 지능)에 매달리는지 의아해했다. 그래서 다음과 같은 의문을 제기했다. "저한테 로봇 외과 의사가 있다고 해보죠. 제 로봇이 엄청난 양의 의학 및 수술 지식에 통달해야 한다는 건 당연합니다. 하지만 제 로봇 의사가 어째서 야구 점수까지 알아야 하는지 전 잘 모르겠어요. 왜 제 로봇이 범용 지식을 갖춰야 합니까? 우리를 도울 기계를 만드는 것 아닌가요? 우리가 과연 범용 안드로이드를 원하게 될까요? 전 아니라고 확신합니다."

도움이 되었나요?