딸기가 보는 세상

알파고와 딥러닝, 로봇이 심부름을 하게 되는 날  

딸기21 2016. 3. 11. 19:42
728x90

“하루하루 회사 일과 집안일에 치이는 워킹맘인 나는 집에 새로운 가사도우미를 들이기로 결정했다. 이름은 ‘디피’. 휴머노이드라 불리는 ‘인간형 로봇’이다. 비록 아직 얼굴은 몬스터같고 감정표현 따위에는 서툴며 주인인 나의 감정을 잘 이해하지도 못한다. 하지만 나를 대신해 건너편 슈퍼마켓에 가서 파프리카와 대파와 마늘을 사오고, 부엌의 식탁 의자 등받이와 마룻바닥과 이불 위에 흘려둔 구겨진 옷가지를 정리해 옷장에 넣을 줄 안다. 집에 택배로 물건이 배달돼 오면 방문자를 확인해 물건을 받아 쌓아두고, 전화가 오면 받아서 메모해 놓는다. 아침에 바삐 집에서 나가면서 내가 메모지에 써두고 간 잔심부름을 해내기도 한다.”

 

알파고가 이세돌 9단과의 바둑대결에서 승리를 거두면서 인공지능(AI)이 어디까지 발전할 것인가, 과연 로봇이 인간을 앞설 것인가에 대한 관심이 어느 때보다도 높다. ‘가상의 도우미’가 우리 생활 속에 등장할 날까지는 얼마나 남았을까. 이 물음에 대한 답을 찾기 전에, 저런 로봇을 만들기 위해 필요한 기술이 뭔지를 들여다봐야 한다. 얼핏 생각해도 엄청난 기술적인 발전이 필요하다. 우선 로봇에게 운동기능이 있어야 한다. 돌아다니고, 물건을 집어들 수 있어야 한다. 움직여 다니려면 ‘판단’을 해야 한다. 파프리카를 오이와 구분하고, 대파와 양파를 구분할 수 있어야 한다. 의자 등받이에 걸쳐져 있는 것이 구겨진 옷이라는 것을 인식해야 한다. 방문자의 얼굴을 모니터로 보고 알 수 있어야 하며, 전화 속 상대방의 말을 듣고 어휘들을 구분해야 한다. 메모지에 휘갈겨쓴 글씨를 문자로 인식해야 한다.



wired.com



아직 말조차 서툰 아이들도 개와 고양이를 구분한다. 수백만 마리의 개와 수백만 마리의 고양이를 본 적이 없어도 두 동물을 구분한다. ‘개’라는 이름과 ‘고양이’라는 이름을 모르더라도 아이들은 다리가 넷 달리고 머리에는 두 귀와 두 눈이 달려 있고 털이 부숭부숭 난 두 동물의 종류가 다르다는 것을 안다. 

 

과거의 컴퓨터들은 ‘계산기’라는 이름 그대로 복잡하고 방대한 연산을 계산하는 기계였다. 하지만 AI는 다르다. 인식하고 판단한다. 물론 아주 초보적이지만 ‘스스로 배우는’ 단계에 이르렀다는 것이 중요하다. 이를 가능케한 것이 ‘딥러닝(deep learning)’이라는 메커니즘이다. 딥러닝은 간단히 말하면 정보를 층층이 쌓는 것이다. 1단계 인풋이 있고, 그걸로 2단계에서 아웃풋을 내놓는 것은 ‘얕은 배움’이다. 반면 딥러닝은 인풋과 아웃풋 사이에 숨겨진 레이어(정보층)들이 있다. 1단계 인풋을 가지고 2단계 아웃풋을 낸다. 2단계가 인풋이 돼 3단계 아웃풋이 나온다. 3단계가 인풋이 돼 4단계 아웃풋이 나온다. 이런 식으로 컴퓨터는 층층이 학습을 한다.

 

알파고가 어떻게 바둑을 배우게 됐느냐를 알기 전에, 기계가 어떻게 ‘배우는 방법’을 배우기 위해 인간을 따라하게 됐는지 생각해보자. 인간은 시각, 청각, 촉각 등 여러 감각을 가지고 있다. 외부로부터 정보(자극)를 받아들이는 신경에는 수많은 돌기가 있다. 시각을 담당하는 대뇌피질의 뉴런에는 1만개 가까운 촉수가 달려 있다. 이 촉수들이 자극을 받아 꺼지기도 하고, 켜지기도 한다. 디지털 식으로 말하면 0과 1이다. 컴퓨터가 인간의 신경을 모방할 수 있게 되는 지점이다. 


디피가 두 살 아이라 생각하고, 고양이를 구분하는 법을 가르쳐보자. 디피는 100장의 이미지들을 보며 몸통에 가지(다리)가 4개 나와 있는 물건의 사진 50장을 골라낸다. 거기엔 식탁도 있고 책상도 있고 악어도 있고 개구리도 있다. 컴퓨터들은 우리가 ‘눈’이라고 부르는 것과, ‘눈’ 비슷한 음영을 가진 동그라미를 100% 구분할 수는 없다. 하지만 몸통에 가지가 4개 나와 있고 윗부분에 이런 음영 2개가 표시된 이미지는 찾을 수 있다. 식탁과 책상 따위는 빼고, 다리에 눈까지 달린 것들의 사진 10장을 고른다. 고양이에겐 털이 있어야 한다. 디피는 이제 악어와 개구리 사진은 떼어내고 네 발과 눈과 털이 있는 것들을 골라낸다. 개의 몸통 패턴과 고양이의 몸통 패턴이 다르다는 것을 인식하면 ‘개’라는 이름과 ‘고양이’라는 이름을 몰라도 둘이 다르다는 것을 알고 분류할 수 있다. 

 

이렇게 한 단계, 한 단계 정보를 축적하고 분류하면서 디피는 고양이 사진들을 골라낸다. 이것이 딥러닝의 히어로인 앤드루 응(Andrew Ng)이 미국 스탠포드대학 교수 시절이던 2012년 구글의 ‘X실험실’ 연구팀과 함께 이룩해낸 업적이다. 구글의 ‘브레인 프로젝트’라는 이름으로 서로 연결된 1만6000개의 컴퓨터 프로세서들은 1000만개의 이미지들을 보면서 물건들을 분류했다. ‘고양이’라는 이름은 몰라도 고양이라는 독특한 종류의 이미지를 인식하는 법을 스스로 배웠다. 이미지들 속에 들어있는 아이템의 종류만 2만 개에 달했다. 컴퓨터는 그 중에서 사람의 얼굴을 81.7%의 정확도로 골라냈고, 사람의 신체 부위도 76.7% 정확하게 찾아냈다. 고양이는 74.8%의 정확도로 인식했다. 사람의 기준으로 보면 별 것 아닌 일일 수도 있으나, 컴퓨터에게는 엄청난 사건이다. 정확히 말하면 ‘브레인’이라 불리는 구글 컴퓨터의 신경망이 한 일이다.

 

이제 디피는 파프리카와 대파와 마늘을 구분할 수 있게 된다. 꼬불꼬불한 글씨도 문자로 인식할 수 있다. 내장된 사전을 돌려 텍스트로 받아들인 메모지의 심부름 내역을 해석할 수 있게 된다. 음성을 인지하고 역시 단어들을 해석해 뜻을 받아들이게 된다. 실은 딥러닝의 출발점이 손으로 쓴 문자를 인식하는 것이었다. 딥러닝의 선구자로 불리는 사람은 일본의 후쿠시마 구니히코다. 그가 만든 ‘네오코그니트론’은 1979년 여러 단계를 거쳐 손으로 쓴 숫자를 인식할 수 있었다. 이 방법은 인간이 시각 정보를 처리하는 과정을 본떴다. 





알파고는 무수히 많은 경우의 수들 중에서 인간 바둑기사들이 두지 않는 수들은 빼버려 경우의 수를 줄이는 법을 배웠다. 이렇게 해서 계산 시간을 줄였으면, 그 다음에 할 일은 남은 경우의 수들 중 어디에 두는 것이 승률이 높을까를 계산하는 것이다. 이런 방식으로 알파고는 배우고 또 배워 이세돌 9단을 이겼다. 그러나 디피가 슈퍼마켓에 양파를 사러 가려면 엄청난 발전이 더 필요하다. 빅데이터를 가진 구글이나 페이스북이 지금 딥러닝으로 실행하고 있거나 실행하려 하는 기술은 사실은 가상의 존재 디피와 비교하면 초보적인 수준이다. 컴퓨터들은 이제 언어를 어느 정도 인식하기 시작했고, 이미지도 구분해내기 시작했다. 계산은 원래부터 잘 했다. 그것이 컴퓨터의 타고난 기능이었으니까. AI와 관련해서 자주 인용되는 레이 커즈와일은 <특이점이 온다>에서 이렇게 썼다. 

 

“역량이 비슷할 경우, 비생물학적 지능은 뇌보다 훨씬 강력하다. 인간의 패턴 인식능력과 더불어 기계의 장점인 뛰어난 기억력과 기술 공유능력, 정확도를 갖췄기 때문이다. 또 비생물학적인 지능은 언제나 최고 기량을 발휘하는데, 생물학적 인간은 결코 따라할 수 없는 능력이다.”

 

컴퓨터들은 인간 신경체계에서 학습법을 배웠다. 하드웨어가 발전하면서 여러 종류의 ‘인식 기능’도 크게 늘었다. 거기에 빅데이터가 덧붙여졌다. 그럼에도 아직 커즈와일이 말한 ‘특이점’, 즉 AI가 인간과 합체되는 순간이 오려면 시간이 필요하다. 빅데이터가 받쳐주기 전까지만 해도 컴퓨터의 문자인식 기능은 그리 큰 호응을 얻지 못했다. 1989년에 프랑스 출신의 컴퓨터과학자 얀 르쿤은 ‘오류역전파 알고리즘(backpropagation algorithm)’이라는 것을 만들어내서, 우편물에 손으로 쓰인 우편번호를 인식하는 심층신경망(deep neural networks)을 개발했다. 그런데 컴퓨터가 숫자 10개를 인식하는 데에는 사흘이 걸렸다. 한마디로 당시에는 쓸 데 없는 기술이었다. 하지만 컴퓨터의 신경망 기술은 순환신경망, 심층신뢰신경망, 심층Q-네트워크 같은 것들로 계속 진화했다.

 

그럼에도 아직 컴퓨터의 신경은 인간을 따라잡지 못했다. 인간은 두어번 본 타인의 얼굴도 기억할 수 있다. 그 사람이 1m 거리에 있을 때나 코앞에 있을 때나, 구분할 수 있다. 옆으로 고개를 비스듬히 돌려도 구분할 수 있고, 웃거나 울어도 구분할 수 있다. 컴퓨터가 이렇게 사람을 구분하기는 힘들다. 거리와 각도와 자세에 따라 인식되는 이미지가 달라지기 때문이다. 한 사람을 구분할 수 있도록 하기 위해 온갖 각도와 거리에서 찍은 사진 100만장을 컴퓨터에게 보여줄 수는 없는 노릇이다. 그래서 과학자들은 컴퓨터가 그렇게 많은 데이터가 없이도 사물을 인식할 수 있게 만들려고 애쓰고 있다. 

 

지난해 12월 뉴로사이언스뉴스닷컴은 미 매서추세츠공과대학(MIT) 토마소 포기오 연구팀의 연구결과를 소개하는 기사가 실렸다. 포기오 팀은 몇 장의 사진들만 가지고도 컴퓨터가 물체를 인식할 수 있게 하는 메커니즘을 개발했다. 100만 장의 양파 사진을 보지 않아도 디피는 양파를 구분해낼 수 있다. 파프리카와 피망을 구분해내는 것은 아마도 힘들 것이다. 사람도 마찬가지이니까. 하지만 문제는 없다. 슈퍼마켓에서 ‘파프리카’와 ‘피망’이라 쓰인 팻말을 읽고 구분할 수 있기 때문이다. 후쿠시마 교수가 가르쳐준 방법으로 말이다.





아직은 초보적인 단계이고, 빅데이터를 가진 기업들은 AI를 발전시키기 위해 사활을 건 싸움을 하고 있다. 2013년 페이스북은 심층신경망을 만든 르쿤에게 미국 캘리포니아와 뉴욕, 영국 런던에 있는 인공지능연구소(FAIR)를 총괄하는 역할을 맡겼다. 이 연구소는 페이스북에 사용자가 올린 사진들을 자동으로 인식, 등장인물의 얼굴에 이름표를 붙이고 사진 속 배경에 장소 이름을 붙일 수 있게 하는 연구를 하고 있다. 사진 속에 에펠탑이 나와 있다면 아마도 컴퓨터는 ‘프랑스 파리로구나’라고 쉽게 인식할 것이다. 사진 속 배경이 그저 평범한 카페라면 컴퓨터가 인식하는 데에 애를 먹을 지도 모르겠다. 하지만 동네 카페들까지 다 찍어놓은 ‘구글 스트리트뷰’와 페이스북의 장소인식 기능이 결합된다면 얘기는 달라진다. 상상해보면 섬뜩한 일이기도 하다.


2013년 구글은 딥러닝의 또 다른 선구자 제프리 힌튼을 고용했다. 힌튼이 연구하는 것은 구글이 가진 어마어마한 양의 데이터를 컴퓨터가 스스로 분류할 수 있도록 가르치는 일이다. 이듬해 구글은 영국의 딥마인드 테크놀로지를 사들였다. 알파고를 만든 회사다. 이 회사는 컴퓨터에게 비디오게임을 보고 스스로 실력을 키우는 법을 가르쳤다. 구글은 컴퓨터에게 고양이 분류법을 알려준 앤드루 응도 채용했다. 고양이 분류 연구를 한 ‘X실험실’은 구글의 차세대 전략인 무인자동차와 가상현실 프로젝트들을 연구하는 곳이었다. 하지만 이 치열한 경쟁 속에서, 앤드루 응은 다시 목적지를 바꿨다. 그는 지금 중국의 바이두에 고용돼 AI를 연구하고 있다. AI의 ‘군비경쟁’이라는 말이 괜히 나오는 것은 아니다.

 

2015년의 나는 중학생인 내 딸에게 방안의 옷가지들을 정리하고, 심부름을 다녀오라고 말한다. 커즈와일이 말한 특이점이 오는 2045년, 지금의 내 나이가 돼 있을 내 딸은 디피에게 옷들을 계절별로 정리하고 심부름을 다녀오라고 지시한다. 아니 어쩌면 로봇 도우미도 필요 없이 인공 골격이나 근육을 팔에 장착해, 피곤함도 모른 채 스스로 옷가지를 정리하고 있을 수도 있다. 기후변화로 계절별 옷이 필요하지 않을 수도 있다.





미국의 드론은 이미 파키스탄과 예멘에서 사람들을 폭격해 죽이고 있다. 우리는 전쟁의 피튀기는 참상을 머리 속에 떠올리며 평화를 가르친다. 그런데 지금의 드론 조종사들, 모하비 사막의 미군 기지에 앉아 좌표들만 보고 적국을 폭격하는 사람들에게 피흘리며 쓰러지는 아랍 소녀의 얼굴과 눈물 흘리는 그 부모들의 모습은 보이지 않는다. ‘좌표 a-20’이라는 표지만 있을 뿐이다. 미국은 이제 킬러로봇을 연구하고 있다. AI를 발전시키려면 먼저 우리의 뇌에 대해 알아야 한다. 버락 오바마 정부는 ‘브레인 이니셔티브’라는 이름으로 대규모 뇌 연구를 지원하고 있다. 이 프로젝트 예산 1억달러 중 절반은 미 국립보건원(NIH)에서, 절반은 국방부 방위고등연구계획국(DARPA)에서 낸다. 의미심장한 일이다.


철도와 자동차가 생기면서 마부들은 일자리를 잃었다. 그러나 철도와 자동차로 파생된 일자리가 훨씬 더 많다. 산술적으로 놓고 보면 인류는 더 많은 풍요를 얻었다. 그러나 철도와 자동차 일자리 1만 개가 생기고 마부 200명이 일자리를 잃은 것을 덧셈뺄셈한들 200명의 고통이 사라지는 것은 아니다. 세탁기 덕분에 나는 개울가에서 찬물에 빨래를 하지 않아도 된다. 기술의 승리이자 인류의 승리다. 세탁기로 빨래를 한다고 해서 내가 더 이상 인간이 아니라고 느끼지는 않는다. 그러나 전쟁으로 피흘리는 사람들의 이미지를 완전히 지우고 모니터 상의 좌표를 보며 폭격 버튼을 누를 때, 킬러로봇을 조종해 수만리 떨어진 곳에서 전쟁을 치를 때에도 나는 이전과 같은 인간인가? 

 

수만년 동안 진화해온 유전자는 나에게 연민과 동정과 공감을 가르쳤다. 그것이 사라져갈 때에도 나는 똑같은 인간인가? 무인차가 나와 잃자리를 잃는 택시기사들이 나오겠지만, 무인차와 관련된 일을 하는 사람들이 그만큼 생겨날 것이다. 무인차 기술이 발전해도 여전히 기계는 인간의 상황판단력을 필요로 할 가능성이 높으니까. 그런데 내 앞에서 차에 치인 여고생을 보는 나와, 가상현실에서 헤드셋을 끼고 교통사고조차 간접체험하는 나는 같은 감수성을 지니고 있을까. 알파고를 보면서, 우리는 ‘인간이란 무엇인가’를 고민해야 하는 시점에 이른 것인지 모른다.