세상의 해상도와 "깊은 학습"

NFS
2019-08-02
조회수 110


지능과 마음을 가진 기계를 만들 수 있다는 믿음 아래 1956년 미국 다트머스 대학교에 모인 ‘인공지능’ 학자들은 질문한다: 뇌의 모든 기능을 한번에 모방하긴 무리다. 그렇다면 무엇을 먼저 모방해야 할까?

답은 간단해 보였다. 가장 어려운 기능을 우선 재연하면 나머지 기능들은 누워서 떡 먹이이지 않겠는가? 대부분 수학을 전공한 초기 인공지능 학자들은 뇌의 가장 복잡한 기능은 당연히 수학과 체스 게임일거라고 생각했다.

시작은 정말 환상적이었다. 몇 개월 만에 대부분 사람을 이길 수 있는 체스 프로그램이 개발되고, 컴퓨터가 어려운 수학문제들을 풀기 시작했으니 말이다.역시 뇌는 아무것도 아니었구나! 1-2년 안에 인간을 뛰어넘는 지능, 그리고 언젠간 마음을 가진 기계를 만들 수 있겠다!


source: http://commons.wikimedia.org/wiki/File:Computermastergenius.jpg


60년이 지난 오늘. 인공지능은 여전히 영화에서나 볼 수 있다. 지구에서 가장 빠른 슈퍼컴퓨터는 강아지와 고양이를 구별하지 못하고, 인간의 말 역시 이해하지 못한다. 도대체 뭐가 잘못된 것인가? 답은 의외로 단순하다. “쉽다”와 “어렵다”의 개념이 처음부터 틀렸기 때문이다.

사물을 알아보고, 말하고, 기억하고. 사실 너무나 어려운 문제들이다. 하지만 수천만 년간 진화과정을 통해 이 어려운 문제들은 다 풀렸다. 우리 뇌는 정답을 이미 알고 있는 것이다. 정답을 알기에 문제가 쉬워 보일 뿐이다. 하지만 고등수학과 체스게임은 진화적으로 한 번도 풀 필요가 없었던 무의미한 문제들이기에, 뇌는 정답을 모르고, 정답을 모르기에 어려운 것이다.

그렇다면 진화적으로 만들어진 지능의 원리는 무엇일까? 세상은 존재한다. 하지만 세상이 다양한 사건과 물체들로 분리되는진 확신할 수 없다. 아니, 물리학적 개념으론 만물이 양자역학적 파동으로 연결되어있는지도 모른다.

그렇기에 파르메니데스가 이미 3천년전 주장하지 않았던가: 변화는 없고, 모든 게 하나라고. 하지만 뇌는 언제나 변화와 다양성을 인지한다. 왜 그럴까? 세상을 바라보는 눈, 코, 귀 모두 한정된 해상도를 가지고 있기 때문이다. 무슨 해상도냐고? 물론 양자역학적 차원도, 은하들간의 천문학적 수준도 아닌 생물학적 규모의 해상도일 것이다.


 

source: https://www.flickr.com/photos/philosophy_rebel/273032693/


특정 크기의 “창문”들을 통해 세상을 바라보듯, 뇌는 지각 가능한 해상도 내에서 세상을 바라본다. 이렇게 바라본 세상엔 무엇이 보일까? 대부분 무의미한 랜덤 신호들일 것이다. 하지만 가끔 반복된, 그리고 반복되기에 예측 가능한 신호들이 관찰되고, 대부분 사람들에게 비슷하게 관찰된 패턴들은 전통과 합의를 통해 “개”, “고양이”, “정의”라 불리게 된다.

하지만 잠깐! 뇌가 경험할 수 있는 예제들의 교집합이 대부분 0에 가깝다 하지 않았던가? 그렇다. 진돗개, 시츄, 그레이하운드. 아무리 비교해봤자 반복된 패턴 찾기는 쉽지 않다. 하지만 만약 한정된 해상도를 여러 계층으로 나눠본다면? 가장 아래 계층에선 섬세한 차원의 교집합들을 찾아볼 수 있다. 점, 선, 뭐 그런 것들간의 통계학적 관계들 말이다.

그 위 차원에선 조금 더 복잡한, 네모, 세모, 동그라미 같은 모양들이 반복되는지 알아볼 수 있다. “깊은학습”(deep learning)이라 불리는 이 이론은 지능과 마음은 결국 계층적으로 반복된 교집합들을 찾는 과정을 통해 만들어진다고 주장한다.

하루살이, 개구리, 병아리. 많아야 1-2층의 신경망 구조를 가진 이들에 비해 인간의 뇌는 약 10개정도의 계층들을 가지고 있다. 깊은학습 이론이 옳다면, 인간은 10배 더 복잡한 통계학적 관계들을 이해하고 더 고차원적으로 반복된 패턴들을 예측할 수 있기에 개구리, 병아리보다 더 큰 슬픔과 더 큰 기쁨을 느끼고 더 깊은 생각을 할 수 있다는 것이다.

1 0