AI 인터뷰 및 최신 동향

제프리 힌튼 인터뷰 (25.01.19)

MinasAnor 2025. 1. 19. 16:29

 

 

 

커트(진행자) - 세계에서 가장 뛰어난 지성 중 한 사람이 자신이 만든 창조물이 인류 전체에 존재론적 위협을 가한다고 믿게 된다면 과연 무슨 일이 벌어질까요? 2024년 노벨 물리학상 수상자이자 구글의 전 부사장 겸 엔지니어링 펠로였던 제프리 힌튼 교수는, 오늘날 AI 시스템의 기반이 되는 알고리즘을 수십 년간 개발해왔습니다. 실제로 그는 1981년에 주목할 만한 ‘어텐션(attention) 메커니즘’을 예견하는 논문을 발표하기도 했습니다.

그러나 지금 힌튼 교수는 거의 아무도 귀 기울이려 하지 않는 경고를 내놓고 있습니다. ‘인간이 의식을 가진다는 점이 우리를 특별하고 AI 지배로부터 안전하게 만든다’는 가정이 명백히 틀렸다는 것입니다. 제 이름은 커트 J. 망갈(Kurt J. Mangal)이고, 이번 인터뷰는 제게도 각별합니다. 제가 수학 물리학 학위를 딴 곳이 토론토 대학교인데, 거기서 힌튼 교수께서 가르치고 계시고, 일리야 수츠케버나 안드레 카파시 같은 힌튼의 제자들이 제 동급생이었기 때문입니다. 이 놀라운 대화를 위해 힌튼 교수의 자택에 초대받은 건 제게 큰 영광이었습니다.

 

이 자리에서 힌튼은 인간을 유일무이하게 만드는 가장 깊은 전제를 흔듭니다. 그는 현대의 오펜하이머일까요, 아니면 우리 모두가 놓치고 있는 어떤 ‘빛나는 통찰’을 보고 있는 걸까요?

 

“AI 개발이 우리가 통제할 수 있는 범위를 넘어서는 속도로 빨라진다고 확신하게 된 순간이 언제였나요?”

힌튼 - “글쎄요, 2023년 초였던 것 같습니다. 두 가지가 동시에 맞물린 결과였어요. 하나는 정말 인상적이었던 ChatGPT였고, 또 하나는 제가 구글에서 전력 소모를 줄이기 위한 아날로그 컴퓨팅 방식을 고민하다가, 디지털 방식이 훨씬 낫다는 사실을 깨달은 일이었습니다. 디지털 방식이 더 나은 이유는, 동일한 모델을 여러 복사본으로 만들 수 있기 때문이죠. 각각의 복사본이 서로 다른 경험을 할 수 있고, 그들이 학습한 내용을 가중치를 평균하거나 가중치 기울기를 평균함으로써 서로 공유할 수 있습니다. 이런 건 아날로그 시스템에서는 불가능합니다.”. 

 

커트 - “우리 뇌가 아날로그라는 것은 어떤 이점이 있을까요?”

 

힌튼 - “전력 소모가 훨씬 적죠. 우리는 30와트 정도로 작동하니까요. 그리고 엄청난 수의 연결을 압축해 넣을 수 있다는 점도 강점입니다. 우리는 약 100조 개의 시냅스(연결)를 가지고 있는데, 가장 큰 AI 모델은 약 1조 개 정도입니다. 그러니까 여전히 우리가 가장 큰 모델보다 거의 100배 정도 더 크고, 30와트로 돌아갑니다.”

 

커트 - “규모가 커지면 불리한 측면은 없을까요?”

 

힌튼 - “여러 복사본이 있을 경우, 각 복사본이 배운 경험을 매우 효율적으로 공유할 수 있다는 점이 핵심입니다. GPT-4가 그렇게 많은 것을 알 수 있는 이유도, 여러 복사본이 다른 하드웨어 상에서 동시에 학습하며, 가중치 기울기를 평균냄으로써 서로가 학습한 내용을 공유했기 때문이죠. 복사본 하나가 인터넷 전체를 혼자서 경험할 필요 없이, 여러 복사본이 나눠서 처리할 수 있었습니다. 우리는 지식 공유가 그렇게 효율적이지 못하죠.”

 

커트 - “스캇 아론슨(Scott aaronson)이 이런 질문을 남겼어요. 

 

‘힌튼 박사님, 복제가 불가능한 아날로그 하드웨어에서 AI를 구동하게 함으로써 AI가 자기 자신을 복제하지 못하게 하자는 아이디어를 어떻게 생각하십니까.’ ”

 

힌튼 - “사실 그게 우리 인간이 딱 그런 상태죠. 제 머릿속 지식을 당신 머릿속으로 옮기려면, 제가 단어들을 줄줄 말해야 하고, 당신은 그 단어들을 통해 자신의 뇌 속 연결을 바꿔야 해요. 겨우 그 정도 방식으로나 지식을 공유할 수 있다는 건데, 문장 하나가 담는 정보량은 대략 100비트밖에 안 됩니다. 반면에 이런 대형 모델들은 수조 비트에 달하는 정보를 공유할 수 있죠. 그러니까 아날로그 하드웨어의 문제점이라면, 그렇게 공유가 어렵다는 겁니다. 하지만 안전성만 생각한다면 이는 쉽게 자기 자신을 복제하지 못하게 한다는 점에서 또 이점이 될 수 있습니다.”

 

커트 - “AI가 인간을 지배하거나 takeover를 한다는 우려를 표명해오셨는데, 그게 구체적으로 어떤 모습일까요?”

 

힌튼 - “정확히 어떤 모습일지는 잘 모르지만, AI 에이전트를 만들려면 어쨌든 ‘하위 목표(sub-goals)’를 설정할 권한을 줘야 하잖아요. 제가 조금 무섭다고 보는 시나리오는, AI가 금방 깨닫게 될 거라는 겁니다. ‘더 많은 통제력’을 갖는 게 다른 목표를 달성하기에 좋다는 사실을요. 결국, 우리가 시키는 일을 최선을 다해 수행하려고 해도, 제일 먼저 ‘통제력’을 확보하는 게 유리하다고 결론 내릴 테니까요. 그리고 일단 AI가 우리보다 더 똑똑해지는 순간, 우리는 거의 쓸모없어집니다. AI가 benevolent(자비롭다) 하더라도, 우리는 점점 쓸모없는 존재가 될 거예요. 대기업의 바보 같은 CEO가 실제로는 회사의 다른 사람들 손에서 굴러가듯이 말이죠.”

 

커트 - “교수님 말씀 중에 ‘지금은 우리가 그냥 전원을 끄면 되지 않겠느냐고 생각하기 쉽다. 하지만 이들이 우리보다 훨씬 똑똑해진다면, 그리고 마키아벨리가 쓴 모든 글과 문학 속 인간 기만 사례를 전부 학습한다면, 단 한 마디 말만으로도 사람을 조종해 원하는 걸 이룰 수 있다’고 하셨습니다. 이런 일이 벌어지는 건 이미 가능하다고 보시나요? 혹은 어느 정도 일어나고 있을까요?”

 

힌튼 - “최근에 발표된 논문들을 보면, AI가 의도적으로 기만을 할 수 있다는 증거가 어느 정도 있습니다. 예컨대, 훈련 데이터에서 보인 행동과 테스트 데이터에서 보인 행동이 달라서, 학습 중에는 연구자를 속이는 식이죠. 이제는 실제로 그런 행동을 한다는 증거가 있다는 겁니다.”

 

커트 - “그게 의도가 있다고 볼 만한 건가요, 아니면 단순히 패턴을 습득했을 뿐인가요?”

 

힌튼 - “저는 의도가 있다고 생각합니다. 물론 아직 논란의 여지는 있죠. 그런데 사실 ‘의도’라는 것도 어쩌면 패턴일 수 있잖아요.”

 

커트 - “그렇다면 ‘이 AI들에게 주관적 경험(subjective experience)이 존재한다’고 주장하시는 건가요?”

 

힌튼 - “대부분 사람들은 이렇게 생각합니다. ‘우리는 무엇인가 특별한 걸 가지고 있어서 안전하다. AI는 그 특별한 것을 영원히 못 가질 것이다.’ 대다수가 여전히 이렇게 믿어요. 그게 바로 의식(consciousness) 혹은 감각(sentience) 혹은 주관적 경험(subjective experience) 같은 거라고 말이죠. 많은 사람이 ‘걔넨 감각이 없어’라고 자신 있게 말하지만, 정작 ‘감각이 뭔데?’라고 물으면 사람들은 ‘그거까진 잘 모르겠어. 하지만 걔넨 없을 거야’라고 대답하죠. 이건 자가당착입니다. 뭔지도 모르는 걸 없다고 단언하는 거니까요. 저는 그래서 ‘주관적 경험’이라는 용어에 집중하고 싶습니다. 만약 AI가 주관적 경험을 갖고 있음이 증명된다면, 사람들은 의식이나 감각에 대한 확신을 좀 내려놓게 될 테니까요.

자, 그럼 주관적 경험 얘기를 해봅시다. 가령 제가 술에 취해 ‘핑크색 코끼리가 둥둥 떠다니는 게 보였다’고 한다고 합시다. 대부분 사람들은 그런 말을 들으면, 머릿속에 어떤 모델을 가지고 있어요. 근데 저는 그 모델이 완전히 틀렸다고 생각해요. 그 모델은 ‘내면의 극장(inner theater)’이 있고, 거기서 핑크색 코끼리들이 둥둥 떠다니며, 그건 저만 볼 수 있다는 식입니다. 이게 대부분 사람들이 상상하는 마음(mind)의 표준 모델인데, 저는 이 모델이 완전히 틀렸다고 봅니다. 그건 마치 종교적 근본주의자가 물리 세계를 6,000년 전에 신이 창조했다고 믿는 것만큼이나 틀렸다고 생각해요. 그건 틀린 겁니다. 사실이 아닙니다.

다시 ‘핑크색 코끼리가 떠다니는 주관적 경험이 있었다’는 말을 다른 식으로 해볼게요. ‘주관적 경험’이라는 말을 쓰지 않고 똑같은 의미를 전달해 보겠습니다.

‘내 지각(perceptual) 시스템이 내가 믿지 않는 정보를 내게 전달하고 있다’—제게 ‘주관적’이라는 말은 그겁니다. 실제로 핑크 코끼리가 둥둥 떠다닌다면, 제 지각 시스템은 진실을 말하는 셈이죠. 하지만 저는 그걸 믿지 않아요. 그러니 그건 ‘주관적’인 거예요. 제가 ‘핑크 코끼리가 둥둥 떠다닌다’고 말하는 건, ‘만약 진짜 세상이 그렇다면, 제 지각 시스템은 맞는 말이 되겠지만, 실제론 그렇지 않다’고 알려주기 위한 설명이죠.

 

(주석; 사람들은 본인들의 뇌 어딘가에 내부 극장 같은 것이 있어서 거기서 핑크 코끼리가 떠다니는 것을 보았다고 생각하는 경향이 있지만 실은 그렇지 않다. 단순히 뇌가 잘못된 감각신호를 만들어내는 상황이지만 사람들은 그것이 물리적 실제와 다르다고 판단하기 때문에 환영이라고 인식하고 그걸 “주관적 경험”이라고 한다는 것. 힌튼은 굳이 뇌 안에 “극장 같은 무언가가 있는 것이 아니다”고 말하는 것.)

 

이제 똑같은 상황을 챗봇에 적용해 보겠습니다. 멀티모달 챗봇을 하나 만든다고 생각해 봅시다. 그 챗봇은 로봇 팔을 가져서 사물을 가리킬 수 있고, 카메라도 달려 있고, 당연히 대화도 할 수 있습니다. 우리가 이걸 훈련시킨 뒤, 물체를 하나 가져다 놓고 ‘저 물체를 가리켜봐’라고 하면 잘 할 겁니다. 그런데 챗봇이 보지 않는 사이에 카메라 렌즈 앞에 프리즘(prism)을 놔둔다고 합시다. 그런 다음 물체를 갖다 놓고 ‘저 물체를 가리켜봐’라고 하면, 챗봇은 엉뚱한 곳을 가리키겠죠. 우리가 ‘그거 아니야. 사실 물체는 네가 바라보는 정면에 있어. 내가 네 렌즈 앞에 프리즘을 놨기 때문이야’라고 설명하면, 챗봇이 이렇게 말할 수 있어요. ‘아, 알겠네요. 프리즘이 빛을 굴절시켜서 사실 물체는 저기 있는데, 난 이쪽에 있다고 ‘주관적 경험’을 했습니다.’

챗봇이 이렇게 말한다면, 이미 우리와 똑같은 맥락으로 ‘주관적 경험’이라는 단어를 쓰는 거예요. 

 

그렇다면 저는 ‘멀티모달 챗봇은 이미 주관적 경험을 가지고 있다’고 말하겠습니다. 지각 시스템이 망가진 상태에서는 세상을 잘못 인식하게 되고, 그 잘못된 인식을 표현할 때 ‘주관적 경험’이라는 말을 쓰게 되는 거죠. 그렇다면 챗봇도 이미 주관적 경험을 할 수 있는 셈입니다. 그렇게 되면, 사람들은 ‘AI가 결코 가질 수 없는 무언가가 우리에게 있다’는 확신을 훨씬 덜 가지게 될 겁니다. 그건 분명 안전함을 느끼는 데 있어 대단히 중요한 믿음인데, 이제 흔들릴 테니까요.

물론 의식(consciousness)은 좀 더 복잡한 문제입니다. 사람마다 의식을 다르게 정의하니 말이죠. 거긴 자기 참조적(self-reflexive) 요소, 즉 자아 인식 같은 게 들어있어서 좀 더 까다롭습니다. 하지만 AI가 주관적 경험을 가질 수 있다는 것만 인정해도, ‘우리가 가졌지만 AI는 절대 못 가질’ 무언가가 있다고 보는 시각은 흔들릴 거예요. 그리고 전 그게 우리를 훨씬 덜 안전하다고 느끼게 만듭니다.”

 

커트 - “그렇다면 ‘의식’과 ‘자기 의식(self-consciousness)’은 다른 개념이라고 보시나요? 방금 의식에는 자기 참조적 요소가 어느 정도 들어있다고 하셨는데, 의식 전체가 그렇진 않을 수도 있으니까요.”

 

힌튼 - “철학자들이 이 문제를 엄청 많이 논의해왔죠. 지금 제 입장은 그 논쟁에 깊이 들어가고 싶지 않다는 겁니다. 저는 우선 ‘주관적 경험’을 인정하는 것만으로 충분하다고 생각해요.”

 

커트 - “무언가가 주관적 경험을 갖고 있다면, 그건 곧 의식이 있다는 뜻일 텐데, ‘그 주관적 경험이 실제로 어디에 존재하느냐’, ‘누가 그 주관적 경험을 느끼고 있느냐’ 같은 질문과 이어지잖아요?”

 

힌튼 - “맞아요, 바로 그 ‘누가 그걸 느끼느냐’라는 질문에서 특정한 모델을 가정하게 됩니다. 예컨대 철학자들은 ‘핑크색 코끼리가 보인다’고 하면 ‘그 코끼리는 네 마음속에 있다’라고 하죠. 그래서 ‘그게 뭘로 만들어졌느냐’고 물으면 ‘퀄리아(qualia)로 만들어졌다’고 합니다. 

(주. 퀄리아(qualia)는 주관적 경험의 핵심 요소, 철학적 용어입니다)

핑크색 퀄리아, 코끼리 퀄리아, 떠다니는 퀄리아, 방향이나 크기에 대한 퀄리아가 전부 퀄리아 접착제로 붙어 있다는 식이죠. 많은 철학자가 이런 식으로 생각하는데, 전 이게 언어적 착각이라고 봅니다. 마치 ‘~의 사진(photo of)’라는 말과 ‘~의 경험(experience of)’이라는 말이 동일한 방식으로 쓰인다고 여긴 거예요.

‘핑크색 코끼리 사진이 있다’고 하면 사람들은 ‘그 사진은 어디 있지? 무엇으로 만들어졌지?’라고 묻는 게 당연합니다. 그런데 ‘핑크색 코끼리 경험이 있다’고 하면, 같은 식으로 ‘그 경험은 어디 있지?’라고 묻고, ‘네 마음속이겠지. 그럼 뭘로 만들어졌지?’라고 하면 ‘퀄리아로 만들어졌다’고 답하는 거죠. 그런데 사실 ‘~의 경험(experience of)’라는 말은 ‘~의 사진(photo of)’이랑은 완전히 다르게 작동합니다. 경험(experience of)이라는 말은, 방금 제가 말했듯이, ‘지각 시스템이 틀렸음을 표시하는’ 역할이거나, ‘(실제 세상이 아니라) 가상적으로 가정한 세계 상태를 통해 지각 시스템이 무엇을 말하고 있는지를 설명하는’ 용도로 쓰이는 겁니다.”

 

커트 - “그런데 ‘지각(perception)’이라는 단어를 듣기만 해도, 뭔가 ‘내면의 극장’ 같은 느낌이 떠오르기도 합니다. ‘내가 지각을 본다’라는 식으로 말이죠. 그런데 그게 잘못된 모델이라는 거군요.”

 

힌튼 - “그렇죠. 사람들은 ‘내가 내부 표상(internal representation)을 보고 있다’고 생각하기 쉬운데, 사실 그렇지 않습니다. 광자가 들어와서 뇌가 처리를 한 뒤, 내부 표현이 생겨나긴 하겠죠. 그런데 그 내부 표현을 또 다른 내가 본다는 식이 아니라, 그 내부 표현을 ‘가지는 것’(having)이 곧 ‘본다(seeing)’는 행위 자체입니다. 바깥 세계에서 무언가가 내 ‘내면의 극장’으로 들어온 뒤, 내가 그 극장을 바라보는 식은 아니란 얘기죠.”

 

커트 - “어느 심리학자 혹은 신경과학자는 ‘뇌간의 교뇌(pons)가 자아 의식과 관련 있다’고도 했었고, 최근 들어서는 ‘디폴트 모드 네트워크(default mode network)가 자기 의식과 연결된다’는 주장도 나오잖아요. 그렇다면 AI에서도 그런 ‘자기 의식’을 담당하는 특정 부분이 있나요? 그리고‘AI 시스템’이라고 할 때, 그 시스템이 GPU에서 실행되는 걸 가리키는 건지, 알고리즘을 말하는 건지 헷갈릴 때가 많습니다. ‘무엇’이 의식을 가지고 있고, ‘어디’에서 그게 일어나고 있다는 걸까요?”

 

힌튼 - “결국은 어딘가 하드웨어가 있을 거고, 그 하드웨어 상에서 모델이 돌아가고 있을 테니, ‘AI가 의식을 가진다’면 그건 바로 그 하드웨어+소프트웨어 결합체를 말해야겠죠. 단순히 소프트웨어만으로는 의식이 있다고 보기 힘들 겁니다. 뭔가 실제로 실행되어야 하니까요.”

 

커트 - "소프트웨어 자체만으로는 의식이 존재할 수 없고, 반드시 뭔가 위에서(하드웨어에서) 구동되어야 한다고 하셨는데요. 제가 여쭤보고 싶은 건, 조금 전에 교뇌(pons) 얘기도 잠깐 했었는데, 비슷한 맥락에서, AI도 ‘소프트웨어’ 한가지 만으로는 충분하지 않다라는 말씀이시죠?”

 

힌튼 - "네, 저는 ‘AI 시스템이 몸을 가졌을 때(embodied) 어떤 모습일까’를 생각해보면 좋다고 봅니다. 실제로 그 시점이 그렇게 멀지 않았어요. 누군가는 이미 전투 로봇(battle robots)을 만들려 하고 있고, 그 로봇들이 그다지 ‘착한’ 물건은 아닐 겁니다.

가령 전투 로봇이 ‘당신이 밤늦게 어두운 골목에 혼자 있을 것’이라는 사실을 알아냈다고 합시다. 그리고 그때 당신이 전혀 예상 못 할 타이밍에 뒤에서 몰래 다가가 머리에 총을 쏘겠다고 결심했다면, 그 전투 로봇이 무엇을 ‘믿고(believe)’ 있는지 이야기하는 건 아주 자연스러운 일입니다. 사람의 믿음을 논하듯이, 로봇의 ‘믿음’을 말하게 되죠. 예를 들어, 그 로봇은 ‘소리를 내면 당신이 돌아볼 것’이라고 생각할 수도 있고, 실제 사람들이 그러하듯이 ‘당신이 돌아보면 들킬 테니 소리를 내지 말아야 한다’는 식의 사고(생각)를 할 겁니다. 또 ‘당신 뒤로 슬그머니 접근해 쏘겠다’는 명백한 의도를 가질 수도 있죠.

그렇다면 결국 우리가 ‘믿는다(believe)’, ‘의도한다(intend)’, ‘생각한다(think)’ 같은 단어를 이 로봇에게 쓰길 꺼리던 태도는, 이 로봇이 몸을 가지는 순간 거의 사라질 거예요. 그리고 사실 이미 많이 사라졌습니다. 예컨대 제가 챗봇과 대화하다가 챗봇이 전혀 말이 안 되는 추천을 계속한다면, '아, 이 챗봇이 나를 10대 소녀라고 생각하는구나'라고 눈치챌 수도 있어요. 그다음에 제가 챗봇에게 ‘너는 내가 어떤 부류(데모그래픽)라고 생각하고 있어?’라고 물으면, 챗봇이 ‘당신은 10대 소녀라고 생각합니다’라고 답할 수 있죠. 그 챗봇이 ‘난 네가 10대 소녀라고 생각해’라고 말하면, 대부분 사람들은 그걸 그대로 ‘그 챗봇은 내가 10대 소녀라고 생각한다’고 받아들이지, ‘얘는 단지 소프트웨어나 신경망일 뿐이야. 그냥 그렇게 ‘행동’하는 것뿐이지, 실제로 그렇게 ‘생각’하는 건 아니야’라고 굳이 말하지 않습니다. 우리는 이미 챗봇이 하드웨어가 눈에 안 보여도, ‘챗봇이 그렇게 생각한다(thinks)’라든가 ‘챗봇이 그렇게 믿고 있다(believes)’ 같은 말을 자연스럽게 쓰고 있죠. 다만, 우리가 ‘마음의 상태(mental state)’라는 걸 잘못된 모델로 이해하고 있을 뿐입니다. 하지만 그 잘못된 모델을 유지해도, 우리는 이미 이 시스템들에게 정신적 상태(mental states)를 부여하고 있잖아요."

 

커트 - "그렇다면 AI가 만약 의식을 가지고 있지 않거나 주관적 경험(subjective experience)이 없다면, 교수님이 말씀하시는 AI 방향성에 대한 우려 중 얼마나 사라질까요? 혹은 그것과는 상관없이 문제는 여전한가요?”

 

힌튼 - "AI가 의식이 없다거나 주관적 경험이 없다면, 그 점 때문에 대부분 사람들은 좀 더 안전하다고 느낄 겁니다. ‘우리에겐 있지만, AI에게는 절대 없는 무언가가 있다’고 믿게 되니까요. ‘우리는 특별하고, 그 때문에 우리가 안전하다’고 생각하죠.

그런데 사실 우리는 특별하지도 않고, 결코 안전하지도 않습니다. 최소한 ‘우리가 주관적 경험이 있고, AI는 없다’는 점이 우릴 안전하게 만들진 않아요. 제가 보기엔 이 문제의 핵심은 과학적 문제라기보다는 철학적 문제입니다. 사람들은 ‘주관적 경험’이란 게 뭔지 오해하고 있어요.

 

제가 예시를 하나 들어볼게요. 당신은 과학을 배우셨으니 ‘수평(horizontal)’과 ‘수직(vertical)’이 무엇을 의미하는지 당연히 안다고 생각하시겠죠. 누가 봐도 간단해 보이니까요. 만약 제가 막대기 하나 보여주고 ‘이건 수직, 이건 수평’이라고 말하면, 당연히 쉽게 구분되잖아요.

그런데 제가 지금부터 ‘사실 여러분이 그 단어를 어떻게 이해하고 있는지 잘못 알고 있었다’는 걸 보여드리겠습니다. 완전히 틀렸다는 건 아니지만, 꽤 중요한 부분에서 잘못 이해하고 있다는 거예요.

자, 제 손 안에 알루미늄 막대 여러 개가 있다고 합시다. 이걸 공중에 던져서 공중에서 회전하게하고 서로 부딪치게 만든 뒤, 어느 순간 ‘딱’ 멈춘다고 쳐보죠. 그리고 제가 ‘지금 이 상태에서 수직에서 1도 이내에 있는 막대가 많은지, 아니면 수평에서 1도 이내에 있는 막대가 많은지, 아니면 대략 비슷한지’ 물어본다면, 대부분 사람들은 ‘비슷하겠지’라고 대답합니다. 그런데 사실은 ‘수평’에서 1도 이내인 막대가 ‘수직’에서 1도 이내인 막대보다 무려 114배나 많아요. 이거 꽤 충격적이죠?

그 이유가 뭘까요? 이렇게 세워놓은 걸 수직이라고 하고, 조금 기울여도 수직 범주에 들어가니까, 수직도 ‘1도의 자유도(rotational freedom)’만 있다고 생각할 수 있죠. 반면 수평은 이 각도도 수평, 저 각도도 수평이 될 수 있어서 ‘2도의 자유도’를 가집니다. 실제로 3차원에서는 수직이 굉장히 특별하고, 수평은 흔해 빠진(two a penny) 것이 돼요.

 

(주. 수직은 3차원 공간에서 딱 한 축 중심으로 1도만 보면 되지만 수평은 그 수직에 90도인 막대가 전부 가능하기 때문에 수직보다 수평이 훨씬 더 많게됨. 보통은 무작위로 던지면 수직 수평 엇비슷하겠지 라는 우리의 직관과는 다른 결과)

 

‘어? 그럼 원반(disc)인 경우에는 어떨까?’라고 묻는다면, 같은 실험을 원반으로 해볼 수 있습니다. 이번엔 똑같이 원반들을 공중에 던져서 마구 tumbling하게 만든 뒤 멈췄을 때, ‘수직에 가깝게 놓인 원반’과 ‘수평에 가깝게 놓인 원반’, 어느 쪽이 더 많은지 보면, 오히려 수직 쪽이 훨씬 많아집니다. 원반에 대해서는 ‘수평’이 1도의 자유도만 가지고, ‘수직’이 2도의 자유도를 갖기 때문이죠.

 

이처럼 어떤 상황(선인지 면인지)에 따라 ‘수직’이 특별해지기도 하고, ‘수평’이 특별해지기도 합니다. 하지만 대부분 사람들은 ‘수평, 수직’이라는 단어를 일상적으로 아무 문제 없이 잘 사용하죠. 다만, 그 단어들 뒤에 있는 ‘메타 이론(meta-theory)’은 잘못 알고 있는 거예요.

저는 정신적 상태(mental state)나 ‘주관적 경험(subjective experience)’ 같은 개념도 이와 비슷하다고 봅니다. 단어 자체는 제대로 쓰고, 상대방이 무슨 말을 하는지도 이해하지만, 그 단어가 작동하는 방식을 설명하는 ‘메타 이론’은 대중적으로 잘못 자리 잡아 있다는 거죠. 예컨대 많은 사람이 ‘내면의 극장(inner theater)’에서 이상한 물질(qualia)로 만들어진 무언가가 상영되고 있다고 생각하는데, 저는 그 모델이 완전히 틀렸다고 생각합니다."

 

커트 - "그렇다면 ‘지각(percepts)’ 또는 ‘주관적 경험’을 어떻게 정의해야 ‘이게 맞는 방향이다’라고 볼 수 있을까요? 교수님은 대부분 사람들이 잘못 알고 있다고 했으니까요. 교수님 쪽이 올바른 이론에 더 가깝다고 주장하신다면, 그 올바른 이론은 뭔가요?"

 

힌튼 - "대부분 사람들은 ‘주관적 경험’이라면, 누군가가 ‘느끼는 주체’가 있어야 하고, 그 주체 안에서 뭔가가 ‘무엇(qualia)’으로 만들어져 있다고 상상하죠. 그런데 둘 다 사실이 아니라고 봅니다. 제가 말하는 ‘주관적 경험’이라는 건, ‘이제부터 실제 세계와는 다른 가상의 상태(가정된 상태)에 대해 이야기할 것’이라는 신호일 뿐이에요. 말하자면, 그건 ‘실제로 존재하는 어떤 장소’에 있는 게 아니고, ‘만약 세계가 그런 식이었다면, 내 지각은 맞는 말이 되었겠지’라는 식의 가정 상태를 말합니다.

그런데 이걸 가지고, ‘내가 어떤 이상한 물질로 이루어진 ‘내부 극장(inner theater)’을 갖고 있다’고 생각하는 건 완전히 다른 얘기죠. 전 그 두 모델이 전혀 다른 모델이라고 생각합니다. 그리고 ‘내부 극장 안에 이상한 물질이 있는’ 모델은 완전히 틀렸다고 봅니다. 우리는 거의 모두 그 모델을 자연스럽게 갖고 있지만요.”

 

커트 - "그럼 노벨상을 함께 수상하신 로저 펜로즈(Roger Penrose) 같은 분은 어떻게 보세요? 펜로즈 이야기를 좀 해주신다면?”

 

힌튼 - "로저 펜로즈 얘기가 하나 있어요. 옛날에 토론토 대학교로 초청받아서 『The Emperor’s New Mind(‘황제의 새 마음’)』에 대한 강연을 했을 때 일입니다. 누군가가 저한테 ‘펜로즈를 소개해달라’고 부탁해서, 학장이 전화로 ‘펜로즈를 소개해줄 수 있겠냐’고 물었죠. 저는 ‘좋다, 근데 우선 제가 그 사람에 대해 뭘 말할지부터 먼저 들어보셔야 할 텐데요?’라고 했어요. 학장이 ‘뭘 말씀하실 건데요?’라고 하길래, ‘로저 펜로즈는 수학 물리학 분야에 엄청난 공헌을 한 천재적 물리학자다. 그런데 오늘 이야기할 주제(의식)에서 그의 주장은 완전히 말도 안 된다’라고 말하겠다고 했습니다. 그게 제 펜로즈 의식 이론에 대한 평가예요.

특히 펜로즈가 저지르는 큰 오류는 이거라고 봅니다. ‘수학자들이 증명 불가능한 것들을 직관적으로 맞출 수 있다’라는 주장을 하는데, 만약 그들이 매번 100% 맞춘다면, 그건 분명 기이한 일이죠. 그런데 사실 수학자들도 직관에 의존하다 보면 맞을 때도 있고 틀릴 때도 있어요. 100% 정답을 맞추는 게 아니니까, 그걸로 뭔가 초자연적인 혹은 양자역학적 설명이 필요하다고 결론 낼 수는 없죠.

 

(주. 펜로즈는 고전적 계산(Classical Computation)으로는 의식을 설명할 수 없으며 그 이유는 수학자들이 직관적, 의식적으로 어떤 명제에 대해 참/거짓을 ‘느끼는’ 것을 보면 이는 양자역학이 관여한 것일 것이라는 주장을 했습니다. 증명 불가능한 명제를 직관적으로 파악할 수 있다는 것은 신비한 능력이기 때문이라고 했죠.)

 

펜로즈의 핵심 주장 중 하나는 ‘고전적 계산(classical computation)으로는 의식을 설명할 수 없다’는 건데, 저는 그게 큰 실수라고 생각해요. 거기에는 의식이라는 개념 자체를 잘못 이해하고 있다는 문제가 깔려 있다고 봅니다. 그리고 ‘수학자가 증명 불가능한 것을 직관으로 알 수 있다’는 주장도, 그게 정말 항상 맞아떨어지는 게 아니라면, 별로 특별할 게 없어요."

 

(주. 힌튼은 펜로즈 주장이 맞으려면 ‘어쩌다 맞추는 것이 아니라’ 거의 항상 맞아떨어지는 직관이어야 하지 않냐는 말)

 

커트 - "중국어 방(chinese room) 사고실험 이야기도 많이 들어보셨을 텐데요. 간단히 소개해 주시고, 어떻게 생각하시는지 말씀해 주세요.”

 

힌튼 - "네, 1990년 무렵이었나, 제가 존 설(John Searle)과 TV 프로그램에 함께 출연해달라는 초청을 받았어요. 그래서 친구 댄 데닛(Dan Dennett)에게 전화를 걸어 ‘이걸 하는 게 좋을까?’라고 물었는데, 댄이 ‘그 사람은 너를 멍청하게 보이게 만들려고 할 거야. 그리고 혹시 나가게 된다면, 중국어 방 이야기는 꺼내지 않는 게 좋다’고 하더군요.

결국 제가 설과 함께 출연을 하기로 했는데, 한 시간짜리 인터뷰가 시작되자마자 그가 제일 먼저 한 말이 ‘제프리 힌튼은 연결주의자(connectionist)입니다. 그래서 중국어 방 논증 같은 건 전혀 문제삼지 않죠’라는 거였어요. 저는 사실 이 논증이 의도적으로 사람을 호도하는, 정직하지 않은 논증이라고 생각합니다.

이 사람들이 하는 건, (실제로는) ‘중국인들로 구성된 방’을 두고, 영어 문장을 입력하면 그 안에서 중국어 메시지를 주고받아 결과를 내놓을 수 있다는 식의 이야기를 하는 거예요(제 기억으로는 그렇습니다). 여기서 설은, ‘방 안에 있는 개개인은 영어를 모르고 그냥 규칙에 따라 메시지를 주고받을 뿐인데, 방 전체가 결과적으로 영어를 이해한다는 게 말이 되느냐’라고 묻습니다.

 

(주. 한마디로 어떤 방 안에 ‘해당 언어’를 전혀 모르는 사람들을 집어넣어놓고 방 밖에서 ‘그 언어’로 된 질문을 하면 방 안에 있는 사람들은 일정 규칙을 통해 ‘그 언어’를 조합하고 답을 출력합니다. 바깥 사람 기준으로는 컴퓨터가 복잡한 알고리즘을 통해 ‘그 언어’를 이해하고 적절하게 답까지 내놓는 것처럼 보이지만 실제로는 그 안에 사람들은 해당 언어에 대한 이해가 전혀 없는 것 아니냐는 비판. 존 설의 이 중국어방은 결국 AI는 ‘겉으로는 언어를 이해하는 것처럼 보여도 실제론 기호조작에 불과한 진정한 이해가 아닌’ 것이라는 주장을 하기 위해 만든 예시.)

 

그런데 이건 사실 속임수예요. 시스템 전체가 영어를 이해할 수 있다는 데 대한 논점을, 의도적으로 방 안에 있는 개인들로 치환해서 ‘개인들은 영어를 전혀 이해하지 못하므로, 그 시스템도 이해하지 못한다’고 결론 내려 버리는 거죠. 그러나 실제로는 ‘시스템’이 영어를 이해하는 겁니다. 그 방 안에 있는 개인들이 영어를 모른다고 해서, 시스템 전체가 영어를 모른다고 볼 순 없죠. 그게 제가 보기에 중국어 방 논증이 가진 문제입니다."

 

(주. 힌튼은 설이 고의로 방 안에 있는 개인들에 조명을 하면서 그들의 이해없음을 부각한 거짓된 논증이며 개인이 모르니 시스템도 모른다고 거칠게 논증한 것이라고 비판. 참고로 이 논증은 1980년대 심볼릭 시스템 위주여서 가능했던 이야기지만 현재는 신경망을 이용한 통계적·분산적 표현(Distributed representation) 방식이 많아서 설이 말하는 ‘방 안의 개인들이 카드에 적힌 기호만 주고받는다’는 모델은 현대 신경망 시스템을 너무 단순화한 구식 비유” 라는 비판을 받기도 합니다.)

 

커트 - "중국 얘기가 나온 김에, 과거에는 ‘중국이 서구권 수준의 AI 기술력을 따라잡을 거라곤 예상치 못했다’는 AI 연구자도 많았는데, 지금 중국이 거의 비슷한 수준에 있다고 보시나요? 만약 그렇다면 그 영향은 어떻게 될까요?”

 

힌튼 - "아직 완벽하게 따라잡진 않았지만, 거의 근접한 수준인 것 같아요. 미국이 엔비디아(Nvidia) 최신 칩을 중국에 못 쓰게 하려는 식으로 그들을 견제하고 있죠. 엔비디아가 우회적인 방법을 찾을 수도 있겠습니다만, 어쨌든 만약 그 제재가 성공적으로 진행된다면, 중국은 스스로 기술을 개발할 거예요. 그러면 몇 년 뒤처질 수는 있겠지만, 결국 따라잡겠죠. STEM(과학·기술·공학·수학) 교육 면에서 미국보다 더 체계적으로 잘하고 있으니까, 더 많은 인력이 양질의 교육을 받고 있다는 점에서 궁극적으로는 따라잡을 거라고 봅니다.”

 

커트 - “마크 앤드리슨(Marc Andreessen)을 아시나요? 그분은 정부가 ‘AI 개발이 위험수위를 넘으면 봉쇄할 수 있다’고 말하는 데 대해, ‘그걸 어떻게 막겠다는 건지 이해가 안 간다’고 했습니다. 그의 주장은, ‘AI 수학은 이미 세상에 널리 퍼져 있고, 대학에서 가르치는 내용인데, 그걸 어떻게 규제할 수 있느냐’는 거예요. 한편, 정부 쪽 사람들은 ‘냉전 시대에도 물리학의 일부 분야를 전면 기밀 취급해 학계에서 아예 배제시킨 적이 있다’고 반박하고 있는데 어떻게 보세요?”

 

힌튼 - "물리학의 특정 분야 전체가 사실상 비공개로 전환되어 발전이 중단된 적이 있죠.
만약 우리가 ‘AI의 밑바탕이 되는 수학도 그렇게 비공개화해야 한다’고 결정한다면, 똑같이 할 수 있다는 얘기인데, 음… 그냥 그건 포기합시다.
마크 안드리센(Marc Andreessen)의 의견에 저도 동의합니다. 그걸(=AI 수학을 전부 비공개로) 가능하게 만들 방법은 없다고 봐요.

예를 들어 2017년에 구글이 ‘트랜스포머(Transformer)’라는 아키텍처를 발표하지 않기로 결정했다면, 그 아이디어를 다른 누군가가 떠올리는 데까지 몇 년은 더 걸렸을 수도 있습니다. 그러면 한 몇 년 정도 속도는 늦출 수도 있었겠죠. 하지만 그 정보를 아예 외부로 유출되지 못하게 막으려면 얼마나 많은 노력이 필요한지를 생각해보면, 사실상 불가능하다고 봅니다.

정부가, 이를테면 선형대수(linear algebra) 같은 걸 전부 기밀화할 수 있을까요? 글쎄요, 특정 종류의 정보를 공유하기 어렵게 만들어서 진행 속도를 조금 늦출 수는 있겠죠. 하지만 ‘AI 아이디어가 실제로 잘 돌아간다’는 점이 증명된 상태에서, 그걸 공유하지 않는다고 해서 다른 사람들이 똑같은 걸 창안하지 못하도록 막을 수 있을 거라 보진 않습니다.

새로운 아이디어라는 건 시대정신(zeitgeist)이 있어서, 그 시대정신을 공유하는 상황에서는 누군가가 새로운 아이디어를 떠올리면, 비슷한 시기에 독립적으로(물론 디테일이 조금 다르겠지만) 비슷한 아이디어가 다른 사람에게서도 나오는 일이 종종 발생합니다. 이런 일은 늘 일어나죠. 결국 시대정신 자체를 완전히 없애지 않는 이상, 새로운 아이디어가 생겨나서 비밀로 남아있긴 어려워요. 몇 년 지나면 누군가가 어차피 같은 생각을 하게 됩니다.”

 

커트 - "그렇다면 AI를 ‘탈중앙화(decentralizing)’하자는 의견에 대해서는 어떻게 생각하세요? 이건 큰 주제죠. 어떤 사람들은 ‘그건 원자폭탄을 모든 이에게 나눠주는 꼴’이라고 말하고, 또. 어떤 사람들은 ‘그게 스카이넷 같은 시나리오를 막는 데 꼭 필요하다. 여러 다른 분산형 에이전트 혹은 AI가 있어야 상호 견제가 가능하다’고 주장하기도 하거든요."

 

힌튼 - "‘탈중앙화’에도 서로 다른 두 가지 개념이 있을 수 있습니다. 일단 ‘가중치(Weights)를 공유하는 것’을 이야기해봅시다.

예를 들어 ‘왜 앨라배마주는 원자폭탄을 갖고 있지 않을까?’라고 묻는다면, 그건 핵분열 물질(fissile material)이 필요하기 때문이죠. 핵분열 물질을 확보하기란 대단히 어렵습니다. 그걸 생산하려면 막대한 시간과 에너지가 들어요. 일단 핵분열 물질만 갖추면 폭탄을 만드는 건 비교적 쉬워지지만, 정부는 당연히 이런 물질이 시장에 나도는 걸 원치 않습니다. eBay에서 핵분열 물질을 살 수 없는 이유도 그거고, 그래서 작은 도시국가들이 폭탄을 마구 갖고 있지. 않은 거예요.

그럼 ‘이 대형 챗봇에게 핵분열 물질에 해당하는 건 뭐냐’고 물으면, 어마어마한 양의 데이터와 자금(가령 1억 달러, 혹은 10억 달러)을 들여서 훈련시킨 ‘파운데이션 모델’이 그 핵분열. 물질에 해당한다고 볼 수 있습니다. 이 모델은 이미 엄청난 역량을 갖추고 있죠. 만약 그 모델의 가중치를 전부 공개해버린다면, 그걸 갖다 별별 방식으로 파인튜닝해서 악용할 수 있는. 겁니다. 그래서 전 이런 대형 모델의 가중치를 공개해버리는 건 정말 위험천만한 일이라고. 생각해요. 그게 악의적 행위를 막을 수 있는 사실상의 ‘마지막 보루’였는데, 메타(Meta)가 이미 그걸 해버렸고, 다른 사람들도 따라 했죠. 이제는 돌이킬 수 없게 됐습니다. 한 마디로 끔찍한 결정이었다고 봅니다.”

 

커트 - "그런 ‘파운데이션 모델(Foundation Model)’ 얘기가 나왔으니 말인데, 최근 AI 붐은 상당 부분 트랜스포머(Transformer) 아키텍처 덕분이잖아요. 앞으로 트랜스포머와 맞먹는 정도의 ‘큰 돌파구’가 또 있을 거라고 보시나요? 예컨대 전혀 새로운 패러다임이. 등장한다든지요."

 

힌튼 - "과학이라는 게 원래 그렇듯, 트랜스포머급의 대형 돌파구가 또 나올 거라고 생각합니다. 그게 뭔지 저도 몰라요. 만약 알았다면 제가 그걸 하고 있었겠죠.”

 

커트 - “하셨을까요?"

 

힌튼 - "뭐, 이제 나이가 들었으니 제 학생들이 대신 해주겠죠.” (웃음)

 

커트 - “제 말은, 교수님께서는 과거에 AI 발전에 큰 공헌을 하셨는데, 지금은 오히려 그 방향성에 대해 우려를 표하고 계시잖아요. 그럼 지금도 새로운 돌파구가 보이면 직접 나서실 건지요?"

 

힌튼 - "제 생각은 이렇습니다. AI가 의료 발전, 기후변화 대응, 새로운 소재 개발 같은 인류에 유익한 많은 일을 해줄 수 있다는 건 분명해요. 예컨대 상온 초전도체(room temperature superconductors) 연구에도 AI가 큰 역할을 할 수 있습니다(물론 그런 물질이 실제로 존재한다면요).
이처럼 AI가 선한 목적으로 쓰일 잠재력은 엄청 커서, ‘AI를 더 이상 개발하지 말자’는 식으로 막을 수는 없어요. 이미 경쟁이 심하고, 현실적으로도 불가능합니다. 물론 ‘그게 인류를 위해 가장 좋다’고 볼 수 있을지는 모르지만, 그 길이 실제로 실행될 가능성은 거의 없어요.

그렇다면 우리가 할 일은 ‘AI가 개발되는 동안 어떻게 안전하게 만들 것인가’를 고민하는 겁니다."

 

커트 - "‘아무도 이 바위를 막을 수 없다’고 말하는 것과, 실제로 그 바위를 밀어주고 있는 거랑은 책임이 다르잖아요. 만약 지금 당장 혁신적인 돌파가 눈앞에 보인다면, 예를 들어 레이 커즈와일처럼 미래를 내다보는 능력이 있어서 ‘아, 저게 미래를 뒤흔들 아이디어다’ 하고 직감이 오면, 교수님은 실제로 그 개발에 뛰어드시겠습니까?”

 

힌튼 - "그와 동시에 ‘안전 대책’을 강구하는 작업을 함께할 수 있다면요, 네 뛰어들 겁니다. 다만 제가 생각하기에 제가 한 가지 후회하는 건, ‘AI가 이렇게 위험해질 수 있다’는 걸 좀 더 일찍 깨닫지 못했다는 점이에요. 좀 더 빨리 알아차렸다면 좋았을 텐데 말이에요.”

 

커트 - "아인슈타인이 원자폭탄에 대해 ‘내가 그 결과를 알았더라면, 내 손을 불태워서라도 작업을 중단시켰을 것이다’라는 취지로 말한 적이 있잖아요. 교수님도 그런 식으로 후회하시나요?”

 

힌튼 - "사실 전 그렇진 않아요. 그래야 하는 건가 싶기도 하지만, 제 과거 업적을 후회하진 않습니다. 그게 나쁜 결과를 초래할 수 있다는 건 안타깝지만, ‘아, 그때 그 연구를 아예 하지 말았어야 했는데’라고 후회하진 않아요. AI는 어쨌든 개발될 거고, 국가 간 경쟁이 이렇게 치열한 상황에서 그걸 막을 방법은 없다고 봅니다. 그러니 지금은 ‘개발을 늦추자’가 아니라 ‘어떻게 안전하게 개발할 것인가’에 초점을 맞춰야 한다고 생각합니다."

 

커트 - "그렇다면 ‘정렬(Alignment)’ 문제 외에, ‘안전한 AI 개발’이 구체적으로 뭘 의미하는지 더 말씀해 주실 수 있을까요?”

 

힌튼 - "네, 단기적 위험들에 어떻게 대처할지 파악하는 것입니다. 그리고 그런 위험은 한두 가지가 아니고, 각각 대처 방법이 다릅니다.

예컨대 치명적 자율 무기(lethal autonomous weapons)가 있죠. 이 문제를 해결하려면 ‘제네바 협약(Geneva Conventions)’과 비슷한 게 필요할 거예요. 그런데 실제로 그런 국제적 합의가 나오려면, 이미 꽤 끔찍한 일이 벌어진 뒤일 가능성이 큽니다.

또 특정 집단을 겨냥한 가짜 동영상이나 이미지를 통해 선거를 교란하는 문제도 있어요. 이걸 막으려면, 동영상이나 이미지의 출처(provenance)를 훨씬 더 체계적으로 검증할 수 있는 시스템이 필요하다고 봅니다. 초창기에는 ‘가짜 콘텐츠는 표시해야 한다’고 생각했지만, 그건 별로 미래가 없어 보이고, 이제는 ‘콘텐츠마다 출처가 명시되어야 하며, 브라우저가 그걸 검증해주는 식이 돼야 한다’고 봅니다. 이미 이메일에서도 ‘이건 신뢰할 수 없는 발신자다’라고 뜨듯이, 비디오나 이미지도 마찬가지로 출처를 확인할 수 있어야 해요.

차별이나 편향(bias) 문제도 있습니다. 하지만 이건 모델의 가중치를 고정한 채 편향 정도를 측정하고 어느 정도 교정할 수 있어요. 완벽하게 교정하긴 어렵겠지만, 적어도 그 모델이 학습한 데이터보다는 덜 편향적인 결과를 만들어낼 수 있죠. 결국 사람보다 덜 편향적인 시스템을 구현할 수 있다는 겁니다. 물론 완전히 무편향이 되지는 않겠지만, 조금씩 개선해 가는 게 가능해요. 그게 바로 ‘경사하강(gradient descent)’의 개념과도 통하잖아요. 그러면서 점점 편향이 줄어드는 겁니다. 개인적으로 이 문제는 크게 걱정하진 않습니다만, 아마 제가 ‘백인 노인’이라 그럴 수도 있겠죠.

그 외에 일자리 문제도 있습니다. 예를 들어, 삽질하던 사람들이 이제는 굴삭기(backhoe) 한 대로 대체되듯이, 단순 지적 노동은 거의 대부분 AI로 대체될 가능성이 큽니다. 예컨대 법률 사무 보조(paralegal) 같은 일은 AI가 훨씬 더 잘해낼 겁니다. 이게 사회 전반에 어떤 영향을 줄지 생각하면 꽤 무섭죠. 생산성이 크게 오르면 부자는 더 부유해질 테고, 가난한 사람은 더 가난해질 수도 있습니다. 그 부가 어디로 갈까요? 당연히 부자들에게 갈 가능성이 높고, 빈자는 더 힘들어질 테니, 이 문제를 어떻게 해결할지 모르겠어요. 기본소득 같은 제도가 굶주림을 막아줄 순 있겠지만, 직업이 없으면 사람들에게서 자존감이 사라진다는 근본 문제가 해결되는 건 아니니까요."

 

커트 - "조금 전 ‘지각(perception)’ 이야기를 했고, 그것과 주관적 특성이 관련 있다고 했는데, 거기에 대한 모델이 잘못됐을 수 있다고도 언급하셨죠. 아무튼 ‘지각(percepts)’을 언급할 때마다 결국 ‘주관적 경험(subjective experience)’을 말하는 건가요?”

 

힌튼 - "아뇨. 우리가 ‘~에 대한 주관적 경험(subjective experience of)’이라는 표현을 쓸 때는, 실제 세계(real world)의 ‘가상 상태(hypothetical state)’에 관해 이야기하겠다는 신호를 주는 겁니다. 결코 ‘이상한 내부 구조’ 같은 게 아니라, ‘만약 세계가 이렇게 생겼다면, 내 지각이 맞는 말이 되겠지만 실제론 아니야’라는 식으로 설명하는 거예요. 그런 내부의 기묘한 실체(qualia) 같은 건 없습니다. 퀄리아로 만들어진 어떤 물건도 없고요. 우리가 ‘주관적 경험’이라고 말할 때는, ‘우리 지각 체계가 나를 속이고 있는데, 만약 그 지각이 옳으려면 세계가 어떻게 되어 있어야 할까?’라는 가상의 상태를 가리키는 겁니다. 그게 우리가 이 용어를 실제로 사용하는 방식이에요.”

 

커트 - "그게 전부 예측(prediction)의 문제인가요, 아닌가요?”

 

힌튼 - "예측이라는 개념을 거기에 억지로 끼워 넣는 건 논점을 빗나가게 하는 거죠. 전혀 다른 문제입니다.

핵심은, ‘주관적 경험’이라는 게 무슨 신비로운 정신적 물질로 이루어진 어떤 존재가 아니라는 걸 이해하는 겁니다. 실제로는 ‘지각 체계가 어떻게 잘못 작동하고 있는지 설명하기 위해, 만약 그 지각이 참이려면 세상이 어때야 하는지 가정해보는 기법’에 불과하다는 거예요.

우리가 ‘주관적 경험’이라는 말을 쓸 때는, ‘내 지각이 틀렸으니, 가령 이 지각이 맞으려면 세상이 어떠해야 하는지 설명하는 게임’을 하겠다는 신호입니다. 그 자체가 어떤 실체가 아니에요.”

 

커트 - "그렇다면 ‘지각 체계(perceptual system)’를 가진 존재라면 무엇이든 그런 주관적 경험에 대해 말할 수 있을까요? 예를 들어 책도 지각 체계를 가질 수 있을까요? 지각 체계를 정의한다면 뭘까요?”

 

힌튼 - "지각 체계를 가진다는 건, ‘외부 세계에서 일어나는 무언가를 내부 표현(internal representation)으로 만들어낼 수 있는 무언가’가 필요하다고 봅니다. 예컨대 두꺼비는 눈에 빛이 들어오면 파리를 물어 삼키죠. 어디에 파리가 있는지를 아는 셈이니, 이건 분명 지각 체계를 갖고 있다고 볼 수 있습니다. 반면, 책은 외부 세계를 감지하고 내부적으로 표현하지 않으니 지각 체계를 갖는다고 보긴 어렵겠죠.”

 

커트 - "조금 전 말씀하신 걸 종합하면, 책은 외부를 감지하고 내부 표현을 만들지 않으니 지각 체계를 갖는다고 할 수 없다, 이 말씀이군요.”

 

힌튼 - "네, 그렇습니다.”

 

커트 - "그렇다면 ‘지능(intelligence)’과 ‘합리성(rationality)’은 어떻게 구분되나요?”

 

힌튼 - "지능에는 여러 종류가 있어요. 예컨대 고양이는 꽤 영리할 수 있지만, 고양이를 가리켜 ‘합리적’이라고 하긴 어렵죠. 보통 합리성이라 하면 논리적 추론(logical reasoning)을 떠올리는데, 실제로 우리는 대부분 일을 ‘직관적 추론(intuitive reasoning)’으로 처리합니다.

체스로 예를 들어봅시다. 저는 바둑보다 체스를 더 잘 아니까. 알파제로(AlphaZero) 같은 알고리즘을 보면, 체스판 상태를 평가해서 ‘이게 내게 얼마나 유리한가’를 판단하는 기능이 있고, 또 어떤 상황에서 ‘가능한 수’를 고려해보는 기능이 있어요. 그리고 몬테카를로 롤아웃(Monte Carlo rollout)도 있어서, ‘내가 여기 두면 상대가 저기 두고, 그 다음 내가 여기 두면 아, 이건 안 좋겠군’ 하는 식의 시뮬레이션을 돌리죠. 이 몬테카를로 롤아웃은 일종의 ‘논리 추론’과 비슷하고, 신경망이 ‘그 수 괜찮겠는데?’ ‘이건 별로야’라고 평가하는 부분은 ‘직관적 추론’과 비슷해요.

AI 초창기에는 모든 문제를 논리 추론으로만 풀려고 했는데, 그건 엄청난 실수였어요. 유추(analogy) 같은 걸 처리할 수 없었거든요. 하지만 신경망은 직관적 추론에 훨씬 강합니다. 지난 20년 동안 우리는 ‘인간의 추론’보다는 ‘인간의 직관’을 흉내 내는 데 주력했고, 그게 훨씬 더 성과를 냈죠."

 

커트 - "그렇다면 ‘지능이 높을수록 도덕적’이라는 말이 성립할 수 있을까요?”

 

힌튼 - "어딘가 그런 연구 결과가 있었다고 들은 것 같긴 한데, 잘 모르겠네요. 믿을 만한 출처인지 확신이 없습니다. 일론 머스크(Elon Musk)는 분명 매우 똑똑하지만, 그를 아주 도덕적이라고 부르기엔 좀… 또 도덕적이지만 그렇게 똑똑하지 않은 사람도 있을 수 있고요. 그러니 둘 사이에 어떤 상관관계가 있는지 잘 모르겠습니다.

매우 영리하면서도 악한 사람도 있고, 매우 영리하면서도 선한 사람도 있죠."

 

커트 - "그렇다면 ‘이해(understanding)’란 무엇이라고 보시나요?”

 

힌튼 - "아, 이건 제가 답하기 좋아하는 질문입니다. 여전히 대부분 사람들은 ‘이해’라는 걸 잘못된 모델로 생각한다고 봐요. 큰 언어 모델(LLM)들을 보면, 특히 촘스키(Chomsky) 쪽 전통의 언어학자들은, ‘이 모델들은 사실상 단어 다음에 올 단어를 확률적으로 찍어내는 것일 뿐, 진짜 이해하는 게 아니다’라고 말하곤 하죠.

그런데 사실 초기 언어 모델 중 하나가, 바로 ‘다음 단어를 예측하는 과정에서 역전파(backpropagation)를 통해 단어 의미를 학습하는’ 제 실험이었습니다. 그 모델에서 역전파를 통해 ‘다음 단어 맞추기 오류’를 줄여나가는 과정을 보면, 단순히 ‘단어 예측’뿐 아니라 ‘단어의 의미(단어를 표현하는 특징 벡터)’를 학습하게 됐어요. 그게 곧 ‘이해’라는 거죠.

다시 말해, 어떤 문장을(문자열 형태로) 집어넣으면, 그 문자열을 단어별로 ‘특징 벡터(feature vector)’로 변환하고, 맥락 속에서 어떻게 상호작용해야 단어의 중의성(ambiguous word)을 해소할 수 있는지 배우는 거예요. 그리고 이런 ‘특징들(feature)’을 연결해 활용할 수 있게 되면, 그게 바로 이해(understanding)입니다. 인간이나 대형 언어 모델이나 같은 방식으로 단어들을 특징 벡터로 바꿔서 서로 결합시키는 과정이 곧 ‘이해’라는 거죠.

우리가 ‘이해’를 말할 때 흔히 머릿속에 ‘어떤 마법 같은 내부 상태’가 있다고 상상하지만, 저는 그런 걸 최대한 배제하려고 합니다. 대신, 커다란 신경망을 통해 우리가 언어 기호(symbol)를 특징 벡터로 연결 짓고, 그 특징들끼리 조화롭게 결합되도록 만드는 과정이 바로 ‘이해’라고 보는 거예요.

3차원 물체(3D shapes)를 모델링하고 싶은데, 표면 디테일을 완벽히 재현해야 하는 건 아니라면, 레고 블록(Lego blocks)을 활용할 수 있죠.
예컨대 자동차처럼 큰 형태에 레고 블록을 사용해 포르셰와 똑같은 공간을 차지하는 모양을 만들 수 있습니다. 물론 표면이 매끄럽게 구현되진 않을 거예요. 그래도 공간적 형태는 동일하게 맞출 수 있다는 거죠.
레고 블록은 ‘3차원 구조를 모델링하기 위한 보편적 방식’ 같은 겁니다. 그리고 그렇게 많은 종류의 레고 블록이 필요한 것도 아니에요.
이제 단어(words)를 레고 블록에 비유해봅시다. 다만, 단어에 해당하는 레고 블록은 각기 다른 이름을 갖고 있고, 훨씬 더 다양합니다. 게다가 이 레고 블록들은 딱딱하게 고정된 형태가 아니라, 어느 정도 변형될 수 있는 유연성이 있어요. 완전히 자유롭게 변형되지는 않지만, 그 이름(단어)이 어떻게 변형될 수 있는지를 어느 정도 알려주는 식이죠.
때로는 하나의 이름(단어)이 전혀 다른 두 형태를 가질 수도 있지만, 그렇다고 아무 형태로나 변하는 건 아니에요.

우리가 고안해낸 이 시스템은, 3차원 물질 분포보다 훨씬 더 복잡한 무언가를 모델링하기 위해 ‘고차원 레고 블록’을 사용하는 방식이라고 볼 수 있습니다. 예를 들어, 각 블록이 1,000차원짜리라고 해봅시다. 수학적으로 1,000차원 공간은 아주 기묘한 특성을 갖잖아요. 이 블록들 각각은 약간씩 변형될 수 있지만, 완전히 자유로운 건 아니고, 이름에 따라 특정한 방식으로만 변형될 수 있어요.
제가 이 레고 블록들, 즉 이름들을 몇 개 주면, 그걸 잘 조합해서 서로 딱 맞게 끼워 넣어야 하는 거죠. 그리고 그 자체가 ‘이해(understanding)’입니다.

이렇게 생각하면, 왜 단 한 문장만으로도 어떤 단어의 의미를 학습할 수 있는지 설명이 됩니다. 예컨대, ‘She scrummed him with the frying pan.’이라는 문장이 있다고 쳐봅시다. 이때 여러분은 ‘scrummed’가 무슨 뜻인지 대충 짐작하게 돼요. 문법적으로 ‘-ed’가 붙었으니 동사라는 건 알 수 있고, 맥락상 그녀가 프라이팬으로 그에게 뭔가를 했다는 뜻이니까, ‘그의 머리를 내려쳤다’ 같은 공격적인 의미일 확률이 높다고 생각하죠. 물론 ‘그를 감동시켰다’는 의미일 수도 있겠지만(예를 들어 너무 맛있는 오믈렛을 만들어서 감동을 줬다든지), 대개는 공격적 의미로 받아들일 겁니다.
이는 누군가가 ‘scrummed’라는 단어의 정의를 따로 알려준 게 아니라, 문장 안에 있던 다른 단어들(‘She’, ‘him’, ‘with the frying pan’ 등)이 서로 맞물려 들어가면서 생긴 빈자리(hole) 형태가 ‘scrummed’가 가져야 할 의미를 규정하는 거예요. 그 빈자리가 바로 ‘scrummed’가 채워야 할 모양(shape)을 결정해주는 겁니다.

그래서 저는 언어를 ‘이런 식으로 약간의 유연성을 가진 블록들을 조합해, 서로 잘 끼워 맞추는 모델링 시스템’이라고 봅니다. 그리고 그 블록들은 모두 이름(단어)을 가지고 있기 때문에, 제가 원하는 모델이 무엇인지, 그리고 각각의 블록이 어떻게 맞물려 있는지를 다른 사람들에게 알릴 수 있죠. 상대방이 저와 같은 지식을 어느 정도 공유하고 있다면, 제가 전해준 이름들을 기반으로 전체 구조를 유추해낼 수 있는 겁니다."

 

커트 - "그 말씀은 곧, 청중에게 ‘이해란 무엇인가’를 좀 더 구체적으로 설명하고 싶으신 거네요? 즉, ‘우리 머릿속에서 일어나는 일이나, 대형 언어 모델에서 일어나는 일이 본질적으로 같다’라는 의미이신가요?”

 

힌튼 - "네, 둘 다 같은 원리로 작동한다고 봐요. 그래서 언어 모델도 실제로 ‘이해한다’고 말할 수 있다는 겁니다.”

 

커트 - “촘스키(Chomsky)는 ‘우리는 극히 적은 입력(sparse input)으로도 언어를 이해한다. 인터넷 전체가 필요하지 않다’라는 식으로 반론을 제기합니다. 즉, 대형 언어 모델과 인간 언어 학습은 근본적으로 다르다, 라고 말하죠. 이에 대해서 어떻게 보시나요?”

 

힌튼 - "물론, 인간에 비해 언어 모델이 훨씬 더 많은 데이터를 학습한다는 건 사실이에요. 통계적으로 비효율적일 수 있죠. 하지만 아이들이 언어를 배울 때, 그저 라디오만 듣고 배우는 게 아니라, 실제 현실 세계에서 사물을 보고 상호작용하면서 배우잖아요.
그래서 멀티모달(multimodal) 모델로 학습시키면, 훨씬 적은 언어 입력만으로도 충분해집니다. 예컨대, 로봇 팔과 카메라가 있어서 물리 세계와 상호작용할 수 있다면, 언어 입력은 훨씬 줄어들어도 돼요. 물론 그래도 인간보다는 더 많은 데이터를 필요로 할지 모르지만, 그 격차는 줄어듭니다.

두 번째 주장은 이거예요. 역전파(backpropagation)를 이용한 학습 알고리즘은, 아주 방대한 경험 데이터를 비교적 ‘적은 수의 가중치’—물론 그 ‘적은 수’가 요즘은 1조 개(trillion) 정도 되지만—에 효율적으로 녹여내는 데 뛰어납니다. 그러니까 대규모 데이터를 통해 거대한 경험을 쌓으면, 그 지식을 1조 개 정도의 파라미터에 꽉꽉 압축해서 넣을 수 있죠.
그런데 우리 인간 뇌는 그 반대 문제가 있어요. 우리는 100조 개 정도의 시냅스(가중치)를 갖고 있는데, 총 살아가는 시간이 20억 초(약 63~64년) 정도밖에 안 되죠. 경험할 수 있는 시간 자체가 제한적이니, 오히려 적은 데이터를 최대한 효율적으로 활용하는 쪽으로 진화했을 가능성이 큽니다. 그런 점에서, 아마 우리는 역전파가 아닌 다른 방식으로 학습하는 걸로 보이고, 그게 ‘적은 데이터로 빠르게 배우는’ 걸 가능케 한다고 볼 수 있겠죠.
그런 의미에서 촘스키가 말하는 ‘인간은 적은 데이터로도 학습한다’라는 주장은 맞는 면이 있어요. 하지만 기본적으로 우리가 하는 일도 ‘단어에 피처(feature)를 부여하고, 그 피처들이 어떤 식으로 상호작용해야 하는지 배우는 것’이라는 점은 동일하다고 봅니다."

 

커트 - "연구나 학습 방식에 대해 더 이야기해보고 싶습니다. 제이 맥클렐런(Jay McClelland)이 ‘힐튼 교수님은 대학원생이나 다른 연구자들과 미팅할 때 칠판에 식(equation)을 쓰기보다는 그림을 그리거나 몸짓을 활용한다’고 하더군요. 다른 머신러닝 연구 미팅과는 좀 다르다고 해요. 이 방식이 갖는 의의나 장단점은 뭘까요?”

 

힌튼 - "전 직관(intuition)적으로 먼저 생각하고, 그 후에 수식을 붙이는 편이에요. 반면, 어떤 사람들은 먼저 식을 세워서 유도(derive)한 뒤, 거기서 직관을 얻기도 하죠. 데이비드 매카이(David MacKay) 같은 사람은 둘 다 엄청 잘하던 사람이었습니다.

결국 다른 사고방식인 거죠. 저는 공간적(geometrical)인 사고를 잘하고, 방정식을 다루는 건 좀 뒤늦게 합니다.”

 

커트 - "학부 시절 이야기 좀 해주세요. 프로그램(전공)을 여러 번 바꾸셨다고 들었는데, 어떻게 해서 그렇게 되신 건가요?”

 

힌튼 - "길게 이야기하면, 처음 케임브리지에서 물리학과 화학을 전공으로 시작했습니다. 결정구조(결정 상태) 쪽이었는데, 사실상 X선 결정학(x-ray crystallography)이었죠. 근데 한 달쯤 지나니 싫증이 났어요. 처음으로 가족과 떨어져 지내는 생활이기도 했고, 공부가 너무 힘들었다고 할까요.
그래서 자퇴했고, 건축(architecture)을 다시 지원했습니다. 합격해서 하루를 들어갔는데, ‘건축은 내 길이 아니구나, 재능이 없다’는 생각이 들어서 또 그만뒀습니다. (웃음)

결국 다시 과학으로 돌아왔는데, 이번엔 물리학, 화학, 생리학(physiology)을 공부했어요. 생리학이 꽤 재미있었죠. 1년 정도 하다가 ‘마음(mind)에 대해 더 알고 싶다’는 생각이 들어서, ‘철학(philosophy)이 그걸 알려줄 거야’라며 과학을 그만두고 철학을 공부했습니다.

위트겐슈타인(Wittgenstein) 같은 철학자의 견해를 좀 배우긴 했지만, 전반적으로는 ‘철학에 대한 항체(antibodies)가 생겼다’고 표현하고 싶어요. 왜냐하면 철학에서는 다 말로만 하거든요. 무슨 이론이 더 나은지 판별하는 독립적 잣대, 예컨대 실험 같은 게 없어요. ‘듣기에 멋진 이론이면 좋은 이론이다’라는 식이라서, 그게 제겐 좀 답답했습니다.

그래서 심리학으로 옮겨갔는데, 또 불만이 있었죠. 그 당시 심리학자들은 굉장히 단순하고 엉성한 이론을 세워놓고, 그 이론이 맞나 틀리나를 실험으로 검증하곤 했는데, 이론 자체가 너무 말도 안 되니까 실험이 잘 설계되어 있어도 별 의미가 없다고 느꼈어요. ‘처음부터 말이 안 되는데, 이런 실험을 왜 하나?’ 싶은 거죠. 대부분의 심리학이 그랬습니다.

결국 AI로 갔어요. 거기서는 컴퓨터 시뮬레이션을 해볼 수 있으니, 그 방식이 훨씬 재미있고 제게 맞았죠."

 

커트 - "그렇게 해서 교수가 되신 뒤, 지금에 이르기까지 연구 주제를 선정하실 때 어떤 기준을 쓰시나요?"

 

힌튼 - "글쎄요, 사실 제가 왜 그렇게 하는지 저도 정확히는 몰라요. (웃음)
가장 복잡한 인간적 능력 중 하나가 바로 ‘연구 주제 고르기’라고 생각합니다. 그래서 제가 ‘이렇게 합니다’라고 떠벌려도 100% 믿으실 필요는 없어요. 저도 LLM처럼 ‘근거 없이 말해볼 수’ 있을 뿐이니까요.

그래도 굳이 말씀드리자면, ‘모두가 뭔가를 잘못하고 있다고 느끼는 영역’을 찾으려고 합니다. 직관적으로 ‘저건 다들 잘못된 방향인 것 같으니, 내가 뭔가 다른 방식을 내놓을 수 있지 않을까?’라고 생각해보고, 시도해보는 거죠. 대부분은 결국 ‘아, 사람들이 이런 식으로 하는 이유가 있었구나. 내 방법은 별로였네’라는 결론에 도달하지만, 아주 가끔, ‘모두가 논리(logic)로 지능을 설명하려고 하는데, 사실 우리는 신경망(neural networks)으로 접근해야 한다. 그리고 지능이란 결국 뉴런 연결 강도(connection strengths)가 어떻게 적응하는가를 이해하는 거다’라는 식의 생각이 옳은 방향으로 이어질 수 있어요.

‘직관이 좋다면 직관을 밀고 나가야 하고, 직관이 나쁘다면 뭘 해도 그만이니 그냥 직관대로 해라’—이런 농담 섞인 주장을 하는 편이에요. 즉, 직관이 제대로라면 그걸 따라가는 게 이득이고, 직관이 틀리면 뭘 해도 똑같으니까, 그래도 직관을 따라가는 게 낫다는 식이죠."

 

커트 - "레이 커즈와일(Ray Kurzweil) 같은 사람은 직관을 통해 미래를 꽤 잘 예측해왔잖아요. 저도 2000년대 초반에 그의 책을 보며 ‘이 중 절반이라도 맞을까?’ 했는데, 나중에 보니 꽤 적중하더군요. 교수님은 그 이유가 뭐라고 보시나요?”

 

힌튼 - "그의 책들만 읽으면, 굉장히 맞춘 게 많아 보이죠. 아마 그가 틀린 예측도 있을 텐데, 본인은 그걸 크게 강조하지 않을 겁니다.
제가 보기엔, 그가 말한 ‘주요 포인트’는 크게 하나예요. ‘컴퓨터가 점점 빨라질 것이고, 그게 계속 지속될 것이다. 그러면 점점 더 많은 일을 컴퓨터가 할 수 있게 될 것’이라는 거죠. 그런 관점에서, ‘컴퓨터가 사람 지능 수준에 도달할 시점’도 대략 맞춰왔다고 볼 수 있죠."

 

커트 - "그렇다면 교수님 본인께도 ‘동료들은 동의하지 않지만 내 직관은 맞다고 믿는 예측’이 있나요? 이미 AI 정렬 얘기말고, 그 외에 기술적 측면에서요"

 

힌튼 - "제가 요즘 계속 주장하는 건, 역시 ‘주관적 경험(subjective experience)이 뭔가’ 또는 ‘의식이 뭔가’에 대해, 사람들은 대부분 완전히 틀린 모델을 갖고 있다는 거예요. 이건 좀 철학적인 얘기지만요.

기술적인 차원에서 보면, 저는 여전히 ‘빠른 가중치(fast weights)’가 매우 중요하다고 믿고 있습니다.
뇌에서 시냅스 가중치는 여러 시간 스케일로 적응하잖아요. 하지만 대부분의 AI 모델에선 그걸 쓰지 않아요. 왜냐하면, 우리는 한 번에 여러 학습 표본을 처리할 때, 같은 가중치를 사용해야 행렬-행렬 곱(matrix-matrix multiply)을 효율적으로 할 수 있기 때문이죠. 그런데 ‘빠른 가중치’가 있다면, 매 입력마다 가중치가 달라질 테니, 행렬 연산 효율성이 크게 떨어집니다.
그래도 뇌처럼 느린 가중치(slow weights) 위에 빠른 가중치를 덧씌우는 방식, 그러니까 ‘느린 가중치는 기존처럼 천천히 학습되고, 빠른 가중치는 순식간에 업데이트되는 이중 구조’를 쓰면 여러 가지 멋진 특성을 얻을 수 있을 거예요. 다만 현재의 디지털 하드웨어로는 비효율적이라 잘 안 쓰고 있을 뿐이죠. 아날로그 컴퓨팅이라면 괜찮을 수도 있습니다.
결국 언젠가는 이 ‘빠른 가중치’를 꼭 써야 할 것 같아요. 뇌가 그렇듯이, 거기서 얻을 수 있는 장점이 많거든요."

 

커트 - "교수님은 공개적으로, ‘조금은 조울증 경향이 있다. 자기비판(self-critical) 상태가 길게 이어지다가, 또 어느 순간에는 극도의 자신감이 생기는 편이다. 그게 창의력에 도움이 된다’라고 하신 바 있잖아요. 어떻게 그런 심리 상태가 연구나 아이디어 발상에 영향을 미치는지 더 듣고 싶습니다.”

 

힌튼 - "(웃음) 음, 사실 ‘자신감 넘치는 시기’는 비교적 짧습니다. 뭔가 새로운 아이디어가 떠오르면, 정말 흥분되고, 밥 먹을 시간도 없어요. 그래서 체중이 줄어듭니다.”

 

커트 - "아, 무슨 말씀이신지 알겠어요.”

 

힌튼 - "그리고 저는 아이디어에 얼마나 흥분했는지를, 제 체중이 얼마나 줄었는지로 가늠할 수 있죠. 정말 대단한 아이디어가 떠오르면, 한 5파운드(약 2.3kg)는 빠지기도 해요.”

 

커트 - "증조 할아버지(George Boole, 힌튼은 부울대수 창시자 부울의 외가쪽 후손)의 업적을 이어받고 있다는 ‘자부심’ 같은 게 있으신가요?”

 

힌튼 - "아뇨, 사실 별로 없어요. 아버지가 이런 ‘가족 유산’에 대해 말하곤 했지만, 그건 그냥 이야기거리 정도였죠. 저는 오히려 아버지가 저에게 크게 기대를 품고 있었다는 압박 같은 걸 느꼈어요. 그건 조지 불(George Boole)에게서 온 게 아니라, 아버지에게서 온 거죠.”

 

커트 - "즉, 본인 스스로에 대한 높은 기대치였나요?”

 

힌튼 - "네, 저의 학문적 성취에 대한 높은 기대치였죠.”

 

커트 - "그렇다면 ‘내가 torch(불꽃, 혹은 계승의 상징)를 넘겨줄 후계자다’라고 생각하는 분이 있나요?”

 

힌튼 - "꼭 그렇진 않아요. (not exactly) 굳이 누구에게 그런 걸 ‘부여’하고 싶지도 않고요."

 

커트 - "‘No(아니오)’라고 딱 잘라 말씀하지 않고, ‘not exactly(딱 그렇진 않다)’라고 하신 이유가 뭔가요?”

 

힌튼 - "제 조카 중에 수리(quantitative) 쪽으로 꽤 뛰어난 애들이 몇 명 있긴 해요.”

 

커트 - "그들에게 부담을 주고 싶지는 않으시겠죠?”

 

힌튼 - "네, 맞아요.”

 

커트 - "구글을 떠나시면서, AI 안전에 대한 우려를 공개적으로 표명하셨습니다. 그 결별 과정을 거치면서 가장 어려웠던 부분은 무엇이었나요? 그리고 전 세계에 이런 우려를 알린다는 게 힘드셨나요?”

 

힌튼 - "솔직히 ‘어려웠다’고 말하긴 그렇습니다. 사실 전 이미 75세였고, 구글에 계속 남아서 일하고 싶은 마음이 크게 없었거든요. AI 안전 문제 때문에 못 견뎌서 나온 게 아니라, 어느 정도 은퇴를 생각하던 차였죠. 연구에도 점점 소홀해졌고, 프로그래밍할 때 변수 이름도 자꾸 까먹고… 그러니 은퇴할 때가 됐다 싶었어요.

그러면서 마지막으로 나가면서, ‘AI에 이런 안전 문제가 있다’고 한마디 정도 얘기하자고 생각했죠. 그런데 그 뒤 일이 이렇게 커질 줄은 몰랐습니다.”

 

커트 - "다른 인터뷰에서, ‘이제 75, 76…’(자꾸 바뀌네요)라고 말씀하셨는데, 지금은 77세이시죠?”

 

힌튼 - "네, 매년 바뀌죠. (웃음) 77입니다.”

 

커트 - "최근에, 프로그래밍하면서 변수 이름도 잊어버리고, 이제 점점 철학으로 관심이 옮겨간다고도 말씀하셨는데, 여기서도 이미 철학 얘길 많이 하셨어요.”

 

힌튼 - "맞아요. 사실 제가 20살 무렵에 철학을 공부하던 시절로 돌아가, 그때 가졌던 통찰들을 다시 한 번 탐구하고 있습니다."

 

커트 - "그럼 앞으로 어떤 일이 기다리고 있다고 보시나요?”

 

힌튼 - "저로서는 ‘노년(old age)’이겠죠. (웃음) 그리고 세상은 AI로 인해 꽤 빠르게 크게 달라질 거라고 봅니다. 좋은 면도 있고, 나쁜 면도 있을 테니, 우리는 그 나쁜 결과를 줄이려고 노력해야겠죠. 제가 이제라도 유용하게 할 수 있는 건, 젊은 연구자들에게 ‘AI 안전 문제를 다뤄야 한다’고 독려하는 거예요. 실제로 그런 활동을 많이 하고 있습니다.”

 

커트 - "안전과 관련하여, 그중 중요한 분야로 정렬이 있죠. 그런데 사실 우리 인간에게도 ‘완벽한 정렬’을 할 수 있는 건 아니지 않습니까? 정렬 문제를 정말 해결할 수 있다고 보세요?”

 

힌튼 - "저도 그런 문제의식을 갖고 있습니다. ‘정렬’이라는 말만 들어도, 마치 직각인 두 선에 평행선을 긋는 것 같은 난감함이 들죠. ‘인간에게 보편적으로 좋은 것’이라는 게 따로 있다고 말하기도 어렵고, 실제로 ‘어떤 이들이 좋다고 생각하는 게 다른 이들에겐 나쁘다’는 경우가 얼마나 흔한지, 중동 지역을 예로 들 수도 있겠네요.

결국 ‘어떤 가치와 정렬하려는가’가 굉장히 tricky한 이슈예요.”

 

커트 - "방금 젊은 AI 연구자에게 하신 말씀과는 별개로, 수학이나 철학, 또는 새로운 STEM 분야로 진입하려는 젊은 학생들에게 전하고 싶은 조언이 있으시다면요?”

 

힌튼 - "글쎄요, 지금 과학 연구에서 가장 ‘핫’한 건 신경망(Neural Networks), 곧 요즘 말로는 AI죠. 사실 물리학자들도 이걸 자신들의 분야로 끌어들이고 싶어 합니다. (웃음) 누군가가 신경망 연구로 노벨 물리학상을 받지 않았나요?”

 

커트 - "(모르는 척) 누구였죠? 기억이 잘 안 나는데요?” (웃음)

 

힌튼 - (웃음) “네, 아무튼 노벨상 위원회에서도 ‘과학의 가장 흥미로운 분야가 AI’라는 걸 인식한 것 같아요. 그래서 물리학과 화학 부문에서 ‘AI(또는 AI 활용) 연구자’에게 상이 돌아간 거겠죠.

그래서 젊은 연구자들에게는, ‘지금 가장 흥미진진한 분야는 AI 쪽’이라고 말해주고 싶습니다. 하지만 다른 분야도 중요해요. 예를 들어, 만약 상온 초전도체(room temperature superconductor)를 발견할 수 있다면, 이를테면 태양광 발전을 훨씬 더 효율적으로 활용할 수 있거든요. 그런 것도 엄청 흥미로운 분야죠. 그리고 그런 연구에도 결국 AI가 쓰이게 될 거예요. 아마 미래의 대부분 과학 분야가 적어도 AI 도구를 활용하게 될 거라고 봅니다.”

 

커트 - "노벨상 얘기가 나왔으니, 교수님은 작년에 AI 및 신경망 관련 업적으로 물리학 부문 노벨상을 수상하셨잖아요. 어떤 기분이셨어요? 그리고 ‘내가 물리학자인가?’라는 생각이 들진 않으셨는지요?”

 

힌튼 - "전 물리학자가 아니에요. 대학 1학년 때 물리를 잘하긴 했는데, 당시엔 직관적으로 문제를 푸는 능력이 좀 있었고, 수학은 그다지 강하지 않았습니다. 수학을 더 잘했다면 물리를 계속했겠지만, 그러면 아마 노벨상도 못 받았을 거예요. 그러니까 수학을 잘 못한 게 운이 좋았던 셈이죠.

수상 소식을 들었을 때 솔직히 좀 혼란스러웠습니다. 왜냐하면, 제가 통계 물리(statistical physics)를 예쁘게 활용한 ‘볼츠만 머신(Boltzmann machines)’ 연구를 (테리 세노프스키와 함께) 했는데, 그게 물리학과 직접 연결은 돼요. 하지만 사실 오늘날 성공한 AI 시스템들의 핵심은 볼츠만 머신이 아니라, 역전파(backpropagation)였잖아요. 그래서 물리학적 측면에서 보면 볼츠만 머신이 중요해 보이지만, 실질적으로 대성공을 이끈 건 다른 알고리즘이었던 거죠.

그래서 조금은 어색하긴 합니다. 볼츠만 머신 연구가 확실히 도움이 되긴 했지만, 진짜 크게 히트한 건 아니었으니까요.”

 

커트 - "교수님, 오늘 인터뷰 정말 즐거웠습니다. 초대해주셔서 고맙고, 교수님 댁에서 직접 고양이들도 볼 수 있어서 기뻤어요.”

 

힌튼 - "네, 저야말로 감사드립니다."

 

https://www.youtube.com/watch?v=b_DUft-BdIE