AI 인터뷰 및 최신 동향

샘 알트먼 TED Rethinking 라디오 인터뷰 (25.01.07)

MinasAnor 2025. 1. 19. 17:29

 

Adam Grant: 여러분 안녕하세요, 저는 애덤 그랜트입니다. TED Audio Collective 함께하는 팟캐스트 “ReThinking” 돌아오신 것을 환영합니다.
저는 조직심리학자로서, 매력적인 사람들의 머릿속으로 여러분을 초대하여 새로운 생각과 새로운 사고방식을 탐색하고 있습니다. 오늘의 게스트는 OpenAI CEO이자 공동 창업자인 알트먼입니다. 샘과 그의 동료들이 ChatGPT 처음 구상했던 이후로 많은 것들이 달라졌습니다.

 

Sam Altman: 지금 저와 여러분은, 인간이 지구상에서 가장 똑똑한 존재에서 이상 가장 똑똑한 존재가 아닌 쪽으로 바뀌는, 인류 역사상 있는 전환점을 함께 살고 있습니다.

 

Adam Grant: AI 기하급수적인 발전은, 무엇이 인간만의 고유한 능력인가에 대한 저의 여러 가정을 다시 생각하도록 만들었고, 정답보다도 훨씬 많은 질문을 남겼습니다. 소스 코드는 일종의 블랙박스이기 때문에, 저는 기술의 근원에 있는 사람에게 직접 물어봐야 때라고 생각했습니다. 샘을 여러 이벤트에서 마주친 적이 있었는데, 그는 대중적으로 통용되는 말만 고수하기보다, 의견이 비인기일 때조차 생각을 소리 내어 말하는 태도를 보여 왔다는 점이 인상 깊었습니다.

 

Sam Altman: 아마도 후에는, 거의 모든 주제에 대해, 가장 흥미롭고, 어쩌면 가장 공감 능력이 뛰어난 대화를 나눌 있는 상대가 AI 거라고 생각합니다.

 

Adam Grant: 알트먼이 직접 기술 체크를 한다니요. 어떻게 그런 일이 일어났죠?

 

Sam Altman: , 모르겠네요. 괜찮습니다.

 

Adam Grant: 여기에 어시스턴트도 없네요. 지난 1 동안 수없이 많은 대화들이 이렇게 시작되었으리라고 생각하는 질문부터 해야 같습니다. 바로자신이 창업한 회사에서 해고되었다는 어떤 기분이었나요?”라는 질문이요.

 

Sam Altman: 뭔가 비현실적인 안개 속에 있는 느낌이었어요. 처음에는 혼란이 가장 지배적인 감정이었던 같아요. 뒤에는모든 감정을 겪었습니다만처음에는 혼란이 가장 컸습니다.

 

Adam Grant: 그리고 나서는요?

 

Sam Altman: 그리고 나서는 좌절, 분노, 슬픔, 감사함 모든 느꼈어요.

 

Adam Grant: 와우.

 

Sam Altman: 48시간 동안은 인간이 느낄 있는 감정 스펙트럼을 완전히 경험한 느낌이었어요. 폭넓다는 점에서 인상적이었죠.

 

Adam Grant: 48시간 동안 그런 감정들을 어떻게 처리하셨나요?

 

Sam Altman: 사실 전술적으로 처리해야 일이 너무 많아서, 감정을 처리할 시간이 별로 없었습니다. 그래서 48시간 동안은 거의 감정에 집중할 없었어요. 그리고 먼지가 조금씩 가라앉고, 모든 상황 한가운데서 다시 일에 복귀해야 , 그때 감정을 다뤄야 하는 어려움이 있었죠.

 

Adam Grant: 옛날에 스티브 잡스가, 애플에서 강제로 쫓겨났을 맛이 굉장히 쓰지만 환자가 약이 필요했던 같다라는 말을 적이 있잖아요. 그런 감정에 어느 정도 공감하시나요, 아니면 상황이 너무 달라서 전혀 해당되지 않나요?

 

Sam Altman: 어쩌면 시간이 충분히 지나지 않아서 그럴 수도 있겠네요. 최근에 깊이 반성해 적은 없는 같아요. 스티브 잡스 케이스와는 여러 면에서 전혀 달랐고, 이번 경우는 너무 짧게 끝났습니다. 모든 일이 완전히 정리되기까지 고작 5 정도 걸렸어요. 아주 이상하고 열병 같은 꿈이었고, 뒤에는 다시 회사로 돌아와 정리하는 과정을 거쳤죠.

 

Adam Grant: 5일과 10년은 확실히 배우는 과정이 다르긴 하겠네요. 그렇다면 어떤 교훈이나 배움이 있었나요?

 

Sam Altman: 아마 제가 잘못 말했을 수도 있겠네요. 생각해보니 4일일 수도 있어요. 아마 4일이었던 같아요.
제가 배운 하나는, 당시 그리고 이후에 우리가 어떻게 소통했는지에 대해 다시 생각해볼 부분이 많다는 겁니다. 진행 상황에 대해 직접적이고 분명하게 말해야 필요성이 굉장히 크다는 배웠어요. 오랜 기간 OpenAI 둘러싸고 의심의 구름이 있었는데, 저희가 나은 방식으로 대처할 있었을 같습니다.
저는 제가 함께 일하는 사람들이 대단하다는 알고 있었지만, 이런 불확실성이 위기 상황에서도 팀이 얼마나 대처하는지 직접 있었습니다. 제가 가장 자랑스러웠던 순간 하나는, 제가 잠시 빠져 있는 동안 임원진이 회사를 운영하는 모습을 지켜본 일이었어요. 그리고 그들이 모두 회사를 운영할 있는 충분한 역량이 있음을 확인한 자부심이었죠. 제가 사람들을 선발했다는 , 그들을 제가 어느 정도 가르쳐온 , 그리고 회사가 아주 강력한 토대를 가지고 있다는 점에 대한 자랑스러움이었습니다.

 

Adam Grant: 그런 점에서 놀랍네요. 저는 조직심리학자로서, 회사 내부에서 당신을 지지한 직원들의 sheer number(어마어마한 ) 당신에게 가장 자랑스러운 순간이었을 거라고 생각했거든요. 내부에서 이렇게나 충성심과 지지를 표명한다는 자체가 엄청났습니다.

 

Sam Altman: 기분은 좋았지만, 그게 가장 기억에 남는 이유는 아니었어요.

 

Adam Grant: 역시 잡스와 닮은 부분이 있네요. 그가 가장 자랑스러워했던 업적이 맥이나 아이팟, 아이패드 같은 제품 자체가 아니라, 제품들을 만든 팀이라고 했었잖아요.

 

Sam Altman: 저는 직접 연구도 하지 않고, 제품도 직접 만들지 않아요. 의사결정을 하긴 하지만, 대부분은 제가 하는 것도 아니고요. 제가 만드는 것은회사이기 때문에, 부분에 대해 나름대로의 창작자적 자부심이 있는 당연합니다.

 

Adam Grant: 그렇다면 실제로 무엇을 하시나요? 시간을 어떻게 쓰는지 궁금해요.

 

Sam Altman: 좋은 질문이네요. 매일매일 다르고, 상당히 혼란스럽습니다. 이상하게도 이른 아침 시간은 그렇게 혼란스럽지 않아요. 하지만 종종 오후가 되면 완전히 엉망이 되고, 많은 일들이 벌어지면서 일종의 반응 모드나 끄기 모드로 들어가게 되죠. 그래서 정말 중요한 일은 아침 일찍 처리하려고 하고 있습니다. 저는 시간 대부분을 연구와 우리가 만드는 제품에 대해 생각하는 쓰고, 나머지는 상대적으로 적게 쓰죠. 하지만 그것이 구체적으로 어떤 모습인지는 시점에 따라 정말 다릅니다.

 

Adam Grant: 지난 동안 당신이 세계를 뒤집어 놓는 것을 지켜보면서, 저는결국 인간은 어떻게 되는 거지?”라는 궁금증이 계속 생깁니다. 저는 현재까지 나온 연구들 가장 흥미로운 연구들을 계속 추적해 왔는데, 인간이 지는 속도가 제가 기대했던 것보다 훨씬 빠릅니다. 훨씬 더요. 그래서 우리는 이미 창의성, 공감 능력, 판단력, 설득력에서도 뒤처지고 있는 같아요. 각각에 대해 제시할 데이터 포인트들이 있는데, 그에 대한 당신의 의견을 들어보고 싶습니다. 우선, 전반적인 부분부터 묻고 싶어요. AI 인간의 많은 능력을 뛰어넘는 속도에 대해서, 당신 스스로는 놀라고 있나요?

 

Sam Altman: 저희 최신 모델은 거의 모든 면에서 저보다 똑똑하게 느껴지고, 그게 일상에 직접적인 영향을 미치진 않아요.

 

Adam Grant: 정말요?

 

Sam Altman: 저는 여전히 예전과 똑같은 것들을 중요하게 생각하고, 훨씬 효율적으로 일할 있게 됐죠. 저는 사회가 새로운 기술을 받아들일수록 사회가 훨씬 빨리 움직일 거라고 가정합니다. 특히 과학적 진보가 훨씬 빨라질 거라고 희망하고요. 그리고 우리는 놀라운 산물 혹은 도구( 무엇이라 불리건) 공존하게 텐데, 실제로 여러분의 일상은 전과 비교했을 얼마나 달라졌나요? 사실 그렇게 많이 달라졌다고 느끼지는 않으실 거예요. 장기적으로 보면 AI 정말 모든 것을 바꾼다고는 생각하지만, 10 전만 해도 이런 강력한 모델을 갖춘 날이 오면 모든 변화할 거라고 제가 순진하게 생각했던 부분이 있었죠. 그런데 지금은 그게 순진한 생각이었다고 봅니다.

 

Adam Grant: 저는 이게 전형적인단기적으로는 변화를 과대평가하고, 장기적으로는 과소평가한다 패턴 같아요.

 

Sam Altman: 맞습니다, 그거예요.

 

Adam Grant: 그래서 지금 그걸 체감하고 계시는 거군요.

 

Sam Altman: 결국엔 전체 경제가 변모할 거라고 생각해요. 사람들이 새로운 일을 찾게 거라는 것에 대해 저는 전혀 걱정하지 않습니다. 역사를 보면, 새로운 기술이 나올 때마다 항상 일자리가 사라질 거라 두려워하지만, 실제로는 이전보다 훨씬 많은 일을 하게 되거든요. 그리고 아마 나은 일자리들을 하게 가능성이 높습니다. 이는 기술 발전이라는 시간 동안 펼쳐지는 지수함수적 곡선의 다음 단계라고 생각합니다.

 

Adam Grant: 제게는 AI 혁명이 인터넷 혁명과 정반대로 보이는 면이 있어요. 당시, 회사들의 경영진은 인터넷이 세상을 바꿀 것이라고 믿지 않았고, 결과 회사가 망해버렸습니다. 하지만 인터넷을 믿었던 사람들은, 구체적으로 어떤 조치를 해야 하는지가 명확했죠. 예를 들어, 제대로 작동하는 웹사이트가 필요했고, 웹사이트에서 제품을 어떻게 판매해야 하는지 알면 됐습니다. , 디지털 혁명에 적응하는 그렇게 복잡하지는 않았어요.
그런데 요즘 창업자들과 CEO들에게 들리는 이야기는 반대예요. 모두가 AI 게임체인저라는 것은 믿어요. 하지만 이게 리더십, 업무, 조직, 제품과 서비스에 구체적으로 어떤 의미를 갖게 될지는 아무도 감을 잡고 있습니다. 모두가 깜깜한 상태라는 겁니다.

 

Sam Altman: 그런 점에서, 이건 인터넷 혁명이라기보다는 산업혁명에 가깝다고 생각해요. 어떻게 전개될지 모르겠는거대한 알려진 미지(known unknowns)’ 엄청나게 많죠. 하지만 어떤 식으로든 전개될 것이라는 점에 대해서는 우리가 어느 정도 말할 있는 있긴 합니다.

 

Adam Grant: 그걸 듣고 싶은데요. 제가 가진 가설 하나는, 우리는 앞으로 능력(ability)보다는 민첩성(agility) 높게 평가하게 거라는 겁니다.

 

Sam Altman: 그래도 여전히 어떤 종류의 능력은 높이 평가할 거예요. 다만 그게 예전처럼순수한 지적 역량 아닐 겁니다.

 

Adam Grant: 그렇다면 무엇이 새로운 능력일까요?

 

Sam Altman: 너무 단순화해서 말하자면, ‘어떤 질문을 해야 하는지 아는 능력이, 답을 찾는 능력보다 중요해질 거라는 거죠.

 

Adam Grant: 제가 지난 동안 관찰한 결과와 일치하네요. 과거에는 머릿속에 얼마나 많은 지식을 쌓았느냐가 똑똑함과 존경의 기준이었어요. 하지만 지금은 사실(knowledge) 수집하는 사람이 아니라, 아이디어를연결하고통합하는 사람이 훨씬 유리하다고 봅니다. 패턴 인식과 통합 능력이 중요한 거죠.

 

Sam Altman: 만약 여러분이 예전에 방영한배틀스타 갈락티카(Battlestar Galactica)”라는 TV 쇼를 보셨다면, 쇼에서 반복적으로 나오는 말이 모든 일은 전에 일어났고, 앞으로도 다시 일어날 것이다라는 겁니다. 사람들이 AI 혁명을 이야기할 , 저에게는질적으로매우 중요한 면에서 다르다는 느낌도 들지만, 동시에 과거의 기술 공황들과도 유사해 보입니다.
제가 어릴 적에 인터넷에 무언가 새로운 것이 나오면, 멋지다고 생각하는 사람들이 있었죠. 예전에 쓰이던 것보다 훨씬 나아 보였어요. 저는 당시 그걸 접하기엔 조금 어렸지만, 윗세대 형들이 말해주더라고요. 선생님들이구글 금지하기 시작했다고요.

 

Adam Grant: “ 구글(The Google)”이라고 불렀나요?

 

Sam Altman: , “ 구글(The Google).” 만약 모든 사실을 손쉽게 찾아볼 있다면, 역사 수업에 가서 암기하는 행위의 의미가 뭔지 의문을 제기하게 되고, 이는 사회에서 책임 있는 구성원이 되기 위해 반드시 필요한 무언가를 잃어버리는 것처럼 느껴졌어요. 그냥 차를 몰고 도서관으로 가서 카드 카탈로그를 찾고 책을 찾아봐야 하는 수고로움을 거치지 않아도 되는 부당하게 보였고, 뭔가 잘못돼 보였던 거죠.
하지만 이런 현상은 계속 반복됩니다. 새로운 도구가 나오면, 기대치도 함께 올라가요. 동시에 사람들이 달성해내는 역량 또한 커지고, 결국 이전보다 훨씬 어렵고, 의미 있거나 영향력 있는 일을 하게 됩니다. 아마 AI 그럴 거라고 기대합니다.
전만 해도 사람들에게 물어보면, “A. 2024년에 GPT-4 정도로 강력한 모델이 나올 거라고 보나요?”라고 물었을 거의 절대 그럴 거다라고 했을 거고, “B. 만약 신탁이 나타나서네가 틀렸다, 정말 그런 모델이 나올 거다라고 하면, 우리의 일상은 완전히 뒤바뀌겠죠?”라고 물으면, 대부분은, 그럼 우리는 큰일 났다 생각했을 겁니다. 그런데 실제로 엄청난 일이 일어났고, 우리 모두 여전히 살아가고 있습니다.

 

Adam Grant: 혁신 분야로 넘어가 보면, 아이든 토너 로저스(Aiden Toner Rogers)라는 사람이 발표한 새로운 논문이 있는데, R&D 과학자들에게 희소식이 있더군요. AI 지원을 받으면 특허 출원 수가 39% 증가하고, 그로 인해 제품 혁신이 17% 증가한다는 겁니다. 그것도 획기적인 돌파구, 새로운 화학 구조 같은 것들이 많이 발견되었고요. 특히 최상위 과학자들에게 효과가 크게 나타났어요. 하위 3분의 1 속한 과학자들에게는 이점이 없는데, 최고 수준의 과학자들의 생산성은 거의 배가 됩니다.
배라는 수치가 나오는 원인은, 아이디어를 생성하는 업무의 많은 부분을 AI 자동화해버려서, 과학자들은 주로 아이디어를 평가하는 에너지를 쏟게 되는데, 뛰어난 과학자들은 유망한 아이디어를 골라내는 데에 탁월하고, 그렇지 않은 과학자들은 잘못된 긍정(거짓 양성) 쉽게 넘어가는 경향이 있기 때문입니다.
모든 당연히 굉장히 좋은 소식이죠. 과학적 창의성이 엄청나게 확대되는 거니까요. 그런데 문제가, 연구에서 82% 과학자들이 자신의 일에 대한 만족도가 떨어졌다고 응답했습니다. 창의적인 일을 하게 되는 느낌이 들고, 자신의 역량이 충분히 활용되지 않는다고 느끼는 거예요. 결국 인간이 창조자가 아니라 심판자로 전락한 같은 상태죠.
이런 연구 결과에 대해 어떻게 생각하시나요? 그리고 우리가 상황에 어떻게 대처해야 할까요?

 

Sam Altman: 여기에 대해 상충되는 생각이 듭니다.
우선 우리가 최근에 공개해온 새로운 추론 모델들을 전설적인 과학자, 수학자, 프로그래머 등에게 제공해서 써보게 했는데, 그들이 자신의 업무가 어떻게 변화하는지 이야기해줄 저는 엄청난 보람을 느낍니다.
역시도 전문적으로 가장 기쁨을 얻었던 순간이, 아무도 풀지 못한 문제를 진짜 창의적으로 추론해서 해답을 찾아냈을 때였어요. 만약 과정을 AI 대신하게 된다면, 저도 거기에 대해 어떤 아쉬움을 느낍니다.
하지만 실제 현실에서는 우리가 어려운 문제를 해결하는 방법 자체가 새롭게 바뀔 거라는 점이 유력하다고 봐요. 중요한 어려운 문제를 해결하는 과정에적극적으로 참여하는 것에서 오는 기쁨이니까요. 만약 과정에서 AI 새로운 방식으로 우리를 보조한다면, 우리는 그에 맞춰 적응할 같아요. 다만 확신은 없습니다.

 

Adam Grant: 실제로 지금 당신이 하는 업무에서, 예를 들어 ChatGPT 어떤 식으로 활용하시나요? 업무에서 직면하는 문제들을 어떻게 해결하시나요?

 

Sam Altman: 사실 저는 굉장히 지루한 방식으로 써요. 이메일 정리나 요약, 문서 요약 같은 것들 말이죠. 정말 지루한 용도로만 쓰고 있습니다.

 

Adam Grant: 그렇다면, 그래도 우리가 창의적 과정에 계속 참여할 있을 거라고, 어쨌든 희망은 갖고 계시는 거네요.

 

Sam Altman: , 저는 희망을 가지고 있어요. 인간의 정신(정신세계)이라는 정말 깊숙이 그런 면이 깃들어 있고, 어떤 상황이 오든 결국 이어지리라고 봅니다. 다만 진화가 필요할 거고, 조금은 달라지겠죠.

 

Adam Grant: 인간이 오랫동안 우위를 지킬 거라고 생각했던 다른 영역이공감이었어요. 그런데 지금까지의 결과를 보면 그렇지 않더군요. 최근에 제일 흥미롭게 읽은 실험을 보면, 여러분이 누군가와 문자 기반 대화를 나누는데, 상대가 인간인지 ChatGPT인지 없다고 가정해보죠. 그리고 대화가 끝난 뒤에, “당신은 얼마나존중받았다 느꼈습니까? 얼마나경청받았다고 느꼈습니까? 얼마나 공감과 지지를 받았나요?”라고 묻습니다. 그러면 인간이라고 생각했을 때보다 AI라고 생각했을 정확히는알고 보니 이게 AI였다 알려주기 전까지는— AI 쪽이 많은 공감과 지지를 줬다고 대답을 해요. 그런데 우리가이건 AI였다 알려주면, 다음부턴 사람들은 별로 좋아하지 않더라고요.

 

Sam Altman: 맞아요.

 

Adam Grant: 저는 심리학자로서 결과를 보고 가지 반응이 있어요. 첫째, AI 공감 능력이 그렇게 뛰어나다기보다는, 우리의기본 상태 그다지 훌륭하지 않다는 보여준다고 생각합니다. 인간은 대화 중에 너무 쉽게대화적 자기중심주의(conversational narcissism)’ 빠지곤 하잖아요. 누가 문제를 말해주면, 우리가 바로 그것을 자기 문제와 연결 지어버린다든지, 상대를 위해 충분히 함께해주지 않는 경우가 많죠. 그래서 이것은인간 공감 능력의 낮은 기준 대한 지적일 수도 있다고 봅니다. 그런데 한편으로는, 사람들이이게 AI라는 안다면 이상 원치 않는다라는 태도가, 기술을 점점 인간화하고 의인화(humanize, anthropomorphize)하게 미래에도 계속 유지될까 하는 궁금증도 듭니다.

 

Sam Altman: 우선, AI 만든 결과물 자체를 사람들은 좋아하면서도, 일단 “AI 거다라고 말해주면 갑자기 싫어하게 되는 현상에 대해 이야기해보고 싶어요. 이건 계속 반복적으로 나타나는 패턴이에요. 최근에 연구에서도, “나는 AI 예술(AI art) 제일 싫어한다 주장하는 사람들조차, 어떤 그림들을 놓고 어느 쪽을 좋아하냐고 물었을 , 실제로는 AI 만든 그림을 많이 선택하더라고요. 그런데이건 AI 그린 거다이건 인간이 그린 거다라고 구분해 알려주면 뒤에는 당연히 달라졌습니다. 이런 예시는 여러모로 찾아볼 있습니다.
AI
여러 측면에서 우리를 따라잡은 지점들이 있고, 그럼에도 불구하고 우리는 인간을 중요하게 생각하도록 하드와이어(hardwired)되어 있다는 사실은 저는 오히려 반가운 신호라고 생각합니다. 물론 여기서 저는 전부 추측에 근거하고 있기 때문에, 확신이 높진 않아요. 그래도 아마도 앞으로는 지금보다 자주 AI 대화하게 같지만, 여전히 사람과 대화하는 순간을 중요하게 여길 겁니다. 이건 우리의 생물학적, 진화적 역사 혹은 사회적 기능, 뭐라고 부르든 간에 아주 깊이 뿌리박혀 있는 것이니까요.

 

Adam Grant: 우리는 여전히 인간과의 연결을 원한다고 생각하시나요? 일종의 로버트 노직(Robert Nozick) 주장했던, “사람들은시뮬레이션된 쾌락 아니라 진짜 경험을 원한다라는 매트릭스 영화 같은 논리인가요? 우리가 갈망하는 결함이 있고 혼란스럽더라도진짜 인간적 연결이라는 건가요? 물론 AI 언젠가는 이런 것들을 시뮬레이션하게 되겠지만요.

 

Sam Altman: 생각에는, 결점 없고 완벽하게 공감만 해주는 존재와 항상 대화를 나누다 보면, 이내 드라마긴장감 그리워하게 거예요. 인간은 다른 사람이 우리를 어떻게 생각하고 느끼는지를 엄청나게 신경 쓰도록 프로그래밍되어 있다고 봅니다. 이건 AI 대화할 때와는 다르죠. 물론 AI 대화가 도움을 주고, 스스로 인정받는 느낌을 받을 있으며, 비디오 게임이 주는 즐거움처럼좋은 엔터테인먼트 있어요. 하지만 인간이 사회의 일원으로서 느끼는사회적 욕구 충족해줄 없을 같아요.
물론 제가 틀릴 수도 있습니다. AI 우리 심리를 완벽하게 해킹해서 모든 만족시켜버릴 수도 있죠. 그런 경우라면 조금 슬플 같네요.

 

Adam Grant: 저도 그래요. AI 소속감을 대체하기는 어렵다는 말씀이 맞고, 봇으로부터지위 얻기는 어렵죠. “내가 중요하다”, “멋지다”, “존중받는다같은 감정을 느끼려면 보통은 다른 인간의 눈과 귀가 필요하니까요.

 

Sam Altman: 저는 바로 말씀을 드리려 했어요. 저는 AI 우리보다 훨씬 능력 있고 놀라운 일들을 해내는 세상이 오리라 상상해봅니다. 세상을 상상해보면, 사람들이 여전히 다른 사람들에게 관심을 두고 있고, 서로의 상대적 지위나 이런유치한 게임들을 여전히 많이 생각하고 있을 같아요. 그런데 사람들이 AI 무슨 일을 해내는지, 능력과 자신을 비교하면서 괴로워하진 않을 같습니다.

 

Adam Grant: 제가 예전부터 궁금했던 하나가, 정보가 점점 경쟁적으로 제시되고, 팩트를 받아들이기가 어려워지는 세상에서, ‘설득 어떻게 변할까 하는 겁니다. 예를 들어 음모론(conspiracy theory) 관련된 데이터를 보면, 사람들은자신만이 아는 특별한 비밀 갖고 있다고 믿음으로써 특별해지고 중요해지는 느낌을 얻기도 하거든요. 물론 그게 전부는 아니지만, 음모론을 믿는 주된 이유 하나는 확실해요. 그러다 보니, 다른 사람이그건 잘못됐어라고 설득하려고 하면, 자신의 오류를 인정해야 하니 쉽지 않습니다.
그런데 흥미로운 최신 연구(코스텔로, 페니쿡, 랜드(Costello, Pennycook & Rand)) 보니, 채팅봇 AI 번의 대화만 해도, 심지어 달이 지난 뒤에도, 사람들이 가지고 있던 여러 음모론적 믿음을 많이 버리더라고요. AI 우선 상대방이 믿고 있는 잘못된 주장 하나를 겨냥해서 그걸 반박해주면, AI 제시하지 않은 다른 잘못된 믿음들까지도 버리는 현상이 나타난다는 거예요.
제가 생각하기에 이것이 통하는 이유 하나는, AI 사람이 그런 믿음을 갖게 되었는지, 특정한 이유를 들어주고 그에 맞춰 응답을 해주기 때문이고, 하나는기계 앞에서 내가 바보처럼 보이는 신경 쓴다라는 심리가 작용해서라고 봅니다. 사람들 20% 정도가 완전히 터무니없는 음모론적 믿음을 버렸고, AI 직접 겨냥하지 않은 다른 잘못된 믿음도 덩달아 버렸거든요. 이렇듯 AI 인해 사람들의 오해를 바로잡을 기회가 열렸다는 저는 엄청 흥미로워요. 물론 이게 선하게도, 악하게도 쓰일 있겠지만요. 부분에 대해서 어떻게 생각하시는지 궁금합니다.

 

Sam Altman: 세상에는 이런 능력을 가진 몇몇 인간이 있긴 하죠. 상대방의 사고를 확장시켜주고 시야를 넓혀주는 사람들요. 그런데 그렇게 있는 인간은 많지 않고, 사람들과 대화할 기회를 얻는 것도 쉽지 않습니다. 만약 우리가, ‘세상에서 가장 멋진 디너 파티 게스트같은 AI 만들 있다면, 모든 것에 대해 해박하고, 상대방에게도 관심을 보이고, 상대가 어디서 새로운 아이디어를 얻을 있을지 시간을 들여서 파악해주는 존재그건 굉장히 멋진 일이 거라고 봅니다. 그리고 역시 AI 대화하면서 실제 인간 전문가와 대화했을 때처럼 사고방식이 바뀌는 경험을 했어요. 물론 어딘가에는 그런 생각을 바꿔줄 있는 인간 전문가가 있었겠지만, 제가 바로 사람을 만나지는 못했을 테니까요.

 

Adam Grant: 그렇다면 자연스레할루시네이션(환각) 문제 정확성 문제에 대한 질문으로 이어지겠네요. 비전공자 입장에서 이게 이렇게 어려운 문제지?”라는 생각이 들어요. 컴퓨터 공학자가 아닌 사람도 이해할 있게 설명해주실 있을까요?

 

Sam Altman: . 많은 분들이 아직 GPT-3 시절, 그러니까 2021 무렵, ‘아주 오래전 옛날상태를 기준으로 생각하시는 같아요. 그땐 정말 됐었죠. 물론 지금의 ChatGPT 여전히 어느 정도 헛소리를 하긴 하지만, 그래도 견고하다는 점이 놀랍습니다.
모델들을과거에 봤던 모든 단어들을 바탕으로 다음 단어를 예측하도록학습시키는데, 학습 데이터 안에는 틀린 정보도 많습니다. 때로는 모델이 제대로 일반화(generalize)하지 못해서 오류를 내기도 해요. 모델에게너는 모르겠다고 말해야 확실히 그렇게 말하고, 너도 모르는 그냥 추측으로 지어내지 마라라고 가르치는 여전히 연구가 필요한 부분이지만, 많이 개선되고 있어요. 우리가 최근에 선보인 추론(reasoning) 모델들 덕분에 부분에서 진전을 봤습니다.

 

Adam Grant: 저도 ChatGPT 여러 버전으로 써보며 정보가 사실인지 확인해줄래요?” “정확한 답변인지 확인해주세요같은 프롬프트를 넣어봤어요. 이런 과정이 모델 내부에서 필수적인 단계가 되면 좋겠다는 생각이 들거든요. 그러면 앞으로 그런 쪽으로 나아가게 될까요?

 

Sam Altman: , 그건 분명히 프로세스 일부가 거예요. 그리고 외에도 정확도를 높일 여러 방법이 나올 텐데, 어쨌든 과정도 일부가 겁니다.

 

Adam Grant: 의학 쪽에서 나온 새로운 연구가 있는데, 지난 1~2년간 이런 종류의 비교 실험이 여러 있었습니다. 제가 이번 주에 보고 충격받았던 결과는, AI 단독 의사 단독을 비교하면 당연히 AI 승리하는데, 심지어 AI + 의사 팀보다도 AI 혼자일 진단 성능이 높다는 거예요. 의사들이 AI 보조를 받더라도, AI 의견이 다르면 결국 AI 무시해버리기 때문이죠.

 

Sam Altman: 역사적으로 비슷한 사례를 찾을 있어요. 처음에 AI 체스를 두기 시작했을 , 한때 인간이 뒀지만 AI 두게 되었고, 한동안은 AI + 인간 팀이 AI 혼자보다 뒀습니다. 서로 다른 관점을 보완해줬거든요. 그런데 어느 시점부터 AI 혼자서 AI+인간 팀보다 두기 시작했습니다. 인간이 괜히 AI 결정을 덮어쓰면서 실수를 범하기 때문이죠.
만약 당신이 “AI 제시하는 답을 무조건 덮어쓰는 자신의 역할이라고 생각한다면, 그건 결국 별로 도움이 됩니다. 다른 한편으로는, 인간과 AI 함께 일하는 최적의 방식이 아직 완전히 확립되지 않았기 때문이기도 해요. AI 사람 의사보다 나은 진단가(diagnostician) 가능성은 높고, 부분에 굳이 맞서 싸울 이유는 없어 보입니다. 하지만 환자들이사람 해주길 원하는 다른 많은 일들이 있고, 실제로 인간이 그런 일들을 훨씬 잘할 수도 있죠. 저는 점이 정말 중요하다고 봐요.
요즘 저도 이런 생각을 자주 해요. 아이가 태어나는데, 아이는 AI보다 똑똑해지는 경험을 절대 없을 겁니다. 그런 세상에서 자랄 거니까요. 아이가 살아갈 세상에선 AI 당연히 인간보다 똑똑하고, 인간이 못하는 일들을 있다는 기본값이 되겠죠. 그리고 어때?”라는 태도가 거예요. 아마 전환기를 사는 우리 입장에서만 이상하게 느껴지는 같습니다.

 

Adam Grant: 어떤 면에서는 그게 인간에게 겸손(humility) 부여하기 때문에 좋은 일이기도 하네요. 다른 한편으로는, 우리가 아직 도구들과 협력하는 방법을 익히지 못했고, 벌써부터 너무 의존하는 사람이 생겨나고 있다는 우려도 있습니다.

 

Sam Altman: 저도 단어를 철자법에 맞춰 힘들어요. 자동수정(autocorrect) 믿고 맡기니까요. 하지만 별로 신경 씁니다. 사실 이런 문제에 대해서는 항상도덕적 공황(moral panic)” 쉽게 일어나는 같아요. 사람들은 AI에게 글쓰기를 많이 의존하게 될지도 모르지만, 그게 미래의 방식이라면 어쩔 없죠.

 

Adam Grant: 학생들 중에 논문 ChatGPT 없이는 작업하기 싫어하는 애들이 보였어요. 러프 드래프트(초고) 쓰는 능력이 예전보다 녹슬었고, 페이지나 깜박이는 커서 앞에서 스스로 뭔가를 만들어내야 하는 과정을 기피하더라고요. 차라리 ChatGPT 문단을 만들어주면, 그걸 다듬는 식으로 작업하는 익숙해져버렸죠. 이런 의존도 증가를 어떻게 막을 있을까요? 아니면 그냥 그게 미래고 우리가 거기에 익숙해져야 할까요?

 

Sam Altman: 저는 그걸 막아야 한다고 확신하진 못하겠어요. 제게글쓰기 생각을 외주(outsourced)하는 과정이고, 매우 중요한 과정입니다. 다만 사람들이새로운 방식의 글쓰기 통해 나은 형태로 사고하는 법을 익힌다면, 전반적으로 좋은 방향이라고 봅니다.
제가 유명해지면서 아쉬운 하나는, 제가 모든 말을 완벽하게 표현하지 않으면, 이득도 없는데도 온갖 비난에 시달리는 상황이 생긴다는 겁니다. 그게 힘들죠.

 

Adam Grant: 그건 정말 특권을 잃는 부분이죠. 공개석상에서 자유롭게 아이디어를 시도해보고, 부분적으로 틀릴 수도 있고, 생각이 다듬어진 상태를 보여줄 수도 있었는데, 이제는 그걸 하기 어려워지니까요.

 

Sam Altman: 사실 대부분 틀리고, 그중 개나 괜찮은 아이디어가 있는 거죠.

 

Adam Grant: 그래도, 어떤 사람들은 적어도 당신이 그나마 자아 성찰을 하고, 스스로 통제하려고 애쓴다는 점에 감사해할 거예요. 전혀 자기 검열 없이 말하는 몇몇 사람들에 비하면 낫다고 생각하니까요.

 

Sam Altman: , 그건 다른 얘기죠. ‘사려 깊고 신중한 사람 되는 중요하다고 봅니다. 저도 많은 사람이 그렇게 했으면 좋겠어요.
제가 정말 우스꽝스럽다고 느끼는 이런 거예요. 흔한 작업흐름(workflow)인데, 누군가가 전하고자 하는 말의 요점을 대략불릿 포인트 정리해놓고, ChatGPT에게이걸 단락짜리 이메일로 예쁘게 만들어줘라고 시켜요. 그리고 이메일을 받은 사람은 다시 ChatGPT 이메일을 넣고, “여기에 담긴 주요 가지 요점을 알려줘라고 시키죠. 이렇게 왔다 갔다 하는 건데, 사실 이건 글쓰기나 커뮤니케이션의형식(formality)’ 남아 있는 vestigial(흔적기관) 같은 거라고 봐요. 대단한 가치가 있는 아니니까, 언젠가는 모두가 불릿 포인트로 서로 교환하는 새로운 소셜 노멀이 될지도 모르겠어요. 저는 그게 괜찮아 보입니다.

 

Adam Grant: 저도 워터마크(“ 메시지는 AI 생성한 것입니다같은 표시), 최소한 내부 기록 같은 있어서, ChatGPT이건 이미 내가 만든 문서예요. 그러니 상대에게불릿 포인트로 달라 해보세요. 그래야 효율적일 거예요라고 알려주면 좋겠다는 생각이 들어요. 사람들이 아직 도구에 적응하는 속도가 느려서 이런 일이 생기니까요. 물론 인간의 창의력도 재밌게 발휘되고 있어요. 제가 떠올리는 연구 하나는 샤론 파커(Sharon Parker) 동료들이 로보틱스 기술과 관련해 실시한 연구예요. 제조 회사에서 로봇이 인간의 일을 대체하기 시작하자, “이제 우리 일자리가 없어지면 어쩌지?”라고 공황에 빠지기보다는, 직원들 일부가로봇이 못하는 일을 우리 핵심 역량으로 삼자라고 생각해요. 로봇을 철저히 관찰해서얘들이 못하는 찾아내고, “좋아, 그건 우리가 하자. 거기에 의미가 있다라는 식으로 일을 재정의한 거죠.
다만 지금 우리가 무서워하는 , GPT-4.5 GPT-5(가칭) 같은 모델이 추론 능력에서 이미 놀라운 수준에 이르렀고, 작년에 우리를 차별화해줄 거라 믿었던 스킬들이 순식간에 쓸모 없어질지도 모른다는 거예요. 2023년에 사람들이 쓰던프롬프트 테크닉들은 이상 의미가 없어졌고, 다시는 필요 없을 수도 있죠. 그렇다면 50 , 100 , 1000 , 인간은 하게 될까요?

 

Sam Altman: 그건 아무도 모르죠. 다만 제겐 흥미로운 질문이지금 인간은 있는가?”예요. 여전히다른 사람들에게 유용한 존재가 되는 인간의 역할이라고 생각하고, 역할은 계속 이어지리라 봅니다.
예전에 누가( 부케(Paul Buhe)라고 하는 분이) 저한테 이런 얘기를 했었어요. “언젠가는 사람들만 쓰는인간의 기계가 쓰는기계의 완전히 별개의 통화가 되고, 서로 간에 가치 교환이 일어나지 않을 수도 있다라고요. 그걸 제가 문자 그대로 일어날 일이라고 보진 않지만, 굉장히 통찰력 있는 말이라고 생각합니다.

 

Adam Grant: 흥미롭네요. 저는 번도 기계가 자체 통화를 가진다는 생각을 해본 적이 없거든요.

 

Sam Altman: AI 모든 과학을 대신 발명해주고, 질병을 치료해주고, 핵융합을 가능하게 만들어주고, 우리가 상상도 불가능해 보이는 업적들을 달성해줬다고 칩시다. 그럼 우리는 분명히 흥분하고 기뻐하겠죠. 하지만 여러분이 AI 해낸 일에 관심을 기울이는 정도가, 친구나 지인이 , 혹은 어떤 사람이 회사에서 달성한 일에 관심을 기울이는 정도만큼 될까요? 글쎄요, 아마 그렇게 크진 않을 같습니다.

 

Adam Grant: 그렇죠.

 

Sam Altman: 물론 어쩌면 어떤 사람들은 그럴 있어요. 특정 AI 광적으로 추종하는, 특이한 컬트 같은 등장할 수도 있겠죠. 그런데 저는 우리가 여전히사람 초점을 맞춘다는 점을 보고 놀라게 거라고 확신합니다.

 

Adam Grant: 좋아요. 이제 번개 라운드(lightning round) 넘어가볼까 해요.

 

Sam Altman: 좋습니다. 이제 제가 GPT-4 모드가 되어야겠네요. O1 모드 말고요. 빠르게 답을 내놓아야 하는 상황이군요. 다음 토큰을 최대한 재빠르게 생각해내보겠습니다.

 

Adam Grant: 번째 질문입니다. 최근에 AI 관해서 재고(再考)하거나 생각이 바뀐 부분이 있다면 무엇인가요?

 

Sam Altman: 전과 비교했을 , ‘빠른 테이크오프(fast takeoff)’ 일어날 가능성이 높다고 생각하게 됐습니다.

 

Adam Grant: 어느 정도로 빠를까요?

 

Sam Altman: 판단하기는 어렵지만, 10년이 아니라 안에 벌어질 있다는 정도랄까요.

 

Adam Grant: 와우. 사람들이 AI 적응 과정에서 듣게 되는 조언 중에서, 당신이 보기엔 최악의 조언은 뭔가요?

 

Sam Altman: “AI 벽에 부딪힐 거야라는 말이요. 이건 정말 생각하기를 포기하고, 그냥 시야에서 치워두려는 태도니까요. 굉장히 게으른 태도라고 봅니다.

 

Adam Grant: 반대로, AI 세상에 적응하고 성공하기 위해 좋은 조언이 있다면 무엇일까요? 혹은 당신이 해주고 싶은 조언은?

 

Sam Altman: 굉장히 단순해 보이지만, 그냥도구를 사용해보라 겁니다. OpenAI 하는, 제가 정말 멋지다고 생각하는 하나는, 우리가 현재 알고 있는 세계에서 가장 강력한 모델—O1— 내놓았고, 누구든 20달러만 내면 있게 했어요. 20달러 내고 싶지 않으면, 여전히 좋은 모델을 무료로 수도 있죠. 세상에서 가장 유능한 모델에 일반인도 접근할 있도록 했다는 대단하다고 생각합니다. 그러니 실제로 써보고, 좋았던 , 싫었던 , 그리고 이게 어디까지 있을지 생각해보세요.

 

Adam Grant: AI 관련해서 당신이 갖고 있는 가장 강렬한 의견이나, 사람들이 동의하지 않는 의견은 뭔가요?

 

Sam Altman: 사람들이 예상하는 것만큼 대단한 일이 아닐 수도 있다는 점이에요. 적어도 단기적으로는요. 장기적으로는 뭐든 바뀌겠지만, 개인적으로는 우리가 AGI 출시해도 사람들이 생각만큼 대단히 신경 쓰지 않을 수도 있다고 봅니다.

 

Adam Grant: 테크 업계 사람들과 철학자들은 관심 갖겠지만, 집단 정도가 일관되게 반응하는 같아요.

 

Sam Altman: 맞아요. 그런데 사람들도 20 뒤엔오늘 저녁 먹지?” 하면서 다른 생각을 하겠죠.

 

Adam Grant: 제가 조직심리학자로서 궁금한 하나 있어요. 저에게 질문할 것이 있나요?

 

Sam Altman: , 그렇다면우리 회사(OpenAI) 지금 말도 되게 복잡하고, 슈퍼인텔리전스(super intelligence)로의 도약이 예상되는 상황 속에서, 우리 조직의 심리(collective psychology) 어떻게 관리하면 좋을까요? 슈퍼인텔리전스시나리오가 진행되면, 정말 말도 되게 압박과 스트레스를 받을 같은데, 그런 상황에서도 정신줄을 놓지 않으려면 어떻게 해야 할지요? 사실 지금도 어느 정도 ‘AGI 램프업(ramp-up)’ 구간에 있는 같아서 정신없고요. 앞으로 버거운 상황을 맞이하려면, 지금보다 훨씬 조직적 회복력(organizational resilience) 필요하다고 생각합니다.

 

Adam Grant: 조직적 회복력이라는 구체적으로 어떻게 구현되어야 한다고 보시나요? 사람들이 예상보다 스트레스를 받는 상태를 말하는 건지, 아니면 변화 속도가 빨라져도 유연하게 적응할 있는 의미하는 건지?

 

Sam Altman: 저는 엄청나게 이해관계와 불확실성이 공존하는 상황에서도 좋은 결정을 내릴 있어야 한다고 생각해요. , 현실에서 벌어지는 일과 우리가 취해야 하는 행동들이 워낙 빠르게 변할 테니, 그에 적응할 있어야 하고요.

 

Adam Grant: 제가 보기엔, 먼저 간단한 2×2 표를 그려서, OpenAI 모든 구성원이 자신의 결정을얼마나 중요한(High Stakes) 결정인가?” 결정을 되돌릴 있는가(Reversible), 없는가(Irreversible)?” 구분해보도록 하면 좋을 같아요. 결정의 영향력이 굉장히 크고, 되돌릴 없는 경우라면, 결정에 대해서는 시간을 충분히 두고 생각과 재고(再考) 필요가 있겠죠. 왜냐하면 그건 진짜 중요한 데다 내일 당장 바꿀 수가 없으니까요. 나머지 가지 경우, 영향력이 작거나, 혹은 되돌릴 있는 결정에서는 빠르게 움직이면서 실험하고, 유연하게 의심하고, 열린 태도를 유지해도 됩니다. 하지만높은 영향력 + 비가역적 선택지에 대해선 정말 신중해야 하고, 거기에야말로 최고의 사고와 프롬프트를 투입해야겠죠.

 

Sam Altman: 일리 있네요.

 

Adam Grant: 그래서 당신이 예전에 썼던 하나에 대해 물어보고 싶어요. ‘성공하는 관한 블로그 글이었는데

 

Sam Altman: , 옛날 얘기네요.

 

Adam Grant: , 오래됐죠.

 

Sam Altman: 내용은 지금 머릿속에 남아 있을 텐데요.

 

Adam Grant: 괜찮아요, 여기 제가 가지고 있습니다. 중에자기 확신(self-belief)” 부분이 특히 흥미로웠어요. 제가 당신의 글을 그대로 인용하자면, “자기 확신은 엄청난 힘을 갖는다. 제가 아는 가장 성공한 사람들은, 거의 망상(delusion) 가깝다고 정도로 자기 자신을 믿는다. 당신의 판단이 옳다는 뒷받침하는 데이터 포인트가 점점 쌓이고, 일관되게 결과를 있다는 점이 확인될수록, 스스로를 더욱 신뢰해라.” 이렇게 쓰셨습니다. 지금도 동의하시나요?

 

Sam Altman: , 아직도 어느 정도는 그렇다고 생각합니다. 저희가 OpenAI 시작할 , 외부에서는 엄청난 회의론을 보냈거든요. 시점이 우리가 내부적으로는 가장 강한 믿음을 가지고 있던 시기였어요. 저는 시기에 회사에 기여한 가장 중요한 요소가, “밖에선 우리가 하는 일을 부정적으로 보고, 터무니없다고 말해도, 사실 새로운 아이디어는 언제나 그런 식으로 맞닥뜨린다. 하지만 우리가 보여주는 진전이 엄청나다.”라는 메시지를 계속 상기시킨 것이었다고 생각해요. 물론 아직 초기 단계라서이게 계속 확장될 거다라는 믿음에는 어느 정도불신의 유보(suspend disbelief)’ 필요했지만, 그래도 실제로 계속 확장되고 있었으니까요.
그리고 지금은 너무나 자명해 보이죠. 하지만 그때 우리가 그걸 하지 않았다면, 오랜 기간 이뤄지지 못했을지도 모른다고 봅니다. 우리가 스스로를 너무나도 강하게 믿었기 때문에, 모두가저건 말도 라고 손가락질하던, GPT 모델을 스케일링하는 10 달러를 쏟아붓는 일을 있었던 겁니다.

 

Adam Grant: 말에 전부 동의해요. 그런데 동시에 조금 무섭기도 하죠. 왜냐하면 그런 자기 확신이 지나친 사람들은, 자기 전문 분야가 아닐 때도 맹신에 가까운 결정을 내리곤 하잖아요.
제가 수정해서 말하자면, “특정 분야에서 판단이 옳다는 데이터를 충분히 얻었을 , 분야에서는 스스로를 더욱 신뢰해라 낫지 않을까 싶어요.

 

Sam Altman: 맞아요, 맞아요.

 

Adam Grant: 분야에서의 성과가 좋다면 스스로를 신뢰해도 되지만

 

Sam Altman: 훨씬 나은 표현이네요. 물론 경험과 능력이 전혀 다른 분야로 확장되지 않는 아니지만, 너무 과도하게 확장하려 드는 경우가 많죠. “당신이 전문성을 가진 분야라고 말했어야 했을 같아요. 그런데 미묘한 점이 있는 , ‘새로운 시도해보는 중요하잖아요. 저도 6~7 전에는 투자자였지, AI 연구소 임원은 아니었으니까요.

 

Adam Grant: 환경이 안정적이냐 역동적이냐에 따라서도 달라지죠. 안정적인 환경에선, 직관(intuition) 기반한 판단이 만해요. 과거 데이터를 무의식적으로 내면화해왔기 때문에, 그게 앞으로도 유효하거든요. 반면에 아주 변화가 심한 환경이라면, 우리의직관 적용되지 않는 낡은 데이터에 기반해 있을 있죠.

 

Sam Altman: 그런 세상에선 더욱더, ‘내가 진짜로 믿는 핵심 원칙 집중하게 되는데, 그것이야말로 귀중해질 테니까요.

 

Adam Grant: 마지막으로 이야기하고 싶은 주제는윤리입니다. 당신이 부분에 대해 많이 고민하고, 발언해왔다는 알고 있어요. 사람들이 AI에게 어떤 종류의 판단도 위임하기 가장 꺼려하는 분야가 아마 윤리일 텐데

 

Sam Altman: 저도 그래요.

 

Adam Grant: 결국엔 부분에서 최종 결정은 인간이 해야 한다고 보거든요. 지금 저는 냉전 시절 억지력(Nuclear Deterrence) 메타포를 떠올리는 사람들이 많다는 느낍니다. “나쁜 세력보다 앞서가야 , 그래야 상호 확증 파괴(Mutually Assured Destruction) 상태가 되니까같은 이야기를 해요. 그런데 생각해보면, 무기 경쟁(arms race)이라는 은유는 여기 맞지 않는 , 많은 나쁜 세력들이 국가 단위가 아니라는 점이죠. 그들은 같은 수준의 리스크나 책임을 지지 않아요. 게다가, 국가 기관이 아니라 민간 기업에 의존하는 상황이 되니, 이건 훨씬 복잡해집니다. 이런 문제들을 어떻게 생각하고 계신지, 윤리와 안전 문제를 어떻게 접근하는지 궁금합니다.

 

Sam Altman: 우선, 저는 규칙을 정하는 반드시 인간이어야 한다고 생각해요. 그리고 AI 규칙을 따르도록 만들어야 합니다. 우리가 합의한 규칙을 AI 지키도록 하는 거죠. 번째로, 사람들은 역사를 인용하지 않고는 배긴다는 점은 이해하지만, 이전 사례들을 그대로 AI 가져다 쓰기는 한계가 크다고 봅니다.
그래서 저는, 가능하면 “AI 과거의 어떤 것과 어떻게 다르고, 지금 우리가 알고 있는 사실은 무엇인지 대해 토론하고, “앞으로 나올 상황에 맞는 새로운 제도(시스템) 어떻게 설계할지 집중했으면 좋겠습니다.
제가 정말 중요하게 생각하는 하나는, AI개인의 능력(individual ability)”이나개인의 의지(individual will)” 크게 높여주는 도구로서 배포하는 전략입니다. 지금 상황에서 방법이 가장 좋다고 봐요. 특정 회사나 적대 세력, 또는 개인 명이 AI 모든 힘을 독점하는 것보다는 훨씬 낫습니다. 물론, AI 정말 크게 자율적(agentic) 되는 시점이 오면 어떻게 될지, 저도 모릅니다. 예를 들어, “3시간 동안 코딩해라라는 임무가 아니라, “보통 대규모 조직이 수년간 해야 복잡한 작업을 AI 스스로 진행한다같은 일이 가능해진다면, 완전히 새로운 모델(방식) 마련해야 할지도 몰라요. 그땐 역사적 사례가 도움이 같습니다.

 

Adam Grant: 실제로 소프트웨어 세상에서도 역사적 선례가 도움이 되지 못했죠. 미국 안에서 강력한 기술은 대개 규제 대상이 되어왔는데, EU 의외로 잘할 수도 있겠다는 생각이 들면서도

 

Sam Altman: 저는 EU AI 규제 방식에 대해, 별로 도움이 된다고 봅니다. 예를 들어, 우리가 어떤 모델을 만들었을 , 그게 비록 아주 강력하지 않은 모델이라 할지라도, 미국에서는 상대적으로 빨리 출시할 있지만, 유럽에서는 규정상 절차 때문에 훨씬 나중에야 출시가 가능해요.
그렇다면 유럽이 항상 최신 기술에서 달씩 뒤처지게 되고, 이는 AI 대한 유창성, 경제성장, 이해도 모든 면에서 뒤떨어질 있죠. 규제 균형을 맞추기가 굉장히 까다로운 문제지만, 동시에 저는 분명 어느 정도 규제가 필요하다고 생각하긴 해요.

 

Adam Grant: 앞으로 10년쯤 내다봤을 , 당신이 가장 걱정하는 부분은 뭔가요?

 

Sam Altman: 변화 속도예요. 저는인간의 정신(정신력)’ 믿고, 어떤 문제든 해결해낼 거라고 보지만, 우리가 생각보다 빨리 많은 문제에 직면할 거라는 걱정스럽습니다.

 

Adam Grant: 윤리나 미래 영향에 대해 고민하다 보면, 디지털 기술이 당초 예상과 달리민주화(democratizing)’ 역할을 해온 사례들이 떠오릅니다. 불평등을 줄일 거라 믿었는데, 종종 반대였잖아요. 있는 사람들은 이런 기술에 먼저 접근해 부유해졌고요. 물론 O1 모델 같은 경우, 미국 기준으로는 저렴하다고 있지만, 여전히 접근성 격차가 존재한다고 생각해요. 어떻게 하면 이걸 바꿀 있을까요? 개발도상국에서 AI 선한 힘이 되려면 무엇이 필요할까요?

 

Sam Altman: 저희는지능(intelligence) 단위당 가격 매년 10 정도씩 떨어뜨려 왔습니다. 그걸 앞으로 얼마나 있을지는 모르겠지만, 오랫동안 그렇게 해왔고, 놀라울 정도로지능 가격이 싸졌다고 생각해요.

 

Adam Grant: 어떤 면에서 보면, 그게 다른 문제와 맞물리기도 해요. 지금 당장은 정말 강력한 모델을 만들 있는 주체가 정부나 대기업처럼 책임을 져야 하는 조직뿐이기에, 어느 정도 안심할 있는 면이 있지만, 앞으로 비용이 내려간다면

 

Sam Altman: , 훈련 비용은 아직은 그렇죠.

 

Adam Grant: 맞아요. 다만 활용(사용) 비용은 다른 문제죠. 지난 3년을 돌아보면 정말 엄청난 변화가 있었을 같아요.

 

Sam Altman: , 정말 이상한 시간이었어요.

 

Adam Grant: “ 이런 일을 계속하시는 거죠?”라는 질문을 있을 같은데요.

 

Sam Altman: 저는테크노 낙관주의자(techno optimist)’이자 과학 덕후(science nerd)입니다. 제가 상상할 있는 최고로 멋지고, 제가 일에 할애할 시간 중에 가장 가치 있는 방향이라 믿어요. 우리의 생애에서 가장 흥미롭고, 멋지고, 중요한 과학 혁명에 참여할 있다니, 이건 그대로 엄청난 특권이라고 생각합니다.
그리고 이건 개인적인 욕심을 넘어서, 제가 기여할 있는 범위 내에서과학적 진보(scientific progress)’ 이루는 것이 사회 발전에 필수라는 믿음도 있어요. 제가 기여할 있는혹은 제가 있는 모든 — AI 과학적 진보를 이끌어, 궁극적으로 우리 삶의 , 인간적 경험의 질을 가장 크게 높일 거라고 봅니다.
일을 하게 저에게 감사와 함께 느껴지는 어떤의무감(duty)’ 같은 것이기도 해요. 물론 부정적인 의미의 의무감이 아니라, “ 분야에 기여할 있다니 감사하다라는 긍정적 의미의 의무감이죠.

 

Adam Grant: 책임감(responsibility)이라고 부를 수도 있겠네요.

 

Sam Altman: 그렇죠.

 

Adam Grant: 아이가 태어난다고 하셨는데, 아버지가 사람으로서 다음 세대가 맞이하길 바라는 세상은 어떤 모습인가요?

 

Sam Altman: 제일 먼저 떠오르는 단어는풍요(abundance)’, 그다음은번영(prosperity)’이에요. 사람들이 많은 것을 있고, 각자 원하는 방식으로 보람되고, 나은 삶을 있는 세상이 되길 바랍니다. 아마 예비 아빠들은 비슷한 바람을 가져왔겠죠.
사실 저는 아이가 생기는 정말 너무 설레요. 물론아이 낳고 싶지 않은 사람은 낳지 않아도 된다 생각이지만, 사회가 유지되려면 누군가는 아이를 낳아야 하는 거니까요.

 

Adam Grant: 적어도 당분간은 그렇죠.

 

Sam Altman: 적어도 당분간은요.

 

Adam Grant: 오늘 대화를 통해, 당신이기술 아니라인간 대해서도 강한 믿음을 갖고 있다는 어느 때보다 분명하게 느낄 있었어요. 이게 어떤 면에선 위험한 입장일 수도 있죠. 소셜 미디어 사례를 봐도 있고요. 하지만 동시에, 기술을 만든다는 결국인간을 돌보고, 인간을 믿는 마음 필요하다는 뜻이기도 하니까요.

 

Sam Altman: , 저는 낙관적 성향이 있긴 해요. 물론 최대한 정확해지려고 노력하지만요. 만약 우리가 인간에 대해 지나치게 낙관적이라서, “사람들이 기술을 선의로 훨씬 많이 거다, 악의로는 거다라고 봤는데 결과가 반대로 나온다면, 그건 전략상의 결함일 겁니다. 하지만 저는 그렇게 거라고 생각하지 않아요.

 

Adam Grant: 저도 그러길 바랍니다. , 오늘 시간 내주셔서 정말 감사합니다. 많은 배웠고, 아주 즐거운 대화였어요.

 

Sam Altman: 불러주셔서 고맙습니다. 저도 재밌었습니다.

 

Adam Grant: 그랬나요? 판단은 청취자분들이 해주시면 되겠네요. 오늘 샘과의 대화에서 제가 가장 크게 얻은 교훈은, 기술적 진보는 막을 없을지 몰라도, 인간의 적응력 또한 그만큼 막강하다는 겁니다. 기계가 우리의 기술(skill) 대체할 있어도, 우리 존재의가치(value)’가치관(values)’까지 대체하진 못한다는 거죠.
여러분께서는 지금 “ReThinking” 듣고 계십니다. 저는 진행자 애덤 그랜트이고, 쇼는 TED Audio Collective 일부입니다. 오늘 에피소드는 Cosmic Standard 프로듀싱 믹싱을 맡았습니다. 프로듀서로는 Hannah Kingsley Ma Aja Simpson, 에디터는 Alejandra Salazar 수고해주셨고, 사실 검증은 Paul Durbin 담당했습니다. 음악은 Hans Dale Sue Allison Leighton Brown 작업했고, Eliza Smith, Jacob Winnick, Samaya Adams, Roxanne Hai Lash, Banban Cheng, Julia Dickerson, Whitney Pennington Rogers 등이 함께해주고 있습니다.

 

Sam Altman: 제게 도착하는 이메일 중에는솔직히 말하면, 이메일 쓰는 ChatGPT 도움을 받았습니다라고 고백하는 분들이 많아요. 제가 답장을 보낼 , “다음부턴 그런 하지 않으셔도 돼요. 오히려 차라리 불릿 포인트로만 보내주시면 좋겠어요라고 말씀드리죠. 그게 제가 이런불필요한 이메일 정중함 싸우는 작은 기여라고나 할까요.

 

Adam Grant: , 그러면 저쪽에서도 답장 역시 ChatGPT 썼습니다라고 하단에 각주를 수도 있겠네요.

 

Sam Altman: , 제가 정말로 ChatGPT 답장할 밝히긴 하는데, 보통은 그냥 두어 개의 불릿 포인트를 직접 써서 보내는 편이에요.