김재인 경희대 비교문화연구소 교수는 챗지피티의 ‘이해’와 인간의 ‘이해’가 다르다고 설명한다.ⓒ김흥구
김재인 경희대 비교문화연구소 교수는 챗지피티의 ‘이해’와 인간의 ‘이해’가 다르다고 설명한다.ⓒ김흥구

LLM(초거대 언어 모델)에 대한 자료를 읽다가 의문이 생겼다. 저자는 굳이 언급할 필요를 느끼지 못할 정도로 단순하고 기초적인 사안이지만, 이걸 모르면 그다음부터는 아무것도 이해할 수 없는 사안. 전체 맥락을 모르고 세부 사항만 열심히 외웠다면 절대 답할 수 없는 문제. 챗지피티에게 물어봤더니 친절하고 상세히 말해줬다. 만족스러운 답변이었다. ‘고맙다’는 인사를 전한 직후 또 다른 의문이 머리를 쳤다. “이 녀석, 내 질문을 ‘이해’하고 있는 거잖아!”

근대적 사고체계에서 ‘이해’는 인간만의 능력으로 인식된다. ‘인간은 이해한다’는 물론 ‘이해하는 것이 인간이다’란 명제도 성립될 수 있다. 인공지능이 ‘이해’한다면, 인간의 위상이 흔들린다. 철학자 김재인을 호출하도록 만든 의문이었다. 김재인은, 21세기 철학계에 엄청난 영향력을 미쳤지만 난해하기로 유명한 프랑스 철학자 질 들뢰즈와 펠릭스 가타리의 저서들(〈안티 오이디푸스〉 〈천 개의 고원〉)을 한국어로 처음 번역한 사람이다. 현재 경희대학교 비교문화연구소 학술연구교수로 일하고 있으며 〈인공지능의 시대, 인간을 다시 묻다〉 〈생각의 싸움〉 등을 썼다. 그의 연구실에서 만나 던진 첫 질문 “인공지능의 이해란 무엇인가”에, 김재인 교수는 다음과 같이 답변했다.

“챗봇인 챗지피티, 번역기 딥엘(DeepL) 등이 자신이 하는 일을 이해하고 있는지에 대한 물음인 것 같다. ‘인공지능이 이해하는가’를 판단하려면, 요약 능력을 봐야 한다. 어떤 글을 읽고 내용의 핵심을 추려내는 작업(요약)은, 그 글을 이해하지 못하면 할 수 없는 일이다. 요약할 수 있으려면 이해해야 한다.”


챗지피티를 시험해봤나?

숫자 데이터가 핵심인 경제나 스포츠 기사 등은 잘 요약한다. 해당 부문 기사들엔 특정한 패턴이 있고, 읽는 이들의 관심사도 확실히 정해져 있기 때문이라고 본다. 인공지능 입장에서는 그런 부분들을 잘 찾아내어 재구성하면 어느 정도 봐줄 만한 요약을 출력할 수 있다.

정형화된 틀을 가진 글에 대해선, 인공지능이 잘 요약한다는 말씀이다. 그렇다면 비정형적인 (반드시 그렇진 않겠지만) 철학 관련 텍스트도 챗지피티에 요약시켜 봤는지?

엉터리였다. 철학 백과사전에 이미 수록된 항목들을 나열하는 정도. 이런저런 철학자들의 이름과 저서, 관련 사건 등을 나열하는 수준이었다. (철학이라면 떠오르는) ‘생각 실험’과는 거리가 멀었다. 그건 요약이 아니다. 그래서 나는 챗지피티가 ‘이해한다’고 보지는 않는다. ‘패턴을 잘 찾아낼’ 뿐이다.

그러나 나는 챗지피티로부터 가르침을 얻었다고 생각했다.

공학 부문의 질문이니까 그렇게 느낄 수 있다. 인간 전문가들도 표현력이 약하다면 수리적인 내용을 말로 설명하는 것이 쉽지 않다. 챗지피티는 ‘말 만들기’에 특화된 모델이다. 정확한 수학적 내용이 뒷받침된 주제라면 인간보다 더 잘 설명할 여지가 충분히 있다고 본다.

한마디로 ‘인공지능이 이해한다’고 생각하지 않는다, 혹은 ‘인공지능의 이해’와 ‘인간의 이해’는 다르다고 보시는 듯하다. 그렇다면 ‘인간의 이해’란 무엇인가?

단적으로 말하자면 ‘눈치’다. 눈치를 알아채는 것, 그것을 ‘이해’라고 부른다.

‘이해’의 본래 뜻은, 대상의 ‘의미’를 안다는 것 아닌가?

그 말도 맞다. 다만 의미라는 것이 성립하려면, 두 개의 층을 거쳐야 한다고 본다.

그러더니 김재인 교수는 출입문 부근에 앉아 있던 조교에게 나직이 말했다. “방이 너무 덥지 않아요?” 조교는 출입문 옆에 있는 온도 조절기를 바라보았다. 다시 김 교수는 조교와 나에게 털어놓았다. “미안해요.” 그가 미안함을 느낀 이유는, 일종의 깜짝 실험을 했기 때문이다. 인터뷰 장소는 창가였다. 조절기는 출입문 부근이다. 이 같은 ‘상황’에서 창가의 사람이 ‘방이 덥다’고 말하는 것은 무엇을 ‘의미’할까?

조금 전에 내가 한 말은 단지 ‘덥다’는 정보만 전달한 것이 아니다. ‘조절기로 온도를 내려주면 고맙겠다’라는 부탁의 맥락까지 전달한 것이다. 조교는 그 말을 알아듣고 조절기를 쳐다봤다. ‘덥다’란 단어의 의미 자체엔 ‘온도 조절’ 같은 의미가 들어가 있지도 않은데 말이다. 그는 상황의 맥락을 이해해서 어떤 행동을 한 것이다. 말은 그 속에 있는 단어의 표면적 의미를 넘어 더 많은 의미를 전달한다. 다시 정리하자면, 의미는 두 개의 층을 거쳐 구성된다. 하나는 ‘직역 가능한 의미(덥다)’다. 그런데 말이 ‘인간적·사회적 의미(온도 조절 부탁)’까지 도달하려면 또 하나의 층을 통과해야 한다. 해당 단어들이 사용되는 맥락에 대한 ‘눈치’다. 인간은 두 개의 층을 동시에 포착할 수 있다. 인공지능은 그렇지 않다. 가끔 챗지피티가 ‘이상한 말’을 해서 놀림거리가 되는 이유는 상황의 맥락을 파악하는 능력, 즉 눈치가 없기 때문이다.

최근 인터넷 밈이 될 정도로 재미있는 사건이 발생했다. 어떤 유저가 챗지피티에게 “〈조선왕조실록〉에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘”라고 말했더니 다음과 같이 답변하더라는 것이다. “세종대왕의 맥북프로 던짐 사건은 〈조선왕조실록〉에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음(한글)의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다.”

챗지피티가 어처구니없는 거짓말을 했다.

그렇지 않다. 챗지피티는 거짓말을 한 것이 아니다. 틀린 이야기를 ‘지어냈을’ 뿐이다. 거짓말이란, 그렇게 말한 사람이 자기 속의 의도와 밖으로 내놓은 표현 사이의 괴리를 스스로 느낄 수 있는 경우를 뜻한다. (‘항상 정확하고 유용한 답변을 제공하는’ 것을 알고리즘으로 삼고 있는) 챗지피티의 경우, 의도와 내뱉은 답변 사이에 어떤 간격도 없다. 이에 비해 인간은 거짓말을 할 수 있고, 또 굉장히 잘한다. 어떻게 보면 거짓말은 인간의 어떤 폭넓은 능력이 발현되는 형태 중 하나로 볼 수도 있다.

거짓말도 아무나 할 수 있는 게 아니다?

인간은 거짓말을 할 때 ‘내가 거짓말을 하고 있다’라는 것을 안다. ‘내가 어떤지, 나 자신이 돌아볼’ 수 있는 능력이 바로 자의식이다. 거짓말을 못하는 인공지능에겐 자의식도 없다.

지난해 구글 엔지니어가 ‘람다(구글의 LLM)에 자의식이 있다’라는 주장으로 센세이션을 일으켰다. 심지어 그는 람다가 자기 권리를 위해 변호사 선임을 요청했다고 주장하기도 했다.

사람은 거짓말 외에도 잘하는 것이 있다. 자기 자신을 외부에 투사하는, 의인화다. 인간의 이런 속성은 선사시대의 동굴벽화, 고대 세계의 상징물과 율동 등에 남아서 지금까지 전해진다. 그 구글 엔지니어 역시 람다를 의인화한 것에 불과하다. 그가 람다에 푹 빠져 ‘인간 같다’고 생각한 것(의인화)은 지극히 인간적인 반응이다.

‘4차 산업혁명, 소피아에게 묻다’ 콘퍼런스에서 AI 로봇 ‘소피아’가 로봇의 기본 권리에 대해 연설하고 있다. ⓒ연합뉴스
‘4차 산업혁명, 소피아에게 묻다’ 콘퍼런스에서 AI 로봇 ‘소피아’가 로봇의 기본 권리에 대해 연설하고 있다. ⓒ연합뉴스

몇 년 전엔 휴머노이드 로봇 소피아가 엄청난 반향을 일으켰다. 지금은 잠잠하다. 어떻게 보면 람다의 자의식 소동이나 최근 챗지피티에 대한 열광도 같은 흐름이라고 할 수 있을까?

인간은 이야기를 꾸며내고 그걸 보면서 좋아하는 존재다. 의인화도 그런 사례다. 이런 특성들은 인간을 구성하는 중요한 요소다.

챗지피티, 미드저니 등 요즘 잘나가는 분야의 인공지능은 ‘생성AI’라 불린다. 생성은 뭔가 새로운 것을 만든다는 뜻이다. 그 인공지능 애플리케이션들이 하는 일이 ‘생성’ 맞나?

이른바 생성AI들이 하는 일은, 방대한 데이터 학습으로 패턴을 익힌 다음 사람의 요구에 따라 재구성하는 것이다. 엄밀히 말하자면 ‘생성’이라기보다 ‘기억의 인출과 재구성’이다. 그런데 이런 논리로 가다 보면, 인간이 생성하는 존재가 맞는지 여부도 모호해질 수 있다.

인간이 뭔가를 새롭게 만들어낸다는 것은 너무도 명백한 사실 아닌가?

반드시 그렇다고 볼 수는 없다. 인간이 새롭게 만들었다는 것들 역시 선대로부터 내려온 지식·정보·기술 등 ‘인류의 유산’을 기억해서 재구성한 것 아닌가? 이 유산을 ‘기억 저장소’라고 부를 수도 있겠다. 문제는, ‘기억의 인출과 재구성’에선 인공지능이 인간을 따라잡을 만큼 유능하다는 점이다. 직업 세계의 측면에서 보면, 상당수 직무들에서 인간이 더 이상 필요하지 않은 상태까지 갈지도 모르겠다는 우려가 들기도 한다.

인공지능이 인간보다 생성 측면에서 오히려 뛰어나다는 말인가?

그렇지 않다. 역사적으로 인간이 굉장히 잘해온 일이 있다. 조금 전에 말한 인류의 유산 혹은 기억 저장소에 새로운 것을 보태는 일이다. 인류는 돌도끼를 만든 이후 계속 새로운 것을 축적한 결과로 지금까지 왔다. 사람은 해당 시점의 지식·기술·노하우 등으로 형성된 체계의 경계를 무조건 벗어나려고 시도하는 존재다. 잠깐씩 외부로 나가 그곳의 뭔가 새로운 것을 경계 안으로 집어와서 유산에 보탠다. 프리드리히 니체의 표현을 빌리자면, 자기 자신(그동안 축적한 것의 총체)을 계속 넘어서려고 한다. 이것이 진정한 의미의 생성이고 창조다. 인공지능은 어느 정도 유산을 재활용할 수 있게 되었지만 인간과 달리 새로운 것을 찾지는 못한다. 인공지능은 자기 자신을 넘어설 수 없다.

챗지피티가 기반한 LLM(GPT3.5)의 업그레이드 버전인 GPT4가 나온다고 한다. GPT4 나아가 LLM이 어느 정도의 능력을 발휘할 것으로 보는가? (편집자 주:이 인터뷰는 GPT4가 발표된 3월14일 하루 전에 이루어졌다.)

“LLM에는 뚜렷한 한계가 있다. LLM의 학습 대상인 언어 자체에 한계가 있기 때문이다. LLM의 야망은 굉장히 크다. 언어를 정복하고, 이렇게 정복된 언어 안에 세상을 모두 담으려 한다. 그것이 멀티모달(multi-modal)이다. 세상 속에 존재하는 현상들을 최대한 언어로 끌어들이려는 작업이 현재 진행 중인 멀티모달이다.”(편집자 주:멀티모달은, 인공지능이 텍스트는 물론 음성·이미지·동영상 등 다양한 자료를 모두 이해‧생성할 수 있도록 만드는 흐름. 글을 입력하면 이미지나 동영상을 만들어주는 소프트웨어들이 이에 해당된다.)

독일의 철학자 프리드리히 니체(왼쪽)와 마르틴 하이데거.ⓒGoogle 갈무리
독일의 철학자 프리드리히 니체(왼쪽)와 마르틴 하이데거.ⓒGoogle 갈무리

언어 자체의 한계?

언어는 세계가 아니다. 세계에 존재하는 것 중엔 언어가 담지 못하는 부분이 무수히 많다. 반대로, 인간의 머릿속에 있지만 사실은 존재하지 않는 것(예컨대 상상의 괴수)들이 언어에는 꽤 많이 포함되어 있다. 마르틴 하이데거 같은 사람은 ‘언어는 존재의 집(인간의 존재가 언어에 의해 구축된다는 정도의 의미)’이라고 했지만, 사실 언어는 존재의 극히 일부분에 불과하다. 인간에겐, 언어가 닿지 않거나 언어화될 수 없는, 방대한 영역이 있다. LLM이 학습으로 언어의 패턴을 아무리 능숙히 파악해도, 언어 바깥에 존재하는 실제 세상에는 도달할 수 없다.

그 언어 바깥 영역의 사례로는 어떤 것이 있나?

우선 예술이 있다. 우리는 음악이나 그림을 감상할 때 그들로부터 ‘어떤 것’을 받는다. 당신은 이 ‘어떤 것’을 언어로 옮길 수 있나? 혹은 인공지능에 데이터로 입력할 수 있을까. 고작 해봤자 ‘정서적인 변화’ ‘느낌’ 같은 말로 에둘러 표현할 뿐이다. 언어 바깥 영역의 다른 사례는 ‘근접 감각’이다. 예컨대 시각(이미지)이나 청각(음성)은 상당 부분 디지털화되었다. 인간의 실제 지각 수준에 거의 가까이 왔다. 그러나 다른 감각들, 예컨대 촉각과 후각, 미각 등은 디지털화되기 어렵다. 특히 후각과 미각은 주관성이 너무 강하다. 같은 음식을 먹어도 사람에 따라 다른 맛을 느낀다.

GPT4를 너무 기대하지 말라는 이야기로도 들린다. 초거대 언어 모델 역시 ‘언어의 한계’를 벗어나지는 못할 것이므로.

멀티모달로 챗지피티의 성능을 다양화할 수는 있을 것이다(편집자 주:GPT4 기반 챗지피티는 텍스트뿐 아니라 이미지도 입력받아 유저의 다양한 요청을 수행할 수 있다). 그런데 기존 챗지피티의 성능을 훨씬 뛰어넘어 사람들을 놀라게 하기는 어려울 것이다. 지금 수준으로도 발전의 거의 극한에 도달한 것 아닐까. GPT4의 위력이 제대로 나타날 영역은 B2C(기업 대 소비자)가 아니라 B2B(기업 간의 거래)다. 대기업들이 LLM에 업무 관련 데이터와 노하우를 학습시키면 입사 1~3년 차 직원들의 업무까지는 대체할 수 있을 것으로 본다. 마이크로소프트(GPT 시리즈를 출시한 오픈AI의 대주주)만 해도 월 2만원씩 받는 챗봇 서비스엔 관심이 크지 않다. 오히려 B2B 점령이 마이크로소프트(MS)의 목표로 보인다. 대기업발 노동문제가 심각해질 수 있다는 이야기다.

MS 측은 챗지피티를 일종의 ‘간보기’로 활용하는 듯하다.

챗지피티는 LLM에 대한 대중적 기대를 확산시키기에 안성맞춤이었다. 이로 인한 대중적 열광으로 B2B 차원에서 다른 기업과 거래할 때 협상력을 키울 수도 있다.

철학자 김재인은 디지털화되기 힘든 ‘근접 감각’과 관련된 영역이 더 가치 있는 대상으로 부상할 것이라 예측했다. 사진은 구글 데이터 센터의 모습.ⓒEPA
철학자 김재인은 디지털화되기 힘든 ‘근접 감각’과 관련된 영역이 더 가치 있는 대상으로 부상할 것이라 예측했다. 사진은 구글 데이터 센터의 모습.ⓒEPA

말씀대로라면, ‘인공지능이 세계를 모두 담을 수 있느냐’ 여부와 무관하게, 인류는 지금 엄청난 변화의 시기를 맞고 있는 듯하다.

일단 인류가 인공지능, 나아가 디지털 기술과 함께 새로운 국면에 접어들었다는 것을 인정해야 한다. 예컨대 디지털 측면에서 먼저 상품‧서비스에 대한 설계와 구성이 완료된 뒤에, 필요한 경우 바깥의 ‘물리적 세계’로 내보내는 ‘디지털 퍼스트’가 구현되고 있다. 나의 표현을 사용하자면, 물리적 세계(아톰 세계)가 디지털 세계(비트 세계)에 선행하던 ‘아톰 퍼스트’가 어느새 ‘디지털 퍼스트’로 전복되는 중이다. 세계의 존재 방식이 바뀌고 있다.

인공지능에 대한 이야기는 결국 인간에 대한 이야기로 이어지는 것 같다. ‘디지털 퍼스트’의 시대에 ‘인간스러움’은 어떤 것일까.

디지털화될 수 있는 인간의 경험들은 거의 모두 디지털 영역으로 넘어가게 될 것으로 본다. 그렇다면 남는 것은 무엇일까? 결국 몸이다. 아까 이야기한 디지털화되기 힘든 ‘근접 감각’과 관련된 영역들이 더 가치 있고 더 소중히 여겨져야 할 대상으로 부상할 것이다. 인간과 기계의 어떤 결합이 바람직할지는, 지금 당장 말할 수 있는 단계가 아니다. 지금과 앞으로의 진행 양상을 좀 더 확인하고 관찰하며 지향점을 만들어나갈 수밖에 없다.

기자명 이종태 기자 다른기사 보기 peeker@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사