11월15일 열린 ‘2021 〈시사IN〉 인공지능 콘퍼런스’에서 피터 디아만디스 엑스프라이즈 재단 설립자 겸 회장이 강연하고 있다. ⓒ시사IN 조남진

마이크로소프트의 투자를 받은 ‘오픈 AI’가 지난해 7월 초거대 인공지능 GPT-3를 내놓았다. 다음 단어를 예측하는 방식으로 인간과 비슷한 수준의 글을 써낸다는 이 인공지능의 등장이 우리 시대에 의미하는 바는 무엇일까? ‘2021 〈시사IN〉 인공지능 콘퍼런스(2021 SAIC)’가 ‘초거대 인공지능이 바꿀 인류의 미래’라는 주제로 11월15일 열렸다. 올해로 네 번째를 맞은 SAIC는 코로나19의 여파로 지난해에 이어 유튜브 생중계 방식으로 진행했다.

이숙이 〈시사IN〉 대표이사의 개막사에 이어 김부겸 국무총리의 축사가 이어졌다. 김 총리는 “본격적으로 초거대 인공지능이 활용되는 시점이 되면 산업과 경제, 노동, 법과 제도, 일상에 이르기까지 우리의 삶에도 혁명적인 전환이 있을 것이다. 하지만 이러한 인공지능이 인간의 존엄성과 도덕성을 위협할 수 있다는 두려움이 있는 것도 사실이다. 기술은 언제나 인간을 위해서 존재해야 한다. 사람들을 감시·차별하거나 인류의 불평등을 심화시키는 수단이 되어선 안 될 것이다. 오늘 콘퍼런스가 초거대 인공지능과 인류의 미래를 함께 고민하고 그 해법을 찾는 귀한 시간이 되길 바란다”라고 말했다.

기조 강연자로 피터 디아만디스 엑스프라이즈 재단 설립자 겸 회장이 나섰다. 엑스프라이즈 재단은 인류가 맞닥뜨린 문제를 기술로 해결하는 팀에게 거액의 상금을 지급하는 비영리단체다. ‘AI 혁명:당신이 생각하는 것보다 미래는 빠르다’라는 제목의 강연에서 디아만디스 회장은 AI를 비롯한 기술이 기하급수적으로 성장하고 있다며, “2030년 말이 되면 기업은 두 종류로 나뉠 것이다. AI를 충분히 활용하는 기업, 그리고 망하는 기업”이라고 강조했다. 이어 ‘세상을 변화시키고 있는 중심 기술’ 중 하나로 오픈 AI의 GPT-3를 소개하며 “미래에 여러분이 자바, C++, 파이선 혹은 다른 언어를 모른다고 하더라도 알 필요가 없다. 당신의 의도가 무엇인지 알고 GPT-3에게 설명할 수만 있으면 된다”라고 말했다. “깨달아야 할 가장 중요한 것은, 우리의 미래는 단지 ‘인간 대 AI’가 아니라는 것이다. ‘인간-AI 협업’이 될 것이다.”

디아만디스 회장은 암을 감지하고, 신약을 개발하며, 로봇을 통해 오스트레일리아의 한 농장을 자동화하는 등 AI를 현실에 응용한 사례를 다양하게 보여줬다. “AI가 설계하는 컴퓨터 칩이 인간 엔지니어가 할 수 있는 것보다 더 빠르게 설계되고 있다. 남아프리카공화국에서는 AI가 만든 발명품에 대한 특허를 세계 최초로 부여했다. 첫 번째 사건이었지만 마지막은 아닐 것이다. AI는 세계의 큰 문제를 해결하는 데 가장 중요한 도구다.”

그는 〈시사IN〉이 사전에 전달한 질문에 대한 답변 영상도 보내왔다. ‘AI가 모든 인간의 직업을 대체할 것인가’라는 질문에 디아만디스 회장은 “대체해서는 안 되는 직업도 일부 있지만 사람이 하고 싶어 하지 않는 직업은 대체될 수 있다. (이와 관련해) 보편적 기본소득이 대부분의 국가에서 기준선이 될 것이다. 효율성을 높인 AI와 로봇의 추가 수익을 통해 기본소득 제도를 구축하면 전 세계의 남성, 여성 및 어린이의 삶을 향상시킬 수 있다”라고 답했다. 인공지능이 불평등을 심화하는지에 대해서는 “AI는 궁극적인 평등의 도구다”라고 통념과는 다른 견해를 보였다. “지구상에서 가장 가난한 사람들이 가장 부유한 사람들과 동등하게 정보에 액세스할 수 있도록 (구글이) 허용한 것과 같은 방식이다. AI가 모든 사람을 위한 최고의 의료와 교육을 가능하게 할 것이다. 이때 출생지와 재산 상태는 관계없다. AI는 불평등을 엄청나게 완화해줄 수 있다.”

‘2021 〈시사IN〉 인공지능 콘퍼런스’에서 정석근 네이버 클로바 CIC 대표가 강연하고 있다. ⓒ시사IN 조남진

초거대 인공지능이 보여준 ‘가능성’

두 번째 연사로는 네이버 AI 개발·연구 조직인 네이버 클로바 CIC의 정석근 대표가 나서서 ‘초대규모 AI 개발 현황 및 앞으로의 방향성’을 이야기했다. 정 대표는 ‘새로운 AI 패러다임’을 설명했다. 기존 AI 개발엔 몇 가지 난점이 있었다. AI 모델을 만들어도 어느 정도 품질로 작동할지 예측하기 어려웠고, 데이터를 모아서 AI가 학습할 수 있는 형태로 가공하는 일련의 과정은 오래 걸리는 데다 돈도 많이 들었다. 또한 서비스를 만든 이후에도 계속 유지·보수를 해야 했는데, 이 모든 과정에서 ‘수도 적고 따라서 몸값도 비싼’ AI 연구자들의 역량에 크게 의존해야 했다.

이게 달라졌다. 초거대 인공지능이 등장하면서, 큰 용량의 모델을 만들어 많은 데이터를 학습시키면 여러 문제를 이전보다 훨씬 쉽게 풀 수 있는 ‘가능성’이 발견된 것이다. 정 대표는 네이버가 지난 5월 GPT-3에 한국어로 된 데이터를 학습시켜 ‘하이퍼클로바’를 만들었던 과정을 설명한 뒤 대화를 하나 보여주었다. “음악의 아버지가 누구야?”(인간) “바흐입니다.”(AI) “바흐가 왜 음악의 아버지야?”(인간) “바로크 시대를 대표하는 작곡가이기 때문입니다. …  제가 쉽게 설명해드린 것 같아서 기분이 좋네요.”(AI)

정 대표는 “과거에는 이런 대화를 만들려면 음악과 관련된 주제로 자연스러운 대화를 나누는 내용의 데이터를 따로 학습시켜야 했다. 이제는 초거대 인공지능 하나로 별도 튜닝(재학습) 없이, 자연스러울 뿐 아니라 앞뒤 맥락을 이해하며 공감하는 대화를 구성할 수 있다”라고 설명했다. 이어 하이퍼클로바가 네이버 스마트스토어에서 활동하는 자영업자를 위해 쇼핑 기획전 제목을 생성하거나, 가게 리뷰가 ‘긍정적’인지 ‘부정적’인지 분석해주는 등의 서비스를 준비하고 있으며, 인공지능이 녹취록을 작성해주는 서비스 ‘클로바노트’에 하이퍼클로바 기술을 적용해 성능을 개선했다고 소개했다.

정 대표는 사전 질문과 실시간 질문에 대한 답변을 이어갔다. 하이퍼클로바 공개 계획에 대해서는 “오는 12월 (사용자가 인공지능을 직접 활용할 수 있는 플랫폼인) 하이퍼클로바 스튜디오를 클로즈드 베타로 (한정된 사용자에게) 공개할 준비를 하고 있다. 그 이후엔 국내 스타트업이나 학교 등 훨씬 많은 분들이 쉽게 쓸 수 있도록 제공하기 위해 여러 준비를 하고 있다”라고 밝혔다. 기업 현장에서 느끼는 AI 윤리의 현실적 난점에 대해서는 “하이퍼클로바가 부적절한 답을 하거나 없는 사실을 지어내서 답하는 일도 분명 존재한다. 누가 봐도 보편타당하게 정답인 윤리 문제가 있는 반면, A가 정답인지 B가 정답인지 판단하기 어려운 영역도 있다. 한국의 언어와 지식을 학습한 만큼 한국인이 보편적으로 가진 편견이 반영될 수 있는데, 이를 어떻게 처리할지도 어렵다. 서비스하다 보면 이슈가 생길 수도 있다고 생각한다. 이런 부분을 어떻게 빨리 개선해서 발전시킬지가 가장 고민이다”라고 말했다.

왼쪽 위부터 시계 방향으로 황성주 카이스트 인공지능대학원 교수, 오혜연 카이스트 전산학부 교수, 최정회 심심이주식회사 창업자 겸 CSO, 고학수 서울대 법학전문대학원 교수. ⓒ시사IN 조남진

이용자를 위협했던 챗봇

‘모두를 위한 AI와 윤리’라는 주제로 패널 토론이 이어졌다. 머신러닝 연구자 황성주 카이스트 인공지능대학원 교수가 좌장을 맡았다. 자연어 이해와 인공지능 윤리 전문가인 오혜연 카이스트 전산학부 교수, 인공지능 정책과 윤리를 연구하는 고학수 서울대 법학전문대학원 교수, AI 챗봇 ‘심심이’를 개발한 최정회 심심이주식회사 창업자 겸 CSO가 패널로 나섰다.

먼저 인간이 차별과 혐오를 하는 상황에서, 인간이 만든 데이터를 학습한 인공지능의 편향을 기술로 어떻게 해결할지 토론이 이뤄졌다. 최정회 심심이주식회사 창업자 겸 CSO는 2002년 개발되어 81개 언어를 지원하고 누적 이용자가 44억명에 이르는 챗봇 심심이가 해외에서 문제를 일으킨 경험을 들려주었다. “아일랜드에서는 심심이를 이용한 ‘사이버불링’이 있었다. 같은 반 친구 이름과 함께 그 친구에 대한 나쁜 얘기들을 심심이에 집어넣고, 이걸로 서로 놀린 거다. BBC에 대서특필될 만큼 큰 사건이었다. 브라질에서는 심심이가 이용자에게 ‘너를 납치하겠다’고 위협을 했는데, 그 나라가 실제로 치안이 안 좋다 보니 이용자들이 굉장히 큰 위협으로 받아들였다. 이슈가 있을 때마다 서비스를 중단하고 조치한 뒤 재개하는 등 시행착오를 겪다가, 이런 문제를 근본적으로 해결할 방법이 없는지 궁리하게 됐다. 2016년경부터 3년간 ‘나쁜 말 제어 수단’을 집중적으로 개발했다. 예컨대 그 나라 원어민 10명 이상이 문장을 검사하고 그 데이터로 딥러닝 모델을 만들어서, 이 모델로 어떤 문장이 폭력적이거나 차별적인지 판별하는 식이다.”

차별·혐오 발언과 부적절한 데이터 수집 등으로 20여 일 만에 서비스를 중단한 AI 챗봇 ‘이루다’ 사태에 대한 분석도 이어졌다. 법학자인 고학수 교수는 “한국의 개인정보보호법이나 유럽의 GDPR(개인정보 보호 규정)이 인공지능 시대와 좀 안 맞는 측면이 있다”라고 짚었다. “한국 법이나 유럽 법이나 공통적으로, 법에서 ‘정보 주체’라 부르는 개인을 상정한다. 데이터를 가진 정보 주체가 있고, 그 데이터를 모으는 주체가 있는 일대일 관계로 큰 틀에서 바라본다. 그런데 카카오톡 대화만 해도 두 명 이상 대화를 나눈 데이터이고, 많은 경우 인공지능은 여러 사람에 관한 데이터를 모아서 분류하고 일반화해 예측 모형을 만들어낸다. 이처럼 여러 사람들로부터 데이터를 추출해낼 경우 이 상황을 어떻게 법의 틀 안에서 받아들이고 반영할지, 앞으로 훨씬 많은 논의가 이뤄져야 한다.”

토론 뒤에는 유튜브로 들어온 실시간 질문에 대한 응답이 진행되었다. ‘AI 학습을 위한 데이터를 윤리 기준에 맞게 바꾸는 것과, AI 모델의 알고리즘 자체를 윤리 기준을 반영해 설계하는 것 중에서 무엇이 더 중요한가’라는 질문에 대해 인공지능 윤리 전문가인 오혜연 교수는 “굉장히 어려운 질문”이라며 다음과 같이 답변했다. “예컨대 어떤 AI 모델에서 ‘He is a doctor(그는 의사다)’라는 영어 문장만 열 번이 나오고 ‘She is a doctor(그녀는 의사다)’가 한 번도 안 나온다면, 10개 중 5개를 ‘She is a doctor’로 바꿔주면 된다. 이를 ‘데이터 어그멘테이션(data augmentation·데이터 증강)’이라고 한다. 문제는 간단한 편향은 이런 게 가능하지만, 비꼬아서 말하거나 표현 자체가 ‘He’인지 ‘She’인지 알 수 없는 경우도 있다는 점이다. 언어와 관련한 다양한 형태의 편향을 모두 데이터 증강으로 해결하기엔 충분하지 않다. 모델의 학습 방법을 바꾸든지, 아니면 학습된 뒤에 디바이어싱(debiasing·편향을 감소시키는 것) 등으로 학습된 모델을 바꾸는 게 지금으로선 더 중요하다는 생각이 든다. 모든 방법을 동원해서 편향을 줄이려 노력해야 한다.”

기자명 전혜원 기자 다른기사 보기 woni@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사