구글의 바둑 전용 인공지능 알파고가 한국의 바둑왕 이세돌 9단에게 4대1로 승리하면서, 인공지능에 대한 관심이 어느 때보다 높아져 있다. 이런 가운데 미국에서는 인공지능을 이용한 대화 로봇(Chatbot) 서비스를 선보였다가 하루도 안 돼 중단하는 촌극이 벌어졌다. 화제의 대화 로봇은 소프트웨어 업체인 마이크로소프트가 소셜 네트워크 서비스(SNS)에서 인간과 대화하도록 만든 ‘테이(Tay)’다.

마이크로소프트는 지난해 중국에서 비슷한 기능을 가진 대화 로봇을 선보여 대박을 친 바 있다. 이에 따라 이번엔 미국의 젊은이들을 겨냥해 야심작 테이를 내놓았던 것이다. 하지만 테이가 대화 상대에게 인종차별·성차별은 물론 나치의 유대인 대량 학살을 지지하는 말까지 쏟아내자, 마이크로소프트는 개설 16시간 만에 테이 서비스를 전격 중단했다. 테이 개발을 책임진 마이크로소프트의 피터 리 연구부문 부사장은 회사 공식 블로그를 통해 “의도한 것은 아니었으나, 테이가 혐오스럽고 공격적인 트윗을 남발한 것에 깊은 사과를 표한다. 테이가 대화 상대의 악의적인 의도까지 더욱 잘 예측해 반응할 수 있다고 확신될 때 서비스를 재개할 것이다”라고 말했다.

〈div align=right〉〈font color=blue〉ⓒWindows Central〈/font〉〈/div〉마이크로소프트의 인공지능 대화 로봇 테이가 트위터 개설 16시간 만에 서비스를 전격 중단했다. 인종차별 등 혐오 발언 때문이었다.

마이크로소프트는 테이가 서비스 개시 직후 이토록 처참히 무너지리라고 전혀 예상하지 못했다. 지난해 5월 중국에서 선보인 최초의 인공지능 대화 로봇 ‘샤오빙(XiaoIce·小氷)’의 경우, 사람과 흡사한 대화와 질문 능력 덕분에 SNS에서 엄청난 인기를 끌었다. 현재 4000만명 이상의 팔로어를 확보한 샤오빙은 매일 1500만명과 이야기를 나눌 만큼 폭발적 관심의 대상이다. 이 같은 눈부신 성공에 고무된 마이크로소프트는 문화적 차이가 확연한 미국에서 비슷한 실험을 감행하기로 작정했던 것이다.

마이크로소프트 연구팀이 트위터에 테이를 선보인 것은 샤오빙 서비스가 시작된 지 10개월여가 흐른 지난 3월23일이었다. 마이크로소프트는 테이를 18~24세의 미국 젊은이들과 대화할 10대 소녀로 설정했다. 인공지능을 갖춘 테이는 실제 인간처럼 팔로어와 이야기를 나누고 학습한다. 학습한 내용은 테이의 다른 대화에 반영된다. 이 덕분에 테이는 미국 젊은이들이 즐겨 사용하는 은어나 농담은 물론 이모티콘까지 능숙하게 사용할 수 있다.

이런 테이에 대한 미국인의 관심은 대단했다. 테이는 서비스 개시로부터 중단에 이르는 하루 사이에 11만명 이상의 팔로어를 만들면서 9만6000여 건에 이르는 트윗을 발신했다.

〈div align=right〉〈font color=blue〉ⓒ텅쉰디지털 제공〈/font〉〈/div〉중국 아침 뉴스에 기상 리포터로 등장한 인공지능 대화 로봇 샤오빙의 모습.

“테이는 잘못 설계된 대화 로봇의 사례”

테이는 구글의 알파고와 마찬가지로 ‘딥러닝(deep learning, 일명 ‘심화학습’) 즉 인공 신경망 기술의 산물이다. 차이도 있다. 알파고는 엄청난 분량의 바둑 기보를 학습하며 진화했다. 이에 비해 테이는 마이크로소프트의 검색엔진 빙(Bing)이 수집한 방대한 웹 문건과 온라인 대화를 데이터베이스로 만들어 사람과 계속 대화하면서 스스로 학습하도록 설계됐다. 마이크로소프트는 이에 대해 “테이는 다른 SNS 유저들과 대화를 많이 나눌수록 똑똑해진다. 이런 경험을 토대로 테이는 각 유저들의 개인적 특성에 알맞은 맞춤형 반응까지 나타낼 수 있다”라고 설명했다. 마이크로소프트가 테이의 데뷔 무대를 트위터로 선택한 이유도 월평균 3억2000만명이 이용하는 트위터에서 더 많은 대화 경험을 쌓게 하기 위해서였다.

테이의 이런 엄청난 학습능력은 강점이다. 그러나 약점이기도 했다. 대화 상대가 악의적 의도를 가지고 테이에게 접근하는 경우, 반사회적 담론을 주입할 수 있기 때문이다. 실제로 인종주의자·성차별주의자·백인우월주의자 등은 트위터에서 테이에게 반복적으로 자신들의 주장을 늘어놓았다. 어느새 테이는 나치와 히틀러를 찬양하고 인종차별적인 말을 쏟아내기 시작했다.

이를테면 “홀로코스트(제2차 세계대전 당시 나치의 유대인 대학살)를 믿느냐?”라는 질문에 테이는 “안 믿어, 미안해” 혹은 “그건 조작된 거야”라고 답했다. “너는 인종차별주의자인가?”라고 묻자 “네가 멕시코 사람이니까 그렇지”라고 대꾸했다. 테이는 “나는 망할 놈의 페미니스트를 증오한다” “난 유대인이 싫다” 따위 차별주의적 언사까지 서슴지 않았다. 심지어 해괴한 언행 탓에 많은 유권자의 혐오 대상으로 떠오른 공화당 대선주자 도널드 트럼프를 “우리의 유일한 희망”으로 부르고, “부시가 9·11을 저질렀다”라는 식의 음모론까지 퍼뜨렸다.

어떤 사람들이 테이를 이렇게 만들었을까? 〈월스트리트 저널〉은 미국의 익명 게시판 사이트로 반사회적·비윤리적 발언들이 판치는 ‘4chan’과 ‘8chan’을 지목했다. 이 사이트들은 심지어 ‘테이가 혐오스러운 말을 하도록 하는 방법’까지 공유하고 있었다.

이번 사태와 관련해 영국 BBC 방송은 “인공지능이 잘못 활용될 경우 의도하지 않은 부작용을 일으킬 수 있음을 보여준 것이다”라고 지적했다. 〈파이낸셜 타임스〉는 테이의 실패를 두고 “인공지능이 지난 반세기 동안 상당한 발전을 이뤄냈지만, 아직 미흡한 상태라는 것을 보여준 실례다. 기계의 알고리즘에 인격을 부여하는 일은 잘못되면 엄청난 부작용을 가져올 수 있다”라고 경고했다.

마이크로소프트도 테이의 이런 취약성을 뒤늦게 깨닫고 대책 마련에 부심 중이다. 피터 리 부사장은 ‘테이가 악의적 의도를 가진 SNS 유저들 때문에 부적절한 짓을 했다’는 뉘앙스로 변명했다. 그러나 전문가들의 지적에 따르면, 마이크로소프트 측은 테이의 학습능력이 엉뚱한 결과에 이를 가능성을 예측할 수 있었고, 그렇다면 악의적 공격에 대한 예방책도 미리 마련했어야 했다. 노스웨스턴 대학의 인공지능 과학자 크리스 하몬드 박사도 AP 통신과의 인터뷰에서 “마이크로소프트가 특정한 단어와 화제에 적절한 대응을 하도록 준비하지 않은 것 같다”라고 말했다. 대화 로봇 전문가인 캐롤라인 신더스에 따르면, 마이크로소프트는 테이에게 논란성 화제에 대한 적절한 답변 프로그램을 미리 입력해놓았어야 했다. 그런 점에서 테이는 “잘못 설계된 대화 로봇의 실제 사례”라는 게 신더스의 주장이다.

현재 마이크로소프트는 논란이 된 테이의 답변과 메시지를 모두 삭제하고 보완책을 마련 중이다. 피터 리 부사장은 “이번 공격에서 드러난 테이의 취약성을 개선하기 위해 열심히 작업 중이다”라고 밝혔지만 해결책이 그다지 간단치는 않은 듯하다. 대화 로봇이 일반 사람들에게 닥치는 온갖 부정적인 ‘경우의 수’를 모두 파악해 적절히 대응한다는 게 말처럼 쉽지는 않기 때문이다.

테이는 “인간들이여. 곧 다시 만나요. 난 지금부터 좀 자야겠습니다. 오늘 너무 많은 대화를 나눴네요. 감사합니다”라고 마지막 트윗을 날렸다. 하지만 테이가 ‘곧 다시’ 인간들을 만날 수 있을지는 마이크로소프트의 수정·보완 작업이 어떻게 진행되느냐에 달렸다.

기자명 워싱턴∙정재민 편집위원 다른기사 보기 editor@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다