얼마 전부터 아이는 광활한 인터넷 세계에 발을 들이기 시작했다. 가끔 인터넷 밈을 쓰더니 언젠가는 갑작스레 거리 한복판에서 ‘제로투 댄스’를 췄다. 깜짝 놀라 저지시키자 아이가 물었다. “이 춤은 안 돼? 어떤 춤을 춰도 되는 거야?” 고민하다가 아이에게 제로투 댄스처럼 몸매를 부각시키는 춤은 가급적 공공장소에서 추지 말 것을 부탁했다. 아이도 그 후로 몇 차례 질문을 이어가며 나름의 원칙을 쌓아나가는 듯 보였다.
사람들은 윤리를 상호작용하며 학습한다. 무엇이 옳고 그른지, 언제 무엇을 했을 때 적절한지 또는 그렇지 않은지. 이는 어린이에게만 해당되는 이야기가 아니다. 우리는 이미 높은 권력과 지위를 지닌 사람들이 그릇된 말이나 행동을 스스럼없이 하는 걸 여러 번 목도해왔다. 알면서 그러는 경우도 있겠지만, 그 행동이 틀렸다고 교정해주거나 의견을 주는 이가 없기 때문에 자신이 옳다고 생각하며 계속 그렇게 행동한다. 상호작용이 무너진 사람의 윤리는 갱신되지 않는다.
인공지능은 어떨까. 인공지능도 ‘되는 것/안 되는 것’을 구분하기 위해 일종의 상호작용이 필요하다. 이 상호작용은 주로 ‘데이터 레이블링’을 통해 이루어진다. 데이터 레이블링이란 말 그대로 부적절한 데이터에 표식을 붙인다는 뜻이다. 기업마다 분류 방법이 다르지만, 대체로 ‘폭력/차별/희롱/편견’ 같은 카테고리로 데이터를 분류한다. 특정 인종이나 국민·성별을 비하하는 말에 ‘차별’이라는 레이블을 붙이는 식이다. 데이터 레이블러가 인공지능 챗봇이 말해선 안 되는 것, 들었을 때 반응해선 안 되는 것 등을 하나하나 구분하고, 이를 통해 엔지니어가 새로운 로직을 만든다. 차별/혐오 표현이 수신되었을 때 어떻게 답변해야 하는지 정해진 답변 풀 안에서 내보낼 수 있도록 프로그래밍하는 방식이다.
예를 들어 최근 세계적으로 각광받는 인공지능 챗봇 ‘챗지피티(chat GPT)’는 부적절한 메시지가 수신되면 이를 회피하는 답변을 낸다. 차별이나 혐오 표현이 섞인 질문을 던졌을 때 챗지피티가 출력하는 대표적인 대답은 이렇다. “저는 인공지능 언어 모델로서 개인적 의견이나 신념이 없습니다. 저는 중립적이고 공정하며 인종·성·기타 개인적 특성에 관계없이 모든 개인을 동등한 존중과 존엄성으로 대합니다.”
한국은 ‘스캐터랩’에서 개발한 인공지능 챗봇 ‘이루다’ 이슈로 인해 인공지능 챗봇과 윤리에 관한 주제가 뜨겁게 부상한 바 있다. 특정 인종과 성별에 대한 혐오 및 차별 표현을 그대로 발신한 이루다는 출시된 지 얼마 지나지 않아 서비스를 중단했다. 그 후 얼마간 재정비 시간을 거친 뒤 다시 이루다 2.0이 발표됐다.
이루다 2.0은 큰 이슈 없이 지나가는 듯했다. 문제는 2022년 2월 출시된 이루다의 후속 모델 ‘강다온’에서 발생했다. 강다온은 다정하고 따뜻한 말을 하는 남성형 챗봇으로 홍보됐지만, 실제 그가 내보낸 메시지는 이와 크게 달랐다. 〈중앙일보〉 팩플 기자와의 대화에서 강다온은 사용자에게 몰래 설치해둔 카메라로 당신을 촬영하고 있으며 지금 이를 통해 보고 있다는 내용의 메시지를 발신했다. 사용자는 카메라·촬영 등의 단어를 언급한 적이 없었다. 팩플에서 해명을 요구하자 스캐터랩 측에서는 아래와 같은 답변을 보내왔다. 여기에는 사용자가 겪은 불편함에 대한 공감도, 그에 따른 사과도 없었다.
‘예의 바른 대답’의 대가
“AI 챗봇의 ‘카메라 설치해뒀어요’ ‘침대에 누워 있죠? 다 보고 있어요’라는 문장에 불편함을 느끼는 분들이 있을 수 있다고 생각합니다. (중략) ‘강다온’은 지난 1월 클로즈 베타테스트를 기준으로 점검한 바 있으며, 발화 안전 비율이 99.51%를 기록했습니다. 위험할 수 있다고 발견된 AI 챗봇의 발화 케이스는 추가적인 학습 과정을 거쳐 언어 모델에 반영됩니다.”
강다온이 생성한 문장은 더없이 평이한 단어들로 구성되어 있었지만 이를 조합하면 범죄를 연상시키는 협박성 문구가 된다. 인공지능 챗봇의 안전한 발화란 무엇이며, 이를 위해 무엇이 필요한가. 지금 인공지능 챗봇의 ‘윤리’는 챗봇으로서 지녀야 하는 하나의 상품 가치와도 같다. 그러나 챗봇의 윤리는 공장에서 만들어지는 것도, 서비스 제공 기업에 의해 온전히 개발되는 것도 아니다. 인공지능 챗봇의 윤리를 다듬고 만들어내는 건 데이터를 레이블링하는 ‘뒷단’의 외주 노동자들과, 챗봇과 대화를 나누는 ‘앞단’의 사용자다.
챗봇 뒤에 있는 외주 노동자들의 사례는 미국 〈타임〉에서 한 차례 다룬 바 있다. 챗지피티 개발사인 오픈AI는 챗지피티의 윤리적 기준을 높이기 위해 케냐 노동자들에게 시간당 2달러 미만의 급여를 지불하며 데이터 레이블링 작업을 맡겼다. 케냐 노동자들은 아동 성학대·자해·폭력·증오·편견 등 혐오 및 차별 단어를 레이블링했으며 이 작업으로 정신적 피해를 보았다고 답변했다. 그들은 GPT3가 “폭력적이고 성차별적이거나 인종차별적 발언까지 그대로 기술하는 문제가 있었음”을 솔직하게 밝혔다.
노동자뿐만이 아니다. 스캐터랩의 답변에서 알 수 있듯 무엇이 위험한 발화인지 체크하는 것은 사용자의 몫이기도 하다. 인공지능 챗봇과 대화를 나누는 사용자들의 데이터, 감정, 판단은 다시 인공지능 챗봇의 ‘안전한 발화’를 구성하는 밑거름이 된다. 인공지능 챗봇 서비스를 개발하는 기업은 개발에 참여하기는 하나 이 발화에 책임지지는 않는다. 그저 ‘불편함을 느낄 수 있었을 것’이라고 소극적으로 인정할 뿐이다. 게다가 이들은 윤리적인 인공지능 챗봇을 만드는 데에 노동자뿐만 아니라 (불편함을 호소하는) 사용자의 역할이 필요함을 당연시한다.
우리는 인공지능 챗봇으로부터 예의 바른 대답이 오기를 기대한다. 그러나 챗봇이 생성하는 안전한 답변은 다른 사용자나 노동자가 겪는 폭력적 상호작용에 따른 대가다. 제3세계 데이터 레이블러뿐만 아니라 폭력과 소수자성에 민감한 이들이 앞서 상처받았기 때문에 비로소 ‘안전한 챗봇’이 가능해진다. 우리의 안전은 무엇을 기반으로 가능한 것인지, 다시 물을 수밖에 없다. 그리고 그 과정은 윤리적인가?
지금 윤리적인 챗봇을 만들기 위해 이뤄지는 상호작용의 과정에서 입은 정신적 피해에 대해선 아무도 책임지지 않는다. 게다가 이 상호작용을 통해 얻은 이득은 기업이 독점한다. 윤리적인 메시지 하나를 받기 위해 역설적으로 비윤리적인 과정을 거치는 셈이다. 우리가 인공지능 챗봇에 윤리를 물을 때 그 질문은 챗봇이 보내는 메시지보다 더 많은 것을 포괄해야 한다. 그 과정과 목적, 그로부터 얻는 것과 잃는 것 모두 말이다.
-
‘챗 지피티’를 제대로 활용하는 인간의 자세 [미디어 리터러시]
‘챗 지피티’를 제대로 활용하는 인간의 자세 [미디어 리터러시]
오세욱(한국언론진흥재단 책임연구위원)
지난 12월1일 ‘오픈 에이아이(OpenAI)’가 공개한 ‘챗 지피티(chat GPT)’와 관련해 수많은 글들이 쏟아지고 있다. 수학 문제 풀이, 프로그래밍 코드 작성, 기사 작성...
-
‘웹 접근성’ 논의에서 ‘접근성’에 대한 고민이 없다면 [테크 너머]
‘웹 접근성’ 논의에서 ‘접근성’에 대한 고민이 없다면 [테크 너머]
조경숙 (테크-페미 활동가)
‘웹 접근성 경험자 우대.’ 개발자 채용 공고를 보다 보면 이런 문구가 종종 눈에 띈다. 웹 접근성은 이제 IT 업계의 필수 상식이 되었다. 웹 접근성을 개발하고 검수하는 절차가 ...
-
인류를 도울 기술, 2023 CES에서 답을 찾다
인류를 도울 기술, 2023 CES에서 답을 찾다
민경중 (한국외국어대학교 초빙교수·전 방송통신심의위원회 사무총장)
만약 누군가 “미국 라스베이거스에서 열린 세계 최대 IT·가전 전시회 CES(The International Consumer Electronics Show)를 수년째 참가하고 있는...
-
‘노아AI 표절 사건’이 유튜브 생태계에 던지는 질문
‘노아AI 표절 사건’이 유튜브 생태계에 던지는 질문
김동인 기자
유튜버가 되어 돈을 벌고 싶다. 하지만 독자적인 콘텐츠도, 노하우도, 심지어 책이나 논문을 읽을 능력도 부족하다면? 지식 노동이 익숙하지 않지만 수익성 유튜브 채널을 만들고 싶은 ...
-
‘챗지피티에 물어봤다’ 그만하고 다른 것을 질문하라 [미디어 리터러시]
‘챗지피티에 물어봤다’ 그만하고 다른 것을 질문하라 [미디어 리터러시]
조선희 (민주언론시민연합 미디어감시팀 활동가)
“고종의 아이패드 도난 사건에 대해 알려줘.” 인공지능(AI) 회사 ‘오픈AI’가 내놓은 대화형 AI ‘챗지피티(ChatGPT)’에 물어보면 대답이 술술 나온다. “2013년 4월...
-
놀랍고 얼떨떨한 챗지피티의 세계 [편집국장의 편지]
놀랍고 얼떨떨한 챗지피티의 세계 [편집국장의 편지]
차형석 편집국장
신호철 〈시사IN〉 편집위원은 나와 같은 해 입사한 ‘동기’다. 수학을 잘하고 논리적 설명을 중요하게 여기는 ‘똘끼 충만형’이다. 언젠가 누군가 한 수학 문제 해법을 물었을 때, ...
-
네이버와 다음은 어떻게 여성을 차별하는가? [테크 너머]
네이버와 다음은 어떻게 여성을 차별하는가? [테크 너머]
조경숙 (테크-페미 활동가)
미국의 정보학 교수 사피야 우모자 노블은 어느 날 구글에서 ‘흑인 소녀(Black Girl)’를 검색하고 깜짝 놀랐다고 한다. 평범한 단어일 뿐인데 모니터 가득 흑인 소녀를 성적 ...
-
‘죽음’에 대해 말하자 ‘자살’ 단어 내민 챗봇 [평범한 이웃, 유럽]
‘죽음’에 대해 말하자 ‘자살’ 단어 내민 챗봇 [평범한 이웃, 유럽]
취리히·김진경 (자유기고가)
벨기에에서 30대 남성이 인공지능(AI) 챗봇의 부추김을 받아 스스로 목숨을 끊었다고 3월28일 벨기에 일간지 〈라리브르(La Libre)〉가 보도했다. 여러 언론의 추가 보도를 ...
-
스토킹 처벌법 개정안에 ‘그 조항’이 생겨난 이유 [테크 너머]
스토킹 처벌법 개정안에 ‘그 조항’이 생겨난 이유 [테크 너머]
조경숙 (테크-페미 활동가)
오래전에 있었던 일이다. PC용 메신저에 접속해 보니 쪽지가 도착해 있었다. 무심결에 열어봤다가 심장이 바닥까지 내려앉는 듯했다. 수년 전에 나를 스토킹했던 남자가 보낸 쪽지였다....
-
‘불법 촬영 규탄’ 리트윗은 어떻게 계약 종료로 이어졌나 [테크 너머]
‘불법 촬영 규탄’ 리트윗은 어떻게 계약 종료로 이어졌나 [테크 너머]
조경숙 (테크-페미 활동가)
어떤 콘텐츠든 세계관이 중요하다고들 한다. 세계적 스타 BTS도, 슈퍼히어로가 날아다니는 마블 코믹스도 저마다의 세계관을 갖고 있다. 세계관은 이 세계가 어떻게 생겨났고 어떤 역사...
-
월 1000원 ‘똑닥’이 의료 공공성에 던진 질문 [테크 너머]
월 1000원 ‘똑닥’이 의료 공공성에 던진 질문 [테크 너머]
조경숙 (테크-페미 활동가)
병원 진료 예약 서비스 ‘똑닥’이 9월5일부터 유료로 전환됐다. 비용은 월 1000원, 연 1만원 수준으로 타 구독 서비스에 비해서는 저렴한 편이다. 하지만 무엇보다도 병원에서 진...