관람객들이 한 전시회에 공개된 ‘조력 자살 캡슐’ 사르코를 살펴보고 있다. ⓒExit International

지난 12월 초 〈스위스인포(Swissinfo)〉가 보도한 기사 하나가 크게 주목을 받았다. 조력 자살을 돕는 장비인 ‘사르코(Sarco)’가 곧 스위스에서 사용될 것이라는 내용으로, 이 장비를 개발한 오스트레일리아 출신의 전직 의사 필립 니츠케와의 인터뷰를 바탕으로 한 기사였다. 사르코는 한 사람이 들어가 누울 수 있는 크기의 캡슐이다. 작동시키면 밀폐 공간에 질소가 차오르면서 산소 부족으로 사망에 이른다. 현재 세 가지 시제품이 개발된 상태인데, 그중 세 번째 모델이 스위스에서 처음으로 상용화된다는 것이다.

이 기사가 최초로 보도됐을 때의 제목은 “사르코 자살 캡슐이 스위스에서 법적 검토를 통과하다”였다. 스위스 정부가 정식으로 이 장비 도입을 허용한 것처럼 들리는 제목이지만, 이는 사실이 아니다. 스위스의 법은 ‘이기적인 동기로 다른 사람의 자살을 도우면 안 된다’라고만 규정하고 있다. 이기적 동기만 아니라면 타인의 자살을 돕는 건 합법이다. 사르코 같은 장비 사용에 관한 규정은 없다. 있지도 않은 법을 통과했다는 보도는 잘못된 것이다. 사르코는 허가를 거치지 않고 스위스에서 사용될 수 있다. 하지만 한국을 포함해 전 세계 수많은 언론이 이 기사의 제목과 내용을 그대로 보도했다. 며칠 지나지 않아 AP 통신이 이 내용을 ‘거짓 정보(misinformation)’라며 팩트체크해 보도했고, 〈스위스인포〉는 오류를 인정한 뒤 기사 제목을 “사르코 자살 캡슐이 스위스 진입을 희망하다”로 수정했다.  

사르코를 개발한 필립 니츠케(위)는 “사르코에 AI 평가 시스템을 도입하겠다”라고 말했다. ⓒGoogle 갈무리

△선정적 내용과 제목 △인터넷을 통해 전 세계로 순식간에 전파 △가짜뉴스와 팩트체크 등 언론의 여러 문제와 과제를 드러낸 케이스다. 그런데 그 혼란의 와중에 묻혀버린 중요한 내용이 있다. 사르코에 인공지능(AI) 평가 시스템을 도입하겠다는 필립 니츠케의 발언이다. 니츠케는 인터뷰에서 “지금은 조력 자살에 필요한 약물을 처방하거나 조력 자살 희망자의 정신건강 상태를 판단하는 데 의사가 개입한다. 우리는 정신의학적 검토 과정을 생략하고 개인 스스로 죽음의 방식을 결정하길 바란다”라고 말했다. 현재 조력 자살이 허용되는 나라들 대부분은 의사 진단을 거쳐 약물을 처방한다. 사르코를 이용하면 의사가 아닌 AI에게 자살을 승인받을 수 있다는 뜻이다.

자살을 앞둔 사람의 정신상태가 어떤지 AI가 정확히 판단할 수 있을까. AI 알고리즘이 치우침 없이 정확하다는 환상은 이미 깨진 지 오래다. 미국 경찰이 사용하는 재범 가능성 판단 AI ‘콤파스(COMPAS)’가 흑인의 재범 가능성이 더 높을 것이라고 예상한다거나, 아마존의 AI 채용 프로그램이 남성 구직자에게 훨씬 우호적이었다는 점이 대표적이다. AI 안면 인식 소프트웨어가 백인 남성은 거의 정확히 인식하면서도 흑인 여성을 인식할 때는 오류가 많다는 점도 마찬가지다. AI 알고리즘은 주어진 데이터를 학습해 구축되는 것인데 학습 자료가 한쪽에 치우쳐 있으니 그 결과도 치우칠 수밖에 없다. 지금까지 아마존에 지원한 사람들이 대부분 남성이었으니, 그간의 구직 자료를 바탕으로 AI가 신규 채용을 할 때도 남성 위주의 결정을 내리는 것이다.  

인간 의사와 AI 의사의 의견 차이

흑백 인종이나 남녀 성별에 관한 편견만이 아니다. 한국인이라서 알고리즘으로부터 소외될 수도 있다. 예를 들어보자. ‘닥터 왓슨’은 2011년 IBM이 내놓은 AI 의사다. 한국에서는 가천대 길병원이 가장 먼저 도입했다. 2017년 6월 미국 시카고에서 열린 미국임상종양학회(ASCO)에서 한국(길병원), 타이, 인도의 병원이 암 환자에 대해 인간 의사와 닥터 왓슨의 치료 권고안이 얼마나 일치했는지에 대해 밝혔다. 길병원 발표 내용에 따르면 대장암 환자들의 일치율이 73%이고, 위암 환자들은 49%에 불과했다. 이는 미국 병원의 치료 권고안 일치율보다 훨씬 낮은 수치다. 한국, 타이, 인도 병원들 사이에서도 수치가 다 달랐다. 왜 어떤 나라에서는 인간 의사와 AI 의사의 의견이 비교적 유사하고, 어떤 나라에서는 큰 차이가 났을까.

이는 닥터 왓슨이 미국이라는 특정한 나라의 병원에서, 미국의 의료보험 제도를 고려해 만들어진 AI 의사이기 때문이다. 나라마다 암 환자에 대한 진료 가이드라인이 다르고 법적으로 사용 가능한 항암제의 종류도 제각각이다. 나라별 의료보험 제도에 따라 의사들이 사용할 수 있는 치료법, 수술 여부, 처방도 달라진다. 인종적 차이도 한 요인이다. 미국인을 기준으로 개발된 닥터 왓슨이 다른 인종의 특수성에 맞춰 치료법을 제시할 확률은 떨어질 수밖에 없다(〈IBM 왓슨 포 온콜로지의 의학적 검증에 관한 고찰〉, 2017, 최윤섭). 의사에게 요구되는 능력은 모든 조건을 불사하고 최고의 암 치료법을 찾는 것이 아니다. 환자의 인종과 국적, 보험, 경제적 능력, 환자가 원하는 결과 등을 다 따져 최적의 치료법을 골라야 한다. 한국인 환자가 미국에서 개발된 AI 의사의 진료를 받고자 할 때도 기술적인 면과 사회적 맥락을 함께 고려해야 한다. AI에 투입된 데이터의 차이 때문에 예상치 못한 편견의 희생자가 되지 않으려면 말이다.

사르코에 도입된다는 AI 시스템이 자살 허용 과정에서 이 같은 사회적 맥락을 충분히 고려할까. 성별·나이·국적·인종·건강상태 등을 다 따진 뒤 ‘자살 결정을 내리기에 온전한 정신상태’라는 결론을 내려면 대체 그 AI는 얼마나 복잡한 알고리즘을 구축해야 할까. ‘데이터의 절대량을 늘리면 더 정확한 AI 알고리즘이 생성된다’고 주장할 수도 있다. 맞는 말이다. 지금까지 정신과 상담을 받은 전 세계 모든 사람의 데이터를 입력할 수도 있다. 하지만 다른 문제가 생긴다. 엄청난 데이터를 바탕으로 만들어진 복잡한 알고리즘을 보통 사람이 이해할 수 있을까. 그 작동 방식을 알 수 없어 흔히 ‘블랙박스’라고 불리는 알고리즘을, 데이터를 바탕으로 한 것이니 신뢰하고 따라도 괜찮을까.

여기서 ‘대리인 딜레마(agency dilemma)’가 등장한다. ‘본인-대리인 문제(principal-agent problem)’라고도 불리는 이 딜레마는 본인과 대리인 사이의 정보 비대칭으로 인해 문제가 생기는 현상을 일컫는다. 여행 대리점(여행사)을 생각해보자. 내가 돈을 내고 여행 상품을 구입하더라도 여행사가 호텔이나 항공사와 맺은 계약, 다른 고객들이 구입한 상품 등을 모두 알기란 불가능하다. 여행사도 나름의 이해관계가 있을 것이고 날씨나 현지 교통 사정 등 예측 불가능한 상황이 생길 수도 있다. 그 때문에 여행사가 나의 이익에 반하는 결정을 내려 내가 손해를 볼 수도 있지만 이를 정확히 알고 감시하는 것은 불가능하다. 그저 여행사가 최적의 선택을 했으리라 믿고 따른다. AI라는 대리인의 결정은 여행사 상품과는 비교도 안 되게 복잡하지만 인간은 이 블랙박스의 결정이 옳은 것이라고 믿고 의존한다. 알고리즘 생성 과정 중 어디선가 문제가 발생해 잘못된 결론이 도출되더라도 그것을 알아차리긴 불가능하다. 이해하지 못하는 것을 비판할 수는 없다.

알고리즘의 투명성을 요구하는 주장은 이 같은 문제의식에서 나오는 것이다. 하지만 여기에도 두 가지 맹점이 있다. 첫째, 개발자조차도 알고리즘을 완전히 이해하지 못한다. 현재 AI는 ‘약한 AI(한정적 지능으로 지적 문제를 해결)’에서 ‘강한 AI(인간의 정신과 유사한 수준)’로 진화하고 있고, 특히 딥러닝 AI는 인간이 투입한 데이터가 아닌 자신만의 방식으로 학습한다. 투명성 확보가 가능하지 않다는 얘기다. 둘째, 설사 알고리즘을 투명하게 파악해 공개한다 해도 역효과가 생길 수 있다. 나쁜 의도를 품은 이들이 투명한 알고리즘을 ‘가지고 놀(gaming)’ 가능성이다. 페이스북이 어떤 키워드를 이용해 코로나19 관련 가짜뉴스를 골라내고 삭제하는지 알려진다고 치자. 가짜뉴스를 퍼뜨리려는 사람들은 그 키워드만 피해가면 된다. 사르코의 자살 허용 알고리즘이 투명하게 공개된다고 가정해보자. 실제로 정신이 건강하지 않은 사람이 스스로, 또는 주변의 부추김에 의해 AI가 원하는 대답을 골라 함으로써 자살을 허가받을 수도 있다.

가천대 길병원 의료진이 ‘닥터 왓슨’을 이용해 환자를 진료하는 모습. ⓒ전자신문

‘이론’은 데이터의 사용처를 바꿀 수 있다

2008년 7월 〈와이어드(Wired)〉에 실린 칼럼 ‘이론의 종말(end of theory)’은 지금까지도 회자된다. 우리가 살아가는 페타바이트(petabyte·약 100만 기가바이트) 시대에는 더 이상 이론이 필요하지 않다는 내용이다. 구글이 검색 시장을 평정한 건 좋은 이론 덕분이 아니라 사용자들의 검색 데이터를 이용한 덕이듯, 충분한 데이터는 스스로 말을 하기 때문에 현상을 이해하기 위해 가설을 세운 뒤 샘플을 고르고 실험으로 검증하는 과정은 이제 구식이라는 것이다.

그러나 데이터로 모든 문제를 해결할 수는 없다. 언제 어디서나 충분한 데이터를 확보할 수도 없고, 데이터 수집 과정에서 개인정보 침해 문제가 생기며, 그렇게 모은 데이터로 구축한 알고리즘은 인간의 편견을 반영한다. AI와 알고리즘이 진화하면 할수록 인간이 이해하지 못하는 대상을 신뢰해야만 하는 대리인 딜레마가 더 커지며, 그렇다고 투명성 확보가 해법인 것도 아니다. 많은 질문이 남는다. AI가 데이터를 바탕으로 내린 결정이 오류로 판명 났을 때 그에 대한 책임은 누구에게 물을 것인가? AI는 법적인 권리와 의무의 주체가 될 수 있는가? 인간과 소통하며 감정을 주고받는 AI에게 인격성(personhood)이 있다고 볼 것인가? 이런 질문들에 답하려면 이론이 필요하다. 빅데이터보다 더 강력한 이론이.

이론은 데이터의 사용처를 바꿀 수 있다. 미국에는 ‘리치 벳(Reach Vet)’이라는 이름의 참전군인 자살 예방 프로그램이 있다. AI 알고리즘에 따라 자살 고위험군을 분류한 뒤 미리 개입해 자살을 예방한다. 미국 재향군인국 데이터베이스에 있는 2008년 이후의 자살 기록을 바탕으로 만들어진 이 AI는 의사들이 흔히 자살과 관련짓는 약물남용이나 과거 병력보다 훨씬 더 많은 요소를 고려한다. 나이·고용·결혼, 심지어 관절염이나 스타틴(혈관 내 콜레스테롤 억제제) 사용 여부까지 따진다. 한국에서는 서울시가 AI 딥러닝 기술을 이용해 한강 다리에서의 자살 시도를 신속하게 예측하고 대응하는 시스템을 구축했다. 2012년부터 한강 다리에서 촬영된 CCTV 영상 데이터를 학습한 AI가 투신 시도자의 행동 패턴에서 자살과 관련된 부분을 감지하면 가까운 수난구조대에 알리는 방식이다. 사르코, 리치 벳, 한강 자살 방지 시스템 모두 과거의 자살 데이터로 학습한 AI를 이용한다. 하지만 결과는 전혀 다르다. 죽음을 승인할 것인가 막을 것인가. 그 방향을 정하는 것은 데이터가 아니라 인간의 이론이다.

기자명 취리히·김진경 (자유기고가) 다른기사 보기 editor@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사