6월14일 프랑스 스트라스부르 유럽의회 본부 회의장에서 유럽연합 AI법 표결이 진행되고 있다.ⓒAFP PHOTO
6월14일 프랑스 스트라스부르 유럽의회 본부 회의장에서 유럽연합 AI법 표결이 진행되고 있다.ⓒAFP PHOTO

지난해 이사를 하면서 가구를 몇 가지 바꾸고 싶었다. 생각보다 쉽지 않았다. 새집의 크기와 구조에 맞으면서도 마음에 드는 가구를 찾기란 불가능해 보였다. 그러다 알게 된 것이 ‘이케아 해킹(IKEA hacks)’이다. 이케아는 조립식 가구를 대량생산하는 브랜드다. 소비자가 주어진 매뉴얼에 따라 단계적으로 조립을 하면 카탈로그에 등장하는 가구가 완성된다. 그런데 이케아 완제품에 만족하지 못했던 소비자들이 일부 부품을 교체하는 일탈, 즉 해킹을 시작했다. 서랍장 다리 길이나 책장의 폭을 자신의 필요와 취향에 맞게 바꿔 카탈로그에 없던 새로운 가구를 만들어내는 것이다. 인스타그램이나 핀터레스트 등 소셜미디어에서 ‘#ikeahack’이라는 해시태그로 검색을 하면 온갖 아이디어가 쏟아져 나온다. 이런 아이디어를 모아 공유하는 ‘이케아 해커스’라는 웹사이트(IKEAhackers.net)도 있다. 2006년 이 사이트를 만든 말레이시아인 줄스 얍은 이케아 해킹의 의미에 대해 이렇게 말한다. “이케아 해커들은 납작한 상자에 담긴 조립식 가구 그 이상을 생각합니다. 다른 이들에게 영감을 주기 위해 자신의 해킹 작업을 공유하고, 더 나은 일상이라는 목표를 위해 노력하죠.”

자사 제품에 변형을 가해 새로운 가구를 창조하는 해킹 행위를 이케아 측에서는 어떻게 볼까. 꺼림칙해할 거라는 짐작은 틀렸다. 2018년 4월, 이케아의 고향 스웨덴 앨름훌트에 있는 이케아 박물관에서 특별한 전시가 열렸다. ‘이케아 해킹당하다: 우리의 상품. 당신들의 아이디어(IKEA Hacked: Our Products. Your Ideas)’라는 제목의 이 전시에는 해킹으로 탄생한 제품들이 모였다. 다리를 바꾼 소파, 원래 없던 색을 칠한 테이블은 물론이고, 이케아 매장에 메모 용도로 비치된 연필 6971자루로 만든 의자라든가 심지어 이케아의 상징이라 할 수 있는 파란 쇼핑백으로 제작한 드레스까지 등장했다. 전시 방문객이 직접 가구 해킹을 시도할 수 있는 워크숍도 열렸다. 참여자들은 이케아 가구 해킹을 할 때 발생할 수 있는 안전문제나 가구 해킹에 따르는 잠재적 단점에 대해 배웠다. 일반인들이 해킹한 가구 중 반응이 좋은 것은 실제 이케아 상품 디자인에 반영됐다. 전시 책임자인 카밀라 융어는 “이것은 공동 창조(co-create)다. 더 많은 사람을 포용하는 민주적 디자인의 시작이다”라고 평가했다.

이 글의 주제는 가구 디자인이 아니다. 최근 급격히 진행 중인 인공지능(AI)에 대한 규제가 주제다. 이케아 해킹과 AI 규제가 무슨 상관인가. ‘더 나은 가구 디자인’에 이케아 해킹이 기여하는 방식이 ‘더 나은 AI’에도 적용될 수 있어서다. 우선 현 AI 규제에 대한 배경 설명이 필요하다. 6월14일, 유럽의회에서 ‘유럽연합 AI법(EU AI Act)’이 통과됐다. 현재 전 세계에서 가장 앞선 형태의 AI 규제안이기 때문에 중요한 이정표라 할 수 있다. AI 기술 자체는 미국이나 중국이 더 앞서 있지만, 그 기술의 이용을 제한하는 규제는 유럽이 주도하고 있다. 인권과 프라이버시를 중시하는 전통이 강하기도 하지만, 미국과 중국의 IT 기업에 유럽인의 데이터를 계속 빼앗길 순 없다는 위기의식도 작용했다. 현재 전 세계 개인정보 규제의 표본으로 자리 잡은 EU의 일반개인정보보호법(GDPR, 2018년 시행)도 같은 맥락에서 제정됐다. 유럽의회 로베르타 메트솔라 의장은 AI법안에 대해 “향후 수년간 세계적 기준이 될 거라는 의심의 여지가 없다”라고 평가했다. 이 법안의 세부 사항을 놓고 앞으로 몇 달 동안 유럽의회, 유럽위원회, 유럽연합이사회가 논의를 거친 뒤 올해 말쯤 최종 버전이 나올 전망이다.

챗지피티 나오기 전에 초안 만들어진 AI법

어떤 내용이길래 가장 앞선 형태의 규제라고 하는 걸까. 핵심은 이 법안이 AI 시스템을 그 위험(risk) 정도에 근거해 세 가지 카테고리로 분류하고 그에 따른 대응책을 명시하고 있다는 점이다. 첫째, ‘수용 불가능한 위험(unacceptable risk)’군에는 공공장소에서 안면인식 AI 기술을 이용해 실시간으로 생체 정보를 수집해 신원을 확인하거나, 정부나 공공기관이 개인의 데이터를 바탕으로 사회 신용점수를 부여해 이를 보험이나 대출 등에 이용하는 것이 포함된다. 이 카테고리에 속하는 AI 기술은 금지 대상이다. 즉, 이 법안에 따르면 중국에서 쓰이는 안면인식 CCTV나 사회신용제도는 유럽에서 적용이 불가능하다.

둘째, 고위험(high risk)군에는 AI 알고리즘을 이용해 구직자의 이력서를 분류하고 고용 여부를 결정짓는 일 등이 포함된다. 과거 백인 남성이 주로 고용되었다는 데이터를 바탕으로 미래의 구직자 중에도 백인 남성을 더 우수하다고 평가하는 건 실제 미국 아마존 채용 시 벌어졌던 일이다. 이 카테고리에 속하는 기술은 전면 금지는 아니지만 기업이 관련 알고리즘을 공개할 의무 등이 따른다. 셋째, 저위험(low or minimal risk)군에 속하는 기술은 규제 대상이 아니다.

최근 생성형 AI 모델에 대한 우려가 커지는 가운데 위험과 대응책을 상세히 서술한 이 같은 법안이 나온 것은 환영할 만한 일이다. 문제는, 2년 이상 논의된 끝에 나온 이 108쪽짜리 법안에 허술한 구멍들이 있다는 점이다. 예를 들어 공공장소에서 실시간 생체 정보 수집을 금지하는 내용이 그렇다. 이것이 국가의 필수적인 치안 활동과 부딪히는 점은 없는지, 만약 특정 상황에서 예외를 허용한다면 굳이 위험도에 따라 분류해서 허용 범위를 정하는 게 무슨 의미가 있는지 불명확하다. 프랑스 같은 나라는 테러 대응책으로 안면인식 AI 시스템을 확장하려는 중이라, EU AI법이 회원국의 국내법과 잘 조율이 될지도 미지수다. 게다가 고위험군에 속하는 기술에는 엄격한 의무가 부과되는데, 의무 내용을 지켰는지 점검하는 주체가 그 기술을 개발한 기업이라는 점도 어불성설이다. 고양이에게 생선을 맡기는 격이기 때문이다.

근본 문제는 실제 AI 기술이 이 법안에서 규제하는 AI 시스템의 특성보다 훨씬 빠른 속도로 지금도 발전 중이라는 점이다. 법안 초안이 만들어지던 2년 전, 현재 AI 시장의 판도를 바꿔놓은 챗지피티는 등장하지도 않았다. 지금 시점에 예상조차 하지 못하는 어떤 기술이 가까운 미래에 등장할지 모른다. 과연 법이 융통성 있게 시장의 변화에 대응할 수 있을지 의문이다.

전문가들이 오랜 시간 공들여 작성한 법안 문구가 급변하는 상황에 제때 대처할 수 없다면 대안은 무엇일까. 여기에서 등장하는 게 해커들이다. 사전에 규정한 틀에 맞춰 AI의 위험도를 평가할 게 아니라, 앞에 놓인 AI 시스템을 개별적으로 해킹해 취약점을 발견, 보고하고 그에 따라 문제를 개선하자는 것이다. 정보기술 분야에서 이미 광범위하게 쓰이고 있는 이 방식을 VRP(취약점 보상 프로그램), 흔히 ‘버그 바운티(bug bounty)’라고 한다. 기술의 취약점이나 결함을 뜻하는 버그(bug)를 찾아내 보고하면 포상금(bounty)을 준다는 뜻이다. 이케아가 자사 가구에 대한 해킹 시도를 반기고 일부 디자인을 제품에 차용하기까지 하듯이, IT 기업들도 버그 바운티를 적극적으로 이용해 자사가 개발한 기술의 취약점을 보완한다. 마이크로소프트, 구글, 메타 등 빅테크 기업들이 다 버그 바운티를 시행하고 있다. 해킹된 이케아 가구가 ‘민주적 디자인’이라고 평가받은 것처럼, 버그 바운티도 민주적 기술 개선이라 볼 수 있다.

“모든 기술에는 투명성과 협업이 필수적”

챗지피티를 개발한 오픈AI도 지난 4월11일 버그 바운티 계획을 공개했다. 챗지피티의 기술적 취약점을 발견해 오픈AI에 보고하면 버그의 중대성에 따라 적게는 200달러, 최대 2만 달러까지 보상금을 지급한다. 웹사이트에 올린 버그 바운티 안내문에서 오픈AI는 이렇게 밝혔다. “모든 복잡한 기술에는 취약점과 결함이 발생할 수 있다. 투명성과 협업이 이를 다루는 데 필수적이라고 믿는다. 안전하고 신뢰할 수 있는 기술을 개발하기 위해 당신의 도움이 필요하다.”

해커들에게 도움을 요청하는 건 기업만이 아니다. 미국 정부는 올여름 라스베이거스에서 열리는 ‘데프 콘(DEF CON)’ 보안 콘퍼런스에서 해커들을 지원하겠다고 밝혔다. 해킹 대회에서 AI 시스템의 결함을 찾는 과제를 내고 이를 해결하면 포인트(상금)를 주겠다는 것이다. 급속도로 발전 중인 AI 시스템의 문제점을 발견하고 해결하려면 ‘톱다운’ 방식으로는 한계가 분명함을 기업이나 정부 모두 인식하고 있는 듯하다.

1983년 개봉한 영화 〈위험한 게임〉의 한 장면.ⓒMGM

첨단 기술의 맹점을 드러내는 해커의 역할을 잘 묘사한 영화가 있다. 1983년작 〈위험한 게임(WarGames)〉으로, 오래전 작품이지만 지금도 해커들에게 고전으로 꼽힌다. 내용은 이렇다. 북미항공우주사령부(NORAD)의 매키트릭 박사는 장교들이 시뮬레이션 훈련에서 핵미사일 발사 명령을 받고도 버튼을 누르지 못하고 머뭇거리는 일이 많음을 알게 된다. 그는 인간의 감정이 전쟁 상황에서 판단에 방해가 된다고 보고, 미사일 발사 과정을 자동화된 AI 시스템으로 교체한다. 한편 공부에는 관심이 없고 컴퓨터에만 소질이 있는 고등학생 데이비드는 공짜 게임을 하기 위해 게임 회사를 해킹하는 과정에서 우연히 게임 프로그램처럼 보이는 시스템에 접속한다. 실은 이 시스템이 NORAD로 통하는 백도어(인증되지 않은 사용자에 의해 기능이 무단으로 사용될 수 있도록 컴퓨터에 몰래 설치된 통신 연결 기능)였지만, 데이비드는 그것을 알지 못한 채 전쟁 게임이라 생각하며 소련의 입장에서 미국을 공격한다.

실제로는 아무 일이 벌어지지 않았지만 NORAD의 AI 시스템은 이를 현실로 인식하고 소련 공격 계획을 세운다. 제3차 세계대전이 코앞에 닥친 상황에서 데이비드는 뒤늦게 자신이 한 일을 깨닫고 매키트릭 박사에게 사정을 설명하지만, 박사조차도 그의 말보다는 실전 상황이라는 AI의 판단을 신뢰한다. AI가 소련으로 진짜 핵미사일을 발사하기 직전, 데이비드는 AI에 승자도 패자도 나올 수 없는 게임을 제안한다. 이 전쟁이 일어날 경우 한쪽이 승자가 될 확률이 0%임을 AI가 깨우치게 함으로써, 데이비드는 AI 스스로 미사일 발사를 포기하게 만든다. 고등학생 해커가 미국 국방 시스템을 뚫고 핵전쟁 위험을 초래한 뒤 AI의 판단 알고리즘을 역이용해 전쟁을 저지한다는 내용이다.

인건비나 효율성을 근거로 AI 시스템을 채택하는 정부 기관이나 기업이 늘고 있다. 1980년대 영화 속 시나리오가 현실에서 구현되지 말란 법이 없다. 유럽연합의 AI법처럼 촘촘한 규제를 만들어 선제 대응하는 것도 필요하지만, 새로운 기술의 약한 고리를 의도적으로 찔러봄으로써 보완점을 찾는 것도 중요하다. 요즘 소셜미디어에서는 챗지피티 프롬프트에 일부러 혼란스러운 문구를 넣어 개발자들이 예상하지 못한 결과를 이끌어내는 일이 유행이다. 바람직한 일이다. 코드가 아닌 단어를 이용해 모든 사람들이 해커가 될 수 있는 시대다. 이케아 가구에만 해킹이 필요한 건 아니다.

기자명 김진경 (자유기고가) 다른기사 보기 editor@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사