check 3d gpu
바로가기
메뉴로 이동
본문으로 이동

인공지능이 내일 당장 일자리를 없앨까요?

인공지능과 일자리의 관계는 논란거리다. 인공지능은 일자리를 파괴할 것인가, 더 많은 일자리를 창출할 것인가. 앨런 윈필드 교수는 일자리 문제에서 색다른 통찰에 도달한다.

천관율 기자 yul@sisain.co.kr 2018년 08월 28일 화요일 제571호
댓글 0
“인공지능이 일자리를 없앤다는 공포는 상당히 과장되어 있다. 내가 사는 런던에서 택시 운전자들이 종종 묻는다. ‘내 직업은 괜찮을까요?’ 나는 이렇게 답한다. ‘네. 당신 일이 기계로 대체되려면 아마 20년이나 30년 정도는 더 걸릴 겁니다.’”

인공지능과 일자리의 관계는 거대한 논란거리다. 대체로 신기술은 일자리를 파괴하지만, 동시에 새로운 산업을 만들어 더 많은 일자리를 창출한다고 알려져왔다. 인공지능은 이 명제의 중대한 예외일까? 그렇다고 생각하는 학자들이 점점 늘어나면서, 학계는 인공지능과 일자리의 관계에 대해 합의를 보지 못하고 있다.

앨런 윈필드 교수(영국 브리스틀 로보틱스랩 소장)는 일자리 문제의 전문가는 아니다. 그의 무기는 경제학이 아니라 로봇공학과 로봇윤리학이다. 자신의 영역을 깊이 있게 파고든 연구로, 분야가 달라 보이는 일자리 문제에서 색다른 통찰에 도달한다. ‘2018 <시사IN> 인공지능 콘퍼런스(SAIC)’ 참석을 위해 한국을 방문한 윈필드 교수는, 8월13일 90분간 이 흥미로운 사고의 전개 과정을 들려줬다.

ⓒ시사IN 조남진
앨런 윈필드 교수는 ‘자동화세 주창자’로 널리 알려져 있다.



어떤 연구를 해왔는지 소개해달라.

로봇공학과 로봇윤리가 주요 연구 분야다. 로봇윤리에서 세 차원의 문제를 주로 다룬다. 윤리 원칙, 윤리 표준, 윤리 정책이다. 원칙이란 예를 들면 “로봇은 사람을 해치지 않아야 한다”와 같은 것이다. 표준이란 예를 들면 와이파이 같은 것이다. 무선통신의 표준을 정하면 그에 맞춰서 상품이 출시된다. 수질, 가구 사이즈, 전력, 치약까지 모든 분야에 다 표준이 있다. 지금 필요한 건 로봇과 인공지능 분야의 윤리 원칙과 윤리 표준이다. 이 원칙과 표준이 정립된 후에 정책이 나와야 한다. 원칙과 표준 없이 정책부터 던지는 조급한 정부는 대체로 일을 망친다.

원칙과 표준의 차이는 뭔가?

IEEE(Institute of Electrical and Electronics Engineers·전기전자기술자협회)라는 국제조직이 있다. 이곳에서 로봇과 인공지능의 윤리 원칙을 개발하는 일을 한다. 나도 멤버다. 여기서 확립된 윤리 원칙 중 하나가 투명성 원칙이다. 인공지능 시스템이 어떤 결정을 내렸을 때, 왜 그런 결정을 내렸는지를 인간이 알 수 있어야 한다는 원칙이다. 이에 근거하여, P7001이라고 하는 IEEE 표준을 개발하고 있다. 인공지능이 투명성 원칙을 준수하려면 어떻게 개발되고 검증되어야 하는지를 여기서 규정한다.

기술기업은 국제 기술 개발 경쟁에 뒤처지게 만드는 규제라고 반발할 수 있겠다.

기업 안에서도 기술 개발은 엔지니어의 몫이다. IEEE 같은 조직의 윤리 강령은 의사들의 히포크라테스 선서와 비슷한 기능을 한다. 기술에 엔지니어가 전문가로서 ‘개인으로’ 책임을 지겠다는 서약이다. 실제로 거대 기술기업의 엔지니어들이 기업의 노선에 불만을 표해 기업의 방향을 바꾸는 경우도 있다. 엔지니어 커뮤니티가 윤리 문제에 더 민감해질수록, 기업도 그를 무시하기 어려워진다. 사례들을 축적해나가려 노력하고 있다.


ⓒGoogle 갈무리
자율주행차는 오토파일럿 비행기보다 만들기 어렵다. 위는 자율주행차에서 신문을 보는 모습.


딥러닝 엔지니어들은 투명성 원칙을 적용하기가 어렵다고 호소한다. 알고리즘이 왜 그런 결정을 했는지 개발자도 모르기 때문이다.

맞다. 알파고가 바둑에서 특정한 수를 선택한 이유를 개발사인 딥마인드도 알 수가 없다. 게임이라면 큰 문제는 아니다. 하지만 이 시스템이 차를 몬다면? 사고가 났을 때, ‘우리가 이해하지 못한다’라는 게 여전히 괜찮을 리는 없다. 안전이 필수인 시스템(safety-critical system·SCS)에는 딥러닝 알고리즘을 써서는 안 된다. 투명성이 확보되기 전까지는 그렇다. 아마존이 형편없는 책을 추천하는 게 심각한 문제는 아니다. 그러나 차를 운전할 때, 어머니의 헬스케어 로봇을 쓸 때, 의학 진단을 받을 때는 그 결정이 나온 이유를 알아야 한다.

의료 진단 인공지능인 왓슨도 딥러닝 알고리즘을 쓴다. 역시 위험하다고 보나?

나는 인공지능을 미래 영국의 국가 보건체계에 어떻게 활용할지를 검토하는 자문그룹의 일원이다. 몇 주 전에 왓슨에 대한 최신 보고서를 봤다. 몇몇 의사들은 왓슨의 진단에 대단히 비판적이었다. 나는 우리가 왓슨을 현장에 투입할 만큼 충분히 알고 있지 않다고 믿는다. 인공지능 의료 진단의 품질과 효과를 측정할 표준이 없다.

왓슨은 진단을 결정하는 것이 아니라 인간 의사에게 조언만 하므로 괜찮다는 주장도 있다.

시스템이 결정이 아니라 제안에 그쳐야 한다는 것은 좋은 아이디어다. 그러나 밤늦게 병원에서 돌발적인 문제가 생겼는데 의사는 피곤하고 스트레스를 잔뜩 받은 상태를 가정해보자. 단순한 조언도 나쁜 결과를 만들 수 있다.

자율주행차는 윤리적 딜레마의 단골 토론거리다. 왼쪽에는 할머니가, 오른쪽에는 아이가 있을 때 인공지능은 어디로 핸들을 꺾어야 할까?

그런 종류의 사고실험을 트롤리 딜레마(‘광차 딜레마’ 또는 ‘열차 딜레마’로 번역한다)라고 부른다. 윤리학의 인기 있는 사고 실험이다. 중요한 건 이것이다. 사람이 윤리적 딜레마를 풀 수 없다면, 인공지능도 풀 수 없다. 로봇이 더 빠르고 더 감각이 발달할 수는 있어도, 근본적으로 사람이 못 푸는 윤리적 문제에 답을 줄 수는 없다. 내 대답은 이렇다. 우리는 두 가지 옵션 중에 선택을 하는 시스템을 만들어서는 안 된다. 인간에게 불가능한 선택을 자율주행차가 하도록 만들면 안 된다. 지난해 독일 정부는 자율주행차가 젊은 사람과 나이 든 사람을 구별하지 못하도록 법제화했다. 차가 나이를 기준으로 ‘선택’을 하지 못하도록 한 것이다. 정부가 자율주행차의 윤리 문제에 응답한 첫 사례다.


ⓒ연합뉴스
인도 첸나이 현대자동차 공장에서 로봇들이 차체를 용접하고 있다.


딜레마에 인간을 뛰어넘는 답을 낼 수 없어도, 어쨌거나 선택은 할 수밖에 없는 것 아닌가?

한쪽에는 아이들이 서 있는 버스 정류장이, 반대쪽에는 학교가 있다. 둘 중 하나를 들이받는 문제를 선택하라고 하면, 이 세상 어떤 기술도 풀 수 없는 문제다. 최선은 차가 그런 선택 상황에 들어가지 않는 것이다. 사람들은 이런 옵션을 빼고 양자택일로 질문한다. 그러나 우리는 제3의 옵션, ‘사고를 아예 내지 않는 옵션’이 필요하다. 그렇기 때문에 자율주행차가 오토파일럿 비행기보다 훨씬 만들기 어렵다. 도로는 하늘보다 사고 위험을 제거하기 어려운 환경이다.

딜레마 상황에 아예 들어가지 않을 정도의 기술이 없다면 자율주행차를 도입해서는 안 된다는 의미로 들린다.

자율주행차의 오토파일럿 모드가 얼마나 안전한지 평가할 표준 자체가 아직 없다. 그런 상황에서는 어떻게 안전성을 평가할지 자체를 대답할 수 없다. 사실 표준은 고사하고 원칙도 정립이 안 돼 있다. 그래서 나는 완전 자율주행차가 우리의 예상보다 더 먼 미래에나 가능하리라 생각한다. 현재 출시되는 자율주행차는 어떤 상황에서든 운전자가 즉시 통제권을 확보해 운전할 준비가 되어 있다는 전제로 만든다. 이 경우에만 합법이다. 두 차례 테슬라 사고와 한 차례 우버 사고는 모두 사망사고였는데, 세 건 모두 오토파일럿이 실패했는데 운전자가 즉각 반응할 수 없었다. 그 회사들은 오토파일럿 소프트웨어를 훈련받지 않은 보통 운전자들에게, 동의서에 서명했다는 이유만으로 테스트를 하고 있다. 안전 설계 관점에서 심각한 문제다.

기술 예찬론자들은 자율주행이 사람보다 훨씬 사고를 적게 낸다고 본다. 원칙·표준·규제가 없이도 기술만으로 세상이 더 나아질 수는 없나?


우리가 그런 결론을 낼 만큼 자율주행 기술을 충분히 알고 있지 않다. 나는 신기술 회의론자가 아니다. 신기술이 구현되는 세상을 꿈꾸지만, 단지 우리 엔지니어들이 좀 더 조심스럽고 책임감이 있어야 한다고 믿을 뿐이다. 가장 필요한 것은 책임감 있는 혁신이다. 시간을 두고 원칙과 표준과 규제를 갖춰가야 한다. 실리콘밸리의 모토는 “Move fast and break things(먼저 움직이고 안 되면 부숴버려라)”인데, 이 표어야말로 좋은 엔지니어링의 정반대에 있다. 좋은 엔지니어링은 주의를 기울이고 책임감을 갖고 사려 깊게 디자인하는 것이다. 자율주행차가 50년쯤 뒤엔 실제로 많은 생명을 구할 수 있을지도 모른다. 그러나 그것도 우리가 좋은 엔지니어링의 규칙을 지켰을 때만 가능하다.

‘50년 뒤’는 지금까지 들어본 자율주행차 예측 중에 가장 비관적인 것 같다.


나는 내가 현실주의자라고 생각한다. 다들 말하는 대로, 자율주행차 기술의 애플리케이션은 금방 나올 것이다. 예를 들면 장거리 트럭 운전은 아마 5년이나 10년 내에 가능할 것이다. 사람이 트럭을 몰고 고속도로에 진입하면 오토파일럿을 켠다. 고속도로가 끝날 때쯤 운전대를 다시 잡는다. 마치 요즘 비행기 조종사와 비슷하다. 고속도로 환경에서 이런 기술은 상당히 가까이 와 있다. 일정한 루트를 다니는 자율주행 버스도 먼 미래는 아닐 것이다. 하지만 서울의 교통량을 보면, 도심 자율주행은 기술이 상당히 더 필요하다. 도심 주행은 눈짓, 손짓, 슬금슬금 들이밀기 등 사람끼리의 커뮤니케이션이 중요하다. 자율주행차는 여기에 아주 취약하다. 오케이. 어느 독재국가에서 한날한시에 자율주행차만 허용한다면 50년보다는 빠를 수 있겠다.

인공지능은 ‘일자리 공포’로 이어진다. 그중에서도 단골이 택시나 트럭 운전사의 실직인데, 그런 통념과는 다르게 보는 것 같다.

인공지능이 일자리를 없앤다는 공포는 상당히 과장되어 있다. 가장 중요한 질문은 인공지능이 일자리를 얼마나 가져갈지가 아니다. 핵심 질문은, ‘인공지능이 만들어내는 부를 어떻게 사회 전체에 퍼지도록 할 것인가’이다. 훨씬 더 크고 어려운 과제다.

자동화세(automation tax) 주창자로 널리 알려져 있다.


나는 경제학자가 아니다(웃음). 세금 문제는 내 전문 영역이 아니다. 나는 그저 모든 사람이 자동화의 이득을 보아야 한다고 생각한다. 많은 직원을 둔 큰 회사가 직원을 모두 로봇으로 바꾼다고 생각해보자. 내가 제안했던 건 ‘만약 회사가 그 직원들을 모두 재배치하고 고용을 유지하거나, 해고한다 해도 재취업을 위한 재교육비를 부담한다면, 자동화세를 면제하자’는 것이다. 반대로 회사가 직원을 해고하고 아무런 책임도 지지 않는다면 자동화세를 물리자는 것이다.

왜 그런 아이디어를 떠올렸나?

자동화 시대에 기업과 사회는 새로운 사회계약이 필요하다. 사회는 기업에 제공하는 것이 많다. 건강하고 잘 교육된 노동력, 사업을 할 수 있는 인프라, 안정적인 금융환경 등등. 이런 것 없이 기업은 존재할 수 없다. 그러므로 기업 역시 사회를 돌보아야 한다. 자동화로 얻는 부를 모든 사람이 가져갈 수 있어야 한다.
<저작권자 ⓒ 시사IN (http://www.sisain.co.kr) 무단전재 및 재배포 금지>