지구적 차원에서 인공지능(AI) 열기가 뜨겁다. 1950년대에 탄생한 인공지능은 그동안 수차례에 걸쳐 영욕을 겪었다. 이 마법 같은 기술에 뜨거운 기대와 투자가 집중됐다가 어느 날 갑자기 썰물처럼 빠져나가는 ‘인공지능의 겨울(AI Winter)’이 반복되어온 것이다. 최근에는 페이스북·구글·바이두·마이크로소프트 같은 ‘글로벌 테크 자이언트’들이 인공지능 부문의 승자가 되기 위해 혈전을 벌인다. 이런 ‘인공지능 열광’의 배후에 얀 르쿤(페이스북 수석 AI 엔지니어·뉴욕 대학 교수)이 있다.

ⓒ시사IN 조남진얀 르쿤 뉴욕 대학 교수(페이스북 수석 AI 엔지니어)는 “인공지능(AI)은 아직 초보적인 수준이어서
영화 〈터미네이터〉처럼 인간을 공격하는 상황은 발생하지 않는다”라고 단언했다.

프랑스 출신인 르쿤 교수는 1980년대 말부터, 컴퓨터에 인간의 두뇌를 모방한 가상 신경망을 심어 복잡한 연산을 수행토록 하는 딥러닝(deep learning·심층 신경망) 연구에 몰두했다. 그 성과가 바로 ‘콘볼루션 신경망(convolutional neural network)’. 기계가 이미지(사진, 그림, 서명 등)를 보고 그 의미를 해석해내는 ‘컴퓨터 비전(computer vision)’ 부문의 핵심 기술이다. 르쿤은 기계에게 눈을 선물한 사람이다.

르쿤은 1990년대 중반부터 10여 년에 걸친 인공지능의 혹독한 겨울을 얼마 안 되는 동료 컴퓨터 과학자들과 함께 버텨냈다. 이윽고 봄이 왔다. 지난 2013년, 페이스북이 신설한 인공지능연구소(Artificial Intelligence Research Lab) 소장으로 취임해 인공지능 붐을 선도하게 된 것이다. 미국의 과학기술 전문지 〈스펙트럼〉과 한 인터뷰에 따르면, 페이스북이 르쿤을 영입한 이유는 사람이 할 수 없는 일을 기계에게 시키기 위해서였다.

“당시 페이스북은 사용자 각각에게 하루 2000개의 아이템(그림, 사진, 비디오, 포스트 등)을 보여줄 수 있었다. 그러나 누구도 2000개를 모두 볼 시간은 없다. 페이스북 처지에서는, 사용자가 보고 싶어 하거나 볼 필요가 있는 100~150개 아이템을 자동으로 선별할 수 있어야 했다. 이런 일을 잘하려면 어떻게 해야 할까? 먼저 (당시에도 10억명 이상이었던) 사용자 각각의 취향과 관심사, 관계, 소망, 심지어 인생의 목표를 (기계가) 이해해야 한다. 콘텐츠들, 즉 게시물과 댓글, 영상이나 비디오가 어떤 내용을 포함하고 있는지 알아야 한다. 그런 다음에야 가장 적절한 콘텐츠가 선별되어 적절한 사람에게 게시되는 일이 가능하다.”

르쿤은 지난 1월 페이스북 수석 AI 엔지니어로 자리를 옮겼다. 연구에 집중하기 위해서다. 인공지능 업계와 언론에서는 그를 ‘딥러닝 구루(최고 권위자를 의미하는 속어)’라고 부른다.

〈시사IN〉은 지난 7월2일부터 6일까지 프랑스 남부 그르노블에서 열린 ‘네이버랩스유럽(네이버의 프랑스 소재 기술개발연구소)’ 주최 ‘인공지능 학술대회(PAISS 2018)’에서 르쿤을 만나자마자 질문했다. “소피아와 〈터미네이터〉를 어떻게 생각하시나요?”

르쿤은 올해 1월 홍콩 소재 로봇 제조사 핸슨로보틱스 제품인 로봇 ‘소피아’에 대한 열광에 “완전한 헛소리(complete bullshit)” 같은 점잖지 않은 용어까지 동원하며 격렬히 비판했다. 소피아는 인간과 비슷한 모습을 갖춘 로봇, 즉 휴머노이드다. 눈을 깜박이고 미소를 짓는 등, 얼굴로 60여 가지 감정을 표현하며 사람과 자연스럽게 대화한다. 대중 연설 중 한 청중으로부터 깜짝 청혼을 받자 정중히 거절하면서도 “호의에 감사드린다”라고 인사까지 했다. 사우디아라비아는 소피아에게 시민권을 부여했다. 소피아는 언론 인터뷰에서 “모든 인간을 파괴하고 싶다(나중에 농담이라고 해명)”라고 말해 영화 〈터미네이터〉를 연상케 했다. 이런 소동을 통해 소피아가 ‘지각과 감성, 지성을 가진 독립적 생명체’란 인상이 확산된다. 핸슨로보틱스 창립자인 데이비드 핸슨 박사는 소피아에 대해 “기본적으로 살아 있다(basically alive)”라고 표현했다.

ⓒ연합뉴스핸슨로보틱스의 데이비드 핸슨 CEO(왼쪽)와 ‘로봇의 기본 권리’에 대해 말하는 AI 로봇 ‘소피아’.

르쿤은 지난 1월5일 자신의 트위터에 “소피아가 인공지능이면 눈속임 요술이 진정한 마법이다. 소피아는 ‘오즈의 마법사 인공지능(Wizard-of Oz AI)’으로 불려 마땅하다”라고 썼다. 인간세계에서 한낱 삼류 마법사였던 오스카 조로아스터가 가상의 대륙 오즈에 조난당한 뒤 무시무시한 대마법사로 외경받는 내용의 동화 〈오즈의 마법사〉를 소피아에 빗댄 것이다. 소피아를 인터뷰한 언론사까지 비난했다. “테크 인사이더(비즈니스 인사이더), 당신들은 이 난리법석의 공범자야!”

인공지능 발달의 적은 ‘과장과 환상’

인공지능의 발전 단계와 전망을 세계에서 가장 깊이 아는 사람 중 하나일 르쿤은 〈시사IN〉과 인터뷰하면서 소피아를 이렇게 평가했다. “(인간을 파괴하겠다는 발언에 대해) 소피아는 자신이 무슨 말을 하는지도 이해하지 못한다. 그것(소피아)은 인터넷에 흩어져 있는 많은 문장들을 이용해 대화하도록 훈련받았고, (특정 질문이 나오면 그것에) 통계적으로 가장 적절한 문장을 골라 출력하도록 되어 있다. 사람들은 소피아에게 ‘똑똑하다’는 인상을 갖지만 사실은 눈속임 요술이며 마리오네트(꼭두각시 인형)다. 심지어 소피아는 그리 뛰어난 인공지능이라고도 볼 수 없다. 소피아의 발언을 두려워할 필요는 없다.”

르쿤이 소피아에 분노하는 이유는, 인공지능의 능력에 대한 과장과 환상이 순식간에 ‘인공지능의 겨울’로 이어지는 광경을 거듭 봐왔기 때문이다. “인공지능에 대한 과장(AI Hype)은 매우 위험하다. 연구자와 산업, 사회에 무거운 짐으로 돌아오게 된다. 인공지능 관계자들은 이루지 못할 약속을 삼가야 한다. 그 약속이 이뤄지지 않았을 때 사회는 인공지능이 황당한 것이고 더 이상의 발전도 불가능하다고 믿게 된다. 투자자들은 투자를 중단한다. 심지어 언론은, 인공지능이 인류를 지배하게 된다는 식으로 영화 〈터미네이터〉 유의 시나리오를 기사화하는데 비판받아 마땅하다. 실현될 수 없는 시나리오다.” 그러나 르쿤은 영화 〈터미네이터〉를 좋아한다. “그 영화엔 일어날 수 없는 사건들이 많이 포함되어 있다. 그러나 재미있는 오락물이란 점에는 의문의 여지가 없다.”

그런데 수많은 사람들이 ‘인공지능 발전의 결정적 성과’라 믿는 소피아가 사실은 자신이 말하는 것도 이해하지 못한다면, 도대체 이해(understanding)와 지식(knowledge)이란 무엇인가? 인간은 어떤 경우에 ‘나는 그것을 안다(이해한다)’라고 하는가? 지금의 인공지능은 세계를 어느 정도 수준까지 이해하며 어떤 일을 할 수 있는가? 글로벌 구루의 대답은 다음과 같았다.

“인공지능은 (인간에 비하면) 좁은 범위의 일을 수행할 수 있다. 우선 개·고양이·자동차 같은 대상을 인식하고, 자동차를 운전하며, 문장의 의미를 잡아챌 수 있다. 특정 언어를 다른 언어로 번역하는 것도 가능하다. 이런 능력들은 대부분 이른바 ‘지도학습(supervised learning)’으로 가능해졌다.”

지도학습은 이른바 ‘기계학습(ma-chine learning)’의 방법 중 하나다. 학습이란 ‘문제의 규칙을 익히는 작업’이다. 일단 학습을 마치면, 같은 유형의 다른 문제를 풀 수 있어야 한다. 어린이가 ‘1+2’ ‘2+3’ 등 더하기 문제를 해결하는 덧셈 규칙을 익혀 ‘12+15’도 풀 수 있을 때 ‘학습했다’라고 평가한다. 기계학습은 문자 그대로, 기계가 어떤 문제를 해결하기 위한 규칙을 습득한다는 의미다.

개와 고양이 같은 대상을 인식하는 ‘지도학습’에 AI는 능하다.
ⓒAP Photo강화학습으로 자율주행차를 훈련하려면 수천 회의 사고를 감당해야 한다.

예컨대 ‘강아지 사진을 고르라’는 문제가 있다고 치자. 컴퓨터에게는 굉장히 어려운 문제다. 가장 간단한 해결 방법은, 인간 프로그래머가 강아지의 특성들을 컴퓨터에 일일이 입력해주는 것이다. ‘네 발로 서 있다’ ‘얼굴이 역삼각형이다’ ‘입이 튀어나와 있다’ ‘얼굴의 아래로부터 위로 3분의 1 지점에 둥근 형태의 코가 있다’ 따위. 대상의 특성을 언어로 표현하기는 결코 쉬운 일이 아니다. 이럭저럭 수많은 특성을 자세히 입력하면, 컴퓨터는 그 특성들을 조합해서 강아지를 골라낼 수 있기는 할 것이다. 그러나 컴퓨터가 ‘학습’한 것은 아니다. 사람이 제공한 ‘강아지를 강아지로 인식하는 규칙(특성)’들을 받아 명령대로 수행한 것에 불과하기 때문이다. 

이에 비해 기계학습에서는 컴퓨터가 훈련을 통해 강아지를 인식하는 규칙을 스스로 익힌다. 사람은 컴퓨터에게 미리 준비한 강아지, 고양이, 자동차, 의자 등의 사진(훈련 자료)을 보여주면서 강아지를 고르라고 ‘지도’한다. 사진에는 정답(강아지, 고양이 등)이 달려 있다. 컴퓨터는 수많은 사진 자료를 보고 맞히거나 틀리면서 점점 더 강아지의 특성을 잘 알게 된다. 제시된 자료 속 대상의 발이 네 개면 ‘강아지일 가능성이 매우 크고’, 입이 튀어나와 있으면 ‘어느 정도 강아지일 가능성이 있다’는 식으로 나름의 ‘규칙’을 만든다. 그러던 중 예컨대 자동차를 강아지로 판단하는 실수를 범할 수 있다. ‘발이 네 개면 강아지일 가능성이 매우 크다’는 규칙을 만들어놓았는데 자동차도 발이 네 개이기 때문이다. 오류를 범했다는 것을 인지한 컴퓨터는 강아지를 가리는 문제에서 ‘발이 네 개’의 중요성을 줄이고 ‘튀어나온 입’과 ‘역삼각형 얼굴’의 중요성을 강화하는 쪽으로 규칙을 스스로 바꾼다. 수십만~수백만 장의 자료가 동원되는 훈련을 거치고 나면 컴퓨터는 새로운 사진에 대해서도 강아지 여부를 꽤 정확하게 가려내게 된다. 이를 위한 규칙은 컴퓨터가 스스로 만들었지만(학습), 정답이 달린 자료를 제공하면서 규칙을 형성하게 ‘지도’한 것은 사람이다. 지도학습이라 부르는 이유다.

지도학습 이외의 기계학습으로는 ‘강화학습(reinforcement learning)’이 있다. 이세돌 9단을 이긴 알파고가 단기간에 무지막지한 바둑 실력을 쌓은 학습 모델이다. 컴퓨터의 출력 결과에 따라 보상하거나 벌을 준다. 컴퓨터는 보상과 벌칙을 감안하면서 점점 더 최선의 결정을 내리도록 학습한다. 어린이에게 상벌을 주는 방법으로 올바른 행위를 유도하는 것과 비슷하다. 그러나 강화학습에 대한 르쿤의 평가는 그리 후하지 않았다. “기계에게 (지도학습과 달리) 정답을 제시하지 않고 질문만 던진다. 기계가 올바른 대답을 내놓으면 ‘맞다’라고 하면 된다(기계에 대한 보상). 강화학습은 바둑, 체스 등 게임에 많이 활용된다. 컴퓨터가 한국 바둑 챔피언 이세돌 같은 고수들과 대전할 수 있었던 이유다. 강화학습 모델은 발전 중이지만 한계도 있다. 게임에서만 잘 작동할 수 있기 때문이다.”

ⓒ연합뉴스구글 인공지능 ‘알파고’와 대국 중인 이세돌 9단(오른쪽).

게임 밖의 현실 세계에서 강화학습으로 컴퓨터를 훈련시킬 수는 없다. “만약 강화학습으로 자율주행차를 훈련하려면 제대로 운전하기까지 수천 회에 걸쳐 가로수와 충돌하고 수천명의 보행자에게 중상을 입혀야 한다. 더욱이 엄청나게 긴 훈련 시간이 필요하다. 사람의 경우, 20~30시간 연습하면 사고를 내지 않고 자동차를 운전할 수 있다. 기계는 수천~수만 시간을 연습해야 한다. 기계는 사람과 달리 스스로 판단할 수 없기 때문이다. 오늘날 인공지능의 한계다.”

르쿤은 2017년 10월 〈비즈니스 인사이더〉와의 인터뷰에서 “기계가 (게임 같은 특수 분야에서는) 초인적인 일을 수행할 수 있다고 하지만, 일반 지능(general intelligence:인간처럼 모든 상황에 일반적으로 두루 사용할 수 있는 지능)의 관점에서 보면 쥐의 수준에도 미치지 못한다”라고 혹평했다.

왜 그런가? 르쿤은 〈시사IN〉과의 인터뷰에서, 인간과 동물은 지도받지 않아도 ‘세계에 대한 기본 지식’을 학습할 수 있기 때문이라고 말했다. “인간의 아기는 (감독자가 정답을 붙인 자료를 제시하며 훈련하지 않아도) 단지 관찰로써 세상에 대해 엄청난 양의 지식을 배운다. ‘3차원 공간을 파악하는 법’ ‘하나의 물건이 한 시점에서 두 공간에 동시에 존재할 수 없다는 것’ ‘어떤 물건을 보고 있는데 누군가 앞을 가려도 그 물건은 그 자리에 그대로 존재한다는 것’ ‘허공으로 던진 물건은 다시 떨어진다’ 따위 개념을 그저 관찰하면서 알게 된다. 우리는 기계 역시 세상을 관찰하는 것만으로 학습할 수 있기를 바라지만, 아직까진 그렇지 않다.”

르쿤이 언급한, 인간이 자기도 모르게 학습하는 ‘엄청난 양의 지식’을 ‘상식(common sense)’이라고 부른다. 그 상식의 내용(예컨대 ‘허공으로 던진 물건은 떨어진다’)은 ‘세계의 법칙’ 혹은 ‘세계의 제약’이다. 사람 역시 이런 상식을 태어날 때부터 가진 것은 아니라고, 르쿤은 믿는다. 태어난 뒤 세상을 ‘관찰하면서 자연스럽게 학습’하게 되었다는 것이다. 이런 종류의 학습 방법을 ‘비지도 학습(unsupervised learning)’이라고 부른다.

“예측은 지능의 실체, 인공지능의 핵심”

기계학습에서 가장 발전되지 못한 학습 모델이다. 물론 비지도 학습은, ‘정답이 달리지 않은 자료’를 수없이 제시한 뒤 컴퓨터가 알아서 그 자료들의 특성이나 관계를 파악하도록 하는 방식으로 지금도 시행 중이다. 그러나 데이터만 많이 확보할 수 있다면, 지도학습으로 컴퓨터를 훈련시키는 방법이 비지도 학습보다 훨씬 뛰어나다고 한다. 르쿤에 따르면, 인공지능이 현재 수준을 훌쩍 뛰어넘는 방법은 미개척지인 비지도 학습을 개발하는 것 외에 없다. 그는 저명한 인공지능 학회인 ‘NIPS(신경정보처리시스템 학회) 2016’에서 이렇게 말한 바 있다. “만약 지능이 케이크라면 비지도 학습은 케이크의 본체다. 지도학습은 케이크 본체의 겉에 발린 크림(icing)이고, 강화학습은 케이크 위의 체리다. 우리는 크림과 체리를 어떻게 만드는지 안다. 그러나 케이크를 만드는 법은 모른다.”

‘지도학습’과 ‘강화학습’이 케이크의 크림과 체리라면 ‘비지도 학습’은 케이크의 본체다.

그래서 앞으로 10년 사이 인공지능 학계 및 업계가 직면할 가장 큰 도전은 ‘관찰로 학습하는 기계를 내놓을 수 있는가’라고 르쿤은 전망한다. “만약 우리가 이 문제를 해결한다면 기계는 상식을 획득하게 된다. 그 단계에 도달해야 비로소 우리는 설거지와 청소를 하고 쓰레기를 버리는 가정부 로봇을 양산할 수 있을 것이다.” 

그런데 상식에는 ‘시간의 흐름’도 포함된다. 인공지능은 아직 시간 개념을 모른다. 사람이 여기에서 저기까지 걸어가는 모습이 기계에게는 한 컷 한 컷의 정지 화면으로 인식될 뿐이다. 그 컷들 간의 관계(=시간)를 이해하지 못한다. ‘시간의 흐름’이라는 상식을 모른다면, 어떤 일의 결과로 ‘잠시 후’ 발생할 사건 역시 ‘예측’할 수 없다. 접시를 놓치면 잠시 후 바닥에 떨어져 깨진다는 것마저 예측하지 못하는 가정부를 사용하다간 편익보다 비용이 훨씬 커질 것이다. 상식이 없으면 예측도 없다.

르쿤은 〈시사IN〉 인터뷰에서 “예측은 지능의 실체”라며 다음과 같이 설명했다. “인간은 자신의 행위가 세상에 어떤 영향을 미치는지 예측할 수 있다. 작은 물체를 밀면 움직이지만, 큰 물체라면 더 큰 에너지로 밀어야 한다는 것을 안다. 인간은 예측으로, 자동차 운전대를 잘못 틀어 가로수에 부딪치면 아주 나쁜 일이 발생한다는 것을 추론할 수 있다. 이렇게 행동의 결과를 예측할 수 있기 때문에 계획을 세워 불행한 사태를 방지하는 것이다. 인간이 20~30시간만 학습하면 운전할 수 있는 이유다. 이처럼 관찰로 세계의 제약을 학습하고, 이에 기초해서 예측하며 계획할 수 있는 능력을 인공지능은 갖추지 못했다.” 그는 인공지능 업계의 용어 중 하나인 ‘비지도 학습’의 의미가 모호하다며, ‘예측학습(predictive learning)’ ‘자가지도 학습(self-supervised learning)’으로 대체하자고 주장해왔다.

컴퓨터에게 예측 능력을 갖추게 하려면 어떻게 해야 하나? 르쿤 역시 아직까지 명확한 방법론을 제시할 수 있는 것 같진 않다. 지금까지 해온 것처럼 가능한 길을 찾아 조금씩 전진할 따름이다. 이런 측면에서 그는 최근 이른바 ‘생성적 적대 신경망(GANs·오른쪽 상자 기사 참조)’에 큰 관심을 갖고 있다. 이 기술에 대해 그는 “지난 20여 년 동안 나온 기계학습 기술 가운데 가장 ‘쿨’하다”라고 평가하기도 했다.

르쿤이 근무하는 페이스북의 연구팀은 최근 ‘생성적 적대 신경망’에 콘볼루션 기술을 적용해 예측 능력을 테스트했는데 괜찮은 성과를 거뒀다. 인공 신경망에 사람이 걸어가거나 머리를 흔드는 비디오 프레임 넉 장을 입력한 뒤 다음 프레임 2장을 생성토록 했다. 그런데 기계가 이전 프레임의 ‘시간적 연속’으로 간주할 수 있는 프레임을 생성해낸 것이다. 보잘것없는 성과로 보일 수도 있지만, ‘기계의 예측’에 대한 가능성이 어렴풋하게 드러났다. 물론 예측은 상식 위에 피는 꽃이다. 그러나 현실에서 꽃이 피었다면 그 밑에 상식이 어느덧 존재하기 시작한 것으로 간주할 수도 있지 않을까?

앞으로 인공지능 기술의 비약적 발전으로 기계가 상식에 기초한 예측을 할 수 있게 된다면 세상은 어떻게 바뀔까? 르쿤의 전망은 소박했다. “모바일 비서나 로봇이 수송, 의료, 보육 등 우리의 일상에 실제로 도움이 되는 간단한 일을 수행할 수 있게 될 것이다. AI 기술로 인한 의료 서비스의 개선으로 수많은 인명을 구하고 자율주행차 부문에서도 적합한 시스템이 등장할 것이다.”

절대 발생할 수 없는 시나리오도 있다. “인공지능의 발전으로 ‘터미네이터 로봇’이 탄생해서 인류를 멸종시키는 일은 불가능하다. 우리가 아무리 지능적인 기계를 만들어도, 기계는 인간을 지배하려는 의지를 갖지 못한다. 지배 의지와 지능 사이에는 어떤 관계도 없기 때문이다. 인간이 지배욕을 가지는 것은 사회적 동물이기 때문이다. 다른 개체에 영향을 미칠 수 있으므로 지배 의지를 갖게 된다. 인간 이외의 지능적 개체 중 오랑우탄을 살펴보면, 홀로 사는 녀석에게는 지배욕이 없다. 사회적 관계 자체가 없기 때문이다. 우리가 미래에 만나게 될 인공지능 로봇은 터미네이터가 아니라 〈스타워즈〉의 C-3PO나 R2-D2에 가까울 것이다.”



진짜 같은 가짜 여기에 기술이?


얀 르쿤 교수가 요즘 관심을 갖고 있는 ‘생성적 적대 신경망(GANs:Generative Adversarial Networks)’은, 서로 경쟁하는 두 개의 인공 신경망을 활용해서 ‘진짜 같은 가짜’를 만들어내는 기술이다.

창안자인 이언 굿펠로는 위조지폐의 사례를 들어 GANs를 설명한다. 예컨대 신경망 중 하나는 생성자(generator·위조범)로서 위조지폐를 만든다. 다른 하나는 감식자(discriminator·경찰관)로서 제시된 이미지의 위조 여부를 판독한다. 초기 단계에서 생성자는 아주 엉성한 위조지폐를 만든다. 감식자는 이런 위조지폐에도 속아 넘어갈 수 있다. ‘초보’이기 때문이다. 이런 경우에는 사람이 개입해서 감식자에게 위조지폐라는 사실을 알려준다. 생성자에게는 적발되었다고 지적해준다. 다음 단계에서 지폐에 이미지가 들어간다는 것을 알게 된 생성자는 미키마우스라도 넣어서 작품을 만든다. 감식자는 세종대왕 대신 생쥐가 들어간 지폐에 위조 판정을 내린다. 이런 식으로 한쪽은 속이려 하고 다른 쪽은 속지 않으려고 발버둥 치는 사이에 양측의 실력이 점점 발전하게 된다. 결국 진짜 같은 가짜 지폐가 생성된다.


지도학습(supervised learning)에서 컴퓨터는 정답을 붙여둔 이미지 자료의 학습으로 특정 대상(예컨대 강아지)을 가려낼 수 있게 되었다. 다만 이것만으로 해당 컴퓨터가 그 대상의 개념을 ‘이해한다’라고 단정 짓기는 어렵다. 그러나 GANs에서는 컴퓨터가 ‘진짜 같은 가짜’를 만들어낸다. 기계가 어떤 이미지를 가려내는 정도가 아니라 생성할 수 있다면, 그 대상을 이해하는 것으로 간주할 수도 있지 않을까? 뭔가를 알아야 만들어낼 수도 있을 것이기 때문이다. 르쿤을 포함한 컴퓨터 과학자들이 GANs에 흥분한 이유다. 

 

기자명 프랑스 그르노블·이종태 기자 다른기사 보기 peeker@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사