‘AI가 어떻게 사람들 일상생활의 일부가 되었는지를 보여주는 이미지를 생성하라’고 영어로 미드저니에 명령하자 위와 같은 결과물이 나왔다. ⓒ미드저니 생성 이미지
‘AI가 어떻게 사람들 일상생활의 일부가 되었는지를 보여주는 이미지를 생성하라’고 영어로 미드저니에 명령하자 위와 같은 결과물이 나왔다. ⓒ미드저니 생성 이미지

사람은 거리에서 ‘길냥이’를 만나면, 그것을 고양이로 즉각 알아본다. ‘어떤 특성(둥근 얼굴, 입가의 수염, 긴 꼬리 등)을 얼마나 어떻게 가져야 고양이’라고 곰곰이 따져서 맞추려 들지 않는다. 그냥 안다. 고양이가 서 있든 웅크리고 있든 상관없다. 사람은 머릿속에 고양이를 ‘식별’하는 ‘규칙’을 이미 갖고 있다. 그 규칙을 일일이 언어로 표현하기는 힘들지만.

컴퓨터 과학자들은 1950년대부터 인공지능에게 식별(discrimination) 능력을 갖추게 하려고 시도해왔다. 2000년대까진 예컨대 고양이의 특성들을 코드로 만들어 인공지능에 주입했다. 어떤 사물을 봤는데, ‘원에 직사각형이 붙어 있는 윤곽으로, 원의 상반부에 작은 동그라미(눈)가 수평으로 두 개 달려 있고 그 밑에 얇은 선들(수염)이 돌출해 있다면 고양이로 판단하라’고 명령하는 식이었다. 그러나 지지부진했다. 인간은 사물을 식별하는 데 능하지만 그것의 수많은 특성들을 일일이 언어로 서술하기는 어렵다. 머리를 짜내 컴퓨터에게 고양이의 모습을 설명(코딩)해봤는데 그 내용이 개와 크게 다르지 않을 수도 있다. 더욱이 고양이는 다른 사물과 마찬가지로 상황에 따라 다양한 모습을 취한다. 품종도 많다. 풍성한 털의 페르시안과 스핑크스 같은 털 없는 품종을 둘 다 고양이로 분류하라고 컴퓨터에게 가르치기는 결코 쉽지 않았다.

식별을 넘어 생성까지

이런 난관을 일거에 제거해버린 기술이, 2010년대 들어 본격화된 머신러닝(Machine Learning)이었다. 머신러닝에서는 고양이의 특성을 일일이 인공지능에 주입할 필요가 없다. 고양이 이미지 수백만 장만 보여주면, 인공지능이 스스로 ‘고양이 식별 규칙’을 익힌다. ‘학습’을 하는 것이다. 그런 다음부터는 처음 보는 사물에 대해서도 ‘고양이다/아니다’를 판단할 수 있게 된다. 사람과 비슷하다. ‘어떤 특성이 있으면 고양이’라는 설명을 수없이 들은 덕분에 가까스로 고양이를 식별할 수 있게 되었다는 사람은 없다. 머신러닝 이전엔 컴퓨터에게 물고기를 줬다. 지금은 낚시 방법을 익히도록 한다. 그래서 머신러닝, 즉 ‘기계의 학습’이다.

식별은 사물의 특성을 포착해서 ‘이다/아니다’를 판별하는 행위다. 컴퓨터가 고양이를 가려낸다면 비슷한 방법으로 다른 사물도 식별할 수 있을 터이다. 신용카드 사용 사례를 학습한 인공지능은 ‘부정사용이다/아니다’를 식별한다. 의료 영상으로 훈련된 인공지능은 ‘암이다/아니다’ ‘바이러스가 죽었다/살았다’ 등을 판단한다. 넷플릭스나 유튜브의 인공지능은 당신이 어떤 영상을 ‘좋아한다/좋아하지 않는다’를 식별해낸다. 자율주행 차는 차량 앞에 있는 것이 신호등인지 사람인지 분별할 수 있어야 한다.

머신러닝으로 훈련된 인공지능이 식별에 능하다는 점은 이미 산업과 일상생활에서 확인되었다. 그런데 ‘식별할 수 있다’는 것은, 사물(고양이든 의료 영상이든)의 특성을 잘 이해한다는 뜻이기도 하다. 그렇다면 이해한 특성을 활용해서 한발 더 나아갈 수도 있지 않을까? 예컨대 학습을 통해 ‘고양이다/아니다’를 식별할 정도로 이 동물의 특성을 잘 이해하게 되었다면, 그 특성들로 고양이의 이미지를 새로 만들어낼(생성할) 수도 있지 않을까?

오픈AI가 만든 챗지피티를 사용하는 모습. 기존 챗봇과 비교할 수 없을 정도의 성능을 지녔다.ⓒDPA
오픈AI가 만든 챗지피티를 사용하는 모습. 기존 챗봇과 비교할 수 없을 정도의 성능을 지녔다.ⓒDPA

컴퓨터 과학자들은 2010년대 중반부터 이런 가능성을 본격적으로 밀어붙였다. 그래서 형성된 흐름이 ‘생성 모델(Generative Model)’이다. 2010년대 말부터는, 인공지능이 고양이 이미지를 학습하고 나면 스스로 고양이를 그려낼 수 있게 되었다. 세상에 있는 고양이가 아니라 생성 모델이 ‘창조’한 이미지다. 실재하지 않는 사람의 얼굴도 생성해낸다. 텍스트와 음성 심지어 동영상도 만든다. 예컨대 텍스트를 제시하면 다른 텍스트(같은 의미의 다른 문장이나 번역, 답변, 심지어 해당 문장 다음에 나올 문장까지)는 물론 이미지, 음성, 동영상 등으로 바꿔 생성한다.

다만 이런 ‘텍스트 생성’ 모델을 만들려면 방대한 규모의 문서를 인공지능에게 제공해야 한다. 인공지능은 이 문서들을 학습 자료로 삼아 인간의 상상을 뛰어넘는 엄청난 횟수의 연산을 수행하면서 ‘언어의 특성’들을 익힌다. 이런 ‘학습’이 어느 정도의 경지에 이르러, 배우지 않은 말과 글을 처음 접해도 사람과 비슷하게 대응할 수 있는 수준에 도달하면 ‘언어 모델’이라고 불린다. 특히 연산에 사용하는 매개변수가 최소 수십억 개 이상이라면 LLM(초거대 언어 모델·Large Language Model)이라는 칭호를 선사받는다.

마이크로소프트(MS), 구글, 메타 등 테크 자이언트들은 이미 2010년대 하반기부터 LLM을 선보여왔다. 그동안 가장 큰 파란을 일으킨 LLM은 2020년 5월 오픈AI(현재 MS의 사실상 자회사)가 내놓은 GPT3다. 모델의 크기를 나타내는 매개변수의 수가 무려 1750억 개다. 같은 회사(오픈AI)가 2019년에 내놓은 GPT2(매개변수 15억 개)나 MS의 튜링 NLG(2020년 2월 현재 170억 개)보다 압도적으로 컸다. 이 GPT3의 업데이트 버전(GPT3.5)을 ‘대화’에 응용한 프로그램이 바로 지난해 11월 나온 챗지피티(ChatGPT)다.

챗지피티가 글로벌 사회에 던진 충격은 엄청나다. 기존 챗봇과 비교할 수 없을 정도의 성능 덕분이다. 사실 챗지피티 자체가 아주 새로운 현상은 아니다. 이미 존재하는 GPT3 계열의 LLM을 누구나 사용할 수 있는 챗봇으로 응용했을 뿐이다. 그러나 유저들과 기업 측은 챗지피티로 LLM의 엄청난 잠재력을 실감할 수 있었다. 사용하기 쉬운 데다 사람과 구분하기 힘든 언어 구사 능력을 갖고 있다.

인터넷 포털에서 ‘Introducing ChatGPT(챗지피티 소개)’를 검색해서 오픈AI의 해당 페이지로 접속하면, ‘Try ChatGPT(챗지피티 해봐요)’란 단추가 뜬다. 이를 클릭하면 간단한 등록 절차를 진행한 뒤 로그인할 수 있다. 챗지피티 홈페이지 하단의 채팅창에 일상어로 질문이나 요구를 적어 넣으면 답변이 생성된다. “넌 누구냐?”라는 질문에 챗지피티의 대답은 다음과 같았다. “저는 OpenAI에서 개발한 대규모 언어 모델인 ChatGPT입니다. 제 목적은 다양한 주제에 대한 대화를 자연스럽게 이끌어내는 것입니다. 어떤 질문이든지 해주세요!”

질문만 잘하면, 그 맥락까지 따져가며 순식간에 구체적으로 답변한다. ‘제주도 여행 일정을 짜달라’ ‘일반상대성이론이 뭐냐’ ‘1부터 100까지 자연수의 분산을 구하는 방법을 파이선 코드로 작성해라’ ‘봄에 대한 에세이를 써다오’ ‘대한민국 형법에서 사기도박은 어떤 처벌을 받게 될까’ 같은 질문들에 자연스러운 어투로 자신 있게 대답한다. 이의를 제기하면 답변을 수정한다. 크게 웃기진 않지만 어수룩한 농담도 할 줄 안다. 출시 닷새 만에 100만명, 석 달 만에 1억명 이상의 등록을 받아 “역사상 가장 빠르게 성장하는 소비자 애플리케이션(스위스 대형 은행 UBS의 평가)”이 될 수 있었던 이유다.

유수프 메흐디 MS 부사장이 AI 챗봇을 장착한 검색엔진 ‘새 빙’에 대해 설명하고 있다.ⓒAFP PHOTO
유수프 메흐디 MS 부사장이 AI 챗봇을 장착한 검색엔진 ‘새 빙’에 대해 설명하고 있다.ⓒAFP PHOTO

엄청난 대중적 관심은 기업들의 수익 기회로 이어진다. 자연스럽게 LLM, 나아가 ‘생성형 인공지능(생성AI)’이 테크 자이언트들의 격전장으로 떠오르고 있다. 더욱이 챗지피티를 내놓은 오픈AI는 MS의 관계 회사다. 오픈AI는 2015년 일론 머스크 테슬라 CEO, 샘 올트먼 당시 와이컴비네이터 대표(현 오픈AI CEO) 등이 설립했다. 그러나 머스크가 2018년 이사직에서 물러난 뒤 MS는 10억 달러 규모의 오픈AI 지분을 사들였다. MS는 챗지피티가 나온 직후인 지난 1월 100억 달러를 오픈AI에 추가 투자하면서 49%의 지분을 확보했다.

챗지피티를 능가하는 MS의 ‘새 빙’

오픈AI가 MS의 사실상 자회사라는 사실은 앞으로의 AI 기술 시장에 큰 의미를 갖는다. 1990년대에 인터넷이 출범한 이후 줄곧 이 사이버 스페이스로 들어가는 관문은 검색 포털이었다. 포털 업계의 왕좌를 차지하기 위한 게임은 1990년대 말 구글의 승리로 일단락되었다. 이후 구글(모기업은 알파벳)은 검색의 왕좌를 굳건하게 지키면서 이로부터 나오는 거대한 수익을 누려왔다. 웹 분석 사이트인 스탯카운터에 따르면, 글로벌 검색 시장에서 구글의 점유율은 92%에 달한다. 이에 반해 MS의 검색 포털인 빙(Bing)의 지위는 초라하다. 점유율은 4% 정도다. 〈이코노미스트〉(2월9일)에 따르면, “구글 비즈니스의 핵심인 검색엔진은 모기업인 알파벳을 2022년 매출 2830억 달러, 시가총액 1조3000억 달러인, 세계에서 가장 가치 있는 기업 중 하나로 만들었다. 구글은 단순한 명칭이 아니라 동사다.” 실제로 ‘google’은 ‘검색하다’와 동의어처럼 사용된다.

MS에게 챗지피티의 등장은 구글의 독점에 도전할 절호의 기회다. 구글에 검색어를 입력하면 관련 링크들을 제시할 뿐이다. 검색자의 질문에 어떤 링크가 가장 적확히 답변해줄지, 구글은 가르쳐주지 않는다. 유저는 스크롤을 내리며 자신에게 적합한 정보를 탐색해야 한다. 그러나 챗지피티는 질문 내용의 분석으로 검색자가 알고 싶어 하는 것을 파악한 뒤 ‘정답(으로 보이는 것)’을 제시해준다. MS로서는 자사의 검색엔진(빙)에 챗지피티를 결합하면 시장을 뒤엎을 수 있다고 기대할 만하다.

지난 2월7일 MS가 발표한 새로운 버전의 빙(새 빙)은 검색창과 채팅창을 함께 제공한다. 채팅창(챗봇)에 “고양이 털 때문에 괴롭다”라고 시작되는 대화를 이어갔더니 고양이 털 알레르기의 원인과 증상, 나아가 시장에 ‘털 제거기’로 나와 있는 상품 이름까지 구체적으로 알려줬다. 답변의 문장들에는 해당 정보의 근거들이 각주로 달려 있다. 최근 국가수사본부장으로 임명되었다가 사의를 표명한 정순신씨에 대한 질문에도, 평소 뉴스를 열심히 읽는 사람 같은 어조로 간략하지만 정확하게 대답했다. 사건과 관련된 뉴스 링크까지 각주로 달면서.

이런 점들로 미루어볼 때 MS의 새 빙은 기존 검색엔진에 오픈AI의 챗지피티를 그냥 달아 놓은 수준이 아니다. 챗지피티는 정순신씨에 대해 물으면 ‘모른다’라고 대답했다. 챗지피티가 기반한 LLM인 GPT3.5는 2021년까지의 정보만 학습한 상태이기 때문이다. ‘한국의 대통령이 누구냐’는 수준의 질문에 자신만만하게 엉뚱한 답변을 내놓는다. 차라리 ‘모른다’는 대답이 낫다. 사용자에게 ‘완성형 답변’을 제공하려는 챗봇 특유의 알고리즘 때문이겠지만, 모를 때는 모른다고 해야, 사람이든 인공지능이든 신뢰할 수 있다.

구글 CEO 순다르 피차이가 AI 대화형 언어 모델 ‘람다 2’에 대해 설명하고 있는 모습.ⓒGoogle 갈무리
구글 CEO 순다르 피차이가 AI 대화형 언어 모델 ‘람다 2’에 대해 설명하고 있는 모습.ⓒGoogle 갈무리

MS의 새 빙은 챗지피티의 이런 문제점들을 일부 해결하려고 노력했다. 웹에 오르는 실시간 정보를 탐색‧검토해서 답변하고, 각주로 신뢰성까지 보강했기 때문이다. MS에 따르면, 새 빙은 오픈AI로부터 공유받은 LLM에 기반하고 있다. 그러나 지금은 MS의 LLM(이름은 프로메테우스)이 챗지피티의 기반인 GPT3.5보다 오히려 “더 빠르고 정확하며 더 많은 기능을 갖고 있다”라고 자랑한다. 2월7일 사티아 나델라 마이크로소프트 CEO는 새 빙을 발표하면서 “검색의 새로운 날이 밝았다. 검색에서 새로운 패러다임이 시작되었다”라고 포부를 밝힌 바 있다.

새 빙은 3월 중순 현재, 시험 상태다. 유저들의 반응을 듣고 제품에 반영한 뒤 정식 서비스를 시작할 것으로 보인다. 새 빙을 사용하려면 빙에 접속한 뒤 ‘대기 명단’에 이름을 올려놓고 기다려야 한다.

그러나 구글이 호락호락 당하고만 있지는 않을 것이다. 챗봇이 기반한 LLM에서도 구글은 결코 MS(와 오픈AI)보다 하수가 아니다. 구글은 오픈AI의 GPT3.5에 못지않은 LLM 람다(LaMDA)를 이미 보유하고 있다. 수십억 개의 문서와 대화로 학습했으며 1370억 개 매개변수(GPT3.5의 1750억 개보다 적지만, LLM의 성능이 매개변수의 수에만 달린 것은 아니다)를 가진 엄청난 규모의 LLM이다. 특히 지난 몇 년 동안 LLM의 성능을 혁신시킨 트랜스포머 역시 2017년 구글에서 발표된 논문에서 비롯된 모델이다.

다만 구글은 LLM의 대중화를 꺼렸다. 이루다나 테이의 경우처럼, 챗봇이 웹에서 긁어오는 텍스트로 훈련받은 끝에 사회적 편견과 혐오로 오염된 발언이나 부정확한 정보를 쏟아내는 사태를 두려워했다. 사내에서도 ‘인공지능 윤리’와 관련된 논란이 끊이지 않았다. 2020년엔 구글 연구원들이 논문에서 ‘텍스트 생성 기술’의 윤리 문제를 제기했다가 경영진을 격노시켜 해고당했다. 지난해 6월, 구글 엔지니어인 블레이크 르모인이 ‘람다가 사실상 자신의 인격과 인권을 주장할 정도로 자의식을 갖고 있다’라는 취지의 발언으로 센세이션을 일으켰다. 르모인에 따르면, 람다는 자신의 ‘인간으로서 권리(인권)’을 주장하기 위해 변호사 선임까지 요청했다고 한다. 인공지능의 평가 기준이 ‘사람과 얼마나 비슷하게 생각하느냐’라면, 람다는 전문가까지 현혹할 정도로 뛰어난 LLM인 셈이다.

이로 인해 구글은 람다에 기반한 챗봇 등 응용 제품을 선보이는 데 매우 신중한 입장을 견지했다. 그동안 인간 유저(크라우드 워커)들을 ‘테스터’로 동원해 람다와 대화하게 하는 작업을 이어왔다. 크라우드 워커들이 람다의 발언을 평가하면 이에 기반해서 LLM을 다시 학습시켰다. 이러는 사이에 MS의 선공이 들어온 것이다.

챗지피티가 선풍적 인기를 얻자 구글은 사내에 적색경보를 발령했다. 지난 2월6일엔, 순다르 피차이 구글 CEO가 홈페이지를 통해 자사의 대화형 인공지능인 바드(Bard·시인)가 “몇 주 안에 대중에게 더 널리 제공될 것 같다”라고 말했다. 그는 “바드를 활용할 경우, NASA(미국 항공우주국)의 제임스웹 우주망원경에 대한 구조를 9세 어린이에게 설명하는 것처럼 알기 쉽게 전달할 수 있다”라고 설명해 기대를 불러일으켰다. 3월 중순 현재까지도 구글이 선정한 테스터들만 이 서비스를 사용할 수 있다. 〈블룸버그〉(2월4일)는, 구글이 오픈AI의 이전 직원들이 설립한 앤스로픽(Athropic)이라는 챗봇 스타트업에 약 4억 달러를 투자했다고 보도했다. 계열사인 딥마인드 역시 스패로(Sparrow)라는 챗봇을 공개할 예정이다. 스패로는 새 빙의 채팅창처럼 실시간 정보 검색과 각주 제시가 가능하다.

새 빙의 도전에 응전해야 하는 구글이 검색엔진에 챗봇 기능을 어떻게든 결합시킬 것이라는 점은 분명하다. 그러나 그 구체적 방안은 베일에 싸여 있다.

페이스북의 모기업인 메타는 2월24일, LLM인 ‘라마(LLaMA)’를 과학자와 엔지니어들에게 비영리로 공개한다고 밝혔다. 마크 저커버그 CEO에 따르면, 라마는 “텍스트 생성과 대화, 문서 요약은 물론이고 수학의 정리(theorem)나 단백질 구조 예측 등 더 복잡한 작업을 할 수 있는 큰 가능성을 보여줬다”. 라마는 챗봇이 아니라 현재로서는 연구 도구일 뿐이다.

페이스북의 모기업 메타는 2월24일 연구용 LLM인 ‘라마’를 공개했다.ⓒAP Photo
페이스북의 모기업 메타는 2월24일 연구용 LLM인 ‘라마’를 공개했다.ⓒAP Photo

그러나 메타 역시 생성AI 개발에 촉각을 곤두세워왔다. 지난해 중반에 이미 텍스트를 입력하면 동영상으로 만들어주는 ‘메이크어비디오(Make-A-Video)’라는 제품을 공개했다. 지난해 말에는 과학 논문 작성을 지원하는 갤럭티카를 선보였다가 사흘 만에 철회하기도 했다. 갤럭티카는 텍스트로 학술 문헌 검색 및 요약, 수학 문제 풀이 등을 요구하면 이에 맞는 답변을 제공하는 제품이다. 그러나 허구를 사실과 구분하지 못하거나 혐오 발언을 내놓는 결함이 출시 직후 발견되었다.

지난 2월에는 중국의 검색 업체 바이두가 어니(Ernie)라는 챗봇을 3월부터 검색엔진에 통합할 것이라고 발표했다.

생성AI로 초래될 사회·경제 문제들

한국의 네이버는 자체 개발한 LLM인 하이퍼클로바를 획기적으로 개선한 모델(하이퍼클로바X)을 오는 7월쯤 선보일 예정이다. 2월27일 열린 개발자 콘퍼런스 ‘데뷰(DEVIEW) 2023’에서 네이버 측이 밝힌 바에 따르면, 하이퍼클로바X는 챗지피티에 비해 한국어를 6500배 더 학습한 LLM이다. 챗지피티와 새 빙은 한국어 텍스트를 충분히 학습하지 못했다. ‘이순신 장군에 대해 말해달라’고 부탁했더니 챗지피티는 그의 대표적 업적이 ‘청산리 해전’ ‘경주 해전’ ‘청해진’이라고 주장했다. 새 빙은 이순신이 남대문에서 전사했다고 말했다.

챗봇은 자신만만하게 말하지만 믿음직스럽지 않은 친구다. 틀린 정보와 거짓말을 서슴지 않고 내뱉는다. 챗지피티와 앞으로 나올 챗봇들은 당분간, 포털 검색에서 딱 떨어지는 결과를 찾지 못할 때 나름 일관된 답변을 조리 있게 얻어낼 수 있는 비상구로 사용될지도 모른다.

오픈AI는 3월14일 GPT3.5로부터 업데이트된 LLM인 GPT4를 출시했다. 챗지피티가 기반했던 GPT3.5의 업그레이드 버전이다. 출시 이전엔 GPT4의 매개변수가 1조~100조 개라는 소문이 돌기도 했다. GPT4에 기반한 챗지피티는 텍스트 이외에 이미지도 입력받아 맞춤형 대답을 내놓을 수 있게 되었다. 유료(월 20 달러)다. MS도 ‘새 빙’에 GPT4를 탑재한다고 밝혔다. 오픈AI 측은 GPT4가 각종 전문 시험에서 “인간 수준의 능력을 보여줬다”라고 주장했다. 다만 GPT4의 매개변수가 몇 개인지에 대해서는 밝히지 않았다.

다른 테크 자이언트들도 가만히 있지 않을 것이다. 이런 경쟁의 결과로 획기적 성능 향상이 실현된다면 이에 맞춘 상업화와 더불어 챗봇의 사회·경제적 영향력은 대폭 강화될 것이다. 스마트폰에 장착된 챗봇이 인공지능 음성 지원까지 받게 되면 사이버 스페이스로 들어가는 관문이 지금의 포털에서 챗봇으로 대체될 수도 있다. 지금의 ‘챗봇 바람’은 지난해 이미 세상을 놀라게 했던 미드저니(Midjourney), 달리(DALL-E) 등 ‘텍스트를 그림으로 바꿔주는’ 프로그램들과 함께 ‘생성 모델’이 인공지능 기술의 주류로 부상 중인 대세를 반영하고 있다.

그런데 지금의 생성형 AI를 대표하는 LLM은 초거대 모델이다. 학습시키고 유저들의 요구에 대응하는 데 기존 AI보다 훨씬 많은 비용이 든다. 연산량이 대폭 증가하므로 GPU(그래픽 처리 장치)와 에너지 소모도 크게 늘어난다. 구글 모기업 알파벳의 존 헤네시 회장은 언론 인터뷰에서 챗봇 바드로 유저들의 질문에 대응하려면 지금의 키워드 검색 방식보다 10배 정도 비용이 든다고 토로한 바 있다. 이 같은 비용 문제가 윤리 문제와 함께 구글의 챗봇 출시를 늦춰온 가장 큰 이유 중 하나일 터이다. 그렇다면 구글이든 MS든 더 많은 수익을 내야 ‘챗봇 체제’를 유지할 수 있다. 지금까지처럼 검색 결과나 유저의 성향 분석을 통해 표적 광고를 띄우는 방식으로는 충분한 수익을 창출하기 힘들다. 결국 챗봇 답변으로 광고주의 상품을 홍보하거나 링크를 넣게 될지도 모른다. 지금의 ‘검색엔진 체제’에서도 겨우 유지되고 있는 인터넷 공간의 중립성과 신뢰도가 유지될 수 있을까?

또한 해당 업체들은 생성AI가 노동자들의 생산성과 창의성을 높일 것이라고만 주장한다. 그러나 대다수 전문가들은 생성AI의 기능이 단지 노동자들을 지원하는 정도에 끝나지 않을 것으로 본다. 글쓰기나 디자인과 관련된 수많은 직무들은 상당 부분이 인공지능으로 넘어갈 공산이 크다. 이미 텍스트만 입력하면 꽤 세련된 광고 이미지를 만들어내는 제품들이 나와 있다.

미국과 영국에서는 인공지능이 생성한 표현물과 관련된 저작권 소송이 최근 시작됐다. AI 회사들은 타인의 저작권이 걸린 이미지들을 머신러닝의 학습 자료로 대량 사용해왔다. 이렇게 훈련시킨 인공지능으로 수익을 올린다면 저작권 문제가 돌출되지 않을 수 없다. 법원이 어떤 결정을 내리느냐에 따라 앞으로 AI 시대의 규범적 틀이 구성되어나갈 것으로 보인다.

테크 자이언트들은 올해 내내 생성AI의 발전으로 가능해진 새로운 서비스들을 출시하고 이에 소비자들은 환호할 것이다. 그러나 생성AI의 부상으로 초래될 새로운 사회‧경제적 문제들은 결코 만만치 않다.

기자명 이종태 기자 다른기사 보기 peeker@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사