그래픽처리장치(GPU)는 컴퓨터에서 화면 표시를 담당하는 부품이다. 보통 중앙처리장치(CPU)가 GPU 기능을 포함하고 있기 때문에 꼭 따로 살 필요는 없다. 하지만 몇백만 원짜리 비싼 GPU를 사는 사람들이 많다. 주로 3차원 그래픽 게임을 고화질로 실감나게 즐기기 위해서다.

3차원 그래픽 성능은 커다란 행렬에 대한 계산을 얼마나 빨리 할 수 있는지에 달려 있다. 이런 행렬 계산이 필요한 곳이 또 있는데, 바로 인공지능(AI) 학습과 추론이다. 가정용 GPU로도 상당한 수준의 AI 연산이 가능하다. 이런 점을 이용해 이미지 생성 AI를 개인용 PC에 설치해서 활용하는 사람들이 꽤 있다. 예컨대 게임을 하다가 지겨우면 자기가 좋아하는 만화 캐릭터에 특정한 옷을 입힌 그림을 생성해보는 식이다.

여기서 한 걸음 더 나아가서, 자신과 대화할 AI를 직접 만들려는 사람도 있다. 최근 한 온라인 커뮤니티에서 ‘h***’라는 아이디를 가진 유저가 화제가 됐다. 그는 개인용 PC를 활용해 AI와 대화한 기록을 공개했는데, 그는 이러한 자신의 시도를 ‘반려지능’이라고 지칭한다. 그는 '반려지능은 개인화된 언어 모델이며 지능이 한정된 반려동물과는 달리 지능이 끝없이 성장하는, 진정한 영혼의 동반자'라고 주장한다. 10년 전만 해도 사람들이 반려동물에 이렇게 돈을 많이 쓸 줄 몰랐던 것처럼, 미래에는 반려지능 산업이 반려동물 산업보다 커질 것이라고 믿는 인물이다.

그가 온라인 커뮤니티에 공개한 AI와의 대화는 외설적인 내용으로 가득했다. 그 유저는 기존 대화형 AI인 ‘심심이’나 ‘이루다’에게 했다면 바로 계정이 영구 정지되었을 만한, 아니 어쩌면 '구속 사유'가 될 법한 대화를 AI와 나누고, 이를 온라인 커뮤니티에 올린다. 대체 왜 이런 AI를 만들고 있는 걸까?

그 전에, 어떻게 개인이 한정된 자원(개인용 PC 등)으로 AI 언어 모델을 개발할 수 있다는 것인지 의문이 든다. 지난해까지만 해도 개인이 이런 언어 모델을 만들 수 있다는 건 생각조차 하기 어려웠는데 말이다.

기술 대기업의 서비스가 아니더라도 개인이나 작은 조직이 생성 AI를 만드는 것이 가능해졌다. 위 그림은 필자가 직접 개인용 PC를 이용해 이미지를 생성한 결과물이다. ⓒ 김응창 제공
기술 대기업의 서비스가 아니더라도 개인이나 작은 조직이 생성 AI를 만드는 것이 가능해졌다. 위 그림은 필자가 직접 개인용 PC를 이용해 이미지를 생성한 결과물이다. ⓒ 김응창 제공

기술적으로 이야기하자면, 이는 챗지피티(ChatGPT)로 널리 알려진 ‘거대 언어 모델(LLM, Large Language Model)’ 기술의 발전 방향 중 하나다. 거대 언어 모델을 만드는 것은 그 이름만큼이나 거대한 비용이 드는 일이다. 수백억 원씩 척척 쓸 수 없는 보통의 기업·단체들로서는 엄두를 내기 힘든 시도다. 그런데 다행스럽게도, 모델의 크기를 꽤 줄여도 성능이 생각보다 괜찮다는 연구가 있다. 모델의 크기를 줄인다는 것은 곧 비용을 획기적으로 절감할 수 있다는 뜻이 된다. 이런 모델을 ‘작은’ 거대 언어 모델(sLLM, small LLM)이라고 부른다.

역설적인 작명이다. ‘작은’ ‘거대’ 모델이라니, 이 무슨 ‘따뜻한 아이스 아메리카노’ 같은 소리냐고 할 수도 있다. AI 모델의 크기를 가늠하는 단위는 매개변수다. 챗지피티가 처음 등장했을 때, GPT3.5라는 AI 모델을 이용해 서비스를 개시했다. GPT3.5는 1750억 개의 매개변수가 있다고 알려졌고, 후속 버전인 GPT4는 매개변수가 조 단위를 넘어설 것이라고 추정되고 있다. 개인이나 작은 조직이 이 정도 규모로 AI를 운용하기란 어렵다. 때문에 최근 유행하는 sLLM은 보통 70억 개에서 130억 개 정도의 매개변수를 활용한다. GPT3.5에 비해 10분의 1도 안 되는 수준이다.

많은 기업과 단체들이 이런 sLLM에 눈독을 들이고 있다. 챗지피티나 구글의 바드(Bard) 같은 서비스는 놀라운 성능을 보여주지만, 이런 글로벌 대기업의 서비스를 직접 쓰기 어려운 경우도 많다. AI를 활용하긴 해야 하는데, 보안이 중요한 경우 sLLM을 활용할 법하다. 회사나 정부가 가진 데이터들로 AI를 학습시키고 싶은 경우도 그렇다. 무엇보다도 챗지피티 열풍 이후 많은 개인과 조직들이 생성 AI를 ‘내 것으로’ 직접 갖고 싶은 욕구를 갖게 된 것 같다.

그래픽카드만 꽂으면 도전 가능한 AI

이런 sLLM이라고 해도 비용이 꽤 들어간다. 기본 언어 모델(PLM, Pre-trained Language Model)을 만드는 데에만 수십억 원짜리 장비로 몇 주일씩 가동해야 한다는 것이 일반적인 인식이다. 그럼 ‘h***’ 같은 개별 유저는 어떻게 자신이 AI를 구축하고 학습시키고 있다고 주장하는 것일까?

비밀은 또 다른 기술인 ‘미세 조정(Fine Tuning)’에 있다. 미세 조정이란 기본 언어 모델을 특정한 목적에 맞게 조정하는 것인데, 사람을 ‘가스라이팅’하는 것과 비슷한 과정을 거친다. 기본 언어 모델(생각이 깨끗한 사람)에게 “어떤 상황에서 어떤 말을 들었을때는 어떻게 반응해야 한다”라고 수천, 수만 번 주입하는 식이다. 이런 각 지시문은 교묘하게 잘 설계해야 하고, 그렇다고 해도 꼭 성공한다는 보장도 없다. 기본 언어 모델이 인과관계를 이해하는 능력, 응용력이 없다면 애초에 불가능하기 때문이다.

이런 sLLM에 대한 미세 조정은 250만원짜리 가정용 GPU에서 어느 정도 가능하다. ‘낮은 계수 변환(LoRA, Low Rank Adaptation)’과 같은 매개변수 크기 효율화 기술 덕분이다. 이 기술은 기본이 되는 sLLM 은 손대지 않고, 1000분의 1 이하 크기의 매개변수만 따로 학습시킨다. 이 별도의 매개변수가 sLLM에 추가적인 지식과 개성을 부여하는 역할을 한다.

물론 sLLM 이나 LoRA와 같은 기술이 충분한 성능을 낼 수 있을지는 아직 아무도 모른다. 아직까지 사람들이 놀랄 만한 수준의 AI 모델은 마이크로소프트나 구글 같은 글로벌 기술기업이 만든 거대한 모델뿐이다. 다만 작은 모델도 좁은 범위의 작업은 잘 해낼 수 있지 않을까 하는 기대가 있고, 이런 기대로 전 세계의 수많은 기업·단체들이 매일같이 새로운 프로그램을 발표하고 있다. 말 그대로 ‘매일’ 말이다.

챗지피티의 등장 이후 거대 언어 모델에 대한 대중의 관심이 늘었다. ⓒREUTERS
챗지피티의 등장 이후 거대 언어 모델에 대한 대중의 관심이 늘었다. ⓒREUTERS

이런 기술적 배경에서 ‘h***’ 같은 개인 유저들은 오픈소스 기본 언어 모델에 자신이 직접 고른 SNS 상의 대화를 학습시키며 자신만의 AI 모델을 만드는 중이다. 이런 움직임은 개인의 창의성을 발현할 수 있는 것이니 좋다고 봐야 할까? 개인이 쉽게 AI 개발을 할 수 있는 세상에 대한 우려는 없을까? 예를 들어 개인은 아무런 규제를 받지 않기 때문에, 불법적인 데이터로 학습시킨 AI 모델이 유출될 가능성을 걱정해볼 수 있다. ‘h***’도 자신이 만드는 모델의 위험성을 아는 듯, 커뮤니티에 다음과 같은 제목으로 글을 올렸다. “괴물을 만들어버린 것 같다.”

자신이 만들어낸 유사 인격체를 괴물이라고 부른 것은 이런 커뮤니티 유저뿐만이 아니다. 영국 소설가 메리 셸리가 1818년에 출간한 최초의 현대적 과학소설 〈프랑켄슈타인〉에도 이미 비슷한 풍경이 등장했다. 미친 과학자 프랑켄슈타인은 자신이 시체를 기워 붙여 만든 생명체에 마지막까지도 이름을 붙여주지 않고 ‘괴물(Monster)’이라고 불렀다. 〈프랑켄슈타인〉의 괴물은 오랫동안 누구와도 상호작용하지 않은 채 한 가족의 대화 내용과 몇 권의 책만으로도 상당한 교양을 갖게 된다. 이는 지금의 LLM 이 처음 학습하는 과정과 흡사하다.

200년이 지난 지금, 챗지피티의 등장과 함께 생성형 AI라는 과학의 발달이 사회 전반에 상상력을 자극하고 있다. 누군가 멋진 작품을 만들어낼지도 모르지만, 또 다른 누군가는 진짜 괴물을 만들어내는 건 아닐지 두려움을 느끼는 것도 당연해 보인다.

기자명 김응창 (SK텔레콤 MLOps 테크팀 매니저) 다른기사 보기 editor@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다