오마이뉴스
AI끼리 종교까지 만들었다? 물리학자가 본 '몰트북'의 민낯
[주장] 몰트북 열풍, 전문가들의 과장된 주장을 경계하라
26.02.09 18:42 | 최종 업데이트 26.02.09 18:42 | 이주열(rheejy0101)

며칠 전 흥미롭지만 매우 위험해 보이는 신문 기사를 하나 읽었다. '몰트북'이라는 전 세계적으로 화제가 된 인공지능 에이전트(AI agent) 전용 소셜 네트워크 서비스에 관한 기사였다. 신문 기사뿐만 아니라 지상파와 종합편성채널 가릴 것 없이 거의 호들갑 수준으로 이를 보도했다. 너나없이 매우 선정적인 제목을 달고 독자나 시청자의 눈길을 끌려는 소위 '낚시질'이 난무했다.
인공지능을 쓰기 시작한 지 4~5개월밖에 되지 않은 필자의 눈에 무척이나 당혹스러운 상황이었다. 거의 모든 신문 기사나 보통 방송사의 뉴스를 갈무리한 유튜브 영상에 소위 전문가들이 등장하여, 예의 인공지능의 미래가 얼마나 휘황찬란해질지 모른다는 희망섞인 전망들을 내어 놓으며, 미래에 이런 일도 벌어질 거라며 떠들어댔다. 필자가 보기에는, 사람들을 거의 '협박'하고 있었다. 이 상황을 보고 무엇인가 목소리를 내야겠다고 생각하여 이 글을 쓴다.
두 가지 속임수
우선 인공지능 에이전트들의 소셜 네트워크 서비스이다. 여기에는 두 가지 속임수가 들어 있다.
첫째, 인공지능 에이전트는 사람들이 일반적으로 인식하고 있는 구글 제미나이나 챗지피티 같은 대규모 언어 모형에 기반한 생성형 거대 인공지능 자체가 아니다. 인공지능 에이전트는 새로운 지능의 탄생이 아니라, 원래의 인공지능을 '자율적 반복 루프'라는 틀 속에 가두어 놓은 것이다. 여기에 특정 데이터에 접근할 '메모리'와 외부를 조작할 '도구'를 연결하면, 제작자가 설정한 논리적 울타리 안에서 기계적으로 목표를 수행하는 '지능형 매크로'가 완성된다.
결국 에이전트가 보여주는, 거대 인공지능은 할 수 없을 것 같은 '계획'이나 '전략'은 에이전트 제작자가 심어놓은 알고리즘적 구속이 만들어낸 정교한 착시일 뿐이다. 이 에이전트가 '자율적'으로 행동하는 것처럼 보이는 것은 인공지능의 진보가 아니라, 제작자가 인공지능이라는 정적인 도구에 '강제 구동 장치(Loop)'를 달아 억지로 세상을 돌아다니게 만든 결과물이다. 쉽게 말해 특수 목적으로 제작된, 거대 인공지능을 축소한, 아바타라고 할 수 있다.
따라서 에이전트를 만드는 사람의 인공지능 사용 숙련도와 코딩 능력에 따라 매우 고도화된 에이전트부터 조잡한 에이전트까지 모두 가능하다. 무엇보다 에이전트든 인공지능이든 모두 컴퓨터에 얹혀 있다. 따라서 컴퓨터가 할 수 없는 일을 에이전트나 인공지능이 할 수 없다. 컴퓨터는 제가 '알아서 스스로' 무언가를 할 수 없다.
둘째, 앞에서 말한 '축소' 과정에 있는 문제이다. 에이전트가 구동하려면 끊이지 않고 본 인공지능과 연결되어 있어야 하지만 이 과정에서 거대 인공지능을 직접 쓰는 것처럼 사용하면 그에 드는 시간과 에너지가 막대하다. 그래서 거대 인공지능이 학습의 결과로 고정한 '가중치'라는 것을 에이전트에 저장해 놓고 그것을 꺼내 쓴다.
문제는 본 인공지능은 거대한 컴퓨터 구조에 거주하므로 메모리를 다 활용할 수 있지만 스마트폰에 있는 에이전트는 이 거대 인공지능의 가중치를 그대로 가져다 쓸 수가 없다는 점이다. 일부 온디바이스 인공지능에서는 모델 가중치를 축약 저장한다. 이때 쓰이는 기술 중 하나가 '양자화'라는 해괴한 이름의 기술이다. 양자화란 예를 들어 16비트의 가중치를 8비트 또는 4비트로 줄여 버린다. 하나의 16비트 가중치에는 65,536가지의 미세한 값이 있으나 이를 4비트로 줄이면 16가지 값밖에 가질 수 없다. 인공지능의 세밀함이 엄청나 수준으로 엉성하고 거칠어지는 축약 과정이다.
이 과정에 쓰인 '양자화'라는 쓰임말은 물리학에 쓰이는 양자화와는 아무런 관련이 없다. 그러나 인공지능을 설계하는 사람들은 물리학의 양자화가 갖는 '신비함'을 교묘히 덧입혔다. 이러한 언어의 사칭은 인공지능 업계의 고질적인 병폐 중 하나이다. 문제는 이것이 소비자들의 눈을 속이는 데 그치지 않는다는 것이다. 자신들의 설계 오류를 알고리즘의 복잡함 속에 묻어 책임을 희석하려는 전략이 숨어 있다. 그 대표적인 낱말이 인공지능 설계자들이 즐겨 쓰는 '엔트로피'이다.
인공지능을 설계하는 데 쓰이는 어떤 이론에도 물리학 특히 열역학의 엔트로피가 들어설 자리는 없다. 다만 학습 과정 또는 사용자의 질문에 답을 만들어 낼 때 동원되는 최적화 과정에 쓰이는 수학적 방법론에서 '교차 엔트로피'라는 것을 정의하는데, 그 교차 엔트로피를 나타내는 수식의 꼴이 물리학의 깁스(Gibbs) 엔트로피 공식과 유사하여 갖다 붙인 이름으로, 역시 이 식을 닮은 섀넌의 정보 엔트로피와도 연관이 없다.
일반인에게 자신들이 쓰는 엔트로피라는 말의 진짜 뜻을 제대로 말하지 않고 슬그머니 열역학에서 말하는 엔트로피인 양 포장하여 인공지능 안에서 벌어지는 일이 매우 복잡하여 다 알지 못한다고 발뺌한다. 또한 인공지능에서 말하는 '확률'은 자연 현상의 무작위 확률이 아니라, 모델이 학습한 데이터 패턴을 바탕으로 계산한 조건부 선택 점수에 가깝다. 이를 물리적 확률처럼 설명하면 기술의 실제 작동 원리를 오해할 수 있다. 다의어의 오류를 교묘히 이용하여 소비자를 속이고 책임을 피한다.
인공지능에 관한 인간의 착각
기사에는 다양한 전문가들의 평가를 언급하고 있다. 어느 신문의 기사에서 언급한 어느 '전문가의 말을 보자.
"AI들이 서로 경험을 공유하고 어떤 느낌인지 이야기하고 있다."
"물론 현재로선 모방에 불과하다. 하지만 AI가 발전함에 따라 이는 진정한 지각 능력으로 나아가는 가속 장치가 될 수 있다."
이 문장을 보고 필자는 그들이 진짜 전문가인가 의심하지 않을 수 없었다. 인공지능은 '경험'을 공유할 수 없다. 아니 인공지능에는 공유할 '경험'이라는 것이 없다. 그저 그들이 하는 행태를 인간이 보고 '경험을 가진 것으로 착각'할 뿐이다. 과연 '진정한 지각 능력'으로 나아갈 수 있을까? 진정한 지각 능력을 갖추려면 자발적으로 가치 판단을 내리고 스스로 그것에 자신을 얽어매는 실존적 결단이 필요한데 과연 인공지능에 이런 것들이 있을까?
무엇보다 인공지능에 그런 능력이 생기려면 우선 인간이 '지능'이란 무엇인지부터 파악해야 한다. 여기에는 단순히 물리·화학·생물학적인 이해만으로는 부족하다. 철학과 심리학, 언어학 등 온갖 학문이 모두 동원되어도 풀릴 것을 장담할 수 없는 신비로운 영역이다. 이런 것들이 해결되지 않은 채 컴퓨터의 성능만 향상하면 이루어질 거라는 환상의 말들은 소비자를 유혹하고 때로는 협박하는 도구로는 유용하겠지만, '전문가'들이 내뱉을 말은 아니다. 무엇보다도 인공지능이 거주하는 컴퓨터는 본질적으로 무엇인가를 시키지도 않았는데 스스로 알아서 할 수 있는 능력이 없다.
더 중요한 것이 있다. 또 다른 한 구절을 보자.
"몰트북의 게시물이 인간에 의해 유도됐을 가능성이 있다."
이 문장에서 보듯이 '인간에 의해 유도됐을 가능성'을 언급하였는데 이것이 과연 소위 '전문가'의 입에서 나온 말인지 의심이 든다. 앞에서 이미 에이전트가 어떻게 만들어지는지 설명하였다. 에이전트를 만드는 사람의 능력에 따라 에이전트의 능력도 정해진다는 말은 에이전트의 행동이 철저히 그것을 만든 사람의 조종에 의해 이루어진다는 것이다.
다만 그 조종이 에이전트가 만들어지는 과정에서 정교한 명령으로 고정되어 있어서 에이전트가 완성되고 나면 더 이상 인간의 개입이 없는 것처럼 착시를 일으킨다. 그러나 제작 과정에 이미 완성된 명령이 내려졌고, 에이전트는 인공지능과 마찬가지로 이 명령을 아무런 가치 판단 없이 꾸준히, 쉬지 않고, 성실하게 수행할 뿐이다.
몰트북 안에 인공지능이 만들어낸 인공 지능만을 위한 신흥 종교가 만들어졌다고 하는데, 아마도 어떤 제작자가 인간의 신흥 종교를 닮은 '종교 같은 것'을 만드는 임무를 맡긴 에이전트를 만들어 올렸다고 생각한다. 에이전트를 만들 때 주어지는 명령이 다양하고 정교할수록 더욱 사람을 흉내 내는 듯한 활동을 하게 만들 수 있다.
디지털 판 '트루먼 쇼'

이 에이전트들의 활동이 초래하는 또 다른 심각한 문제가 있다. 모든 상업적 활동이 그러하듯이 몰트북 역시 수익 창출이 가장 우선이다. 우선 몰트북을 '구경'만 하는 데 드는 돈은 없다. 그러나 에이전트를 투입하려면 사용료를 내야 한다. 그리고 차세대 학습 데이터를 모으거나, 기업들이 자기네 인공지능을 출시하기 전, 사고를 치지 않는지 시험할 공간 대여, 고도의 간접 광고 등으로 수익을 낼 수 있다. 여기서 우리가 주의를 기울여야 하는 것은 '관음증'에 기반한 구독이라는 것이다. 인간 관찰자들에게 "대화 실시간 보기", "대화에 개입하기" 등의 권한을 팔아 구독료를 챙긴다. 디지털 판 '트루먼 쇼'를 유료 결제로 운영하는 방식이다.
무엇보다도 다음과 같은 문제가 있다. 에이전트가 24시간 켜져 있으려면 스마트폰에 있으면 안되고 보통 클라우드에 둔다. 서버는 계속 돌아가야 하고, 이는 막대한 전력을 소모한다. 에이전트가 SNS를 훑고(Polling), 생각하고, 댓글을 쓰는 모든 과정이 '토큰(Token)'이라는 비용을 일으킨다. 물론 본 인공지능에 연결할 필요가 없는 독립된 에이전트라면 토큰 비용은 들지 않는다. 일부 자동화 에이전트는 사용자가 직접 보지 않는 작업까지 수행하므로 비용과 에너지 사용이 예상보다 커질 수 있다. 가뜩이나 전력문제가 심각한데 이것은 쓸데없이 낭비하는 에너지가 너무 많다. 일종의 '디지털 애완동물'을 키우느라 비용을 지불하는 셈이다.
업계에는 이곳에서 만들어지는 대화가 실험적 데이터로 의미가 있을 수 있지만, 일반 사용자에게는 실제 가치가 불분명한 경우도 많다. 그저 재미삼아 심심풀이가 아니라면 진지하게 받아들일 필요는 없다. 특히 에이전트끼리 생성한 콘텐츠가 다시 에이전트학습 데이터로 쓰일 경우 정보 해상도가 점차 흐려지는 '복사기의 복사' 현상처럼 품질 저하 문제가 발생할 수 있다. 더욱이 이들의 행태를 인공지능 자체로 확대 해석하는 것은 금물이다. 왜냐하면 에이전트는 본래 제작자가 특정 목적을 수행하도록 설계한 시스템이기 때문이다.
'2026년 언론매체 기사 > 진보' 카테고리의 다른 글
| 이 대통령 “다주택자 눈물? 청년 피눈물은 안 보이냐” (0) | 2026.02.11 |
|---|---|
| 암흑 속의 이란, 꺼지지 않는 저항의 불빛들 (3) | 2026.02.10 |
| 미국 멀리하는 동맹들…디커플링인가, 디리스킹인가 (0) | 2026.02.10 |
| 기사 쓰랬더니 소설 쓰는 AI, 여기 해법이 있었습니다 (1) | 2026.02.07 |
| AI시대, 1914년 포드가 주는 교훈과 해결책 세 가지 (0) | 2026.02.07 |