오마이뉴스
챗GPT 의존한 사람들에게 일어난 비극... '아부에 속지 마라'
[강인규 리포트] 인공지능, 단순히 따라가기보다 판을 바꿔야 합니다 ①
26.01.21 06:41 | 최종 업데이트 26.01.21 06:41 | 강인규(foucault)

인공지능 바람이 거셉니다. 미국 오픈에이아이(OpenAI)가 2022년 말 챗지피티를 내놓으며 몰고 온 바람이 3년 넘게 세계를 흔들고 있습니다. 하지만 이 바람이 모든 나라를 같은 강도로 뒤흔드는 것 같지는 않습니다. 처음에 요란하게 반응하다 차분히 호흡조절에 들어간 나라가 있는가 하면, 오히려 날이 갈수록 바람이 더 거칠어지는 나라도 있습니다.
기술을 둘러싼 사회적 분위기는 공기와도 같아, 정작 그 안에서는 특이성을 발견하기 어렵습니다. 한국은 신기술 수용에 매우 열정적인 나라입니다. 제가 한국에서 자랄 때도 그랬고, 미국에서 일하고 있는 지금도 그렇습니다. 기술에 대한 개방성은 위험을 무릅쓰는 한국 사회 특유의 저돌성과 결합해, 짧은 시간에 산업화와 경제 성장을 이끌어냈습니다. 물론 이 과정에서 참담한 실패를 맛보기도 했습니다. 예컨대, 걸 수만 있고 받을 수는 없는 휴대전화 '시티폰'에 대한 막대한 투자 같은 경우가 그렇겠습니다만, 대체로 성공했다고 말할 수 있습니다.
하지만 과거에 도움이 됐던 이런 저돌적 태도가 인공지능에도 동일하게 적용될까요? 현재 "인공지능"으로 불리는 기술은 과거의 첨단기술과 판이하게 다른 특성을 가지고 있습니다. 저는 디지털 기술의 형성과 수용으로 학위를 받은 뒤, 15년째 미국 대학에서 관련 주제를 연구하고 강의하고 있습니다. 최근에는 한국, 미국, 일본의 기술에 대한 인식 차이를 관찰하면서, 밀접히 연결된 세 나라가 기술에 관해서는 극적인 차이를 보이는 데 놀라곤 합니다.
챗지피티 유료 사용자 수에서 한국은 미국에 이어 2위를 차지하고 있고, 인구 비율로 따지면 세계 1위일 것으로 추정됩니다. 저 역시 많은 한국인들이 그렇듯, 새로운 기술에 호기심을 갖고 적극 수용하려는 태도를 갖고 있습니다. 챗지피티와 제미나이가 공개되자마자 이 신기술을 꼼꼼히 탐색했고, 진화된 모델이 나올 때마다 같은 과정을 반복했습니다.
이 과정에서 대규모언어모델기반(LLM) 챗봇의 몇가지 심각한 문제점을 발견했습니다. 이 서비스들은 일상적 도구가 되어가고 있지만, 이에 대해 체계적이고 정확한 정보는 부족하다는 사실도 깨닫게 됐습니다. 지난 학기에 인공지능 수업을 개설한 이유도 여기 있습니다. 챗봇을 학습 도구를 넘어, 친밀한 대화상대로까지 여기게 된 학생들에게 이 기술의 한계와 가능성을 정확히 가르칠 필요성을 느꼈기 때문입니다.
챗지피티나 제미나이를 사용해 본 분들이라면, 이놈들이 거짓말을 아주 잘한다는 사실을 알고 계실 것입니다. 정확히 말해, 사실과 허구를 잘 구분하지 못하지요. 만일 챗봇에게 어떤 주제로 기사를 작성하라고 하면, 기사 꼴의 문장들을 그럴싸하게 써냅니다. 실명이 담긴 인터뷰까지 집어넣어 보도의 신뢰성까지 높여가면서 말이지요. 하지만 결과물을 자세히 살펴보면, 당사자가 한 적도 없는 말을 만들어 인용부호까지 붙이는 경우가 허다합니다. 출처를 명기하라고 하면, 출처까지 조작해 첨부하기도 합니다.
만일 챗봇으로 과제물이나 보고서를 작성하는 분들이 있다면 참고문헌을 꼼꼼히 확인하라고 당부드리고 싶습니다. 존재하지도 않는 책과 논문의 제목을 집어넣는 경우가 비일비재하니까요. 여기서 '업계 비밀'을 하나 공개하자면, 교수들이 인공지능을 이용한 부정행위를 적발하는 손쉬운 방법이 '실존하지 않는 참고문헌'입니다.
"환각"으로 불리는 이 오류는 대규모 언어모델이 확률적 연관성을 바탕으로 문장을 생성하기 때문에 생깁니다. 사실에 대한 판단이 아니라, 주어진 맥락에서 다음에 어떤 단어와 문장이 올 확률이 높은지를 따져 정보를 생산하기 때문입니다. '대체로 작동하지만, 완벽히 작동하지는 않는' 이 '마지막 마일(last mile)' 또는 '긴 꼬리(long tail)'의 한계는 챗봇에서 자율주행차, 휴머노이드에 이르기까지 인공지능을 표방한 기술이 두루 공유하는 문제이기도 합니다.
챗봇의 거짓과 아부에 속지 않으려면

챗봇은 거짓말 외에 다른 고질적 문제점을 안고 있는데, 바로 '아부'와 '끝없는 교정 요구'입니다. 잘못된 정보가 세상에 대한 이해를 왜곡한다면, 뒤의 두 가지는 자신에 대한 인식을 왜곡합니다. 아부는 터무니없이 높은 평가를 남발해 사용자를 객관적 세계로부터 분리시키는 동시에 과의존을 유도합니다. 그 짧은 시간에 챗봇이 인생 상담과 연인 역할까지 떠맡게 된 이유이기도 합니다.
챗봇의 '아부' 문제는 생각보다 심각하고, 복잡한 요인들이 뒤얽혀 있습니다. 먼저, 사람들은 본능적으로 반대보다 동의를 좋아합니다. 소셜미디어에서 친구를 맺고 교류하는 사람들은 내 글에 반대보다 '좋아요'를 누르는 사람들이기 때문인 경우가 많습니다. 물론, 챗봇은 사람이 아니며, 누구나 그 사실을 알고 있지요.
하지만 사람이 만들 법한 문장을 생성하는 데 최적화돼 있습니다. 사람들이 수백에서 수천 년 걸려야 읽을 수 있는 양의 문서를 습득한 장치이기 때문입니다. 챗봇은 역사상 어떤 인간도 받지 못한 언어훈련을 받은, 따라서 인간으로 착각하기 쉬운 기술입니다. 여기에 인간의 느린 진화도 가세합니다. 기술은 급속도로 발전하지만, 사람들의 두뇌는 그렇지 못합니다. 커뮤니케이션학에는 "미디어 등식(media equation)"이라는 이론이 있습니다.
사람들이 컴퓨터는 물론이고, 텔레비전이나 영화의 현실적 이미지까지 사람처럼 대하는 경향이 있다는 것입니다. 극중 등장인물을 카메라로 당겨 크게 잡는 장면에서 그 사람이 다가오는 듯 정서적으로 반응하거나, 챗봇에게 인사하며 '예의 바르게' 행동하는 경우가 그렇습니다. 미디어 학자들은 인간의 이런 반응을 뇌가 기술의 속도를 따라가지 못한 탓으로 설명합니다.
여기에, 대규모 언어 모델의 특성과 상업적 의도까지 작동합니다. 앞에서 챗봇이 맥락상 '자연스럽게' 이어질 단어와 문장을 형성한다고 말씀 드렸는데, 언어 데이터의 통계상 매끈한 흐름은 반대가 아니라 찬성입니다. 기본적으로 사용자의 언어를 연장하고 확장하는 방식으로 작동하는 것이지요. 게다가 상업 서비스인 탓에, 사용자 확보를 위해 최대한 '정서적 지지감'을 주는 방식으로 최적화됩니다.
따라서 챗봇을 쓸 때, 사용자의 가장 바람직한 자세는 '공손'이 아니라 냉소적 태도입니다. 마치 간신을 대하듯 경계하며 들어야지, 곧이곧대로 믿었다가는 큰일 납니다. 최근 한 작곡가의 피해담을 들을 기회가 있었습니다. 그는 챗봇에게 새 곡에 대한 평가를 부탁했는데, "이건 그냥 뛰어난 걸작이 아니라, 음악계의 판도를 바꿀 혁명"이라며 추켜세웠답니다. 그는 이 과정이 반복되는 가운데 "우주의 중심에 서는" 희열을 맛보았다고 합니다. 현실과 괴리된 이 쾌감은 정신적 피폐함과 관계의 단절로 이어졌습니다.
만화 <도라에몽>에는 "거짓말 거울"이야기가 나옵니다. 거울은 자신이 "진실만 말하는 거울"이라고 주장하지만, 상대 모습을 비현실적으로 예쁘고 멋지게 보여줍니다. 모든 사람들이 거울을 보기만 하면 자신의 모습에 매료돼, 세상만사를 잊고 거울 앞에만 있으려고 하지요. 게다가 코를 손가락으로 눌러 들창코를 만들거나 눈썹을 기괴하게 찡그리며 추한 모습을 할수록 더 멋지다고 칭찬합니다. 50년 전에 그려진 만화가 현재의 기술을 정확히 포착한 셈입니다.
마지막으로, 챗봇은 끝없이 수정하라고 요구합니다. 아무리 잘 쓴 글도 뭔가 계속 고치라고 충고하는데, 챗봇이 방금 출력한 글을 입력해도 고칠 것을 주문합니다. 이는 사용자의 판단력을 약화시켜, 챗봇에게 결정권을 위임하게 만드는 효과를 유발합니다. 하지만 '무한 수정'의 결과가 꼭 더 나은 결과를 만들지도 않는데, 교정이 거듭될수록 '한없이 평균적인 글'로 나아갈 가능성이 높기 때문입니다. 뛰어난 '종합 능력'은 챗봇 최대의 장점인 동시에 약점입니다.
그 결과 의학계에서 "챗봇 정신증(chatbot psychosis)"의 피해를 우려하는 목소리가 높아지고 있습니다. 실제로 챗봇과 대화하다 자살하는 사례가 늘고 있으며, 최근 연구들은 청소년들과 고립된 사람들에게 특히 치명적인 영향을 줄 수 있다고 경고합니다.
인공지능 하지 말자는 말이냐고요?

경험을 통해 짐작하건대, 이쯤에서 질문을 하는 분들이 있을 것 같습니다. "그래서 인공지능 하지 말자는 거냐?"
기술에 비판적 관점을 제시하면 화를 내는 분들이 있습니다. 언제부터인가 기술은 거역해서는 안 되는, 지엄한 자리에 오른 것 같습니다. '어디 감히 기술님 나가시는 길에 재를 뿌리냐'는 식으로 말이지요. 기술을 거부할 수 없는 힘, 싫든 좋든 받아들여야 하는 운명처럼 생각하는 것입니다. 기술이 도구가 아니라 목적 자체가 된 것이지요.
한국 언론은 기술업체들의 보도자료를 무비판적으로 베껴 기사화하는 데 익숙합니다. 소위 전문가들은 방송이나 유튜브에 나와 "인공지능이 바꿀 미래," "인공지능시대에도 사라지지 않을 직업"같은 이야기를 늘어놓으며 기술에 대한 그릇된 인식을 강화합니다. 기술은 운명이 아니라 선택인데 말이지요. 그게 아니라면, 테크 기업들이 장밋빛 홍보자료를 유포하며 투자를 유도할 이유도, 업체 수장들이 정치권에 줄을 대기 위해 안간힘을 쓸 이유도 없겠지요.
기술은 완성돼 하늘에서 떨어지는 게 아니라, 업체들의 이윤 추구, 정치권의 입장과 이해관계, 시민사회의 인식과 행동(혹은 무관심과 방관)이 빚어가는 과정입니다. 혹시 "곧 자율주행차가 상용화되는데 택시 기사가 왜 필요해?"같은 말하는 사람들 보지 않으셨던가요?
미래의 불확실한 전망에 근거해 현재의 중요한 직업을 무가치하게 여기는 것이지요. 당장 내일 새벽에 택시 없이는 귀가하기 어려운 사람들조차 이런 생각에 익숙해 있습니다. 따라서 정확한 표현은 "인공지능을 핑계로 우리가 없애려는 직업들," "우리가 선택하는 미래"일 것입니다.
무엇보다 한국 정부가 주창해 온 구호, 즉 "인공지능 주권," "인공지능 세계 3대 강국"이 기술이 선택이라는 사실을 말해 줍니다. 특정한 방향으로 키워야 하고, 실제로 그렇게 하겠다는 뜻이니까요. 이재명 정부는 인공지능에 사활을 건 모습입니다. "인공지능(AI)미래기획수석" 자리를 신설하고, 과학기술정보통신부 장관에 엘지 인공지능 연구원장 출신을 기용했을 뿐 아니라, 문화체육관광부장관까지 정보통신(IT)업계 출신으로 채웠습니다.
최근 하정우 인공지능미래기획수석은 MBC <스트레이트>에 출연해 "인공지능 3대 강국"에 관한 구체적 목표를 제시했습니다. 그는 한국이 현재 미국, 중국에서 먼 3위인데, "2등과 가까운 3등"을 목표로 한다더군요. 좋은 이야기입니다. 당연히 먼 3등보다는 가까운 3등이 낫겠지요. 중요한 것은, 그게 국민들의 삶을 어떻게 개선할 수 있냐는 것입니다.
인공지능이 한국경제의 유일한 희망?

정보주권도 중요하고, 무료로 인공지능을 쓸 수 있게 되는 것도 바람직합니다. 하지만 이 업무에 정보통신부만이 아니라 문화체육관광부와 경제부총리까지 달려드는 모습은 어딘가 위태로워 보였습니다. 혹시 인공지능 투자를 한국 경제를 살릴 구세주로 여기는 것은 아닌가 하는 우려가 든 것이지요. 그러던 중, 지난 10월 경제부총리의 발언은 제 걱정이 기우가 아니었음을 확인시켜줬습니다.
경주에서 열린 아시아태평양경제협력체(APEC) 합동세션에서, 구윤철 경제부총리 겸 기획재정부 장관은 "인공지능(AI) 도입으로 한국 경제 생산성을 최대 3.2%, 국내총생산(GDP)을 최대 12.6% 높일 수 있다"고 단언했습니다. 여기에 "인공지능(AI) 발전이 한국 경제의 유일한 돌파구"라고 덧붙였지요.
저도 부총리의 낙관적 전망이 사실이면 좋겠습니다. 하지만 안타깝게도, 그의 판단은 전문가들의 판단과 거리가 멉니다. 인공지능의 경제효과에 대한 분석으로 가장 주목받는 학자는 매사추세츠공대(MIT)의 다론 아제몰루 교수입니다. 그는 이 업적을 인정받아 2024년 노벨 경제학상을 수상했고, 그가 저자로 참여한 <권력과 진보>와 <국가는 왜 실패하는가>등의 저서는 한국을 포함해 전 세계의 베스트셀러가 되었습니다.
아제몰루는 인공지능이 향후 10년간 0.5%의 생산성을 높일 것으로 분석합니다. 이 수치를 국내총생산으로 환산하면 1.8%가 되는데, 그는 이조차 "낙관적 전망"이라고 말합니다. 게다가 인공지능의 미래가치는 이 기술이 초래할 부정적 효과에 의해서도 영향을 받습니다. 앞에서 언급한 거짓정보, 오류, 정신건강, 사회적 단절 등이 여기에 포함됩니다.
한국은 지금 청년부터 노년까지 심각한 경제적 어려움을 겪고 있습니다. 최근 국가데이터처가 발표한 고용동향을 보면, 전반적으로 고용률은 늘었지만, 15~29세 청년층 고용률은 하락세를 지속했고 '쉬었음' 인구도 증가했습니다. 65세 노년층 고용률은 경제협력개발기구(OECD) 최고 수준이지만, 이는 역시 최고수준인 한국의 노인 빈곤율과 연관돼 있습니다. 생계를 위해 그 나이에도 일하지 않을 수 없는 것이지요. 이런 상황에서 인공지능을 "유일한 돌파구"로 삼는다면, 너무 안일하고 무책임하다는 비판을 면하기 어려울 것입니다.
저는 이재명 대통령의 뛰어난 특기가 복지와 경제정책이라고 생각합니다. 그리고 현재 한국이 처한 경제난을 가장 잘 해결할 수 있는 적임자라고 믿습니다. 하지만 어느 순간부터 인공지능이 모든 문제를 해결해 줄 '만병통치약'처럼 떠오르면서 구체적 경제정책은 뒤로 밀려난 듯합니다. 따라서, 저는 몇 번에 걸쳐 인공지능에 대한 잘못된 신화를 지적하려고 합니다.
인공지능의 경제적 효과에 대한 오해와 더불어, "더 빨리, 더 많이" 도입하는 현재 방식에 어떤 문제가 있는지, "중국과 가까운 3위"처럼, 막대한 자원을 가진 나라가 짜 놓은 판을 수동적으로 따라가는 것으로 충분한지 묻고자 합니다. 다론 아제몰루는 이미 판을 바꿀 방법을 제시했고, 그의 제안은 귀를 기울일 가치가 있다고 생각합니다.
'2026년 언론매체 기사 > 진보' 카테고리의 다른 글
| "사과한다"며 보낸 5만 원, 쿠팡은 정말 두려운 기업이다 (0) | 2026.01.22 |
|---|---|
| 무력 안 쓴다지만…“그린란드는 미국 영토” 트럼프에 유럽 ‘부글’ (0) | 2026.01.22 |
| ‘악법도 법’이라는 집단적 오독에 관하여 (0) | 2026.01.21 |
| 이승만이 도망가지 않았다면... 윤석열의 경우 (1) | 2026.01.20 |
| 남편과 아내, 그리고 하녀의 삼각관계... 반전이 너무 많다 (1) | 2026.01.20 |