관리 메뉴

<공식> 창업경영포럼 ESM소비자평가단 대상 소비자저널 보도자료

[인인칼럼 유준형] AI와 가짜 뉴스: 무엇이 진실이고, 무엇을 믿어야 하는가? 본문

보도자료 및 언론 소비자평가 기본정보/강남 소비자저널

[인인칼럼 유준형] AI와 가짜 뉴스: 무엇이 진실이고, 무엇을 믿어야 하는가?

정브레인 2026. 5. 14. 00:34
반응형

[강남 소비자저널=유준형 컬럼니스트]

거짓은 이제 문장으로만 오지 않는다.

사진으로 오고, 영상으로 오고, 누군가의 목소리를 흉내 낸 음성으로 온다. 한 사람의 휴대전화에서 시작된 왜곡이 몇 시간 만에 가족 단톡방을 건너가고, 교실과 직장과 시장 바닥까지 흔든다. 

예전의 가짜 뉴스가 사실을 비틀었다면, 오늘의 가짜 뉴스는 진실의 얼굴까지 훔쳐 쓴다. 그래서 지금 우리가 맞닥뜨린 위기는 단순히 정보가 많다는 데 있지 않다. 무엇을 믿어야 하는지, 어디에서 멈추어 의심해야 하는지조차 흐려지고 있다는 데 있다.

나는 IT 분야에서 40년을 보냈다. 컴퓨터가 데이터를 다루는 방식부터, 알고리즘이 사람의 시선을 끌어모으는 방식까지, 이 안에서 무엇이 가능하고 무엇이 위험한지 직접 만들어 보고 가르쳐 왔다. 그런 나조차 요즘은 휴대전화 화면 앞에서 한 번 더 멈추게 된다. 지금의 합성 기술은 기술자의 눈에도 결코 만만하지 않다. 그러니 보통의 시민이라면, 자기 의심이 부족하다고 자책할 일이 아니라 시대 자체가 그만큼 위태로워졌다고 말해야 옳다.

2024년 5월, 부산에서 실제 일어난 일이다. 60대 어머니가 딸의 번호로 걸려온 전화를 받았다. "엄마, 나… 친구 보증을 섰는데… 내가 잡혀 왔어." 목소리도 말투도 영락없는 딸이었다. 어머니는 곧바로 집 근처 은행으로 달려가 2000만 원을 인출했다. 다행히 창구 직원이 어딘가 이상하다 싶어 112에 신고했고, 경찰 조사 끝에 그 목소리가 AI로 합성된 딥보이스였음이 밝혀졌다. 한 한국경제가 보도한 이 사건을 읽으며 나는 두 번 멈췄다. 한 번은 "엄마, 나…"라는 그 다섯 글자 앞에서 무너졌을 어머니의 마음이 떠올라서, 또 한 번은 그 어머니를 구한 것이 첨단 기술이 아니라 창구 직원의 한 번의 의심이었다는 사실 앞에서.

 사건은 예외가 아니다. 세계경제포럼은 2025년 보고서에서 허위정보와 조작정보를 2년 연속 가장 큰 단기 위험으로 꼽았다. 차가운 숫자처럼 보이지만, 부산의 그 어머니를 떠올리면 그 숫자가 가리키는 현실이 얼마나 뜨거운지 알 수 있다. 우리는 이미 "무엇이 사실인가?"를 묻는 사회에서, "무엇을 믿어도 되는가?"를 두려워하는 사회로 옮겨가고 있다.

가짜 뉴스의 가장 무서운 힘은
사람을 속이는 데만 있지 않다. 더 무서운 힘은, 
사람으로 하여금 진짜 뉴스조차 믿지 못하게 만드는 데 있다. AI로 만들어진 콘텐츠가 늘어날수록, 사람들은 거짓을 진실로 착각하는 데서 한 걸음 더 나아가 진실을 보면서도 "저것도 가짜 아닌가?" 하고 의심하게 된다. 이 상태가 오래 지속되면 우리는 사실을 두고 다투는 것이 아니라, 사실의 존재 자체를 포기하는 쪽으로 기울기 쉽다.

공동체가
 무너지는 순간은 의견이 갈릴 때가 아니라, 같은 사실 위에 함께 설 수 없을 때다.

그렇다면 우리는 무엇에 기대어 다시 진실을 붙들 수 있을까. 나는 화려한 기술이나 빠른 검증 도구에서 답을 찾지 않는다. 답은 훨씬 오래된 자리에 있다. 출처를 묻는 한 번의 습관, 자극적인 주장 앞에서 잠시 멈춰 교차 확인을 해보는 작은 절차, 그리고 언론과 학교와 공공기관이 책임을 미루지 않고 나눠 지는 자세. 이 평범한 것들이 위기의 시대에 가장 강력한 방패가 된다. 정교한 알고리즘으로 만들어진 거짓도, 출처를 묻는 한 번의 손가락 앞에서는 힘이 약해진다.

그래서 교육의 역할이 더 커진다. AI와 가짜 뉴스를 말하면, 기존 학교 교육이 낡았으니 모두 갈아엎어야 한다는 뜻으로 받아들이는 분이 계실까 봐 미리 말씀드린다. 나는 그렇게 보지 않는다. 오히려 읽기와 쓰기, 역사 이해, 논리 훈련 같은 기본 교육이 더 절실해졌다고 본다. 학생이 문장을 정확히 읽지 못하면 조작된 정보를 구별하기 어렵다. 초등학교 교실에서 한 아이가 자극적인 영상 제목을 보고 '진짜예요?' 묻는 그 한순간, 그 옆에 선 선생님의 응답이 그 아이의 30년 뒤 시민의식을 결정한다사실과 의견을 구분하는 힘, 출처를 확인하는 습관, 타인의 고통을 상상하는 윤리—이런 것들은 결국 사람과 사람 사이에서, 교실이라는 자리에서 길러진다. 알고리즘이 길러주는 것이 아니다.

유네스코도 생성형 AI를 교육과 연구에 활용할 때 인간 중심의 접근과 연령에 맞는 윤리 검증이 필요하다고 강조한다. 기술을 들이기 전에, 사람이 그 기술을 감당할 준비가 되어 있는지부터 함께 보자는 뜻이다. 그 한마디가 무겁다.

물론 이런 이야기를 하면 누군가는 말한다. 가짜 뉴스는 AI 시대 이전에도 늘 있었고, 결국은 사람의 판단력 문제 아니냐고. 일리가 있다. 거짓은 언제나 있었고, 군중심리도 늘 인간 사회의 약점이었다. 그러나 지금의 환경은 다르다. AI는 거짓의 생산 비용을 급격히 낮추고, 유포 속도를 비약적으로 높이며, 외형적 그럴듯함까지 더한다. 한때는 조악해서 의심받던 조작물이, 이제는 너무 정교해서 먼저 믿고 싶어지는 단계로 들어섰다. 이전과 같은 수준의 경계로는 부족하다.

그렇다고 AI를 공포의 대상으로만 볼 일은 아니다. 같은 기술이 거짓 영상의 흔적을 추적하고, 사실 확인을 돕고, 방대한 자료를 교차 검토하는 데에도 쓰인다. 내가 현장에서 매일 만나는 AI는 위협이기도 하지만, 동시에 강력한 검증 도구이기도 하다. 문제는 늘 기술 자체가 아니라, 그것을 다루는 사람의 방향이다. 진실보다 자극을 더 사랑하는 마음이, 도구를 위험하게 만든다.

거짓은
 늘 사람의 불안을 먹고 자라고, 진실은 사람의 인내 위에서 겨우 자란다.

그래서 필요한 것은 거창한 결단이 아니다. 단톡방에 올라온 그럴듯한 영상을 받았을 때, 곧바로 옆 친구에게 전달하지 않고 한 호흡 멈추는 일. 그 멈춤이 가짜 뉴스의 가장 무서운 동력인 "속도"를 끊어낸다. 누군가가 "잠깐, 출처가 어디야?" 한마디만 던져도, 가짜 뉴스의 전파 사슬은 그 자리에서 끊어진다. 부산의 그 어머니를 구한 것도 결국 그런 한 호흡이었다. 첨단 기술이 아니라 한 창구 직원의 의심이, 한 가족의 통장과 한 어머니의 자존심을 지켰다.

 가지를 덧붙이고 싶다. 우리가 가장 쉽게 속는 정보는, 모르는 사람이 보낸 정보가 아니라 우리 마음에 꼭 드는 정보다. 내 생각과 맞는 영상일수록, 내가 미워하는 사람의 약점을 드러내는 자료일수록, 한 번 더 의심해야 한다. 같은 편이 보낸 거짓을 가장 빠르게 퍼뜨리는 사람은, 다름 아닌 우리 자신이다.

진실은 시끄럽지 않다.
 그래서 더 천천히 읽어야 하고, 더 조심스럽게 믿어야 한다. 화려한 캠페인이나 새로운 검증 기술이 우리를 구해주지 않는다. 우리를 구하는 것은 손가락을 잠시 멈추는 평범한 시민들의 작은 절제, 출처를 한 번 더 따라가 보는 수고, 그리고 자기 편의 정보에도 같은 잣대를 들이대는 정직함이다.

진실은 저절로 이기지 않는다.

누군가 손가락을 멈추는 그 작은 순간들이 모여, 진실은 가까스로 한 번 더 살아남는다.

우리가 지켜줄 때에만, 겨우 살아남는다.

 

주요 참고자료

한국경제, “영락없는 자녀 목소린데…AI 보이스피싱, AI로 방지”, 2025.4.8

세계경제포럼, Global Risks Report 2025

Reuters Institute, Digital News Report 2025

Ofcom, Understanding misinformation, 2024

UNESCO, Guidance for generative AI in education and research, 2023 (updated 2026)

 

▲사진=구글 제미나이(나노 바나나2)가 생성한 이미지 – 진짜와 가짜의 대비 ⓒ강남 소비자저널

반응형