댓글 한 개 1원 시대, 여론 조작은 이미 현실
과거 IRA, 가짜 계정으로 미국 1억 명을 겨냥해
KAIST, 한국어 댓글 간파하는 탐지 기술 내놔

댓글 하나를 만드는 데 드는 비용이 고작 1원이라면, 우리는 무엇을 믿어야 할까. 기술의 발전은 종종 삶을 편리하게 만들지만, 때때로 그 편리함이 가장 위험한 무기가 되기도 한다.
최근 KAIST 연구팀이 개발한 ‘XDAC’이라는 AI 댓글 탐지 기술은 바로 그런 위기감에서 출발했다.
겉보기엔 자연스러워 보이는 댓글들이 상당수 인공지능의 손에서 탄생했다면, 여론은 여전히 ‘민심’이라고 부를 수 있을까.
IRA·드루킹도 못한 정밀 조작, 이제는 AI가 한다
이 기술은 한국어로 작성된 댓글을 대상으로, 사람이 쓴 글과 AI가 만든 문장을 구분하는 데 98.5%의 정확도를 자랑한다. 반복 문자의 사용, 줄바꿈의 자유도, 이모지의 종류까지 파고든 정밀 분석 덕분이다.

예를 들어 AI는 “~것 같다” 같은 형식적인 말투를 선호하고, 사람은 “ㅋㅋㅋㅋ”나 “ㅜㅜ”처럼 감정을 직설적으로 드러낸다. 바로 이 차이에서 ‘진짜’와 ‘가짜’가 갈린다.
문제는 이 기술의 등장이 연구 성과를 넘는다는 데 있다. 댓글 조작은 이미 과거에도 위협이었다.
2012년 국정원 댓글 사건, 2017년 드루킹 사태, 그리고 무엇보다 2016년 미국 대선 당시 러시아의 대규모 여론 공작이 그 대표적 사례다.
러시아의 ‘인터넷 리서치 에이전시(IRA)’는 수천 개의 가짜 계정을 운영하며, 페이스북과 트위터 등에서 80,000건 이상의 게시물을 유포해 최대 1억 2천만 명의 미국인에게 노출된 것으로 분석됐다.

IRA는 특정 후보의 승리보다, 인종, 종교, 총기, 성소수자 문제 등 미국 사회의 분열과 갈등을 극대화하는 데 작전의 핵심을 두었다.
흑인 인권운동가를 사칭한 계정은 “힐러리에게 투표하느니 아예 투표하지 말자”는 메시지를 퍼뜨렸고, 반대로 보수 성향의 계정은 “불법 이민자 때문에 미국이 무너진다”는 극단적 게시물로 트럼프 지지를 확산시켰다.
여론을 설계하는 기계들…KAIST가 던진 첫 방패
이런 수법은 지금도 진화 중이다. 2023년 마우이 산불 당시, 중국과 연계된 AI 계정들이 “미국 정부가 기상 무기를 실험하다 불을 냈다”는 음모론을 퍼뜨렸다. 재난을 틈탄 정부 불신 조장이었다.
그 모든 작전이 과거에는 사람이 손으로 기획하고 실행한 일이었다. 그런데 이제 그런 작업이 인공지능 하나로 대체될 수 있다.

KAIST의 XDAC는 그런 위협 앞에서 첫 번째 방패를 들었지만, 이 전쟁은 이제 시작일 뿐이다. 기술은 계속 진화하고, 그만큼 조작의 방식도 정교해질 것이다.
더 늦기 전에, 우리는 이 새로운 형태의 여론 조작에 대한 인식과 대응력을 키워야 한다. 그렇지 않으면, 우리가 믿고 따르는 ‘사람의 목소리’조차 결국 기계가 설계한 환상이었음을 나중에야 깨닫게 될지도 모른다.