대한민국에 ‘가짜뉴스’가 범람하고 있다. 특정 분야만 아니라 정치, 경제, 사회, 문화, 방송·연예 등까지 광범위하게 '가짜뉴스'가 퍼지면서 사실을 왜곡, 호도하는 것은 물론 사회적 혼란과 분열을 야기하고 있다. 특히 1인 미디어와 인공지능(AI)의 발전으로 가짜뉴스의 형태와 수법도 진화되고 있어 이에 따른 대책이 시급히 요구된다. 이에 <한국NGO신문>이 ‘공정사회의 적, 가짜뉴스’를 주제로 기획기사를 8월 14일부터 8회에 걸쳐 연재한다. 이를 통해 가짜뉴스의 현실태와 문제점을 진단하고 가짜뉴스 대처방안과 근절방안을 모색, 궁극적으로 공정사회 실현에 기여하고자 한다. 4회에서는 ‘AI의 진화와 가짜뉴스’에 대해 보도한다. -편집자 주-
AI(Artificial Intelligence·인공지능)와 인류의 공존 시대다. AI는 기업, 의료, 금융, 교육 등 일상 전반에서 활용되고 있다. 그러나 ‘칼날의 양면’이다. AI가 진화할수록 긍정적 기능이 있지만 부정적 기능도 수반되는 것. 가짜뉴스도 부정적 기능의 하나로 꼽힌다. AI의 진화로 가짜뉴스의 생산, 유포에 ‘가속도’가 붙고 있기 때문이다. 특히 생성형 AI 등장으로 가짜뉴스의 심화를 우려하는 목소리가 높아지면서 대책 마련이 요구된다.
생성형 AI, ‘사실과 거짓 판별’ 불가···일반인 영역으로 확대
김갑수 서울교대 컴퓨터교육과 교수(과학영재교육원, S/W영재교육원장)에 따르면 AI는 5대 기능을 갖추고 있다.
첫 번째는 인식 기능이다. 즉 이미지, 소리, 텍스트 인식 모듈이 있어야 한다. 두 번째는 데이터를 갖고 추론하는 기능이다. 세 번째는 데이터를 갖고 학습하는 기능이다. 법칙을 만들어주는 것이다.
네 번째는 커뮤니케이션 기능이다. 네 번째 기능까지 갖추면 생성형 AI로 불린다. Chat GPT(이하 챗GPT)가 대표적이다. 챗GPT는 학습 데이터 보유를 넘어 사용자의 질의에 응답한다. 커뮤니케이션 기능을 갖춘 것이다. 소프트웨어 AI의 경우 네 번째 단계에서 끝나지만, 하드웨어 AI의 경우 마지막 5단계로 액션 기능이 있어야 한다. 바로 로봇 단계다.
지금 생성형 AI가 가짜뉴스의 위험 요인으로 지목된다. 김 교수는 “생성한다는 것은 무엇을 만들어낸다는 의미다. 생성형 AI는 다음 단어를 예측하면서 글을 쓴다”면서 “예측할 때 기존의 학습 데이터를 활용한다. 하지만 학습 데이터가 사실인지, 거짓인지 구별하지 못한다”고 설명했다.
예를 들어 생성형 AI의 대표주자, 챗GPT에게 김갑수 교수에 대해 질문한다고 가정하자. 챗GPT는 김갑수 교수 다음 단어가 무엇이 올지를 전체 인터넷 사이트를 토대로 생각하면서 글을 작성한다. 김갑수 교수 다음에 ‘서울교대’가 올 수 있지만 만일 김갑수 서울교대 교수보다 더 유명하거나 더 많은 데이터를 가진 사람이 있다면 해당 사람의 데이터가 사용된다. 결국 정보의 오류가 발생하는 것이다.
전문가들은 이를 ‘할루시네이션(hallucination·환각)’이라고 정의한다. 할루시네이션은 챗GPT처럼 생성형 AI가 거짓, 허위 정보를 생산하는 것을 의미한다. 김 교수는 “생성형 AI는 기본적으로 100% 완전하지 않다. 챗GPT는 의도적으로 충분히 가짜뉴스를 만들어낼 수 있다”며 “챗GPT에게 논문을 하나 쓰게 하면 ‘참고문헌이 없는’ 참고문헌을 만들어낸다”고 지적했다.
쉽게 말해 생성형 AI는 학습 데이터를 기반으로 콘텐츠를 생산할 수 있다. 학습 데이터는 매우 광범위하고 다양하다. 하지만 학습 데이터가 사실인지, 거짓인지를 구별하지 못하고 콘텐츠를 생산한다. 얼마든지 콘텐츠에 오류가 발생할 수 있다.
이성엽 고려대 기술경영전문대학원 교수(기술법정책센터장)는 <한국NGO신문>과의 인터뷰에서 “과거에는 데이터를 학습한 AI가 예측을 하는 데에 쓰였다면 지금은 여러 데이터를 학습한 AI가 콘텐츠를 생산한다. 바로 생성형 AI”라면서 “새로운 콘텐츠를 만들 수 있기 때문에 기존의 여러 영상이나 이미지, 텍스트를 갖고 사실과 다른 것을 만들어낼 수 있다. 이에 가짜뉴스를 보다 손 쉽게 만들 수 있다”고 말했다.
이어 “다르게 말하면 그동안 전문가들의 영역이었는데 일반인도 생성형 AI에 명령어를 내리면, 예를 들어 어떤 내용에 이미지를 그려 달라고 하면 그려져 나온다”며 “즉 기술적으로는 새로운 콘텐츠를 생성할 수 있는 AI가 나왔다는 것과 생성형 AI를 일반인 누구나 쉽게 접근, 사용할 수 있다는 것으로 팩트가 아닌 정보들이 넘칠 가능성이 있고, 유트브에 올리면 확산된다”고 밝혔다.
챗GPT發 가짜뉴스 ‘기승’···AI로 가짜뉴스 타겟팅, 확산
챗GPT는 미국의 오픈에이아이(OpenAI)가 2022년 12월 1일 공개했다. 빅데이터 분석과 딥러닝 기반으로 대화를 제공한다. 현재 전 세계적으로 챗GPT 열풍이 확산되고 있다. 하지만 부작용도 뒤따르고 있다. 챗GPT 생성 정보에 오류가 발생하는 것.
미국의 뉴스 신뢰성 평가 사이트 <뉴스가드>가 챗GPT 등 AI 챗봇 이용 뉴스 사이트를 확인한 결과 49개 사이트가 <비즈 브레이킹 뉴스>, <마켓 뉴스 리포트>, <뉴스 라이브 79> 등의 매체명을 사용하면서 가짜뉴스를 생산했다. 실례로 <셀럽데스>에는 ‘바이든 대통령 사망’ 제하의 가짜뉴스가 등장했고 <티뉴스네트워크>는 ‘우크라이나 전쟁에서 수천명이 사망했다’는 허위 사실을 게재했다.
생성형 AI가 자동으로 텍스트, 이미지 등의 작업을 수행하면서 가짜뉴스의 도구로 악용되는 것이다. 노아 지안시라큐사 벤틀리대 부교수는 “이전에는 가짜뉴스 생성에 인건비라도 들어갔지만 이제는 무료인 데다 생산속도도 빨라졌다”면서 “더 많은 콘텐츠 공장이 자동화될 것”이라고 우려했다.
노아 지안시라큐사 벤틀리대 부교수의 우려처럼 AI의 진화 속도만큼 가짜뉴스의 생산·유포 속도도 빨라질 것으로 전망된다. 이는 생성형 AI의 특징이 범용 인공지능이기 때문이다.
이성엽 교수는 “생성형 AI는 우리가 생각할 수 있는 모든 분야의 데이터를 학습하고 있다”며 “어떤 것이든 원하면 만들어낼 수 있어 범용 인공지능이라고 한다. 즉 모든 분야에서 사용될 수 있다는 것”이라고 말했다.
이 교수는 “생성형 AI는 답변 내용에 대해 파인 튜닝(Fine Tuning, 정제된 데이터로 학습하는 것) 절차를 거치지만 여전히 어떤 데이터를 학습시키느냐에 따라서 편향적인 결과가 나올 수 있고 가짜뉴스로 갈 가능성도 있다”면서 “다양한 AI가 나오고 범용 인공지능 분야를 응용, 분야별로 새로운 AI가 나오면 다양한 AI 중에는 편향성 문제가 생길 수 있다”고 전망했다.
이경전 경희대 경영학과(빅데이터응용학과&첨단기술비즈니스 학과) 교수도 “AI는 개인의 데이터를 분석, 가장 관심을 가질 만한 정보를 예측하고 이를 기반으로 가짜뉴스를 타겟팅하는 데 사용 가능하다”며 “AI를 이용, 자동화된 소셜 미디어 계정(봇)을 운영함으로써 가짜뉴스를 빠르고 넓게 퍼트릴 수 있다”고 밝혔다.
AI發 가짜뉴스 방지 필요···법적 제제, 개발자 윤리 강화 대안 제시
그렇다면 생성형 AI發 가짜뉴스를 어떻게 예방할 수 있을까? 이를 위해 이성엽 교수는 이용자의 AI 리터러시 배양, 법적 규제, 생성형 AI 가이드라인 제정 등을 대안으로 제시했다. 특히 사회적, 국가적 법익을 침해하는 가짜뉴스 규제에 공백이 있다며 이에 대한 사회적 논의가 필요하다고 주문했다.
이 교수는 “가짜뉴스와 관련해 개인에 대한 침해, 명예훼손이나 모욕 같은 것은 형법이나 정보통신망법에 따라 처벌이 이뤄지고 있다”면서 “가짜뉴스 대상이 특정 개인이나 집단이 아니라 국가나 사회를 전체적으로 위태롭게 하는 경우 규제가 필요하다고 본다”고 말했다.
그러면서 이 교수는 가짜뉴스가 선거에 미치는 폐해를 예로 들었다. 선거에서 사실이 아닌 이슈를 전파, 사람들을 현혹시켜 투표하게 되면 ‘진짜로 돼야 할 사람’이 안 되고 ‘안될 사람’이 되는 문제가 생긴다는 것. 이 교수는 “지도자가 누가 되느냐가 중요한데 지도자를 선택하는 데 있어 잘못된 정보에 의해 판단하면 큰 문제”라고 지적했다. 즉 선거에서처럼 가짜뉴스가 사회적, 국가적 법익을 침해할 경우 규제가 필요하다는 게 이 교수의 의견이다.
개발자의 윤리의식 강화가 필요하다는 주문도 제기된다. 개발자의 학습에 따라 생성형 AI가 움직이기 때문이다.
김갑수 교수는 “생성형 AI는 학습한 대로 동작, 어떤 학습 데이터를 사용하느냐가 중요하다”면서 “학생들도 한쪽으로 편향되게 학습하면 이상하게 되듯이 AI도 편향 데이터를 넣어 학습하면 그쪽으로 편항된다”고 말했다. 그러면서 “개발자가 AI를 어떤 데이터를 갖고 학습시키느냐가 중요하다. 결국 AI를 만드는 사람의 윤리가 중요하다”고 강조했다.
AI를 역으로 가짜뉴스 예방과 근절에 이용할 수 있다는 분석도 있다. 이경전 교수는 “AI 알고리즘은 소셜 미디어 플랫폼에서 정보의 확산 패턴을 분석, 가짜뉴스 전파 감지와 차단에 사용 가능하다”며 “또한 AI는 데이터의 출처를 추적하고 뉴스 기사의 사실 여부를 빠르게 확인할 수 있다”고 말했다.
앞으로 더욱 다양한 영역에서 인류와 공존할 AI. AI가 가짜뉴스의 도구가 아닌, 인류의 동반자로서 공존하기 위해 지금이 정부, 시민사회, 플랫폼업계, IT업계, 학계 모두가 지혜를 모아야 할 때다.
4회 ‘AI의 진화와 가짜뉴스’에 이어 5회 기사에서는 ‘가짜뉴스 피해사례’를 집중 보도한다.
<기획취재팀: 정성민 편집국장, 김승동 대기자, 설동본 대기자, 서효림 기자, 김다원 기자>
“본 기획물은 정부광고 수수료로 조성된 언론진흥기금의 지원을 받았습니다.”
