대한민국에 ‘가짜뉴스’가 범람하고 있다. 특정 분야만 아니라 정치, 경제, 사회, 문화, 방송·연예 등까지 광범위하게 '가짜뉴스'가 퍼지면서 사실을 왜곡, 호도하는 것은 물론 사회적 혼란과 분열을 야기하고 있다. 특히 1인 미디어와 인공지능(AI)의 발전으로 가짜뉴스의 형태와 수법도 진화되고 있어 이에 따른 대책이 시급히 요구된다. 이에 <한국NGO신문>이 ‘공정사회의 적, 가짜뉴스’를 주제로 기획기사를 8월 14일부터 8회에 걸쳐 연재한다. 이를 통해 가짜뉴스의 현실태와 문제점을 진단하고 가짜뉴스 대처방안과 근절방안을 모색, 궁극적으로 공정사회 실현에 기여하고자 한다. 8회에서는 전문가와의 대담을 上편과 下편으로 나눠 보도한다. -편집자 주-
최연구 부경대 대학원 과학기술정책학과 겸임교수(전 한국과학창의재단 과학문화협력단 단장), “AI 개발자 윤리 중요···AI 윤리 실천 가이드라인 제정에 일반시민 참여"
-AI(인공지능), 특히 생성형 AI가 발달하면서 가짜뉴스도 진화되고 있다는 우려가 제기되고 있다. 생성형 AI 발달이 가짜뉴스 진화 우려로 이어지는 이유가 무엇이라고 보나.
“생성형 AI는 ‘제너레이티브(generative) AI’다. 말 그대로 ‘제너레이션(generation·생성)’을 하는 것이다. 텍스트도 생성하고, 이미지도 생성하고, 동영상도 생성한다. 생성은 일종의 창작이다. 기존 AI의 기능은 주어진 조건을 빨리 달성하는 것이었다. 예를 들어 알파고는 바둑에 특화된 기능이다. 의료 AI는 암을 진단하고, 사진을 읽고 판독한다. 하지만 생성형 AI는 사람처럼 창작할 수 있는 기능이다.
따라서 생성형 AI의 최대 문제점의 하나가 ‘없는 사실을 상상해 여러 가지 데이터를 종합, 그럴 듯한 스토리를 만들어내는 것’이다. 스토리 자체를 생성하지만 ‘내가 없는 이야기를 지어냈다’라고 표시하지 않는다. 그러니까 읽는 사람으로서는 ‘정말 있는 이야기인가 보다’라고 생각하는 것이다.”
-예를 들어 설명한다면.
“챗 지피티(chat GPT)에게 ‘춘향전 스토리를 이야기해달라, 요약해달라’고 요청하면 ‘춘향이가 이몽룡을 만났는데 서울 갔다가 잘 안 돼서 다시 돌아온다’ 이런 식으로 이야기를 지어낸다. 원래 춘향전 스토리는 그게 아니다. 없는 이야기를 지어내서, 이것이 춘향전의 줄거리라고 제시한다.
이처럼 생성형 AI는 스토리를 생성하는 것이다. 그러나 이것이 생성된 이야기인지, 정말 있는 데이터를 갖고 잘 정리한 건지 구분이 안 된다. 바로 이런 부분을 인공지능 윤리학자들과 인문학자들이 굉장히 우려하고 있다.”
-챗 지피티 같은 생성형 AI가 잘못된 정보나 허위 정보를 생성하는 것을 ‘할루시네이션(hallucination)’이라고 부르는 것으로 알고 있다. 할루시네이션에 대해 설명한다면.
“할루시네이션은 우리말로 하면 환각이다. 환각 상태에서는 신기루가 나타나고 다른 것이 보인다. 생성형 AI가 없는 이야기인데 마치 리얼하게, 지어낸 이야기인지 구분이 안 될 정도로 환각적인 현상을 보여준다. 환각이 가짜뉴스 같은 것이다. 텍스트가 결국 스토리가 될 수 있고, 스토리가 또 뉴스가 될 수 있다. 생성형 AI는 없는 뉴스를 충분히 그럴 법하게 지어낼 수 있는 능력을 갖고 있다.”
-생성형 AI發 가짜뉴스는 생산 못지않게 유포도 문제인데.
“‘챗 지피티가 작성한 것’이라고 표시하지 않고 퍼다가 나르기 시작하면 이게 정말 인포데믹(infodemic·정보전염병)이 된다. 특히 초연결 시대는 정보나 데이터가 확산되는 속도가 엄청나게 빠르다. 네트워크 시대에는 네트워크 효과가 있어, 네트워크에 실리는 순간 통제 불가능할 정도로 빨리 확산된다.
예를 들어 인터넷이나 SNS에 정보가 올라가고, 퍼 나르기를 했을 때 개인의 잘못된 정보나 명예훼손성 뉴스를 모두 삭제하기 어렵다. 원본을 지운다고 블로그 등에 퍼진 것을 다 지울 수가 없지 않나. 바로 이것이 가장 큰 위험이라고 볼 수 있다.”
-AI가 역으로 가짜뉴스를 판별하는 데 활용될 수 있다는 의견도 있는데.
“인공지능 개발사 대표의 강의를 들은 적이 있다. 챗 지피티를 사용해 만든 텍스트인지, 사람이 만든 텍스트인지 판별할 수 있는 AI 기술도 충분히 있다고 한다. 어떤 데이터를 입력했을 때 ‘챗 지피티 생성’ 아니면 ‘휴먼(인간) 생성’ 식으로 판별이 나온다는 것이다.
그런데 또 다른 문제가 있다고 한다. 예를 들어 챗 지피티한테 ‘초등학생이 작성한 것처럼 작성해달라’고 요청하니까 초등학생이 작성한 것처럼 만들어준다는 것이다. 그래서 사람이 작성한 것처럼 보인다. 챗 지피티가 문법적으로 틀릴 리가 없는데, 초등학생이 작성한 것처럼 문법적으로 틀리고 말투도 어눌한 부분이 있는 것이다.
이렇게 챗 지피티가 초등학생처럼 의도적으로 문법도 좀 틀리고, 말투도 좀 어눌하게 작성해서 프로그램에 입력하면 ‘챗 지피티가 의도적으로 작성’으로 나오는 게 아니라 ‘휴먼 생성’으로 나온다고 한다. 이런 식으로 생성형 AI가 할루시네이션하는 기술도 계속 고도화될 것이고, 이것을 막거나 판별하는 기술도 계속 고도화될 것이다.”
-그렇다면 생성형 AI發 가짜뉴스를 예방·근절할 수 있는 방안이 무엇이라고 보나.
“계산기를 쓰다 보면 인간의 생각하는 기능, 연산하는 기능이 떨어지니까 계속 의존하게 된다. 하지만 인간의 두뇌 활동에 부정적 영향을 미친다고 계산기를 사용하지 말자고 할 수는 없다. AI도 마찬가지다. AI는 이미 편리하게 사용되는 단계에 이르렀다. 부작용이 있다고 사용하지 않을 수 없다.
그래서 이제는 AI 윤리가 필요하다. 인문학적인 소양 같은 게 필요하다. 최근 ‘오펜하이머’라는 영화가 개봉했다. 오펜하이머를 비롯해 많은 물리학자들과 과학자들이 참여, 맨하탄 프로젝트를 완성했다. 그래서 원자 폭탄을 처음 만들었다. 당시 의도는 히틀러가 개발하려는 것보다 먼저 만들어서 나치즘이 세계로 퍼지는 걸 막기 위해서, 즉 평화적인 목적이었다.
그렇지만 결국 원자 폭탄은 폭탄이고 실제로 사용했다. 견제 도구가 아니라 히로시마와 나가사키에 터뜨렸다. 원자 폭탄을 터뜨린 게 인간의 역사에서 최대 재앙의 하나다. 이는 어떤 말로도 변명이 될 수 없다. 과학기술은 가치 중립적이기 때문에 잘 활용하면 좋고, 잘못 활용하면 나쁘다고 이야기를 많이 한다. 반드시 그렇지는 않다. 그 자체가 위험할 수도 있다. 또한 인간의 근본 욕망이나 욕심이 있다.
따라서 개발 단계부터 위험하게 사용될 수 있음을 인지·개발하는 것과 ‘나는 개발자인데 프로그램만 잘 만들면 돼’라고 개발하는 것은 완전히 다르다. 이에 이제 과학자들에게도 인문학을 가르치고, 과학자들이 인문학적인 소양을 갖고 과학 윤리를 철저히 해서 어떻게 사용될 수 있는가에 대해 생각하면서 개발하는 것이 필요하다.”
-AI 개발자의 윤리가 중요하다는 의미인가.
“첨단 기술은 불가역성이 너무 크다. 한 번 가고 나면 거꾸로 돌릴 수 없다. 인공지능도 그럴 가능성이 높다.
모든 기술은 개발 단계에서부터 인간의 의도가 들어간다. 개발자의 의도가 들어갈 수밖에 없다. 애초부터 충분히 누구나 범죄에 악용할 수 있게 개발하면 위험성이 더욱 커진다. 그래서 출발점 자체는 개발자의 윤리다. 개발 단계부터 악용될 소지를 최소화하면서 개발하는 것이 개발자 윤리다. 결국은 도구 자체가 어떤 본질이나 목적이 될 수는 없다. 그래서 도구가 왜 개발됐는가가 더 중요하다.”
-사용자 윤리도 중요하지 않나.
“사용자 윤리도 있다. AI를 범죄에 활용한다든지, 레포트를 짜낍기하는 데 사용하지 말자는 것은 사용자 윤리다. 또한 AI를 생산, 판매할 때의 AI 기업의 윤리도 있다. 하지만 무엇보다 개발자 윤리가 굉장히 중요하다."
-AI 개발자 윤리가 강화되면 생성형 AI發 가짜뉴스 예방과 근절에도 도움이 될 것으로 생각된다. AI 개발자 윤리 강화를 위해 사회적 또는 국가적으로 필요한 노력이라면.
“기술이 어떤 식으로 활용될 수 있는지 개발자가 제일 잘 안다. 핵도 어느 정도 위험이 있는지, 폭발했을 때 어느 정도 폭발력이 있는지 개발자가 제일 잘 안다. 개발자가 위험에 대해 가장 잘 알기 때문에 개발 단계에서 공학 윤리를 만드는 것이다. 예를 들어 ‘알고리즘을 투명하게 해야 된다’라든지 가이드라인을 만드는 것이다.
알파고가 나왔을 때 알파고 창시자 데미스 하사비스 구글 딥 마인드 CEO가 ‘어느 정도 단계까지 가면 알파고가 어떻게, 어떤 알고리즘을 통해 묘수를 생각했는지 개발자도 잘 모르는 단계에 이른다’고 인터뷰한 적이 있다. 개발은 자신이 했지만 어느 순간이 되면 이게 마치 특이점처럼 증폭, 능력을 개발자가 통제할 수 없을 정도에까지 이른다. 이런 단계를 블랙박스라고 부른다. 블랙박스는 안에 무엇이 있는지 모르는 것이다.
어떤 알고리즘에 의해 인풋을 입력하면 아웃풋이 나온다. 인풋이 들어갔을 때 아웃풋이 어떻게 나오는지를 설명할 수 없으면 블랙박스다. 인간이 기술을 통제할 수 없는 것이다. AI도 마찬가지다. A가 어떻게 C가 됐느냐를 개발자가 설명할 수 없으면 사실 상용화하기 어렵다. 설명 가능하도록 만들든지 아니면 계속 연구를 해서 설명할 수 있도록 해야 한다. 이런 것이 개발자의 윤리다.”
-가이드라인을 언급했는데 어떤 가이드라인이 필요한가.
“민간 차원의 자율적인 가이드라인부터 윤리 선언, 정부 차원의 가이드라인과 법까지 여러 단계에서의 윤리 가이드라인이 모두 필요하다."
-가이드라인을 제정할 때 주문하고 싶은 바가 있다면.
"말로만 사회적 합의가 필요하다고 하는데 사회적 합의를 할 수 있는 기구라든지 활동이 전혀 안 돼 있다. 모두 원론적인 수준이다. 특히 위원회에서 전문가들끼리 모여 '이렇게, 이렇게 하는 게 좋겠다'라고 가이드라인을 만든다면 사회적 합의가 아니다. 전문가들의 합의다.
과학기술의 경우 전문가 주의가 굉장히 팽배하다. 과학기술은 어렵기 때문에 ‘일반인들한테 이야기해봐야 잘 모를 거야’라고 생각하는 편견 같은 게 있다. 하지만 잘못된 것이다. 과학기술자들이 만들었지만 사용하는 건 일반인들이다. 결국은 일반인들의 이해관계하고 직결된다. 과학기술자들의 문제만이 아니다. 그래서 모든 사람이 다 참여해야 된다. 전문가들과 똑같은 비중으로 일반인들이 참여하는 것이다. 바로 이것이 사회적 참여다.
또한 개방도 중요하다. AI 때문에 발생한 부작용이나 사건, 사례를 개방해야 된다. 유럽이 잘하고 있다. 유럽연합은 기술 개발보다도 개인정보 보호라든지, 기술 개발이 미칠 수 있는 사회적 영향을 더욱 중요하게 생각한다. 우리도 정부가 '이런 정도까지는 개방해야 된다'고 가이드라인을 줄 필요가 있다."
신창섭 서울문화재단 이사(전 KBS청주방송총국장),
“저널리즘 실종이 언론發 가짜뉴스의 원인···언론의 저널리즘 회복 시급”
-가짜뉴스 생산과 유포에 언론의 책임론도 제기되고 있다. 이유가 무엇이라고 보나.
“그동안 개인적인 경험으로 봤을 때 방송, 신문에서 뉴스를 취재·생산하는 기자들의 저널리즘에 대한 교육과 기자들, 제작자들의 윤리의식·직업의식·사명감이 기본적으로 상당히 부족하다고 생각한다.
원인은 여러 가지가 있겠지만 첫 번째로 언론사에서 신입 기자들을 채용한 뒤 전반적인, 전문적인 교육시스템 자체가 무너졌다고 본다. 특히 공영방송이 더욱 심하다. 두 번째로 입사 이후 트레이닝(훈련)이 아직도 도제식, 자기아 알아서 하는 형태다. 형식적인 연수와 교육에 그치니까 기자들이 전문성, 저널리스트로서의 의식이 준비되지 않은 상태에서 현장에 투입되고 있다.”
-과거와 비교하면 어떤가.
“과거에는 중간 계층의 데스킹 기능이 살아 있었다. 중간층에서 취재 내용을 반드시 검증했다. 내용이 부족·부실하거나, 오보될 가능성이 크다고 할 경우 팩트 체크(fact check)에 대한 데스킹이 철저했다. 그것을 통과하고 나서야 보도됐다.
하지만 지금은 데스킹 기능이 무너지니까 자신이 취재한 것이 진리인 양, 사실인 양 보도하고 있다. 이게 현재 전반적인 언론의 환경이라고 보고 있다. 여러 가지 원인이 있다. 대표적 원인은 기자들이 ‘샐러리맨(봉급생활자)’화됐다는 것이다. 저널리스트로서의 자부심을 잘 인식하지 못하고 있고 스스로가 언론노동자라고 말한다.”
-기자 개인의 문제도 있지만 언론사가 가짜뉴스를 위해 체계적으로 움직이는 경우도 있지 않나. 이는 언론사 자체의 문제라고 보는데.
“방송을 예로 들면 기자들이 취재한 내용, 취재 내용에 대한 가짜뉴스 여부, 취재 내용에 대한 공신력·공정성·공공선에 대한 논의가 심도 있게 이뤄지지 못하고 있다. 제도적인 면도 있지만 언론사 경영진의, 보도책임자들의 윤리의식이 미약하다.”
-그렇다면 저널리즘이란 무엇인가.
“저널리즘은 거창한 것이기보다 취재의 공정성, 공신력에 대한 가이드라인이고 하나의 철학이다. 그러나 지금은 저널리즘에 대해 인식을 못하고 있다. 그러다 보니 언제든지 가짜뉴스 유혹에 빠지고 있다. 특히 저널리즘에서 팩트 체크가 가장 중요한데 그것이 무너지고 있다.”
-과거와 달리 인터넷이 발달하면서 언론사마다 속보 경쟁이 치열하다. 이러한 환경 변화로 팩트 체크가 소홀해진 측면이 있지 않나.
“물론 동의한다. 환경 측면에서 차이가 크다. 옛날에는 정보가 부족해 직접 발로 뛰고, 취재하고, 출입처에서 확인하고 아날로그적 시스템에 많이 노출됐다.
하지만 지금은 기자들이 오히려 정보의 홍수에 묻혀 있다. 정보가 너무 많아 기자 스스로도 정보가 정확한지, 아닌지에 대한 판단이 희미해지고 있다. 그러다 보면 정보, 뉴스, 콘텐츠를 확인하는 절차가 무시된다. 옛날의 환경보다 좋아졌음에도 불구하고, 오히려 더욱 팩트를 체크해야 됨에도 불구하고 팩트를 확인하고 취재원에게 신뢰를 주는 부분은 더 무시당하고 있다.”
-말씀하신 내용을 종합하면 언론이 가짜뉴스 생산과 유포의 책임에서 벗어나기 위해 저널리즘을 회복, 팩트 체크에 충실해야 된다는 것으로 이해되는데.
“그렇다. 공신력, 공정성, 공공선에 맞춰 취재 내용에 대해 철저히 팩트를 검증하는 것이 중요하다.”
-언론의 역할 못지않게 가짜뉴스 예방과 근절에 있어 포털의 역할도 중요하다는 지적도 제기되고 있다. 이에 대한 견해는.
“요즈음은 SNS나 소셜미디어를 안 할 수 없다. 그러나 SNS라든지, 소셜미디어라든지, 언론 뉴스라든지, 정보를 수용자들에게 제공하는 포털의 역할에 대해 여러 가지 얘기가 나오고 있다. 무엇보다 정치면 정치, 경제면 경제 분야에서 포털을 악용할 수 있는 환경이 지속되고 있다.
포털의 영향력을 순기능적으로 만들 수 있도록 제도적인 노력을 했어야 하는데, 그것을 너무 방기해 놓고 지금에 와서 포털의 문제점에 대한 심각성이 인식되기 시작했다.
뉴스가 활자로, 방송으로 보도되는 형태는 예전과 비슷하다. 사실은 포털이 더욱 중요한 역할을 할 수 있다. 국민들도 포털에서 정보를 많이 습득하고 있다. 지금 정부와 여당, 시민들도 여러 가지 포털의 문제점을 제기하고 학계에서도 방안을 제시하고 있지만 포털의 자정기능이나 관련 제도를 시급히 마련해야 할 단계라고 본다.
포털 스스로도 제도적인 개선 요구를 전향적·미래지향적으로 받아들여 언론사, 포털, 수용자가 함께 윈인할 수 있고 순기능적인 언론 기능을 만드는 환경을 빨리 만들어야 한다.”
-해외 사례는 어떤가.
“메타(페이스북·인스타그램 운영사), 트위터, 구글은 오래 전에 문제를 인식하고 수용자들의 불만을 계속 반영해서 나름대로 정비를 해 왔다. 메타의 경우 저널리즘 팩트 체크 프로젝트를 운영하고 있다. 가짜뉴스 신고가 들어오면 조치를 취하고 스스로 가짜뉴스를 거르는 작업도 하고 있다.
네이버, 카카오 등 우리나라의 빅테크 기업(포털)은 미흡한 게 사실이다. 다른 것도 중요하겠지만 우리도 포털에 가짜뉴스 팩트 체크 기능이 시급히 마련돼야 한다고 본다.”
-시민들에게 전하고 싶은 조언이 있다면.
“옛날보다 시민들의 언론에 대한 관심이 높다. 오히려 어떻게 보면 언론에 대한 관심이 너무 많은 상황이다. 그래서 언론이 너무 경쟁화되고 과격화된 경향이 있다.
시민들이 방송 보도, 신문 보도를 접할 때 한 번쯤은 의문을 갖고 좋은 정보라고 하면 활용방안을 자기 나름대로 정리할 필요가 있다. 좋은 정보냐, 나쁜 정보냐, 사실이냐, 가짜냐, 허위냐, 왜곡이냐를 신문을 읽거나 방송 뉴스를 볼 때 건전한 비판의식과 수용의식을 갖고 스스로 판단하는 것이 중요하다.
왜냐하면 옛날에는 공중파라든지 언론 매체가 한정됐지만 지금은 언론, SNS, 포털에 너무 많이 노출돼 있는 상태다. 어떤 것을 취사선택할지 모를 정도로 정보의 홍수에 빠져 있다.
따라서 반드시 자기 판단력이나 판별력이 가동돼야 한다고 본다. 판단력이나 판별력 없이 뉴스와 정보를 받아들인다면 가짜뉴스, 왜곡·편파 방송·보도에 쉽게 빠져들 수 있는 위험이 있다.”
