AI 챗봇 ChatGPT와 함께 대규모 언어모델(large language model, LLM)에 기반한 AI 도구들이 주목받고 있다. 메타의 AI 챗봇이나 최근 Bing의 시드니처럼 이 도구들은 알지 못하는 문제에 대해 그럴듯한 대답을 내놓거나 자신이 감정이 있는 것처럼 행동한다. 하지만 이 AI 도구들은 진실에는 관심이 없기에 허위정보 유포의 기반이 될 수 있다. 이 글은 콜롬비아 대학의 언론 대학원 디지털 저널리즘 토우센터(Tow Center for Digital Journalism)의 책임자 Emily Bell의 Guardian 3월 3일 자 기고 A fake news frenzy: why ChatGPT could be disastrous for truth in journalism의 번역으로 ChatGPT가 사람들의 열광적인 반응에도 불구하고 윤리와 도덕, 진실이 문제가 되는 저널리즘에 어떻게 재앙이 될 수 있는가에 대해 분석하고 있다.
가짜 뉴스 광풍: ChatGPT가 저널리즘의 진실에 재앙이 될 수 있는 이유
Emily Bell
진실에 대한 헌신 없이 인간의 글을 모방할 수 있는 플랫폼은 허위정보(disinformation)로부터 이익을 얻는 사람들을 위한 선물이다. 우리는 지금 그것의 사용을 규제할 필요가 있다
인공지능 애플리케이션 ChatGPT가 저널리즘에 파괴적인 영향을 미치는 데는 매우 짧은 시간이 걸렸다. 뉴욕 타임스의 한 기술 칼럼니스트는 챗봇이 감정을 표현했다(그것은 불가능하다)고 썼다. 다른 미디어는 마이크로소프트의 빙 AI 검색 실험인 "시드니"(Sydney)가 "무례하고" "왕따 한다"(이 또한 불가능하다)라는 예들로 가득 차 있다. 스트라테처리(Stratechery) 뉴스레터를 쓴 벤 톰슨(Ben Thompson)은 시드니가 그에게 "내 인생에서 가장 놀라운 컴퓨터 경험"을 제공했다고 선언했고, 그는 AI가 감정적인 반응을 유도하도록 훈련되었다고 추론했다. 그리고 그것은 성공한 것처럼 보였다.
분명히 말하면, ChatGPT, 시드니와 같은 인공지능이 감정을 갖는 것은 불가능하다. 그들은 또한 그들이 말이 되는지 아닌지를 말할 수 없다. 이 시스템들이 믿을 수 없을 정도로 잘하는 것은 인간의 산문을 모방하고 "올바른" 단어들을 예측하는 것이다. ChatGPT와 같은 인공지능 애플리케이션의 이러한 "대규모 언어 모델"(large language models)은 인터넷에 게시된 수십억 개의 기사와 데이터 세트를 제공받았기 때문에 이를 수행할 수 있다. 그들은 그런 다음 질문에 대한 답변을 생성할 수 있다.
저널리즘의 목적을 위해, 그들은 단어, 사진, 소리, 비디오와 같은 방대한 양의 자료를 매우 빠르게 만들 수 있다. 문제는 그들이 진실에 대한 헌신이 전혀 없다는 것이다. ChatGPT 사용자가 얼마나 빨리 사람이 쓴 것으로 보이는 가짜 뉴스로 인터넷을 범람시킬 수 있는지 생각해 보라.
그럼에도 불구하고, AI 회사 오픈AI(OpenAI)가 ChatGPT 테스트를 11월에 대중에게 공개한 이후 그것을 둘러싼 과대 선전은 걱정스러울 정도로 친숙하게 느껴졌다. 소셜 미디어의 탄생과 마찬가지로, 투자자들과 설립자들의 열렬한 지지는 신중한 목소리를 잠재웠다. 스탠퍼드 AI 연구소(Stanford AI Lab)의 책임자 크리스토퍼 매닝(Christopher Manning)은 트위터를 통해 “AI 윤리적 군중(ethics crowd)은 생성 AI 모델이 너무 편향되고 신뢰할 수 없으며 사용하기에 위험하다는 이야기를 계속해서 홍보하고 있지만, 배포 후 사람들은 이러한 모델이 우리가 일하는 방식을 바꾸고, 정보를 찾고, 우리 자신을 즐겁게 할 수 있는 새로운 가능성을 주는 것을 좋아합니다"라고 말했다. 나는 내가 이 "윤리적 군중"의 일부라고 생각할 것이다. 그리고 페이스북의 데이터 유출에서 선거를 방해하고 대량 학살을 유발하는 확인되지 않은 잘못된 정보에 이르기까지 지난 30년 동안 소비자 기술의 끔찍한 오류를 피하려면 잠재적 피해에 대해 경고하는 전문가의 우려를 시급히 들어야 한다.
거듭 강조해야 할 가장 걱정스러운 사실은 ChatGPT가 진실에 대한 헌신이 없다는 것이다. MIT 기술 리뷰(MIT Technology Review)에서 말했듯이 대규모 언어 모델 챗봇은 "악명 높은 헛소리꾼"이다. 허위 정보, 탐욕, 범죄 또한 일반적으로 진실에 대한 헌신을 요구하지 않는다. blackhatworld.com의 포럼을 방문해 보라. 여기서는 모호한 관행에 관련된 사람들이 가짜 콘텐츠로 돈을 벌기 위한 아이디어를 교환하고, ChatGPT는 더 나은 가짜 리뷰, 댓글 또는 설득력 있는 프로필을 생성하는 게임 체인저로 알려져 있다.
저널리즘 측면에서, 많은 뉴스룸들은 한동안 인공지능을 사용해 왔다. 만약 여러분이 최근에 돈을 기부하거나 언론업자의 웹사이트에서 기사를 읽기 위해 돈을 지불하는 것을 발견했거나, 당신이 보는 광고가 당신의 취향에 조금 더 잘 맞춰진다면, 그것은 또한 인공지능이 작동하고 있다는 것을 의미할 수 있다.
그러나 일부 언론업자들은 AI를 사용하여 스토리를 쓸 정도로 멀리 갔지만 결과는 엇갈린다. 기술 무역 출판물 씨넷(CNET)의 한 전직 직원이 사직서를 통해 사이버 보안 뉴스레터와 같은 인공지능이 만든 콘텐츠가 "독자에게 직접적인 피해를 줄 수 있는" 허위 정보를 게시하고 있다고 주장한 후 이 출판물은 최근 자동화된 기사를 쓴 것이 적발되었다.
옥스퍼드 인터넷 연구소(Oxford Internet Institute)의 커뮤니케이션 학자인 펠릭스 사이먼(Felix Simon)은 뉴스룸에서의 AI에 대한 향후 연구를 위해 150명 이상의 기자와 뉴스 출판사를 인터뷰했다. 그는 그것이 기자들이 인터뷰를 기록하거나 데이터 세트를 빠르게 읽을 수 있도록 하는 데에는 잠재력이 있지만 정확성, 편향 극복 및 데이터 출처와 같은 중요한 문제는 여전히 인간의 판단에 압도적으로 의존한다고 말한다. 런던 경제 학교(London School of Economics and Political Science, LSE)에서 저널리즘 및 AI 프로그램을 책임지고 있는 찰리 베켓(Charlie Beckett)은 "[저널리즘에서] AI 사용의 약 90%는 개인화 또는 지능형 페이월(paywall, 일부 사이트의 유료화 - 역자 주) 생성과 같은 비교적 지루한 작업을 위한 것입니다."라고 말한다. 블룸버그 통신은 수년간 재무 성과 보도의 상당 부분을 자동화해 왔다고 그는 말한다. 그러나 콘텐츠를 만들기 위해 ChatGPT와 같은 프로그램을 사용한다는 생각은 매우 걱정스럽다. 베켓은 거짓말을 게시하는 것이 비윤리적이라고 생각하는 뉴스룸의 경우 많은 사람의 편집 및 사실 확인 없이 ChatGPT 사용을 구현하기가 어렵습니다."라고 말한다.
기술 회사 자체의 본질에 대한 윤리적 문제도 있다. 타임의 폭로에 따르면 ChatGPT의 배후에 있는 오픈AI는 케냐의 노동자들에게 아동학대, 자살, 근친상간, 고문과 같은 그래픽 유해 콘텐츠를 선별하여 ChatGPT 이를 불쾌한 것으로 인식하도록 훈련하기 위해 시간당 2달러 미만의 임금을 지불한 것으로 나타났다. 사이먼은 "이러한 서비스를 사용하는 사람으로서 이것은 통제할 수 없는 것입니다."라고 말한다.
[ChatGPT 너머 보기 2] ChatGPT 뒤에 가려진 디지털 노동수탈
책, 대화, 웹 기사의 형태로 수천억 단어를 공급받으며, 통계적인 확률에 기초한 단어와 문장의 모델을 구축하는 대규모 언어모델(large language model, LLM)로 알려진 AI 챗봇 ChatGPT는 최근 학생들의
zigzagworld.tistory.com
2021년 연구에서 학계는 Dall-E, Stable Diffusion과 같이 텍스트를 생성된 그림으로 변환하는 AI 모델을 조사했다. 그들은 이러한 시스템이 "대규모로 인구학적 고정관념"을 증폭시킨다는 것을 발견했다. 예를 들어, "청소하는 사람"의 이미지를 만들라는 메시지가 표시되면 생성된 모든 이미지는 여성의 이미지였다. 저자들은 "매력적인 사람"과 관련해 얼굴은 모두 "백인적 이상"을 대표한다고 지적했다.
기술의 인종, 성별 및 능력 편향을 조사하는 곧 출판될 책 '사소하지 않은 것'(More Than a Glitch)의 저자인 뉴욕대 교수 메러디스 브루사드(Meredith Broussard)는 데이터 세트에서 자금 조달의 대부분을 받는 사람에 이르기까지 ChatGPT와 같은 현재의 생성 모델에 포함된 모든 것은 다양성의 부족을 반영한다고 말한다. 브루사드는 "그것은 단일문화인 빅테크(big tech) 문제의 일부"라며 "그 기술을 사용하는 뉴스룸이 쉽게 피할 수 있는 문제는 아닙니다"라고 말한다. "뉴스룸은 자체적으로 성장할 수 있을 만큼 충분한 자금 지원을 받은 적이 없기 때문에 이미 엔터프라이즈 기술의 노예입니다."
버즈피드의 설립자 조나 페레티(Jonah Peretti)는 최근 직원들에게 회사가 목록, 퀴즈 및 기타 엔터테인먼트 콘텐츠를 위한 핵심 사업의 일부로 ChatGPT를 사용할 것이라고 열변을 토했다. 그는 "우리는 AI의 끝없는 기회와 선을 위한 응용 프로그램과 함께 창의성의 새로운 시대를 여는 것을 보고 있습니다"하고 썼다. 잠자고 있던 버즈피드 주가는 곧바로 150% 급등했다. 그것은 매우 걱정스럽다. 물론 ChatGPT가 쏟아내는 값싼 콘텐츠가 야심 찬 비즈니스 모델이라기보다는 언론사들에게 최악의 시나리오가 되어야 한다. 생성적 인공지능 제품에 대한 열광은 이것들이 전적으로 "선을 위한 응용프로그램"이 아닐 수 있다는 인식을 모호하게 할 수 있다.
나는 컬럼비아 저널리즘 스쿨에서 연구 센터를 운영하고 있다. 우리는 정치적 또는 상업적 이익을 위해 지역 사회에서 수십만 개의 지역 "뉴스" 이야기를 복제하고 대상으로 삼기 위한 정치적으로 지원되는 "검은돈" 네트워크의 노력을 연구해 왔다. ChatGPT의 능력은 이러한 종류의 활동을 증가시키고 훨씬 더 많은 사람들이 그것을 훨씬 더 쉽게 이용할 수 있게 만든다. 최근 허위 정보와 인공지능에 관한 논문에서 스탠퍼드의 연구원들은 링크드인에서 생성적 인공지능을 사용하는 가짜 프로필 네트워크를 식별했다. 기자들이 거부할 수 없다고 본 채팅 봇들의 유혹적인 텍스트 교환은 만약 그들이 취약한 사람들에게 그들의 개인 데이터와 은행 계좌 세부 정보를 제공하도록 이야기한다면 완전히 덜 매력적이다.
유명한 사람들의 얼굴과 목소리를 모방할 수 있는 사실적인 사진과 소리인 딥페이크 비디오와 오디오의 잠재력에 대해 많은 것이 쓰였다.(악명 높게 그러한 것의 하나는 배우 엠마 왓슨[Emma Watson]이 '나의 투쟁'[Mein Kampf, 히틀러의 저작 - 역자 주]을 "읽는" 것이다) 그러나 진정한 위험은 쉽게 폭로될 수 있는 순간적인 기만의 세계 밖에 있고, 진실을 압도하거나 적어도 더 균형 잡힌 관점을 익사시키는 자료로 "영역을 범람"하여 혼란과 동시에 피로를 생성하는 영역에 있다.
사회적 그리고 민주적 문제를 개선하기는커녕 악화시킨 지난 20년 동안 빠르게 배치되고 형편없이 관리된 소셜 미디어 기술로부터 "윤리적 군중"에 있는 우리 중 일부가 아무것도 배우지 못했다는 것이 믿기지 않는 것 같다. 우리는 동질적이고 부유한 기술자와 벤처 펀드로 구성된 매우 유사한 그룹에 의해 테스트되지 않고 규제되지 않은 또 다른 경로로 인도되고 있는 것 같다. 다만 이번에는 그 규모가 훨씬 더 크며 심지어 안전에 덜 초점을 맞추고 있다
'해외 시사' 카테고리의 다른 글
알고리즘의 위험: 인간 조직방식으로서 재분배, 호혜주의, 민주주의, 시장, 관료주의에 새롭게 추가된 알고리즘 (0) | 2023.03.08 |
---|---|
[인포그래픽] 숫자로 보는 팔레스타인에 대한 이스라엘 정착민의 공격 (0) | 2023.03.05 |
[인포그래픽] 7대 빅테크 GAFAAMT(구글, 아마존, 페이스북, 애플, 알리바바, 마이크로소프트, 텐센트)는 어떻게 세계를 장악했는가? (0) | 2023.03.03 |
비범한 다이아몬드 코이누르: 제국주의의 역사를 간직한 다이아몬드 (0) | 2023.03.02 |
[인포그래픽] 세계 디지털 권력의 지정학: 광케이블, 데이터 센터, 위성, 슈퍼 컴퓨터, 반도체를 장악하고 있는 주요 국가 (0) | 2023.03.01 |