오픈AI는 러시아, 중국, 이란, 이스라엘과 관련된 네트워크들에서 자사의 AI 도구가 허위 정보를 퍼뜨리기 위해 악용되고 있음을 밝혔다.
어떤 일이 있었나 (What Happened): 목요일 파이낸셜 타임즈(Financial Times)의 보도에 따르면 오픈AI는 러시아, 중국, 이란, 이스라엘과 연결된 네트워크들이가 허위 정보를 전파하기 위해 자사의 AI 도구를 활용하고 있음을 공개했다.
챗GPT 챗봇으로 유명한 샌프란시스코에 본사를 둔 이 회사는 5개의 비밀 영향력 조직들이 자사의 AI 모델을 활용하여 오해의 소지가 있는 텍스트와 이미지를 생성했다고 밝혔다.
이러한 작전은 러시아의 우크라이나 침공, 가자 분쟁, 인도 선거, 유럽과 미국 정치, 중국 정부에 대한 비판 등의 주제에 초점을 맞춰 왔다.
오픈AI의 정책은 해당 모델을 사용하여 속이거나 호도하는 것을 명시적으로 금지한다. 그러나 이러한 네트워크들은 코드 디버깅 및 공개 소셜 미디어 활동 연구와 같은 작업에 AI를 사용하여 생산성을 향상시켰다.
메타 및 구글의 유튜브와 같은 거대 소셜 미디어들은 2016년 미국 대통령 선거부터 허위 정보를 억제하기 위해 노력해 왔다.
AI 기술의 급속한 발전으로 인해 허위 정보 가해자들이 사실과 같은 딥페이크를 만들고 미디어를 조작하는 것이 더 쉽고 저렴해졌다.
오픈AI의 수석 조사관인 벤 님모(Ben Nimmo)는 이러한 캠페인들이 참여도를 크게 높이지는 못했지만 위협은 여전히 남아 있다고 말했다. 오픈AI는 이러한 허위 정보 캠페인들을 밝히기 위해 최선을 다하고 있으며 더 나은 탐지 및 분석을 위해 자체 AI 기반 도구들을 개발하고 있다.
왜 중요한가 (Why It Matters): 잘못된 정보를 퍼트릴 목적으로 AI 도구를 악용하는 일은 새로운 문제가 아니다. 올해 초 오픈AI와 마이크로소프트(NASDAQ:MSFT)의 이미지 도구의 AI 생성 콘텐츠가 잘못된 선거 정보 스캔들을 촉발하고 있다는 보도가 있었다. 이는 특히 전 세계적으로 바쁜 선거 기간에 이해관계자들 사이에 상당한 경각심을 불러일으켰다.
또한 오픈AI는 사진이 DALL-E 모델로 생성되었는지 식별하기 위한 새로운 AI 이미지 감지 도구를 개발해 왔다. 이러한 노력은 잘못된 정보의 확산을 막기 위한 보다 광범위한 계획의 일부이다.
AI 챗봇이 미국 선거에 대해 부정확하고 유해한 답변을 제공했을 때 잘못된 정보를 퍼뜨리는 AI의 역할에 대한 우려도 부각되었다. 이 사건은 챗봇이 선거와 같은 중요한 분야에서 전성기를 누릴 준비가 되어 있지 않을 수 있다는 점을 강조했다.
더욱이 힐러리 클린턴과 같은 유명 인사들은 2024년 선거를 앞두고 AI가 생성한 허위 정보에 대한 우려를 표명하며 경계가 필요함을 강조했다.
이미지: 셔터스톡을 통해
이 스토리는 Benzinga Neuro를 활용하여 Kaustubh Bagalkote가 편집했습니다.