구글 AI 보안 전문가가 AI 챗봇 사용 시 개인 및 업무 데이터를 보호하는 방법에 대한 중요한 조언을 공유했다.
데이터 유출 방지 위해 AI 챗봇을 ‘공개된 엽서처럼 취급하라’
일상 속 AI의 부상에 대해, 구글의 개인정보 보호 및 크롬 AI 보안 팀에서 근무한 하쉬 바르쉬니는 “AI 모델은 유용한 응답을 생성하기 위해 데이터를 사용한다”고 말했다고 비즈니스 인사이더가 보도했다.
“사용자인 우리는 사이버 범죄자나 데이터 중개업체 같은 유해한 주체가 접근하지 못하도록 개인정보를 보호해야 한다.”
그는 공개 AI 도구에 사회보장번호, 신용카드 정보, 집 주소, 의료 기록 등을 공유하지 말 것을 강조했는데, 이러한 데이터는 향후 모델 훈련을 위해 저장될 수 있기 때문이다.
기업용 AI 사용 및 정기적 기록 삭제
하쉬 바르쉬니는 기밀 업무 대화에는 기업용 AI 도구를 사용하는 것이 중요하다고 덧붙였다.
“한 번은 기업용 제미니 챗봇이 제 정확한 주소를 알려주는 것에 놀랐다”고 말하며, 장기 기억 기능이 이전에 공유된 정보를 유지할 수 있음을 설명했다.
그는 위험을 최소화하기 위해 채팅 기록을 정기적으로 삭제하고 임시 또는 ‘시크릿’ 모드를 사용할 것을 권장했다.
마지막으로, 편리함과 보안을 모두 보장하기 위해 잘 알려진 AI 플랫폼을 고수하고 대화 내용이 모델 훈련에 사용되지 않도록 개인정보 설정을 검토할 것을 조언했다.
생성형 AI 개인정보 위험: 어떤 플랫폼이 데이터를 보호할까?
올해 초 생성형 AI와 대규모 언어 모델의 광범위한 사용으로 개인정보 보호 우려가 급증했다.
인코그니(Incogni)의 보고서에 따르면 미스트랄AI의 르챗(Le Chat)이 명확한 개인정보 보호정책과 옵트아웃 옵션 덕분에 가장 안전한 플랫폼으로 선정되었으며, 챗GPT와 그록(Grok)이 그 뒤를 이었다.
반면에, 메타 플랫폼스(NASDAQ:META)의 메타 AI, 알파벳(NASDAQ:GOOG)(NASDAQ:GOOGL)의 제미나이, 그리고 마이크로소프트의 코파일럿이 데이터 수집에 가장 공격적이었으며, 종종 투명성이 부족했다.
모바일 앱도 이러한 추세를 반영하여 르챗, 파이AI(Pi AI), 챗GPT가 가장 낮은 위험을 보인 반면, 메타AI는 이메일 및 위치와 같은 민감한 데이터를 수집했다.
사용자들은 개인정보를 보호하기 위해 개인정보 설정을 검토할 것을 권고받았다.
사진: 셔터스톡
면책 조항: 이 콘텐츠는 부분적으로 AI 도구의 도움을 받아 작성되었으며, Benzinga 편집진이 검토하고 게시했습니다.
Benzinga Pro의 독점 뉴스 및 도구로 수익률을 높이세요.
독점 속보 및 스캐너와 같은 Benzinga Pro의 강력한 도구 세트로 다른 트레이더보다 우위를 점하세요. 여기를 클릭하여 14일 무료 체험을 시작하세요.

