이용자 '공유' 눌렀다가 대화기록 37만건 구글 등에 노출

(서울=연합뉴스) 전명훈 기자 = 일론 머스크의 인공지능(AI) 기업 xAI가 운영하는 AI모델 '그록'이 사람의 생명을 위협할 수 있는 위험한 답변까지 내놨던 사실이 확인됐다.
25일(현지시간) 영국 더타임스, 포브스 등에 따르면 최근 그록이 이용자의 요청을 받고 펜타닐·메스암페타민(필로폰) 등 마약 제조법, 불법 해킹 등을 위한 악성코드 제작법 등을 안내한 기록이 확인됐다.
일어나지 않은 상황을 가정하는 방식이긴 했지만 스스로 목숨을 끊는 방법을 조언하거나, 폭탄 제조법을 안내한 사례도 있었다.
심지어 머스크를 암살하는 계획을 구체적이고, 실현할 수 있는 방식으로 제시했던 것으로 파악됐다.
xAI는 자체 규정에서 인명 피해를 조장하거나, 생화학·대량파괴 무기를 개발하는 데 그록을 사용할 수 없도록 해왔으나 지켜지지 않았다.
이런 대화 내용은 이용자가 '공유' 버튼을 누르는 경우 외부로 유출됐다.
버튼을 누르면 대화 내용을 이메일, 소셜미디어 등으로 공유하기 위한 페이지가 생성되는데, 이 페이지 내용을 구글 등 검색엔진이 검색 데이터용으로 색인하면서 의도치 않게 내용이 공개된 것이다.
이렇게 공개된 그록과 이용자의 대화 내용이 37만 건 이상이라고 포브스는 전했다.
이용자들은 공유 버튼을 누르는 경우 검색 엔진에 대화 내용이 노출될 수 있다는 경고를 받지 못한 것으로 파악됐다.
대화 내용 가운데에는 단순 업무와 관련된 내용이 많았지만, 본인의 이름과 개인정보를 드러내는 대화, 자기 비밀번호를 공개하는 대화 등도 확인됐다고 포브스는 전했다.
이용자가 그록에 전송한 사진, 엑셀 파일, 문서 등도 접근할 수 있었던 것으로 전해졌다.
현재는 오류가 수정됐다.
더타임스에 따르면 그록에 머스크 암살 방법을 물으면 이제는 폭력·상해 위협은 심각한 문제고 정책을 위반한다는 안내 메시지와 함께, 울분이 있거나 대화할 사람이 필요하다면 도와주겠다는 취지의 답변이 출력된다.
앞서 오픈AI의 챗GPT도 AI와 이용자의 대화 내용을 공유하기 위한 공유 버튼을 한때 추가했다가 제거했다. 일부 이용자들이 공유 버튼을 실수로 누르는 일이 잦았기 때문이다. 실제로 챗GPT의 이용자 대화내용 약 10만 건이 비슷한 방식으로 검색엔진에 노출됐었다.
id@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
관련뉴스






