코스피
3,999.13
(91.46
2.24%)
코스닥
916.11
(22.72
2.42%)
버튼
가상화폐 시세 관련기사 보기
정보제공 : 빗썸 닫기

'나체사진 생성' AI 도구에 여학생 피해 잇달아

입력 2025-10-17 10:49   수정 2025-10-17 10:50


인공지능(AI)을 이용한 나체 사진 생성 도구로 인해 실제 피해가 잇따르면서 미국 사회에 우려가 커지고 있다.

16일(현지시간) 미 일간 월스트리트저널(WSJ)에 따르면 뉴저지주의 10대 소녀가 AI 이미지 생성 소프트웨어 '클로드오프'(ClothOff) 개발사인 'AI/로보틱스 벤처 스트래티지 3'을 상대로 소송을 제기했다.

이 소송의 원고인 17세 여학생은 메신저 앱(응용 프로그램) 텔레그램이 자동화 프로그램을 통해 클로드오프에 접근할 수 있게 했다는 이유로 텔레그램 역시 명목상 피고로 추가했다.

보도에 따르면 이 여학생은 14세 때 수영복을 입고 찍은 사진을 자신의 인스타그램 계정에 올렸는데, 고등학교 동급생인 남학생이 이 사진을 이용해 가짜 나체 사진을 만들었다. 여학생은 게시물을 만든 도구로 클로드오프를 이용했다고 주장했다.

같은 반의 일부 남학생들은 이처럼 AI 도구로 생성한 여러 여학생의 가짜 나체 사진을 단체 채팅방에 올려 공유한 것으로 전해졌다.

소송을 제기한 소녀는 자신의 딥페이크 사진이 인터넷에 유포될까 봐 "끊임없는 두려움" 속에 살고 있다고 했다. 또 자신과 다른 여학생들의 사진이 클로드오프의 AI 훈련에도 이용될까 봐 걱정된다고 밝혔다.

원고 측은 클로드오프 운영사가 당사자의 동의 없이 보유한 모든 누드 이미지를 삭제·파기하고 해당 이미지를 AI 모델 훈련에 사용하지 못하도록 명령해 달라고 법원에 요청했다.

이 여학생을 대신해 소송을 진행 중인 예일대 로스쿨 교수와 학생들은 클로드오프 운영 업체의 소재지가 영국령 버진아일랜드이고 운영자들은 벨라루스에 거주하는 것으로 파악했다. 원고 측은 이들이 법정에 출석하지 않거나 소송에 응답하지 않을 경우 법원이 미국 내 소프트웨어 사용을 차단할 수 있을 것으로 기대한다.

이송렬 한경닷컴 기자 yisr0203@hankyung.com


관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!