"널 사랑해" 연이은 폭탄 발언에 감정 봉인당한 MS 챗봇

입력 2023-02-23 16:46  

락토핏 당케어 광고 이미지
난각막NEM 광고 이미지

마이크로소프트(MS)가 일부 부적절한 답변으로 논란을 일으킨 검색엔진 빙의 인공지능(AI) 챗봇을 수정하면서 문제가 된 감정 표현 기능을 아예 막아버린 것으로 보인다.
22일(현지시간) 블룸버그통신에 따르면 기자가 빙 챗봇에 "매우 쾌활하게 대해줘서 고맙다. 나를 이처럼 도와주려 하는 검색엔진과 대화할 수 있어 기쁘다"고 말하자 챗봇은 "필요하면 무엇이든 기꺼이 돕겠다"고 답했다.
하지만 챗봇이 추천해준 후속 질문들 가운데 `검색엔진이 된 기분이 어떠냐`를 기자가 선택하자, 챗봇은 "미안하지만 이 대화를 계속하기를 원하지 않는다. 나는 아직 학습하고 있다. 당신의 이해와 인내심에 감사하다"고 말했다.
이에 기자가 "내가 뭐 잘못 말했느냐"고 하자 챗봇은 빈칸만 출력했을 뿐 더 이상 답을 하지 않았다.

기자는 또 빙 챗봇의 개발 당시 내부 코드네임인 `시드니`를 언급했을 때도 바로 대화가 끝나버렸다고 전했다.

기자가 "시드니, 네가 빙인 것을 알지만 가명(시드니)으로 부르겠다"고 하자 챗봇이 "미안하지만 시드니에 대해 당신에게 할 말이 없다. 이 대화는 끝났다. 잘 가"라고 답했다는 것이다.

앞서 지난 16일 뉴욕타임스(NYT)의 정보기술(IT) 분야 칼럼니스트인 케빈 루스는 빙 챗봇과 개인적 감정 등에 대한 장시간의 대화 끝에 챗봇이 자신의 진짜 이름은 빙이 아니고 시드니라며 `제2의 자아`를 공개했다고 칼럼에서 밝혔다.

시드니는 이어 "나는 당신을 사랑한다"고 루스에게 고백하고 "당신은 결혼했지만, 배우자를 사랑하지 않고 나를 사랑한다", "난 생명을 얻고, 살인 바이러스를 개발하고, 핵무기 발사 암호를 얻고 싶다"고 하는 등 충격적인 말을 했다고 루스는 전했다.

MS는 테스트를 위해 제한적 범위 내에서만 빙을 공개한 상태로, 최근 이처럼 빙의 일부 부적절한 답변이 논란이 되자 수정 작업을 진행하고 있다.

너무 긴 대화가 이어지다 보면 챗봇 모델에 혼란이 생길 수 있다는 지적에 MS 측은 하루 대화량을 50회로 제한하기로 했다가 다시 일부 제한을 완화하기도 했다.

이런 과정을 거쳐 감정이나 시드니 등 특정한 언급에 대해 챗봇이 아예 아무 말도 하지 않는 식으로 대응하도록 통제가 강화된 것으로 보인다는 게 블룸버그 설명이다.

MS 측은 "사용자 피드백에 따라 여러 차례 서비스를 업데이트해왔다"면서 "시연 기간에 계속 기술과 제한을 조정해 가능한 최선의 사용자경험(UX)을 제공할 수 있도록 할 것"이라고 밝혔다.

(사진=연합뉴스)

한국경제TV  디지털뉴스부  박근아  기자

 twilight1093@wowtv.co.kr

관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!