미 전문가패널 "AI무기, 인간보다 실수 적어…개발 금지 안돼"

입력 2021-01-27 15:59  

미 전문가패널 "AI무기, 인간보다 실수 적어…개발 금지 안돼"
보고서 초안 "목표물 오인으로 인한 사상자 수 줄일 수 있어"
NGO "중국·러시와의 경쟁에만 초점…군비경쟁 부추겨" 반박


(서울=연합뉴스) 김범수 기자 = 미국 정부가 AI(인공지능)를 이용한 자율형 무기 개발을 금지해서는 안된다는 의견이 전문가 패널에서 제기됐다.
미 정부가 구성한 전문가 패널인 '인공지능에 관한 국가안보위원회'는 의회에 제출한 보고서 초안에 이같은 내용을 담았다고 영국 일간 가디언이 26일(현지시간) 보도했다.
에릭 슈밋 구글 전 회장이 이끄는 위원회는 '국가 안보와 기술발전 측면에서 바라본 AI'를 주제로 최근 이틀간 진행한 공청회 결과를 이같이 요약했다.
부위원장을 맡은 로버트 워크 전 국방부 부장관은 자율형 무기는 인간에 비해 실수가 적어서 목표물 오인으로 인한 사상자와 소규모 전투 횟수를 줄일 수 있다고 주장했다.
그는 "적어도 이런 전제를 두고 접근하는 것은 도적적 의무"라고 강조했다.
여러 비정부기구(NG0)들은 지난 8년간 살상 로봇 등 자율형 무기 개발에 대해 인권에 반하는 처사라며 금지 조약을 체결을 추진해왔다.
이들 기구는 전쟁 범죄의 책임을 묻고 공격이 과잉금지 원칙을 위배했는지 판단하기 위해서는 인간이 무기를 통제해야 한다고 주장했다.
또 브라질과 파키스탄을 비롯한 30개 국가가 자율형 무기 금지 조약 체결을 원하고 있다고 밝혔다.
아울러 최근 자율형 무기체계에 힘을 실어줄 AI기술이 급격히 발전하고 있는 상황에서 소프트웨어 오용 및 AI에 대한 편향성을 지적한 연구 결과가 쏟아져 나오면서 이같은 우려는 확산했다.
위원회 내에서는 자율형 무기의 위험성을 경고하는 발언도 나왔다.
마이크로소프트 출신의 한 참석자는 "자율형 무기를 만들어야 한다는 압력은 결국 갈등을 확대할 뿐"이라고 말했다.
위원회는 핵 공격의 경우 반드시 사람이 결정해야 한다고 결론 짓는 한편 국익과 실효성을 고려해 핵무기금지조약 보다는 핵 확산 방지 활동이 유리하다고 권고했다.
위원회의 보고서에 대해 살상 로봇 금지 운동을 주도해온 시민 운동가 메리 웨어햄은 "위원회의 결론은 중국 및 러시아와의 경쟁에만 초점을 두고 있으며, 이는 결국 군비 경쟁을 부추길 뿐"이라고 비난했다.
최종 보고서는 3월 의회에 제출될 예정이며 법적 구속력을 지니지는 않는다.
bumsoo@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>

관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!