오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?

입력 2024-05-18 07:27  

오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?
팀 이끈 수츠케버·레이케 회사 떠나…"회사 우선순위 의견 달라"



(샌프란시스코=연합뉴스) 김태종 특파원 = 챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 안전(safety)팀을 사실상 해체했다고 블룸버그 통신 등이 17일(현지시간) 소식통을 인용해 보도했다.
소식통은 오픈AI의 슈퍼얼라이먼트(superalignment) 팀 일부가 다른 팀으로 재배치되고 있다고 전했다.
이 팀은 미래 다가올 초지능 AI를 제어함으로써 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 연구하는 안전팀이다.
작년 7월 설치된 이 팀은 "우리보다 훨씬 더 똑똑한 AI 시스템을 조종하고 제어하기 위한 과학적이고 기술적인 연구에 초점을 맞추고 있다"고 밝힌 바 있다.
특히, 이 팀의 해체는 오픈AI의 공동 창립자 일리야 수츠케버 등 팀을 이끈 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔다.
오픈AI의 수석과학자로 일해 온 수츠케버는 지난 14일 "오픈AI를 떠나기로 결정했다"고 밝혔다. 수츠케버는 지난해 11월 올트먼 축축 사태를 주도한 바 있다.
수츠케버에 이어 또다른 임원인 얀 레이케도 회사를 떠났다. 수츠케버와 레이케는 슈퍼얼라이먼트 팀을 이끌어왔다.
이들이 연이어 사임하면서 올트먼 등 다른 경영진과 갈등에 따른 것이라는 관측이 제기되기도 했다.
수츠케버는 지난해 올트먼 축출 당시 AI의 위험성에 대해 충분한 주의를 기울이지 않은 채 오픈AI의 사업을 구축하는 데만 집중한다고 우려했던 것으로 전해졌다.
그는 회사를 떠나면서 "나는 오픈AI가 올트먼 등의 리더십 아래 안전하고 유익한 AIG(범용 인공지능)를 구축할 것으로 확신한다"고 밝혔다.
레이케는 "나는 오픈AI가 이 연구(초정렬)를 하기 가장 좋은 장소가 될 것으로 생각했었다"며 "그러나 오랫동안 회사의 핵심 우선순위에 대해 경영진과 의견이 달랐다"고 토로했다.
이어 "인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력"이라며 "오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만, 지난 몇 년간 안전 문화와 프로세스는 제품 뒷전으로 밀려났다"고 지적했다.
이들 외에 앞서 다른 팀원들도 회사를 떠난 것으로 전해졌다.
이에 대해 오픈AI는 "우리는 이 팀을 독립체로 유지하기보다 안전이라는 목표를 달성하도록 돕기 위해 연구 전반에 걸쳐 통합하고 있다"고 설명했다.
또 오픈AI 공동 창업자 중 한 명인 존 슐먼이 AI 정렬 연구(사람이 의도한 목표와 윤리적 원칙에 맞게 AI 시스템을 조정)를 위한 리더가 될 것이라고 덧붙였다.
taejong75@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>

관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!