"AI 모델 개발 과정서 '위험의 임계치' 찾아야"

입력 2024-04-12 16:06  

"AI 모델 개발 과정서 '위험의 임계치' 찾아야"
프론티어모델포럼 의장, 콘퍼런스서 밝혀
스태빌리티AI 창업자는 '탈중앙화' 강조



(서울=연합뉴스) 오규진 기자 = 크리스 메세롤 프론티어모델포럼 의장은 인공지능(AI) 모델을 개발하는 과정에서 '위험의 임계치'를 찾아야 한다고 조언했다.
메세롤 의장은 12일 서울 강남구 코엑스(COEX)에서 열린 글로벌 AI 안전 콘퍼런스에 기조연설자로 나서 "(고도의 능력을 갖춘 AI인) 프론티어 AI를 설계하는 방법은 알지만, AI가 어떤 능력을 갖출지는 모른다"며 이같이 밝혔다.
그는 "AI가 에이전트 형태로 변해갈수록, 여기에 따르는 문제를 해결하기는 어려워지고, 중요함은 더 도드라진다"면서 위험 경감 정책, 위험 책임에 대한 공시, 레드라인 설정 등을 방법론으로 제시했다.
프론티어모델포럼은 구글과 마이크로소프트(MS), 오픈AI, 앤트로픽 등이 AI 모델의 안전 표준 개발을 위해 결성한 포럼이다.



화상으로 참여한 비영리기구 'AI 안전센터'의 댄 헨드릭스 디렉터도 AI 모델을 개발하는 과정에서 정보 제약의 중요성을 역설했다.
일론 머스크 테슬라 최고경영자(CEO)가 오픈AI의 대항마로 설립한 AI 업체 'xAI'의 안전담당 고문을 맡고 있는 그는 "AI 모델이 특정 위험 정보를 보유하고 있을 때 (의도적으로) 학습하지 않는 방법을 연구하고 있다"고 소개했다.
모델에 레이어를 추가해 전문 지식이 없는 '초보자'와 전문가가 질문했을 때의 답변을 다르게 하는 방식이라고 헨드릭스 디렉터는 설명했다.



이미지 생성 AI '스테이블 디퓨전'을 만든 스태빌리티AI의 에마드 모스타크 설립자(전 CEO)는 '탈중앙화된 AI'을 대안으로 제시했다.
그는 "하나의 인공범용지능(AGI)을 구축하기보다는 여러 개의 작은 모델이 협업하는 것이 (인류에게) 더 안전하다고 생각한다"라면서 각 문화의 특성을 반영한 데이터세트가 다양하게 등장해야 한다고 주장했다.
과학기술정보통신부와 한국정보통신기술협회(TTA)는 11∼12일 거대언어모델(LLM)의 잠재적 위험 및 취약점을 찾는 '생성형 AI 레드팀 챌린지'를 열었다.
11일에는 네이버[035420]와 SK텔레콤[017670], 업스테이지 등이 참여하는 레드팀 챌린지가, 12일에는 국내·외 전문가들이 AI의 신뢰와 안전성을 논의하는 글로벌 AI 안전 콘퍼런스가 진행됐다.
콘퍼런스에는 에이단 고메즈 코히어 대표와 하정우 네이버 퓨처AI센터장, 에릭 데이비스 SK텔레콤 부사장, 김경훈 카카오[035720] AI 세이프티 리더, 오혜연 한국과학기술원(KAIST) 전산학부 교수, 김세엽 셀렉트스타 대표 등도 참석했다.

acdc@yna.co.kr
(끝)


<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>

관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!