책임 있는 AI생태계 구축방안 공유…'범용 AI 위험분류체계 한국판' 공개
(서울=연합뉴스) 강태우 기자 = LG AI 연구원이 서울, 파리 회의에 이어 인도 '인공지능(AI) 정상회의'에도 참가하며 글로벌 AI 거버넌스 논의에 참여하는 대표 기업으로서 입지를 공고히 했다.
LG AI연구원은 지난 20일(현지시간) 인도 뉴델리 바라트 만다팜에서 열린 인도 AI 정상회의에 참가해 책임 있는 AI 생태계 구축을 위한 글로벌 협력 방안과 실행 성과를 공유했다고 22일 밝혔다.

회의에 참석한 김유철 LG AI연구원 전략부문장은 유네스코와 유엔 인권최고대표사무소가 공동 주관하는 행사에서 구글, 마이크로소프트, 인도 소프트웨어산업협회, 월드 벤치마킹 얼라이언스 등 국제 기구·학계·산업계 주요 인사들과 기업의 책임 있는 AI 정책 내재화 및 글로벌 표준의 역할을 주제로 심도 있는 논의를 진행했다.
김 부문장은 이 자리에서 LG AI연구원이 개발한 '범용 AI 위험분류체계 한국판(K-AUT)'도 공개했다.
범용 AI 위험분류체계 한국판은 잠재적 위험을 ▲ 인류 보편적 가치 ▲ 사회 안전 ▲ 한국적 특수성 ▲ 미래 위험 등 4개 핵심 영역·226개 세부 위험 항목으로 구성돼 있으며, 항목별 5가지 구체적 판별 기준이 있어 하나의 위반 사항만 발생해도 AI가 부적절한 응답을 했다고 분류한다.
LG AI연구원은 새로운 위험분류체계를 단순한 가이드라인이 아닌 AI 모델과 AI 서비스의 안전성을 검증하고 강화하는 도구로 개발해 실제 LG의 AI 파운데이션 모델인 '엑사원'(EXAONE)의 안전성 검증에 활용하고, 그 결과를 투명하게 공개하고 있다.
또 한국적 특수성 부분은 각 국가 및 지역의 고유한 특수성을 반영하는 위험 항목으로 대체할 수 있도록 설계해 향후 다른 국가와 지역으로 확장 적용할 수 있도록 했다.
페기 힉스 유엔 인권최고대표사무소 국장은 "LG가 보편적 인권 가치를 토대로 하면서도 특정 사회와 문화의 맥락을 반영할 수 있는 접근 방식을 선보인 것은 우리가 바라는 방향과 정확히 맞닿아 있다"며 "원칙을 실제 현장에 적용할 수 있는 실용적 도구로 만들고, 그 경험을 다른 국가와 지역이 활용할 수 있도록 공유하는 것이야말로 지금, 이 시점에 꼭 필요한 일"이라고 말했다.
LG AI연구원은 오는 5월 글로벌 공개를 앞둔 'AI 윤리 MOOC(Massive Open Online Course) 프로젝트'도 소개했다.
이 프로그램은 LG AI연구원과 유네스코가 추진 중인 글로벌 프로젝트다. 전 세계 AI 전문가와 연구자, 정책 입안자를 대상으로 AI 기술을 올바르게 개발하고 활용하는 모범 사례를 발굴하고, 교육 프로그램을 개발해 제공함으로써 공공 및 민간 분야의 AI 윤리 역량을 강화한다는 취지다.
김명신 LG AI연구원 정책수석은 "이번 프로젝트는 AI 윤리의 글로벌 표준의 원칙을 현장의 언어로 번역하는 가교로서, AI 윤리 실천 영역에서 막막함을 느끼는 전 세계 전문가들에게 실질적인 이정표가 될 것으로 기대한다"고 말했다.
burning@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
관련뉴스








