
“인공지능(AI) 기술이 윤리보다 앞서 나가면 불평등, 편견 등 사회적 문제가 더 증폭될 것입니다.”
루먼 초두리 휴메인인텔리전스 최고경영자(CEO) 겸 공동 설립자는 16일 한국경제신문 서면 인터뷰에서 “윤리적 고민 없이 기술이 발전하면 심각한 위험을 초래할 것”이라며 이같이 경고했다.
알고리즘 윤리 분야 선도자로 꼽히는 초두리 CEO는 다음달 5일 개막하는 ‘글로벌인재포럼 2025’에서 AI와 인간의 공생 조건을 화두로 기조연설을 한다. AI 사용자가 알고리즘에 접근해 시스템을 개선하는 ‘수리할 권리’가 필요하다는 게 그의 주장이다.
대표적 사례가 대출 서비스에서 활용되는 AI 알고리즘이다. 많은 은행이 대출 여부와 금리를 결정할 때 AI를 활용하고 있다. 하지만 개인은 대출을 거절당해도 이유를 알 수 없거나, 결정에 이의를 제기하기 어렵다. 초두리 CEO는 “알고리즘에 결함이 있을 수 있는데도 개인이 결정에 항의하거나 알고리즘을 수정할 수 없는 것도 문제”라며 “기술이 발전할수록 AI의 결정에 따라 피해를 보는 사람이 늘어날 수 있다”고 지적했다.
알고리즘 설계에 문제가 없더라도 AI가 학습하는 데이터가 편향돼 있을 가능성도 배제할 수 없다. 그는 “AI가 다양성이 부족한 데이터를 활용하면 기존 차별을 더 공고히 할 수 있다”며 “사회적 불평등, 구조적 편견 등의 사회문제가 증폭될 우려가 있다는 게 AI의 가장 심각한 윤리적 위험”이라고 설명했다.
초두리 CEO가 설립한 휴메인인텔리전스 역시 이런 문제의식에서 출발했다. 이 회사의 목표는 AI를 평가하기 위해 다양한 이해관계자가 참여하는 인프라를 구축하는 것이다. 그는 “AI 평가는 단순한 규제 차원이 아니라 알고리즘의 완성도를 높일 수 있는 핵심 도구”라고 했다. 조직의 취약점을 발견하기 위해 ‘레드팀’을 구성하는 방식이 일반화된 것처럼 AI 평가를 통해 윤리적 취약점을 보완하는 게 알고리즘 개선에 도움이 된다는 의미다.
빅테크들의 의식도 달라져야 한다고 강조했다. 초두리 CEO는 “독점 기술기업들은 자사 시스템의 외부 검증을 거부하는 경우가 많다”며 “AI의 윤리 문제를 해결하려면 시스템뿐 아니라 인식의 전환도 필요하다”고 설명했다.
AI 발전에서 윤리를 강조하다 보면 혁신이 위축될 수 있다는 시각에 대해서는 “윤리는 지속 가능한 혁신의 전제조건”이라며 선을 그었다. 그는 “윤리와 혁신은 대립적인 개념이 아니다”며 “사회적 책임을 다하지 못하는 기술은 외면받을 수밖에 없다”고 강조했다.
나수지 기자 suji@hankyung.com
관련뉴스






