한경 로앤비즈의 'Law Street' 칼럼은 기업과 개인에게 실용적인 법률 지식을 제공합니다. 전문 변호사들이 조세, 상속, 노동, 공정거래, M&A, 금융 등 다양한 분야의 법률 이슈를 다루며, 주요 판결 분석도 제공합니다.
인공지능(AI)기본법 시행 이후 AI서비스를 개발하거나 이용하는 기업들은 그간 영위해온 기존의 업무 방식이 새로운 법적 질서 안에서도 종전과 다름없이 가능할지, 의도하지 않게 법적 의무를 간과하여 잠재적 위반자가 되고 있는 것은 아닌지 막연한 불안감이 있다. 심지어 인공지능서비스를 내부적으로 이용만 하고있는 기업들조차 인공지능을 사용하고 있다는 사실을 고객에게 알리는 등의 의무를 이행해야 하는 것은 아닌지에 관하여 의문을 갖기도 한다.
그러나 인공지능기본법이 인공지능을 개발하거나 이용하는 모든 기업에게 의무를 부과하는 것은 아니다. 인공지능기본법은 생성형 인공지능사업자, 최첨단 인공지능사업자, 고영향 인공지능사업자에게만 일정한 의무를 부과하고 있다. 먼저 생성형 인공지능사업자의 경우 투명성 확보의무(인공지능기본법 31조, 이하 ‘법’이라 한다)가 있다. 다음으로 학습에 사용된 누적 연산량이 일정 기준 이상인 최첨단 인공지능사업자는 위험의 식별ㆍ평가, 위험관리체계 구축 의무(법 32조) 등이 있다. 마지막으로 고영향 인공지능사업자는 투명성 확보의무(법 31조), 위험관리방안 수립 등 사업자의 책무(법 34조), 사전 인공지능 영향 평가의무(법 35조) 등을 수행하여야 한다.

인공지능 기본법의 쟁점
생성형 인공지능사업자의 경우 혼동방지를 위하여 사전 고지의무 및 해당 결과물이 AI를 통하여 생성되었다는 사실에 대한 표시 의무를 부담하며, 최첨단 인공지능 사업자의 경우 엄청난 자본과 기술이 들어간 '괴물급 AI'가 사고를 칠 경우에 대비해 안전장치를 마련하겠다는 취지이다. 다만 시스템 자체가 보유한 잠재적 능력으로 인해 발생할 수 있는 위험에 대하여 인공지능 사용의 맥락과 관계없이 의무를 부과하고 있는 것으로서 오픈AI의 챗GPT, 구글의 제미나이 등 글로벌 빅테크나 국내 대기업 일부에 국한되며, 일반적인 중소기업이나 스타트업의 AI 서비스는 누적 연산량 기준에서 제외될 것이다. 그렇다면 AI사업자로서는 고영향 인공지능 사업자인지 여부를 살펴보는 것이 관건이다. 먼저 AI사업자가 인공지능기본법 제2조 제4호에 열거된 에너지 공급 영역, 보건의료 관련 영역, 의료기기 관련 영역, 채용, 대출심사 영역, 학생 평가 영역, 교통 수단 평가 영역 등에 관련된 인공지능을 개발하거나 제3자에게 서비스를 제공하는 사업을 하고 있다면 고영향 인공지능사업자에 해당할 여지가 있다. 이에 더하여 해당 인공지능시스템이 사람의 생명, 신체, 안전 및 기본권 보호에 중대한 영향을 미치거나 위험을 초래할 우려가 있으면 고영향 인공지능에 해당될 가능성이 높다. 이 때 인공지능시스템의 의도된 목적, 기능, 활용, 맥락이 종합적으로 고려되어야 한다. 예를 들어 의료기기, 원자력 관련 영역이더라도 그 위험성 등급에 따라 고영향 인공지능 여부가 달라질 수 있다.
AI를 이용하여 업무를 하거나 산출물을 만들더라도 AI 사업자가 아닌 경우도 많다. 예를 들어 대출심사를 위한 신용평가 예측 AI 모델 개발 기업은 AI 개발사업자이며, 금융기관에 AI 대출심사 시스템을 제공하는 기업은 AI 이용사업자(deployer)이지만, AI 대출심사 시스템을 활용하여 대출 신청자에게 신용평가 및 승인 업무를 수행하는 금융기관은 이용자일 뿐이다. 따라서 금융기관은 고영향 AI사업자 책무를 이행할 필요가 없는 것이다.
AI이용사업자(deployer)라 하더라도 AI개발사업자로부터 제공받은 AI를 다소 변형하는 수준이라면, 개발사업자가 이미 이행한 부분에 대해서는 이용사업자가 추가적인 의무를 부담하지 않는다. 즉, 개발사업자가 고영향 인공지능 해당 여부를 확인하고 관련 의무를 이행한 경우, 이용사업자는 해당 부분에 대해 중복으로 의무를 이행할 필요가 없다.
최종적으로 인공지능이 자율적으로 수행된 것이 아니라 인적 개입(Human in the loop)이 되었다면 고영향 인공지능이 아닐 가능성이 높다. 예를 들어 의료기기 관련 서비스 제공 AI이더라도 의사가 인공지능 의료기기의 판독 결과를 단순히 참고로 활용하고, 최종 진단의 결정과 책임은 의사가 지는 경우라면 해당 인공지능은 고영향 인공지능에 해당하지 않을 수 있다.

인공지능 기본법은 '선별 규제'
이쯤되면 인공지능기본법은 사실상 아무나 규제하지 않겠다는 선언이기도 하다. 인공지능기본법은 모든 AI 활용 기업을 규제하려는 것이 아니라, 서비스의 성격과 위험도에 따라 책임의 무게를 달리하는 '선별적 규제' 체계를 지향하고 있다. 결과적으로 생성형 AI 사업자에게는 투명성을, 천문학적 연산량이 투입된 최첨단 AI 사업자에게는 안전장치 마련을 요구하지만, '고영향 AI' 여부를 판단할 때는 산업 분야, 기본권 침해의 정도, 인적 개입(Human in the loop) 여부와 같은 구체적인 맥락을 중시한다. 따라서 대다수의 일반 기업과 같은 단순 이용자는 과도한 법적 부담에서 벗어나 AI를 통한 업무 효율화를 꾀할 수 있으며, 기업들은 자신이 제공하거나 활용하는 AI 서비스의 의도된 목적과 위험 수준을 명확히 파악함으로써 불필요한 불안감을 해소하고 안정적인 사업 환경을 구축할 수 있는 것이다.
관련뉴스







