청소년이 인스타그램에서 자살·자해 관련 단어를 검색하면 부모에게 알림이 갈 예정이다. 청소년 계정 보호를 위해서다. 메타는 인스타그램의 청소년에 대한 유해성을 인지하고도 어린 청소년의 이용을 조장하거나 방관했다는 혐의 거대한 손해배상 가능성에 직면하고 있다.
메타는 26일(현지시간) 청소년이 짧은 시간 내에 자살이나 자해 관련 용어를 반복 검색하면 부모에게 알림을 보내는 기능을 곧 도입한다. 다음 주부터 미국, 영국, 호주, 캐나다에서 해당 기능이 우선 적용된다. 한국을 비롯한 다른 지역에도 올해 말부터 제공될 방침이다.
해당 기능은 부모의 동의를 받고 운영되는 청소년 계정들에 한해 도입된다. 인스타그램은 청소년들이 인스타그램 내에서 반복적으로 자살, 자해 등 유해한 주제를 반복적으로 검색할 경우, 검색 결과 대신 조언과 상담 전화번호를 제공한다.
부모에게도 인스타그램 알림뿐 아니라 이메일과 문자메시지, 왓츠앱 등 메신저 앱을 통해 상황을 알린다. 자녀와 대화를 나눌 수 있도록 관련 전문가 자료와 상담 전화번호 등도 함께 공유한다.
인스타그램은 불필요한 알림이 가는 걸 막기 위해 전문가와 알림 기준을 정했다. 자녀가 단순히 관련 내용을 검색하는 수준에서는 알림이 가지 않는다. 짧은 시간 내에 해당 주제를 수차례 검색하는 경우에만 알림이 보내진다.
메타는 10대들의 인공지능(AI) 의존도가 높아지는 만큼, 자살·자해 관련 검색 알림 기능 외에도 AI 경험과 관련된 부모 알림 기능도 개발 중이라고 부연했다. 메타 측은 "이번 기능은 인스타그램에서 청소년을 유해 콘텐츠로부터 보호하기 위한 노력의 일환"이라며 "인스타그램에서는 자살, 자해 조장이나 미화 콘텐츠에는 엄격한 정책을 시행 중이며, 청소년들에게 관련 콘텐츠가 노출되지 않도록 차단하고 있다"고 강조했다.
현재 메타는 인스타그램 등 청소년의 사회관계망서비스(SNS) 중독 유해성과 관련된 소송에 휘말려 있다. 메타를 비롯한 SNS 플랫폼 기업들은 청소년을 SNS에 묶어두기 위해 의도적으로 알고리즘을 설계했다는 의혹을 받는 중이다. 청소년들의 자살 및 정신 질환 문제가 심각해지자 호주, 말레이시아 등 전 세계 각국에서 청소년의 소셜 미디어 사용을 금지하고 있다.
박수빈 한경닷컴 기자 waterbean@hankyung.com
관련뉴스








