
서울 북촌 한옥마을의 좁고 가파른 골목. 네 개의 바퀴와 다리를 가진 로봇이 휘어진 돌담길을 오르내린다. 로봇의 정체는 스위스 기업 리버(RIVR)의 바퀴형 다리 로봇, 이 로봇에 골목의 구조를 알려주는 건 네이버의 연구개발(R&D) 자회사 네이버랩스가 개발한 비전 기반 측위 시스템 ‘아크아이(ARC EYE)’다.
아크아이는 미로 같은 골목길, 불규칙한 계단, 유동적인 보행자 환경을 파악해 길을 안내한다. 인도나 차도, 승강기 같은 복잡한 도심에서도 로봇이 쉽게 이동할 수 있도록 돕는다. 이동환 네이버랩스 비전 그룹리더는 “사람이 갈 수 있는 곳이라면 로봇도 길을 찾고 서비스를 수행하면서 일상 속에 들어오게 만드는 방법을 검증하고 있다”고 설명했다.
13일 네이버랩스에 따르면 네이버가 2022년부터 경기 성남시 1784 사옥에서 진행한 로봇 서비스 건수는 이날 기준 누적 7만5000건을 돌파했다. 네이버의 자율주행 로봇 루키 100여 대가 1784 빌딩에서 하고 있는 서비스만 카페, 택배, 편의점, 도시락 배송 등 5개다. 보통 배달로봇은 한 종류의 서비스만 수행하지만 루키는 시간대에 따라 유연하게 투입된다. 오전에 카페 주문을 처리하다가 점심시간엔 도시락 배송 모드로 전환하는 식이다.최근 글로벌 로봇 지능 연구는 합성 데이터 기반의 시뮬레이션 학습을 넘어 실제 사람이 움직이는 환경에서 공간을 인식하고 행동에 반영하는 방향으로 옮겨가고 있다. 네이버랩스는 이 과정에 필요한 ‘리얼 데이터’의 중요성을 일찌감치 파악했다. 1784에서 로봇을 실제로 돌리며 데이터를 수집하고 학습시킨 후 다시 검증하고 반복해 개선하는 구조를 구축했다. 백종윤 네이버랩스 로보틱스&자율주행 그룹리더는 “사람의 동선과 장애물의 종류, 공간 패턴 같은 현실에서만 관찰되는 정보가 로봇을 더 현명하고 유연하게 만든다”고 했다.
지난달 찾은 1784 빌딩의 ‘아크(ARC) 모니터링 룸.’ 벽에 걸린 대형 스크린에 루키 100여 대가 서비스에 투입돼 움직이고 있는 실시간 동선이 보였다. 커피 배달 등 로봇별로 진행 중인 업무부터 충전 중인 로봇의 메모리와 중앙처리장치(CPU) 활용량까지 대시보드에 표시됐다. 백 리더는 “이 룸에서 개별 로봇 관리부터 로봇 전용 엘리베이터(로보포트)와 게이트 같은 인프라 관제를 한다”며 “로봇이 다녀야 하는 곳과 들어가면 안 되는 곳을 구분해 매핑하는 작업도 진행하고 있다”고 설명했다.

네이버가 1784에 적용한 멀티 로봇 인텔리전스 시스템의 이름은 ‘아크(AI·Robot ·Cloud)’다. 이 시스템의 핵심은 클라우드다. 네이버랩스는 개별 로봇을 클라우드 기반 지능으로 통합 제어하는 방법을 오래 연구해왔다. 다양한 센서와 구동방식을 가진 로봇들이 하나의 공간에서 움직이거나 같은 로봇이 서로 다른 공간에서 동일한 지능과 제어 체계를 공유하는 방식이다. 휠베이스 로봇은 물론 4족 보행, 2족 보행 휴머노이드까지 여러 형태의 로봇이 아크 시스템 위에서 연결된다.
그래픽처리장치(GPU)나 라이다(LiDAR) 같은 비싸고 무거운 장비를 개별 로봇 하드웨어에 싣지 않고도 5G(5세대) 네트워크와 클라우드로 대부분의 연산을 수행할 수 있다. 네이버랩스 관계자는 “산업용 로봇과 다르게 서비스 로봇을 상용화하려면 가볍고 안전한 동시에 제작 단가도 저렴해야 한다”며 “여러 로봇이 뒤엉키지 않고 안정적으로 제어하기 위해서도 클라우드 기반 기술이 필수”라고 설명했다.
아크의 또 다른 중요한 축은 비전 기술이다. 자율주행의 핵심인 ‘내가 어디 있는지(측위)‘를 카메라 기반 ’비주얼 로컬라이제이션(VL)‘ 기술로 풀었다. 로봇이 카메라로 건물을 스캔하면 몇 층의 어느 위치인지 바로 파악 가능하다. 사진 한장으로 이미 만들어둔 지도나 디지털트윈, 이미지 데이터베이스(DB)와 매칭하는 방식이다. 석상옥 네이버랩스 대표는 “VL 기술은 로봇 뿐만 아니라 스마트폰과 스마트글래스 같은 다양한 폼팩터에 적용할 수 있다”며 “예컨대 글래스로 현재 위치를 빠르게 파악하고 ‘이 아파트 얼마야’ ‘이 상점에 뭐 팔아’ 같은 정보를 실시간으로 제공하는 서비스도 가능해질 것”이라고 했다.
네이버랩스는 유럽 지사를 중심으로 로봇용 범용 인공지능(AI) 파운데이션 모델을 만들고 있다. 석 대표는 “비전, 액션, 인터랙션 모델 등 11개 AI 모델을 개발했고 이를 하나의 범용 파운데이션 모델로 통합하는 작업을 진행 중”이라며 “각 모델을 효율적으로 합쳐주는 인코더로 통합해 모델 간 시너지가 나고 있다”고 말했다. 네이버랩스 유럽의 플로랑 페로닌 박사는 “하나의 모델로 여러 과제에 대응할 수 있다는 점에서 파운데이션 모델은 로봇을 만능 어시스턴트로 만드는 핵심 열쇠”라고 강조했다.네이버랩스가 제시한 피지컬AI의 목표는 단일 로봇 하드웨어를 만드는 게 아니라 다양한 형태의 로봇이 하나의 시스템으로 움직이게 하는 것이다. 로봇이 사람 사는 공간을 이해하고(디지털트윈·측위) 돌아다니고(자율주행) 서비스를 실행하는(배송·결제 등) 인프라를 만들겠다는 얘기다. 네이버랩스가 웹 기반 로봇 운영체제(OS)인 ‘아크마인드’를 선보인 이유이기도 하다. 네이버랩스 관계자는 “아크마인드를 통해 글로벌 웹 개발자들도 로봇 서비스 개발에 쉽게 뛰어들 수 있도록 생태계를 만들 것”이라고 말했다.
고은이/안정훈 기자 koko@hankyung.com
관련뉴스








