ETRI는 인공지능컴퓨팅연구소 초성능컴퓨팅연구본부가 서버 및 가속기 간 메모리를 네트워크 전반에서 공유할 수 있는 ‘옴니익스텐드(OmniXtend)’ 기술을 개발했다고 8일 밝혔다. 표준 이더넷을 활용해 여러 장비의 메모리를 하나의 메모리 풀처럼 연결하는 방식이다. 전용 장비 없이도 메모리를 확장할 수 있어 초대형 AI 및 고성능컴퓨팅(HPC) 환경에서 확장성과 경제성을 확보할 수 있다.
연구팀은 거대언어모델(LLM) 추론 성능이 저하되는 메모리 부족 환경에서 이더넷 기반 메모리 확장을 적용했더니 성능이 2배 이상 회복된 것을 실험적으로 확인했다. 기존 고속 직렬 통신 인터페이스(PCIe) 기반으로 연결할 때는 거리 제약이 있었는데 연구팀은 이더넷 스위치를 활용해 물리적으로 떨어져 있는 장비도 구성할 수 있도록 했다.
또 LLM을 활용한 연산 부하 테스트에서도 옴니익스텐드 구조가 실제 AI 학습 환경에서 성능 향상에 기여한다는 사실을 확인했다. 실험 결과 메모리 용량이 부족한 환경에서는 LLM 추론 성능이 크게 저하된 반면 이더넷 기반으로 메모리를 확장한 경우 성능이 2배 이상 회복됐다. 충분한 메모리를 갖춘 기존 환경과 비슷한 수준의 처리 성능을 유지할 수 있다는 의미다.
ETRI는 데이터센터용 하드웨어와 소프트웨어 기업을 대상으로 기술이전을 추진해 상용화한다는 계획이다.
김강호 ETRI 초성능컴퓨팅연구본부장은 “가속기 중심의 메모리 연결 기술을 개발해 글로벌 AI 및 반도체 기업의 차세대 시스템에 적용할 수 있도록 하겠다”고 말했다.
이영애 기자 0ae@hankyung.com
관련뉴스








