27일(현지시간) 퀄컴은 새로운 AI 반도체 ‘AI200’과 ‘AI250’을 공개했다. 이 소식이 전해지자 퀄컴 주가는 하루 만에 11% 급등했다. 퀄컴이 이날 발표한 두 신제품은 AI 연산에 최적화된 데이터센터 전용 칩이다. ‘AI200’은 2026년, ‘AI250’은 2027년 출시를 목표로 하고 있으며, 두 제품 모두 액체 냉각 시스템이 장착된 서버랙 단위 구성으로 공급된다. 데이터센터에 바로 설치할 수 있는 완전한 서버 장비 형태로 제공된다는 뜻이다.
이번 제품은 퀄컴이 그동안 주력해온 모바일·통신용 칩을 넘어 AI 데이터센터용 고성능 반도체 시장으로 확장한다는 점에서 의미가 크다.
현재 AI 반도체 시장은 엔비디아가 90% 이상을 점유하며 독주하고 있다. 엔비디아의 그래픽처리장치(GPU)는 오픈AI의 챗GPT와 같은 대규모 언어모델(LLM) 학습에 필수적으로 사용된다. AMD가 2위, 그 뒤를 퀄컴·인텔 등이 추격하는 구도다.
하지만 최근 AI 산업 전반에서 ‘탈 엔비디아’ 움직임이 빨라지고 있다. 오픈AI는 이달 초 AMD로부터 칩을 구매하고 지분 투자를 검토 중이다. 구글, 아마존, 마이크로소프트(MS) 역시
클라우드 서비스용 자체 AI 가속기 칩 개발에 속도를 내고 있다.
듀르가 말라디 퀄컴 데이터센터 및 엣지 부문 총괄은 “우리는 스마트폰 등 다른 분야에서 기술력을 입증한 뒤, 자연스럽게 데이터센터 수준으로 확장했다”고 밝혔다. 그는 “이번 AI 칩은 대규모 AI 모델을 학습하는 용도보다 실제 서비스 단계에서 AI 모델을 실행하는 ‘추론’ 기능에 초점을 맞췄다”고 설명했다.
퀄컴에 따르면 새 칩은 기존 스마트폰 칩에 탑재된 ‘헥사곤 신경처리장치(NPU)’ 기술을 기반으로 제작됐다. 퀄컴은 또 전력 효율성과 운영비 절감, 메모리 처리 구조의 혁신을 강점으로 내세웠다. 한 서버랙은 160킬로와트(kW)의 전력을 사용하며, AI 연산 카드 한 장은 768GB의 메모리를 지원한다.
말라디 총괄은 “고객사가 전체 시스템을 통합 구매하거나, CPU 등 일부 부품만 선택해 조합할 수도 있다”며 “대형 클라우드 사업자는 물론, 경쟁사인 엔비디아나 AMD 역시 퀄컴의 일부 데이터센터 부품을 사용할 가능성이 있다”고 말했다.
뉴욕=박신영 특파원 nyusos@hankyung.com
관련뉴스








