이 기사는 국내 최대 해외 투자정보 플랫폼 한경 글로벌마켓에 게재된 기사입니다.

연초 테크 업계 최대 행사인 CES 2026이 막을 내리면서 기술주의 모멘텀이 주춤하고 있습니다. 특히 지난 한 주 간 또 한 번 뜨거웠던 반도체 주식들의 변동성이 상당합니다. 그중에서도 순수 낸드(NAND) 제조사인 샌디스크는 1월 이후 단 6거래일 만에 59% 폭등하면서 과열 조짐이 뚜렷한데요. 이 폭등의 트리거가 된 엔비디아는 정작 소폭 하락한 것과 대조적입니다.

시장에서는 반도체 슈퍼사이클이 얼마나 더 갈 수 있을지, 정점이 임박한 것은 아닌지에 대한 우려가 다시 고개를 들고 있습니다. "미래 수요를 지나치게 끌어다 쓰면서 주가에 선반영이 됐고, 반도체 산업 특유의 경기 순환성을 생각하면 주가 리스크를 너무 과소평가하고 있다"는 것입니다.
하지만 월가 다수는 여전히 낙관론이 더 짙습니다. 골드만삭스는 인공지능(AI) 인프라 수요가 구조적으로 진화하면서 반도체를 비롯한 하드웨어 수요가 새로운 국면으로 진입하고 있다고 봅니다. 기존 AI 인프라 증가 요인을 견인한 것이 그래픽처리장치(GPU) 기반 연산 능력이었다면, 이젠 에이전트 AI와 피지컬 AI로 인해 새로운 수요가 발생하고 있어 아직 반도체 사이클의 정점을 논하기엔 이르다는 주장입니다.
그중에서도 메모리 반도체에 대해 "더 긴 맥락과 복잡한 추론을 처리할 수 있는 시스템 설계와 메모리 계층의 혁신에 대한 요구"가 새로운 수요를 낳고 있다고 분석하는데요. 이게 무슨 말일까요?
AI의 '의식의 흐름'을 저장하라
시작은 이번에도 엔비디아입니다. 젠슨 황 엔비디아 CEO는 이번 CES 2026 기조연설에서 블랙웰 다음 아키텍처인 베라 루빈에 AI 에이전트가 과거의 대화 문맥을 기억할 수 있도록 돕는 새로운 방식의 'AI 작업 기억 저장 장치'을 도입하겠다고 선언했습니다. 정확한 이름은 '엔비디아 추론 맥락 메모리 저장 플랫폼(NVIDIA Inference Context Memory Storage Platform)'입니다.
AI가 수학 문제를 푼다고 치면, 이제까지는 수학 문제 자체를 빠르게 풀 수 있게 해주는 AI 가속기(GPU·연산)와 단기 암기력을 높여 GPU의 더 빠른 연산을 도와주는 HBM(고대역폭 메모리)이 핵심이었지만 이번 발표는 긴 대화나 복잡한 업무를 처리할 때 필요한 장기 기억 메모장 역할을 할 스토리지(저장 장치)를 집중 조명한 것입니다.
젠슨 황은 "(AI의 작업 기억을 저장하는) 스토리지 분야는 현재 미개척 시장"이라면서 "이 플랫폼이 전 세계 AI의 작업 메모리를 담당하는 세계 최대 스토리지 시장으로 성장할 가능성이 매우 높다"고 했습니다.

AI가 추론 단계로 넘어가고, 텍스트 뿐 아니라 이미지, 영상, 음성 등 다양한 데이터를 동시에 이해하고 생성해야 하는 멀티모달 AI와 에이전트 AI가 확산하면서 AI는 이전과 비교가 되지 않을 만큼 방대한 데이터를 반복적으로 빨리 처리해야 합니다. 이럴 땐 이미 계산한 결과는 기억해뒀다가 재활용하는 게 훨씬 효율적입니다. 의식의 흐름을 메모해놨다가 계속 꺼내볼 수 있게 하는 것과 비슷합니다. 그래야 장문의 문맥을 빠르게 이어갈 수 있지요. 이때 AI가 사용하는 공간이 키밸류(KV·열쇠가치값) 캐시 메모리입니다. 사용자의 질문 의도, 과거 대화의 맥락, 전문 분야별 변수와 집중도 등을 기억하고 파악하기 위해 매우 중요합니다.
그런데 지금 구조에선 AI가 이 메모를 비싼 GPU 전용 메모리인 HBM에 적습니다. 그러다 보니 정작 중요한 연산에 써야 할 HBM의 용량이 부족해지는 메모리 병목 현상이 생깁니다. 젠슨 황이 "컨텍스트 메모리가 새 병목"이라고 한 이유입니다. 그래서 엔비디아는 메모리와 스토리지 설계 구조를 바꿔 이 KV 캐시 전용 저장 플랫폼을 GPU 옆에 따로 만들겠다고 한 겁니다.
이렇게 되면 GPU와 HBM은 본연의 업무에 더 집중할 수 있는 건 물론, GPU가 더 많은 KV 캐시에 쉽게 접근할 수 있게 됩니다. 골드만삭스에 따르면 각 GPU가 접근할 수 있는 컨텍스트(맥락) 메모리가 현재 약 1TB에서 16TB로 급증한다고 합니다. 초당 토큰 처리량은 최대 5배, 기존 스토리지 대비 전력 효율 역시 5배 높아진다는 게 엔비디아의 설명입니다. 전체 베라 루빈 시스템 성능 향상의 핵심 요인이기도 합니다.
이런 플랫폼 전략은 메모리와 스토리지 부문에 대한 수요 증가로 이어질 가능성이 높습니다. 결국 AI 반도체 시장의 판도가 GPU와 HBM을 넘어서 스토리지 영역으로 확장되고 있던 흐름이 이번에 엔비디아 공인까지 받은 셈입니다.
AI 서버 시스템의 표준을 주도하는 엔비디아가 이렇게 스토리지 플랫폼을 새로 만들면 스토리지에 대한 수요는 구조적으로 커질 수밖에 없습니다. 이 시장의 중요성을 파악한 엔비디아는 아예 메모리·스토리지 컨트롤러 사업 진출도 선언했습니다. 전용 소프트웨어 도카(DOCA)를 통해 마치 쿠다(CUDA)처럼 또 하나의 생태계를 구축하겠다는 야심입니다.
"HBM 이을 HBF 시대 온다"
이 과정에서 새롭게 주목받는 반도체가 바로 HBF, 고대역폭 플래시 메모리입니다. HBM이 휘발성 메모리인 디램을 수직으로 쌓은 것이라면, HBF는 비휘발성 메모리인 낸드 플래시를 수직으로 쌓아 용량을 극대화한 메모리입니다. 속도가 빠르지만 용량 확장이 어려운 HBM보다 10배 정동 용량이 크다고 합니다. 방대해지는 AI 모델의 데이터를 저장하기 위한 차세대 메모리 필수 기술로 여겨집니다.
HBM의 기본 구조를 창안해 'HBM의 아버지'라 불리는 김정호 KAIST 전기·전자공학과 교수에 따르면 세계 1위 낸드 제조사 삼성전자는 물론, SK하이닉스와 샌디스크는 이미 HBF 개발에 착수해 이르면 내년 상품 출시를 계획하고 있습니다. 특히 순수 낸드 제조사인 샌디스크는 SK하이닉스와 협력해 HBF 표준화를 추진 중입니다. SK하이닉스와 삼성전자는 수직 집적 기술이 이미 있으니 큰 장벽이 아니라는 게 김 교수의 이야기입니다. 마이크론 역시 비슷한 기술을 개발할 것으로 전망됩니다.
아직 HBF는 상용화된 제품이 아닌 만큼 이번에 엔비디아가 제시한 KV 캐시 전용 플랫폼은 HBF를 사용하지 않습니다. 향후 HBF를 사용할지 여부도 알 수 없습니다. 다만 그 개념과 필요는 HBF의 컨셉과 맞아 떨어집니다.
"AI 삽을 넘어 창고 짓는 시대로"...메모리 호황 장기화 기대
AI의 진화와 수요 폭증, 그리고 이에 대응하는 기술 혁신의 흐름은 반도체 슈퍼사이클이 아직 끝나지 않았다는 낙관론에 힘을 싣습니다. AI 시스템을 만들 때 GPU와 HBM 뿐 아니라 AI 전용 스토리지가 된 낸드까지 더 많이 사야하기 때문입니다.한편으로 이렇게 되면 HBM 수요 증가율은 주춤할 수 있다는 지적도 있습니다. KV 캐시를 더 많이 저장하기 위해 HBM 용량을 늘릴 필요는 없어지기 때문입니다. 특히 향후 HBF가 상용화하면 더 그렇습니다. 다만 JP모건은 마이크론 경영진과 회담 후 "마이크론은 이런 노력이 향후 몇 년간 이미 계획된 고객들의 HBM 투자 로드맵에 부정적인 영향을 미치지는 않을 것으로 보고 있다"고 했습니다. 단기적으로는 아직 걱정할 요인이 아니라는 반박입니다. (물론 마이크론은 낸드보다 HBM 강화에 더 힘을 싣고 있기 때문에 이렇게 말하는 것이 유리합니다.)

결론적으로 뱅크오브아메리카는 "당분간 AI 서버당 메모리 탑재량 증가 속도가 GPU 컴퓨팅 증가 속도를 상회할 가능성이 높다고 판단한다"면서 "GPU라는 삽을 사는 단계에서 스토리지·하드웨어 등 창고를 짓는 단계로 시장의 AI 투자 논리가 전환하고 있다"고 표현했습니다. 이어 "스토리지가 단순한 데이터 저장 장치가 아니라 AI 연산 흐름에서 필수적인 작업 메모리로 격상되면서 스토리지, 엣지 디바이스, 네트워크 연결 장비 업체들도 GPU 이후 새로운 수혜주로 부상할 것"이라고 분석했습니다.

이에 따라 지금 벌어지고 있는 전례 없는 메모리 수급 부족 현상과 이로 인한 반도체 슈퍼사이클은 당분간 더 지속될 것이란 전망이 많습니다. 하이퍼스케일러들이 메모리 선점에 열을 올리면서 이미 2026년 글로벌 메모리 물량은 거의 매진됐고, 2027년 물량도 올 1분기에 조기 매진될 가능성이 높습니다. 씨티는 올해 연간 서버용 디램 가격이 144%, 낸드 기반 eSSD는 87% 상승할 것으로 예상합니다.
JP모건은 "반도체 업사이클이 최소 2027년까지 지속될 것"이라고 예상했습니다. 특히 피지컬 AI와 로보틱스가 거대한 수요 동인이라는 점에 골드만삭스 전망과 결을 함께 합니다. 현재 최첨단 휴머노이드 로봇 한 대에는 디램 64~128GB, 낸드 1~2TB가 들어간다고 합니다. 그런데 시간이 지나면서 탑재량이 더 늘어날 가능성이 높아, 미래 휴머노이드 시장이 수백만 대 규모로 커진다면 디램과 낸드에 대한 수요도 엄청난 수준이 될 것이란 얘기입니다.
영원히 오르는 건 없다...반도체 사이클 리스크
이런 낙관론에도 불구하고 메모리 가격 상승세가 영원히 지속될 수는 없습니다. 근본적인 리스크는 고객사들이 현재의 전례 없는 계약가격 상승을 어디까지 받아들일 것인가 입니다.물론 지금은 반도체가 필요한 입장에선 돈보다 물량 확보가 우선인 시기입니다. 최근엔 애플, 델, 구글, 마이크로소프트, 아마존 등 글로벌 IT 거대 기업 구매 담당 임원들이 메모리 반도체를 '구걸'하느라 한국을 떠나지 못하고 있다는 뉴스가 화제였지요. 지난 8일(현지시간)엔 샌디스크가 하이퍼스케일러 고객사와 낸드 공급 계약을 협상하면서 1~3년짜리 장기계약과 100% 현금 선불을 요구했다고 알려져 주목을 받기도 했습니다.
하지만 폭증하는 수요에도 감당할 수 없는 수준까지 가격이 오른다면 결국 구매자들도 대안을 찾을 수 있습니다. 실제 최근 JP모건은 델·HP 경영진이 메모리 비용 상승에 대응하기 위해 신규 공급업체 확장을 도모하고 있다고 전했습니다. 업계에선 YMTC를 필두로 중국 업체들이 그 대상일 가능성을 경계하고 있습니다. 상대적으로 제조 난도가 낮은 낸드부터 중국 업체들의 저가 공세가 시작될 수 있다는 점이 핵심적인 위험입니다.
또 반도체 현물·계약 가격 폭등을 선반영한 주가가 과열 국면에서 언제든 단기 조정을 받을 수 있다는 점은 투자자들이 항상 유의해야 합니다.

뉴욕=빈난새 특파원 binthere@hankyung.com
관련뉴스








