SK하이닉스가 차세대 낸드 스토리지 제품 전략을 공개했다. 회사는 성능·대역폭·용량별로 특화해 인공지능(AI) 구현에 최적화한 낸드 솔루션 제품들을 선보이면서 데이터 처리 속도를 향상하고 저장 용량을 극대화했다고 강조했다. SK하이닉스는 27일 미국 캘리포니아주 새너제이에서 열린 '2025 OCP 글로벌 서밋' 행사를 통해 차세대 낸드 스토리지 제품 전략을 공개했다고 밝혔다. 이 행사는 지난 13~16일(현지시간) 진행됐다.
SK하이닉스는 "AI 추론 시장이 급성장하면서 많은 데이터를 신속하고 효율적으로 처리할 수 있는 낸드 스토리지(저장장치) 제품 수요가 크게 확대되고 있다"며 "이에 'AIN(AI-낸드) 패밀리' 라인업을 구축해 AI 시대에 최적화된 솔루션 제품으로 고객들의 수요를 충족시키겠다"고 했다.
행사 둘째 날엔 이그제큐티브 세션에서 김천성 SK하이닉스 부사장이 발표자로 참여해 AIN 패밀리를 소개했다. AIN 패밀리는 성능(Performance)·대역폭(Bandwidth)·용량(Density) 측면에서 각각 최적화된 낸드 솔루션 제품들이다. 데이터 처리 속도, 저장용량을 모두 개선했다.
AIN P는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 향상시킨다. SK하이닉스는 이를 위해 낸드와 컨트롤러를 새로운 구조로 설계하고 있다. 내년 말엔 샘플을 출시할 계획이다.
AIN D는 저전력·저비용으로 대용량 데이터를 저장하는 데 초점을 맞춘 고용량 솔루션으로 AI 데이터 보관에 적합하다. 기존 QLC 기반 테라바이트(TB)급 SSD보다 용량을 최대 페타바이트(PB)급으로 높이고 SSD의 속도와 HDD의 경제성을 동시에 구현한 중간 계층 스토리지를 목표로 하고 있다는 설명이다.
AIN B는 낸드를 적층해 대역폭을 확대한 솔루션을 말한다. 이는 'HBF™'로 불리는 기술을 적용한 회사의 제품명이다. HBF는 D램을 적층하는 방식을 활용한 고대역폭메모리(HBM)와 유사하게 낸드 플래시를 쌓아 만든 제품이다.
SK하이닉스는 AI 추론 확대, 거대언어모델(LLM) 대형화에 따른 메모리 용량 부족 문제를 해결하기 위해 AIN B 연구에 일찌감치 착수했다. 대용량·저비용의 낸드에 HBM 적층 구조를 결합한 것이 핵심이다. 회사는 AIN B를 HBM과 함께 배치해 용량 문제를 보완하는 구조 등 다양한 활용 방안을 검토하고 있다.
SK하이닉스는 AIN B 생태계 확대를 목표로 진나 8월 HBF 표준화 양해각서(MOU)를 체결한 미국 샌디스크와 함께 지난 14일 OCP 행사장 인근 과학기술센터에서 글로벌 빅테크 관계자들을 초청해 'HBF 나이트'를 열기도 했다. 이 자리에선 낸드 스토리지 제품 혁신을 가속화할 수 있도록 업계 차원의 협력을 제안한 것으로 전해졌다.
안현 SK하이닉스 개발총괄 사장(CDO)은 "이번 OCP 글로벌 서밋과 HBF 나이트를 통해 AI 중심으로 급변하는 시장 환경에서 ‘글로벌 AI 메모리 솔루션 프로바이더’로 성장한 SK하이닉스의 현재와 미래를 선보일 수 있었다"며 "차세대 낸드 스토리지에서도 고객과 다양한 파트너와 협력해 AI 메모리 시장의 핵심 플레이어로 올라설 수 있도록 할 것"이라고 말했다.
김대영 한경닷컴 기자 kdy@hankyung.com
관련뉴스






