HBM처럼 쌓는 HBF…AI 메모리 판도 바꿀까
AI 추론 시장 활황에 주목받는 낸드 신제품 HBF
HBM보다 용량 크고, SSD보다 전송 속도 빨라
"HBM '책상 옆 서재'라면 HBF '지하실 서재'"
취약한 열 구조·수명 주기 등 극복 과제도 있어
![[서울=뉴시스]고대역폭플래시(HBF)의 구조. (사진=샌디스크 제공) photo@newsis.com *재판매 및 DB 금지](https://img1.newsis.com/2025/09/29/NISI20250929_0001956682_web.jpg?rnd=20250929143226)
[서울=뉴시스]고대역폭플래시(HBF)의 구조. (사진=샌디스크 제공) [email protected] *재판매 및 DB 금지
12일 업계에 따르면 현재 시장의 관심이 쏠리는 건 차세대 낸드 메모리인 고대역폭플래시(HBF)다.
이 제품은 낸드 플래시에 TSV(실리콘관통전극) 적층 구조를 적용해 대역폭을 높인 메모리다. HBM처럼 메모리를 수직으로 세우고, 여기에 '고속 엘리베이터'를 여러 개 달아 데이터를 빠르게 전송할 수 있도록 고안한 것이다.
이런 제품은 HBM보다 속도는 느리지만, 기존 HDD(하드디스크드라이브)나 SSD(솔리드스테이트드라이브) 등 데이터 저장장치보다는 훨씬 빠르다.
특히 메모리 성능 한계 때문에 AI 가속기 혁신이 지체되는 '메모리 월'의 돌파구로 주목된다.
최신 HBM3E 12단 한 개의 용량은 36GB에 불과하다. 고층으로 만들기 어려운 구조기 때문이다. 앞으로 100GB가 되려면 20층 이상 쌓아야 하는데, 이런 한계로 오는 2032년 이후에나 가능할 것으로 본다.
![[서울=뉴시스]321단 2Tb QLC 낸드 양산 개시. (사진=SK하이닉스 제공) 2025.08.25. photo@newsis.com *재판매 및 DB 금지](https://img1.newsis.com/2025/08/25/NISI20250825_0001925463_web.jpg?rnd=20250825085446)
[서울=뉴시스]321단 2Tb QLC 낸드 양산 개시. (사진=SK하이닉스 제공) 2025.08.25. [email protected] *재판매 및 DB 금지
'HBM의 아버지'로 통하는 김정호 KAIST 전기·전자공학과 교수는 HBF가 메모리 중심의 AI 컴퓨팅 시대를 앞당길 것으로 예측한다. 그는 한 유튜브 채널에 출연, HBM이 '책상 옆 서재'라면, HBF는 '지하실 서재'라고 비유했다.
초고속 연산은 HBM에 맡기고, 대규모 데이터를 쓰고 읽는 것은 HBF에` 맡기는 식이다.
이는 데이터 저장공간을 계층화해, '도서관(저장장치)'까지 갈 필요 없이 빠르게 정보에 접근할 수 있게 되는 구조다.
현재 HBF 시장을 주도하는 건 미국 낸드 업체인 샌디스크다. 이 업체는 "AI 추론 시장에서 매우 큰 기회를 보고 있다"며 "HBF 메모리는 2026년 하반기, 컨트롤러는 2027년 출시를 목표로 한다"고 밝혔다.
![[서울=뉴시스]삼성전자가 인공지능(AI) 시대 초고용량 서버 SSD(솔리드스테이트드라이브)를 위한 '1Tb(테라비트) QLC(쿼드 레벨 셀·Quad Level Cell) 9세대 V낸드'를 업계 최초로 양산했다. 업계 최초 양산, 삼성전자 QLC 9세대 V낸드 제품. (사진=삼성전자 제공) photo@newsis.com *재판매 및 DB 금지](https://img1.newsis.com/2024/09/12/NISI20240912_0001652858_web.jpg?rnd=20240912103507)
[서울=뉴시스]삼성전자가 인공지능(AI) 시대 초고용량 서버 SSD(솔리드스테이트드라이브)를 위한 '1Tb(테라비트) QLC(쿼드 레벨 셀·Quad Level Cell) 9세대 V낸드'를 업계 최초로 양산했다. 업계 최초 양산, 삼성전자 QLC 9세대 V낸드 제품. (사진=삼성전자 제공) [email protected] *재판매 및 DB 금지
다만 아직까지 도전과제가 많다는 지적이다.
우선 업계 일각에선 낸드가 열에 취약하다는 점을 거론한다. D램의 경우 최대 100도 이상까지도 견디지만, 낸드는 정상 동작 범위가 이보다 낮은 85도 이하다. 메모리는 고온에 노출되면 성능이 저하될 수 있는데, AI 서버가 내뿜는 어마어마한 열기를 어떻게 극복할지가 과제다.
무엇보다 낸드 수명 주기가 숙제다.
낸드는 데이터를 쓰고 지울 수 있는 횟수의 총합이 10만회 이하로, 정해져 있다. 특히 최근 나오는 고용량 낸드 제품의 경우 수명이 더 짧아, AI 서버에 어떻게 활용될 수 있을지에 대한 고민이 커지고 있다.
HBM은 AI 가속기에 직접 붙이는 온보딩 방식으로 만드는데, 낸드는 그렇게 하기 어렵다. 낸드의 수명이 끝났다고, 한 개당 수천만원을 호가하는 그래픽처리장치(GPU)를 버릴 순 없기 때문이다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지





























