인공지능(AI) 기술의 상용화가 본격화되는 가운데, 기존 고대역폭메모리(HBM)의 한계를 극복한 새로운 메모리 아키텍처인 HBF(High Bandwidth Flash)가 AI 반도체 생태계의 핵심 기술로 부상하고 있다. HBF는 DRAM과 낸드플래시의 경계를 허물며, AI 추론에 필수적인 대용량·고속·비휘발성 특성을 동시에 만족시키는 차세대 메모리다.


AI 산업은 2024년 ‘실험의 해’를 지나, 2025년부터는 본격적인 ‘규모화(Scaling)’ 단계에 진입했다. 이 과정에서 GPU 연산 성능보다 데이터를 얼마나 빠르고 효율적으로 처리할 수 있는지가 핵심 경쟁력으로 떠오르고 있다. 마이크로소프트 CEO 사티아 나델라는 “연산이 병목이 아니라, 에너지와 데이터센터 공간이 병목”이라며, AI 인프라 투자의 초점이 GPU에서 메모리로 전환되고 있음을 강조했다.

기존 HBM은 병렬연산에 최적화된 메모리로 GPU 연동에 강점을 보였지만, 추론 시대의 요구를 만족시키기에는 용량과 휘발성 측면에서 한계를 드러내고 있다. GPT-4처럼 1.8조 파라미터를 갖춘 AI 모델의 추론에는 최대 3.6TB에 달하는 메모리가 요구되나, HBM3e의 최대 용량은 192GB에 불과해 수 개의 GPU를 병렬로 묶어야 하는 비효율을 초래한다.


HBF는 이러한 한계를 해결할 대안으로 주목받고 있다. HBM처럼 수직 적층 방식으로 고대역폭을 확보하면서도, 낸드플래시 기반의 비휘발성 특성으로 대용량 저장을 가능하게 한다. 이는 AI 비서, 개인화 서비스 등 상시 기억이 필요한 AI 서비스 구현에 필수적인 기술로 평가된다.

하지만 HBF 구현에는 두 가지 주요 기술적 장벽이 존재했다. 첫째는 낸드 적층 구조에 TSV(Through Silicon Via) 공정을 적용할 경우 수율이 급감한다는 점, 둘째는 수백~수천 개 낸드 채널을 병렬 제어하는 고성능 로직 다이(컨트롤러) 설계의 난이도다. 이를 극복하기 위해 SK하이닉스는 TSV를 제거하고 칩 외곽을 수직 연결하는 VFO(Via-Free Overpass) 기술을 도입했고, 삼성전자는 FinFET 기반의 고성능 로직 다이 설계로 차별화를 꾀하고 있다.


이와 함께, HBF의 고단화 흐름에 따라 2026년 400단 낸드 공정이 본격화될 전망이다. 이에 따라 고단 적층에 필수적인 식각액을 공급하는 솔브레인이 최대 수혜주로 주목된다. 솔브레인은 HBF 뿐 아니라 HBM, 로직 반도체 공정에서도 핵심 식각 소재를 독점 공급하며 AI 반도체 전반에 걸친 포트폴리오를 구축하고 있다.

HBF는 단순한 기술 진보를 넘어, DRAM-HBM-NAND를 통합하는 하이브리드 메모리 아키텍처의 핵심 요소로 자리잡고 있다. AI 추론 시대를 이끄는 메모리 패러다임의 전환이 본격화된 지금, HBF는 GPU에 이어 AI 산업의 다음 성장을 견인할 핵심 기술로 주목받고 있다.


■ 필자인 한용희 그로쓰리서치 연구원은 투자자산운용사 자격증을 보유하고 있으며, SBS Biz 방송에 출연중이다.

[편집자주] 독립 리서치 기업인 '그로쓰리서치'의 분석을 담은 내용입니다. 뷰어스는 글과 관련한 투자 결과에 책임을 지지 않습니다.