• 검색

D램으로 쌓은 '공든 탑' HBM...대중화 언제쯤?

  • 2025.03.30(일) 15:00

[테크따라잡기]
HBM, 빠르지만 비싸…AI 가속기에 사용
전자제품 적용 확대되려면 가격 싸져야

요즘 가장 뜨거운 반도체는 뭐니뭐니해도 HBM(고대역폭메모리)이죠. 

하지만 주로 인공지능(AI) 가속기에 들어가는 HBM을 일상에서 접하기는 쉽지 않습니다. HBM 투자는 늘어나는데 정작 HBM이 뭔지 알기는 쉽지 않은 셈입니다.

도대체 HBM은 무엇을 말하는 걸까요? 우리에게 그나마 익숙했던 메모리 반도체와 다른점은 무엇일까요?

'공든 탑' HBM

우리가 사용하는 컴퓨터는 빠르게 정보를 연산해 사용자에게 원하는 값을 주죠. 그리고 이 연산을 위해 사용되는게 DRAM 입니다. 

그렇다면 DRAM은 뭘까요? Dynamic Random Access Memory의 약자입니다. Memory라는 단어에서 알 수 있듯이 연산을 위한 데이터 등을 '저장'하는 장치죠.

연산을 효율적으로 하기 위해서는 램에 얼마나 많은 데이터가 저장되는지, 얼마나 빠르게 접근이 가능한지가 중요합니다. 고성능의 DRAM일수록 더 많은 데이터를 저장하고 더 빠른속도로 데이터를 전송할 수 있다는 얘기입니다. 

HBM은 바로 이 DRAM의 효율을 극대화 한 메모리 반도체를 말합니다. 

HBM은 DRAM을 '다이'에 층층이 쌓아올려서 만든 반도체죠. DRAM칩에 수천개의 미세한 구멍을 뚫어서 층층이 놓은 뒤 전극으로 연결하는 겁니다. 이를 통해 기존보다 더 빠르게 데이터를 처리할 수 있도록 한거죠. DRAM으로 쌓은 공든탑인 겁니다. 

HBM을 설명할 때 '단'이라는 단위를 쓰는데요, 바로 몇개의 DRAM다이를 쌓았느냐를 말하는 겁니다. 8단 HBM이라면 8개층, 12단이라면 12개층을 쌓았다는 얘기죠. 

하지만 말처럼 쉽지는 않습니다. 물리적으로도 DRAM자체가 매우 작기 때문에 이를 쌓기가 쉽지않고요, DRAM을 단순히 쌓기만 하면 발열문제 등으로  제대로 된 성능을 기대하기도 쉽지 않죠. DRAM보다 HBM에 많은 제조 비용이 필요했죠.

지난 2013년 SK하이닉스가 HBM을 최초로 개발했지만 시장에서는 외면받았습니다. 기존 DRAM보다 가격이 비쌌고 이렇게 빠른 데이터 처리속도가 당시에는 크게 필요하지 않았거든요. "굳이 이돈 주고 써야하나"라는 거였죠. 

하지만 생성형 AI의 등장으로 기존 DRAM보다 더 빠르게 작업 수행이 가능한 메모리에 대한 수요가 급격하게 늘어났습니다. 이후 HBM에 대한 시장이 점점 커지면서 반도체 시장에서 'HBM 경쟁'이 본격화 한거죠. 

HBM, 대중화는 아직

HBM에 대한 이야기는 많이 듣지만 실물을 보기는 어렵죠. HBM은 일반 소비자가 아닌 전문 기업들이 대부분의 물량을 소화하기 때문입니다.

대표적인 곳이 엔비디아죠. 엔비디아는 GPU(그래픽저장장치)를 고도화 해 AI가속기라는 새로운 하드웨어를 만들었고요, HBM은 바로 이 하드웨어에 들어갑니다. 하나의 AI가속기에 적게는 4개, 많게는 8개의 HBM이 탑재되죠. 

HBM이 AI가속기 외 다른 전자제품에 들어갈 정도로 대중화 할 수 있을까요? 업계에서는 가능성은 충분하지만 상당한 시간이 걸릴 것으로 보고 있습니다. 

핵심은 생산단가죠. 앞서 설명드린 것처럼 HBM을 만드는 데에는 상당한 기술력이 필요하죠. 그리고 이를 구현하기 위해서는 종전의 DRAM과 비교해 상당한 비용도 들어갑니다.

업계 한 관계자는 "HBM에 대한 경쟁이 치열해지면서 제조업체들도 생산단가를 줄이기 위한 기술 개발에 몰두할 것"이라며 "다만 현재 DRAM의 상용화보다 더 고도화된 공정작업을 요구하기 때문에 근 몇년 내에 HBM을 모두가 활용하기는 쉽지 않을 것"이라고 설명합니다. 

하지만 언젠가 HBM이 대중화 할 가능성도 높습니다. 우리가 일반적으로 활용하는 전자제품들도 종전보다 배의 성능을 낼 것으로 기대됩니다. HBM이 얼마나 더 빠르고 정교하게 진화하는지 지켜보시죠.

naver daum
SNS 로그인
naver
facebook
google