
인공지능(AI) 인프라 경쟁의 초점이 '연산 성능'에서 '운영 효율'로 옮겨가고 있습니다. 고대역폭메모리(HBM)를 앞세운 속도 경쟁이 계속되는 가운데 전력 소모를 줄이고 시스템 효율을 높이기 위한 새로운 메모리 해법도 동시에 부상하고 있는데요. 단순히 더 빠른 연산 능력보다 얼마나 적은 전력으로 안정적인 운영이 가능한지가 AI 데이터센터 경쟁력의 핵심 요소로 떠오르고 있죠.
삼성전자가 차세대 서버 메모리 '소캠(SOCAMM)2' 샘플 공급에 나선 배경에도 이러한 구조 변화에 선제적으로 대응하겠다는 전략적 판단이 깔려 있습니다. HBM과 소캠을 축으로 이원화된 메모리 전략을 통해 연산 성능과 운영 효율을 동시에 잡겠다는 구상인데요. 차세대 AI 플랫폼 주도권을 둘러싼 경쟁에서 삼성전자의 행보가 주목받는 이유입니다.
소캠 경쟁 리셋…삼성에 열린 기회
삼성전자가 인공지능 데이터센터에 특화한 차세대 서버 메모리 '소캠2' 샘플 공급에 나서며 AI 인프라 시장 공략에 속도를 내고 있습니다. HBM 이후 AI 메모리 경쟁의 또 다른 축으로 부상한 소캠 시장에서 주도권을 선점하겠다는 전략입니다.
최근 삼성전자는 공식 테크 블로그를 통해 "AI 데이터센터에 최적화된 LPDDR 기반 서버용 메모리 모듈 소캠2를 개발해 고객사에 샘플을 공급하고 있다"고 밝혔습니다. 구체적인 거래처는 공개하지 않았지만 업계에서는 사실상 엔비디아를 겨냥한 행보로 해석하고 있죠. 소캠은 엔비디아가 차세대 AI 서버를 위해 독자적으로 도입을 추진 중인 메모리 모듈 규격입니다.
소캠2는 저전력 메모리인 LPDDR를 서버용으로 재구성한 제품입니다. 스마트폰 등에 쓰이던 저전력 메모리를 서버 환경에 맞게 모듈 형태로 묶어 전력 소모를 줄이면서도 대용량 처리가 가능하도록 설계했죠. 기존 서버용 메모리인 DIMM보다 크기를 약 57% 줄여 서버 보드 안에 더 많은 연산 장치를 배치할 수 있는 점이 특징입니다. 이전 세대인 소캠1과 비교하면 동작 속도도 20% 이상 개선됐습니다.
LPDDR5X 기반인 만큼 전력 효율과 집적도가 동시에 높습니다. 전기를 덜 쓰면서도 많은 데이터를 처리할 수 있어 발열 부담이 큰 AI 서버와 데이터센터 환경에서 안정적인 운영이 가능하다는 평가입니다. 메모리를 보드에 고정하는 방식이 아니라 탈부착이 가능한 모듈 구조를 채택, 고장이 발생했을 때 전체 시스템을 멈추지 않고 교체나 업그레이드가 가능한 점도 장점이에요. 이는 서버 운영 비용을 낮추는 요소로 작용합니다.
삼성전자가 공급한 소캠2는 현재 '커스터머 샘플(CS)' 단계에 있습니다. 이는 개발용 시제품을 넘어 실제 서버 환경에서 성능과 호환성, 양산 가능성을 최종 점검하는 단계입니다. 이 과정을 통과하면 곧바로 양산으로 이어질 가능성이 크죠. 시장에서는 소캠2가 엔비디아의 차세대 AI 플랫폼 '베라 루빈'에 적용될 수 있을지에 주목하고 있어요. 초기 플랫폼에 탑재될 경우, 이후 등장하는 후속 제품까지 공급이 이어질 가능성이 높기 때문입니다.
소캠 시장의 경쟁 구도 역시 삼성에 우호적으로 흘러가고 있습니다. 당초 엔비디아와 메모리 3사는 소캠1 상용화를 준비했고 마이크론이 가장 먼저 승인을 받으며 앞서가는 듯했죠. 그러나 엔비디아가 기술적 문제와 스펙 변경을 이유로 소캠1 프로젝트를 중단하고 소캠2로 선회하면서 경쟁은 다시 원점으로 돌아왔습니다.
이 과정에서 삼성전자는 개발 초기부터 엔비디아와 긴밀하게 협업하며 전력·대역폭·발열 등 까다로운 품질 기준을 충족했고, 경쟁사 대비 빠르게 CS 단계에 진입한 것으로 전해집니다. 생산과 공급 능력에서도 강점을 가진 삼성전자가 현재 가장 많은 물량을 확보한 것으로 알려진 배경입니다.
역할 갈린 'AI 메모리'
소캠2는 HBM과 맡은 역할이 다릅니다. HBM이 GPU 바로 옆에서 데이터를 초고속으로 주고받으며 AI 연산 속도를 끌어올리는 메모리라면, 소캠2는 CPU 주변서 많은 데이터를 효율적으로 관리하며 서버 전체의 전력 사용을 줄이는 데 초점을 맞춥니다. 속도 경쟁보다는 전기를 덜 쓰고 안정적으로 운영하는 것이 핵심이에요.
AI 활용 방식이 대규모 학습 중심에서 상시로 데이터를 처리하는 추론 단계로 확대되면서 저전력·확장형 메모리의 중요성도 커지고 있습니다. 업계에서 소캠2를 HBM과 경쟁하는 제품이 아니라, HBM을 보완하는 또 하나의 필수 AI 메모리로 보는 이유입니다.
전문가들은 소캠을 HBM의 대체재라기보다 '역할이 분화된 AI 메모리'로 평가합니다. 이종환 상명대 시스템반도체공학과 교수는 "HBM이 대역폭과 성능을 극대화한 고사양 메모리라면, 소캠은 저전력·저비용 구조를 바탕으로 한 상대적으로 보급형 AI 메모리에 가깝다"고 설명했어요. 전력 효율과 비용 구조를 중시하는 서버 환경에서 적용 범위가 넓어질 수 있다는 의미입니다.
소캠 확산이 D램 수요 확대와 맞물릴 가능성도 제기됩니다. 이 교수는 "소캠이 DDR 계열을 기반으로 하는 만큼 AI 서버 보급이 늘어날수록 D램 수요가 구조적으로 증가할 수 있다"고 분석했습니다.
소캠 경쟁의 최종 승부처로는 기술 난이도보다 '공급 능력'과 '고객 선점'이 꼽힙니다. AI 서버용 메모리는 범용 D램처럼 만들어 놓고 시장에 푸는 방식이 아니라 고객이 요구하는 사양에 맞춰 공급되는 B2B 제품이기 때문이죠.
누가 먼저 주요 고객을 확보하고 이후에도 안정적으로 물량을 공급할 수 있는지가 관건입니다. 특히 TSV 기반 적층 공정이 필수인 HBM과 달리, 소캠은 공정 진입 장벽이 상대적으로 낮아 초기 레퍼런스를 확보한 기업이 시장 흐름을 주도할 가능성이 크다는 평가가 나옵니다.
시장 확대를 뒷받침할 환경도 빠르게 조성되고 있습니다. 국제반도체표준화기구인 JEDEC의 소캠2 모듈 표준화 작업이 막바지 단계에 접어들면서 생태계 전반의 움직임도 빨라지는 분위기입니다. 소캠2에는 전용 기판이 필요한 만큼 국내 기판 업체들도 품질 검증과 제품 개발에 속도를 내고 있어요.
업계에서는 엔비디아의 차세대 AI 플랫폼 '베라 루빈' 출하가 본격화되는 내년 2분기 이후 소캠2 시장이 빠르게 성장할 것으로 보고 있습니다. 초기 플랫폼에 공급되는 레퍼런스를 확보한 기업이 시장 점유율 상당 부분을 가져갈 것이라는 전망이 우세합니다.
삼성전자는 서버용 메모리 포트폴리오를 HBM과 소캠2로 이원화해 차세대 AI 데이터센터가 요구하는 성능과 전력 효율, 확장성을 동시에 잡겠다는 구상입니다. AI 인프라 경쟁이 '연산 능력'에서 '운영 비용 및 효율'로 이동하는 국면에서 소캠2는 삼성전자의 새로운 승부수로 부상하는 모양새죠.
한편, 삼성전자는 엔비디아의 HBM4 테스트에서도 긍정적인 평가를 받은 것으로 알려지는데요. 엔비디아 관계자가 삼성전자를 방문해 HBM4 SiP(시스템 인 패키지) 테스트 결과를 전달, 구동 속도와 전력 효율 측면에서 삼성전자의 샘플이 '가장 좋은' 성과를 냈다는 설명입니다.
이번 평가로 삼성전자의 엔비디아 HBM4 공급 가능성도 한층 높아졌다는 분석이 나옵니다. 엔비디아가 내년 하반기 차세대 AI 가속기 '루빈'을 출시할 예정인 만큼, 삼성전자가 내년 2분기부터 본격 공급에 나설 수 있을지에 시장의 관심이 쏠리고 있습니다.























