|
20일 SK하이닉스는 1c 나노 공정을 적용한 SOCAMM2 제품이 기존 서버용 D램 모듈에 비해 2배 이상의 대역폭, 75% 이상 개선된 에너지 효율을 구현했으며, 192GB 대용량 제품을 본격 양산한다고 밝혔다. 10나노급 6세대 미세공정 기술인 1c나노 공정은 같은 면적에 더 많은 D램 셀을 집적할 수 있어 용량과 성능을 높이면서도 전력 소모를 줄일 수 있는 것이 특징이다.
HBM은 빠르지만 용량·전력·발열 부담이 크고, 기존 서버용 D램은 용량은 크지만 속도와 전력 효율이 떨어진다. SOCAMM2는 이 사이를 메우는 저전력·고대역폭 메모리다. 전력 소모와 냉각 비용이 커지는 AI 데이터센터에서는 같은 전력으로 더 많은 연산을 처리할 수 있는 저전력 메모리 중요성이 커지고 있다.
대역폭은 메모리가 데이터를 주고받는 속도로, 높을수록 GPU가 필요한 데이터를 더 빨리 공급받을 수 있다. GPU의 계산 속도를 메모리 데이터 전송이 따라가지 못하면 전체 AI 연산 속도가 느려지는 '메모리 병목현상'이 발생하는데, 이를 줄이기 위해 시스템 메모리도 고대역폭이 필요해지고 있다. SOCAMM2는 GPU에 직접 붙는 HBM보다는 CPU 쪽 시스템 메모리에 가까운 구조지만, 기존 서버용 D램보다 GPU와 더 가까운 위치에서 빠르게 데이터를 주고받을 수 있다.
특히 SK하이닉스는 이번 SOCAMM2 제품이 엔비디아의 베라 루빈에 최적화된 설계라고 밝혔다. 베라 루빈은 GPU의 HBM4와 CPU 쪽 시스템 메모리를 NV링크-C2C(칩 연결 기술)로 연결해 사실상 하나의 큰 메모리로 쓰도록 설계됐다. 만약 GPU에 있는 HBM4가 꽉 차면 SOCAMM2로 넘겨서 처리할 수 있는 구조다.
여기서 SK하이닉스의 SOCAMM2는 CPU쪽 대용량 시스템메모리로 활용되면서 긴 문맥 추론이나 여러 AI 모델을 동시에 구동할 때 메모리 병목 현상을 줄이는 데 도움이 될 수 있다. 이를 통해 전체 시스템 처리 속도를 높일 수 있을 것으로 기대된다.
SK하이닉스는 "AI 시장이 학습에서 추론 중심으로 본격 전환되면서, 거대언어모델을 저전력으로 구동할 수 있는 SOCAMM2가 차세대 메모리 솔루션으로 주목받고 있다"며, "글로벌 CSP(클라우드 서비스 기업) 고객 수요에 발맞춰 양산 체제를 조기 안정화 했다"고 밝혔다.
김주선 SK하이닉스 AI인프라 사장(CMO)은 "SOCAMM2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다"며, "글로벌 AI 고객과 긴밀한 협력을 바탕으로 고객이 가장 신뢰하는 AI 메모리 솔루션 기업으로 자리매김하겠다"고 말했다.










