서로 다른 장치 연결해 메모리 용량 대폭 늘려주는 CXL 선도
엔비디아에 HBM 납품 준비…“5세대 HBM3E부터 리드할것” 

26~28일(현지시간) 미 캘리포니아주 마운틴뷰에서 글로벌 반도체 학회 '멤콘(MemCon) 2024'이 열리고 있다.
26~28일(현지시간) 미 캘리포니아주 마운틴뷰에서 글로벌 반도체 학회 '멤콘(MemCon) 2024'이 열리고 있다.

삼성전자가 AI(인공지능) 시대를 이끌 차세대 컴퓨트익스프레스링크(CXL) 기술 기반 메모리와 고성능·고용량의 HBM(고대역폭 메모리)로 AI 반도체 시장을 빠르게 추격하고 있다.

삼성전자는 26일(현지시간) 미 캘리포니아주 마운틴뷰에서 열린 글로벌 반도체 학회 '멤콘(MemCon) 2024'에서 글로벌 반도체 기업들 앞에서 현재 삼성전자가 가지고 있는 CXL 기반 메모리와 HBM을 선보였다.

CXL은 중앙처리장치(CPU)와 그래픽처리장치(GPU), 메모리 반도체를 연결해 데이터 처리 속도와 용량을 높이는 차세대 인터페이스다. AI, 머신러닝, 빅데이터 등 고성능 연산이 필요한 애플리케이션에서 서로 다른 기종의 제품을 효율적으로 연결할 수 있다.

기존 컴퓨팅 시스템의 메모리 용량에 대한 물리적 한계를 극복하고 D램 용량을 획기적으로 확장할 수 있다는 점이 가장 큰 특징이다.

일반적인 컴퓨팅 시스템에서는 CPU 1개당 사용할 수 있는 D램 모듈이 제한돼 D램의 용량을 늘려 데이터 처리량을 늘리기 위해서는 CPU를 새롭게 증설해야 한다. 

CXL은 기존 여러 인터페이스를 하나로 통합해 각 장치 간 직접 통신을 가능하게 하고, 메모리를 공유할 수 있다. 또 기존 메인 D램과 공존하면서 대역폭과 용량을 확장할 수 있어 데이터를 고속으로 처리하는 연산 성능을 획기적으로 개선할 수 있다.

업계에서는 CXL 메모리 플랫폼 시장이 2030년 200억달러(약 24조원) 수준으로 커질 것으로 전망했다. 

삼성전자 미주 메모리연구소장 최진혁 부사장은 “CXL은 메모리의 효율적인 관리가 가능하고 시스템의 안전성을 높일 수 있어 삼성전자만의 다양한 CXL 기반 설루션을 통해 메모리 용량과 대역폭을 대거 향상시킬 수 있다”고 했다.

삼성전자는 CMM-D(D램), 낸드와 D램을 함께 사용하는 CMM-H(하이브리드), 메모리 풀링 설루션인 CMM-B(박스) 등 CXL 기반 설루션을 대거 보유하고 있다.

HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 혁신적으로 끌어올린 고성능 메모리다. 생성형 AI 구동을 위해 주목받고 있다.

삼성전자 D램 개발실장 황상준 부사장은 “양산 중인 3세대(HBM2E)와 4세대(HBM3)에 이어 12단 5세대 HBM3E와 32기가비트(Gb) 기반 128기가바이트(GB) DDR5 제품을 상반기에 양산해 AI 시대 고성능 고용량 메모리 리더십을 이어가겠다”고 했다.

현재 삼성전자는 엔비디아와의 HBM 샘플 테이스를 진행 중이다. 엔비디아의 젠슨 황 CEO도 지난 20일 삼성전자의 HBM을 테스트 중이라는 사실을 밝히며 삼성전자의 HBM에 대한 기대감을 드러냈다. 엔비디아에 HBM을 공급하고 있는 SK하이닉스에 비해 뒤졌지만, 삼성전자도 상반기 내로 엔비디아에 HBM을 공급할 수 있을 것으로 예상하고 있다. 

삼성전자는 6세대 HBM의 경우 적층된 메모리의 가장 아래층에 컨트롤 장치인 버퍼 다이(Buffer Die)를 적용해 AI 시대 메모리 반도체 혁신을 이어간다는 계획이다.

최진혁 부사장은 “메모리 용량 측면에서는 CXL 기술이, 대역폭 측면에서는 HBM이 미래 AI 시대를 주도해 나갈 것”이라며 “삼성전자의 앞선 CXL과 HBM으로 AI 시장을 선점하겠다”고 했다.

한편 멤콘(MemCon)은 AI 관련 메모리 설루션을 심층적으로 논의하기 위해 지난해 처음 개최된 학회로, 삼성전자와 SK하이닉스, 마이크로소프트(MS), 메타, 엔비디아, AMD 등이 참가했다.

 

저작권자 © 중소기업신문 무단전재 및 재배포 금지