• 페이스북
  • 트위터
  • 유튜브

"HBM 말고 우리도" 온디바이스 AI, 차세대 주자는

등록 2024.05.09 07:00:00

  • 이메일 보내기
  • 프린터
  • PDF

LPCAMM2 등 차세대 메모리 주자 상용화 가속화

온디바이스 AI 시대…고객 맞춤형 메모리의 범람

[서울=뉴시스]메모리 업황이 본격 반등하자, 메모리 업계는 올해 차세대 노트북용 D램 규격인 LPCAMM(Low Power Compression Attached Memory Module)의 상용화에 속도를 내고 있다. 사진은 삼성전자가 지난해 업계 최초로 개발한 LPCAMM.(사진=삼성전자 제공) photo@newsis.com *재판매 및 DB 금지

[서울=뉴시스]메모리 업황이 본격 반등하자, 메모리 업계는 올해 차세대 노트북용 D램 규격인 LPCAMM(Low Power Compression Attached Memory Module)의 상용화에 속도를 내고 있다. 사진은 삼성전자가 지난해 업계 최초로 개발한 LPCAMM.(사진=삼성전자 제공) [email protected] *재판매 및 DB 금지

[서울=뉴시스]이인준 기자 = 전 세계적인 인공지능(AI) 열풍이 D램 메모리의 한계 돌파를 가속화하고 있다. 최근 AI 반도체용 메모리로서, 메모리 업계에 '다크호스'로 등장한 고대역폭메모리(HBM)를 잇는 차세대 주자들이 상용화 바람에 속속 올라탔다.

9일 업계에 따르면 온디바이스 AI 시장 열풍을 이어갈 다음 주자는 'LPCAMM2'(Low Power Compression Attached Memory Module 2)다.

이 메모리는 삼성전자가 지난해 9월 세계 최초로 시장에 선보인 제품으로, 기존 규격(SO-DIMM) 대비 얇고 작은 것이 가장 큰 특징이다.

탑재 면적을 기존 대비 최대 60% 이상 줄여 제품 내부 공간을 더 효율적으로 설계할 수 있다. 업계에서는 다양한 온디바이스 AI 환경 구현에 가장 적합한 제품으로 평가한다. 탈부착이 가능해 업그레이드가 쉬운 것도 특징 중 하나다. 그러면서도 성능은 33% 빨라지고, 소비 전력은 60%, 대기 전력은 72% 더 줄였다. 한 번 충전으로 더 오래 사용하면서도, 과도한 발열까지 잡았다.

LPCAMM2는 올해부터 노트북 시장을 시작으로 시장이 개화할 전망이다. 이미 D램 업계가 주요 고객사와 차세대 시스템에서 검증을 마치고 상용화가 막바지다.

이와 함께 저지연광대역(LLW) D램 기술도 담금질이 한창이다.

이 제품은 데이터 입출력단자(I/O) 수를 늘려 데이터 처리 지연 없이 이동이 원활하도록 만드는 데 적합한 기술이다. 특히 사람의 눈앞에 거의 실시간으로 새로운 화면을 띄워야 하는 XR(확장현실)기기 등에서 활용이 기대되는 메모리다. 휴대용 단말기기에 들어가는 만큼 저전력(LP) D램보다 전력 효율이 70% 개선될 것으로 알려졌다.
17일 업계에 따르면 SK하이닉스는 최근 데이터 처리 플랫폼 기업인 헤이즐캐스트(HazelCast)와 협력해 CXL 기술 적용 사례에 대한 백서(Whitepaper)를 발간했다. (사진=SK하이닉스 제공) photo@newsis.com *재판매 및 DB 금지

17일 업계에 따르면 SK하이닉스는 최근 데이터 처리 플랫폼 기업인 헤이즐캐스트(HazelCast)와 협력해 CXL 기술 적용 사례에 대한 백서(Whitepaper)를 발간했다. (사진=SK하이닉스 제공) [email protected] *재판매 및 DB 금지

CMM-D(CXL Memory Module) 역시 가장 주목 받는 기술 중 하나다.

CXL(컴퓨트익스프레스링크) 기술은 기존 D램 제품과 공존이 가능한 새로운 인터페이스 기술이다. 컴퓨터 시스템의 대역폭과 용량을 확장할 수 있어 AI, 머신러닝 등 고속의 데이터 처리가 요구되는 차세대 컴퓨팅 시장을 열 수 있는 제품으로 주목을 받고 있다.

PIM(Processing-in-Memory) 기술은 앞으로 HBM 시장의 판도도 바꿀 수 있는 메모리다.

현재 메모리는 데이터 저장을 담당하는 매체지만, 앞으로 프로세스의 기능을 일부 대신할 수 있다. 메모리 내부에 연산 작업에 필요한 프로세서 기능을 더하는 방식이다. 이를 통해 AI 가속기 시스템상 데이터 이동을 줄여 에너지 효율도 높일 수 있다.

업계 내에서 LPDDR(저전력 D램)에 PIM 기술을 접목하려는 시도가 속도를 내고 있으며, 앞으로 HBM 역시 PIM 기술을 통해 AI 성능을 강화하려는 움직임도 지속되고 있다.

업계 관계자는 "AI 반도체 시장이 열린 이후 메모리 시장은 맞춤형 시장으로 전환하고 있다"며 "당장 HBM을 완전히 대체할 수는 없겠지만 메모리 고객마다 원하는 바가 다른 만큼 다양한 포트폴리오 차별화가 앞으로 경쟁 요인이 될 수 있다"고 전망했다.


◎공감언론 뉴시스 [email protected]

많이 본 기사