반응형

*고대역폭 메모리(HBM)

 

 

- 앞으로 빠른 처리속도와 낮은 전력소비량 등으로 동일 용량 D램과 대비해 부가가치가 2배가량 높은 고대역폭 메모리(HBM)가 AI 서비스 고도화의 큰 축을 담당할 것으로 전망된다. 

 

- 실제 AI 대규모 학습에는 고성능 그래픽 처리장치(GPU)가 필요하기 때문에 GPU와 짝을 이루는 HBM 수요가 증가한다. 

 

 

 

HBM 이란?

- HBM은 High Bandwidth Memory의 약자로 고성능 컴퓨터 시스템에서 사용되는 고성능 메모리 기술이다. 

 

- HBM은 DRAM을 사용하며, 메모리 칩을 고밀도 패키지에 직접 부착함으로써 높은 대역폭과 낮은 에너지 소비를 구현한다. 

 

- HBM은 기존의 GDDR5와 같은 메모리에 비해 높은 대역폭을 가지고 있어, 대용량 데이터를 빠르게 처리할 수 있으며, 이를 통해 고해상도 영상, 가상현실 등의 대규모 그래픽 처리와 같은 고성능 컴퓨팅 작업에 적합하다. 또한 에너지 효용성도 뛰어나며, 작은 패키지에 높은 용량을 담을 수 있기 때문에 고밀도 컴퓨팅 시스템에서도 사용된다. 

 

 

GPU와 HBM의 관계

- GPU는 대규모 그래픽 처리를 위해 설계된 프로세서로, 대용량의 데이터를 동시에 처리할 수 있는 능력을 가지고 있다. 

 

- 하지만, 이러한 데이터를 처리하기 위해서는 높은 대역폭이 필요하다. 

 

- 이전까지는 GDDR(Graphics Double Data Rate) 메모리가 대역폭 요구사항을 충족시키기 위해 사용되었지만, 한계로 인해 대역폭 요구사항이 더욱 증가하게 되면서, HBM이 개발되었다.

 

- HBM은 고밀도 패키지에 직접 메모리 칩을 부착하는 방식으로 제작되어 높은 대역폭을 제공하며, 에너지 효율성이 뛰어나고 고밀도 패키지에 높은 용량을 담을 수 있다. 

 

- 따라서 최근의 고성능 GPU에서는 HBM이 GDDR대신 사용되고 있고, 이를 통해 GPU는 더욱 높은 성능을 발휘하고, 대용량의 데이터를 보다 효율적으로 처리할 수 있게 된다. 

 

 


 

 

*고대역폭메모리 (HBM) 관련주 5 종목

 

1. SK하이닉스

- 오픈 AI가 개발한 챗 GPT의 기계학습에는 엔비디아의 GPU A100이 1만여 개 활용됐는데 SK하이닉스의 3세대 HBM이 A100과 결합해 연산속도를 높였다. 

 

- A100보다 성능이 향상된 엔비디아의 GPU H100에는 SK하이닉스의 HBM 중 부가가치가 보다 높은 4세대 D램이 결합된다. 

 

 

 

2. 삼성전자

- AMD의 최신 GPU인 MI-100에는 삼성전자의 HBM-PIM 이 결합됐다. 

 

 

 

3. 한미반도체

- 반도체 자동화장비의 제조 및 판매업 등을 영위할 목적으로 설립.

 

- 다이본딩, 몰딩, 레이저마킹 등의 LED 제조용 장비 생산.

 

- 챗GPT 서비스 고도화에 필수적인 고대역 메모리(HBM) 디램(DRAM)을 생산하는 장비를 만듦.

 

- HBM3 TSV 공정에 사용되는 TC 본딩장비를 납품.

 

한미반도체차트

 

 

 

4. 오픈엣지테크놀로지

- 시스템 반도체 설계 IP 기술 개발 업체.

 

- 인공지능 기술을 자율주행 자동차, 보안카메라 등과 같은 엣지 환경에서 구현하기 위해 반드시 필요한 시스템반도체 설계 기술을 개발.

 

- 정부 과제로 고성능 AI 서버용 HBM3급 이상 인터페이스 기술개발 수행.

 

오픈엣지테크놀로지차트

 

 

 

5. 티에스이

- 반도체 및 디스플레이 검사장비 제조, 판매업체.

 

- 주요 제품으로 메모리 반도체 검사장비, 반도체 웨이퍼 검사장비 등이 있음.

 

- 주요 매출처는 삼성전자와 SK하이닉스 등임.

 

- 지엠테스트, 타이거일렉 등을 주요 종속회사로 보유.

 

- HBM테스트용 다이캐리어 소켓 양산 공급.

 

 

티에스이차트

 

 

 

+ Recent posts