인공지능의 성능을 높이는 HBM

인공지능 시대 새로운 성장 동력 HBM(고대역폭메모리) 2화
시리즈 총 4화
2023.07.24

읽는시간 4

0

일반적 기능의 기존 메모리로는 고성능과 고효율을 필요로 하는 인공지능 시스템 등을 구축하는 데 한계가 있음

 
  • 전통적인 컴퓨터 설계 기법인 폰 노이만 구조⁴에서는 CPU와 메모리(D램)를 연결하는 통로(Bus)를 통해 데이터가 이동하며 연산을 수행
     - CPU가 아무리 빨라도 인공지능과 같이 처리해야 할 데이터량이 증가하면 데이터 이동이 지연되면서 시스템 전체의 성능이 저하하는 병목 현상이 발생
     - 이런 문제점은 현대 컴퓨터 구조가 바뀌지 않는 이상 오늘날 글로벌 반도체 기업들이 해결해야 할 과제

폰 노이만 구조의 데이터 병목 현상

'폰 노이만 구조'의 '데이터 병목 현상'을 보여줌. 입력, 중앙처리장치(CPU), 출력 단계에서 CPU와 메모리간 버스(Bus)를 통한 데이터 전송에서 병목 현상이 발생한다.

자료: KB경영연구소

GDDR6와 HBM의 주요 비교

  GDDR6 HBM
주 용도 · 그래픽 카드
·AI 추론용
·AI 학습용
핀당 정보
운송 속도
16Gb/s 6.4Gb/s
핀 개수 32개 1024개
대역폭 64GB/s 819.2GB/s
총용량 16GB 192GB

자료: 관련 자료 종합

데이터 이동 병목 현상을 해소하기 위한 방법으로 데이터 전송 능력을 높인 HBM(High Bandwidth Memory, 고대역폭메모리)이 국내 기업을 중심으로 출시

 
  • 대역폭⁵이 높을수록 한 번에 실어 나를 수 있는 데이터량이 증가하고 데이터 처리 속도가 빨라지는 특성을 보임
     - 그동안 그래픽처리장치(GPU)에는 GDDR6(Graphics Double Data Rate 6)라는 고성능D램이 사용되어 왔으나 데이터 입출력 통로인 핀의 개수가 32개로 인공지능 연산에서는 데이터 이동 병목 현상이 발생
     - 데이터 이동 병목 현상을 해소하기 위해 도입한 HBM 중 가장 최신 세대인 HBM3⁶는 1024개의 핀을 탑재해 GDDR6 대비 12.8배 높은 대역폭을 가지면서 보다 빠른 데이터 처리가 가능
     - 인공지능 시장이 확대되면서 HBM은 빠른 연산에 필수적인 메모리로 관련 업계의 주목을 받는 상황

더 높은 대역폭을 가지는 HBM은 데이터 이동 병목 현상을 해소해 빠른 데이터 처리가 가능

'기존D램'(GDDR5)은 대량 데이터 전송 시 병목발생, 하지만 'HBM3은 더 넓은 대역폭으로 더 많은 데이터를 빠르게 전송'할 수 있다.

자료: SK하이닉스, KB경영연구소

  • HBM은 고성능을 보유한 대신 칩과 기판(substrate) 사이 특수한 회로를 넣어야 하며, 적층 방식으로 이루어진 칩 구조로 인해 제조 비용이 많이 들고 가격이 비싸다는 단점이 존재⁷
     - 이로 인해 높은 잠재력에도 일반적인 컴퓨터 시스템보다는 데이터 센터나 슈퍼컴퓨터 등 초고성능 컴퓨팅 용도로 활용 영역이 제한되는 상황
     - 그러나 메모리 기업들은 관련 기술을 꾸준히 업그레이드하여 HBM 성능과 생산 능력을 향상시키는 등 고성능, 고부가 메모리 시장에서 입지를 구축할 잠재력을 보유

⁴ 노이만 구조, 프로그램을 내장하고 주기억 장치, 중앙 처리 장치, 입출력 장치의 3단계 구조로 구성되며 데이터의 연산과 저장을 분리한 구조

⁵ 메모리의 대역폭(Bandwidth)은 데이터 전송 능력을 의미하며, 한 번의 클럭(clock, 메모리를 동작시키는 일정한 주기 신호)를 통해 처리할 수 있는 용량으로 메모리 클럭과 데이터 전송 통로의 수인 버스 폭(bus width, 데이터입출력 라인 개수)의 곱으로 나타냄

⁶ 1초당 데이터 처리 속도는 819GB로 1초에 풀HD(FHD) 영화 163편을 전송할 수 있는 수준

⁷ 같은 용량에서 HBM은 일반 D램에 비해 2~5배 높은 가격 차이를 보임

HBM, 무엇이 더 좋은가?

 

  • HBM은 여러 개의 D램을 수직으로 쌓은 뒤, 여러 곳에 구멍을 뚫어서 연결하는 TSV(Through Silicon Via, 실리콘 관통 전극) 배선이 데이터 입출입 통로 역할을 함
 
  • (대역폭 증가) 기존 D램보다 대폭 늘어난 데이터 입출입 통로로 데이터 전송 능력이 높아짐
 
  • (데이터 전송 거리 축소) GPU 등의 연산처리장치와 물리적인 거리가 가까워지면서 효율적인 데이터 전송이 가능
 
  • (면적당 집적도 향상) D램을 수직으로 연결해 기존 D램보다 면적당 메모리 집적도가 매우 높고 데이터 처리 속도가 향상됨

기존 메모리 대비 HBM의 장단점

'기존D램' 대비 'HBM'의 '장단점'을 정리한 그림과 표이다.

자료: AMD

기존 대비 장점 단점
  • 높은 대역폭으로 데이터 이동 병목 현상 해소
  • 수직 집적에 의한 공간 소비 최소화로 유리한 공간 효율성
  • 전력 효율성 우위
  • 높은 공정 난이다
  • 낮은 수율
  • 기존 D램 대비 높은 제조 비용
  • 단기적으로 낮은 시장 침투율

HBM 시장은 아직 형성 초기이나 국내 기업이 90%를 점유하고 있으며, 제품 개발과 고객사 확보를 놓고 경쟁이 본격화

 

  • HBM은 작년부터 인공지능용 서버에 장착되는 등 시장 형성 초기이지만, 삼성전자와 SK하이닉스는 신제품 출시를 통해 고객 확보에 주력
     - SK하이닉스는 지난 2013년부터 세계 최초로 HBM을 개발해 현재 유일하게 4세대 HBM(HBM3) 제품을 양산하면서 엔비디아에 독점 공급 중
     - 삼성전자도 4세대 HBM 양산 준비를 완료했으며, 올해 하반기 더 높은 용량과 성능의 차세대 제품도 공개할 예정
     - 메모리 업계 3위인 미국 마이크론은 내년 하반기 이후 4세대 HBM 양산이 예상되는 등 국내 기업에 비해 기술력이 뒤처지는 양상

기업별 HBM 시장 점유율

'SK하이닉스', '삼성전자', '마이크론'의 '기업별 HBM 시장 점유율'을 보여줌. 2022년도의 SK하이닉스의 HBM 시장 점유율은 50%이고, 삼성전자는 40%, 마이크론은 10%이다.

자료: 트렌드포스(TrendForce)

국내 기업의 HBM 개발 연혁

'삼성 전자'와 'SK하이닉스'의 'HBM 개발 연혁'을 보여주고 있음. 'SK하이닉스는 1세대 HBM을 2013년도에 세계 최초 개발'하였고, 삼성은 2015년에 2세대 HBM2를 첫 개발하였다.

자료: 관련 자료 종합

  • HBM은 범용 메모리와는 달리 시스템 반도체 기업과 공조하여 맞춘형 제조가 이루어져야 하며⁸, 국내 메모리 기업들은 GPU 기업들을 대상으로 HBM 협업 제안과 공급 경쟁이 치열
     - 시장 형성 초기인 현재 인공지능 반도체 시장의 90% 이상을 점유한 엔비디아와 SK하이닉스 연합이 우위를 달리고 있으나, AMD 인공지능 칩의 가격 경쟁력과 HBM의 더 많은 탑재 용량은 삼성전자에 긍정적인 면
     - (SK하이닉스) 대표적인 GPU 기업인 엔비디아의 최신 인공지능 GPU ‘H100’에 SK하이닉스의 최신 HBM을 적용하는 등 적극적인 협력 관계를 구축
     - (삼성전자) 글로벌 반도체 기업 AMD와 협력 관계를 맺고 최신 인공지능 GPU 'MI300'에 장착할 4세대 HBM을 올해 4분기부터 공급하며 차세대 HBM도 2024년 출시 예정

엔비디아 및 AMD의 HBM 공급망 비교

'엔비디아' 및 'AMD'의 'HBM 공급망' 비교를 보여준다. 엔비디아의 'HBM 주 공급업체'는 'SK하이닉스'이고, 'AMD의 HBM 주 공급업체'는 삼성전자이다.

자료: 관련 자료 종합

HBM 주요 가치사슬

'HBM 주요 가치사슬'을 보여주고 있음. 'HBM'에는 삼성전자, SK하이닉스, 'GPU'는 엔비디아, 인텔 등이 있다.

자료: 관련 자료 종합

고성능 컴퓨팅 수요 확대로 HBM 사용이 증가하면서 시장 규모가 꾸준히 확대될 전망

 

  • 인공지능과 초고성능 컴퓨팅 시장 성장에 따라 HBM 시장 규모도 연평균 25.4% 성장하여 2023년 20억 달러에서 2028년 63억 달러 수준으로 확대될 전망
     - HBM 시장은 아직까지 규모 면에서 전체 D램 시장에서 차지하는 비중은 작으나⁹ 대용량 데이터의 빠른 연산을 필요로 하는 수요가 기대되면서 성장 가능성이 높음

HBM 시장 규모 전망

2023년과 2028년의 'HBM 시장 규모 전망'을 보여주고 있음. 시장 규모도 연평균 25.4% 성장하여 2023년은 20억달러에서 2028년은 63억 달러 수준으로 확대될 전망이다.

자료: 모도 인텔리젼스(Mordor Intelligence)

HBM 글로벌 수요 추이

'HBM' '글로벌 수요 추이'를 보여준다. 2023년은 2022년 대비 61% 성장, HBM 글로벌 수요와 시장의 규모는 앞으로 더 확대될 전망이다.

자료: 트렌드포스

  • 엔비디아의 최신 GPU에 HBM 탑재량을 늘리는 등 올해 전 세계 HBM 수요는 전년보다 61% 증가한 2.9억GB(기가바이트)로 예상되며 내년에도 30% 성장할 전망
     - 구글, 애플, MS 등의 빅테크 기업들이 인공지능 서비스 확대를 예고해 저전력 고사양 메모리인 HBM의 수요는 지속적으로 증가할 것으로 예상

인공지능 산업이 본격적으로 개화하면서 국내 기업들은 시장이 성장하는 HBM을 새로운 성장 동력으로 삼고 관련 투자에 나서면서 경쟁이 가속화

 

  • (SK하이닉스) 시장점유율 확대를 위해 연초 투자 축소 계획을 뒤집고 HBM 등 고성능 메모리 제품 개발을 중심으로 설비투자를 확대할 예정
     - HBM 패키징을 위한 신규 후공정 장비를 도입하는 등 연말까지 HBM 생산 능력 2배 확대를 목표로 약 1조 원을 투자할 계획

  • (삼성전자) 신제품 개발에 속도를 내면서 내년 말까지 HBM 생산 능력 2배 이상 확대를 위해 설비투자를 증설할 예정
     - HBM 시장에 주목하고 1조 원 이상을 투입해 천안 공장에 후공정 설비를 도입하는 등 본격적인 생산량 증대에 나설 계획

⁸ HBM을 GPU 칩 위에 단일 시스템 칩(SoC, System on Chip) 형태로 장착하고 패키징을 하기 때문에 연구개발 단계부터 GPU 기업들과 긴밀한 협업 체계 구축이 필요

⁹ 2022년 전 세계 D램 시장 규모는 778억 달러

심경석

KB경영연구소

심경석

금융용어사전

KB금융그룹의 로고와 KB Think 글자가 함께 기재되어 있습니다. KB Think

이미지