퀵하게 보기
- 글로벌 빅테크 AI 전용 칩 출시: 전력 비용 절감이 최대 목표
- AI 서버는 전기 먹는 하마: AI 전용 칩 전력 소비량 1/10 축소
- 생성형 AI (챗GPT) 1회 서비스 전력 소모량 2.9Wh, 구글 검색 대비 +10배
- 2030년 북미 데이터센터 전력 소비량, 미국 전체 소비량의 8%: 8년 만에 +4배 증가 전망
- 전선과 변압기 핵심인 구리: 22개월 만에 최고치, 2030년까지 구리 수요 13조원 추가 발생
- 30년 만에 전력 호황 사이클 진입, 현재 고객과 2028년 주문 논의 중
■글로벌 빅테크 AI 전용 칩 출시: 전력 비용 절감이 최대 목표
최근 빅테크 업체들의 자체 AI 칩 (AI 반도체) 개발 이유는 전력 비용을 절감하고 엔비디아 GPU 공급구조에서 탈피하기 위해서다.
구글과 마이크로소프트는 AI 전용 신제품 반도체인 TPU v5p와 마이아100을 공개했고, 아마존은 업그레이드된 AI 반도체인 Trainium2를 출시했으며, 인텔은 신형 AI가속기 (가우디3)를 공식 선보였다.
■AI 서버는 전기 먹는 하마: AI 전용 칩 전력 소비량 1/10 축소
24시간 가동해야 하는 AI 데이터센터는 전기 먹는 하마다.
엔비디아 H100은 전력 소비량이 최대 700W로 기존 데이터센터 대비 +2배 이상 높다.
또한 블랙웰 B100은 1,000W, B200은 1,200W로 향후 전력 소비는 더욱 늘어날 전망이다.
반면 AI 전용 칩의 전력 소비량은 80~100W 수준으로 엔비디아 GPU 대비 전력 효율은 +10배 높은 것으로 판단된다.
■생성형 AI (챗GPT) 1회 서비스 전력 소모량 2.9Wh, 구글 검색 대비 +10배
KB증권은 동 조사분석자료를 기관투자가 또는 제3자에게 사전 제공한 사실이 없습니다. 본 자료를 작성한 조사분석담당자는 해당 종목과 재산적 이해관계가 없습니다. 본 자료 작성자는 게제된 내용들이 본인의 의견을 정확하게 반영하고 있으며, 외부의 부당한 압력이나 간섭 없이 신의 성실 하게 작성되었음을 확인합니다.