퀵하게 보기
- 작년 초, DeepSeek R1의 공포는 잠시였고 AI 시장 성장은 가속됐던 제본스 역설의 재현
■ 작년 초, DeepSeek R1의 공포는 잠시였고 AI 시장 성장은 가속됐던 제본스 역설의 재현
AI 모델이 방대한 정보를 기억하고 처리하는 과정을 획기적으로 압축한 TurboQuant 기술을 구글이 발표.
AI 모델은 프롬프트를 읽고 답하는 과정에서 나온 정보들을 Key-Value Cache (KV Cache) 메모리에 임시 저장.
그런데 처리할 정보가 많아질수록 작동 속도가 느려지고 막대한 컴퓨팅 자원을 소모.
KV Cache는 AI 모델이 추론을 할 때 속도를 떨어뜨리고 컴퓨팅 자원을 소모하는 핵심 요소.
그런데 TurboQuant는 KV Cache 메모리를 1/6만 사용하고도 처리의 정확도를 유지하고, 컴퓨팅 자원을 적게 사용하는 만큼 H100 GPU 기준으로 속도는 최대 8배 향상된다고 함.
AI 모델이 추론을 할 때 문맥을 기억하는 데에 필요한 메모리가 줄어드는 것.
하지만 AI 모델을 사용하기 위해 메모리에 적재하기 위한 메모리 용량이 덜 필요한 건 아님.
AI 모델을 학습하는 단계에서 막대한 메모리 용량이 필요하다는 사실에도 변함은 없음.
하지만 추론 과정에서 메모리가 덜 필요해지는 것만으로도, AI 모델 가동에 필요한 비용이 줄어들고 AI 모델 사용 비용 역시 더 낮아질 수 있다는 걸 의미.
AI 수요 증가 속도를 데이터센터 건설 속도가 따라가지 못하는 상황에서, 소프트웨어 기술 변화만으로 AI 인프라의 단위 생산성을 획기적으로 끌어 올리는 기술.
하이퍼스케일러의 관점에서 보면, 현재 운용 중인 AI 데이터센터에서 더 많은 작업을 수행할 수 있게 되면서 사실상 AI 데이터센터를 증설하는 것과 같은 효과를 낼 수 있음
KB증권은 동 조사분석자료를 기관투자가 또는 제3자에게 사전 제공한 사실이 없습니다. 본 자료를 작성한 조사분석담당자는 해당 종목과 재산적 이해관계가 없습니다. 본 자료 작성자는 게제된 내용들이 본인의 의견을 정확하게 반영하고 있으며, 외부의 부당한 압력이나 간섭 없이 신의 성실 하게 작성되었음을 확인합니다.