퀵하게 보기
- 1/12, 딥시크 ‘대형 언어 모델을 위한 조건부 메모리 및 확장형 조회’ 논문 공개
- Engram 아키텍처는 연산 효율을 메모리로 보완, GPU 공급이 제한적인 중국 AI 인프라에 긍정적
- Engram으로 서버용 DRAM의 전략적 중요성 제고, CXMT 중장기 역할 강화될 것
■ 1/12, 딥시크 ‘대형 언어 모델을 위한 조건부 메모리 및 확장형 조회’ 논문 공개
지난 1월 12일, 딥시크(DeepSeek)는 대형 언어 모델(LLM)의 연산 효율성을 제고하기 위한 새로운 연구 논문을 공개했다.
이는 딥시크가 2025년 10월 발표한 이미지 기반 텍스트 인식 기술(OCR) 이후 약 3개월 만에 추가로 제시한 연산 효율 개선 방안이다.
기존 OCR 접근법이 텍스트를 시각적 표현으로 재구성해 처리함으로써 토큰 간 문맥 관계를 시각 인식 방식으로 파악하고 대규모 문맥 연산 부담을 완화하는 데 초점을 맞췄다면, 이번에 발표된 Engram은 조건부 메모리(Conditional Memory)를 활용해 불필요한 반복 연산 자체를 줄이는 데 목적을 둔다.
Engram은 입력 과정에서 반복적으로 등장하는 패턴이 감지될 경우, 이를 매번 신경망 연산으로 처리하지 않고 사전에 저장된 메모리에서 해당 결과를 직접 조회 (lookup)해 사용하는 구조다.
이를 통해 대형 언어 모델의 추론 과정에서 연산량을 구조적으로 절감하고, 새로운 관점으로 접근해 효율성을 개선하는 방식을 제시한다.
KB증권은 동 조사분석자료를 기관투자가 또는 제3자에게 사전 제공한 사실이 없습니다. 본 자료를 작성한 조사분석담당자는 해당 종목과 재산적 이해관계가 없습니다. 본 자료 작성자는 게제된 내용들이 본인의 의견을 정확하게 반영하고 있으며, 외부의 부당한 압력이나 간섭 없이 신의 성실 하게 작성되었음을 확인합니다.