구글의 Turbo Quant 공개 — KV Cache 6배 축소 주장
구글이 LLM의 메모리 소비를 줄이기 위한 압축 알고리즘 Turbo Quant를 공개했다는 내용이 보고되었다. 해당 알고리즘은 젬마와 미스트랄 등 오픈소스 모델 테스트에서 KV Cache(키·값 캐시) 메모리 크기를 최대 6배 줄이는 데 성공했다고 알려졌다. 이 기술은 모델 추론 비용과 서버 메모리 부담을 줄여 저전력·저비용 추론 솔루션의 보급을 촉진할 가능성이 있다.
출처
- [[260325_ITforYouFromHana]] (원본 노트)