AI 大模型 IndexCache:稀疏注意力优化让长上下文推理提速 1.82 倍 清华大学和 Z.ai 研究团队提出 IndexCache 技术,通过跨层索引复用减少 75% 冗余计算,在长上下文模型上实现 1.82 倍的首 Token 加速... 04/02 • wanyujun • 152 阅读 阅读全文 →