题目 ID: q-4623 PagedAttention将KV Cache切分为固定大小的块,通过一张“页表”将逻辑上的连续token映射到物理上不连续的显存块。 频次 2 NLP与大模型 收藏 标记完成 当前状态:未收藏、未完成 常见追问 暂无追问变体。 常见公司 阿里巴巴