题目 ID: q-4623

PagedAttention将KV Cache切分为固定大小的块,通过一张“页表”将逻辑上的连续token映射到物理上不连续的显存块。

频次 2
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

阿里巴巴