题目 ID: q-5742

在计算 attention 时有什么节省显存资源的策略吗?比如将两个样本拼到一起计算attention等。

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

阿里巴巴