题目 ID: q-5742 在计算 attention 时有什么节省显存资源的策略吗?比如将两个样本拼到一起计算attention等。 频次 1 NLP与大模型 收藏 标记完成 当前状态:未收藏、未完成 常见追问 暂无追问变体。 常见公司 阿里巴巴