题目 ID: q-5743 二维的attention mask矩阵是一个耗显存的操作,有什么优化策略?比如用一维的实现二维的功能之类的。 频次 1 NLP与大模型 收藏 标记完成 当前状态:未收藏、未完成 常见追问 暂无追问变体。 常见公司 阿里巴巴