题目 ID: q-5743

二维的attention mask矩阵是一个耗显存的操作,有什么优化策略?比如用一维的实现二维的功能之类的。

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

阿里巴巴