题目 ID: q-6526 手写论文中的堆叠的self-attention和cross-attention层,解释一下有什么作用? 频次 1 NLP与大模型 收藏 标记完成 当前状态:未收藏、未完成 常见追问 暂无追问变体。 常见公司 京东