题目 ID: q-6526

手写论文中的堆叠的self-attention和cross-attention层,解释一下有什么作用?

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

京东