题目 ID: q-7369

Transformer 中为什么要用多头注意力?单头注意力有什么局限性?

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

腾讯