题目 ID: q-5280

Transformer为什么在attention中要进行scaled(为什么除以√d_k)?

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

通用题库