题目 ID: q-5246

Transformer中Attention的本质是什么?你能从数学角度简要解释一下吗?

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

通用题库