题目 ID: q-5989

八股:transformer的结构,注意力机制为什么除以缩放因子,为什么要使用不同的线性变化矩阵,transformer中哪些阶段是并行的,哪些阶段是并行的为什么

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

百度