题目 ID: q-5989 八股:transformer的结构,注意力机制为什么除以缩放因子,为什么要使用不同的线性变化矩阵,transformer中哪些阶段是并行的,哪些阶段是并行的为什么 频次 1 NLP与大模型 收藏 标记完成 当前状态:未收藏、未完成 常见追问 暂无追问变体。 常见公司 百度