题目 ID: q-7306 transformer的八股,挺常规的,比如为什么是Ln不是BN,写attention的公式,encoder和decoder怎么交互,decoder几层mha,transformer和rnn的不同 频次 1 NLP与大模型 收藏 标记完成 当前状态:未收藏、未完成 常见追问 暂无追问变体。 常见公司 腾讯