题目 ID: q-6639

为什么Bert内部采用batch layer(没听太清)?

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

未知