题目 ID: q-7239

Transformer Encoder 和 Decoder 的输入输出和结构BatchNorm 更多用在视觉上,LayerNorm 更多用在语言上,为什么有没 chatGLM,LLaMA 等部署、微调经历?

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

腾讯