题目 ID: q-5066

LoRA的原理是什么?LoRA是否只能在Linear层插入?为什么不能插入在LayerNorm之后?这会对训练稳定性造成什么影响?

频次 2
NLP与大模型

当前状态:未收藏、未完成

常见追问

  • 项目:说下LoRA的原理,LoRA是不是只能在Linear层插?为什么不能插在LayerNorm之后?这会对训练稳定性造成什么影响
  • 说下LoRA的原理吧,LoRA是不是只能在Linear层插?你有没有了解过为什么不能插在LayerNorm之后?这会对训练稳定性造成什么影响

常见公司

美团