题目 ID: q-5066
LoRA的原理是什么?LoRA是否只能在Linear层插入?为什么不能插入在LayerNorm之后?这会对训练稳定性造成什么影响?
NLP与大模型
当前状态:未收藏、未完成
常见追问
- 项目:说下LoRA的原理,LoRA是不是只能在Linear层插?为什么不能插在LayerNorm之后?这会对训练稳定性造成什么影响
- 说下LoRA的原理吧,LoRA是不是只能在Linear层插?你有没有了解过为什么不能插在LayerNorm之后?这会对训练稳定性造成什么影响
常见公司
美团