题目 ID: q-6127

一层 Transformer 内部的时间复杂度?以及 Attention 的占比?

频次 1
NLP与大模型

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

字节跳动