题目 ID: q-11554

6.为什么用并联的双塔模型,介绍一下DIN的注意力池化,他和Transformer的selfattention有什么区别

频次 1
推荐系统

当前状态:未收藏、未完成

常见追问

暂无追问变体。

常见公司

美团