题目 ID: q-11554 6.为什么用并联的双塔模型,介绍一下DIN的注意力池化,他和Transformer的selfattention有什么区别 频次 1 推荐系统 收藏 标记完成 当前状态:未收藏、未完成 常见追问 暂无追问变体。 常见公司 美团