文章目录摘要abstract一、代码实践1.1新的数据集合——steam\yelp探寻模型的泛化能力。1.2 尝试从实验数据角度证明特征投毒不包括最终结果。总结摘要代码实验实践。abstractCode Experiment Practice.一、代码实践上周工作代码实验以及相关论文的编写——极度稀疏数据下的多模态长尾推荐。1.1新的数据集合——steam\yelp探寻模型的泛化能力。新的数据集steam游戏数据Users (Nodes): 281210Items (Nodes): 11961Interactions (Edges): 3484694Culture/Subculture Tags:上述数据现在经过5core过滤以及相关的视觉和文字特征进行了提取有一个问题先跑的steam数据现在正在收尾还差几个对比模型没有跑完。我的设计在性能上是不如几个先进对比模型。原因游戏的截图全是 UI 和特效文本介绍全是“魔法、射击”而 Subculture 标签Indie, RPG相对粗粒度。特征本身就很模糊。同时变体BCANM原冷启动最优设计的性能大幅度降低。证实了的理论分析在高度稀疏的图中早期融合会引入严重的乘性高频噪声这些噪声会被消息传递机制指数级放大最终破坏脆弱的协同过滤信号。yelp数据集餐馆地区Users (Nodes): 172656Items (Nodes): 33719Interactions (Edges): 2397975Cities (Cultural Priors):yelp数据仅进行了过滤和提取特征还没有跑出完整结果。新的数据在参数上不能进行大批次训练——amazon8192只能在1024或2048非则模型冷启动性能会崩导致训练时间大幅度拉长原因就是太大导致模型将多次比较同一负样本。。1.2 尝试从实验数据角度证明特征投毒不包括最终结果。MGMAE训练记录之一[巅峰时刻] Epoch 16: Total Loss: 2.5271 | All-Recall: 0.4725 | All-NDCG: 0.3412[崩溃时刻] Epoch 26: Total Loss: 2.0161 | All-Recall: 0.4575 | All-NDCG: 0.2917模型在数学上变得“更优”了。但是它的推荐指标Recall 和 NDCG却发生了灾难性的暴跌 NDCG 从 0.34 直接崩盘到了 0.29。完美呼应了论文里的核心痛点 MGMAE这类复杂的 SOTA 模型包含了复杂的“掩码生成解码器”或“动态路由门控”。在训练初期Epoch 1~16图信号还在正常传播它能达到一个不错的巅峰0.4725。 但在 Epoch 16 之后那些复杂的生成任务和门控网络开始过度拟合Over-fitting。它们为了把 Loss 降得更低开始向图网络中疯狂注入乘性噪声。这种噪声在图卷积中被反复放大最终毒死了协同过滤信号。总结实验结果大体上符合预期正在进行最后的总结。