当前位置: 学术关注
齐连永教授团队两篇论文在WWW 2026(CCF A会议)发表
发布者:董梦琦 发布时间:2026-01-14 访问次数:10

TheWebConf (WWW) 是网络系统与应用交叉领域的顶级学术会议,被中国计算机学会列为CCF A类国际会议,是互联网发展的风向标,录用率常年维持在20%左右。


论文题目:Joint Similar User Exploration and Informative Behavior Guidance for Multi-Modal New Item Recommendation

第一作者:谢建业(2024级博士研究生)


收录会议:TheWebConf (WWW-26)


指导教师:齐连永


论文概述:该成果旨在提升多模态新物品推荐任务中对用户真实兴趣与有效行为的建模能力。传统的新物品推荐方法通常依赖简单的共现信号或整体用户表示,难以在缺乏交互历史的情况下准确刻画新物品的潜在吸引力,同时忽略了不同用户之间偏好相似性差异以及历史行为中信息量的不均衡性。针对上述问题,研究团队提出了SuperGJoint Similar User Exploration and Informative Behavior Guidance) 方法,通过联合相似用户挖掘与信息性行为引导机制,实现对多模态新物品的精准推荐。具体而言,SuperG 首先设计相似用户探索模块,从用户历史交互中识别与目标用户具有一致偏好的相似用户群体;随后引入信息性行为挖掘模块,从目标用户及其相似用户的历史行为中筛选对新物品推荐最具判别力的关键行为信号;在此基础上,SuperG 进一步提出行为引导的混合推荐模块,将挖掘到的行为线索作为指导信号,协同多模态内容特征完成新物品的推荐决策。实验结果表明,SuperG 在多个真实数据集上的新物品推荐任务中均显著优于现有方法,有效提升了推荐准确性与鲁棒性,为多模态新物品推荐提供了一种兼顾用户相似性建模与行为信息挖掘的统一解决方案。




论文题目:PLIKD: Prompt Learning with Instance-aware Knowledge Distillation for Web-scale Semantic Image Classification

第一作者:谢建业(2024级博士研究生)


收录会议:TheWebConf (WWW-26)


指导教师:齐连永


论文概述:该成果旨在提升Web 场景下视觉–语言模型在语义图像分类任务中的泛化能力与鲁棒性。随着 Web 上多模态内容的快速增长,面向复杂、动态分布的语义理解与分类已成为多媒体搜索与推荐等应用中的关键问题。尽管提示学习(Prompt Learning)在增强视觉–语言模型方面展现出良好效果,但现有方法往往对训练阶段的基类产生过拟合,在未见类别及分布偏移场景下性能显著下降,尤其在类别不断涌现、数据分布频繁变化的 Web 规模数据中这一问题更加突出。针对上述挑战,研究团队提出了 PLIKDPrompt Learning with Instance-aware Knowledge Distillation) 方法,通过引入实例感知的知识蒸馏机制,显著提升模型在复杂场景下的泛化能力。具体而言,PLIKD首先设计了实例感知知识提取模块,利用多模态大语言模型,以逐步推理的方式为每个图像实例自动提取与其语义相关的外部知识;在此基础上,PLIKD进一步提出实例感知知识蒸馏模块,通过双教师模型策略引导学生模型学习更加稳健且信息丰富的知识表示,并结合 Smooth and Sparse Optimal Transport 实现细粒度的跨模态对齐,从而有效缓解类别偏移与分布变化带来的性能退化。大量实验结果表明,PLIKDWeb 规模语义图像分类任务中,无论在已见类别还是未见类别设置下,均显著优于现有最优方法,并在多种分布偏移场景中保持稳定性能,为面向开放环境的鲁棒提示学习提供了一种新的技术路径。


Baidu
map