MOOC异构信息网络中基于图卷积网络的知识点推荐

Jibing Gong, Shen Wang, Jinlong Wang, Wenzheng Feng, Hao Peng, JieTang, and Philip S. Yu.  Attentional Graph Convolutional Networks forKnowledge Concept Recommendation in MOOCs in a Heterogeneous View. In 43rd International ACM SIGIR Conference on Research and Developmentin Information Retrieval (SIGIR ’20).

Paper:
http://keg.cs.tsinghua.edu.cn/jietang/publications/Sigir20-Gong-et-al-MOOC-concept-recommendation.pdf

大规模在线学习 MOOCs(慕课)已经是一种很流行的学习方式,课程推荐服务也已在慕课平台中得到了应用,但通常一个课程还会包含很多小视频,这些视频会覆盖特定的课程内容相关知识点,为了更好的抓住用户对特定知识点的兴趣或学习需求,提升课程学习通过率,我们尝试从微观角度更细粒度地学习用户的兴趣并进行知识点的推荐。慕课平台包含了多种实体和多类型的关系,学生、讲师、课程、视频、知识点等实体及它们之间相互关联多种关系,这是一个典型的大规模异构信息网络,如图 1 所示。
图1 MOOC异构信息网络结构
为了更好地挖掘微观角度下的兴趣点,我们一方面分析定义了学生的属性特征和知识点的语意特征,另一方面,本文试图将学生(用户),知识点及其在整个异构信息网络中的上下文信息融合在一起建立元路径(Meta-path),抽取不同关系下的 MOOC 异构信息网络中的上下文信息,并以学生、知识点为网络节点,利用图卷积网络来对学生和知识点进行向量表示学习,再使用注意力机制融合不同元路径下节点的向量表示,最后使用矩阵分解的方法完成推荐的任务。我们所提出的推荐模型(简称 ACKRec)架构如图 2 所示。

图2 ACKRec推荐模型架构

我们进行了丰富的实验分析,不同元路径组合的实验分析如图 3 所示。我们尝试了多种元路径组合的方案,不同的元路径对模型性能有不同程度提升作用,多条元路径融合会比单条元路径更具表现能力,但是随着的元路径条数的增加,其对与整个模型的性能提升也会变得有限。


如图 4 所示,通过多个评估指标(包括 HR@K、NDCG@K、MRR 和 AUC),本文将 ACKRec 推荐模型与 BPR、MLP、FM、FISM、NAIS、NASR、metapath2vec,以及模型的一些变种方法进行了对比分析,以上指标均显示出本文模型的优越性。最后,本文还分析了一些参数对 ACKRec 推荐模型性能的影响。

AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
入门异构信息网络图卷积网络
相关数据
参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

异构信息网络技术

与homogeneous同构信息网络相区别,异构信息网络的网络模式限定了对象集合以及对象间关系的类型约束。这些约束使得异构信息网络具有半结构化的特点,引导着网络语义的探究。异构信息网络可以由许多相互连接的、大规模的数据集来构造,范围涉及社会、科学、工程、商业应用等。

在线学习技术

在计算机科学中,在线学习是一种机器学习方法。和立即对整个训练数据集进行学习的批处理学习技术相反,在线学习的数据按顺序可用,并在每个步骤使用未来数据更新最佳预测器。

矩阵分解技术

矩阵分解是一种将矩阵简化为其组成部分的方法。这种方法可以简化更复杂的矩阵运算,这些运算可以在分解的矩阵上执行,而不是在原始矩阵本身上执行。它的衍生Non-negative matrix factorization也被用于降维等操作上。

图卷积网络技术

假设有一张图,要做分类,传统方法需要手动提取一些特征,比如纹理啊,颜色啊,或者一些更高级的特征。然后再把这些特征放到像随机森林等分类器,给到一个输出标签,告诉它是哪个类别。而深度学习是输入一张图,经过神经网络,直接输出一个标签。特征提取和分类一步到位,避免了手工提取特征或者人工规则,从原始数据中自动化地去提取特征,是一种端到端(end-to-end)的学习。相较于传统的方法,深度学习能够学习到更高效的特征与模式。

推荐文章
暂无评论
暂无评论~