Prototypical Graph Contrastive Learning

https://arxiv.org/pdf/2106.09645

Prototypical Graph Contrastive Learning,2021,arxive preprint

总结:作者提出了一种graph-graph图对比学习方法PGCL,用于无监督图分类任务。和其他图对比学习方法相比,作者最大的创新点就是负样本采样策略加权对比损失。现有的GCL方法,对于负样本的选取基本都是均匀采样,不考虑负样本和锚点之间的相似度。作者在PGCL中首先对样本进行聚类,计算每个类别的原型向量,然后将和锚点处于不同簇的其他样本视作真负样本,处于相同簇的样本视为假负样本。另外,作者根据样本所在簇的原型和锚点所在簇原型之间距离计算权重用于对比损失的定义。感觉目前学术界对于GCL的研究,基本都是将CV和NLP中对比学习方法拓展到图邻域,可以多多关注CV中对比学习的最新进展。2021ICLR中有一篇名为“ PROTOTYPICAL CONTRASTIVE LEARNING OF UNSUPERVISED REPRESENTATIONS”的CV论文,我没有看着篇文章,不知道和本文是否有联系。

阅读更多...

GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training

https://arxiv.org/pdf/2006.09963

https://github.com/THUDM/GCC

GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training,2020,KDD

总结:简单来说,作者提出了一种subgraph-subgraph level图对比学习框架GCC,对GNNs进行预训练后将模型迁移到其他数据集。框架本身就是非常常规的对比学习框架,目标函数也是常规的对比损失,没什么特别之处。值得关注的一点是作者如何生成定义、增强子图的。作者的实验比较丰富,但是实验结果并没有什么亮眼之处。个人感觉,这篇能发顶会主要原因:一是论文写的比较早,应该是第一篇用对比学习来搞图预训练任务的,开创意义比较大;二是作者比较会写论文,文章立意比较高。

阅读更多...

GraphCL: Contrastive Self-Supervised Learning of Graph Representations

https://arxiv.org/pdf/2007.08025

https://github.com/Shen-Lab/GraphCL

GraphCL: Contrastive Self-Supervised Learning of Graph Representations,2020,NIPS

总结:论文很短,作者提出对比学习框架GraphCL也简单易懂,但是实验结果很不错。作者借鉴类似GraphSAGE里面子图构造方法,首先为每个节点采样L-hop子图,然后对子图添加随机扰动得到不同的view,然后在两个view中进行node-node对比,通过最大化正样本与锚点之间距离、最小化负样本与锚点间的距离来学习节点表示。GraphCL算是图对比学习里的开山之作,后面很多文章都是基于这个方法的进一步拓展和深入。

阅读更多...

Contrastive Self-supervised Learning for Graph Classification

https://www.aaai.org/AAAI21Papers/AAAI-7017.ZengJ.pdf

Contrastive Self-supervised Learning for Graph Classification ,2021,AAAI

总结:这是一篇关于图分类的图对比学习方法。作者在论文中提出了两种框架:CSSL-Pretrain和CSSL-Reg,同时涵盖了图对比学习中两种常见的模式(预训练/无监督或监督)。作者的方法很常规,和现有的一些GCL方法相比创新性并不强,只是直接将CV中对比学习框架搬到图分类任务中。另外,作者的实验结果挺好的。

阅读更多...

Motif-Driven Contrastive Learning of Graph Representations

https://ojs.aaai.org/index.php/AAAI/article/view/17986/17791

https://arxiv.org/pdf/2012.12533

Motif-Driven Contrastive Learning of Graph Representations,2021,AAAI-21 Student Papers and Demonstrations

总结:文章动机挺好的,希望通过motif来采样语义信息更丰富的子图来执行GCL,用于GNN的预训练。而且本文实验做的很丰富,实验结果看起来也挺好的。不过,文章写得有点乱(好像是本科生写的),看起来有点费劲,个人感觉有些地方描述的不太准确,而且有点冗余。对于这篇文章有两点思考:1. 作者这种motif学习方式可不可行?有没有道理?而且作者用的数据集是分子数据集,在其他类型数据集中,这种方法可不可行?2. 个人感觉利用子图进行对比学习是一个挺好的方向,有没有其他和motif类似的子图生成方法?

阅读更多...

Deep Graph Contrastive Representation Learning

https://arxiv.org/pdf/2006.04131

https://github.com/CRIPAC-DIG/GRACE

Deep Graph Contrastive Representation Learning,2020,arxiv preprint

总结:20年的一篇早期图对比学习的文章,作者主要针对19年发表的DGI模型的两个弊端进行改进,提出了一种比较简单的GCL框架GRACE(现在大部分GCL方法都沿用了这一种框架)。由于现在大部分GCL方法都是采用这种node-level对比框架,数据增强策略也更丰富,因此这篇文章和现有其他GCL方法相比并没有什么亮眼的创新之处。

阅读更多...

Multi-Scale Contrastive Siamese Networks for Self-Supervised Graph Representation Learning

https://arxiv.org/pdf/2105.05682

https://github.com/GRAND-Lab/MERIT

Multi-Scale Contrastive Siamese Networks for Self-Supervised Graph Representation Learning,2021,arxiv preprint

总结:作者将孪生网络和图对比学习结合到一起,提出了一种新的图对比学习方法MERIT。希望利用BYOL模型中自举机制解决现有图对比学习方法中负样本需要刻意选择的问题(但是我理解的这篇文章并没有用到BYOL中的思想,也没有解决这一问题)。具体来说,一方面通过孪生GNNs,设计了一种跨网络对比来从历史表示中提取知识;另一方面,为了进一步丰富自监督信号,引入了另一种不同尺度下的跨视角对比。总的来说,本文的创新点可以看做是两种工作的合并,实验结果还不错。

阅读更多...

Learning Graph Representation by Aggregating Subgraphs via Mutual Information Maximization

https://arxiv.org/pdf/2103.13125

Learning Graph Representation by Aggregating Subgraphs via Mutual Information Maximization,2021,arxiv preprint

总结: 前面文章提到过,图对比学习中常用的数据增强策略可以归纳为4种,mask属性、增删节点、增删边和子图。本文作者从子图入手提出了一种图对比学习模型。具体来说,作者提出了一种自回归子图生成模型,然后将生成的子图聚合到一起作为新图,再和原图进行对比,用于无监督/半监督图分类任务。另外作者还添加了一些小trick,进一步提高了模型性能。

阅读更多...

Graph Contrastive Learning Automated

https://arxiv.org/pdf/2106.07594

https://github.com/Shen-Lab/GraphCL_Automated

Graph Contrastive Learning Automated ,2021,ICML

总结:可以看做“Graph Contrastive Learning with Augmentations”这篇文章的优化工作。本文作者提出了一种自动图对比学习策略JOAO,并基于此提出了一种变体JOAOv2。具体来说,由于图数据集的异质性,现有的图对比学习方法需要根据不同数据集采用试错法手动选取增强策略,这限制了GraphCL的通用性。作者受对抗学习的启发,提出了一种双层优化机制,将增强策略的采样分布整合到模型目标损失中,通过梯度下降进行优化,自动选取最适合当前数据集的增强策略。大量实验证明作者提出的JOAO策略是有效的,自动选取的增强策略和人工试错法得到的增强策略基本一致。

阅读更多...

Contrastive Multi-View Representation Learning on Graphs

http://proceedings.mlr.press/v119/hassani20a/hassani20a.pdf

https://github.com/kavehhassani/mvgrl

Contrastive Multi-View Representation Learning on Graphs ,2020,ICML

总结:这篇文章应该算是图对比学习中非常值得一看的文章,个人感觉创新性比较强。作者从多视角入手,提出了一种新的多视角图对比学习模型,通过跨视角对比来训练模型,学习更好的节点/图表示,用于下游任务。文章的实验比较丰富,探讨了多种对比策略和视角组合,实验结果也非常棒,无论在节点分类还是图分类任务中,和无监督方法相比性能都取得了较大提升,和无监督方法也具有可比性。

阅读更多...
  • Copyrights © 2021-2022 Yin Peng
  • 引擎: Hexo   |  主题:修改自 Ayer
  • 访问人数: | 浏览次数:

请我喝杯咖啡吧~

支付宝
微信