Adversarial Cross-View Disentangled Graph Contrastive Learning

https://arxiv.org/pdf/2209.07699

Adversarial Cross-View Disentangled Graph Contrastive Learning,2022,arxiv preprint

总结: 信息论(IB)角度出发,故事讲得比较完整,说的挺有道理的,disentangled可以自圆其说。至于adversarial,感觉是拿来凑数的,从消融实验也可以看出,添加对抗训练后,并没有给模型性能带来太大提升。

作者的disentanglement我觉得还挺有意思的,从数据增强出发,引出两个视角之间的InfoMax会引入标签无关的冗余信息。作者通过对图编码器学习到的图嵌入z\mathbf z进行disentangle,得到augmentation-induced factors对应的表示zaug\mathbf z^{aug}和图essential factors对应的表示zinv\mathbf z^{inv},然后对比两个视角的inv嵌入来优化模型。感觉这个点创新性比较足,而且非常符合我们的直觉。

阅读更多...

Disentangled Contrastive Learning on Graphs

https://proceedings.neurips.cc/paper/2021/file/b6cda17abb967ed28ec9610137aa45f7-Paper.pdf

Disentangled Contrastive Learning on Graphs,2021,NIPS

总结: 把disentangled gnn引入图对比学习中,作者设计了一种distangled图编码器,为每个图生成K个factorized representation。编码器的具体实现上非常简单,就是使用K个参数不同的GNN,生成K个表示。所谓disentangle,就是现实世界中的图往往都是在多种因素驱动下形成的,比如社交图中,可能是在朋友、同事、兴趣爱好等多种因素的驱动下形成的。因此我们只用一个representation来描述这个图是不够精确的,我们应该对这些因素进行解耦,为每个因素都学习一个独立的representation。

由于每个样本有K个表示,所以作者还需要重新设计模型优化模式,通过ELBO来优化模型。文章方法比较简单,感觉是把有监督中的一些disentangled方法和优化方式引入对比学习中,不过从实验结果来看,作者提出的模型性能确实很好。

阅读更多...

Enhancing Graph Contrastive Learning with Node Similarity

https://arxiv.org/pdf/2208.06743

Enhancing Graph Contrastive Learning with Node Similarity,2022,arxiv preprint

总结:一篇针对负样本采样的文章。作者认为现有的很多GCL方法是次优的,原因有二:(1)直接将所有不同节点看作负样本不好,因为这些节点里面包含false-negative samples,即那些和query节点具有相同语义(相同标签)的节点;(2)正样本通常只有1个,这不足以让模型拥有push positive sample together的能力。作者设计了一种方案,基于节点间相似度来选取正负样本,并对GCL的对比损失进行改进,提出了一种enhanced objective。文章方法简单,思想和Protopical Graph Contrastive Learning那篇比较像,不过多了一个正样本的选取。

阅读更多...

约瑟夫环问题

约瑟夫环是一个经典的算法题,总是忘记其解法,今天写篇博客记录下,方便复习同时加深印象!

LeetCode 剑指Offer 62

这里以LeetCode 剑指 Offer 62题为例,讲解下约瑟夫环问题的解决思路([Leetcode主站 1823](1823. 找出游戏的获胜者)也是同样的问题)。

题目描述如下:

“0,1,···,n-1这n个数字排成一个圆圈,从数字0开始,每次从这个圆圈里删除第m个数字(删除后从下一个数字开始计数)。求出这个圆圈里剩下的最后一个数字。例如,0、1、2、3、4这5个数字组成一个圆圈,从数字0开始每次删除第3个数字,则删除的前4个数字依次是2、0、4、1,因此最后剩下的数字是3。”

阅读更多...

GRAPH CONTRASTIVE LEARNING WITH PERSONALIZED AUGMENTATION

https://arxiv.org/pdf/2209.06560

GRAPH CONTRASTIVE LEARNING WITH PERSONALIZED AUGMENTATION,2022,arxiv preprint

总结: 本文提出了一种自适应增强图对比学习方法PGA。和现有自动GCL方法相比,它包含一个增强策略选择器,允许为每个图根据其自身特性选择最优的增强策略组合(印象中其他自动GCL也能实现这个效果)。从实验结果看,PGA性能还是不错的,不过个人认为本文提出的增强策略选择器的可解释较差,作者没有给出相关理论证明,甚至没有太多的关于为什么这样设计的文字解释,借鉴意义不大。

阅读更多...

Augmentation-Free Graph Contrastive Learning with Performance Guarantee

https://arxiv.org/pdf/2204.04874

Augmentation-Free Graph Contrastive Learning with Performance Guarantee,2022,arxiv preprint

总结:本文提出了一种新的无需增强的图对比学习模型AF-GCL。数据增强的目的是让我们能够选取正负样本对,以此为自监督信号学习节点表示,那么无须增强的AF-GCL是怎样选取正负样本对的呢?AF-GCL的方案很简单,根据节点嵌入选择正负样本对。具体来说,对于query节点,从它T-hop邻居节点集合中,选择相似度最高的K个节点作为正样本,其余节点作为负样本。作者从理论上分析并证明了AF-GCL可以同时适用于同构和异构图,并且能有很不错的表现,而现有的GCL方法在异构图上通常表现较差。

总的来说,这篇文章还是挺好的,虽然提出的模型比较简单粗暴,但是实验效果还不错,并且文章中给了很多理论分析和证明。看了眼,最近两年,关于GNN的频域研究似乎挺火的,看到了好几篇相关的顶会文章,作者应该是基于现有的一些研究,迁移到对比学习中来了。这篇文章目前还没投出去,盲猜作者投了一手ICML2022。

阅读更多...

Adversarial Graph Contrastive Learning with Information Regularization

https://dl.acm.org/doi/pdf/10.1145/3485447.3512183

Adversarial Graph Contrastive Learning with Information Regularization,2022,WWW

总结: 个人觉得这篇文章创新性是比较强的,第一次看到这种将对抗训练引入对比学习中的文章,对抗训练和对比学习结合的方式也比较新颖。关于信息正则化项的理论分析,思路也很清晰,容易看懂,值得借鉴。

实验部分内容不多,但是相对比较完整,ARIEL性能也还不错。

阅读更多...

Simple unsupervised graph representation learning

https://ojs.aaai.org/index.php/AAAI/article/view/20748/20507

https://github.com/YujieMo/SUGRL

Simple unsupervised graph representation learning,2022,AAAI

总结: 现有的GCL方法通常时间复杂度比较高,导致难以应用到大规模数据集,主要有一下3点原因:(1)数据增强;(2)高维嵌入;(3)损失函数。本文作者提出了一种简单高效的图对比学习方法SUGRL,作者删掉了GCL中的数据增强和损失函数,并且重新设计了一个boundary loss。和现有GCL方法相比,SUGRL训练速度确实非常快,并且在节点分类任务上也具有不错的性能。总的来说,这篇文章还是不错的,值得借鉴,如果有更多关于SUGRL的理论分析和证明就更好了。

阅读更多...

CCGL: Contrastive Cascade Graph Learning

https://arxiv.org/pdf/2107.12576

https://github.com/Xovee/ccgl

CCGL: Contrastive Cascade Graph Learning,2022,TKDE

总结:算是一篇领域迁移的文章吧,提出了CCGL模型,将对比学习引入级联图学习中,同时结合了预训练-微调模式和知识蒸馏。文章值得参考的一点应该是在级联图中如何进行数据增强,CCGL其他的模块感觉参考意义不大,有点A+B的感觉。必须要吐槽的一点是,文章Introduction和动机写的太烂了!!读这部分的时候,明显感觉到,先东拼西凑设计好模型,再编故事。虽然我们可能经常这样,但是作者故事编的有点太烂了,强行根据CCGL的功能来编这篇工作希望解决的问题。

阅读更多...

Augmentation-Free Self-Supervised Learning on Graphs

https://ojs.aaai.org/index.php/AAAI/article/view/20700/20459

https://github.com/Namkyeong/AFGRL

Augmentation-Free Self-Supervised Learning on Graphs ,2022,AAAI

总结:挺好的一篇文章,故事讲得很完整,方法也挺新颖的。作者提出了一种无须增强的GCL方法,利用基于节点表示的kNN获取正样本集合的。在此基础上,考虑到节点的局部机构信息和全局语义信息,使用基于结构的kNN算法和聚类算法,对第一步获取到的正样本集合进行过滤,达到降噪的目的。总的来说,方法比较新,思路很清晰,故事也很完整。至于实验结果,基础对比实验效果一般,不过消融实验、可视化和参数敏感性实验都挺好的,内容比较完整。

阅读更多...
  • Copyrights © 2021-2022 Yin Peng
  • 引擎: Hexo   |  主题:修改自 Ayer
  • 访问人数: | 浏览次数:

请我喝杯咖啡吧~

支付宝
微信