标签: GNN

4 篇文章

thumbnail
使用GPU加速图采样的动机和见解
为什么使用 GPU 采样而不是 CPU 在一个典型的使用 GPU 来加速图神经网络的系统中,每次迭代可以抽象为三个阶段,分别是采样、特征提取和模型训练。在系统初始化部分完成数据集的加载和预处理、定义 Dataloader、Sampler 和模型,随后开始训练,Dataloader 负载加载一个 minibatch,Sampler 对其进行采样得到采样子图,从内存中聚合…
thumbnail
图神经网络系统的挑战
图神经网络借助图强大的数据表示能力和神经网络参数共享、局部连接和强大的拟合能力在社交网络分析、推荐系统、分子预测等多种领域取得了很好的效果,飞速增长的数据规模给图神经网络系统带来了可扩展性的问题。尤其是图中节点之间不规则的连接在基于采样的 GNN 训练中导致了节点的冗余访问,相较于图拓扑数据而言庞大的特征数据在不同的节点或设备之间的传输导致的通信效率低…
thumbnail
关于GNN中若干疑惑的解释
不同图采样模式的区别 minibatch SGD 是在 GPU 内存优先的前提下将 GNN 训练扩展到更大规模数据集上的有效训练方式,然而对于每个 minibatch 中的目标节点,如果使用它的全部 K 阶邻居节点的聚合特征来生成该节点的嵌入表示,那么 minibatch 子图中节点的数量会随着 K 的增大而急剧增加,导致 GPU 内存无法容纳一个子图的特征数据,这就是 GNN 训…
论文学习 PaGraph:Scaling GNN Training on Large Graphs via Computation-aware Caching
 GitHubzhiqi-0/Pagraph   PaGraph 由来自中科大李诚教授团队的林郅琦主导实现,该工作共发表在 SoCC'20 和 TPDS'21 上,代码已开源。 PaGraph 的主要工作是在 GNN 系统中引入了特征缓存来加速训练并提供了一种简单可行的缓存策略;同时设计了一种图分区算法以支持对 GPU 的可扩展性。 背景知识 GNN 图是一种表示能力…