关于GNN中若干疑惑的解释 2023-10-31 16:15 | 211 | GNN Sys 2937 字 | 18 分钟 不同图采样模式的区别 minibatch SGD是在GPU内存优先的前提下将GNN训练扩展到更大规模数据集上的有效训练方式,然而对于每个minibatch中的目标节点,如果使用它的全部K阶邻居节点的聚合特征来生成该节点的嵌入表示,那么minibatch子图中节点的数量会随着K的增大而急剧增加,导致GPU内存无法容纳一个子图的特征数据,这就是GNN训… DDPGNN二分图图采样数据并行
论文学习 PaGraph:Scaling GNN Training on Large Graphs via Computation-aware Caching 2023-10-23 13:46 | 205 | GNN Sys 1975 字 | 8 分钟 GitHubzhiqi-0/Pagraph PaGraph由来自中科大李诚教授团队的林郅琦主导实现,该工作共发表在SoCC'20和TPDS'21上,代码已开源。 PaGraph的主要工作是在GNN系统中引入了特征缓存来加速训练并提供了一种简单可行的缓存策略;同时设计了一种图分区算法以支持对GPU的可扩展性。 背景知识 GNN 图是一种表示能力… GNN图划分数据并行缓存