万本电子书0元读

万本电子书0元读

顶部广告

大规模图神经网络:并行和分布式技术电子书

本书选“十四五”国家重出版物出版规划项目,2025国家出版基金项目。

售       价:¥

纸质售价:¥66.70购买纸书

3人正在读 | 0人评论 6.5

作       者:邵蓥侠,崔斌

出  版  社:机械工业出版社

出版时间:2025-11-12

字       数:19.9万

所属分类: 科技 > 计算机/网络 > 计算机理论与教程

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
本书系统介绍并行与分布式图神经网络的核心技术和实践方法,内容全面、结构清晰,既涵盖理论基础,又包含系统实现与编程案例,具有很高学术价值和工程指导意义。全书共 9 章。第 1 章介绍图神经网络的背景、发展历史和现状,并探索大规模图神经网络的缘由;第 2 章介绍图神经网络模型的基础知识及其应用;第 3 章介绍分布式并行机器学习的流程、训练模式、训练架构、物理架构等基础知识;第 4 章从整体上介绍分布式并行图神经网络训练的流程和方法;第 5 章和第 6 章分别介绍大规模图神经网络的小批次分布式并行训练和全图分布式并行训练方法及其优化技术;第 7 章介绍经典的大规模图神经网络系统;第 8 章介绍大规模图神经网络编程实践案例;第 9 章探讨大规模图神经网络技术的未来发展方向。<br/>【推荐语】<br/>本书选“十四五”国家重出版物出版规划项目,2025国家出版基金项目。<br/>【作者】<br/>邵蓥侠,北京邮电大学计算机学院教授,国家高层次青年人才,博士生导师。研究方向为图数据管理、大规模图计算、AI4Sys等。主持3项国家自然科学基金项目、1项科技创新2030“新一代人工智能”重大项目子课题以及多项CCF/CAAI产学研合作基金。在数据库和人工智能领域的著名会议和期刊已发表高质量学术论文70余篇,其中第一作者/通讯作者发表CCF-A类期刊和会议论文20余篇,出版英文学术专著1部;选北京市科技新星,获北京市高等教育教学成果奖二等奖、ACM SIGMOD中国新星奖、数据库领域顶级国际会议VLDB 2022最佳常规研究论文奖、数据库领域重要国际会议DASFAA 2020最佳学生论文奖等。指导学生获全国大学生计算机系统能力大赛-(首届)数据库管理系统设计赛一等奖、第四届实时计算Flink挑战赛亚军;长期担任多个重要国际会议的程序委员和著名国际期刊的审稿人。<br/>
目录展开

PREFACE 前言

CHAPTER1 第1章 引言

1.1 图神经网络

1.1.1 什么是图神经网络

1.1.2 图神经网络的发展历史

1.1.3 图神经网络的现状

1.2 大规模图神经网络

1.2.1 大规模图神经网络的缘由

1.2.2 大规模图神经网络与分布式训练

1.2.3 分布式图神经网络的困难与挑战

1.3 本书组织

参考文献

CHAPTER2 第2章 图神经网络模型

2.1 图的表示

2.2 图神经网络的表示

2.3 典型的图神经网络模型

2.3.1 门控图序列神经网络

2.3.2 图卷积神经网络

2.3.3 图注意力网络

2.3.4 生成式图神经网络模型

2.4 图神经网络的应用

2.4.1 社交网络

2.4.2 生物与医疗

2.4.3 金融与风控

2.4.4 物理领域

2.4.5 交通领域

2.4.6 推荐系统

2.5 小结

参考文献

CHAPTER3 第3章 分布式并行机器学习

3.1 机器学习的基础知识

3.1.1 基本概念

3.1.2 模型训练

3.1.3 反向传播算法

3.1.4 梯度下降算法

3.2 分布式并行机器学习的流程

3.3 分布式并行机器学习的训练模式

3.3.1 数据并行

3.3.2 模型并行

3.3.3 流水并行

3.3.4 张量并行

3.3.5 混合专家并行

3.3.6 完全分片的数据并行

3.4 分布式并行机器学习的训练架构

3.4.1 分布式训练架构

3.4.2 模型更新策略

3.5 分布式并行机器学习的物理架构

3.5.1 单机多卡分布式并行训练环境

3.5.2 多机集群分布式并行训练环境

3.6 小结

参考文献

CHAPTER4 第4章 分布式并行图神经网络训练

4.1 图神经网络训练的基本流程

4.1.1 全图训练

4.1.2 小批次训练

4.2 图神经网络与深度神经网络的比较

4.3 分布式并行图神经网络训练

4.3.1 小批次分布式并行图神经网络训练

4.3.2 全图分布式并行图神经网络训练

4.4 小结

参考文献

CHAPTER5 第5章 小批次分布式并行图神经网络训练与优化

5.1 朴素的小批次分布式并行训练

5.1.1 训练流程

5.1.2 问题与不足

5.2 执行引擎优化

5.2.1 小批次间的算子并行训练

5.2.2 推拉混合的并行训练

5.2.3 基于历史嵌入的并行训练

5.2.4 基于计算分解的数据并行训练

5.3 图采样及其优化

5.3.1 基本的图采样方法

5.3.2 分布式图采样方法

5.4 数据缓存优化技术

5.5 通信机制及优化

5.5.1 集合通信

5.5.2 集合通信的死锁问题

5.5.3 通信链路优化

5.6 小结

参考文献

CHAPTER6 第6章 全图分布式并行图神经网络训练与优化

6.1 全图分布式图神经网络训练基本并行方法

6.1.1 子图并行的全图分布式训练

6.1.2 算子并行的全图分布式训练

6.1.3 子图并行与算子并行对比

6.1.4 全图分布式并行图神经网络训练的效率瓶颈

6.2 基于同步模型计算的效率优化

6.2.1 图划分策略

6.2.2 预聚合执行模式

6.2.3 高效的同步通信协议

6.3 基于异步模型计算的通信优化

6.3.1 异步执行模型

6.3.2 异步图神经网络训练通信协议

6.4 小结

参考文献

CHAPTER7 第7章 大规模图神经网络系统

7.1 图神经网络编程模型

7.1.1 以张量为中心的编程模型

7.1.2 以全图为中心的编程模型

7.1.3 以节点为中心的编程模型

7.2 图神经网络系统与图计算

7.3 面向单机多GPU的图神经网络系统

7.4 面向GPU集群的图神经网络系统

7.5 面向CPU集群的图神经网络系统

7.6 面向其他硬件平台的图神经网络系统

7.7 图神经网络系统的对比与选择

7.7.1 硬件设备

7.7.2 模型训练方法

7.7.3 模型更新策略

7.8 小结

参考文献

CHAPTER8 第8章 大规模图神经网络编程实践

8.1 基于DGL的训练环境配置

8.2 单机单卡训练

8.2.1 基本训练流程

8.2.2 简单的图神经网络训练案例

8.2.3 基于小批次的图神经网络训练案例

8.3 分布式并行训练

8.3.1 数据集的预处理

8.3.2 分布式数据通信接口

8.3.3 单机多GPU的训练

8.3.4 基于集群的训练

8.4 小结

参考文献

CHAPTER9 第9章 总结与展望

参考文献

推荐阅读

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部