分布式机器学习——系统、工程与实战
作者: 柳浩 著34.16万字92人 正在读
已完结现代当代当代文学
目录 (348章)
倒序
正文
1.1机器学习概念1.2机器学习的特点1.3分布式训练的必要性1.4.1分布式机器学习的目标1.4.2分布式机器学习的分类1.5从模型角度看如何并行1.5.1并行方式1.5.2数据并行1.5.3模型并行1.5.4流水线并行1.5.5比对1.6从训练并发角度看如何并行1.6.1参数分布和通信拓扑1.6.2模型一致性和通信模式1.6.3训练分布1.7分布式机器学习编程接口1.7.1手动同步更新1.7.2指定任务和位置1.7.3猴子补丁优化器1.7.4Python作用域1.8PyTorch分布式1.8.1历史脉络1.8.2基本概念1.9总结2.1通信模式2.2点对点通信2.3集合通信2.3.1Broadcast2.3.2Scatter2.3.3Gather2.3.4All-Gather2.3.5All-to-All2.3.6Reduce2.3.7All-Reduce2.3.8Reduce-Scatter2.4MPIAllReduce2.5RingAll-Reduce2.5.1特点2.5.2策略2.5.3结构2.5.4Reduce-Scatter2.5.5All-Gather2.5.6通信性能2.5.7区别3.1.1概念3.1.2历史渊源3.1.3问题3.2基础模块Postoffice3.2.1基本逻辑3.2.2系统启动3.2.3功能实现3.3通信模块Van3.3.1功能概述3.3.2定义3.3.3初始化3.3.4接收消息3.4代理人Customer3.4.1基本思路3.4.2基础类3.4.3Customer3.4.4功能函数3.5应用节点实现3.5.1SimpleApp3.5.2KVServer3.5.3KVWorker3.5.4总结第4章PyTorchDataParallel4.1综述4.2示例4.3定义4.4前向传播4.5计算损失4.6反向传播4.7总结5.1DDP总述5.1.1DDP的运行逻辑5.1.2DDP的使用5.2设计理念5.2.1系统设计5.2.2梯度归约5.2.3实施5.3基础概念5.3.1初始化方法5.3.2Store类5.3.3TCPStore类5.3.4进程组概念5.3.5构建进程组5.4架构和初始化5.4.1架构与迭代流程5.4.2初始化DDP第6章PyTorchDDP的动态逻辑6.1.1调用Reducer类6.1.2定义Reducer类6.1.3Bucket类6.1.4BucketReplica类6.1.5查询数据结构6.1.6梯度累积相关成员变量6.1.7初始化6.1.8静态图6.1.9Join操作6.2前向/反向传播6.2.1前向传播6.2.2反向传播(1)6.2.2反向传播(2)6.2.2反向传播(3)第7章Horovod7.1从使用者角度切入7.1.1机制概述7.1.2示例代码7.1.3运行逻辑7.2horovodrun7.2.1入口点7.2.2运行训练Job7.2.3Gloo实现7.2.4MPI实现7.2.5总结7.3网络基础和Driver7.3.1总体架构7.3.2基础网络服务7.3.3Driver服务7.3.4Task服务7.3.5总结7.4DistributedOptimizer7.4.1问题点7.4.2解决思路7.4.3TensorFlow1.x7.5融合框架7.5.1总体架构7.5.2算子类体系7.5.3后台线程7.5.4执行线程7.5.5总结7.6后台线程架构7.6.1设计要点7.6.2总体代码7.6.3业务逻辑第8章GPipe8.1.1流水线并行8.1.2GPipe概述8.1.3计算内存8.1.4计算算力8.1.5自动并行8.2梯度累积8.2.1基本概念8.2.2PyTorch实现8.2.3GPipe实现8.3Checkpointing8.3.1问题8.3.2解决方案8.3.3OpenAI8.3.4PyTorch实现8.3.5GPipe实现第9章PyTorch流水线并行9.1如何划分模型9.1.1使用方法9.1.2自动平衡9.1.3模型划分9.2切分数据和Runtime系统9.2.1分发小批量9.2.2Runtime9.3前向计算9.3.1设计9.4计算依赖9.4.1反向传播依赖9.4.2前向传播依赖9.5并行计算9.5.1总体架构9.5.2并行复制和计算9.5.3重计算第10章PipeDream之基础架构10.1总体思路10.1.1目前问题10.1.21F1B策略概述10.1.3流水线方案10.2profile阶段10.3计算分区阶段10.3.1构建图10.3.2构建反链10.3.3计算分区10.3.4分析分区10.3.5输出10.4转换模型阶段10.4.1分离子图10.4.2转换模型10.4.3融合模型第11章PipeDream之动态逻辑11.1Runtime引擎11.1.1功能11.1.2总体逻辑11.1.3加载模型11.1.4实现11.2通信模块11.2.1类定义11.2.2构建11.2.3发送和接收11.31F1B策略11.3.1设计思路11.3.2权重问题11.3.3实现第12章Megatron12.1设计思路12.1.1背景12.1.2张量模型并行12.1.3并行配置12.1.4结论12.2模型并行实现12.2.1并行MLP12.2.2ColumnParallelLinear12.2.3RowParallelLinear12.2.4总结12.3如何设置各种并行12.3.1初始化12.3.2起始状态12.3.3设置张量模型并行12.3.4设置流水线并行12.3.5设置数据并行12.3.6模型并行组12.3.7如何把模型分块到GPU上12.4Pipedream的流水线刷新第13章PyTorch如何实现模型并行13.1.1PyTorch特点13.1.2示例13.2分布式自动求导之设计13.2.1分布式RPC框架13.2.2自动求导记录13.2.3分布式自动求导上下文13.2.4分布式反向传播算法13.2.5分布式优化器13.3RPC基础13.3.1RPC代理13.3.2发送逻辑13.3.3接收逻辑13.4上下文相关13.4.1设计脉络13.4.2AutogradMetadata13.4.3DistAutogradContainer13.4.4DistAutogradContext13.4.5前向传播交互过程13.5如何切入引擎13.5.1反向传播13.5.2SendRpcBackward13.5.3总结13.6.1原生引擎13.6.2分布式引擎13.6.3总体执行13.6.4验证节点和边13.6.5计算依赖13.6.6执行GraphTask13.6.7RPC调用闭环13.6.8DistAccumulateGradCaptureHook13.6.9等待完成第14章分布式优化器14.1原生优化器14.2DP的优化器14.3DDP的优化器14.3.1流程14.3.2优化器状态14.4Horovod的优化器14.4.1利用钩子同步梯度14.4.2利用step()函数同步梯度14.5模型并行的分布式问题14.6PyTorch分布式优化器14.6.1初始化14.6.2更新参数14.7PipeDream分布式优化器14.7.1如何确定优化参数14.7.2优化第15章分布式运行环境之静态架构15.1总体架构15.1.1集群角度15.1.2分布式角度15.1.3系统角度15.1.4图操作角度15.1.5通信角度15.2.1逻辑概念15.2.2GrpcServer15.3.1总述15.3.2接口15.3.3LocalMaster15.3.4GrpcRemoteMaster15.3.5GrpcMasterService15.3.6业务实现Master类15.4Worker的静态逻辑15.4.1逻辑关系15.4.2GrpcRemoteWorker15.4.3GrpcWorkerService15.4.4Worker15.4.5GrpcWorker第16章分布式运行环境之动态逻辑16.1Session机制16.1.1概述16.1.2GrpcSession16.1.3MasterSession16.1.4WorkerSession16.2Master动态逻辑16.2.1Client如何调用16.2.2Master业务逻辑16.3.1概述16.3.2注册子图16.3.3运行子图16.3.4分布式计算流程总结16.4通信机制16.4.1协调机制16.4.2发送流程16.4.3接收流程16.4.4总结第17章分布式策略基础17.1.1概述17.1.2策略类型17.2DistributedStrategy基础17.2.1StrategyBase17.2.2读取数据17.3分布式变量17.3.1MirroredVariable(1)17.3.1MirroredVariable(2)17.3.2ShardedVariable第18章MirroredStrategy18.1MirroredStrategy集合通信18.1.1设计思路18.1.2实现18.1.3更新分布式变量18.2MirroredStrategy分发计算18.2.1运行18.2.2mirrored_run18.2.3Context18.2.4通信协议18.2.5EagerService18.2.6在远端运行训练代码18.2.7总结第19章ParameterServerStrategy19.1ParameterServerStrategyV119.1.1思路19.1.2数据19.1.3作用域和变量19.1.4运行19.2ParameterServerStrategyV219.2.1如何使用19.2.2运行19.3.1使用19.3.2定义19.3.3数据19.3.4Cluster19.3.5Closure19.3.6队列19.3.7Worker类19.3.8Failover19.3.9总结反侵权盗版声明
精选推荐
领导力法则
[中国纺织出版社]
陆禹萌
已完结当代文学
销售心理学
[中国纺织出版社]
兰华
已完结当代文学
销售就是玩转情商
[中国纺织出版社]
王威
已完结当代文学
销售员情商实战训练
成功的销售需要高智商,更需要高情商。一个销售员的销售业绩,往往与他的情商成正比。本书从十个方面详细讲述了有效运用情商,提高销售业绩的方法和技巧。通过实际销售案例和销售心理学理论指导,以及实战点拨和情商拓展训练,帮助读者全方位、快速提高情商。故事性、多版块、碎片化的内容设置,有效降低读者阅读疲劳,提高阅读兴趣,不论是奔波在路上的销售小白,还是带领团队奋勇向前的销售经理,都能从中找到适合自己的销售软技巧。
刘军
已完结当代文学
让未来的你,感谢现在勇敢的自己
[中国纺织出版社]
王介威
已完结当代文学
行为心理学:华生的实用心理学课
[中国纺织出版社]
(美)约翰·华生著.倪彩
已完结当代文学
行为心理学入门(完全图解版)
行为心理学入门(完全图解版)是以作者多来年的心理辅导和咨询数据为素材,对现实生活中的行为心理学应用进行了形象、深入、全面的论述和解读。本书与日本心理学图解书形式相同,浅显易读,有趣又益。
武莉
已完结当代文学
自卑与超越
《自卑与(全译插图典藏版)》是个体心理学研究领域的著作,也是人本主义心理学先驱阿尔弗雷德·阿德勒的很好著作。阿德勒的学说以“自卑感”与“创造性自我”为中心,并强调“社会意识”。全书立足个人心理学的观点,从教育、家庭、婚姻、伦理、社交等多个领域,以大量的实例为论述基础,阐明了人生意义的真谛,帮助人们克服自卑、不断超自己,正确对待职业,正确理解社会与性。本书直接促进了亲子教育、人格培养、婚姻与爱情、职业生涯、家庭建设、人际关系等诸多领域的长足发展,成为人们了解心理学的经典读物。
(奥)阿尔弗雷德·阿德勒
已完结当代文学
自制力:道理我都懂,为什么就是过不好人生
[中国纺织出版社]
邱开杰
已完结当代文学