×
超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

关闭
暂无评论
图文详情
  • ISBN:9787519887742
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 开本:16开
  • 页数:388
  • 出版时间:2024-05-01
  • 条形码:9787519887742 ; 978-7-5198-8774-2

本书特色

编辑推荐我们身处AI研究大爆炸的中心。深度学习解锁超人感知力,不仅推动自动驾驶车辆的研发,而且在围棋等多种高难度游戏中击败人类专家对手,甚至还可以生成惊人般流畅的文章。但揭秘这些突破往往需要具有机器学习和数学博士学位。 本书作为更新后的第二版,继续介绍这些创新背后的基础知识。行文尽量少用行话,并力求简洁。熟悉Python的程序员、软件工程专业人士和计算机科学专业的学生读了本书,有望自己实现这些突破,并对其进行推理和论证,其研究深度不亚于该领域的一些**开发者。 专家推荐“这本书提供了一个开始深入学习的好方法,有大量的例子和对概念的完美诠释。对于该领域感兴趣的任何读者来说,都是一本完美的书。”——Vishwesh Ravi ShrimaliADAS工程师 简明易懂;侧重原理;学习曲线平缓。

内容简介

本书的主要内容有:了解机器学习术语背后的数学知识。探究机器学习和神经网络的基础。管理网络加深过程出现的问题。搭建神经网络,分析复杂图像。用自编码器高效降维。深入序列分析,用其研究语言。探讨复杂机器学习模型的解释方法。收获生成建模的理论和实用知识。理解强化学习的基础。

目录

目录
前言 1
第1 章 深度学习线性代数入门 7
1.1 数据结构和运算 7
1.1.1 矩阵运算 9
1.1.2 向量运算 .12
1.1.3 矩阵—向量乘法 13
1.2 基本空间14
1.2.1 列空间 14
1.2.2 零空间 16
1.3 特征向量和特征值 19
1.4 小结 .22
第2 章 概率论基础 23
2.1 事件和概率 23
2.2 条件概率26
2.3 随机变量28
2.4 期望 .30
2.5 方差 .32
2.6 贝叶斯定理 34
2.7 熵、交叉熵和KL 散度 35
2.8 连续概率分布 .39
2.9 小结 .43
第3 章 神经网络 45
3.1 构建智能体 45
3.2 传统计算机程序的局限 .46
3.3 机器学习原理 .47
3.4 神经元 51
3.5 用神经元表示线性感知器 53
3.6 前馈神经网络 .54
3.7 线性神经元及其限制 57
3.8 sigmoid、Tanh 和ReLU 神经元 58
3.9 softmax 输出层 60
3.10 小结 60
第4 章 训练前馈神经网络 .63
4.1 快餐问题63
4.2 梯度下降65
4.3 Delta 法则和学习率 .66
4.4 sigmoid 神经元的梯度下降 .68
4.5 反向传播算法 .69
4.6 随机和小批量梯度下降 .71
4.7 测试集、验证集和过拟合 73
4.8 深度神经网络防过拟合 .79
4.9 小结 .84
第5 章 用PyTorch 实现神经网络 85
5.1 PyTorch 简介 85
5.2 安装PyTorch 85
5.3 PyTorch 张量 86
5.3.1 张量初始化 87
5.3.2 张量的属性 87
5.3.3 张量运算 .89
5.4 PyTorch 中的梯度 .92
5.5 PyTorch nn 模块 93
5.6 PyTorch 数据集和数据加载器 97
5.7 用PyTorch 构建MNIST 分类器 99
5.8 小结 103
第6 章 超越梯度下降 105
6.1 梯度下降的挑战 .105
6.2 深度网络误差曲面的局部*小值 106
6.3 模型的可识别性 .107
6.4 深度网络虚假局部*小值有多讨厌? .108
6.5 误差曲面的平缓区域 111
6.6 当梯度指错方向 . 114
6.7 基于动量的优化 . 117
6.8 二阶方法简述 120
6.9 学习率自适应 121
6.9.1 AdaGrad 算法——累积历史梯度 .121
6.9.2 RMSProp 算法——梯度的指数加权移动平均 123
6.9.3 Adam 算法——整合动量和RMSProp 算法 124
6.10 关于优化器选择的思考 126
6.11 小结 126
第7 章 卷积神经网络 127
7.1 人类视觉神经元 .127
7.2 特征选择的不足 .128
7.3 原始深度神经网络无法扩展 .130
7.4 滤波器和特征图 .131
7.5 卷积层的完整描述 .136
7.6 *大汇聚.140
7.7 卷积网络全架构 .141
7.8 用卷积网络完成MNIST 示例 .142
7.9 图像预处理流水线让模型更健壮 145
7.10 用批量归一化加速训练 146
7.11 组归一化适用于内存受限的学习任务 148
7.12 为CIFAR-10 构建卷积网络 150
7.13 可视化卷积网络中的学习152
7.14 极深网络的残差学习和跳跃连接 156
7.15 构造具有超人视觉的残差网络 .158
7.16 利用卷积滤波器复制艺术风格 .162
7.17 用卷积滤波器解决其他领域的问题 163
7.18 小结 164
第8 章 嵌入和表示学习 165
8.1 学习低维表示 165
8.2 主成分分析 166
8.3 自编码器架构的动机 168
8.4 用PyTorch 实现自编码器 169
8.5 去噪让表示更健壮 .178
8.6 自编码器中的稀疏性问题 .181
8.7 上下文比输入向量包含更多信息 184
8.8 Word2Vec 框架 186
8.9 实现Skip-Gram 架构 189
8.10 小结 196
第9 章 序列分析模型 197
9.1 分析不定长输入 .197
9.2 用神经N-Grams 处理seq2seq 问题 .198
9.3 实现词性标注器 .199
9.4 依存分析和SyntaxNet 框架 .205
9.5 束搜索和全局标准化 211
9.6 有状态深度学习模型示例 .215
9.7 循环神经网络 216
9.8 梯度消失难题 218
9.9 长短期记忆单元 .221
9.10 PyTorch 库的RNN 模型基础版 226
9.11 实现情感分析模型 227
9.12 用循环神经网络解决seq2seq 任务 .233
9.13 用注意力增强循环网络 236
9.14 神经翻译网络剖析 238
9.15 自注意力机制和transformer 模型 249
9.16 小结 251
第10 章 生成模型 253
10.1 生成对抗网络 253
10.2 变分自编码器 259
10.3 实现VAE .269
10.4 基于分值的生成模型 .274
10.5 去噪自编码器和分值匹配279
10.6 小结 284
第11 章 模型解释方法 . 285
11.1 概览 285
11.2 决策树和基于树的算法 286
11.3 线性回归 289
11.4 评估特征重要性的方法 290
11.4.1 特征重要性排列 .290
11.4.2 部分依赖图 291
11.5 根由萃取 293
11.6 LIME 方法 298
11.7 SHAP 方法 302
11.8 小结 307
第12 章 记忆增强神经网络 309
12.1 神经图灵机 .309
12.2 基于注意力的存储访问 311
12.3 NTM 存储寻址机制 313
12.4 可微分神经计算机 317
12.5 DNC 免冲突写入机制 319
12.6 DNC 存储重用 320
12.7 DNC 写入的临时连接 321
12.8 理解DNC 读取头 322
12.9 DNC 控制器网络 .323
12.10 DNC 可视化实践 325
12.11 用PyTorch 实现DNC .327
12.12 教DNC 阅读和理解 331
12.13 小结 .334
第13 章 深度强化学习 . 335
13.1 深度强化学习掌握Atari 游戏玩法 .335
13.2 强化学习是什么? 336
13.3 马尔科夫决策过程 338
13.3.1 策略 340
13.3.2 未来奖赏 340
13.3.3 折扣未来奖赏 341
13.4 探讨还是利用 342
13.4.1 贪婪 .343
13.5 策略和价值学习 344
13.6 用策略梯度解决倒立摆平衡问题 345
13.6.1 OpenAI Gym 工具集 345
13.6.2 创建智能体345
13.6.3 构建模型和优化器 347
13.6.4 采样行动 348
13.6.5 跟踪历史 348
13.6.6 策略梯度主函数 .349
13.6.7 PGAgent 解决倒立摆平衡任务的性能 351
13.7 信赖域策略优化 352
13.8 近端策略优化 357
13.9 Q- 学习和深度Q 网络 358
13.9.1 Bellman 等式 358
13.9.2 价值迭代问题 359
13.9.3 近似Q 函数 360
13.9.4 Deep Q-Network .360
13.9.5 训练DQN 360
13.9.6 学习稳定性361
13.9.7 目标Q 网络 361
13.9.8 经验回放 361
13.9.9 从Q 函数到策略 362
13.9.10 DQN 和马尔科夫假设 362
13.9.11 马尔科夫假设的DQN 解决方案 .362
13.9.12 用DQN 玩Breakout 游戏 363
13.9.13 构建架构 .366
13.9.14 堆叠帧 366
13.9.15 搭建训练操作流水线 .366
13.9.16 更新目标Q 网络 .367
13.9.17 实现经验回放 367
13.9.18 DQN 主循环 368
13.9.19 用DQNAgent 玩Breakout 游戏的结果分析370
13.10 改进并超越DQN 371
13.10.1 深度循环Q 网络 .371
13.10.2 异步优势演员—评论员智能体 .372
13.10.3 无监督强化学习和辅助学习373
13.11 小结 .374
展开全部

作者简介

Nithin Buduma是Cresta公司的机器学习科学家。该公司是客服中心智能这一领域的引领者。Nikhil Buduma是旧金山Remedy公司的合伙人和首席科学家。该公司为医疗保健服务开发自主技术。Joe Papa是TeachMe.AI的创办者,拥有25年以上的研究和开发经验。他在Booz Allen公司和Perspecta公司的研究部门带过AI研究团队,拥有丰富的PyTorch使用经验。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航