×
超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

关闭
暂无评论
图文详情
  • ISBN:9787115642110
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 开本:16开
  • 页数:356
  • 出版时间:2024-09-01
  • 条形码:9787115642110 ; 978-7-115-64211-0

本书特色

1.李宏毅老师亲笔推荐,杨小康、周明、叶杰平、邱锡鹏鼎力推荐!
2.数百万次播放的深度学习课程配套书,李宏毅老师亲自点赞的开源项目,GitHub超10000次Star的开源笔记。
3.从Transformer到ChatGPT技术原理一个不落GPT中的T代表的正是Transformer。如何理解这一在深度学习领域具有深远影响的概念?从经典的论文开始,逐步深度介绍Transformer的原理。本书包含单独的ChatGPT章节,不仅介绍了ChatGPT的原理,还探讨了我们应当以怎样的态度对待Al的发展。

内容简介

本书根据李宏毅老师“机器学习”公开课中与深度学习相关的内容编写而成,介绍了卷积神经网络、Transformer、生成模型、自监督学习(包括 BERT 和 GPT)等深度学习常见算法,并讲解了对抗攻击、领域自适应、强化学习、元学习、终身学习、网络压缩等深度学习相关的进阶算法. 在理论严谨的基础上,本书保留了公开课中大量生动有趣的例子,帮助读者从生活化的角度理解深度学习的概念、建模过程和核心算法细节.

目录

第 1 章 机器学习基础 1
1.1 案例学习 2
1.2 线性模型 7
1.2.1 分段线性曲线 9
1.2.2 模型变形 17
1.2.3 机器学习框架 21
第 2 章 实践方法论 22
2.1 模型偏差 22
2.2 优化问题 23
2.3 过拟合 25
2.4 交叉验证 29
2.5 不匹配 30
参考资料 31
第 3 章 深度学习基础 32
3.1 局部*小值与鞍点 32
3.1.1 临界点及其种类 32
3.1.2 判断临界值种类的方法 33
3.1.3 逃离鞍点的方法 37
3.2 批量和动量 39
3.2.1 批量大小对梯度下降法的影响..40
3.2.2 动量法 45
3.3 自适应学习率 47
3.3.1 AdaGrad 50
3.3.2 RMSProp 53
3.3.3 Adam 54
3.4 学习率调度 54
3.5 优化总结 56
3.6 分类 57
3.6.1 分类与回归的关系 57
3.6.2 带有 softmax 函数的分类 58
3.6.3 分类损失 59
3.7 批量归一化 61
3.7.1 放入深度神经网络
3.7.2 测试时的批量归一化 67
3.7.3 内部协变量偏移 68
参考资料 69
第 4 章 卷积神经网络 71
4.1 观察 1:检测模式不需要整幅图像 .. 73
4.2 简化 1:感受野 74
4.3 观察 2:同样的模式可能出现在图像的不同区域 .. 78
4.4 简化 2:共享参数 79
4.5 简化 1 和简化 2 的总结 .. 81
4.6 观察 3:下采样不影响模式检测 .. 86
4.7 简化 3:汇聚 86
4.8 卷积神经网络的应用:下围棋 .. 88
参考资料 91
第 5 章 循环神经网络 92
5.1 独热编码 93
5.2 什么是 RNN 94
5.3 RNN 架构 96
5.4 其他 RNN 97
5.4.1 Elman 网络和 Jordan 网络 98
5.4.2 双向循环神经网络 98
5.4.3 LSTM 99
5.4.4 LSTM 举例 101
5.4.5 LSTM 运算示例 102
5.5 LSTM 网络原理 105
5.6 RNN 的学习方式 109
5.7 如何解决 RNN 的梯度消失或梯度爆炸问题..113
5.8 RNN 的其他应用 114
5.8.1 多对一序列 114
5.8.2 多对多序列 115
5.8.3 序列到序列 117
参考资料 119
第 6 章 自注意力机制 120
6.1 输入是向量序列的情况.. 120
6.1.1 类型 1:输入与输出数量相同 122
6.1.2 类型 2:输入是一个序列,输出是一个标签 123
6.1.3 类型 3:序列到序列任务 124
6.2 自注意力机制的运作原理..124
6.3 多头自注意力 134
6.4 位置编码 136
6.5 截断自注意力 138
6.6 对比自注意力与卷积神经网络 139
6.7 对比自注意力与循环神经网络 141
参考资料 143
第 7 章 Transformer 145
7.1 序列到序列模型 145
7.1.1 语音识别、机器翻译与语音翻译 145
7.1.2 语音合成 146
7.1.3 聊天机器人 147
7.1.4 问答任务 147
7.1.5 句法分析 148
7.1.6 多标签分类 149
7.2 Transformer 结构 149
7.3 Transformer 编码器 151
7.4 Transformer 解码器 154
7.4.1 自回归解码器 154
7.4.2 非自回归解码器 161
7.5 编码器–解码器注意力 162
7.6 Transformer 的训练过程 ..
7.7 序列到序列模型训练常用技巧 166
7.7.1 复制机制 166
7.7.2 引导注意力 166
7.7.3 束搜索 167
7.7.4 加入噪声 168
7.7.5 使用强化学习训练 168
7.7.6 计划采样 169
参考资料 170
第 8 章 生成模型 171
8.1 生成对抗网络 171
8.1.1 生成器 171
8.1.2 判别器 175
8.2 生成器与判别器的训练过程 176
8.3 GAN 的应用案例 178
8.4 GAN 的理论介绍 180
8.5 WGAN 算法 183
8.6 GAN 训练的难点与技巧 .. 188
8.7 GAN 的性能评估方法 190
8.8 条件型生成 194
8.9 CycleGAN 196
参考资料 199
第 9 章 扩散模型 201
9.1 扩散模型生成图片的过程..201
9.2 去噪模块 202
9.3 训练噪声预测器 203
第 10 章 自监督学习 206
10.1 BERT 207
10.1.1 BERT 的使用方式 211
10.1.2 BERT 有用的原因 221
10.1.3 BERT 的变体 227
10.2 GPT 230
参考资料 234
第 11 章 自编码器 235
11.1 自编码器的概念 235
11.2 为什么需要自编码器 237
11.3 去噪自编码器 238
11.4 自编码器应用之特征解耦 239
11.5 自编码器应用之离散隐表征 242
11.6 自编码器的其他应用 245
第 12 章 对抗攻击 246
12.1 对抗攻击简介 246
12.2 如何进行网络攻击 248
12.3 快速梯度符号法 251
12.4 白箱攻击与黑箱攻击 252
12.5 其他模态数据被攻击案例 256
12.6 现实世界中的攻击 256
12.7 防御方式中的被动防御 260
12.8 防御方式中的主动防御 262
第 13 章 迁移学习
13.1 领域偏移
13.2 领域自适应 265
13.3 领域泛化 271
参考资料 272
第 14 章 强化学习 273
14.1 强化学习的应用 274
14.1.1 玩电子游戏 274
14.1.2 下围棋 276
14.2 强化学习框架 276
14.2.1 第 1 步:定义函数 277
14.2.2 第 2 步:定义损失 278
14.2.3 第 3 步:优化 278
14.3 评价动作的标准 282
14.3.1 使用即时奖励作为评价标准 283
14.3.2 使用累积奖励作为评价标准 283
14.3.3 使用折扣累积奖励作为评价标准..284
14.3.4 使用折扣累积奖励减去基线作为评价标准.. 285
14.3.5 Actor-Critic 288
14.3.6 优势 Actor-Critic 293
参考资料 294
第 15 章 元学习 295
15.1 元学习的概念 295
15.2 元学习的三个步骤 296
15.3 元学习与机器学习 299
15.4 元学习的实例算法 301
15.5 元学习的应用 305
参考资料 306
第 16 章 终身学习 307
16.1 灾难性遗忘 307
16.2 终身学习的评估方法 311
16.3 终身学习问题的主要解法 312
第 17 章 网络压缩 316
17.1 网络剪枝 316
17.2 知识蒸馏 321
17.3 参数量化 324
17.4 网络架构设计 325
17.5 动态计算 329
参考资料 332
第 18 章 可解释性机器学习 333
18.1 可解释性人工智能的重要性 333
18.2 决策树模型的可解释性 334
18.3 可解释性机器学习的目标 335
18.4 可解释性机器学习中的局部解释 335
18.5 可解释性机器学习中的全局解释 342
18.6 扩展与小结 345
参考资料 345
第 19 章 ChatGPT 346
19.1 ChatGPT 简介和功能 346
19.2 对 ChatGPT 的误解 346
19.3 ChatGPT 背后的关键技术——预训练..349
19.4 ChatGPT 带来的研究问题 352
索引 354
展开全部

作者简介

王琦,
上海交通大学人工智能实验室博士研究生,硕士毕业于中国科学院大学.Datawhale成员,《Easy RL:强化学习教程》作者,英特尔边缘计算创新大使,Hugging Face社区志愿者,AI TIME成员.主要研究方向为强化学习、计算机视觉、深度学习.曾获“中国光谷·华为杯”第十九届中国研究生数学建模竞赛二等奖、中国大学生计算机设计大赛二等奖、亚太地区大学生数学建模竞赛(APMCM)二等奖和“挑战杯”全国大学生课外学术科技作品竞赛江苏省选拔赛二等奖等荣誉,发表SCI/EI论文多篇. 杨毅远,
牛津大学计算机系博士研究生,硕士毕业于清华大学.Datawhale成员,《Easy RL:强化学习教程》作者.主要研究方向为时间序列、数据挖掘、智能传感系统,深度学习.曾获国家奖学金、北京市优秀毕业生、清华大学优秀硕士学位论文、全国大学生智能汽车竞赛总冠军等荣誉,发表SCI/EI论文多篇. 江季,
网易高级算法工程师,硕士毕业于北京大学.Datawhale成员,《Easy RL:强化学习教程》作者.主要研究方向为强化学习、深度学习、大模型、机器人等.曾获得国家奖学金、上海市优秀毕业生等荣誉,取得强化学习与游戏AI等相关专利多项.

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航