×
超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

关闭
深度学习必学的十个问题——理论与实践

深度学习必学的十个问题——理论与实践

1星价 ¥39.4 (7.9折)
2星价¥39.4 定价¥49.8
暂无评论
图文详情
  • ISBN:9787302577164
  • 装帧:一般胶版纸
  • 册数:暂无
  • 重量:暂无
  • 开本:其他
  • 页数:119
  • 出版时间:2021-06-01
  • 条形码:9787302577164 ; 978-7-302-57716-4

本书特色

本书既强调对深度学习理论的深入理解,同时用代码实践结合理论的讲解。

内容简介

深度学习是目前***的技术领域。本书兼顾了数学上的理解和代码实践,内容主要包括基础知识和深度学习模型。章 介绍深度学习的简洁发展思路和表示学习机制; 第2章、第3章介绍神经网络的基于梯度的优化方法、神经网络的优化难点以及相应的解决方法; 第4章讨论神经网络遇到的过拟合问题; 第5章分析神经网络的很小组成部分——神经元; 第6章讨论三种方案解决深层网络的训练难题: 批标准化、SELU、ResNet; 第7章、第8章讲述了两种重要的神经网络模型: 卷积神经网络和循环神经网络; 第9章讨论了对于神经网络的无监督学习方式; 0章详细讨论以变分自编码器和对抗生成网络为代表的概率生成网络。 本书适合对于深度学习感兴趣的大学生、工程师阅读参考。阅读本书需要具备基础的Python编程技术和基本的数学知识。

目录

第1章 作为机器学习模型的神经网络
1.1 表示学习
1.2 感知器与神经网络
1.3 使用keras
第2章 神经网络的训练
2.1 基于梯度的一阶优化
2.2 基于梯度的二阶优化
2.3 普通训练方法的局限
2.4 误差反向传播算法的本质
2.5 使用keras
第3章 神经网络的优化难题
3.1 局部极小值,鞍点和非凸优化
3.2 随机梯度下降的优势
3.3 梯度方向优化
3.4 动态调整学习率
3.5 使用keras
第4章 神经网络的过拟合
4.1 参数绑定和提前终止
4.2 数据增强和噪声添加
4.3 Dropout
4.4 使用keras
第5章 神经网络的神经单元
5.1 梯度消失和梯度爆炸
5.2 隐藏单元设计原则和sigmoid的非零中心
5.3 基于线性函数的改进和maxout单元
5.4 使用keras
第6章 神经网络的深度训练
6.1 预处理和批标准化
6.2 批标准化的不同视角:协变量偏差和协调更新
6.3 自归一化神经网络
6.4 ResNet
6.5 使用keras
第7章 卷积神经网络
7.1 局部连接和权重共享
7.2 卷积操作的重要概念
7.3 卷积核的参数学习
7.4 基于感受野的三个卷积技巧
7.5 使用keras
第8章 循环神经网络
8.1 理解循环结构
8.2 循环结构的参数学习
8.3 正交初始化和记忆容量
8.4 理解LSTM
8.5 使用keras
第9章 无监督表示学习:自编码器
9.1 自编码器
9.2 稀疏自编码器
9.3 收缩自编码器
9.4 使用keras
第10章 概率生成模型
10.1 变分自编码器
10.2 生成对抗网络
10.3 使用keras
参考文献

展开全部

作者简介

李轩涯,单位:百度公司,职务、职称:高级工程师,性别:男,年龄:33,专业:计算机科学与技术,学历:博士,研究成果:中国计算机学会杰出会员、常务理事,中国计算机实践教育联合会副理事长。现主管百度校企合作、校企联合人才培养、校园粉丝生态圈,帮助百度技术、人才及产品品牌在高校领域的推广与影响力传播。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航