×
超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

关闭
TensorFlow 2.0深度学习从零开始学

TensorFlow 2.0深度学习从零开始学

1星价 ¥49.7 (7.2折)
2星价¥49.7 定价¥69.0
暂无评论
图文详情
  • ISBN:9787302552734
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 开本:其他
  • 页数:233
  • 出版时间:2020-06-01
  • 条形码:9787302552734 ; 978-7-302-55273-4

本书特色

随着人工智能的发展以及TensorFlow在人工智能方面的火热应用,越来越多的大学逐步开设深度学习和人工智能课程。本书既是一本为读者量身定制的TensorFlow 2.0入门教材,也是针对需要学习TensorFlow 2.0新内容的读者提供的基础与进阶知识的深入型教材。 本书分为10章,主要内容包括TensorFlow 2.0开发环境、TensorFlow 2.0新特性、TensorFlow与Keras的使用、TensorFlow 2.0语法基础、卷积层详解与MNIST实战、Dataset使用详解、TensorFlow Datasets和TensorBoard详解、ResNet及其实战、注意力机制、卷积神经网络实战。 本书内容详尽、示例丰富,是广大对TensorFlow 2.0感兴趣的读者**的参考书,同时也非常适合大中专院校师生学习阅读,还可作为高等院校计算机及相关专业的教材使用。

内容简介

随着人工智能的发展以及TensorFlow在人工智能方面的火热应用,越来越多的大学逐步开设深度学习和人工智能课程。本书既是一本为读者量身定制的TensorFlow 2.0入门教材,也是针对需要学习TensorFlow 2.0新内容的读者提供的基础与进阶知识的深入型教材。 本书分为10章,主要内容包括TensorFlow 2.0开发环境、TensorFlow 2.0新特性、TensorFlow与Keras的使用、TensorFlow 2.0语法基础、卷积层详解与MNIST实战、Dataset使用详解、TensorFlow Datasets和TensorBoard详解、ResNet及其实战、注意力机制、卷积神经网络实战。 本书内容详尽、示例丰富,是广大对TensorFlow 2.0感兴趣的读者推荐的参考书,同时也很好适合大中专院校师生学习阅读,还可作为高等院校计算机及相关专业的教材使用。

目录

目 录
第1章 TensorFlow 2.0的安装 1
1.1 Python基本安装和用法 1
1.1.1 Anaconda的下载与安装 1
1.1.2 Python编译器PyCharm的安装 4
1.1.3 使用Python计算softmax函数 7
1.2 TensorFlow 2.0 GPU版本的安装 8
1.2.1 检测Anaconda中的TensorFlow版本 8
1.2.2 TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装 9
1.3 Hello TensorFlow 2.0 12
1.4 本章小结 13
第2章 TensorFlow 2.0令人期待的变化 14
2.1 新的架构、新的运行、新的开始 14
2.1.1 API精简 15
2.1.2 Eager Execution 15
2.1.3 取消全局变量 15
2.1.4 使用函数而不是会话 15
2.1.5 弃用collection 16
2.2 配角转成主角:从TensorFlow Eager Execution转正谈起 16
2.2.1 Eager简介与调用 17
2.2.2 读取数据 18
2.3 使用TensorFlow 2.0模式进行线性回归的一个简单例子 20
2.3.1 模型的工具与数据的生成 20
2.3.2 模型的定义 20
2.3.3 损失函数的定义 21
2.3.4 梯度函数的更新计算 21
2.4 TensorFlow 2.0进阶—AutoGraph和tf.function 23
2.5 本章小结 26
第3章 TensorFlow 和 Keras 27
3.1 模型!模型!模型!还是模型 27
3.2 使用Keras API实现鸢尾花分类的例子(顺序模式) 28
3.2.1 数据的准备 29
3.2.2 数据的处理 30
3.2.3 梯度更新函数的写法 31
3.2.4 使用Keras 函数式编程实现鸢尾花分类的例子(重点) 32
3.2.5 使用保存的Keras模式对模型进行复用 35
3.2.6 使用TensorFlow 2.0标准化编译对iris模型进行拟合 35
3.3 多输入单一输出TensorFlow 2.0 编译方法(选学) 40
3.3.1 数据的获取与处理 40
3.3.2 模型的建立 41
3.3.3 数据的组合 41
3.4 多输入多输出TensorFlow 2.0 编译方法(选学) 44
3.5 全连接层详解 46
3.5.1 全连接层的定义与实现 46
3.5.2 使用TensorFlow 2.0自带的API实现全连接层 47
3.5.3 打印显示TensorFlow 2.0设计的模型结构和参数 51
3.6 本章小结 53
第4章 TensorFlow 2.0语法基础 54
4.1 BP神经网络简介 54
4.2 BP神经网络的两个基础算法 58
4.2.1 *小二乘法(LS算法) 58
4.2.2 道士下山的故事—梯度下降算法 61
4.3 反馈神经网络反向传播算法 63
4.3.1 深度学习基础 63
4.3.2 链式求导法则 64
4.3.3 反馈神经网络原理与公式推导 66
4.3.4 反馈神经网络原理的激活函数 72
4.3.5 反馈神经网络原理的Python实现 73
4.4 本章小结 78
第5章 卷积层与MNIST实战 79
5.1 卷积运算 79
5.1.1 卷积运算的基本概念 80
5.1.2 TensorFlow 2.0中卷积函数的实现 81
5.1.3 池化运算 83
5.1.4 softmax激活函数 84
5.1.5 卷积神经网络原理 86
5.2 TensorFlow 2.0编程实战:MNIST手写体识别 89
5.2.1 MNIST数据集 89
5.2.2 MNIST数据集特征和标注 91
5.2.3 TensorFlow 2.0编程实战:MNIST数据集 93
5.2.4 使用自定义的卷积层实现MNIST识别 97
5.3 本章小结 101
第6章 TensorFlow 2.0 Dataset 使用详解 102
6.1 Dataset API基本结构和内容 102
6.1.1 Dataset API数据种类 103
6.1.2 Dataset API基础使用 104
6.2 Dataset API高级用法 105
6.2.1 Dataset API数据转换方法 107
6.2.2 读取图片数据集的例子 110
6.3 使用TFRecord API创建和使用数据集 111
6.3.1 TFRecord的基本概念 112
6.3.2 TFRecord的创建 113
6.3.3 TFRecord的读取 118
6.4 TFRecord实战:带有处理模型的完整例子 124
6.4.1 创建数据集 125
6.4.2 创建解析函数 125
6.4.3 创建数据模型 126
6.4.4 创建读取函数 126
6.5 本章小结 128
第7章 TensorFlow Datasets和TensorBoard详解 129
7.1 TensorFlow Datasets简介 129
7.1.1 Datasets 数据集的安装 131
7.1.2 Datasets 数据集的使用 131
7.2 Datasets数据集的使用—FashionMNIST 133
7.2.1 FashionMNIST数据集下载与显示 134
7.2.2 模型的建立与训练 136
7.3 使用Keras对FashionMNIST数据集进行处理 138
7.3.1 获取数据集 138
7.3.2 数据集的调整 139
7.3.3 使用Python类函数建立模型 139
7.3.4 模型的查看和参数的打印 141
7.3.5 模型的训练和评估 142
7.4 使用TensorBoard可视化训练过程 144
7.4.1 TensorBoard的文件夹设置 145
7.4.2 显式地调用TensorBoard 146
7.4.3 使用TensorBoard 148
7.5 本章小结 152
第8章 从冠军开始:ResNet 153
8.1 ResNet基础原理与程序设计基础 153
8.1.1 ResNet诞生的背景 154
8.1.2 模块工具的TensorFlow实现—不要重复发明轮子 157
8.1.3 TensorFlow高级模块layers的用法 157
8.2 ResNet实战:CIFAR-100数据集分类 165
8.2.1 CIFAR-100数据集 165
8.2.2 ResNet残差模块的实现 168
8.2.3 ResNet网络的实现 170
8.2.4 使用ResNet对CIFAR-100数据集进行分类 173
8.3 ResNet的兄弟—ResNeXt 175
8.3.1 ResNeXt诞生的背景 175
8.3.2 ResNeXt残差模块的实现 177
8.3.3 ResNeXt网络的实现 178
8.3.4 ResNeXt和ResNet的比较 180
8.4 本章小结 180
第9章 注意力机制 181
9.1 何为“注意力” 181
9.2 注意力机制的两种常见形式 182
9.2.1 Hard Attention(硬性注意力) 183
9.2.2 Soft Attention(软性注意力) 183
9.3 注意力机制的两种实现形式 183
9.3.1 Spatial Attention(空间注意力) 184
9.3.2 Channel Attention(通道注意力) 185
9.4 注意力机制的两种经典模型 186
9.4.1 *后的冠军—SENet 186
9.4.2 结合Spatial和Channel的CBAM模型 189
9.4.3 注意力的前沿研究—基于细粒度的图像注意力机制 194
9.5 本章小结 196
第10章 卷积神经网络实战:识文断字也可以 197
10.1 文本数据处理 198
10.1.1 数据集介绍和数据清洗 198
10.1.2 停用词的使用 201
10.1.3 词向量训练模型word2vec的使用 203
10.1.4 文本主题的提取:基于TF-IDF(选学) 207
10.1.5 文本主题的提取:基于TextRank(选学) 211
10.2 针对文本的卷积神经网络模型—字符卷积 214
10.2.1 字符(非单词)文本的处理 214
10.2.2 卷积神经网络文本分类模型的实现—Conv1D(一维卷积) 222
10.3 针对文本的卷积神经网络模型—词卷积 224
10.3.1 单词的文本处理 224
10.3.2 卷积神经网络文本分类模型的实现—Conv2D(二维卷积) 227
10.4 使用卷积对文本分类的补充内容 230
10.4.1 汉字的文本处理 230
10.4.2 其他的细节 233
10.5 本章小结 233
展开全部

作者简介

王晓华,计算机专业讲师,长期讲授面向对象程序设计、数据结构、Hadoop程序设计等研究生和本科生相关课程;主研方向为云计算、数据挖掘;曾主持和参与多项国家和省级科研课题,独立科研项目获省级成果认定,发表过多篇论文,拥有一项专利;著有《Spark MLlib机器学习实践》《TensorFlow深度学习应用实践》《OpenCV TensorFlow深度学习与计算机视觉实战》等图书。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航