×
超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

关闭
人工智能边缘计算开发实战:基于NVIDIA JETSON NANO

人工智能边缘计算开发实战:基于NVIDIA JETSON NANO

1星价 ¥74.3 (7.5折)
2星价¥74.3 定价¥99.0
暂无评论
图文详情
  • ISBN:9787122437334
  • 装帧:一般胶版纸
  • 册数:暂无
  • 重量:暂无
  • 开本:其他
  • 页数:318
  • 出版时间:2024-02-01
  • 条形码:9787122437334 ; 978-7-122-43733-4

本书特色

本书具有如下特色: 1.内容新颖实用。对于人工智能这种高端学科来说,知难行易,比较好的学习方式就是上手实践。本书将高大上的人工智能技术拉下神坛,通过不同应用场景下的实实在在的案例来实现人工智能,使读者能够更具体地感受人工智能的魅力。 2.讲解细致,通俗易懂。书中不会基于学理去探索各种AI技术的内容,没有任何数学公式的解说,不过分关注与分析各种神经网络和深度学习框架,只要跟着一步步实践起来,就能从中有所收获。 3.配套资源丰富,赠送教学视频、所有程序源代码、开发软件工具包等,方便读者学习与练习。

内容简介

本书选取当下大热的AIoT(人工智能物联网)为应用场景,以NVIDIA Jetson Nano为硬件平台,系统介绍了人工智能的开发知识,重点讲解了人工智能中边缘计算技术的应用。首先介绍了NVIDIA Jetson Nano开发平台和开发环境的配置,然后通过具体的案例介绍了人工智能边缘计算在物体检测、深度学习等领域的应用。 本书适合人工智能初学者、嵌入式开发技术人员、对人工智能技术感兴趣的青少年及创客教师自学使用,同时也可用作高等院校人工智能相关专业的教材及参考书。

目录

第1章 初识边缘AI计算 1.1 人工智能驱动的边缘计算 1.2 适配深度神经网络的众核架构 1.3 选择合适的人工智能学习平台 1.4 英伟达的“高效/易用/兼容”开发生态 1.5 学习边缘AI计算从Jetson上手 1.6 Jetson的AIoT成功案例与配套资源 1.7 本章小结 第2章 为Jetson设备安装开发环境 2.1 Jetpack提供完整的AIoT开发资源 2.2 用Jetpack安装Jetson设备 2.3 首次启动Jetson设备 2.4 远程控制Jetson设备 2.5 检查系统状态的基础指令 2.6 监控与调试Jetson设备的性能 2.7 配套的辅助工具 2.8 本章小结 第3章 体验Jetpack开发环境 3.1 CUDA并行计算的加速性能 3.1.1 编译CUDA samples 3.1.2 nbody(粒子碰撞模拟) 3.1.3 oceanFFT(海洋波动模拟) 3.1.4 smokeParticles(烟雾粒子光影模拟) 3.2 高阶计算机视觉开发工具包 3.2.1 VisionWorks工具包与范例 3.2.2 VPI简介 3.2.3 VPI简易Python范例 3.3 摄像头的选择与调用 3.3.1 GStreamer流媒体框架 3.3.2 V4L2 应用库 3.3.3 libargus 应用库 3.4 检测摄像头 3.4.1 用v4l2-ctl检测摄像头参数 3.4.2 用NvGstCapture启动摄像头 3.4.3 用gst-launch启动摄像头 3.5 好用的OpenCV计算机视觉库 3.5.1 通过UVC调用USB摄像头 3.5.2 通过GStreamer调用CSI摄像头 3.5.3 体验三种计算机视觉算法 3.5.4 简易的人脸定位应用 3.5.5 简易的眼睛定位应用 3.6 本章小结 第4章 深度学习之推理识别 4.1 智能视觉类三大基础应用 4.1.1 图像分类(image classification) 4.1.2 物体检测(object detection) 4.1.3 语义分割(semantic segmentation) 4.2 进入Hello AI World 4.2.1 完整的深度神经网络(DNN)视觉库 4.2.2 主要功能模块 4.2.3 安装Hello AI World项目 4.3 立即体验深度学习推理效果 4.3.1 总体参数选项说明 4.3.2 imagenet成批图像的分类检测 4.3.3 imagenet的参数说明 4.3.4 detectnet物体检测指令 4.3.5 其他深度学习推理应用 4.4 用Python开发自己的深度学习推理应用 4.4.1 10行代码的物体识别应用 4.4.2 获取推理检测的信息 4.4.3 添加参数解析功能,扩大适用范围 4.5 jetson.utils视觉处理工具 4.5.1 videoSource()负责全部输入源处理 4.5.2 videoOutput()负责全部输出处理 4.5.3 简单的输入/输出范例 4.5.4 RTP/RTSP视频流转向应用 4.6 本章小结 第5章 深度学习之模型训练 5.1 调试Jetson的模型训练环境 5.2 图像分类的模型训练 5.2.1 整理图像分类的数据 5.2.2 用train.py执行训练模型 5.2.3 用训练好的模型执行推理识别 5.2.4 从ImageNet获取图像 5.3 目标检测的模型训练 5.3.1 从Open Images获取目标检测数据 5.3.2 train_ssd.py参数说明 5.3.3 执行目标检测的模型训练 5.3.4 模型训练的参数与时间比较 5.3.5 转成ONNX格式进行推理识别测试 5.4 更丰富的数据集资源 5.4.1 VOC目录结构与标注格式 5.4.2 从VOC数据集提取所需要的类别 5.4.3 从COCO数据集抽离类别并转成VOC格式 5.4.4 从ImageNet数据集抽离类别并转成VOC格式 5.4.5 汇总多种数据集来源进行模型训练 5.5 对自己收集的数据进行标注 5.5.1 手动收集图像数据 5.5.2 图像标注工具 5.5.3 标注过程需要注意的重点 5.6 本章小结 第6章 在Jetson上执行YOLO算法 6.1 YOLO神经网络简史与算法演进 6.2 搭配YOLO算法的Darknet框架 6.2.1 安装Darknet框架 6.2.2 Darknet使用说明 6.2.3 执行YOLO目标检测的推理计算 6.3 用Darknet训练YOLO口罩识别模型 6.3.1 在Jetson使用YOLOv4-Tiny训练模型 6.3.2 整理数据集与格式转换 6.3.3 修改YOLOv4-Tiny网络结构文件 6.3.4 执行训练模型的步骤 6.3.5 检测口罩识别模型的效果与性能 6.4 调用Darknet的Python接口提取识别内容 6.4.1 darknet_video.py的使用方法 6.4.2 修改darknet_images.py获取所识别物体的信息 6.4.3 用darknet_video.py获取识别物件信息 6.5 本章小结 第7章 上手DeepStream智能分析工具 7.1 基于GStreamer框架的DeepStream 7.1.1 GStreamer框架简介 7.1.2 GStreamer通道结构的组件与衬垫 7.1.3 GStreamer箱柜的管理机制 7.2 DeepStream的运作体系 7.2.1 DeepStream的功能组件 7.2.2 DeepStream的数据流 7.2.3 DeepStream组件与硬件引擎之对应 7.3 执行DeepStream经典范例 7.3.1 安装DeepStream 开发套件 7.3.2 deepstream-app范例简介 7.3.3 deepstream-app配置文件与相关资源 7.3.4 开始deepstream-app实验 7.4 深入deepstream-app配置文件设置组 7.4.1 系统类设置组 7.4.2 输入源设置组 7.4.3 预处理设置组 7.4.4 智能计算设置组 7.4.5 信息汇总之视觉显示设置组 7.4.6 信息汇总之IoT传送设置组 7.5 deepstream-app更多应用 7.5.1 添加多个输入源 7.5.2 调整显示输出的细节 7.5.3 目标跟踪功能 7.5.4 多神经网络的组合识别 7.6 本章小结 第8章 开发DeepStream应用 8.1 开始DeepStream的Python应用 8.1.1 配置DeepStream的Python开发环境 8.1.2 从deepstream-test1上手 8.1.3 创建DeepStream应用的7步骤 8.2 DeepStream的输入与输出 8.2.1 添加USB摄像头 8.2.2 添加多路多类型输入源功能 8.2.3 动态增减数据源 8.2.4 添加RTSP视频流输出 8.3 DeepStream的智能计算插件 8.3.1 nvinfer推理插件的角色与工作原理 8.3.2 nvinfer控制参数与配置文件 8.3.3 nvtracker目标跟踪算法 8.3.4 nvtracker控制参数与配置文件 8.4 DeepStream的智能范例说明 8.4.1 deepstream-test2多神经网络组合识别 8.4.2 导入自定义YOLO神经网络插件 8.4.3 视频动态遮蔽私密信息 8.4.4 中文车牌号识别 8.4.5 善用NGC丰富的预训练模型资源 8.5 DeepStream的统计分析插件 8.5.1 nvdsanalytics插件工作流与元数据 8.5.2 nvdsanalytics的配置文件 8.5.3 执行deepstream-nvdsanalytics范例 8.6 性能优化基本原则 8.7 本章小结 第9章 Jetbot智能车学习系统 9.1 安装Jetbot操作环境 9.1.1 用镜像文件烧录 9.1.2 在Jetson用脚本安装 9.1.3 下载容器镜像安装(推荐) 9.1.4 检测环境:登录Jupyter操作界面 9.2 安装无线网与配置Wi-Fi连线 9.2.1 安装无线网卡 9.2.2 为Jetbot配置独立的无线连接方式 9.2.3 将Jetbot无线网卡设置为热点 9.2.4 将控制台PC无线网卡设置为热点 9.2.5 通过便携无线路由器协助 9.3 组装Jetbot智能车所需要注意的细节 9.3.1 非标准件的注意细节 9.3.2 OLED显示屏的选型与处理 9.3.3 TT电机的选购与测试 9.4 跑动Jetbot 9.4.1 基本运动(basic_motion) 9.4.2 游戏摇杆控制(teleoperation) 9.5 避撞功能 9.5.1 Jetbot环境识别原理 9.5.2 现场演示(live_demo) 9.5.3 数据采集 9.5.4 模型训练 9.6 剖析Jetson的40针引脚 9.6.1 分清楚GPIO与SFIO的不同 9.6.2 jetson-io引脚配置工具 9.6.3 Jetson.GPIO应用开发库 9.7 浅谈I2C总线与周边设备 9.7.1 I2C总线的特性 9.7.2 i2c-tools总线检测工具 9.7.3 Jetbot控制OLED显示屏的代码 9.7.4 Jetbot的控制元件与代码 9.8 本章小结
展开全部

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航