×
CHATGPT的基本原理与核心算法

包邮CHATGPT的基本原理与核心算法

1星价 ¥54.8 (7.9折)
2星价¥54.8 定价¥69.0
暂无评论
图文详情
  • ISBN:9787302682639
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 开本:其他
  • 页数:0
  • 出版时间:2025-03-01
  • 条形码:9787302682639 ; 978-7-302-68263-9

本书特色

u 各种大型语言模型及其相关基础方法、实现工具等,从文本单模态、视听觉多模态、具身智能到交互式智能体,几乎都可以完全使用深度神经网络进行系统阐述。这充分表明,自2012年AlexNet问世以来,各种基于端到端数据驱动的深度神经网络学习方法,已走了多远,不仅将自然语言处理、计算机视觉、语音处理等领域,进行了彻底改变,而且还正在让这些学科之间的边界消融,并迈向统一。
u 本书从深度神经网络的角度切入,体系化地介绍了ChatGPT的基本原理与核心算法,既包括了深度神经网络的基础知识与大演化脉络,Transformer兴起的缘由,也涉及ChatGPT等大型语言模型的预训练、微调、安全及价值对齐以及思维链提示应用等重点内容的介绍。
u 作者对深度卷积神经网络、LSTM、Transformer和强化学习方法进行了深入细致的剖析,其中对视觉Transformer相关基础大模型和GPT思想之旅的介绍,特色鲜明。
u 通用人工智能将给人类带来辉煌的未来。推动、掌握并有能力充分利用更多大型语言模型与通用人工智能相关基础知识的人,必将在这个快速发展与进化的世界中,获得更加强大的竞争力。

内容简介

"能够模仿人类语言智能与思维,具有世界一般性知识的ChatGPT,开启了通用人工智能的新时代,正成为引爆第四次工业革命的火种。本书是**本体系化介绍ChatGPT基本原理与核心算法的教材及专业图书。全书共分5章: 第1章为人工神经网络基础;第2章详细剖析了Transformer及其缘起,分析了视觉领域的Transformer算法;第3章综述了各种大型语言模型框架,分享了创建GPT系列模型的思想之旅;第4章重点介绍了ChatGPT的预训练方法与微调算法,系统地阐述了强化学习基础与基于人类反馈的强化学习;第5章为ChatGPT的应用,包括上下文学习提示与思维链提示,并讨论了智能涌现。本书体系严谨、系统性强、逻辑严密、内容丰富,不仅深入浅出、图文并茂、特色鲜明,而且具有引领性、前瞻性和思想启迪性。 本书可作为高等院校人工智能、智能科学与技术、计算机科学与技术、大数据、自动驾驶、新一代机器人及相关专业高年级本科生与研究生教材,也可供上述专业的研究人员、算法工程师及从事AI产品研发、产业发展与决策咨询等的工程技术人员、投资者、战略研究者和广大科技工作者参考。"

前言

ChatGPT作为一个可通过图灵测试且达到某种人类智能水平的聊天智能体,于2022年年底率先在自然语言处理(NLP)领域获得突破。以深度学习为代表的弱人工智能在经历十年大发展之后,艰难地实现了自我超越,一个全新的通用人工智能时代清晰可见,正在扑面而来。
在20世纪90年代初,作者在博士后期间就主要从事人工神经网络与强化学习方法的研究。自2009年以来,则主要在面向自动驾驶与移动机器人的计算机视觉(CV)领域深耕。2017年6月,谷歌的Transformer模型一经推出,作者就特别留意到这种基于自注意力学习机制的新一代神经网络,并积极开展计算机视觉中Transformer方法的研究。但ChatGPT之类的大型语言模型解决的大部分任务,毕竟大都发生在NLP领域,作者去体系化写作这样一部基础书籍,是否合适?
幸运的是,通过收集并阅读大量的相关文献,发现各种大型语言模型及其相关基础方法、实现工具等,除了其中涉及的NLP任务与性能评测外,几乎都可以完全使用神经网络进行系统阐述,这让作者惊讶不已。这其实也表明,自2012年AlexNet问世及其带来以深度学习为代表的第三次人工智能的蓬勃发展以来,各种基于端到端数据驱动的深度神经网络学习方法已走了很远!不仅将NLP、CV、语音识别与合成等领域进行了彻底改变,成为各个研究方向的主导方法,而且还正在让这些学科之间的边界逐步消融,并迈向统一。

目录

第1章人工神经网络基础1
1.1引言1
1.2人工神经元模型3
1.2.1基准神经元模型: MP模型3
1.2.2**代神经元模型: WSN模型4
1.2.3第二代神经元模型: RBF模型7
1.2.4第三代神经元模型: 发放模型7
1.3人工神经网络模型8
1.3.1神经网络的基本概念与方法8
1.3.2前馈神经网络模型18
1.3.3深度卷积神经网络模型25
1.3.4反馈神经网络模型37
1.3.5递归神经网络模型49
1.4本章小结50

第2章从LSTM到Transformer51
2.1引言51
2.2递归神经网络: 编码器解码器框架52
2.2.1从前馈神经网络到递归神经网络53
2.2.2Elman网络: 经典递归神经网络56
2.2.3长短期记忆网络60
2.2.4递归神经网络的编码器解码器框架71
2.3递归神经网络的注意力与点积相似性74
2.3.1长短期记忆网络的注意力74
2.3.2点积相似性75
2.4Transformer模型77
2.4.1传统编码器解码器框架下的Transformer网络结构77
2.4.2嵌入向量与位置编码82
2.4.3残差直连结构及前置归一化层82
2.4.4Transformer的核心结构单元: 多头注意力机制与逐位置前馈
神经网络84
2.4.5学习机制: 层堆叠自监督学习与基于误差反向传播的监督微调87〖1〗〖2〗ChatGPT的基本原理与核心算法〖1〗目录2.4.6Transformer的主要特性87
2.4.7与递归神经网络的联系与区别88
2.5应用领域: 从NLP扩展到CV89
2.5.1CV领域的Transformer90
2.5.2视觉目标检测与分割任务: DETR91
2.5.3图像分类任务: ViT93
2.5.4三维点云处理任务: Point Transformer96
2.5.5对比式语言图像预训练模型: CLIP101
2.5.6其他视觉任务及展望107
2.6本章小结107

第3章GPT系列预训练大型语言模型109
3.1引言109
3.2大型语言模型的Transformer框架112
3.2.1前缀(编码器)解码器架构的Transformer框架113
3.2.2编码器架构的Transformer框架114
3.2.3解码器架构的Transformer框架115
3.3混合式预训练大型语言模型118
3.3.1T5模型118
3.3.2GLM模型119
3.4判别式预训练大型语言模型121
3.4.1BERT模型121
3.4.2RoBERTa模型123
3.5GPT系列生成式预训练大型语言模型124
3.5.1GPT1: 利用生成式预训练改善语言理解126
3.5.2GPT2: 无监督多任务学习的语言模型129
3.5.3GPT3: 少样本学习的大型语言模型132
3.5.4GPT4: 图文多模态大型语言模型137
3.6本章小结141

第4章ChatGPT的大规模预训练与微调143
4.1引言143
4.2大型语言模型的大规模预训练145
4.2.1预训练任务与模型选择145
4.2.2大规模预训练方法149
4.2.3生成式Transformer大型语言模型的对比式自监督学习152
4.3ChatGPT预训练模型的微调154
4.3.1强化学习基础154
4.3.2预训练大型语言模型的指令调优与RLHF调优170
4.3.3初始动作器: SFT模型的监督训练173
4.3.4初始评判器: RM模型的监督训练174
4.3.5A2C框架下的PPOptx强化学习: 策略更新与价值对齐175
4.4性能评估183
4.4.1与人类意图及价值观对齐的性能评估183
4.4.2定量评测184
4.5ChatGPT规模化与工程化中的关键技术186
4.5.1大规模高质量数据资源的准备187
4.5.2大规模分布式预训练与微调所需的AI算力支撑190
4.6本章小结192

第5章ChatGPT的应用194
5.1引言194
5.2提示工程195
5.2.1预训练提示微调范式195
5.2.2零样本提示与少样本提示196
5.3上下文学习提示196
5.3.1语言模型的元学习196
5.3.2上下文学习提示198
5.4思维链提示199
5.4.1思维链提示的两种方式199
5.4.2少样本思维链提示200
5.4.3零样本思维链提示202
5.4.4自动少样本思维链提示204
5.5思维树提示207
5.5.1思维树提示的基本思想207
5.5.2思维树: 大型语言模型深思熟虑的问题求解方法208
5.5.3分析与讨论210
5.6智能涌现能力212
5.6.1智能涌现能力的定义213
5.6.2涌现能力发生的几种情形214
5.6.3涌现能力的分析与展望217
5.7本章小结218

展开全部

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航