×
超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

关闭
大规模语言模型:从理论到实践

大规模语言模型:从理论到实践

1星价 ¥70.9 (6.5折)
2星价¥70.9 定价¥109.0
图文详情
  • ISBN:9787121467059
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 开本:其他
  • 页数:320
  • 出版时间:2024-01-01
  • 条形码:9787121467059 ; 978-7-121-46705-9

本书特色

√解码大语言模型奥秘,引领机器智能新时代! √详细介绍构建LLM的四个主要阶段:预训练、有监督微调、奖励建模和强化学习。每个阶段都有算法、代码、数据来源、难点及实践经验的详细讨论。 √结合作者在NLP领域多年的研究经验、超300篇相关论文深度研读感悟! √分享作者团队从0开始研发复旦大学MOSS大语言模型过程中的实践经验,为读者展示大语言模型训练的全流程细节。 √配全书PPT课件。

内容简介

2023年ChatGPT火爆全球,以其为代表的人工智能大语言模型成为全球人工智能从业者关注的焦点。 本书详细介绍了构建大语言模型的四个主要阶段:预训练、有监督微调、奖励建模和强化学习。每个阶段都有算法、代码、数据、难点及实践经验的详细讨论。本书以大语言模型的基础理论开篇,探讨了大语言模型预训练数据的构建方法,以及大语言模型如何理解并服从人类指令,介绍了大语言模型的扩展应用和评估方法,为读者提供了更全面的视野。 本书旨在为对大语言模型感兴趣的读者提供入门指南,也可作为高年级本科生和研究生自然语言处理相关课程的补充教材。

目录

第1章 绪论 1 1.1 大语言模型的基本概念 1 1.2 大语言模型的发展历程 4 1.3 大语言模型的构建流程 8 1.4 本书的内容安排 11 第2章 大语言模型基础 13 2.1 Transformer结构 13 2.1.1 嵌入表示层 14 2.1.2 注意力层 16 2.1.3 前馈层 18 2.1.4 残差连接与层归一化 19 2.1.5 编码器和解码器结构 20 2.2 生成式预训练语言模型GPT 25 2.2.1 无监督预训练 26 2.2.2 有监督下游任务微调 27 2.2.3 基于HuggingFace的预训练语言模型实践 27 2.3 大语言模型的结构 33 2.3.1 LLaMA的模型结构 34 2.3.2 注意力机制优化 40 2.4 实践思考 47 第3章 大语言模型预训练数据 49 3.1 数据来源 49 3.1.1 通用数据 50 3.1.2 专业数据 51 3.2 数据处理 52 3.2.1 质量过滤 52 3.2.2 冗余去除 53 3.2.3 隐私消除 55 3.2.4 词元切分 55 3.3 数据影响分析 61 3.3.1 数据规模 61 3.3.2 数据质量 64 3.3.3 数据多样性 66 3.4 开源数据集 68 3.4.1 Pile 68 3.4.2 ROOTS 71 3.4.3 RefinedWeb 73 3.4.4 SlimPajama 75 3.5 实践思考 79 第4章 分布式训练 80 4.1 分布式训练概述 80 4.2 分布式训练的并行策略 83 4.2.1 数据并行 84 4.2.2 模型并行 88 4.2.3 混合并行 96 4.2.4 计算设备内存优化 97 4.3 分布式训练的集群架构 102 4.3.1 高性能计算集群的典型硬件组成 102 4.3.2 参数服务器架构 103 4.3.3 去中心化架构 104 4.4 DeepSpeed实践 110 4.4.1 基础概念 112 4.4.2 LLaMA分布式训练实践 115 4.5 实践思考 127 第5章 有监督微调 128 5.1 提示学习和语境学习 128 5.1.1 提示学习 128 5.1.2 语境学习 130 5.2 高效模型微调 131 5.2.1 LoRA 131 5.2.2 LoRA的变体 135 5.3 模型上下文窗口扩展 137 5.3.1 具有外推能力的位置编码 137 5.3.2 插值法 138 5.4 指令数据的构建 141 5.4.1 手动构建指令 141 5.4.2 自动构建指令 142 5.4.3 开源指令数据集 146 5.5 DeepSpeed-Chat SFT实践 147 5.5.1 代码结构 148 5.5.2 数据预处理 151 5.5.3 自定义模型 153 5.5.4 模型训练 155 5.5.5 模型推理 156 5.6 实践思考 157 第6章 强化学习 158 6.1 基于人类反馈的强化学习 158 6.1.1 强化学习概述 159 6.1.2 强化学习与有监督学习的区别 161 6.1.3 基于人类反馈的强化学习流程 162 6.2 奖励模型 163 6.2.1 数据收集 164 6.2.2 模型训练 166 6.2.3 开源数据 167 6.3 近端策略优化 168 6.3.1 策略梯度 168 6.3.2 广义优势估计 173 6.3.3 近端策略优化算法 175 6.4 MOSS-RLHF实践 180 6.4.1 奖励模型训练 180 6.4.2 PPO微调 181 6.5 实践思考 191 第7章 大语言模型应用 193 7.1 推理规划 193 7.1.1 思维链提示 193 7.1.2 由少至多提示 196 7.2 综合应用框架 197 7.2.1 LangChain框架核心模块 198 7.2.2 知识库问答系统实践 216 7.3 智能代理 219 7.3.1 智能代理的组成 219 7.3.2 智能代理的应用实例 221 7.4 多模态大语言模型 228 7.4.1 模型架构 229 7.4.2 数据收集与训练策略 232 7.4.3 多模态能力示例 236 7.5 大语言模型推理优化 238 7.5.1 FastServe框架 241 7.5.2 vLLM推理框架实践 242 7.6 实践思考 244 第8章 大语言模型评估 245 8.1 模型评估概述 245 8.2 大语言模型评估体系 247 8.2.1 知识与能力 247 8.2.2 伦理与安全 250 8.2.3 垂直领域评估 255 8.3 大语言模型评估方法 260 8.3.1 评估指标 260 8.3.2 评估方法 267 8.4 大语言模型评估实践 274 8.4.1 基础模型评估 274 8.4.2 SFT模型和RL模型评估 277 8.5 实践思考 282 参考文献 284 索引 303
展开全部

相关资料

大规模语言模型的成功研发和应用,帮助人类开启了通用人工智能时代的大门。《大规模语言模型:从理论到实践》是张奇教授等几位作者的倾心之作,作者以深厚的学术造诣和丰富的实践经验,为我们揭示了大规模语言模型的基础理论、技术演进、训练方法和实践应用。本书不仅为读者提供了翔实的技术细节,更展示了作者对人工智能领域的严谨理解。对于从事自然语言处理、深度学习等领域的研究者和工程师来说,本书无疑是进入大规模语言模型领域的案头参考书。 王小川,百川智能创始人兼CEO 大规模语言模型是技术发展*快的研究和产业方向,没有之一。然而,很多人仅知其然不知其所以然,很多学生也没有深入研究大规模语言模型的实践机会。本书作者结合自己在自然语言处理领域多年的研究经验、近300篇相关论文深度研读感悟,特别是作者团队从零开始研发复旦大学大规模语言模型过程中经历的切身实践经验,*终形成本书,为读者展示了大规模语言模型训练的全流程细节,同时深入浅出地解释了设计每一步的原理和效用,值得所有具备科学精神、想搞清楚大规模语言模型到底是怎么训出来的投资人、管理者认真阅读,更值得所有想从事或刚从事大规模语言模型研究和改进的研究人员深度阅读。 胡国平,科大讯飞高级副总裁,认知智能全国重点实验室主任 《大规模语言模型:从理论到实践》一书深入阐述了大规模语言模型的演变历程、理论基础及开发实践。本书聚焦大规模语言模型构建的核心技术,包括语言模型预训练、指令微调和强化学习,并细致地介绍了每个阶段所使用的算法、数据来源、面临的难题及实践经验。此外,本书探讨了大规模语言模型的应用领域和评价方法,为对大规模语言模型研究感兴趣的研究者提供了理论支持和实践指导。不仅如此,对于希望将大规模语言模型应用于实际问题解决的研发人员来说,本书同样具有重要的参考价值。特此力荐! 范建平,联想集团副总裁、联想研究院人工智能实验室负责人 我始终相信,大规模语言模型带来了一场新的科技革命,这场革命会逐渐渗透到整个社会的方方面面,带来极其深远的影响。了解、理解直至掌握大规模语言模型技术,对于众多技术从业者而言迫在眉睫。出自复旦大学自然语言处理团队的这本书的出版适逢其时,作者团队堪称豪华,在学术界也一直以严谨著称。这本书不仅介绍了大规模语言模型的基本概念和原理,还提供了大量的工程实践方法和示例代码。无论是初学者还是经验丰富的从业者,都会从中受益。这本书,你值得拥有! 王斌,小米集团AI 实验室主任、自然语言处理首席科学家

作者简介

张奇
复旦大学计算机科学技术学院教授、博士生导师。主要研究方向是自然语言处理和信息检索。兼任中国中文信息学会理事,中国中文信息学会信息检索专委会常务委员,中国人工智能学会青年工作委员会常务委员。多次担任ACL、EMNLP、COLING、全国信息检索大会等重要国际、国内会议的程序委员会主席、领域主席、讲习班主席等。承担国家重点研发计划课题、国家自然科学基金、上海市科委等多个项目,在国际重要学术刊物和会议上发表论文150余篇,获得美国授权专利4项。获得WSDM 2014*佳论文提名奖、COLING 2018领域主席推荐奖、NLPCC 2019杰出论文奖、COLING 2022杰出论文奖。获得上海市“晨光计划”人才计划、复旦大学“卓越2025”人才培育计划等支持,获得钱伟长中文信息处理科学技术一等奖、汉王青年创新一等奖、上海市科技进步二等奖、ACM上海新星提名奖、IBM Faculty Award等奖项。

桂韬张奇
复旦大学计算机科学技术学院教授、博士生导师。主要研究方向是自然语言处理和信息检索。兼任中国中文信息学会理事,中国中文信息学会信息检索专委会常务委员,中国人工智能学会青年工作委员会常务委员。多次担任ACL、EMNLP、COLING、全国信息检索大会等重要国际、国内会议的程序委员会主席、领域主席、讲习班主席等。承担国家重点研发计划课题、国家自然科学基金、上海市科委等多个项目,在国际重要学术刊物和会议上发表论文150余篇,获得美国授权专利4项。获得WSDM 2014*佳论文提名奖、COLING 2018领域主席推荐奖、NLPCC 2019杰出论文奖、COLING 2022杰出论文奖。获得上海市“晨光计划”人才计划、复旦大学“卓越2025”人才培育计划等支持,获得钱伟长中文信息处理科学技术一等奖、汉王青年创新一等奖、上海市科技进步二等奖、ACM上海新星提名奖、IBM Faculty Award等奖项。

桂韬
复旦大学自然语言处理实验室副研究员、硕士生导师。研究领域为预训练模型、信息抽取和鲁棒模型。在高水平国际学术期刊和会议上发表论文40余篇,主持国家自然科学基金、计算机学会、人工智能学会的多个基金项目。获得钱伟长中文信息处理科学技术一等奖、中国中文信息学会优秀博士论文奖、COLING 2018*佳论文提名奖、NLPCC 2019杰出论文奖,入选第七届中国科协青年人才托举工程,入选上海市2023年度“科技创新行动计划”启明星项目,获得2023年度世界人工智能大会云帆奖。

郑锐
复旦大学计算机科学技术学院博士生,导师为张奇教授。研究兴趣包括大模型对齐、鲁棒性等。MOSS-RLHF开源项目负责人,文本鲁棒性评测工具TextFlint的核心贡献者,在ACL、EMNLP、COLING等国际会议上发表学术论文十余篇。

黄萱菁
复旦大学计算机科学技术学院教授、博士生导师。主要从事人工智能、自然语言处理和信息检索研究。兼任中国中文信息学会理事,中国计算机学会自然语言处理专委会副主任,中国人工智能学会女科技工作者委员会副主任,计算语言学学会亚太分会副主席,亚太信息检索学会指导委员会委员。承担国家重点研发计划课题、国家自然科学基金等多个项目,在国际重要学术刊物和会议上发表论文180余篇。获得钱伟长中文信息处理科学技术一等奖、上海市育才奖、人工智能全球女性学者、福布斯中国科技女性等多项荣誉。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航