- ISBN:9787111779223
- 装帧:平装-胶订
- 册数:暂无
- 重量:暂无
- 开本:24cm
- 页数:12,312页
- 出版时间:2025-04-01
- 条形码:9787111779223 ; 978-7-111-77922-3
本书特色
本书不仅涵盖了大模型的发展历程、深度学习与强化学习的基础知识,还详细剖析了DeepSeek-R1的架构设计、训练优化方法以及商业化应用,同时结合FIM补全、多轮对话、代码生成等高级功能,展示了其在复杂场景中的强大能力。
本书通过智能推荐搜索系统的商业化落地案例,为读者提供了从技术到业务的完整参考。
读者可扫描封底二维码,获取相关案例代码、各章思考题及超200分钟《轻松玩转DeepSeek》保姆级视频课(涉及DeepSeek部署、对话,制作思维导图、PPT,搭建知识库,生成网站、数字人、3D模型等详细使用方法和技巧),从而在学习中更好地加深对核心概念和技术的理解与掌握。
内容简介
DeepSeek-R1大模型是一款具备强大自然语言处理能力的人工智能模型,能够高效完成文本生成、翻译、问答、代码编写等多种任务,适合企业级应用和开发者集成。本书系统性地解析了大模型的核心原理、关键技术以及DeepSeek的多个实际应用场景。
全书共分为12章,首先介绍大模型的基础知识与发展历程,从神经网络的起源到大规模预训练模型的演化,再到Transformer、BERT与GPT等模型架构的深入剖析,帮助读者理解大模型的技术基石。其次详细解析了DeepSeek-R1及其Zero版本在强化学习与模型架构上的核心技术,包括混合专家模型、动态学习率调度、分布式训练及高效推理优化策略等。再次聚焦于模型训练与开发实践,介绍API调用、上下文拼接、多轮对话管理、模型微调、知识蒸馏等关键技术,并结合DeepSeek实际案例展示其在数学推理、代码生成等领域的应用。*后着重探讨了大模型在商业化落地场景中的高级应用,如FIM补全、多轮对话、业务代码自动化生成以及基于云部署的智能推荐搜索系统等。
本书内容兼具理论深度与实战价值,同时附赠相关案例代码、各章思考题及教学视频等学习资源,适合大模型开发者、AI研究人员、工程师、数据科学家、企业技术决策者以及对人工智能技术感兴趣的高校师生阅读。无论是希望深入理解大模型技术的专业人士,还是寻求在实际业务中应用AI技术的从业者,都能从中获得有价值的信息和实践指导。
前言
近年来,人工智能技术取得了突飞猛进的发展,尤其是大模型(Large Model)的出现,改变了自然语言处理、计算机视觉、代码生成等多个领域的技术格局。作为人工智能领域的核心技术之一,大模型凭借强大的泛化能力、上下文理解能力以及多任务处理能力,正在推动各行各业的智能化转型。DeepSeek-R1大模型作为这一领域的代表性成果,不仅在技术上实现了突破,更在实际应用中展现了巨大的潜力。
DeepSeek-R1大模型是一款由深度求索公司开发的高性能人工智能模型,具备强大的自然语言处理能力,能够高效完成文本生成、翻译、问答、代码编写等多种任务。其设计理念在于注重上下文理解与长文本处理,支持高达64k的上下文长度,适用于复杂场景和多轮对话。DeepSeek-R1在性能与效率上进行了优化,适合企业级应用和开发者集成。
DeepSeek-R1-Zero是DeepSeek-R1的基础版,采用大规模强化学习技术,通过奖励模型和训练模板快速适应新任务或新领域。其架构相对简化,强调在数据稀缺或任务多样化场景下的高效学习能力,特别适合需要快速适应新环境的应用。
本书旨在系统性地解析大模型的核心原理、关键技术以及DeepSeekR1的实际应用场景,为读者提供从理论到实践的全面指导。全书共分为12章,内容涵盖大模型的基础知识、关键技术、训练与优化方法,以及在实际业务中的应用案例。
目录
前言
第1部分大模型基础与核心技术
第1章 大模型简介
1.1大模型基本概念与发展历程
1.1.1从神经网络到大规模预训练模型
1.1.2深度学习时代:模型规模与数据驱动
1.1.3以DeepSeek为例:大模型应用场景扩展及其商业化进程
1.2大模型关键技术概览
1.2.1Transformer架构简述
1.2.2自监督学习与预训练技术
1.2.3分布式计算与大模型并行化
1.3大模型训练、微调与推理
1.3.1数据预处理与模型初始化
1.3.2微调技术:全参数微调与参数高效微调
1.3.3高效推理优化:量化、剪枝与知识蒸馏
1.4对话大模型V3与推理大模型R1
1.4.1自然语言理解与自然语言生成模型的异同
1.4.2推理大模型的性能优化与低延迟处理
1.4.3推理模型在数学推理与代码编写中的应用
1.5DeepSeek中的模型压缩与模型蒸馏技术
1.5.1模型量化技术:PTQ与QAT
1.5.2知识蒸馏:教师模型与学生模型
1.5.3压缩技术对模型性能与推理速度的影响
1.6本章小结
第2章 深度学习与强化学习基础
2.1神经网络与损失函数
2.1.1前馈神经网络与卷积神经网络概述
2.1.2交叉熵与均方误差损失
2.1.3自适应损失函数与动态权重调整
2.2梯度下降、反向传播与神经网络的训练
2.2.1SGD、Adam与LAMB优化器
2.2.2反向传播算法与计算图
2.2.3学习率衰减与训练收敛加速
2.3基于PyTorch的深度学习框架简介
2.3.1PyTorch张量操作与自动求导机制
2.3.2构建神经网络模型的模块化设计
2.3.3动态计算图与GPU加速的实现
2.4强化学习基础
2.4.1强化学习环境、智能体与奖励机制
2.4.2时间差分学习与QLearning详解
2.5监督学习、无监督学习与强化学习对比
2.5.1不同学习范式假设
2.5.2半监督与自监督学习的实际应用场景
2.6基于神经网络的强化学习
2.6.1深度Q网络与策略梯度方法融合
2.6.2ActorCritic算法与优势函数的优化
2.6.3多智能体强化学习框架概述
2.7经验平衡:EpsilonGreedy
2.7.1探索与利用的基本矛盾及其解决思路
2.7.2Epsilon参数动态调整策略
2.7.3基于分布式系统的Epsilon优化方法
2.8基于QLearning的神经网络:DQN
2.8.1经验回放机制的实现
2.8.2目标网络的稳定性优化
2.8.3DQN的改进版本:Double DQN与Dueling DQN
2.9本章小结
第3章 早期自然语言处理与大模型基本网络架构
3.1词嵌入与循环神经网络
3.1.1Word2Vec与GloVe词向量模型的实现原理
3.1.2RNN的时间序列数据建模能力
3.1.3RNN中的梯度消失与梯度爆炸问题及其缓解策略
3.2长短期记忆网络与门控循环单元
3.2.1LSTM的门控机制与长期依赖建模
3.2.2GRU的简化结构与性能对比
3.2.3LSTM与GRU在自然语言处理任务中的应用场景
3.3Transformer与注意力机制
3.3.1自注意力机制
3.3.2Transformer的编码器与解码器架构分析
3.4编码器-解码器架构
3.4.1Seq2Seq模型与注意力机制的结合
3.4.2Transformer的编码器-解码器架构在机器翻译中的优势
3.5大模型家族:BERT与GPT简介
3.5.1BERT的预训练任务:MLM与NSP详解
3.5.2GPT的自回归语言建模机制与训练方法
3.6本章小结
第2部分DeepSeek-R1的核心架构与训练技术
第4章 基于大规模强化学习的DeepSeek-R1-Zero
4.1强化学习算法
4.1.1基于策略优化的强化学习方法:PPO与TRPO
4.1.2分布式强化学习架构及其在大模型中的应用
4.1.3强化学习算法的收敛性与稳定性优化策略
4.2DeepSeek-R1Zero奖励模型
4.2.1奖励建模的理论基础与设计方法
4.2.2DeepSeek-R1Zero的自适应奖励函数实现
4.2.3奖励信号稀疏性问题及其改进策略
4.3DeepSeek-R1Zero训练模板
4.3.1基于强化学习的模型训练流程设计
4.3.2模板参数调优与多任务并行训练策略
4.3.3数据采样与经验回放在训练中的作用
4.3.4DeepSeek-R1Zero的自进化过程
4.4本章小结
第5章 基于冷启动强化学习的DeepSeek-R1
5.1冷启动问题
5.1.1冷启动场景下的数据稀缺
5.1.2基于元学习的冷启动
5.1.3迁移学习在冷启动问题中的应用
5.2面向推理的强化学习
5.2.1强化学习模型的泛化能力与推理性能优化
5.2.2基于推理场景的多任务学习方法
5.3拒绝抽样与监督微调
5.3.1拒绝抽样算法
5.3.2结合监督学习的强化学习模型微调方法
5.4全场景强化学习
5.4.1多场景强化学习策略设计与泛化能力提升
5.4.2动态环境下的适应性强化学习
5.4.3面向复杂场景的分层强化学习
5.5模型蒸馏:使小模型也具有优秀的推理能力
5.5.1基于强化学习的知识蒸馏技术
5.5.2蒸馏过程中学生模型的性能优化
5.6本章小结
第6章 DeepSeek-R1架构剖析
6.1混合专家架构与Sigmoid路由机制
6.1.1混合专家架构的基本原理
6.1.2Sigmoid路由机制的动态路由策略优化
6.1.3混合专家模型的并行化与扩展能力分析
6.2FP8、FP16及混合精度训练
6.2.1低精度数值格式计算
6.2.2混合精度训练与基于FP8/FP16的内存计算
6.3DualPipe双管道处理算法与AlltoAll跨节点通信机制
6.3.1双管道处理架构的设计原理与数据流优化
6.3.2AlltoAll通信机制
6.3.3DeepSeek-R1中的NVLink带宽优化
6.4本章小结
第3部分DeepSeek-R1的开发与实践
第7章 DeepSeek-R1核心训练技术详解
7.1基于分布式训练的DeepSeek-R1训练架构
7.1.1分布式数据并行与模型并行的结合策略
7.1.2DeepSeek-R1在大规模GPU集群中的训练优化
7.1.3参数服务器与无中心化训练架构对比分析
7.2动态学习率调度器与缓存机制分析
7.2.1动态学习率调整算法及其理论基础
7.2.2Cosine Annealing与Warmup策略的应用
7.2.3基于反馈机制的自适应学习率调度器设计
7.2.4KV缓存机制的工作原理与性能提升分析
7.2.5缓存机制对多轮对话与长文本生成的影响
7.3无辅助损失的负载均衡策略与多令牌预测训练目标
7.3.1无辅助损失机制在负载均衡中的应用
7.3.2多令牌预测目标的多样性提升与优化方法
7.4本章小结
第8章 DeepSeek-R1开发基础
8.1开发前的准备:API Keys的获取与RESTful API基本调用
8.1.1API密钥生成
8.1.2RESTful API基础调用方法与参数配置
8.1.3API权限控制与安全性优化
8.2DeepSeek-R1开发样例
8.2.1基于Python的DeepSeek-R1简单应用示例
8.2.2第三方应用场景
8.3本地部署DeepSeek-R1
8.3.1DeepSeek-R1模型本地化部署流程
8.3.2Docker与虚拟化环境中的部署优化
8.3.3模型更新与版本管理
8.4本章小结
第9章 DeepSeek-R1开发进阶
9.1使用DeepSeek-R1完成数学问题求解
9.1.1数学表达式解析与建模方法
9.1.2复杂方程求解与逻辑推理能力评估
9.1.3数学推理任务中的模型性能优化策略
9.2使用DeepSeek-R1编写代码实现常见算法
9.2.1代码补全与常用算法自动生成实践
9.2.2深度代码分析与Bug检测模型优化
9.3本章小结
第4部分DeepSeek-R1的高级应用与商业化落地
第10章 FIM补全、对话前缀续写及上下文缓存机制
10.1对话补全与FIM补全
10.1.1对话补全的上下文管理与连续性优化
10.1.2FIM补全技术的原理与应用
10.1.3多模态对话系统中的补全策略研究
10.2多轮对话与对话前缀续写
10.2.1多轮对话状态跟踪与上下文管理机制
10.2.2对话前缀续写模型微调
10.2.3高复杂度多轮对话场景下的模型适应性分析
10.3JSON文件输出与函数回调
10.3.1JSON数据结构生成与解析策略
10.3.2DeepSeek-R1中基于函数回调的交互式开发模式
10.4上下文硬盘缓存
10.4.1硬盘缓存机制在大规模推理任务中的应用
10.4.2缓存一致性管理与数据有效性
10.5本章小结
第11章 后端业务代码辅助生成插件
11.1自动化代码生成流程
11.1.1业务逻辑到代码生成的映射机制
11.1.2代码模板与领域特定语言的结合使用
11.1.3代码生成质量评估与模型反馈机制
11.2API自动化文档生成
11.2.1基于代码注释的API文档自动生成流程
11.2.2文档与代码同步更新的自动化策略
11.2.3API文档可读性与交互性优化方法
11.3代码重构与性能优化建议生成
11.3.1基于DeepSeek-R1的代码复杂度分析与优化建议生成
11.3.2跨语言代码转换
11.4智能错误检测与自动修复
11.4.1静态代码分析中的自动化错误检测
11.4.2运行时异常自动识别与修复
11.5代码审计与安全检测
11.5.1代码安全漏洞自动化检测技术
11.5.2审计规则引擎与合规性分析
11.6本章小结
第12章 DeepSeek-R1&V3的联合开发:基于云部署的智能推荐搜索系统
12.1云端部署架构设计
12.1.1基于Kubernetes的模型容器化部署方案
12.1.2高可用性与弹性扩展的云端架构
12.1.3分布式存储与数据管理
12.2智能搜索引擎开发
12.2.1自然语言处理驱动的搜索算法优化
12.2.2基于语义理解的智能检索与推荐机制
12.3数据流与实时处理系统集成
12.3.1高并发场景下的数据流处理架构
12.3.2Kafka与实时数据处理平台集成
12.4智能广告投放与效果优化
12.4.1广告推荐系统中的模型应用场景
12.4.2基于用户行为数据的广告投放策略优化
12.4.3A/B测试与广告效果实时评估
12.5本章小结
作者简介
丁小晶
资深大模型AI应用技术专家与管理者,拥有超过15年的计算机及AI领域经验、5年团队管理经验的技术创新与项目管理复合型人才,精通大模型技术及多语言编程,致力于AI大模型的应用和创新。
毕业于中国科学院计算技术研究所,从事高性能计算技术研究。先后在三星中国、百度等世界知名企业工作,有多年旅日工作经历,屡获百度荣誉并持多项专利。目前作为小度教育业务技术负责人及大模型应用专家,研究基于大模型AI教育产品创新,引领小度教育成为行业先锋。
崔远
毕业于兰州大学,副教授,主攻人工智能(AI)、自然语言处理(NLP)和深度学习等计算机前沿技术,并致力于教学研究,承担多门专业核心课程的教学工作。曾获公派赴佐治亚理工学院(GT)和不列颠哥伦比亚大学(UBC)深造。主持市厅级课题3项,发表专业论文8篇及专著1部。多次荣获校级“优秀教师”称号及“教学优秀奖”,在学术和教育领域均取得显著成就。
-
莫言的奇奇怪怪故事集
¥19.0¥59.9 -
悉达多
¥13.0¥28.0 -
中国近代史
¥13.7¥39.8 -
死魂灵
¥14.0¥48.0 -
事已至此先吃饭吧
¥15.9¥55.0 -
本森小姐的甲虫
¥15.9¥55.0 -
一个陌生女人的来信
¥12.9¥39.8 -
偏见
¥17.8¥56.0 -
面纱
¥16.9¥49.8 -
失去一切的人
¥16.6¥52.0 -
诺贝尔文学奖大系-窄门
¥14.9¥31.0 -
罗生门
¥15.9¥36.0 -
1984-插图珍藏版
¥9.9¥29.8 -
鸟与兽的通俗生活
¥17.7¥39.8 -
鼠疫
¥12.6¥38.8 -
2025读书月阅读盲盒——我独钟意命运角落的人
¥42.3¥168.0 -
重生
¥12.9¥39.8 -
女性生存战争
¥29.7¥66.0 -
她们
¥16.0¥46.8 -
我是一只骆驼
¥14.2¥32.0