×
Python预训练视觉和大语言模型

包邮Python预训练视觉和大语言模型

1星价 ¥48.8 (8.2折)
2星价¥48.8 定价¥59.8
暂无评论
图文详情
  • ISBN:9787302678311
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 开本:32开
  • 页数:260
  • 出版时间:2025-01-01
  • 条形码:9787302678311 ; 978-7-302-67831-1

本书特色

基础模型永久改变了机器学习。从BERT到ChatGPT,从CLIP到Stable Diffusion,当数十亿个参数、大数据集与成百上千个GPU相结合时,结果刷新了纪录。《Python预训练视觉和大语言模型》呈现的真知灼见和示例代码将帮你在AWS和Amazon SageMaker上从头开始预训练和优化基础模型,并将它们应用到整个组织的数百个用例中。
《Python预训练视觉和大语言模型》由经验丰富的AWS和机器学习专家Emily Webber撰写,涵盖的内容十分广泛,包括构思项目,准备数据集,训练、评估和部署大型语言、视觉及多模态模型。本书循序渐进地讲述基本概念并列举实例,指导你预训练和准备数据集及模型,配置环境,并训练、微调、评估、部署和优化基础模型。
学习本书后,你将能按照缩放法则在多个GPU上分布模型和数据集,消除偏差,实现高吞吐量以及构建部署管道。*后,你将完全有能力开发个人项目,对基础模型进行预训练和微调。

内容简介

●为预训练和微调寻找合适的用例和数据集
●使用定制的加速器和GPU,为大规模训练做好准备
●配置AWS和SageMaker环境,*大限度地提高性能
●根据模型和约束条件选择参数
●使用多种并行方式分发模型和数据集
●利用作业重启、间歇性健康检查等方式避开陷阱
●定性和定量地评估模型
●部署模型,在运行时进行改进和监控

目录

第Ⅰ部分 预训练前第1章 预训练基础模型简介 31.1 预训练和微调艺术 41.2 Transformer模型架构和自注意力 61.3 *先进的视觉模型和语言模型 81.3.1 截至2023年4月的顶级视觉模型 91.3.2 对比预训练与自然语言监督 111.3.3 截至2023年4月的顶级语言模型 121.3.4 语言技术重点——因果建模和缩放法则 141.4 编码器和解码器 151.5 本章小结 17第2章 数据集准备:第1部分 192.1 为基础建模寻找数据集和用例 192.2 你的数据集有多大区别 23第Ⅰ部分 预训练前第1章 预训练基础模型简介 31.1 预训练和微调艺术 41.2 Transformer模型架构和自注意力 61.3 *先进的视觉模型和语言模型 81.3.1 截至2023年4月的顶级视觉模型 91.3.2 对比预训练与自然语言监督 111.3.3 截至2023年4月的顶级语言模型 121.3.4 语言技术重点——因果建模和缩放法则 141.4 编码器和解码器 151.5 本章小结 17第2章 数据集准备:第1部分 192.1 为基础建模寻找数据集和用例 192.2 你的数据集有多大区别 232.2.1 使用缩放法则调整数据集的大小 252.2.2 基础——神经语言模型的缩放法则 262.3 偏差检测和减少 282.4 增强数据集——多语言、多模态和增强 302.5 本章小结 32第3章 模型准备 353.1 寻找*优基础模型 353.1.1 从*小的基础模型开始 373.1.2 权衡——简单与复杂 373.1.3 权衡——应用于许多用例,而非局限于一个用例 383.1.4 找到*优基础模型的技术方法 393.2 寻找预训练损失函数 393.2.1 视觉的预训练损失函数——ViT和CoCa 413.2.2 语言中的预训练损失函数——Alexa教师模型 443.2.3 更改预训练损失函数 463.3 设定模型大小 463.3.1 解决模型大小问题的实用方法 493.3.2 并非所有缩放法则的效果都相同 493.3.3 规划未来的实验 503.4 本章小结 51 第Ⅱ部分 配置环境 第4章 云容器和云加速器 554.1 什么是加速器,为什么它们很重要 554.2 准备使用加速器 584.3 优化加速器性能 634.3.1 超参数 634.3.2 AWS上加速器的基础设施优化 644.4 加速器性能故障排除 654.5 本章小结 67第5章 分布式基础知识 695.1 理解关键概念——数据和模型并行性 695.1.1 什么是数据并行 705.1.2 什么是模型并行 715.2 将模型与数据并行相结合 735.3 Amazon SageMaker分布式训练 745.3.1 分布式训练软件 755.3.2 SM DDP 765.3.3 SMP库 775.4 减少GPU内存的高级技术 795.4.1 张量并行性 805.4.2 优化器状态分片 815.4.3 激活检查点 815.4.4 分片数据并行性 815.5 当今模型的示例 825.5.1 Stable Diffusion——大规模数据并行 825.5.2 GPT-3——大规模的模型和数据并行性 835.6 本章小结 84第6章 数据集准备:第2部分 856.1 Python中的数据加载器 866.2 构建和测试自己的数据加载器——来自Stable Diffusion的案例研究 886.3 创建嵌入——词元分析器和智能功能的其他关键步骤 916.4 在Amazon SageMaker上优化数据管道 956.5 在AWS上大规模转换深度学习数据集 986.6 本章小结 100 第Ⅲ部分 训练模型第7章 寻找合适的超参数 1037.1 超参数——批量大小、学习率等 1037.2 微调策略 1057.3 基础模型的超参数微调 1087.4 使用SageMaker根据world size放大 1097.5 本章小结 113第8章 SageMaker的大规模训练 1158.1 优化SageMaker训练的脚本 1158.1.1 导入程序包 1168.1.2 参数解析 1168.1.3 函数定义和用法 1188.2 SageMaker训练的顶级可用性功能 1218.2.1 用于快速实验的暖池 1218.2.2 SSM和SSH进入训练实例 1228.2.3 跟踪作业和实验以复制结果 1238.3 本章小结 127第9章 高级训练概念 1299.1 评估和提高吞吐量 1299.2 使用Flash注意力加速训练运行 1329.3 通过编译加快作业速度 1339.4 Amazon SageMaker训练编译器和Neo 1359.5 在亚马逊的Trainium和Inferentia自定义硬件上运行编译后的模型 1379.6 求解*优训练时间 1389.7 本章小结 140 第Ⅳ部分 评估模型 第10章 微调和评估 14310.1 对语言、文本和其间的一切进行微调 14310.1.1 微调纯语言模型 14510.1.2 微调纯视觉模型 14710.1.3 微调视觉语言模型 14910.2 评估基础模型 15010.2.1 视觉模型评估指标 15010.2.2 语言模型评估指标 15210.2.3 联合视觉-语言任务中的模型评估指标 15410.2.4 通过SageMaker Ground Truth将人类视角与标签相结合 15610.3 从人类反馈中强化学习 15710.4 本章小结 158第11章 检测、减少和监控偏差 16111.1 检测机器学习模型中的偏差 16111.2 减少视觉和语言模型中的偏差 16511.2.1 语言模型中的偏差减少——反事实数据增强和公平损失函数 16611.2.2 视觉模型中的偏差减少——减少相关性并解决采样问题 16911.3 监控机器学习模型中的偏差 17011.4 使用SageMaker Clarify检测、减轻和监控偏差 17211.5 本章小结 173 第Ⅴ部分 部署模型第12章 如何部署模型 17712.1 模型部署的定义 17712.2 托管模型的*优方式 17912.3 为什么缩小模型,以及如何缩小 18212.3.1 模型编译 18312.3.2 知识蒸馏 18312.3.3 量化 18412.4 在SageMaker上托管分布式模型 18412.5 模型服务器和端到端托管优化 18612.6 本章小结 188第13章 提示工程 18913.1 提示工程——以少搏多的艺术 18913.2 从少样本学习到零样本学习 19013.3 文本到图像提示工程的注意之处 19313.4 图像到图像提示工程的注意之处 19613.4.1 放大 19613.4.2 掩膜 19613.4.3 使用DreamBooth提示目标到图像 19713.5 提示大型语言模型 19813.5.1 指令微调 19813.5.2 思维链提示 19913.5.3 摘要 20013.5.4 防止提示注入和越狱 20013.6 高级技术——前缀和提示微调 20113.6.1 前缀微调 20113.6.2 提示微调 20313.7 本章小结 204第14章 视觉和语言MLOps 20514.1 什么是MLOps? 20514.2 持续集成和持续部署 20814.3 模型监控和人机回环 21014.4 基础模型的MLOps 21214.5 视觉MLOps 21314.6 AWS为MLOps提供的服务 21514.7 本章小结 218第15章 预训练基础模型的未来趋势 21915.1 构建LLM应用程序的技术 21915.1.1 使用开源堆栈构建交互式对话应用程序 22015.1.2 使用RAG确保LLM应用程序的高准确性 22215.1.3 生成是新的分类吗? 22315.1.4 用LLM构建应用的人性化设计 22415.2 其他生成式模式 22515.3 基础模型中的AWS产品 22615.4 基础模型的未来 22815.5 预训练的未来 22915.6 本章小结 232——?以下内容可扫描封底二维码下载?——参考文献 233
展开全部

作者简介

Emily Webber是AWS的首席ML专家解决方案架构师,专门从事大型语言和视觉模型的分布式训练。Emily在AWS社区广为人知,在YouTube上发布了由16个视频组成的SageMaker系列,视频播放量高达21.1万次。Emily曾在2019年伦敦人工智能大会上发表过主题演讲。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航