×
超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

关闭
计算智能算法及其生产调度应用

计算智能算法及其生产调度应用

1星价 ¥50.2 (5.7折)
2星价¥50.2 定价¥88.0
图文详情
  • ISBN:9787513673402
  • 装帧:一般胶版纸
  • 册数:暂无
  • 重量:暂无
  • 开本:16开
  • 页数:324
  • 出版时间:2023-07-01
  • 条形码:9787513673402 ; 978-7-5136-7340-2

内容简介

本书选择典型的流水车间调度、作业车间调度、分布式调度等问题作为研究背景,以强化学习、深度学习和其他智能算法为研究对象,开展复杂约束条件下的车间生产调度单目标或多目标问题研究。围绕基于监督学习的序列模型、基于值函数逼近的深度强化学习算法、基于策略梯度的深度强化学习算法、改进的NSGA-Ⅱ算法、基于NASH-Q-learning的分布式算法展开论述,并将之分别应用到不同的生产调度场景。本书基于作者多年的研究成果和实践经验写成,可供从事智能制造、人工智能、工业工程、企业管理等专业的研究人员阅读,也可作为上述专业学生的研究、学习用参考书。

目录

目录 第1章绪论1 1.1研究背景和意义1 1.1.1研究背景1 1.1.2研究意义4 1.2车间生产调度问题及研究现状7 1.2.1车间生产调度问题7 1.2.2研究现状9 1.3研究内容及目标20 1.3.1研究内容20 1.3.2研究目标24 1.4技术路线及创新点24 1.4.1技术路线24 1.4.2创新点25 第2章概率推理28 2.1贝叶斯公式28 2.2概率图模型30 2.2.1隐马尔可夫模型31 2.2.2贝叶斯网络34 2.2.3贝叶斯网络推理39 2.3本章小结50 计算智能算法及其生产调度应用 第3章样本学习51 3.1决策树51 3.1.1信息增益52 3.1.2增益率62 3.1.3Gini指数63 3.1.4剪枝处理63 3.2回归66 3.2.1线性回归66 3.2.2逻辑回归68 3.3支持向量机69 3.3.1硬间隔*大化支持向量机70 3.3.2软间隔*大化支持向量机73 3.3.3对偶算法74 3.3.4非线性支持向量机78 3.4非参数化学习79 3.4.1KNN算法79 3.4.2距离计算81 3.4.3K值确定82 3.5集成学习83 3.5.1Boosting算法83 3.5.2随机森林86 3.6无监督学习和半监督学习88 3.6.1样本的相似度89 3.6.2类和簇91 3.6.3层次聚类93 3.6.4K-means聚类96 3.7本章小结99 第4章神经网络和深度学习100 4.1深度前馈神经网络102 4.1.1前馈神经网络102 4.1.2深度前馈神经网络及学习模式103 4.2深度卷积神经网络105 4.2.1卷积神经网络105 4.2.2深度卷积神经网络108 4.3深度循环神经网络109 4.3.1循环神经网络109 4.3.2深度循环神经网络111 4.4深度自动编码器112 4.4.1欠完备自动编码器113 4.4.2正则自动编码器113 4.4.3深度自编码器116 4.5核函数方法深度学习116 4.6激活函数117 4.6.1饱和激活函数118 4.6.2非饱和激活函数121 4.7本章小结124 第5章强化学习125 5.1马尔可夫链蒙特卡洛方法125 5.1.1马尔可夫链125 5.1.2马尔可夫决策过程127 5.2动态规划129 5.2.1动态规划原理129 5.2.2价值函数130 5.2.3策略迭代132 5.3深度强化学习133 5.3.1深度强化学习基本原理133 5.3.2基于值函数的深度强化学习134 5.3.3基于策略梯度的深度强化学习137 5.4本章小结143 第6章监督学习方式求解车间生产调度问题145 6.1引言145 6.2问题描述146 6.3调度规则与样本数据149 6.3.1调度规则149 6.3.2样本数据150 6.4自注意力模型152 6.4.1基于自注意力模型的序列编码152 6.4.2Transformer模型154 6.5LSTM-PtrNets-CRF模型157 6.5.1模型框架157 6.5.2模型训练161 6.6实验与结果分析163 6.6.1实验设置163 6.6.2结果对比与分析165 6.7本章小结168 第7章值函数逼近算法求解车间生产调度问题170 7.1引言170 7.2问题描述171 7.3状态表示和动作构建173 7.3.1状态表示173 7.3.2动作构建175 7.4状态与动作映射176 7.4.1网络构建176 7.4.2网络训练178 7.4.3误差反向传播179 7.4.4梯度下降算法183 7.5奖励函数与值函数计算185 7.5.1奖励函数186 7.5.2值函数逼近187 7.5.3期望Sarsa算法188 7.6实验与结果分析190 7.6.1实验设置190 7.6.2结果对比与分析192 7.7本章小结195 第8章策略梯度算法求解车间生产调度问题197 8.1引言197 8.2问题描述198 8.3注意力机制200 8.3.1注意力分布和打分机制200 8.3.2指针网络202 8.4模型框架203 8.4.1深度序列模型203 8.4.2长短期记忆网络204 8.5策略梯度优化方法208 8.5.1策略梯度定理及证明209 8.5.2基于强化学习的序列生成212 8.5.3A3C算法应用213 8.6实验与结果分析217 8.6.1实验设置217 8.6.2结果对比与分析217 8.7本章小结219 第9章混合Qlearning算法求解多目标车间生产调度问题221 9.1引言221 9.2问题描述及优化目标222 9.2.1问题描述222 9.2.2问题建模224 9.2.3Pareto*优解229 9.3改进NSGAⅡ算法230 9.3.1编码与解码230 9.3.2选择、交叉和变异操作234 9.3.3基于N5邻域结构搜索策略236 9.3.4算法流程237 9.4路径优化算法设计238 9.4.1位置扫描239 9.4.2节点选择策略和信息素更新239 9.4.3路径优化问题编码240 9.5强化学习避障策略241 9.5.1动态避障策略241 9.5.2收敛性证明245 9.6实验与结果分析248 9.6.1实验设置248 9.6.2结果对比与分析249 9.7本章小结260 第10章NASHQlearning算法求解分布式车间生产调度问题261 10.1引言261 10.2问题描述263 10.2.1分布式置换流水车间调度263 10.2.2问题模型264 10.2.3复杂性分析265 10.3迭代贪婪算法266 10.3.1初始化方法266 10.3.2破坏重构策略267 10.3.3局部搜索269 10.3.4接受准则274 10.4多智能体深度强化学习275 10.4.1多智能体强化学习276 10.4.2NASH均衡278 10.4.3NASHQlearning算法280 10.5多智能体平均场深度强化学习算法282 10.5.1平均场理论282 10.5.2多智能体平均场强化学习283 10.5.3多智能体平均场Qlearning算法286 10.5.4多智能体车间调度算法288 10.6实验与结果分析292 10.6.1实验设置293 10.6.2结果对比与分析294 10.7本章小结299 第11章总结与展望301 11.1全书总结301 11.2进一步的工作304 参考文献306
展开全部

作者简介

任剑锋,男,汉族,副教授,现就职于河南财经政法大学,长期从事管理科学与工程、高等教育教学管理等领域的相关研究工作,谙熟强化学习、深度学习等人工智能方法在相关管理科学问题中的应用及其背后的数学理论基础;同时,多年从事高等教育教学管理工作,积累了较丰富的工作经验。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航