×
机器人视觉导引理论与技术

机器人视觉导引理论与技术

1星价 ¥71.0 (7.1折)
2星价¥71.0 定价¥100.0
暂无评论
图文详情
  • ISBN:9787547866238
  • 装帧:平装-胶订
  • 册数:暂无
  • 重量:暂无
  • 开本:16开
  • 页数:暂无
  • 出版时间:2024-05-01
  • 条形码:9787547866238 ; 978-7-5478-6623-8

本书特色

机器人视觉导引技术集成了计算机视觉和机器人控制技术,赋予机器人感知环境、识别目标、定位自身位置和规划路径的能力。在工业自动化、智能巡检、产品检测等领域,机器人视觉导引技术能够显著提升生产效率、减少人为错误,并实现精确的操作和导航。此外,机器人视觉导引技术还能促进人机协作,提高工作安全性,为现代制造业、服务业和国防领域带来革命性的变革。本书由长期致力于机器人视觉感知技术研究的专家撰写,涵盖了理论和技术的详细讲解,能够为相关科技人员提供权威参考。

内容简介

本书聚焦机器人视觉导引领域的基础理论和关键技术,采用理论与案例相结合的形式,重点阐述系统参数标定、三维视觉测量、目标位姿估计、跟踪控制策略、多传感器融合等问题,并展示不同应用场景下机器人视觉导引的解决方案。本书可作为机器人感知、视觉测量、视觉导引、视觉跟踪等领域科技人员的参考用书,也可作为智能制造、人工智能等相关方向学生的专业教材。

目录

第1章 绪论…………………………………………………001
1.1 机器人导引技术概述…001
1.2 常见机器人导引技术…004
1.2.1 电磁导引技术.…………………………04
1.2.2 激光导引技术.………………………05
1.2.3 视觉导引技术.………………………007
1.3 机器人视觉导引研究现状…009
1.3.1 三维视觉测量理论……………………………009
1.3.2 机器人运动学理论……………………………012
1.3.3 视觉伺服控制技术…013
1.3.4 系统参数标定技术……………………………015
1.3.5 实际应用….017
1.3.6 主要挑战…………………………………………019
参考文献……………………………………………………021
第2章 机器人视觉导引理论基础…………………………………027
2.1 机器人视觉系统理论模型……………………………027
2.1.1 机器人视觉系统基本架构………………………027
2.1.2 相机成像模型…………………………………028
2.1.3 视觉测量模型………………………………032
2.2 视觉测量与位姿估计理论…034
2.2.1 三角测量理论………………………………034
2.2.2 位姿估计理论…………………………………038
2.3 机器人运动学基本理论……………………………………044
2.3.1 机器人运动学模型…044
2.3.2 机器人运动学分析………………………………048
2.3.3 Simulink与ADAMS联合仿真…………052
参考文献…………………………………………………055
第3章 机器人视觉系统参数标定技术……………………………057
3.1 单相机内部参数标定……………………………………057
3.1.1 相机标定方法概述………………………………057
3.1.2 基于平面靶标的内参标定……………………059
3.1.3 方法验证…062
3.2 双/多相机外部参数标定………………………………064
3.2.1 基于坐标变换的外参标定…064
3.2.2 方法验证…065
3.3 变视轴视觉系统参数标定…067
3.3.1 变视轴视觉成像模型…067
3.3.2 多误差参数联合标定…………………………070
3.3.3 方法验证……072
3.4 机器人手眼关系参数标定………………………………074
3.4.1 两步标定法…074
3.4.2 辅助标定法……………………………………077
3.4.3 方法验证……………………………………079
参考文献…………………………………………………081
第4 章 基于单目视觉的机器人导引技术…………………………083
4.1 常用合作目标………………………………………………083
4.2 目标特征识别与提取…………………………………084
4.2.1 角点识别与检测………………………………084
4.2.2 椭圆识别与检测………………………………087
4.3 多视角图像序列匹配…092
4.3.1 SIFT匹配…093
4.3.2 Root-SIFT匹配………………………098
4.3.3 ASIFT配准…………………………………098
4.4 位姿估计与导引定位…099
4.4.1 三点位姿估计与定位方法……………………099
4.4.2 RPnP位姿估计与定位方法…………………103
4.4.3 算法对比实验…106
参考文献……………………………………………………109
5章 基于双目视觉的机器人导引技术……111
5.1 双视角图像预处理…111
5.1.1 图像差分去除背景…112
5.1.2 颜色过滤去除背景…112
5.2 立体匹配与视差估计……113
5.2.1 匹配代价计算…………………114
5.2.2 匹配代价聚合…………………………………116
5.2.3 视差计算…………………………………………117
5.2.4 视差细化……………………………………………118
5.2.5 实验验证…119
5.3 点云生成与数据处理…121
5.3.1 点云生成…………………………………121
5.3.2 点云配准…122
5.3.3 点云优化………………………………………123
5.3.4 实验验证……………………………………124
5.4 位姿估计与导引定位…126
5.4.1 导引策略……126
5.4.2 实验验证…………………………………………127
参考文献………………………………………………129
第 6 章 视觉导引算法与跟踪控制策略……………………………131
6.1 视觉导引控制策略…131
6.2 目标运动模型…132
6.2.1 匀速模型…132
6.2.2 匀加速模型….133
6.2.3 协同转弯模型…………………………………133
6.2.4 Singer模型…135
6.2.5“当前”统计模型……136
6.2.6 自适应机动目标模型..…………………138
6.3 卡尔曼滤波算法…139
6.3.1 基本原理…140
6.3.2 算法流程…………………………………142
6.4 交互多模型跟踪滤波算法…143
6.4.1 算法原理…144
6.4.2 流程归纳…147
6.5 实验验证…147
6.5.1 跟踪滤波仿真验证…147
6.5.2 目标位置估计实验…150
参考文献………………………………………………151
第7章 多传感器融合视觉导引技术…152
7.1 主辅相机协同的机器人导引方法…152
7.1.1 主辅相机机器人导引模型……………………152
7.1.2 主辅相机标定…152
7.1.3 主辅相机成像目标定位与导引策略………155
7.2 结构光视觉定位的机器人导引方法……………………156
7.2.1 基于结构光的视觉导引模型…………………156
7.2.2 结构光视觉手眼标定…159
7.2.3 基于结构光视觉的目标定位…………………162
7.3 多传感器信息融合的机器人导引方法…164
7.3.1 激光雷达与视觉融合的机器人导引模型…164
7.3.2 激光雷达与视觉融合的手眼系统标定.166
7.3.3 激光雷达与视觉信息融合的目标定位……170
参考文献…173
第8章 应用案例……………………………………………………175
8.1 基于双目视觉三维测量的机器人目标抓取…175
8.2 基于三维视觉点云重建的机器人视觉导引…178
8.3 基于深度学习目标分类的机器人视觉导引…184
彩色插图
展开全部

作者简介

李安虎,同济大学教授、博士生导师。长期从事智能机械、光电跟踪及信息感知理论、技术及应用研究。主持多项国家自然科学基金项目、国家重点研发计划课题、国际合作项目,以及华为、中国电科、上汽集团等委托项目,为国家重大科研任务和重点工程研制光电跟踪仪器10余套,在光成像、光通信、光雷达领域应用成效显著。以**完成人和主要完成人获上海市、工信部等科学技术奖8项。在Optica/IEEE/AIP等高水平期刊发表研究论文110余篇,出版中英文著作5部,授权国内外发明专利100余件,研究成果被日本、美国、西班牙等国际著名研究机构验证并应用。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航