范永祥作者

灵巧工业机器人(二)手内操控

概述:机器人广泛应用于工业生产的加工和装配等各个领域。传统的工业机器人需要通过复杂的标定和预编程来完成任务。近年来,自动化水平的发展对机器人在不确定环境下执行复杂任务提出了更高的要求。因而机器人机械手的灵巧性受到更多的关注。本课题旨在工业机器人的灵巧性研究。这其中包括

1. 工业机械手/灵巧手的智能实时抓取;

2. 灵巧手的手内操控;

3. 工业机器人强化学习与智能装配。

其中第一点在上一篇推送中已有阐述(参见灵巧工业机器人(一)抓取),本文简述第二点,手内操控。

2. 灵巧仿生手的手内操控

1) 灵巧手的鲁棒操控

机器人在不确定环境下的复杂任务对机械手的灵巧性提出了更高要求。由于被抓物体的未知特性,多手指多关节机械手难以对未知物体进行手内操控。本课题提出了一种“鲁棒操作控制器”,如图2.1.1所示,成功实现了未知物体的手内旋转偏移等手内操控,如图2.1.2所示。该课题入选了国际先进智能机械电子会议AIM2017最佳论文。论文下载地址:

https://ieeexplore.ieee.org/document/8014085/

图2.1.1. 鲁棒操作控制器。该算法利用反馈线性化将动态系统线性化,并利用鲁棒控制器进行鲁棒控制。控制结果通过操作控制器优化被动态系统接收。

图2.1.2. 鲁棒操作控制器结果。本课题应用了4手指12关节灵巧手。物体的期望轨迹为提起并旋转。该控制器对物体50%的质量不确定性和80%的惯性不确定性鲁棒。

2) 灵巧手的手指步态规划

机械手手指通常具有较小的移动范围,为了适应手内物体的大范围移动,手指需要进行步态调整。本课题提出了一种“手指步态规划”算法,能实时的调整手指与物体的接触点并保持物体抓取的稳定性,如图2.2.1所示。该算法能探索未知物体表面,并实现物体的大范围灵巧运动,如图2.2.2所示。该算法继承了a)鲁棒控制的性能,对外界的力矩干扰有很强的鲁棒性,如图2.2.3所示。该成果连续发表在世界自动化协会大会IFAC2017及国际机器人与系统会议IROS2017上。论文下载地址:

https://arxiv.org/abs/1710.10350

图2.2.1. 基于优化的手内操控规划器。抓取质量分析挑选出需要改变接触点的手指。该手指通过速度手指步态规划器在物体表面滑动以提高抓取质量和自身手指的操控性能。其余手指按照鲁棒操作控制器操控物体并抵抗外界干扰。该算法对物体的质量,形状,接触,摩擦均有较强的鲁棒性。

图2.2.2. 基于优化的手内操控规划规划结果。本课题无需物体形状信息。物体的期望轨迹为提起,摆动,并伴随大规模旋转。(上)不使用提出的规划器,手指到达极限,操作失败。(下)使用提出的规划器,该算法能自动调整手指步态,以保证操作性能和抓取质量。

图2.2.3. 基于优化的手内操控规划器对外界干扰的鲁棒性。该算法对外界力/矩干扰有很强的鲁棒性。

(未完待续) 

ControlPlusAI
ControlPlusAI

分享机器人控制和AI领域里的一些知识和感想,偏学术。由来自UC Berkeley, Stanford, CMU的研究者们原创撰稿。

理论工业机器人
2
相关数据
规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

工业机器人技术

工业机器人是面向工业加工制造的可自动控制,多用途,需有三轴及以上可编程的固定或可移动机械手。其系统中包括带有执行机构的机械手以及示教控制器。 它可以依靠自身控制能力来执行预设的轨迹及动作。典型应用包括焊接,刷漆,组装,采集和放置等工作。工业机器人完成工作具有高效性,持久性和准确性。目前常用的工业机器人包括关节机器人,SCARA机器人,并联机器人和直角坐标机器人等。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

推荐文章
暂无评论
暂无评论~