英语原文共 22 页,剩余内容已隐藏,支付完成后下载完整资料
基于刚性触觉传感阵列的高效触觉形状探索
摘要
触觉探索是机器人、人类区分和处理未知事物或识别类似事物的一种关键技术。它的主动性在人类身上很明显。从早期,人类就具有获取复杂的动态感知的能力,用于主动性的触觉探索和有方向性的手动探索,将表面和物体属性与其空间位置联系起来。这与机器人技术有着鲜明的对比。在这一领域中,缺乏良好的真实交互模型、非常受限的传感器以及缺乏合适的训练数据用于机器学习算法。迄今为止,触觉探索还不是一个很成熟的技术。然而在机器视觉领域中,深度学习方法和丰富的训练数据引发了巨大的进步。在当前的工作中,我们将视觉循环聚焦模型的新进展与先前人类触觉的探索行为、探索过程和触觉视角的见解相联系,寻找一种在模拟3D环境中可学习触觉探索新模型的新架构。此环境包含一组刚性静态对象,这些对象表现为嵌入在3D空间中的一组一维局部形状特征:边、平面和凸面。所提出的算法同时优化了感知行为回路的主要元素:特征提取、随时间变化的特征集成和控制策略,同时持续的获取在线数据。受循环聚焦模型启发,我们将触觉目标识别的目标任务形式化至强化学习框架,并在成功情况下奖励学习者。我们构架了一个多模块神经网络训练,包括特征提取和一个循环神经网络模块协助姿态控制,用于存储和组合顺序感官数据。所得到的用于在物理驱动的仿真环境中移动刚性16x16触觉传感阵列的触觉元控制器,称为触觉聚焦模型,执行一系列触觉扫描,输出对于的受力测量值。该方法已经成功对4个不同的目标进行了测试。其结果接近100%,同时执行对象的轮廓探索已优化了其自身的传感器形态。
简介
虽然触觉是人类生活的核心,但机器人的触觉能力还较难发展。如果将触觉和视觉相比较,这一鲜明的对比将更为明显。高的相机传感器已经变得可以承担得起,无处不在,巨大的图像和视频数据库以及深度学习已经使机器视觉接近于人类的视觉,而可类比的优势,在机器人触觉方向,却十分缺少。
一个原因是,于人类皮肤相比,触觉传感器的成熟度十分有限。第二个深层原因是,触觉与视觉有个重要的不同:当观察一个物体时,它的状态是不受影响的,而触觉需要物理接触,以潜在的复杂和多样的方式,耦合传感器和目标物体,这样通常会产生位置、方向甚至形状的变化。人类触觉利用其丰富性的主动和复杂应用来,来增强我们的技能,如触觉探索、辨别、操纵等。这些任务大部分都很难或者不可能进行足够精确的建模,以便在机器人上复制它们,因此再次呼吁采用类似于视觉上十分成功的机器学习方法。然而,触觉的高度交互性不仅使得学习问题本身更困难,而且也产生了有意义的训练数据是否可用的问题。因为触觉交互的信息很难在静态触觉图像中获取。因此,交互触觉模式的学习方式仍处于初期阶段,机器人可建立和控制丰富且安全地触摸物体或人类的触觉技能仍然是一个未解决的巨大挑战,严重限制了机器人在居家和工业中的应用。
在这项研究中,我们关注于用机器学习来合成一项重要的触觉技能:通过一些主动控制传感器和物体表面的触觉接触区分未知物体的形状。我们的方法建立于最新的进展之上,展现了一个深度网络如何用来学习整合一系列的视觉观察,去区分视觉图案。我们扩展这种方法从视觉到触觉领域,并从人类触觉探索组织中获取灵感,我们在机器人学和人类触觉领域之间的触觉交互计算机理解构建了一个潜在有趣的新桥梁。
在人类中,触觉能力出生时便具有,例如,新生儿需要护理。在早期的发展过程中,随着儿童获得运动控制和集中精神的能力,越来越复杂的触觉探索能力也开始上线。带了学龄前的年龄,儿童表现出和承认一样的探索模式。这一个发展过程产生了一小部分的优化行为模式,在术语上称为探索程式(EPs)。人类用EPs去提取属性,如纹理、硬度、重量、体积或者局部形状特征。
在某些情况下,触觉探索的复杂程度可以有效地降低到Klatzky和Ledermann所称的触觉扫描。具体地说,他们将触觉扫描定义为短暂的、受空间限制的接触,这种接触很少或根本不涉及手指的运动。在同一项工作中,他们提出了一个问题:如何将触觉扫描中的信息转化为有效的操作。在这项工作之后,我们感兴趣的是触觉扫描和探索性操作之间的联系/转换。我们认为一个触觉扫描构成了一个原子的、原始的探索实体。我们进一步假设,如果以最佳方式选择每个单独触觉扫描的参数化,则探索程式可以由这样的原语序列来表示。从长远来看,我们的目标是这样一个问题:一个模型如何能对触觉扫描进行最优控制,以便对未知对象或场景进行特定任务的触觉探索。最终的触觉扫描序列是否会以完整的探索程式(EP)出现吗?为了肯定地回答这个问题,这样一个控制模型应该理想地包含一个策略,根据先前可用的信息(如果有的话)有效地提取特定任务的线索,并随着时间的推移进行整合。为了便于计算,我们做了以下假设。首先,我们假设触觉扫描是最简单的触觉引导动作,是任何更复杂的触觉行为的基础,包括任何类型的触觉探索程序。因此,我们的目标是学习一个最佳的触觉扫描s序列,以适应给定的任务和事先提供的特定于给定机器人平台的传感器形态学。其次,我们假设触觉扫视是由触觉传感器在接触时产生的压力分布和相应的传感器姿态组成的元组定义的。
机器人和人类一样,从触觉传感器中获益,以便发现、识别和操纵物体。机器人技术中的触觉传感应用分为两类。第一种是“动作感知”,利用触觉信息来解决包括抓取、防滑在内的灵巧操作任务。第二类,最近成为一个热门的研究领域,被命名为“感知行动”,涉及认知和探索。最近的发展增加了机器学习技术,以便学习探索策略、特征提取或更好地估计不同数量。其中一类方法是强化学习,这是一类受生物学启发的学习方法,在这种学习方法中,主体通过对环境的积极探索收集数据来学习。它被应用于教授机器人灵巧的操作或以触觉技能的形式使用学习的探索策略,以便于进行表面分类研究。
本文采用的方法为一个典型的令人困惑的问题提供了一种可能的解决方案:如何将上述两个方向的优化“行为为感知”和“感知为行为”结合起来。在计算机视觉中,类似的问题已经通过当前的可视化聚焦模型(recurrent models of visual attention,RAM)的测量进行了研究。RAM通过控制模拟眼睛在图像中的运动来获取图像的微光。建模方法的灵感来自于这样一个事实,即人类并没有将其环境视为一个整体图像。相反,他们只看到场景的一部分,而固定点的位置取决于当前任务。该模型通过基于图像和任务相关的显著性线索收集环境信息。从这些中央凹“瞥见”中提取的信息被组合起来,以获得对可见场景的累积理解。应用于触觉扫视序列控制的RAM在一系列迭代步骤中同时优化了上述两个方向,并使我们能够针对给定的触觉末端效应器的自身约束和所采集数据的时空分辨率找到最优解。
受此启发,我们提出了一个框架,可以在模拟环境中使用触觉传感器阵列识别四个不同的物体。在强化学习框架下,将目标分类和姿态控制形式化为一个连续的决策过程,其中人工智能体能够在目标类的最终估计之前执行多个触觉扫描。在多分量深度神经网络的训练过程中,我们学习如何以有利于分类任务的方式控制刚性触觉传感器的姿态。为了能够集成通过多次触觉扫描获得的信息,我们采用递归神经网络作为该体系结构的一个构建块。下一节描述了仿真设置和所采用的算法,以及训练过程。在介绍了所进行的实验之后,我们对所得结果进行了总结和讨论。
场景和实验设置
为了开发一种高效的触觉控制器,使机器人能够通过一系列的触觉扫视来识别物体,我们在一个物理驱动的模拟环境Gazebo(见S1代码)中进行了全面的实验研究。仿真包括两个主要部分,如图1所示。
图1 Gazebo仿真
触觉传感器阵列——Myrmex
第一部分是一个浮动的独立触觉传感器阵列,其模型类似于Myrmex传感器,以便于在未来的实验中转移到真实的机器人上。它是由圆形末端执行器安装(红色)和方形敏感区(黑色)构成。在模拟中,传感器的一侧包含一个16times;16单元的正方形阵列,覆盖64平方厘米的表面,其值被计算为近似于真实传感器阵列的值(见S2代码)。根据物体间的相互穿透(内在柔顺性)和默认的局部表面参数,利用Gazebo的物理引擎来估计碰撞时的接触。S1视频显示了露台上可用的联系信息及其特征的示例。
每个接触点由其位置和力矢量定义,在接触中心周围产生一个高斯分布,其振幅仅取决于法向力。标准差是任意固定的,以模拟真实传感器上敏感泡沫的变形。混合这些分布会产生一个16times;16的触觉压力图像,表示为一个浮点值数组,与只有4096级压力的真实传感器相反。当测量与边缘的碰撞时,如图1所示,我们期望看到一条线。但是,由于碰撞库的限制,我们获得了显示在左下角的图像。在图2中,显示了模拟Myrmex传感器(图2(a))和真实传感器(图2(b))与长方体接触的触觉图像。露台ODE模拟引擎生成的碰撞库libccd只能生成两个接触点,在同一时间。因此,不可能在产生的触觉图像中产生边缘。相反,真实的传感器产生一个触觉图像,其中预期的接触线是可见的。
通过ROS接口(见S3代码)与露台中的模拟传感器进行通信。
图2 仿真与真实传感器的对比
刺激物质
第二部分是刺激物质。它是一组静态的三维物体,分布在仿真环境中,也以真实的三维木制建筑块的形式存在,顶部雕刻有三维基本形状。我们目前的基本形状类型包括大约60个原型。这些模块的组合形成了所谓的模块化触觉刺激板(Modular Haptic Stimulus Board,MHSB)。通过重新排列块体,不同大小和形状的MHSB已经被用于人类触觉探索和搜索的一系列研究中。通过其模块化,MHSB实现了一个灵活的实验设计,产生了广泛的三维形状景观。
当前设置中的所有形状都是刚性的、静止的并且具有相同的高度。为了适应真实的Myrmex传感器的尺寸和实际KUKA机器人手臂对其控制的限制,选择了9times;9cm的模块。对于这项工作,我们选择了一组局部表示一维曲率特征的基本类型的对象,例如边、平坦的下降/水平面和凸面。由于凹面可能对模拟传感器更具挑战性,我们在当前的工作中忽略了它们。这种一维曲率设计使我们能够将触觉扫掠的参数化限制在二维,沿一个轴的平移和旋转,以及形状的线性排列,而不丧失通用性。如果在实验刺激设计中考虑了新特性,则必须使用新类型的控制参数和新输出来实现触觉扫视控制器。例如,如果物体的曲率相等,并且只能根据高度来区分(一组不同高度的长方体),则触觉扫视控制器需要输出与物体碰撞的高度以及压力分布。
模拟Myrmex的触觉控制
触觉控制由两部分组成,一个执行触觉扫视的低级控制器和一个为低级控制器提供参数化并负责解决任务的高级控制器。
高级元控制器——HAM
触觉探索的过程是由所谓的元控制器操作的:触觉模型(HAM)。它由一个深度神经网络表示,并在方法部分详细描述。它的主要任务是对给定的目标进行分类,同时不断地为低层控制器提供一个新的权宜之计目标姿态 ,包括三个位置坐标 和三个方向,以供进一步探索。它根据网络工作记忆的状态,即先前获取的触觉数据的表示,对触觉扫描s的参数化进行优化。为了证明概念,我们将HAM必须提供的参数的数量限制在沿x轴的位置和绕y轴的角度。在执行触觉扫描s之前,传感器被定位在特定的姿势,其中和Euler角由网络 的输出指定。为了便于阅读,在下面的章节中,可变位置被称为,角度被称为phi;。
低阶触觉扫描控制器
在不丧失通用性的情况下,我们使用图3所示的低级控制器的简化和朴素表示。它执行由HAM提供的两个参数指定的原始触觉交互。给定一个姿势,它输出获得的压力,。执行扫描控制器会将Myrmex从预定义的位置沿z轴向下移动。为此,它会逐渐降低由值表示的高度,同时保持方向和位置不变,直到与对象发生碰撞(请参见S3视频)。当与物体发生碰撞时,由物理引擎以最小的穿透力处理,当传感器上的总压力水平达到一定阈值时,运动停止,传感器输出其读数。计算时,对Myrmex传感器的16times;16传感器单元施加的力进行了求和。当2 N的总力分布在Myrmex的接触面上,即2 N/64 cm2=312.5 Pa时,达到阈值。该控制器的主要特点是通过“hand of god”插件(见S4代码)实现的,是传感器方向和 碰撞前的位置。这是通过关闭重力,并持续保持传感器姿态在一个预定义的值,以抵御任何脉冲的冲击来实现的。通过这种方法,可以保证姿态参数和触觉测量的完全控制。另外,这种受限的实现方式类似于传感器连接到机器人手臂时的移动。
图3 实验核心思想示意图及其在仿真中的实现
在这项工作中,根据可用的触觉传感类型以及触觉对象特性的限制性设计,网络所使用的触觉扫视控制器仅由姿势参数化。然而,参数化可以被扩展,或者网络可以使用一组不同参数化的触觉扫描控制器,类似于功能基础。扩展的一个例子是函数 从姿势到包含压力和相应高度的元组的映射。如果刺激物的高度不同,这种参数化是必要的。如果我们进一步将形状复杂度从一维扩展到二维曲率特征,则数据采集将由两个方向参数代替一个方向参数,例如:。
分类任务
在训练和分类过程中,代理总是呈现四分之一的对象。它通过执行预定义数量的触觉扫描s来探索传感器限制的对象空间。为了学习独立于对象在全局坐标系中的姿势的探索策略,我们引入了图1中用虚线表示的探索区域。勘探区是具有自己的局部坐标系的预定义区域,其中放置了勘探对象。在确定勘探区域后,触觉传感器的六个位姿参数中的两个可以由高级元控制器进行修改,如前一节所述。为了避免学习对象的绝对位置,将其在模拟空间内的坐标映射到勘探区域,对应于神经网络输出所在的范围。由于压力敏感表面仅位于Myrmex的一侧,因此旋转在 范围内进行。进一步旋转
剩余内容已隐藏,支付完成后下载完整资料
资料编号:[239921],资料为PDF文档或Word文档,PDF文档可免费转换为Word
以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。