麻省理工学院计算机科学与人工智能实验室尝试教导人工智能学会感官结合
来自麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员提出了一种可以通过触摸学会看到,并通过观察来学习感受的预测性人工智能。该系统可以从视觉输入创建逼真的触觉信号,并直接从那些触觉输入预测哪个对象和哪个部分被触摸。研究团队使用 KUKA 机器人手臂和一个名为 GelSight 的特殊触觉传感器,并用简单的网络摄像头记录了近 200 件物品,如工具,家用产品,织物等,触摸次数超过 12,000 次。通过将这 12,000 个视频片段分解为静态帧,该团队编制了「VisGel」,一个包含 300 多万个视觉 / 触觉配对图像的数据集。「通过观察现场,我们的模型可以想象触摸平坦表面或锋利边缘的感觉」,CSAIL 博士学生及主要作者 Yunzhu Li 在一篇关于该系统的新论文中说。「通过盲目地触摸,我们的模型可以纯粹从触觉中预测与环境的相互作用。将这两种感官结合在一起可以增强机器人的能力并减少我们在涉及操纵和抓取物体的任务时可能需要的数据。」