10 月 13 日消息,时速 40 公里的无人机,并不稀奇。但能用这个速度在茂密的森林里穿梭,还是"自己遛自己"的那种,你见过吗? 如此高超的避障飞行走位,可不是人类用手柄操作出来的,全靠无人机的"自我管理意识 "。 就算是遇到运动的障碍物,只要比这个无人机速度慢,它就都可以躲得过去。 这款自主避障无人机,是由苏黎世大学与英特尔联合开发。 具体而言,就是以立体深度摄像头作为眼睛,让无人机可以自己看得见障碍物,并规划飞行轨迹。 换上不同性能的相机,它还可以自主完成不同的任务。 比如说躲避迎面砸过来的篮球,像这样: 完成被称作无人机杂技的高难度飞行轨迹也不在话下。 如此灵活的无人机,是怎么被教出来的?一对一的无人机避障学习 传统的无人机自主避障飞行,一般都是信息处理-制作地图-规划路线的处理方式。 但是由于无人机搭载的芯片性能有限,如果信息处理不及时,无人机就可能会撞上障碍物造成事故。 想要提高信息处理速度,不如把三步合并为一步,利用机器学习完成输入到输出的映射 。 具体来说,就是从传感器信息输入直接到飞行轨迹输出,这种处理方式在速度上要大大优于传统方法。 如上表所示,和传统的 FastPlanner、Reactive 路径规划方法相比,这个算法所需的处理时间更短。虽然 Reactive 的处理速度也很快,但是它在高速飞行中的表现较差。 那么,无人机如何实现从传感器输入,直接到飞行轨迹的输出映射? 这里就用到了卷积网络来模拟训练。 模拟中的神经网络训练使用了一个"专家控制器 "(expert controller),它可以使用 3D 点云,准确估计出模拟训练中的环境状态与无人机四旋翼状态。 由于模拟训练没有时间限制,"专家控制器"可以更充分地自行训练端到端策略。 控制器还用到了 Metropolis-Hastings (M-H) 算法来计算轨迹的分布,获得多模式导航方案。 在这个过程中,端到端策略训练如下图所示: 训练完成的"专家控制器",将会去教授现实中无人机上的"学生控制器" (student controller)。 "学生控制器"在跟随"专家控制器"飞行时,使用的传感器输入均做了抽象化处理,以此来模拟现实世界中不精确的环境数据。 传感器输入的现实图像数据,会被抽象处理成与模拟环境一致的数据,以此来完成训练轨迹在现实中的映射。 在雪地、脱轨火车、废墟、茂密植被和倒塌的建筑物等场景下,无人机已经实现了自主穿越。 针对运动模糊、传感器噪声和其他感知伪影等情况,无人机同样可以轻松处理。能征服森林的无人机,也有它的"禁区" 当然了,目前这款无人机的性能还称不上完美无缺。 模拟系统无法完全照搬到真实世界,现实中总会出现一些模拟不了的意外事件。 比如在低照明及其他影响视觉的环境条件下,相机感知会受到限制 。像是雾霾天气、有透明或反光表面存在的情况,无人机便无法准确避障飞行。 专家控制器的训练不包括动态障碍物躲避,所以高速移动的物体仍然会是无人机的一大威胁因素。 针对性能的优化,研究人员指出:只需要使用事件相机代替传统相机,这些视觉方面的受限因素均可以被克服。 能够更快处理环境信息的传感器,将会是未来高速无人机的配置方向。 同时,相关专家也提到,现实世界也将可能成为训练无人机的场所。 随着传感器功能和计算机能力的提升,无人机在更复杂环境中的飞行速度,很快能超过 40 公里/小时 。 参考链接:点击打开