密歇根大学的研究人员正在“教授”自动驾驶汽车通过观察人类的步态、身体对称性和脚的位置,使其更精确地识别和预测行人的行动。研究人员通过车辆摄像头、激光雷达和GPS收集的数据捕捉运动中人类的视频片段,然后在3D计算机模拟中进行重建。通过这种方式,他们创造了一个“生物力学启发的循环神经网络”,以对人类运动进行编目。自动驾驶汽车可以以此预测距离车辆大约50码的一个或几个行人的姿势和接下来的位置。
U-M机械工程助理教授Ram Vasudevan表示:“之前在这方面的工作通常只关注静止图像,而忽略了人们在三维空间中的移动,但如果这些车辆要在现实世界中运行,那就非常有必要考虑这些因素了。”
自动驾驶
自动驾驶技术中使用的大多数机器学习技术使用的都是二维图像,即静态照片。但是通过利用几秒钟的视频片段,U-M系统可以研究片段的前半部分进行预测,然后利用后半部分验证预测的准确性。Vasudevan表示:“如果一个行人正在玩手机,他会因此而分心,但是我们可以根据他的姿势和视线方向等线索来预测他下一步的行动。”
Johnson-Roberson表示:“我们预测的中位误差在一秒钟后大约为10厘米,在六秒钟后的误差小于80厘米,而其他方法所产生的误差最多可达7米。”
为了创建用于训练U-M神经网络的数据集,研究人员在Ann Arbor的几个十字路口停放了一辆具有4级自动驾驶功能的车辆,汽车的摄像头和LiDAR面向交叉路口,车辆可以一次记录多天的数据。研究人员利用从现实世界中获得的“野外”数据补充了实验室中的传统数据,并在此基础上开发了一个可以提高无人驾驶车辆能力的系统。