几年前,Davide Scaramuzza实验室在苏黎世大学为我们带来了Event Camera这种动态视觉传感器。Event camera与普通照相机有很大的差别,它对于小巧迅捷的机器人是十分理想的,尤其当你更考虑减小碰撞的几率而非清晰拍摄事物的时候。在提交给Robotics and Automation Letters的一篇论文中,Timo Horstschaefer、Antoni Rosinol Vidal和Antoni Rosinol Vidal教授首次展示了一架用于自主驾驶无人机的Event Camera,并承诺这将使无人机完成以前做不了的事情。
无人机自主导航成本最低的方法是使用相机。在这一点上,相机的成本几乎是零。非常重要的是,如果你将相机与IMU融合,在移动速度不快,而且有可靠的照明设备情况下,相機就可以提供完全合理的状态评估。
状态评估——准确地知道你在哪里在做什么,这听起来很无聊,但对于自动机器人来说绝对是至关重要的。为了让机器人做出与周围环境交互的决策,它必须对自己的位置、移动速度和方向有很好的识别功能。
有很多方法可以进行状态评估,其中最精确的是耐用且价格不菲的场外运动捕捉系统。当你开始尝试用更小更简单的机器人进行状态评估时,问题就变得困难起来,特别是当你试图将其运用在高度动态的大型平台上,比如快速移动的小型飞行器。
这就是为什么人们会忍不住要依赖相機,但是相機本身也有很多问题。第一个重要的问题是,当传感器移动超过所能被攝像头帧率捕捉上限时,摄像头图片就会变得模糊;第二个问题是在光线不足或过多的情况下,对于金发女孩效应:它只能刚好,不可能太少也不可能太多,也不是两极之间任意值。
与傳統攝影機比起來,Event Camera是一個完全不同的存在,它不是记录一个场景,而是在场景发生变化时记录下来。在一个没有物体移动的地方放置一台Event Camera,它不会显示任何东西。但是一旦Event Camera检测到运动(像素级光線發生了變化),它就会以非常高刷新率(毫秒)呈现出来。如果你的目标是在移动时避开物体,一台Event Camera就是你的最佳选择,因为这种摄像头只是寻找像素变化,对于低光也很敏感,并且不会因为强光而拍不到移动对象。
他们使用了DAVIS这个原型传感器,将一个事件摄像头嵌入到标准照相机关中的每个像素阵列中,同时还嵌入了一个同步工作并跟踪事件和帧数据的一个惯性测量单元。这项技术使得四旋翼飞行器能够自主飞行,即使是在光线变换的情况下也能实现:通过紧密结合事件信息、标准帧信息以及惯性测量,我们开发出了第一个状态反馈路径,该路径利用两个传感器间互补优势。此外,我们证明我们的混合反馈路径提高了130%以上精度,以及85%以上正确率,而保持计算处理能力。此外,我们还演示了第一款使用事件摄影来进行状态反馈的小型四旋翼飞行器,从而解锁那些传统视觉-惯性系统无法触及到的飞行环境,如低光条件或高动态亮度变化等情形。这表明即便是在灯火通明或者一片漆黑之中,有着显著阴阳交替区域的情形,也能够实现稳定的飞行动作。
为了检测出四旋翼飞行者的定位及其相关运动精确地进行判断,他们尝试去识别独特图象特征并追踪这些特征如何随时间改变位置正如视频所展示那样的,当天气阴晴圆缺或者环境突然转换成暗处的时候,一般照相机会失效但event camera却完美适应这样的环境状况。
研究者们已经未测试该技术是否适用于户外操作(尽管快速从阳光直射转向阴影是一个挑战),但基于目前取得的地步,这种可能性并不远大,更令人期待的是未来科技能否推出一种新的、高性能、高灵敏度甚至更加实用的“智能”视觉传感设备,以满足更多复杂任务需求。
via techcrunch雷锋网编译
更多消息关注雷锋网旗下的公众号「新智造」,跟雷锋网一起读懂智能未来