自动驾驶汽车如何探测路面的积水深度?

点击展示全部

[首发于智驾最前沿微信公众号]对于自动驾驶汽车来说,雨天和积水一直是非常棘手的挑战。在晴朗的天气里,传感器可以轻松识别车道线、行人和其他车辆,但当路面出现大面积积水甚至发生内涝时,情况就变得复杂了。

自动驾驶系统不仅需要发现前方有水,更需要判断这滩水到底有多深,是以较低的速度驶过,还是应该立刻停下并绕行。这种对积水深度的探测,目前在技术层面依然属于一个正在不断探索的课题。

传感器眼中的积水长什么样?

目前自动驾驶汽车主要依靠激光雷达、摄像头和毫米波雷达来观察世界。激光雷达通过发射激光束并接收反射信号来建模,但当激光遇到积水时,大部分光线会发生镜面反射,斜着射向远方而无法回到接收器,或者被水体直接吸收。这就导致在激光雷达的视角里,积水区域会变成一片“信息黑洞”,系统很难直接获取水底路面的深度数据。

摄像头则更接近人类的视觉。它能看到路面的反光、水花的溅起以及周围物体在水中的倒影。虽然摄像头无法像尺子一样直接量出深度,但它能通过捕捉这些视觉特征来间接推断。

举个例子,如果摄像头发现前方的路缘石已经消失在水面下,或者路边的交通标志杆只露出了一半,算法就能意识到水位已经超出了安全范围。不过,这种推断非常依赖环境参照物,如果是在一片开阔且没有参照物的地带,摄像头也会感到无所适从。

图片源自:网络

相比之下,毫米波雷达对雨雾的穿透力较强,但它的物理特性决定了它对水面这种平整的介质缺乏足够的区分度。它更多是用来探测水面上方的障碍物,而不是水面本身的深度。

因此,单纯依靠某一种传感器去“测量”积水深度是非常困难的,行业内普遍的做法是将多种传感器的数据进行融合,并结合地图信息进行综合研判。

既然看不透,深度是怎么算出来的?

既然传感器很难直接看穿水面,有些技术方案中便开始尝试通过侧面打听的方式来解决问题。一种常见的方法是利用几何推理。早期自动驾驶汽车配有高精地图,系统知道这段路面在干燥状态下的海拔高度和坡度。当传感器发现水面时,通过计算水面边缘与周围已知高度物体(如路肩、隔离带)的接触点,再对比地图上的原始高度,就能估算出大概的水深。

图片源自:网络

计算机视觉中的语义分割技术也起到了关键作用。现在的自动驾驶系统会通过深度学习模型,实时识别出图像中属于“积水”的像素区域。在一些先进的方案中,系统还会分析前车的行驶轨迹。如果前方车辆经过积水时,车轮被淹没了一半,或者溅起的水花高度异常,后方的自动驾驶系统就会捕获这些动态特征,并迅速通过视觉分析给出深度的参考值。

为了提高判断的准确性,现在的算法已经不再局限于单纯的几何测量。像特斯拉在推广其全自动驾驶能力时,就利用了海量的真实驾驶数据来训练神经网络,使其能够识别出不同深度积水的细微视觉差异。根据特斯拉官方在技术分享会上的描述,他们的系统可以识别由于水深不同而引起的路面纹理变化和反射率差异。这种方式虽然不需要复杂的物理公式,但需要极其庞大的素材库来支撑算法的自我进化。

面对积水,现在的自动驾驶能做到哪一步?

在实际应用中,汽车厂家对积水的处理态度通常是非常谨慎的。即便技术上能做到初步探测,但出于安全考虑,大多数系统在遇到深度不明的积水时,首选策略依然是避让。

图片源自:网络

不过,针对一些特定车型,硬件层面的主动防御已经开始与感知算法相结合。以特斯拉Cybertruck为例,该车在2024年更新的说明书中就已详细描述了“涉水模式”。在这个模式下,车辆不仅会调高空气悬架,还会对电池包进行加压,防止水分渗入。虽然这更多属于硬件保护,但它也依赖于系统对外部水环境的初步感知。

除了乘用车,在特定的运营场景下,自动驾驶的积水探测已经有了实战案例。比如百度Apollo在武汉和北京运营的无人驾驶出租车,在遇到短时强降雨产生的积水路段时,系统会结合激光雷达的“回波缺失”特征和视觉上的水流波动进行联合判定。

其第五代无人车就已经可以识别超过10厘米深度的明显积水,并根据预设的安全阈值自动做出减速或改道绕行的决策。这种能力在城市内涝频发的季节,对于维持无人化运营的连续性至关重要。

最后的话

积水探测技术仍面临很多极端情况的考验。比如浑浊的泥水会完全遮蔽水底情况,夜间微弱的光线会让摄像头失去判断力,而湍流不息的水面则会让视觉算法产生误差。未来的突破方向可能会更多地转向多车协同感知,即通过先导车辆将探测到的实时路况数据通过网络分享给后车。这样一来,哪怕后续车辆的传感器被积水干扰,也能提前获知前方的安全水深限制。自动驾驶对积水的探测,正在从尝试看清向聪明预测跨越。

声明:本文由太平洋号作者撰写,观点仅代表个人,不代表太平洋汽车。文中部分图片来源网络,感谢原作者。
1455
04-07
分享
发表您的看法…
半价购
分享