作者 | Priya Dwivedi(编译:ronghuaiyang)
介绍
自动驾驶将在未来十年给旅行带来革命性的变化。目前,自动驾驶应用正在进行各种应用案例的测试,包括乘用车、机器人出租车、自动商业送货卡车、智能叉车和用于农业的自动拖拉机。
自动驾驶需要一个计算机视觉感知模块来理解和导航环境。感知模块的作用包括:
检测车道线
检测其他物体:车辆、人、环境中的动物
跟踪检测到的对象
预测他们可能的运动
一个好的感知系统应该能够在各种驾驶条件下 —— 白天 / 晚上,夏天 / 冬天,雨雪等等,实时做到这一点。在这篇博客中,我们着眼于一个实时模型,用于检测车道线、其他车辆等,并生成警报。
训练一个实时的车道线检测器
车道检测问题通常被定义为语义或实例分割问题,目标是识别属于车道类别的像素。
TUSimple 是车道检测任务常用的数据集。该数据集包含 3626 个道路场景的标注视频剪辑。每个剪辑有 20 帧。这些数据是通过安装在车上的摄像头捕捉到的。下面分享了一个示例图像及其标注。

在这个数据集上,我们可以训练一个语义分割模型来分割出属于 lane 类的像素。U-Net model 非常适合做这个,因为它是一个具有实时推理速度的轻量级模型。U-Net 是一种带有跳跃连接的编译码器和解码器模块的编译码器模型。模型架构如下所示。

然而,损失函数需要修改为 Dice 损失系数。车道线分割问题是一个极其不平衡的数据问题。图像中的大多数像素属于背景类。Dice Loss 基于 Sorenson-Dice 系数,其对 false positives 和 false negatives 的重要性相似,这使得它在处理不平衡数据问题时表现得更好。Dice 损失试图匹配 groundtruth 和预测模型中的车道线像素,希望能够得到一个清晰的边界预测。
LaneNet 模型
这里,我使用了 LaneNet 模型来生成车道线。LaneNet 模型是一种两阶段车道线预测器。第一阶段是一个编码器 - 解码器模型,为车道线创建分割掩码。第二阶段是车道先定位网络,从掩码中提取的车道点作为输入,使用 LSTM 学习一个二次函数来预测车道线点。
下图显示了这两个阶段的运行情况。左边是原始图像,中间是阶段 1 的车道线掩码输出,右边是阶段 2 的最终输出。

生成智能告警
我将车道线预测与物体检测结合起来,生成智能警报。这些智能警报可能涉及:
检测其他车辆是否在车道线内,并量度与他们的距离
检测邻近车道上是否有车辆的存在
了解弯曲道路的转弯半径
在这里,我使用 YOLO-v5 来检测道路上的汽车和人。YOLO-v5 在检测道路上的其他车辆方面做得很好。推理时间也非常快。
下面我们用 YOLO v5 来测量自己的车和前面最近的车的距离。模型返回的距离以像素为单位,可以根据相机参数转换成米。由于 TUSimple 数据集的相机参数未知,我根据车道线的标准宽度估计了像素到米的转换。

我们可以类似地计算车道的曲率半径,并将其用于汽车的转向模块。

总结
在这篇博客中,我们探讨了在自动驾驶中准确和快速检测车道线的问题。然后,我们使用 YOLOv5 来构建对道路上其他物体的理解。这可以用来生成智能警报。
英文原文:
https://towardsdatascience.com/real-time-lane-detection-and-alerts-forautonomous-driving-1f0a021390ee