目 录CONTENT

文章目录

使用强化学习训练扩散模型(此标题与内容不符,已根据内容修正)

Administrator
2025-12-04 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:http://bair.berkeley.edu/blog/2025/03/25/rl-av-smoothing/

原文作者:BAIR Blog


我们部署了100辆由强化学习(RL)控制的汽车进入高峰时段的高速公路交通中,旨在为所有驾驶员平抑拥堵并降低燃料消耗。 我们的目标是解决那些通常没有明确原因却导致拥堵和巨大能源浪费的“走走停停”波。为了训练出高效的流量平滑控制器,我们构建了快速的、数据驱动的仿真环境,供RL智能体进行交互,学习在保持吞吐量和围绕人类驾驶员安全运行的同时,最大化能源效率。

总体而言,一小部分控制良好的自动驾驶汽车(AVs)就足以显著改善道路上所有驾驶员的交通流量和燃油效率。 此外,训练好的控制器设计为可在大多数现代车辆上部署,以去中心化的方式运行,并依赖标准的雷达传感器。在我们最新的论文中,我们探讨了将RL控制器从仿真扩展到实地大规模部署的挑战,即在这次100辆汽车的实验中进行部署。

“幽灵堵车”的挑战


一个“走走停停”波在高速公路交通中向后移动。

如果你有驾驶经验,你肯定体验过“走走停停”波的沮丧感,那种看似无缘无故出现,然后又突然消失的交通减速现象。这些波浪通常是由我们驾驶行为中的微小波动引起的,这些波动在车流中被不断放大。我们会根据前车调整速度。如果间隙变大,我们会加速跟上;如果前车刹车,我们也会减速。但由于我们存在非零的反应时间,我们可能会比前车刹得更重一点。紧跟在后面的驾驶员也做同样的事情,这种影响不断放大。随着时间的推移,最初微不足道的减速变成了交通流后部完全停止。这些波浪向后传播,由于频繁的加速,导致能源效率显著下降,同时伴随着二氧化碳排放增加和事故风险升高。

这并非孤立现象!当交通密度超过某个临界阈值时,这些波浪在繁忙的道路上无处不在。那么我们如何解决这个问题呢?传统的做法,如匝道控制(ramp metering)和可变限速,试图管理交通流量,但它们通常需要昂贵的基础设施和集中协调。一个更具可扩展性的方法是使用自动驾驶汽车(AVs),它们可以实时动态调整驾驶行为。然而,仅仅将AVs插入到人类驾驶员中间是不够的:它们也必须以更智能的方式驾驶,让所有人的交通状况都得到改善,这就是RL发挥作用的地方。


交通流的基本图。路上的汽车数量(密度)影响着向前移动的交通量(流量)。在低密度下,增加更多汽车会增加流量,因为可以通过更多的车辆。但超过临界阈值后,汽车开始相互阻碍,导致拥堵,此时增加更多汽车实际上会减慢整体移动速度。

用于波浪平抑的强化学习AV

强化学习(RL)是一种强大的控制方法,智能体通过与环境的交互来学习最大化奖励信号。智能体通过反复试验收集经验,从错误中学习并随着时间的推移而改进。在我们的案例中,环境是一个混合自主交通场景,其中AVs学习驾驶策略来抑制“走走停停”波,并为自身和附近的人工驾驶车辆降低燃料消耗。

训练这些RL智能体需要具有逼真交通动态的快速仿真环境,能够复制高速公路的“走走停停”行为。为此,我们利用了在田纳西州纳什维尔附近的24号州际公路(I-24)收集的实验数据,并用它来构建仿真环境,让车辆回放高速公路轨迹,创造出AVs在其后方学习平抑的不稳定交通。


仿真环境回放了一条展示了数个“走走停停”波形的高速公路轨迹。

我们在设计AV时就考虑到了部署的可行性,确保它们仅使用关于自身和前车的基本传感器信息即可运行。观察数据包括AV的速度、前车的速度以及它们之间的空间距离。根据这些输入,RL智能体随后为AVs指定一个瞬时加速度或目标速度。仅使用这些局部测量值的关键优势在于,RL控制器可以去中心化地部署在大多数现代车辆上,而无需额外的基础设施。

奖励设计

最具挑战性的部分是设计一个奖励函数,当其最大化时,能与我们希望AV实现的不同目标保持一致:

  • 波浪平抑: 减少“走走停停”的振荡。
  • 能源效率: 降低所有车辆的燃料消耗,不只是AVs。
  • 安全性: 确保合理的跟车距离并避免急刹车。
  • 驾驶舒适性: 避免激进的加速和减速。
  • 遵守人类驾驶规范: 确保一种“正常”的驾驶行为,不让周围的驾驶员感到不适。

要平衡所有这些目标非常困难,因为必须为每一项找到合适的系数。例如,如果最小化燃料消耗在奖励中占主导地位,RL AVs可能会学会停在高速公路中间,因为那是能源最优的。为了防止这种情况,我们引入了动态的最小和最大间隙阈值,以确保安全合理的行为,同时优化燃油效率。我们还对后方人工驾驶车辆的燃料消耗进行了惩罚,以阻止RL学习一种自私的行为,即以牺牲周围交通为代价来优化自身的能源节约。总的来说,我们的目标是在能源节约与合理且安全的驾驶行为之间取得平衡。

仿真结果


动态最小和最大间隙阈值的说明,AV可以在此范围内自由运行,以尽可能高效地平抑交通。

AVs学习到的典型行为是保持比人类驾驶员稍大的间隙,使它们能够更有效地吸收即将到来的、可能的突然的交通减速。在仿真中,这种方法在最拥堵的情况下,对所有道路使用者带来了高达20%的显著节油,而道路上AVs的比例不到5%。而且这些AVs不必是特殊的车辆!它们可以只是配备了智能自适应巡航控制(ACC)的标准消费级汽车,这也是我们进行大规模测试的内容。

RL AVs的平抑行为。 红色:数据集中的人类轨迹。蓝色:队列中连续的AV,其中AV 1是最靠近人类轨迹的车辆。AV之间通常有20到25辆人工驾驶的汽车。每个AV的减速幅度或加速幅度都不如其前车剧烈,从而随着时间的推移导致波幅减小,进而实现节能。

100辆AV现场测试:将RL大规模部署

实验周期间,我们100辆汽车停在我们运营中心的样子。

鉴于模拟结果令人鼓舞,自然而然的下一步就是弥合从仿真到高速公路的鸿沟。我们将训练好的RL控制器部署到I-24上100辆汽车上,在连续数日的早高峰交通时段进行测试。这次大规模实验,我们称之为MegaVanderTest,是有史以来规模最大的混合自主交通平抑实验。

在实际部署RL控制器之前,我们首先在仿真中对其进行了广泛的训练和评估,并在硬件上进行了验证。总而言之,部署的步骤包括:

  • 在数据驱动的仿真中进行训练: 我们使用I-24的高速公路交通数据来创建具有逼真波浪动态的训练环境,然后验证训练好的智能体在各种新交通场景下的性能和鲁棒性。
  • 硬件部署: 经过机器人软件验证后,训练好的控制器被上传到汽车上,能够控制车辆的设定速度。我们通过车辆的车载巡航控制进行操作,巡航控制充当了低级别的安全控制器。
  • 模块化控制框架: 测试中的一个关键挑战是无法直接获取前车信息传感器。为克服这一难题,我们将RL控制器集成到一个分层系统中,即MegaController,该系统结合了考虑下游交通状况的速度规划器指南,并将RL控制器作为最终决策者。
  • 硬件验证: RL智能体被设计为在大多数车辆是人工驾驶的环境中运行,这要求策略具有鲁棒性,能够适应不可预测的行为。我们通过在仔细的人工监督下在道路上驾驶RL控制的车辆来验证这一点,并根据反馈对控制进行修改。
100辆汽车中的每一辆都连接到一个树莓派(Raspberry Pi),RL控制器(一个小型神经网络)部署在该设备上。
RL控制器直接控制车载自适应巡航控制(ACC)系统,设置其速度和期望的跟车距离。

验证完成后,RL控制器被部署到100辆汽车上,并在I-24的早高峰时段行驶。周围的交通对实验不知情,确保了驾驶员行为的无偏性。实验期间,数据通过沿高速公路设置的数十个高架摄像头收集,并通过计算机视觉流程提取了数百万条单独的车辆轨迹。对这些轨迹计算出的指标表明,AVs周围的燃料消耗有下降的趋势,这与仿真结果和先前较小的验证部署相符。例如,我们可以观察到,人们离我们的AVs开得越近,他们平均消耗的燃料似乎就越少(这是使用校准的能源模型计算得出的):


平均燃料消耗与在下游交通中距离最近的、启用了RL控制的AV的距离之间的关系函数。随着人工驾驶员在AV后方距离的增加,他们的平均燃料消耗也随之增加。

衡量影响的另一种方法是衡量速度和加速度的方差:方差越低,波幅应该越小,这与我们在现场测试数据中观察到的情况一致。总的来说,尽管从大量的摄像机视频数据中获取精确的测量很复杂,但我们观察到控制车辆周围有15%到20%的节能


实验某一天中高速公路上所有车辆在速度-加速度空间中的数据点。红色线条左侧的集群代表拥堵,而右侧的集群对应于自由流动。我们观察到,当AVs存在时,拥堵集群变小,这通过计算软凸包的面积或拟合高斯核来衡量。

最后的思考

这次100辆车的现场操作测试是去中心化的,AV之间没有明确的协作或通信,这反映了当前自动驾驶的部署现状,使我们离更平稳、更节能的高速公路更近了一步。然而,仍有巨大的改进潜力。使仿真更快、更准确,并结合更好的人类驾驶模型,对于弥合仿真到现实的差距至关重要。为AV配备额外的交通数据,无论是通过先进传感器还是集中规划,都可以进一步提高控制器的性能。例如,虽然多智能体RL在改善合作控制策略方面很有前景,但启用AV之间通过5G网络进行显式通信能否进一步提高稳定性和缓解“走走停停”波,仍然是一个悬而未决的问题。最关键的是,我们的控制器与现有的自适应巡航控制(ACC)系统无缝集成,使得大规模现场部署成为可能。配备智能交通平抑控制的车辆越多,我们道路上看到的波浪就越少,这意味着为每个人带来更少的污染和更少的燃料消耗!


许多贡献者参与了MegaVanderTest的实现!完整的名单可以在CIRCLES项目页面上找到,以及更多关于该项目的细节。

阅读更多:[论文]




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区