2025年10月24日上午,由校智能网联电动汽车创新中心(下简称“中心”)主办的学术讲座在溥渊未来技术学院200号报告厅顺利举行。日本早稻田大学教授森达哉(Tatsuya Mori)以《被欺骗的算法—自动驾驶中的安全盲区》为题,为在场师生带来了一场深入浅出的前沿分享,溥渊未来技术学院副院长鲍华出席本次活动。


随着自动驾驶技术的成熟,人工智能在环境感知、路径规划和决策系统中的作用日益重要。然而,森达哉教授指出,尽管AI提升了自动驾驶的自动化水平,但其高度依赖数据和算法也带来了前所未有的安全挑战。尤其是在复杂的现实环境中,依赖深度学习模型和传感器的自动驾驶系统可能遭遇恶意攻击,导致系统失效甚至发生交通事故。

自动驾驶中的安全漏洞:从感知到物理层的多重威胁
在讲座中,森达哉教授详细阐述了多种常见的安全威胁,并通过研究案例说明它们如何在自动驾驶系统中发挥作用。首先,教授介绍了“对抗性样本攻击”,即通过对输入图像的微小扰动,攻击者可以欺骗视觉识别模型,导致交通标志或行人的误判。例如,图像扰动可能让车辆将“停车标志”误识别为“限速标志”,从而未能及时停车,造成事故。这种攻击直接影响自动驾驶系统的感知能力,是一大安全威胁。
此外,森达哉教授还探讨了“数据投毒攻击”,即通过篡改少量训练数据,改变模型的学习过程,导致系统做出错误决策。例如,攻击者可能加入失真数据,导致模型学习到错误的路径规划或交通规则,进而影响车辆的驾驶行为。教授特别提到,数据投毒攻击不仅是理论问题,在实际应用中已展现出一定威胁。
物理层攻击与端到端安全评估的必要性
森达哉教授进一步探讨了物理层的安全威胁,包括传感器欺骗和反射攻击。他指出,虽然传感器如激光雷达、摄像头和雷达在自动驾驶系统中至关重要,但这些设备容易受到恶意干扰。攻击者可利用反射材料或装置制造虚假障碍物或遮挡真实障碍物,导致系统无法正确感知周围危险,从而引发事故。他强调,自动驾驶系统的开发需进行“端到端安全评估”,不仅要评估单一模块的安全性,还要考虑系统各环节的协同效应,确保整体能够防御潜在攻击。
应对策略:多传感器融合与生成式AI增强防御
在讲座的互动环节,师生们就“如何实现自动驾驶系统的有效防御”和“如何提升系统鲁棒性”等问题展开讨论。森达哉教授表示,现有防御手段虽能缓解部分安全威胁,但单一技术难以应对复杂的攻击形式。他建议,未来的防御体系应结合多传感器融合技术,综合分析来自不同传感器的数据,增强系统容错能力。同时,生成式AI可用于模拟复杂的攻击场景,通过生成多样化的测试场景,提升系统对未知威胁的检测能力。

讲座最后,森达哉教授展望了自动驾驶技术未来的发展方向。他认为,尽管技术日新月异,但安全问题始终是自动驾驶系统发展的瓶颈,未来的研究需要更多关注如何实现全面的安全防护。他呼吁技术进步的同时,必须加强监管与跨领域合作,确保新兴技术能够安全、可控地进入实际应用。
