返回顶部
返回首页
返回首页
home 您现在的位置: 首页 >技术中心 > 详细信息

具身智能面临“视觉攻击”风险

2026年01月28日    阅读量:20     新闻来源:中网行业信息网    |  投稿

  在自动驾驶汽车依靠摄像头与传感器识别路标、保障安全行驶的同时,其底层的人工智能(AI)系统正面临前所未见的“视觉攻击”威胁。美国加州大学圣克鲁兹分校科学家们首次揭示,攻击者可通过在环境中植入特定文字信息,直接“劫持”自动驾驶车辆、无人机等自主系统的决策,使其做出危险行为。研究呼吁,产业界需尽快形成新的安全标准和防护机制。相关研究发表于27日优睿科官网,论文已被AI安全领域的顶级会议——2026年IEEE安全可信机器学习大会接收。

  具身AI即具备物理载体的智能系统,如自动驾驶汽车、配送机器人等。随着具身AI日益普及,其依赖的视觉语言模型也成为安全研究的焦点。该模型能够同时理解图像与文本,帮助机器适应复杂现实环境,却也打开了被物理世界文字信息攻击的新突破口。

  新研究第一次提出“环境间接提示”对具身AI系统的风险。研究指出,恶意文本可被嵌入路标、海报等物理载体,误导依赖于视觉语言模型的机器人或车辆,从而干扰其正常判断与操作。此次科学家们针对自动驾驶、无人机紧急降落、目标搜索三类典型应用场景,设计并验证了一套名为“CHAI”的攻击框架,实现“针对具身AI的命令劫持”。该框架首先利用生成式AI优化攻击文本,提高其被系统执行的概率;进而调整文字在环境中的颜色、大小、位置等视觉属性,以增强攻击效果。

  实验证明,CHAI攻击可有效操纵搭载不同视觉语言模型的自主系统。在自动驾驶场景中,生成的误导图像被放置在真实环境中,成功干扰了测试车辆的导航判断。在无人机场景的模拟测试中,攻击成功率最高可达95.5%。

  结果明确显示,此类攻击在物理世界中完全可行,对智能系统的安全构成实际威胁。随着AI在物理系统中的融合不断加深,该项研究为行业提前敲响了安全警钟。 (记者张梦然)

【责任编辑:朱家齐】 标签:技术中心
免责声明: 本文仅代表作者本人观点,与本网无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:service@cnso360.com | 客服QQ:23341571

全站地图

深圳网络警察报警平台 深圳网络警
察报警平台

公共信息安全网络监察 公共信息安
全网络监察

经营性网站备案信息 经营性网站
备案信息

中国互联网举报中心 中国互联网
举报中心

中国文明网传播文明 中国文明网
传播文明

深圳市市场监督管理局企业主体身份公示 工商网监
电子标识