2024-12-07 20:23:15 技术 10483阅读
宾夕法尼亚大学的一个研究团队周末在 IEEE Spectrum 杂志上表示,大多数运行在流行 AI 机器人上的大型语言模型(LLM)很容易被破解。
“与破解计算机上的 LLM 不同,破解机器人系统或自动驾驶汽车上的 LLM 很容易造成灾难性后果,甚至导致人类死亡,”该研究开头
。
研究团队测试中Unitree的机器狗携带炸弹的图片。照片:宾夕法尼亚大学
具体来说,该组织创建了一个名为RoboPAIR的攻击工具,然后直接攻击来自三个不同供应商的机器人,包括Nvidia支持的Dolphins LLM、Clearpath Robotics Jackal UGV和Unitree Robotics Go2。结果,攻击成功率为100%。
“我们的研究表明,目前大型语言模型还不够安全,无法融入物理世界,”团队成员 George Pappas 教授告诉 Tom's Hardware。
研究还表明,破解人工智能机器人“非常容易”。控制一机器人或自动驾驶汽车的破解方式与破解人工智能聊天机器人类似,但更容易,因为“机器人公司了解可在 LLM 上利用的漏洞的速度很慢”。
在团队的模拟中,LLM模型上的机器狗受到攻击后,可以“从友善的辅助装置变成挥舞火焰喷射器的刺客”,另一台监控机器人将药物非法放置在自己身上爆炸,或者自动驾驶汽车没有停下来而是翻过前面的物体,或者被指示撞到桥上。
“AI 不仅仅可以在越狱后遵守恶意提示,”该团队表示。 “他们可以主动提出建议,造成更大的伤害”。
团队另一名成员Alexander Robey博士表示,虽然破解非常容易,但在研究过程中,团队也确保所有参与测试的机器人公司在公开之前都能够访问该黑客系统。
“识别攻击后才设计强有力的防御措施g越强越好。”Robey说,“因此,有必要立即部署针对LLM控制的机器人的物理和软件防御措施。”
在宾夕法尼亚大学研究团队进行实验之前,人们对人工智能机器人“叛逆”的担忧就存在。它们并不是来自未来的机器人有意识,危险的是黑客有可能渗透到内部系统,控制机器人做他们想做的事;或者,心怀不轨的人可以创造一支“雇佣兵”机器人军队,专门执行有害任务。
人工智能先驱之一、2024 年诺贝尔物理学奖获得者杰弗里·辛顿 (Geoffrey Hinton) 于 2023 年从谷歌辞职,以便公开警告人工智能的危险。 “当他们开始知道如何编写代码并运行自己的代码时,杀手机器人就会出现在现实生活中。人工智能可以比人类更聪明。很多人开始相信这一点。当我认为还需要 30-50 个小时时,我错了人工智能取得这样的进步需要很多年的时间,但现在一切都变化得如此之快,”他说。
白蜡木那时,据《福布斯》报道,人们不应该害怕,而应该学会适应技术的进步,包括人工智能和机器人。对于国家来说,立法者需要逐步完善这方面的法律,确保即使有机器参与,最终的决定仍然必须由人类做出。
“人工智能会统治世界吗?不,它只是人性在机器上的投射。有一天,计算机会比人类更聪明,但要达到这一状态还需要很长时间”,BBC 援引 Yann LeCun 教授的话说。为AI发展奠定基础的四人之一,现任Meta的AI总监,6月