2024-12-26 17:06:56 科技 56959阅读
安全公司 Palo Alto Networks 旗下的 Unit42 于 12 月 23 日宣布,“虽然法学硕士在传播恶意软件方面可能会遇到最初的困难,但它们可以被利用来大规模复制恶意 Java 脚本代码,并可能避免检测”。 “网络犯罪分子可以轻松地使用 LLM 重写或克隆现有恶意软件。他们还可以使用命令‘提示’LLM 以更自然的方式执行转换,从而使检测变得更加困难。”
照片:ARRC
研究团队还表示,随着时间的推移,黑客可以利用LLM升级恶意代码,降低恶意软件分类工具的性能,导致系统“相信”一段恶意代码是无害的。
LLM模型背后的许多公司都是无害的。加强安全措施以防止其工具被滥用。例如,10 月份,OpenAI 表示已拦截了 20 多个试图利用该平台进行侦察、漏洞研究和脚本编写支持的网络钓鱼操作和网络。
然而,据黑客新闻报道,坏人仍然可以利用这些工具的应用程序编程接口(API),对其进行破解并利用以达到自己的目的,例如克隆能力、增强恶意代码的“隐藏”能力等。例如WormGPT、FraudGPT。
Unit42表示,它试图创建利用LLM力量的软件。该工具通过重命名变量、分割字符串、插入垃圾代码、删除不必要的空格以及完全重新实现代码,批量重写恶意代码,以避免被机器学习模型(例如无罪直到被证明有罪(IUPG)或 PhishingJS)检测到。因此,该工具可以在不改变功能的情况下创建 10,000 个新的 Java 脚本变体。
“输出是恶意 Java 脚本代码的变体。它仍然保持原始脚本的功能,但‘有毒分数’得分较低IUPG 和 PhishingJS,”Unit42 的一位代表说道。 “该算法以88%的速度颠覆了恶意软件分类工具的分析能力”。
还据嫌疑组称研究表明,恶意代码在被重写后甚至可以“逃避”其他恶意软件。它们还“看起来很自然”,并且可以轻松绕过防病毒工具。
“在人工智能的帮助下,恶意代码变体的规模可能会在不久的将来增加,”Unit42 评估道。 “当然,我们也可以用同样的策略来重写恶意代码,将其转化为机器学习模型的训练数据。”
此前,专家也警告称,人工智能可以帮助坏人以简单易行的方式进行诈骗、传播病毒。便宜的方式。 Check Point Research (CPR) 于 2023 年发布的研究表明,ChatGPT 可以成功执行完整的感染过程,从创建网络钓鱼电子邮件到运行安装程序和窃取信息。 4月,神奈川县川崎市的林龙树因涉嫌利用AI创建包含非法命令的电子记录而被捕,成为日本首例被捕案件。
据Fortinet安全公司(美国)预测,明年,攻击她互联网用户将更加大胆地使用人工智能。此外,犯罪集团变得越来越专业化,将物理威胁和数字威胁结合起来,更有效地瞄准目标并产生更强的影响。
宝林