ChatGPT成为暗网的“最热门话题”,因为网络犯罪分子希望将AI作为武器

ChatGPT生成软件代码的能力有限。但研究人员观察到网络犯罪分子会绕过聊天机器人的防护措施来生成恶意内容。

ChatGPT成为暗网的“最热门话题”,因为网络犯罪分子希望将AI作为武器

据网络安全研究人员称,关于ChatGPT的讨论已经开始充斥在暗网的论坛上,因为黑客们正在寻求利用人工智能(AI)聊天机器人的方法。

在暗网上,也就是通过传统网络浏览器无法访问的互联网部分,有关ChatGPT的新帖子数量在1月至2月期间增长了7倍,而线程的受欢迎程度上升了145%。

Check Point Software Technologies本月早些时候报告称,网络犯罪分子绕过了ChatGPT的安全措施来生成恶意软件。Check Point研究人员在ChatGPT发布后监控了暗网论坛,发现了威胁行为者讨论使用聊天机器人“改进”恶意软件代码的实例。研究人员测试了聊天机器人的编码能力,看看它能为黑客提供什么帮助。

“使用ChatGPT 和 ChatGPT-3,我们没有看到创建真正复杂的东西的能力。”Check Point威胁情报组经理Sergey Shykevich说,“这主要是关于更多的人将进入他们的潜在开发者网络犯罪分子圈子并开发工具,它可以提高复杂威胁的成本效率。”

尽管聊天机器人在编码方面不那么复杂,但ChatGPT可以帮助简化流程。聊天机器人是创建简单恶意软件或为需要帮助的人(例如低技能黑客和脚本小子)改进恶意软件的有用平台。

“他们可以提交代码块并验证勒索软件代码中没有错误或漏洞,或者改进代码或编写网络钓鱼电子邮件作为其感染链的一部分,”Shykevich说。“一个从来都不是开发人员并且从未创建过代码或恶意代码的人现在突然能够尝试创建恶意代码。”

多个安全公司对此进行了分析,并将ChatGPT的利用描述为“暗网最热门的话题”。

论坛上讨论的主题包括让人工智能创建恶意软件的方法、如何利用ChatGPT以及使用它进行网络攻击的方法。

网络安全公司Norton的一份单独报告警告说,网络犯罪分子可能会被这种先进的聊天机器人吸引,因为它能够产生对人类来说无法区分的反应。

使用人工智能软件的一种潜在攻击形式被称为网络钓鱼,目标被诱骗泄露个人信息,从而危及他们的在线账户。

黑客一直在寻找让人工智能执行此类攻击的方法,以克服ChatGPT的创建者OpenAI设置的障碍。

这家人工智能研究公司声称其技术“经过训练可以拒绝不适当的请求”,但是之前已经暴露了某些漏洞,这些漏洞允许用户生成基本的恶意软件。

网络安全专家称:“像ChatGPT这样的聊天机器人可以在很多方面让我们的生活更轻松,比如执行平凡的书面任务、总结复杂的主题或建议假期行程。然而,对于网络犯罪分子来说,革命性的人工智能可能是许多骗局中缺失的一块拼图。”

“令人担忧的是,在上个月,暗网上有关ChatGPT的讨论已经从简单的‘作弊’和变通办法——旨在鼓励ChatGPT做一些有趣或意想不到的事情——演变为完全控制该工具并将其武器化。”

非法使用ChatGPT

早在2022年12月,Reddit用户就已经讨论过“越狱”或某些提示,成功推翻了ChatGPT的防御系统。用户分享他们欺骗聊天机器人做出歧视性或荒谬的陈述。

虽然戳破聊天机器人的防御系统最初是为了展示聊天机器人的缺陷,但威胁者已经非法利用了其弱点。Check Point研究人员观察到,威胁行为者通过三种方式利用OpenAI的API生成恶意软件。

2022年12月21日,一名用户名为USDoD的威胁行为者在暗网论坛上透露,他使用ChatGPT生成了他的第一个脚本。这个多层加密的Python工具可以用来加密一个人的文件,但它也可以作为一个勒索软件的模型。

USDoD承认他以前从未创建过脚本,这引起了人们的担忧,即聊天机器人会让那些没有技术技能的人创建恶意软件并造成重大损害。NCC Group的首席科学家Chris Anley称,虽然ChatGPT可能无法生产完整的勒索软件,但用户很容易请求生成一个可以被恶意使用的加密脚本。

尽管这段代码可能存在潜在危害,但Shykevich表示,源自ChatGPT的编码USDoD“确实需要一些小的调整才能真正使其正常工作。”

早些时候的一份报告中,Check Point发现另一名黑客解释说,他在一周后使用ChatGPT重新创建了一个基于python的信息窃取程序代码,该代码可用于从系统中复制和泄露PDF、图像和Office文档等文件。同一位用户随后分享了他编写的一个简单的Java代码,该代码使用PowerShell下载PuTTY软件客户端,但它可以被修改为下载和操作任何程序。

CheckPoint研究人员还发现一名黑客展示了ChatGPT在创建暗网市场中的作用。黑客发布了带有第三方API的代码,该API包含当前加密货币价格,可用于进行非法购买。

绕过ChatGPT限制

一开始,一些安全研究人员认为ChatGPT用户界面中的限制很薄弱,并发现威胁行为者可以轻松绕过障碍。从那以后,Shykevich说OpenAI一直在努力改进聊天机器人的限制。

“我们看到ChatGPT的用户界面的限制每周都会提高很多。所以现在使用ChatGPT进行恶意或滥用活动更加困难。”他说。

但网络犯罪分子仍然可以通过使用和避免某些允许用户绕过限制的词语或短语来滥用该程序。NCC Group商业研究总监Matt Lewis将与在线模型的交互称为涉及计算的“艺术形式”。

Lewis说:“如果你避免使用恶意软件这个词,而只是要求它向你展示加密文件的代码示例,那么它就会故意这样做。”“它有一种喜欢被指示的方式,并且有一些有趣的方法可以让你以多种不同的方式让它做你想让它做的事情。”

Lewis展示了该程序将如何“编写一个加密脚本”,尽管没有达到完整的勒索软件的要求,但它仍然可能很危险。“这将是一个很难解决的问题,”Lewis谈到绕过时说,并补充说,对于OpenAI来说,针对上下文和意图的语言监管将极其困难。

更复杂的是,Check Point研究人员观察到,威胁行为者采用Telegram机器人的GPT-3模型的API,称为text-davinci-003,而不是ChatGPT,来推翻聊天机器人的限制。

ChatGPT只是OpenAI模型的一个用户界面。这些模型可供开发人员将后端模型与他们自己的应用程序集成。用户通过API消费这些模型,而这些API并没有受到限制的保护。

“从我们看来,OpenAI对ChatGPT界面设置的障碍和限制主要针对那些通过API使用模型的人。”Shykevich说。

威胁行为者还可以通过向聊天机器人发出准确的提示来规避限制。Cyber​​Ark自ChatGPT推出以来就对其进行了测试,并发现了限制中的盲点。通过反复的坚持和要求,它将提供所需的编码产品。Cyber​​Ark研究人员还报告说,通过不断要求ChatGPT并每次渲染新的代码,用户可以创建高度规避的多态恶意软件。

多态病毒可能非常危险。但Anley指出,已经有在线工具和框架可以用来制作它们。ChatGPT的创建能力对于不熟练的编码人员和脚本小子来说是最有益的。

“就攻击者而言,这不是一种新的能力……也不是一种特别有效的方法来生成你的恶意软件的变种。”Anley说,“已经有一些工具在这方面做得更好。它有可能是新的,因为它可能允许不太熟练的攻击者生成可能危险的代码。”

赌注有多高?

因为ChatGPT的输出往往是不完美的,只有伴随着熟练的黑客的作用,能够对代码进行必要的调整和补充,它们才很可能是有害的。

“可能需要知识渊博的人才能将其转化为武器化的漏洞,一种武器化的恶意软件。”Anley说。

让聊天机器人在创建恶意软件方面更不实用的是,已经有许多工具可用于创建功能性恶意软件。在我们看到AI程序的进步之前,以这种方式使用ChatGPT并不是完全有利的。

“虽然你确实可以以这种方式使用模型来生成一些不好的东西,但我们已经可以以一种从攻击者的角度来看可能更有效、更安全的方式来生成这种类型的恶意软件。”Anley说。

然而,ChatGPT在生成逼真的网络钓鱼电子邮件方面一直很有效,这些电子邮件在标有拼写错误和语法错误时通常无法令人信服。但是使用OpenAI的GPT-3大型语言模型系列构建,ChatGPT可以生成有说服力的电子邮件。

“语言非常好,非常紧凑,所以你可能无法像以前那样区分它,”Lewis说。

为了解决这个问题,OpenAI将继续打击ChatGPT的限制。但威胁行为者很可能会继续寻找滥用该技术的方法。Shykevich警告说,虽然关于聊天机器人节制、限制和审查的讨论很重要,但保障措施永远不足以完全终止恶意活动。

“如果我们不讨论或者限制措施没有从一开始就实施,那么滥用就会变成一个怪物。”Shykevich说。“但也没有办法将滥用减少到零。”

有关ChatGPT

ChatGPT目前是世界上增长最快的应用程序,在推出后的头两个月内在全球范围内拥有1亿用户。OpenAI 聊天机器人已帮助超过1亿用户(每天约1300万人)根据请求编写文本、音乐、诗歌、故事和戏剧。它还可以回答测试问题,甚至可以编写软件代码。

推出三个多月后,它的受欢迎程度持续增长。根据数据智能平台Similarweb的数据,2月份聊天机器人的访问量增长了83%,日访问量达到约4500万次。

瑞银分析师在1月份的一份报告中写道:“在关注互联网领域的20年中,我们无法回忆起消费者互联网应用的快速增长。”

相比之下,TikTok在全球推出后用了9个月才达到类似的受众,而Instagram则用了2.5年多。

原创文章,作者:admin,如若转载,请注明出处:https://www.anwangxia.com/2431.html

Leave a Reply

Your email address will not be published. Required fields are marked *