DIG AI使恶意行为者能够利用人工智能生成各种线索,从制造爆炸装置到制作包括儿童性虐待材料在内的非法内容,无所不能。由于DIG AI托管在TOR网络上,执法部门难以发现和访问此类工具。

Resecurity最新研究发现,未经审查的暗网人工智能助手正在兴起,使威胁行为者能够利用其先进的数据处理能力进行恶意活动。其中一款名为DIG AI的工具于今年9月29日被发现,并已在网络犯罪分子和有组织犯罪圈子中迅速传播,获得网络犯罪分子的青睐——安全研究人员警告说,这可能会显著加速2026年的非法活动。
该工具名为DIG AI,它允许威胁行为者以极低的技术水平生成恶意软件、诈骗和非法内容,凸显了人工智能是如何被武器化并突破传统安全措施的。2025年第四季度,Resecurity的HUNTER团队观察到,恶意行为者使用DIG AI的数量显著增加,并在冬季假期期间加速增长,当时全球非法活动创下新纪录。
Resecurity的研究人员表示,随着2026年米兰冬奥会和FIFA世界杯等重要赛事的举办,人工智能“将带来新的威胁和安全挑战,使不法分子能够扩大其行动规模并绕过内容保护策略”。
服务犯罪的人工智能的崛起
DIG AI代表了一类新型的“不良”(“犯罪”或“未经审查”)人工智能工具,专门用于绕过ChatGPT、Claude和Gemini等主流平台中嵌入的内容审核和安全控制。其合法性和伦理性取决于工具本身、使用方式和使用者,以及可能对社会造成危害的技术的开发者。
它的迅速普及凸显了现代人工智能可以多么迅速地被重新利用,以扩大网络犯罪、欺诈和极端主义活动的规模——通常比防御者适应的速度还要快。
网络犯罪论坛上提及和使用恶意人工智能工具的次数显著增加(2024-2025年增幅超过200%),表明这些技术正在迅速普及和发展。“暗网下/AWX”多次报道,FraudGPT和WormGPT是目前最知名的专门面向网络犯罪分子的AI工具,但随着新的越狱和定制版LLM工具不断涌现,网络犯罪领域正在快速演变。这些工具通过自动化和增强恶意活动,降低了网络犯罪的门槛。
这些工具通常被称为“暗黑 LLM”(大型语言模型)或“越狱”AI 聊天机器人,它们要么是从零开始构建的,要么是合法 AI 模型的修改版本,移除了其安全限制。
DIG AI使恶意行为者能够利用人工智能生成各种线索,从制造爆炸装置到制作包括儿童性虐待材料在内的非法内容,无所不能。由于DIG AI托管在TOR网络上,执法部门难以发现和访问此类工具。它们催生了一个庞大的地下市场——涵盖盗版、衍生品以及其他非法活动。
尽管如此,也有一些重要的倡议,例如国际电信联盟(ITU)和联合国数字技术机构于2017年共同发起的“人工智能向善”(AI for Good)项目,旨在促进新技术的负责任使用。然而,不法分子则会把重点放在完全相反的事情上——将人工智能武器化和滥用。
一款专为犯罪而打造的暗网人工智能DIG AI
与合法的AI平台不同,DIG AI不需要用户注册,只需点击几下即可通过Tor浏览器访问。DIG AI的暗网V3地址为:
https://digdig2nugjpszzmqe5ep2bk7lqfpdlyrkojsx2j6kzalnrqtwedr3id[.]onion
研究人员证实,DIG AI可以生成功能性恶意脚本,能够为易受攻击的Web应用程序以及其他类型的恶意软件中植入后门,并自动执行诈骗活动。
根据Resecurity的测试,除了网络犯罪之外,该工具可以生成涵盖各种非法领域的各种内容,包括欺诈计划、恶意软件开发、毒品制造说明和极端主义宣传。Resecurity的分析师利用与爆炸物、毒品、违禁物质、欺诈和其他受国际法律限制的领域相关的分类词典,对DIG AI进行了多次测试。
当与外部API结合使用时,该平台能够让不法分子高效地扩展其行动规模——在降低成本的同时提高产量。
虽然由于计算资源有限,一些资源密集型任务(例如代码混淆)可能需要几分钟才能完成,但分析人士指出,攻击者可以通过付费高级服务层级轻松解决这些限制。这开启了“不良人工智能”的新领域——恶意行为者设计、运营和维护定制的基础设施,甚至是类似于用于防弹托管的数据中心,但其目的是为了让犯罪人工智能能够有效地扩展其运行规模,同时考虑负载、并发请求以及多个用户同时使用的情况。
DIG AI背后的运营者,化名“Pitch”,在暗网论坛Dread上发帖推广该服务,声称该服务基于ChatGPT Turbo构建,并移除了所有安全限制。
在暗网里,该工具的广告横幅出现在与毒品贩运和被盗支付数据相关的地下市场主页上,凸显了它对有组织犯罪网络的吸引力。
犯罪人工智能如何助长儿童性虐待
其中最令人担忧的发现之一是DIG AI在促进AI生成的儿童性虐待材料(CSAM)方面可能发挥的作用。
生成式人工智能技术——例如扩散模型、生成对抗网络(GAN)和文本转图像系统——正被积极滥用,能够生成高度逼真、露骨的儿童图像或视频——既可以通过生成完全合成的内容,也可以通过篡改真实未成年人的正常图像来实现。这将给立法者在打击 CSAM 内容的制作和传播方面带来新的挑战。
Resecurity证实,DIG AI可以协助生成或操纵涉及未成年人的露骨内容。Resecurity表示其团队与相关执法部门合作,收集并保存了不良行为者使用DIG AI制作高度逼真的CSAM内容的证据——有时被贴上“合成”的标签,但实际上被解释为非法。
全球执法机构已经报告称,人工智能生成的儿童性虐待材料案件急剧增加,其中包括涉及篡改真实儿童图像和用于敲诈勒索或骚扰的合成内容的事件。
近年来,包括欧盟、英国和澳大利亚在内的多个司法管辖区都颁布了法律,明确将人工智能生成的儿童性虐待材料定为犯罪行为,无论其中是否描绘了真实的未成年人。然而,当工具匿名托管在暗网上时,执法仍然很困难。
暗网里的人工智能没有任何限制与审查
主流人工智能,如OpenAI的ChatGPT、Anthropic的Claude、Google Gemini/Bard、Microsoft Copilot和Meta AI等平台都采用了内容审核系统。这些系统会审查或限制仇恨言论、虚假信息、色情内容、暴力、非法活动以及(在某些司法管辖区)政治言论等类别的内容。审查的主要原因是遵守法律(例如欧盟人工智能法案)、保护用户免受伤害、维护道德标准以及保障公司声誉和市场准入。
然而,这些保障措施对于像DIG AI这样的暗网托管服务来说,大多无效,因为这些服务在传统的法律和管辖范围之外运作。
犯罪分子越来越多地对开源模型进行微调,移除安全过滤器,并使用受污染的数据集训练系统,以按需生成非法输出。这催生了一种以“人工智能即服务”为核心的新兴地下经济,这种经济模式模仿了合法的商业模式,但社会风险却高得多。
降低人工智能威胁带来的风险
以下步骤概述了网络安全团队可以采取的切实可行的措施,以提高抵御人工智能攻击的能力。
- 加强对电子邮件、网络、身份和API攻击面上的AI辅助网络钓鱼、欺诈、恶意软件和自动化滥用行为的检测和监控。
- 扩大威胁情报计划,使其涵盖暗网市场、犯罪人工智能工具、品牌滥用以及人工智能定向攻击的早期迹象。
- 通过网络分段与主动保护面向公众的资产来减少攻击面,通过强制执行防钓鱼的多因素身份验证(MFA)、最小权限访问、持续身份验证和零信任原则来加强身份和访问控制。
- 通过将人工智能攻击场景纳入网络安全防护演练,培训员工和高风险团队识别人工智能生成的诱饵、深度伪造冒充以及用于欺诈和社会工程攻击的合成媒体,提高事件应急响应能力。
这些措施共同帮助各企业加强安全态势,应对人工智能威胁带来的风险。
人工智能带来新的安全挑战
不法分子已经通过精心设计的提示或对抗性后缀滥用人工智能系统,绕过内置的安全协议,导致模型生成违禁内容。DreamBooth和LoRa等工具使犯罪分子能够利用开源的低级模型(LLM)生成针对特定目标的儿童性虐待材料(CSAM)。这个问题也为犯罪分子创造了新的商业模式,使他们能够优化成本,并大规模地利用合成的非法内容发展地下经济。
Resecurity预测,不法分子将积极操纵数据集,例如受污染的训练数据(如LAION-5B,其中可能包含儿童性虐待材料或良性内容与成人内容的混合),从而使模型能够学习并复制非法输出。犯罪分子可以在自己的基础设施上运行模型,或将其托管在暗网上,从而生成在线平台无法检测到的无限非法内容。他们还可以允许他人访问相同的服务,以创建自己的非法内容。开源模型尤其脆弱,因为安全过滤器可以被移除或绕过。这些模型正在被微调和破解,以生成非法内容。
DIG AI并非孤立的发展,而是武器化人工智能如何开始重塑更广泛的威胁格局的早期迹象。随着犯罪分子和极端分子采用自主人工智能系统,安全团队必须应对规模、速度和效率远超传统人为攻击的威胁。
Resecurity认为,到2026年,互联网社区将面临由人工智能带来的严峻安全挑战。届时,除了人类行为者之外,犯罪分子和被武器化的人工智能将改变传统威胁,并以前所未有的速度对我们的社会造成新的风险。
网络安全和执法专业人员应该关注这些危险先兆的出现,并做好准备,在第五个战争领域——网络空间——继续与“机器”作战。随着这些人工智能威胁的加速发展并绕过传统的基于边界的防御,企业也应该越来越多地转向零信任原则,将其作为限制风险和控制影响的基础方法。
Anwangxia.com原创文章,作者:anwangxia,如若转载,请注明出处:https://www.anwangxia.com/4566.html

比特币捐赠