3·15曝光AI投毒黑灰产 筑牢AI安全防线
2026年3月15日,中央广播电视总台3·15晚会首次聚焦AI安全领域,曝光了AI训练数据投毒黑灰产乱象。这一针对AI系统的新型隐蔽攻击行为,成为AI产业化落地过程中亟待解决的安全隐患,引发全行业与监管部门的高度关注。
AI投毒攻击定义与特点
所谓AI投毒,全称人工智能模型投毒攻击,核心是通过向大模型训练、微调数据中植入恶意样本、虚假信息或后门指令,让模型学习错误逻辑,在特定触发条件下输出有害内容、虚假信息,甚至泄露机密数据。区别于传统网络攻击,具有隐蔽性强、危害范围广的特点。
黑灰产团伙与开源社区乱象
本次晚会曝光,当前国内已出现专门提供AI定向投毒服务的黑灰产团伙,针对企业垂直大模型、定制化AI系统提供恶意投毒服务,收费从数千元至数十万元不等。同时,开源大模型社区乱象突出:超200个开源微调模型被植入恶意后门,累计下载量超500万次,大量中小微企业、个人开发者中招。
安全风险数据与影响
据中国信息安全测评中心发布的《2025年AI安全风险报告》,2025年国内AI投毒攻击事件同比增长370%,其中82%的攻击针对中小微企业的垂直行业模型。轻则导致模型输出虚假信息、引发品牌舆情;重则造成企业商业机密泄露、合规风险升级,甚至被用于不正当竞争。
监管部门行动与要求
事件曝光后,国家网信办、工信部联合发布安全提示,要求AI服务提供者严格落实主体责任,强化训练数据全流程审核,建立投毒攻击检测与应急处置机制。同时明确:提供AI投毒服务属于违法违规行为,将依法严厉打击。
行业警示与未来方向
此次3·15曝光的AI投毒乱象,为高速发展的AI行业敲响了安全警钟。随着AI技术的规模化落地,唯有筑牢数据安全、模型安全的双重防线,平衡技术创新与风险防控,才能推动AI行业健康可持续发展。








