构筑AI时代网络新防线:挑战、应对与协同治理
2025年,人工智能技术迎来关键性发展——大模型训练成本持续下降,应用从生成内容向具备自主决策能力的智能体演进。我们正迈入一个“AI+”深入各领域的新阶段。然而,技术的进步也伴随着显著的“双刃剑”效应:AI滥用风险加剧,深度伪造难以辨别,基于AI的网络攻击日益增多……人工智能在驱动生产力飞跃与生产关系重塑的同时,也为网络安全带来了全新挑战。在此背景下,如何有效应对?强化风险预警能力,推动“以AI治AI”,已成为亟待解决的时代课题。
生成式AI滥用,“李鬼”风险不断
“视频是合成的,声音是我的,但说的话不是。”今年10月,在南昌的一场国际学术会议上,中国工程院院士张伯礼现场提醒观众甄别网络上的假冒视频。此前,多个利用其形象和声音、通过AI生成的“带货”短视频在平台传播,几可乱真。
随着生成式AI的普及,其强大的模仿与创造能力在激发创新的同时,也滋生了深度伪造、算法偏见等新型风险。最高人民法院在今年6月发布的典型案例中,已明确涉及未经许可AI化使用他人声音、擅自提供“换脸”服务等侵权行为。
国家计算机病毒应急处理中心专家指出,自2023年起,生成式AI的规模化应用使得此类风险日益凸显。公安机关近期披露的案例也显示,利用AI工具编造谣言、制作虚假灾害图片视频等行为时有发生。例如,此前社交平台流传的所谓“台风天深交所雕塑被绑”图片,后被证实为AI合成。
中国科学院专家曹娟表示,随着大模型的广泛应用,金融身份验证被AI换脸攻破、高校要求检测论文AI率等现象,都表明各行业对内容鉴伪的需求日益迫切。
AI化身智能体,自主进攻难捉摸
今年年初,“2025年哈尔滨亚冬会”遭遇境外网络攻击的事件引发关注。技术团队的溯源分析发现,攻击中使用了AI智能体进行方案规划、漏洞探测与代码编写,部分攻击代码明显由AI动态生成,实现了高度的自动化和隐蔽性。
智能体化AI是指具备自主决策和执行能力的系统。一旦被用于网络攻击,其自主性和随机性将极大增加防御难度。据公安部相关负责人介绍,目前已发现境外有勒索软件利用开源大模型自主生成恶意程序,并决定对哪些文件进行加密。
中兴通讯副总裁王继刚认为,智能体能够自主感知环境、不受人工干预地以目标为导向行动,其应用于攻击将导致攻击形式更复杂、影响面更广。目前,网络空间中已出现多款辅助攻击的AI工具,传统“黑产”也积极接入AI能力。相关安全报告指出,2025年与AI相关的网络安全事件显著增多。
然而,危机之中也孕育着新机。专家指出,AI同样能为网络安全防御赋能。通过强大的数据处理和模式识别能力,AI可使防御体系从被动响应转向主动预测与自动防护,推动网络攻防进入“智能体驱动”的新阶段。安恒信息董事长范渊表示,AI智能体能够快速构建动态仿真系统,预测攻击者行为并生成相应防护策略,实现对抗的智能化升级。
技术风险管控,亟待多方协同
当前,业界共识已从讨论“AI是否有害”转向“如何引导AI健康发展”。构建安全可控的AI生态,重构网络治理体系,是一项需制度、技术、产业协同推进的系统工程。
奇安信集团董事长齐向东提出,应对AI“超人化”带来的安全风险,关键在于管好“框架、数据、人员、供应链”四个核心环节,将安全能力内嵌于AI系统与业务场景之中,打造具有内在免疫力的数智安全体系。
我国正在不断延伸治理链条。自2025年9月1日起,《人工智能生成合成内容标识办法》及配套国家标准正式实施,要求所有传播的AI生成内容必须添加标识,相当于为其配备“数字身份证”。这被视为我国在AI内容治理领域迈出的关键一步。
与此同时,中国公安机关持续通过专项行动应对网络安全挑战。国际刑警组织网络犯罪局局长尼尔·杰顿强调,网络犯罪已是全球性威胁,其经济规模巨大。在近期合作中,国际刑警组织与中国共同关闭了上万个恶意IP,查获大量数据。他指出,成功的网络安全行动根基在于国际合作。
尼日利亚国家信息技术发展局局长也表示,网络威胁无国界,区域与全球协同是必然选择。清华大学教授梁正建议,在“AI+”时代,应通过国际合作推动能力共建、风险共管与标准互认,并探索具体领域的治理协作,共同构建包容、有效的全球AI治理框架。
声明:本站所使用的图片文字等素材均来源于互联网共享平台,并不代表本站观点及立场,如有侵权或异议请及时联系我们删除。