2025年,人工智能加速从“技术奇点”迈向“社会基座”——大模型深度嵌入政务、科研、企业运营与日常生活,生成式AI成为新质生产力的核心引擎。当AI从“辅助工具”升级为“基础设施”,其安全问题则成为关乎国家安全、企业存续、个人权益的系统性挑战。
2025年,与AI技术滥用、误用及自身缺陷相关的安全风险集中爆发。站在这一时间节点回望,2025年的AI安全战场呈现出五大核心趋势,勾勒出智能时代安全威胁的演进图谱。
纵观这些典型安全事件,一个重要共识是:安全已不再是AI技术的附属品,而是决定智能能否可持续、可信赖落地的关键变量。
事件一 DeepSeek遭境外攻击,一个月内手段升级四次
2025年初,国产大模型DeepSeek凭借高性价比、开源生态和卓越推理能力引发全球关注,却随即遭遇境外势力持续网络攻击。
奇安信XLab实验室监测显示,自1月初起,DeepSeek线上服务遭遇境外势力长达一个月的多轮网络攻击,手段不断升级:初期为HTTP代理试探;随后转为SSDP/NTP反射放大攻击;1月28日前后升级为更难防御的应用层HTTP代理攻击;至1月30日(大年初二),HailBot、RapperBot等Mirai变种僵尸网络加入,标志着“职业打手”正式下场。
此次大规模攻击并非孤立事件,近年来针对中国高科技企业的网络攻击日益频繁,动机涵盖商业竞争、核心技术窃取乃至国家战略遏制,凸显AI时代中国高科技产业面临的严峻安全挑战。
事件二 大模型“裸奔”危机,近九成私有化部署服务器无防护
随着年初国产大模型DeepSeek热度攀升,私有化部署迅速普及,但安全问题随之凸显。
奇安信鹰图平台2月监测数据显示,在全球8971个运行Ollama框架的服务器中,6449个处于活跃状态,其中高达88.9%直接暴露在互联网上,未设任何访问控制。中国境内5669台服务器情况类似。由于Ollama默认不启用身份认证,用户常忽略安全配置,已有攻击者利用自动化脚本扫描并劫持“裸奔”服务器,恶意占用计算资源致系统崩溃。
此类“裸奔”状态会导致任何人不需要任何认证即可随意调用、在未经授权的情况下访问这些服务,极有可能造成数据泄露和服务中断,甚至可以发送指令删除所部署的DeepSeek、Qwen等大模型文件,显示出AI基础设施“重部署、轻安全”的普遍隐患。
事件三 RSAC 2025:AI安全成主赛道 构建原生防御体系
在4月举行的RSAC全球网络安全大会上,AI安全成为最热门议题——40%的演讲聚焦AI,创新沙盒十强中4家专攻AI安全,大部分参展厂商均推出相关产品,连缺席两年的Palo Alto Networks也首发AI安全平台Prisma AIRS,彰显该领域已成网安增长最快方向。
针对AI安全的挑战,RSAC上反复提出的应对策略是利用AI工具来监视AI工具,面对技术迭代与风险同步加速的现实,构建以自动化、可审计、可干预为核心的AI原生防御体系,已成为全球网络安全战略的优先选项。
事件四 科研人员违规使用AI工具致泄密,被严肃处理
7月,国家安全部对外披露了一起“违规使用AI工具,导致数据泄密”案例:某科研机构研究人员小李,在撰写一份研究报告时,为图方便,使用了某AI应用软件,擅自将核心数据及实验成果作为写作素材进行上传,导致该研究领域涉密信息泄露。事后,小李受到严肃处理。
国安部披露的多起AI工具泄密事件仅是冰山一角。此前一项研究显示,15%的员工经常在ChatGPT上传公司数据,其中超四分之一涉及敏感信息。
这些数据泄露风险提醒我们:缺乏防护的AI,极易成为企业数字资产的“溃堤之口”,切莫因10分钟的AI提效,让十年积累的核心数据被窃取,导致竞争优势瞬间崩塌。因此,在AI驱动效率狂奔的同时,安全绝不能掉队。
事件五 浏览器站上资本风口,成为AI安全“第一战场”
随着生成式AI深度融入工作流,浏览器进入资本视野,预示着浏览器已从单纯的上网工具,跃升为AI时代数据安全的“第一战场”。
年中,OpenAI推出AI原生浏览器,SentinelOne斥资2.5亿美元收购专注AI安全浏览器扩展的PromptSecurity,AI搜索引擎初创公司Perplexity则拟以345亿美元收购Chrome争夺流量入口,奇安信可信浏览器上线“原生AI助手”,可一键对接私有化大模型让AI能力无缝融入日常工作流。
这些动向清晰表明:当企业员工每天通过浏览器与ChatGPT、Claude等AI工具交互时,数据安全的防线已从传统的终端、网络,前移至浏览器这一“人机交互最前线”,亟需政企构建浏览器层的AI安全治理能力,守护AI时代数字安全第一道屏障。
事件六 “人工智能+”行动意见重点:提升安全能力水平
8月26日,国务院印发《关于深入实施“人工智能+”行动的意见》。《意见》第十四条中重点指出“提升安全能力水平”。
具体内容包括:推动模型算法、数据资源、基础设施、应用系统等安全能力建设,防范模型的黑箱、幻觉、算法歧视等带来的风险,加强前瞻评估和监测处置,推动人工智能应用合规、透明、可信赖;建立健全人工智能技术监测、风险预警、应急响应体系,强化政府引导、行业自律,坚持包容审慎、分类分级,加快形成动态敏捷、多元协同的人工智能治理格局。
奇安信安全专家认为,各类数据泄露、模型污染等事件频繁爆发,强化人工智能安全治理显得尤为迫切。为此,奇安信推出了“可信赖AI”为核心的人工智能安全治理框架,围绕“安全、合规、可控、负责任”四大要素展开,助力广大政企机构在“人工智能+”时代行稳致远。
事件七 《政务领域人工智能大模型部署应用指引》印发,安全成焦点
10月,中央网信办、国家发展改革委联合印发《政务领域人工智能大模型部署应用指引》,推动政务领域大模型应用形成“安全合规-技术落地-风险防控”的良性循环。
《指引》强调全流程筑牢大模型安全防线。在开发部署阶段,在大模型产品和服务的选择上,完成网信部门备案优先。大模型优化训练的数据,对数据质量和安全性进行要求,确保训练数据合规并脱敏。在运行阶段,明确组织保障,安全风险监测与人员能力提升。其中包括落实人工智能大模型“辅助型”定位,防范模型“幻觉”等风险,以及严格落实保密要求,防止国家秘密、工作秘密和敏感信息等输入非涉密人工智能大模型,防范敏感数据汇聚、关联引发的泄密风险。
《指引》从多维度为AI行业发展注入强劲动力和安全保障,其积极意义值得深入挖掘。
事件八 警惕AI带货“李鬼”,《人工智能生成合成内容标识办法》出台
如今,短视频和直播购物已成日常,用户常看到“明星”用方言热情推销农产品,甚至实时直播带货。但需警惕——这些“熟面孔”很可能只是AI深度伪造的仿冒形象。
不法商家正利用生成式AI冒充影视明星、奥运冠军或专家教授,或打擦边球伪装成知名品牌代言人,借名人效应诱导消费者下单。消费者难辨真伪,往往因信任而下单,却在不知不觉中落入骗局。
这一乱象正是《人工智能生成合成内容标识办法》出台的重要现实背景。自2025年9月1日施行以来,《办法》强制AI生成内容加注显著标识,为其赋予“数字身份证”,既提升公众辨识力,又抬高诈骗实施门槛。更重要的是,它从源头构建透明可信的数字生态,在保障知情权的同时,为AI产业划定合规边界,彰显我国在AI治理上的制度前瞻性与责任担当。
事件九 250份文档毒翻大模型,“乱说话”误导公众
10月,Anthropic联合英国AI安全研究院与艾伦・图灵研究所开展迄今最大规模的大模型数据投毒研究,揭示AI系统存在严重安全脆弱性。
研究发现,仅需250篇精心构造的恶意网页,即可在130亿参数模型中植入“后门”——当触发特定短语时,模型会输出异常内容。该效果与模型规模或训练数据总量无关。
研究证明,攻击者无需海量样本即可破坏主流AI系统,盲目追求模型规模已不可持续。业界亟需将重心转向内生安全机制建设,从数据源头、训练流程到推理防护构建全链条防御体系,以应对日益低门槛、高隐蔽性的AI投毒威胁。
事件十 OpenAI安全框架被提示注入攻击轻松突破,AI攻击防护架构引深思
随着AI代理应用的爆发式普及,安全框架已成为企业防止模型生成有害内容、保护敏感数据的核心机制。然而,当这类框架本身由AI模型驱动时,其可靠性正面临严峻挑战。
2025年10月,OpenAI在DevDay大会上发布其新一代AI安全框架Guardrails,旨在自动拦截有害或越狱类提示。然而,该框架上线仅数日即被HiddenLayer团队成功攻破,引发业界对“AI自我监管”模式的广泛质疑。
该事件揭示纯LLM驱动的安全方案存在根本性缺陷。奇安信昆吾实验室建议,政企应摒弃单一依赖大模型的防护思路,转向规则引擎、行为审计、最小权限、红队测试等相结合的混合防御体系。
这一年,AI安全呈现出复杂而紧迫的风险图景,五大趋势相互交织:AI基础设施日益成为地缘科技博弈的“角力场”;企业追求效率优先却将安全置于部署之后的致命隐患;员工无意识操作正演变成企业最危险的内部威胁;安全防护正从网络边界前伸至人机交互前沿;而国家层面加速构建制度护栏,为狂奔的智能套上稳健的缰绳,力促AI在可控轨道上发展。
当前,AI产业正站在从“野蛮生长”向“内生安全、合规可信”转型的关键节点。筑牢AI安全底线,绝非阻碍创新,而是为更可持续、更值得信赖的智能未来铺平道路。当智能继续狂奔,唯有让安全成为其与生俱来的基因,我们才能真正驾驭这场技术革命。
AI迈向“社会基座”的征程已经开启,这场决定其是否稳固可信的攻防角力,才刚刚拉开帷幕。
6200+人工智能(安全)文档已上传至星球
人工智能与网络安全:AI应用及安全防护解析(中文).pdf
人工智能与网络安全:AI应用及安全防护解析(英文).pdf
人工智能网络安全框架规范(中文).pdf
人工智能网络安全框架规范(英文).pdf
来源:虎符智库