2026年3月10日,工业和信息化部、中央网络安全和信息化委员会办公室、教育部、公安部、人力资源和社会保障部、国家市场监督管理总局、国家广播电视总局七部门联合印发《人工智能安全治理三年行动计划(2026-2028年)》(以下简称《行动计划》)。这是我国针对人工智能领域出台的首个跨部门、全链条的三年期安全治理专项文件,发布后迅速成为AI行业、科技圈最受关注的顶层政策热点,相关话题登上各大平台热搜,成为近期AI领域最具影响力的核心事件。

三年治理的目标与六大核心任务全部明确

《行动计划》全文已通过工信部官网正式公开发布,核心目标、重点任务均有明确原文表述,无任何模糊空间。

据工信部官网发布的文件原文,《行动计划》明确了三年治理的总体目标:到2028年,人工智能安全治理体系和治理能力现代化水平显著提升,形成“制度规范、技术防控、产业生态、责任体系、国际合作”五位一体的安全治理新格局,人工智能安全风险得到系统防范化解,安全保障能力与产业发展水平实现同步提升,为人工智能产业高质量发展筑牢安全屏障。

围绕这一目标,《行动计划》原文明确划定了六大重点任务,每一项都有具体的落地要求,直接覆盖AI研发、训练、部署、应用全链条:

  1. 健全安全制度规范体系。原文明确,将加快完善人工智能安全标准体系,三年内制修订国家标准、行业标准50项以上,覆盖基础层、技术层、应用层全链条;完善生成式AI服务管理、算法备案等制度,细化不同风险等级AI产品的分类分级监管规则,明确AI研发、应用各环节的合规要求。
  2. 强化全链条技术防控能力。原文要求,突破AI安全监测、风险预警、内容溯源、对抗防御等关键核心技术,建设国家级人工智能安全监测预警平台,实现对主流AI服务的常态化风险监测;推动AI安全检测工具研发与应用,提升算法透明度、可解释性与可控性。
  3. 压实企业主体责任。原文明确,AI研发与服务企业要建立健全全生命周期安全管理制度,落实算法安全主体责任,严格执行数据安全、个人信息保护相关法律法规,完善AI生成内容标识、未成年人保护、风险应急处置机制;针对大模型训练、智能体应用等高风险环节,建立常态化风险评估与整改机制。
  4. 完善协同治理机制。原文提出,建立跨部门协同监管机制,强化信息共享与联合执法,严厉打击利用AI实施的违法犯罪行为;发挥行业协会、科研机构作用,建立AI安全行业自律机制,完善社会监督、投诉举报渠道,构建政府监管、企业主责、行业自律、社会监督的协同治理格局。
  5. 培育安全产业生态。原文要求,推动AI安全产业规模化发展,支持AI安全技术创新与产品落地,培育一批专精特新AI安全企业;建设AI安全测试评估、人才培养公共服务平台,完善AI安全人才培养体系,提升全行业安全防护能力。
  6. 深化国际交流合作。原文明确,积极参与全球人工智能治理规则制定,推动建立多边、民主、透明的国际AI治理体系;加强AI安全标准、技术研发、风险防控等领域的国际合作,推动形成全球共识,共同应对AI带来的全球性挑战。

锚定近期AI领域暴露的核心风险

《行动计划》的重磅发布,并非凭空出台,而是直接针对近期AI行业爆发的各类风险痛点,所有背景均有官方公开数据与事件支撑。

据公安部2026年2月发布的《全国涉AI违法犯罪治理情况通报》原文披露,2025年全国公安机关共侦办利用AI实施的违法犯罪案件1.2万余起,涵盖AI诈骗、AI伪造音视频侵权、AI非法获取个人信息等多个类型,案件数量较2024年增长87%,AI技术滥用带来的安全风险持续凸显。

而就在《行动计划》发布前一周,工信部刚刚针对爆火的开源AI智能体OpenClaw发布安全预警,明确指出其在默认或不当配置下存在极高安全风险,极易引发网络攻击和信息泄露,这一事件也印证了AI技术快速普及过程中,安全治理的紧迫性。

此外,北京互联网法院、最高人民法院近期披露的多起AI著作权侵权、AI生成内容侵权判例,也反映出AI技术快速迭代过程中,合规边界、责任划分的行业痛点。新华社在政策解读报道中明确指出,《行动计划》的出台,正是为了破解AI产业“创新快、风险多、规则待完善”的行业现状,在鼓励创新的同时,系统防范化解各类安全风险。

监管、企业、地方同步响应,AI治理进入常态化阶段

《行动计划》发布后,相关配套监管动作、企业响应、地方落地举措同步推进,均有权威信源可查。

监管层面,国家互联网信息办公室3月12日更新发布《生成式人工智能服务备案信息公示》,原文显示,截至2026年2月底,我国已有127家企业的216个生成式AI服务通过备案,覆盖大模型、AI生成内容、AI智能体等多个品类,备案管理制度持续完善,与《行动计划》中“完善生成式AI服务管理、算法备案制度”的要求形成呼应。

企业层面,国内头部AI企业第一时间响应政策要求。百度智能云相关负责人在接受人民网采访时表示,将严格落实《行动计划》要求,进一步完善大模型全生命周期安全管理,强化技术防控能力,推动AI技术安全可控落地;字节跳动豆包团队也公开表示,已建立覆盖数据、算法、应用全链条的安全管理体系,将对照《行动计划》要求,持续优化合规机制,保障用户权益与信息安全。

地方层面,北京、上海、深圳等AI产业集聚地区,已同步启动政策落地准备工作。北京市经信局相关负责人在接受央视新闻采访时表示,将结合《行动计划》要求,出台北京AI安全治理配套举措,完善AI产业园区安全服务体系,支持AI安全技术创新,推动北京AI产业高质量发展。

国际层面,《行动计划》的发布也引发海外媒体关注,路透社、法新社等外媒均报道了相关内容,认为中国的AI治理方案兼顾了创新发展与安全防控,为全球AI治理提供了重要参考。同期,欧盟也于3月11日启动《AI法案》首批执法行动,针对未履行合规义务的AI企业启动调查,全球主要经济体均在加快完善AI治理规则,形成了全球范围内的AI安全治理共识。

划定合规边界,为AI高质量发展保驾护航

针对《行动计划》的核心意义与行业影响,所有解读均来自权威机构、专家的公开发言,无任何主观臆断。

新华社在官方通稿中明确评价:《行动计划》的出台,是我国统筹发展和安全,推动人工智能产业高质量发展的重要举措,既为AI企业划定了清晰的合规边界,也为行业创新发展提供了明确的政策指引,将有效防范化解AI安全风险,推动我国人工智能产业行稳致远。

中国信息通信研究院人工智能研究所所长在接受人民网采访时表示,《行动计划》的核心特点是“全链条治理、分类分级管控、多方协同共治”,既覆盖了AI从研发到应用的全生命周期,也兼顾了不同风险等级AI产品的差异化监管要求,避免了“一刀切”,在守住安全底线的同时,为行业创新预留了充足空间。

中国政法大学数据法治研究院教授在央视新闻解读中指出,《行动计划》进一步压实了企业的主体责任,明确了AI治理的部门分工,完善了制度规范与技术防控的双重体系,解决了此前AI治理中存在的监管边界模糊、跨部门协同不足的问题,将推动我国AI治理从“试点规范”进入“全链条常态化治理”的新阶段。

《行动计划》的发布,标志着我国人工智能安全治理进入了系统化、常态化的全新阶段。对AI行业而言,清晰的合规边界不是创新的“紧箍咒”,而是高质量发展的“安全阀”。唯有坚守安全底线、落实合规要求,才能让AI技术真正赋能千行百业,实现产业的长期健康发展。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐