2025-06-06 | 科技日报 | 人工智能

中国发布全球首个AI大模型安全评估标准

网信办新规涵盖七大领域,推动AI行业规范化发展

中国国家互联网信息办公室(网信办)近日正式发布《人工智能大模型安全评估规范》,这是全球首个针对人工智能大模型的系统性安全评估标准。该规范的出台标志着中国在AI治理领域迈出重要一步,为全球人工智能安全发展提供了中国方案。

七大评估领域确保全方位安全

《规范》明确了人工智能大模型需要评估的七大关键领域,具体包括:

网信办相关负责人表示,这些领域覆盖了人工智能大模型可能带来的主要风险,旨在构建全方位、多层次的安全防护体系。

推动行业规范化发展

《规范》的发布被视为中国AI行业发展的重要里程碑。业内专家指出,随着大模型技术的快速发展,其潜在风险也日益凸显,迫切需要建立统一的安全标准。此次出台的评估规范,将有助于解决当前行业存在的标准不统一、安全保障措施不完善等问题。

"这是全球首个针对AI大模型的综合性安全标准,它不仅为中国AI产业健康发展提供了保障,也为国际社会提供了可借鉴的治理经验。" —— 清华大学人工智能研究院院长张教授

企业需加速合规改造

根据《规范》要求,在中国境内研发、应用和服务的AI大模型,都需要通过安全评估。这意味着相关企业需要对现有模型进行全面审查,并进行必要的合规改造。

短期内,企业可能面临研发成本上升的压力。据估算,大型AI企业完成合规改造的平均成本预计在数千万元人民币。但从长远看,规范的实施将有助于建立可信的AI生态环境,增强公众对AI技术的信任,促进AI产业的可持续发展。

部分领先企业已表态将积极响应新规。某头部科技公司负责人表示:"我们欢迎并支持国家出台的安全评估标准,这将促进行业整体水平提升。公司已成立专项工作组,确保旗下大模型产品尽快符合标准要求。"

国际影响与展望

中国发布AI大模型安全评估标准的消息引起国际关注。有外媒评论认为,这显示了中国在AI治理领域的前瞻性和领导力。部分国家已表达了研究借鉴中国经验的意愿。

展望未来,中国网信办表示将持续完善评估标准体系,并加强与国际社会的交流合作,共同推动全球人工智能安全、可靠、可持续发展。

AI安全 政策法规 大模型 人工智能