中国国家互联网信息办公室(网信办)近日正式发布《人工智能大模型安全评估规范》,这是全球首个针对人工智能大模型的系统性安全评估标准。该规范的出台标志着中国在AI治理领域迈出重要一步,为全球人工智能安全发展提供了中国方案。
七大评估领域确保全方位安全
《规范》明确了人工智能大模型需要评估的七大关键领域,具体包括:
- 内容安全:防止生成有害、虚假或误导性信息
- 数据隐私保护:确保用户数据收集、存储和使用符合法规要求
- 算法公平性:避免模型输出存在性别、种族或其他形式的歧视
- 安全可控性:具备模型失控风险防范和应急处理能力
- 知识产权保护:防止模型训练和输出侵犯他人知识产权
- 社会伦理:确保AI应用符合社会道德和伦理规范
- 技术透明度:要求模型开发者提供必要的技术说明和文档
网信办相关负责人表示,这些领域覆盖了人工智能大模型可能带来的主要风险,旨在构建全方位、多层次的安全防护体系。
推动行业规范化发展
《规范》的发布被视为中国AI行业发展的重要里程碑。业内专家指出,随着大模型技术的快速发展,其潜在风险也日益凸显,迫切需要建立统一的安全标准。此次出台的评估规范,将有助于解决当前行业存在的标准不统一、安全保障措施不完善等问题。
"这是全球首个针对AI大模型的综合性安全标准,它不仅为中国AI产业健康发展提供了保障,也为国际社会提供了可借鉴的治理经验。" —— 清华大学人工智能研究院院长张教授
企业需加速合规改造
根据《规范》要求,在中国境内研发、应用和服务的AI大模型,都需要通过安全评估。这意味着相关企业需要对现有模型进行全面审查,并进行必要的合规改造。
短期内,企业可能面临研发成本上升的压力。据估算,大型AI企业完成合规改造的平均成本预计在数千万元人民币。但从长远看,规范的实施将有助于建立可信的AI生态环境,增强公众对AI技术的信任,促进AI产业的可持续发展。
部分领先企业已表态将积极响应新规。某头部科技公司负责人表示:"我们欢迎并支持国家出台的安全评估标准,这将促进行业整体水平提升。公司已成立专项工作组,确保旗下大模型产品尽快符合标准要求。"
国际影响与展望
中国发布AI大模型安全评估标准的消息引起国际关注。有外媒评论认为,这显示了中国在AI治理领域的前瞻性和领导力。部分国家已表达了研究借鉴中国经验的意愿。
展望未来,中国网信办表示将持续完善评估标准体系,并加强与国际社会的交流合作,共同推动全球人工智能安全、可靠、可持续发展。
AI安全
政策法规
大模型
人工智能