9月12日,加州议会通过SB-53《人工智能安全披露法案》(以下简称“该法案”)。该法案聚焦前沿AI模型,为大型或前沿人工智能系统的开发者设定了新的透明度要求,并包含了安全测试条款,针对年营收超5亿美元的AI公司强制要求发布安全框架,并在15天内报告重大事件,同时保护举报人权益。该法案旨在防范潜在安全风险,标志着美国人工智能监管进入新阶段。该法案现已提交州长纽森决定签署或否决。
核心内容
2025年9月12日,美国加州议会通过对SB-53《人工智能安全披露法案》(以下简称“该法案”)的审议表决。该法案聚焦前沿AI模型,为大型或前沿人工智能系统的开发者设定了更严格义务。
1.核心概念
1灾难性风险:
可预见的重大风险,即人工智能开发商开发、存储、使用或部署人工智能模型将导致50人以上死亡或重伤,或因涉人工智能模型的单次事件而造成超过10亿美元的财产损失,或出现以下任一情形的:
(a)在制造或释放化学、生物、放射性或核武器方面提供专业援助;
(b)在没有实质性人工监督、干预的情况下从事网络攻击行为;
(c)逃避其开发者或用户的控制。
灾难性风险不包括以下任何一种可预见的重大风险:
(a)如果前沿模型输出的信息内容及表现形式是从外部公开获取的;
(b)联邦政府的合法活动;
(c)前沿模型本身没有对损害造成实质性贡献,而是与其他软件结合造成损害。
2重大安全事故:
包括以下任一情形:
(a)未经授权访问、修改或泄露模型内容,导致死亡或人身伤害;
(b)因灾难性风险的具体化而造成的损害;
(c)前沿模型失控导致死亡或人身伤害。
3前沿人工智能框架:
用于管理、评估和减轻灾难性风险的、记录在案的技术和组织协议。
4前沿模型:
使用大于10^26整数或浮点运算计算能力训练的基础模型。
5前沿开发商:
在上一年的年总收入合计超过5亿美元的前沿开发商。
2.核心条款
1透明度要求:
强制前沿开发商建立并发布详细的安全框架。年收入低于5亿美元的前沿模型开发商,需要披露高层次的安全信息,年收入超过5亿美元的前沿模型开发商,必须公开其安全协议。安全协议的内容不仅包含模型的训练细节,也包括如何评估与降低模型可能造成的灾难性风险,比如系统性偏见、大规模错误信息散布、甚至是武器化等问题。
2安全事故报告义务:
前沿开发商必须在发生重大安全事件15天内向州政府提交报告。报告内容包括事故发生日期、该事件符合重大安全事故条件的原因、安全事件的简要陈述、安全事件与前沿模型使用之间的关系。
3吹哨人保护机制:
前沿开发人员发现重大安全事故可能存在死亡或严重人身伤害风险时,应在24小时内根据事件的性质和法律要求向有关政府当局披露该事件。
4法律责任:
前沿开发商未履行以上安全义务的,将面临高额处罚;造成损害的,应当依法承担相应民事赔偿责任。
来源:加州会议官网
撰稿|刘晋名 白晶晶(实习生)
责编|卢蔷
声明:本文来自三所数据安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。