主要观点总结
美国加州通过的《安全与可靠前沿人工智能创新法案》最终被州长否决,体现了美国AI治理“发展为先、基于实证、顶层设计、行政牵引、场景立法、小步快走”的特征,对我国AI治理具有启发意义。法案历经12轮修正,试图为市场主体创设新义务,但导致权利-义务不对称,增加了企业合规成本,降低了模型训练/投产速度,对创新产生寒蝉效应。法案基于场景定义风险,但脱离加州特色,失去立法势能。新法案未体现激励相容原则,且风险场景并不显著,过早硬化软法治理为刚性义务,缺乏必要性与可行性。法案背离了顶层设计、行政牵引为主导的治理模式,重横向治理、轻场景治理,且风险场景定义脱离加州特色。建议采用“软法优先+公共知识/产业实践+司法判例”的治理模式,构建鼓励创新的风险容错机制。
关键观点总结
关键观点1: 法案被否决的背景与启示
法案历经12轮修正,试图为市场主体创设新义务,但增加了企业合规成本,降低了模型训练/投产速度,对创新产生寒蝉效应。法案基于场景定义风险,但脱离加州特色,失去立法势能。
关键观点2: 法案的权利-义务平衡问题
新法案未体现激励相容原则,导致权利-义务不对称,市场主体不能通过义务履行达成“许可免责”或“司法豁免”,增加了合规成本,降低了模型训练/投产速度,还可能因过重文牍负担导致商秘泄露风险。
关键观点3: 法案的风险场景定义与加州特色
法案的风险场景定义脱离加州特色,未能考虑AI系统是否部署在高风险环境中、是否涉及关键决策或使用敏感数据,导致立法势能丧失。加州立法实践强调场景或用例监管,与法案的风险场景定义不符。
关键观点4: 法案与顶层设计的冲突
法案背离了顶层设计、行政牵引为主导的治理模式,重横向治理、轻场景治理,可能导致监管碎片化,抑制技术的创新与落地应用。联邦行政令和部门规则已对AI治理有所覆盖,法案的必要性不强。
关键观点5: 建议的治理模式
建议采用“软法优先+公共知识/产业实践+司法判例”的治理模式,构建鼓励创新的风险容错机制,协调现有制度约束和自主行业监督,通过各界协同共治来建立符合技术发展及应用特征的风险管控模式。
文章预览
作者: 顾登晨 彭靖芷 袁媛 导语 “十一”前夕,历经12轮修正、加州议会通过的《安全与可靠前沿人工智能创新法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act,简称 SB-1047 ),被加州州长以“监管要基于技术发展和风险实证”、“风险监管离不开场景”、 “不能仅仅因为大而监管”而否决。 法案几经迭代,最终被否,生动体现了美国AI治理 “发展为先、基于实证、顶层设计、行政牵引、场景立法、小步快走” 的特征,对我国AI治理也颇具启发: 1)治理应体现激励相容、鼓励创新原则。 1047法案拟为市场主体创设新义务,但后者既不能通过义务履行来达成事前“许可免责”,又不能借此达成事后“司法豁免”,徒增企业合规成本,降低模型训练/投产速度,还可能因过重文牍负担导致商秘泄露,再新增重罚等繁冗法律责任,对创新
………………………………