财联社8月22日讯(编辑 潇湘)当地时间周三,OpenAI对加州一项旨在确保强大人工智能安全部署的法案进行了猛击抨击,从而加入了包括斯坦福大学教授李飞飞、前百度首席科学家吴恩达等AI行业大佬的行列。反对者试图赶在月底的州议会投票前,共同发动阻止该法案通过的游说狂潮……
根据业内媒体看到的一封周三寄给加州参议员Scott Wiener办公室的信,OpenAI首席战略官Jason Kwon在信中写道,这项由议员Wiener牵头发起的SB-1047法案,将损害人工智能行业的创新。
OpenAI方面在信中认为,对这一问题的监管应来自联邦***而非各州。其同时还担心,如果该法案获得通过,可能会对美国的人工智能竞争力和国家安全产生“广泛而重大”的影响。
SB-1047法案于今年2月份在加州参议院首度被提出,该法案旨在为超过特定规模和成本门槛的大型人工智能模型的公司,制定其所称的“常识性安全标准”。法案将要求人工智能公司***取措施,防止AI模型造成“严重危害”,如促成可造成大规模人员伤亡的生物武器的开发;或指示人工智能模型策划网络攻击从而造成超过5亿美元的损失。
法案覆盖的模型规模范围如下:
在2027年1月1日之前,(i)使用超过10^26次整数或浮点运算的计算能力进行训练的人工智能模型,其成本超过一亿美元——该成本是根据开发者合理评估的训练开始时云计算的平均市场价格计算得出的。(ii)利用等于或大于10^25次整数或浮点运算三倍的计算能力,对范围内的模型进行微调而创建的人工智能模型,其成本经开发者合理评估超过一千万美元。
这一范围其实已基本覆盖了现在市面上主流的大语言模型,OpenAI的GPT4模型显然也在此列。因而如果法案通过,这些模型都将需要被额外监管。
根据这项SB-1047法案,企业需要确保AI系统可以随时关闭,***取“合理的谨慎措施”确保AI模型不会造成灾难,并向加州总检察长披露合规声明。如果企业不遵守这些要求,可能会被***并面临民事处罚,若向该***机构虚***陈述模型的功能,甚至可能会最终使开发人员因伪证而入狱。
法案中还加入了吹哨人保护条款,保护和鼓励AI开发实体内部的举报者,确保员工可以在不受报复的情况下报告企业的不合规情况。
备受争议
可以说,SB-1047法案在年内早些时候一经公布,就遭到了许多大型科技公司、初创企业和风险投资家的激烈反对。
他们认为,对于一项仍处于起步阶段的技术来说,该法案过于宽泛,可能会扼杀加州的科技创新。该法案的一些批评者还担心,它可能会把人工智能公司赶出加州。OpenAI在最新给Wiener办公室的信中也表达了同样的担忧。
Kwon在信中写道,“人工智能革命才刚刚开始,而加州作为人工智能领域全球领导者的独特地位,正在推动加州的经济活力。SB-1047法案将威胁到这种增长,减缓创新步伐,并导致加州的世界级工程师和企业家离开当地,到其他地方寻找更大的机会。”
OpenAI认为,白宫科技政策办公室、商务部和国家安全委员会等联邦机构,比加州州级***机构更适合管理关键的人工智能风险。该公司表示,它支持几项拟议的联邦立法,例如《人工智能创新未来法案》,该法案为新的美国人工智能安全研究所提供了国会支持。
据一位熟悉该公司房地产***的人士透露,由于担心加州监管环境的不确定性,OpenAI已经搁置了扩建旧金山办公室的讨论,该人士要求匿名。
除OpenAI外,当前市场上的许多批评者也认为,该法案要求企业向州***提交有关其模型的详细信息,这将阻碍创新,同时也会阻止较小的开源开发者创建初创企业,因为他们害怕被***。
斯坦福大学教授、人工智能知名学者李飞飞本月早些时候就刚刚牵头撰写了一封联名信。她表示,“加州的SB-1047法案将产生重大而意想不到的后果。如果通过成为法律,其将损害正在萌芽的人工智能生态系统。SB-1047法案也将不必要地惩罚开发人员,扼杀开源社区,并阻碍人工智能学术研究,同时仍无法解决其旨在解决的真正问题。”
然而对于AI行业眼下愈发汹涌的反对声,该法案的发起者Wiener却依然并不以为意。Wiener在周三的最新回应中表示,他同意联邦***应发挥主导作用,但对国会是否会***取行动表示“怀疑”。
他还批评了市场上那些“陈词滥调”的说法——即如果该法案获得通过,科技初创企业就会搬走,并表示总部设在州外的公司仍需遵守该法案,才能在当地开展业务。Wiener在周三写道:“底线是:SB-1047是一项非常合理的法案,它要求大型人工智能实验室做他们已经承诺要做的事情,即测试他们的大型模型是否存在灾难性的安全风险。”
据悉,加州议会将在本月底对该法案进行投票。如果获得通过,加州州长纽森(G***in Newsom)将决定是将其签署为法律还是予以否决。
标签: #法案