TLDR: SB1047是加州立法机构中的一个法案,由“人工智能安全中心”起草。如果通过,它将限制未来开放权重大型语言模型(LLM)的发布。如果你住在加利福尼亚,现在,今天,是一个特别好的时机打电话或发邮件给代表,影响它是否通过。
SB1047的目的是使大规模LLM语言模型的创建者对这些模型被滥用所造成的大规模损害承担更多责任。例如,如果Meta发布Llama 4,有人用它帮助黑客攻击计算机造成足够损害;或者用它帮助杀害多人,Meta可能会在SB1047下承担责任。
目前尚不清楚Meta如何保证他们不会对发布的开源模型承担责任。例如,Meta仍然会因微调后的Llama模型造成的损害而承担责任,即使是大规模微调的Llama模型,在法案下也是如此。这种未来责任水平——没有人对此达成一致,关于公司实际会承担什么责任争议很大——可能会减缓或阻止未来LLM的发布。
该法案得到了以下组织的支持:
- PauseAI,其政策提案是糟糕的。就像他们说的,政府应该必须批准“新训练的AI模型超过一定规模(例如10亿参数)的运行”。阅读他们的提案,我保证它们比你想象的更糟糕。
- 未来社会,过去曾提议禁止开放分发在MMLU上表现超过68%的LLM
- 等等,通常是EA资助的组织的列表
该法案将于8月15日,明天,在众议院拨款委员会举行听证会。
如果你不住在加利福尼亚….我不知道,你做不了太多,点赞这个帖子,尝试让住在加利福尼亚的人做点什么。
如果你住在加利福尼亚,你可以做的是:
给众议院拨款委员会主席(Buffy Wicks,D)和副主席(Kate Sanchez,R)发邮件或打电话。礼貌地告诉他们你反对该法案。
Buffy Wicks: [email protected], (916) 319-2014
Kate Sanchez: [email protected], (916) 319-2071
邮件/对话不需要很长。只要说你反对SB 1047,希望它不通过,认为法案中对开放权重模型的保护不足,并认为这种法案为时过早,会损害创新。
讨论总结
加州SB1047法案引发了广泛的讨论,主要围绕其对开放权重大型语言模型(LLMs)发布的限制以及增加模型创建者法律责任的影响。讨论中,反对者担忧法案会阻碍技术创新和开放源代码的发展,而支持者则认为这有助于防止模型被滥用。争议主要集中在法案的实施细节、对创新的潜在影响以及是否符合宪法。总体上,讨论呈现出对技术未来发展的深切关注和对立法干预的担忧。
主要观点
- 👍 SB1047法案可能会限制开放权重LLMs的未来发布
- 支持理由:增加模型创建者的法律责任,防止模型被滥用。
- 反对声音:可能导致技术创新受阻,影响开放源代码的发展。
- 🔥 法案的支持者包括PauseAI和The Future Society等组织
- 正方观点:这些组织的提案有助于加强AI安全。
- 反方观点:这些提案过于严格,可能阻碍技术进步。
- 💡 法案的实施可能会受到大型科技公司通过游说活动的影响
- 解释:大型科技公司可能通过游说来影响法案的通过,从而保护自身利益。
- 👀 法案可能导致未来模型故意在特定测试中得分低于限制以规避法案
- 解释:评论者提出未来模型可能会故意在MMLU测试中得分低于68%以规避限制,显示了对法案可能产生影响的幽默看法。
- 🤔 法案的实施细节和执行手段存在争议
- 解释:评论者质疑法案的实施是否能有效防止模型滥用,以及是否会对技术创新造成不利影响。
金句与有趣评论
- “😂 Would be funny to see future models 99% all other benchmarks but deliberately throw the MMLU at 67% to get around the limitation.”
- 亮点:通过幽默的方式表达对法案可能产生影响的看法。
- “🤔 So, under this bill, are companies making kitchen utensils liable for any incidents as a result of their sharp instruments being used in homicide because no safety guard rails were put in place during their deployment?”
- 亮点:通过类比厨房用具的安全责任,质疑法案在责任分配上的公平性和合理性。
- “👀 If Linus had to submit each kernel for government review before being released, what do you think would happen?”
- 亮点:通过类比Linux内核的发布过程,质疑政府审查的合理性。
情感分析
讨论的总体情感倾向为反对,主要分歧点在于法案对技术创新和开放源代码的影响。反对者认为法案可能会阻碍未来的技术发展和创新,而支持者则强调法案对防止模型滥用的重要性。可能的原因包括对技术未来发展的担忧以及对立法干预的不信任。
趋势与预测
- 新兴话题:可能引发后续讨论的新观点包括法案对全球AI发展的影响以及如何平衡模型开放与安全性。
- 潜在影响:该法案可能对全球AI产业产生重大影响,尤其是对开放源代码和创新环境的影响。
详细内容:
《加州 SB1047 法案引发激烈争议:开放权重模型的未来何去何从?》
近日,Reddit 上一则关于加州立法机关的 SB1047 法案的讨论引起了广泛关注,该帖子获得了众多点赞和大量评论。原帖主要探讨了这一法案若通过,将对开放权重的大型语言模型(LLM)的未来发布产生限制。
该法案的核心在于使大型 LLM 语言模型的创建者对因模型滥用而导致的大规模损害承担更多责任。比如,若 Meta 发布 Llama 4 并有人借此进行危害活动造成重大损失,Meta 可能需承担责任。然而,目前尚不清楚公司如何确保自身不担责,这一不确定性可能会减缓或阻止未来 LLM 的发布。
讨论焦点集中在对该法案的不同看法上。有观点认为像“[ BreakingGood ] 我通读了一下,情况并非那么糟糕。它规定从 2027 年起,训练成本超过 1 亿美元的模型需要经过审查,以确保不能提供制造核武等的精确步骤,这似乎合理。”但也有人强烈反对,如“[ResidentPositive4122] 我们从过去几十年的核恐慌中还没吸取教训吗?这明显是在利用恐吓手段来拖延、干扰和控制。”
有人质疑法案的可行性和有效性,比如“[InvestigatorHefty799] 我在加州政府工作,读过该法案,认为它无法执行。它将创建一个新部门但未提供实际执行手段。”
还有人认为这一法案会损害创新,如“[Joseph717171] 这是权力的过度扩张,会导致开放权重开源 AI 的死亡,并让大型 AI 公司受益。”
对于法案中“精确”这一表述的界定也存在争议,“[gintokintokin] 难道不觉得对于这样的法律,‘精确’的限定太模糊了吗?多精确才算精确?”
在这场讨论中,共识在于大家都对该法案可能带来的影响表示关注和担忧。特别有见地的观点如“[DinoAmino] 最大的担忧是大多数政客对技术一窍不通,他们只听钱的指挥。”丰富了讨论的深度。
总之,加州的这一法案引发了关于技术监管、创新保护以及政治决策等多方面的深入思考和激烈辩论。其最终走向和影响仍有待观察。
感谢您的耐心阅读!来选个表情,或者留个评论吧!