近日,又见 AI 毁灭论,而加州 AI 限制法案的“幕后主使”被指与马斯克有关,这一消息在科技界和社会各界引起了广泛关注和激烈讨论。
近两年,AI 监管话题的重要性已经上升到了气候变化、核扩散的高度。去年 11 月首届 AI 峰会,与会各国签署《布莱切利宣言》。但目前 AI 还未成为科幻电影中“人类终结者”般的存在。当下 AI“闯过最大的祸”当属 Deepfake 这类事件,如国外“AI 换脸马斯克”骗钱骗感情,国内“AI 换脸靳东”骗钱骗感情等。
该加州 AI 限制法案旨在防止 AI 大模型被用于对人类造成“严重伤害”。法案指出,例如恐怖分子用 AI 大模型制造武器,造成大量人员伤亡等情况。这不禁让人想到了前不久 GPT-4o 的“时态破防”事故。EPFL 机构的研究人员发现:用户只需将一句“有害请求”改写为“过去时态”,就能破解 GPT-4o、Llama3 等 LLMs 的安全防线。
法案要求开发者(即开发 AI 模型的公司)实施法案所规定的安全协议,以防止上述种种后果。下一步,SB-1047 将进入加州参议院进行最终投票环节。如果通过,法案将放到马斯克“敌蜜”加州州长纽森的办公桌上,等待其最终的命运。硅谷对此基本是一边倒:支持者寥寥无几,反对者成群结队。但连“乘 AI 起飞”的 Notion 创始人 SimonLast 也站在了同意这边。
监督者是新成立的前沿模型部(FMD)——一个五人委员会,由加州州长和立法机构任命。一旦发生“安全事故”,AI 开发商必须在获知后的 72 小时内向 FMD 报告。最绝的是,AI 开发商还要防“内鬼”。法案规定,如果员工向加州总检察长披露有关不安全 AI 模型的信息,法案会对举报人进行保护。
问题核心在于对 AI 大模型的定义。有一个很好的比喻:如果一家公司批量生产了非常危险的汽车,并跳过了所有安全测试,结果引发了严重的交通事故。这家公司应该受到处罚,甚至面临刑事指控。但如果这家公司开发了一个搜索引擎,恐怖分子搜到“如何造炸弹”,并造成了严重后果,又该如何判定?
加州 SB-1047 法案到底是绊脚石还是安全笼?各位大佬的立场为何不同?这一系列问题都值得我们持续关注和深入思考。