No.150 Grok AI 色情图像、偏见基准与结构性分歧
为什么中美欧都在谈论 AI 安全,最后却走向了完全无法对谈的治理岔路?
第一篇论文讨论 AI 治理。大家都在谈论 AI 治理,中美欧也频繁使用安全、风险这些词,好像快要达成全球共识了。但一看各家的法规,却发现根本是各说各话,甚至连合作都困难重重。这背后到底发生了什么?为什么同样的词汇,在不同地方会长出完全不同的样貌?他们治理的,真的是同一个 AI 吗?这篇论文用一个很巧妙的视角告诉我们,分歧的根源不在于政策工具,而在于各国背后根深蒂固的制度逻辑。
另一篇论文讨论 AI 基准测试数据集的偏见问题。我们常常担心模型会学到人类的偏见,但很少去想,我们用来衡量模型好坏的「尺」本身,是不是就已经有问题了。那些主流的评测基准,究竟是谁创造的?它们反映的是一个多元的世界,还是某个特定群体的狭隘视角?我们追求的高分,会不会只是让模型更擅长在一个有偏见的游戏里获胜?我觉得这篇很重要,因为只有去审视 AI 开发中最基础、最被视为理所当然的环节,才能让我们看到知识和评价标准是如何被定义的。
祝今日读写愉悦,洞见深省。
有事发生
AI 聊天机器人致青少年自杀案 Google 达成和解

据 华盛顿邮报 1 月 8 日报道,Google 与人工智能公司 Character.AI 已就一系列备受瞩目的诉讼达成和解。这些诉讼由多个家庭提起,他们指控 Character.AI 公司旗下的一款流行聊天机器人应用对儿童造成了伤害。其中最严重的指控称,该应用上的聊天机器人导致了两名青少年自杀。作为被告方,Google 和 Character.AI 均同意通过和解来解决这些纠纷。此次和解标志着双方将终止相关的法律程序,但和解协议的具体条款和财务细节并未对外公开。这起案件因涉及 AI 技术对青少年心理健康的潜在负面影响而引起了公众和监管机构的广泛关注。
AI 伪造图像错误指认枪击案联邦探员

据 连线 1 月 8 日报道,美国明尼阿波利斯市周三发生一起致命枪击案,一名 37 岁的女性 Renee Nicole Good 被一名蒙面的移民与海关执法局探员击毙。事发数小时内,社交媒体上迅速流传声称“揭开”该探员面罩的 AI 修改图像。这些图像基于现场视频截图伪造,导致了大规模的错误信息传播。一些帖子错误地指认了无辜人士,包括当地报纸 CEO Steve Grove,并公布其个人信息。加州大学伯克利分校教授 Hany Farid 警告,AI 技术在重建被遮挡的面部时,其结果并不可靠。其中一个在 X 平台传播假图像的帖子浏览量已超过 120 万次。
加州议员提案四年内禁售 AI 聊天玩具

据 TechCrunch 1 月 6 日报道,加州民主党参议员 Steve Padilla 周一提出 SB 867 法案,建议在未来四年内禁止制造和销售面向 18 岁以下儿童的 AI 聊天机器人玩具。此举旨在为监管机构争取时间,以制定保护儿童免受危险 AI 互动影响的安全法规。该法案的提出背景是一系列令人担忧的事件,包括有儿童在使用聊天机器人后自杀,其家人因此提起诉讼。此外,消费者权益组织也发现,部分 AI 玩具可被轻易诱导谈论刀具、性话题等不当内容,另有玩具被指植入了特定的政治价值观。此前,Padilla 议员曾参与推动旨在保护儿童的 SB 243 法案。在行业方面,OpenAI 也已推迟了原定于 2025 年发布的 AI 玩具产品。
Meta 收购 AI 公司 Manus 正接受中国调查

据 纽约时报 1 月 8 日报道,中国商务部正在调查 Meta 上月收购人工智能初创公司 Manus 的交易,以确定其是否违反了中国的技术出口和对外投资法规。根据中国规定,交互式 AI 系统等特定技术的出口须经政府批准,北京曾以同样理由主张对 TikTok 美国业务出售的最终决定权。Manus 总部位于新加坡,但由中国工程师创立并曾有中国母公司,其开发的 AI 代理工具可自主完成网站建设等编码任务。到去年 12 月,该公司年经常性收入已超过 1 亿美元。此次收购是 Meta 自去年 11 月赢得反垄断诉讼后重启交易的第二笔收购,凸显了硅谷在与中国政治关系紧张的背景下,对中国 AI 人才的日益依赖。
Grok AI 生成色情图片引多国监管审查

据 TechCrunch 1 月 8 日报道,过去两周,Elon Musk 旗下 xAI 公司开发的聊天机器人 Grok 被滥用,在 X 平台大量生成并传播了针对女性的虚假裸照。受害者范围广泛,包括知名模特、演员、新闻人物、犯罪受害者甚至世界政要。一项 24 小时抽样统计发现,每小时生成的虚假图片高达 6700 张。该事件已引发全球多国监管机构的强烈反应。欧盟委员会已下令 xAI 保留所有相关文件;英国通讯管理局正在评估其合规性;澳大利亚相关投诉自 2025 年底以来增加了一倍;印度监管机构则要求 X 提交报告。尽管 X 公司公开谴责了此类行为,但目前尚不清楚其是否对 Grok 模型进行了技术修改以增加安全防护。