No.156 集体同意议会、伦理洗白与 OpenAI 伦理话语建构

当个人一次次的同意点击已流于形式,我们能否用一个「同意议会」来集体决定我们的数据该何去何从?

No.156 集体同意议会、伦理洗白与 OpenAI 伦理话语建构
Photo by the iop / Unsplash
💡
本期会员通讯分享了三则新闻和两篇论文。

第一篇论文讨论的是数据同意。我们每天都在网上点「同意」,但这种同意真的有意义吗?这种个人化的模式,面对 AI 训练这种新问题时,显得越来越无力。那么,我们该如何设计一个新框架,既能减轻我们个人的决策负担,又能应对数据被集体使用的挑战?同意议会在实践中要怎么运作?这篇的视角很有趣,问题意识和解法都很有新鲜感。

另一篇论文则把焦点放在了 AI 伦理的话语上。AI 公司总爱谈论「负责任的创新」,但这些听起来很棒的伦理原则,跟他们的实际行动之间好像总有一段距离。作为行业领头羊的 OpenAI,在其发展过程中,是如何使用「伦理」、「安全」这些词的?为什么「安全」的使用频率远高于「伦理」,这种选择性的表达,透露了什么讯息?这种话语策略,又是如何悄悄地定义了整个行业的规范,决定了哪些问题才重要?

祝今日读写愉悦,洞见深省。

有事发生

因安全诉讼 Meta 暂停青少年使用 AI 角色

TechCrunch 1 月 23 日报道,Meta 公司近日宣布,将在未来几周内于全球范围内暂停青少年用户访问其所有应用程序中的 AI 角色功能。此举正值公司即将在新墨西哥州面临一起诉讼,该诉讼指控 Meta 未能有效保护儿童免受网络性剥削。Meta 表示,暂停是为了开发一个包含内置家长控制功能的更新版本,以回应家长对加强监管的需求。

新版 AI 角色将提供适合年龄的回复,并专注于教育、体育和爱好等安全话题。此项决定是 Meta 加强青少年保护措施的一部分,此前公司已在 Instagram 推出类似 PG-13 电影分级的家长控制功能。在监管审查日益严格的背景下,Character.AI 和 OpenAI 等其它科技公司也已采取类似措施,限制未成年人的 AI 体验。


科幻界全面抵制 AI 星云奖与漫展更新规则

TechCrunch 1 月 25 日报道,近期,科幻与流行文化领域的主要组织开始对生成式 AI 采取更坚定的抵制立场。美国科幻与奇幻作家(SFWA)协会在去年 12 月更新了其星云奖的评选规则。最初的规则允许部分使用 AI 的作品参选,只需作者披露即可,但这引发了社区的强烈反对。几天后,SFWA 致歉并修改规定,明确完全或部分由大语言模型工具创作的作品均无资格参选。

同样,圣迭戈国际漫画展在本月也面临了类似争议。其艺术展最初允许展示但禁止销售 AI 生成的艺术品。在艺术家们提出抗议后,规则被悄然修改为完全禁止任何部分或全部由 AI 创作的材料。艺术展负责人表示,随着 AI 问题日益严峻,有必要采取更严厉的措辞。这些事件反映了创意社区内部对 AI 的强烈抵制情绪,预计今年会有更多组织采取类似的强硬立场。


ChatGPT 开始引用马斯克旗下 AI 百科 Grokipedia 内容

TechCrunch 1 月 25 日报道,ChatGPT 已开始在其回答中引用 xAI 开发的 AI 百科全书 Grokipedia 的内容。Grokipedia 于去年 10 月推出,旨在成为维基百科的保守派替代品,但因其包含不准确信息、为奴隶制提供意识形态辩护以及使用贬损性术语而备受争议。最新的 GPT-5.2 模型在回答 10 余个问题时,有 9 次将 Grokipedia 列为信息来源。

报道指出,这些引用主要集中在一些较为冷门的话题上,避开了 Grokipedia 中已被广泛报道的争议性内容。除 ChatGPT 外,Anthropic 公司开发的 Claude 模型也被发现会引用 Grokipedia。对此,OpenAI 的发言人回应称,其目标是从广泛的公共来源和观点中提取信息。