No.182 校园深伪、酷儿拒绝与认识论信任

当生成式 AI 闯入以关系和共创为核心的艺术社群,酷儿艺术家会如何划出抵抗的边界?

No.182 校园深伪、酷儿拒绝与认识论信任
Photo by Jean Carlo Emer / Unsplash
💡
本期会员通讯分享三则新闻和两篇论文。

第一篇作者对 15 位自我认同为酷儿艺术家的参与者进行了访谈,讨论的不是 AI 会不会取代创作这种老问题,而是当艺术本来就是一种结社、互相照看、一起想象别种生活的方式时,生成式 AI 到底打断了什么?更具体一点,人们会怎样拒绝它?

第二篇的问题很接地气。研究者回看 2019 到 2025 年间 70 多场道德想象工作坊,追问为什么有些伦理讨论一开始就让工程师不想参与,有些却真的能让人坐下来认真想?究竟是哪些具体条件和设计选择,能让伦理干预措施在工程环境中被技术从业者成功接纳,并被视为合法且有价值的?

祝今日读写愉悦,洞见深省。

有事发生

AI 深度伪造色情席卷全球 28 国校园

连线 4 月 15 日报道,自 2023 年以来,利用生成式 AI 制作非自愿色情图像的“脱衣”应用在校园泛滥。据 WIRED 调查,全球至少 28 个国家的 90 所学校受到影响,涉及受害者超过 600 名。此类事件主要由高中男生发起,通过下载社交媒体照片并使用 AI 技术合成虚假裸照,导致受害者面临严重的心理创伤和社交恐惧。

数据显示,去年全球约有 120 万名儿童成为 AI 深度伪造的目标;在西班牙,每 5 名青少年中就有 1 人自称受害。尽管此类内容已构成儿童性虐待材料(CSAM),但许多学校和执法部门在危机应对上仍显滞后。目前,韩国和澳大利亚等地的学校已开始限制学生照片发布,美国也通过相关立法,强制平台在 48 小时内删除此类侵权内容。


OpenAI 发布 GPT-5.4-Cyber 模型强化网络安全防御能力

纽约时报 4 月 14 日报道,继上周 Anthropic 限制发布 Claude Mythos Preview 之后,OpenAI 于周二宣布推出专门用于识别软件安全漏洞的新模型 GPT-5.4-Cyber。该模型初期将通过“网络受信任访问”计划向数百家组织开放,并计划在数周内将范围扩大至数千个合作伙伴。

GPT-5.4-Cyber 旨在协助关键基础设施和公共服务的维护者修复系统漏洞,防止数字系统遭到破坏。虽然这类技术具备攻击和防御的双重属性,但 OpenAI 希望通过针对性的分发让防御者占据优势。为此,公司降低了该系统在网络安全方面的技术限制,以便专业人员更有效地检索漏洞,同时通过严格的身份验证防止滥用。目前,安全专家对这一限制发布策略仍存争议,部分观点认为这可能让更多缺乏核心技术的机构面临更高的安全风险。


美国缅因州批准全美首个大型数据中心禁令

纽约时报 4 月 16 日报道,美国缅因州议会本周投票通过了一项暂停新建大型数据中心的法案,成为全美首个实施此类立法的州。该法案规定,在未来 18 个月内,暂停审批电力需求超过 20 兆瓦的新建数据中心项目。立法者此举旨在应对人工智能行业扩张带来的资源压力,重点关注设施对电力和水资源的巨大消耗,以及可能导致居民能源成本上升和环境污染的风险。

目前法案已提交给州长珍妮特·米尔斯,她需在 10 天内决定签署、否决或允许其生效。尽管特朗普政府此前发布行政命令,敦促各州放宽对 AI 产业的监管以保持竞争力,但缅因州众议院仍以 115 比 29 的投票结果,否决了对特定经济改造项目的豁免条款。此举反映出在 AI 技术浪潮下,地方政府对能源安全与环境保护的优先考量。