日报|酷儿生态数据、记者情绪与 AI 摩擦
AI & 社会|前沿研究每日简报 2025-04-18
研究问题
人工智能正越来越多地被应用于对非人类生命的观察与分析,鸟类成为其中最常被数据化的野生动物之一。然而,现有的鸟类数据集存在性别与性取向的偏见,女性、双性与酷儿鸟类长期被忽视或分类错误,导致生物多样性研究与环境保护工作出现盲点。这些缺失不仅影响对鸟类的理解,也强化了对性别与性取向的二元刻板印象,进而影响人类社会。
在这样的背景下,作者提出了以下研究问题:鸟类数据是如何被建构的?其中存在哪些性别与性取向的偏见?当鸟类被转化为数据时,我们失去了什么?是否可以透过 AI 创造出「酷儿数据代理」(queer data surrogacy),来修补这些缺失并挑战主流环境数据框架?
研究结论
第一,鸟类数据集中普遍存在对雄性个体的偏好。这种偏见来自于观察者与收藏者对鲜艳羽毛与传统性别角色的偏好,导致雌性、双性与酷儿鸟类被忽视或误分类。例如,自然历史博物馆的研究显示,鸟类标本中雄性比例远高于雌性,因为雄性鸟类的外表更容易吸引收藏者。这种偏见不仅扭曲了对鸟类行为与生态的理解,也使得保育与生物多样性的研究产生偏差。
第二,鸟类的声音资料也存在性别偏见。历来鸟类学者多将鸣唱行为归于雄鸟,导致雌鸟的鸣唱被忽视或误标。即使后来研究证明雌鸟也会鸣唱,这些声音仍被错误地标记为雄鸟所发出。此外,鸟类鸣唱研究多集中于北美与欧洲,忽略了热带地区雌鸟的丰富声音表现。这些偏见反映了人类对「音乐」的文化理解,也影响了对鸟类声音行为的全面认识。
第三,现有分类系统难以处理性别与性取向的多样性。许多鸟类具有双性特征或参与同性行为,但这些特征在资料中往往被忽略或强行归入二元分类。这种分类方式不仅抹煞了鸟类的多样性,也强化了人类社会对性别与性取向的刻板印象。作者指出,这样的数据偏见不只是科学问题,更是文化与政治问题。
第四,作者提出「酷儿数据代理」作为回应数据缺失的创新方法。研究者使用有限的女性、双性与酷儿鸟类资料训练 AI 模型,生成虚构的「代理鸟类」。这些代理鸟类以动画与音乐的形式呈现,补足资料空白,并挑战传统资料完整性的观念。这种方法不追求还原真实,而是透过想象与创作揭示偏见。
第五,研究批判性地使用 AI,强调其潜在的偏见与环境成本。作者在创作过程中采取减害策略,例如使用本地模型、限制训练次数与资料量,并在作品中反思 AI 的代价。这表明 AI 不应被视为中立工具,而应作为可以被挪用的批判性媒介,用来颠覆主流数据逻辑。
核心概念
酷儿数据代理(Queer Data Surrogacy)这是作者提出的创新方法,指透过 AI 生成虚构的代理数据,以填补资料集中缺失的酷儿个体。这种代理不是为了还原真实,而是为了揭示偏见、挑战分类体系,并提供想象与创造的空间。
数据组装(Data Assemblages)指数据不是自然存在的,而是由技术、文化、制度等多重因素共同构成的集合。鸟类数据的产出涉及观察工具、分类标准、收藏偏好等社会与技术条件,这些组装过程会产生系统性偏见。
酷儿生态学(Queer Ecology)这是一种将酷儿理论应用于环境研究的框架,质疑自然科学对性别与性行为的规范理解。酷儿生态学强调多样性、流动性与非主流关系模式,并主张将这些观点纳入生态与保育实践中。
研究问题
生成式人工智能的出现被普遍认为是颠覆性的科技突破,它迅速进入公众视野并引发广泛讨论。新闻记者作为社会的重要诠释者,他们如何感受并回应这一技术变革,对于塑造大众对 AI 的理解和态度具有深远影响。过去研究多聚焦于新闻内容的框架与叙事,但鲜有从情绪角度大规模分析记者如何在社交媒体上表达对 AI 的态度。
本研究的核心问题是:记者对 ChatGPT 这类生成式 AI 的情绪反应是什么?这些情绪反应在 ChatGPT 公开发布前后有何变化?记者的语言情绪是否揭示了他们对 AI 未来影响的想象?
研究结论
第一,记者在 ChatGPT 发布后的推文中,使用了更多正面情绪词汇(如「好」、「喜欢」、「开心」),显示他们对这项技术的初步反应是乐观的。这一变化在统计上具有显著性,说明这并非偶然现象,而是与 ChatGPT 的出现密切相关。
第二,记者在语调上的表现也出现了变化。发布后的推文整体语气更为正面,负面语调则有所下降。这代表记者在谈论 AI 时,语言风格变得更积极,可能反映出他们对 AI 潜力的期待与好奇。
第三,这些情绪与语调的变化,即使在考虑了其它干扰因素后(如节日气氛、Google 搜寻热度、AI 相关词汇的使用),依然显著存在。这说明,记者的情绪转变并非因为外部环境或话题热度,而是他们对 ChatGPT 本身的真实反应。
第四,透过大规模语言分析,研究者证明了情绪可以作为一种社会变迁的指标。记者作为「品味塑造者」和「未来叙事者」,他们的情绪不仅反映了个人感受,也在无形中影响了大众如何理解并想象 AI 的未来。尽管过去记者对自动化技术多持怀疑甚至焦虑态度,但这次对 ChatGPT 的反应却相对正面。这可能意味着记者将其视为一种能够减轻工作负担的工具,而非立即的威胁。研究也指出,这种正面情绪可能只是初期反应。随着生成式 AI 逐步融入新闻工作流程,未来记者对此技术的态度可能会出现变化,甚至转向批判与焦虑,这需要后续研究持续关注。
核心概念
想象的未来(Imagined Futures)这一概念指的是人们对尚未发生事件的情感性预期。记者不只是报导者,更是未来叙事的建构者。他们如何情绪化地谈论 AI,会影响公众如何想象 AI 的社会角色与影响。
研究问题
在瑞典与爱沙尼亚,公共部门正逐步引入聊天机器人来处理与公民的互动。这些聊天机器人被包装为先进的 AI 应用,但实际运作方式与效果往往与期待有落差。它们不仅是技术工具,更是数据化治理的一部分,重新塑造了公民与国家的互动方式。这些技术的推广过程中,暴露出许多摩擦与矛盾,从而揭示了 AI 作为一种「事物」的建构过程。
本研究关注的核心问题是:公共部门在导入聊天机器人时,出现了哪些与 AI 相关的摩擦?这些摩擦如何影响公民与国家之间的互动?聊天机器人在数据福利国家的基础设施中扮演什么角色?
研究结论
第一,公共部门聊天机器人在实际应用中引发了多种「AI 摩擦」。这些摩擦不仅来自技术层面,更包括组织内部对 AI 的不同理解与期望。例如,爱沙尼亚的 Bürokratt 被定位为全国虚拟助理,但实际功能仍十分有限,仅能回答常见问题,与其「AI」形象产生落差;而瑞典的 Kringla 则更像是互动式 FAQ,却也被标榜为 AI 应用。这种「AI 形象」与实际功能之间的差距,揭示了 AI 作为一种稳定技术的「幻象」是如何被建构的。
第二,聊天机器人的开发与运行涉及多方协作,导致出现组织逻辑与系统之间的摩擦。例如,爱沙尼亚的 Bürokratt 开发依赖于多个政府部门与外部开发商之间的合作,且采用开源模式,导致责任分散与进度不一。瑞典的 Kringla 则因采购周期与平台更替,导致需重训系统与调整流程。这些摩擦反映了数据基础设施并非统一体系,而是多个系统与价值观之间协商的结果。
第三,聊天机器人的设计与部署也引发价值层面的摩擦。不同的开发者、官员与使用者对聊天机器人的定位与用途有着不同理解。有些人强调其提升效率与可及性,有些人则担心其会削弱福利国家的普遍性与人本关怀。此外,对使用者的想象也存在偏差,系统往往假设用户具备数位素养,忽视了弱势群体的需求。尽管开发团队提出未来将加入语音与手语功能,但目前仍处于愿景阶段。
核心概念
AI 摩擦(AI Frictions)指的是在 AI 应用于公共服务过程中所产生的各种矛盾、误解与冲突。这些摩擦既可能来自技术与实际需求的不匹配,也可能来自组织内部不同部门之间的价值观差异。研究强调,这些摩擦不只是问题,也可能成为创新与制度调整的契机。
数据福利国家(Data Welfare State)是指以数据为核心的福利治理模式。这种模式强调透过数据化手段(如聊天机器人)来提升公共服务效率与个人化程度,但同时也可能加剧社会不平等,并挑战传统福利国家的普遍性与公平性原则。
聊天机器人作为数据基础设施(Chatbots as Data Infrastructure)聊天机器人不只是回答问题的工具,它们将公民与政府的互动转化为可分析的数据,成为治理体系的一部分。这种基础设施化的过程,使得聊天机器人成为观察数据治理如何渗透日常行政实践的重要窗口。