No.178 包容性偏见、多模态动员与可爱毒性

当抗议走上 Threads,平台算法、用户转发和 AI 生成图像,如何互相交织影响?

No.178 包容性偏见、多模态动员与可爱毒性
Photo by Ray Hennessy / Unsplash
💡
本期会员通讯分享四则新闻和两篇论文。

最近这几年,政治信息越来越常先经过模型摘要与平台推荐,才到我们眼前;于是,谁被看见、谁被漏掉,已经不只是技术细节,也会慢慢影响我们理解公共议题的方式。第一篇论文谈的正是议会摘要里的公平问题。当 LLM 帮我们整理冗长辩论,处在中段的发言、使用低资源语言的议员,或某些党派的观点,会不会比较容易被轻轻带过?这篇的结论虽然不是特别新鲜,但是研究方法很值得学习。

第二篇论文比较吸引我的是「可爱毒性」这个概念,概念本身就很可爱。它讨论的是台湾青鸟运动如何在 Threads 上扩散:在不同党派立场的内容中,平台的算法曝光与用户的实际参与之间是否存在差异?更那些 AI 生成、看起来萌萌的动物图,到底是在帮运动聚人,还是把敌意包进糖衣里?AI 在这次抗议和反抗议动员中具体是如何被应用的,它在视觉符号的创造和传播中扮演了怎样的角色?总之,平台上的看见不等于认同,而可爱也不一定无害。

祝今日读写愉悦,洞见深省。

有事发生

Anthropic 组建政治委员会影响监管

TechCrunch 4 月 3 日报道,Anthropic 正式提交文件组建政治行动委员会 AnthroPAC。该机构计划在中期选举期间向民主党和共和党候选人提供资金支持,以增强公司在政策制定和行业监管中的影响力。AnthroPAC 将由员工自愿捐款资助,个人献金上限为 5,000 美元。目前 AI 行业正集体加大政治投入,相关公司已向中期选举累计贡献约 1.85 亿美元。

此前 Anthropic 还曾向 Super PAC 组织 Public First 投入至少 2,000 万美元。目前该公司正与美国国防部就 AI 模型使用规范进行法律诉讼,成立 PAC 标志着其在应对政治与监管挑战方面迈出了关键一步。


Meta 暂停与 Mercor 合作调查严重泄密事故

连线 4 月 3 日报道,Meta 公司已无限期暂停与数据外包服务商 Mercor 的合作,主要原因是该公司近期遭遇了严重的网络安全漏洞。作为 OpenAI 和 Anthropic 等顶尖 AI 实验室的核心供应商,Mercor 负责生成用于训练大模型的专有数据集。此次漏洞源于黑客组织 TeamPCP 对 AI 工具 LiteLLM 发起的供应链攻击。

据相关消息显示,黑客声称获取了超过 200 GB 的数据库、1 TB 的源代码以及 3 TB 的媒体资料。Meta 受影响的 Chordus 项目现已停工,该项目旨在教 AI 如何利用多重来源验证信息。OpenAI 虽暂未中止合作,但正在评估其专有训练数据的暴露情况。目前 Mercor 已向员工确认了此次攻击。由于训练数据被视为 AI 公司的核心商业机密,这一安全事故引发了业界对供应链风险的广泛关注。


日本发力具身智能应对劳动力危机

TechCrunch 4 月 5 日报道,面对连续 14 年的人口萎缩,日本政府正将具身智能视为工业生存的核心。日本经济产业省提出,计划到 2040 年占据全球具身智能市场 30 % 的份额。目前,日本已在全球工业机器人市场占据 70 % 份额。为应对劳动年龄人口占比降至 59.6 % 的危机,政府拨款约 63 亿美元用于加强 AI 能力与工业部署。

日本正发挥其在执行器和传感器等硬件方面的传统优势,并通过 Mujin 等初创企业的软件平台提升设备自主化。与中美模式不同,日本倾向于由大型企业提供规模保障、初创公司负责软件创新的混合生态。目前,物流、国防和设施管理等领域已开始从技术试点转向大规模实地部署,以维持社会服务并应对严重的用工荒。


AI 模拟调查利用硅样方法替代真人受访引发行业信任危机

纽约时报 4 月 6 日报道,一种被称为“硅样方法”(Silicon Sampling)的 AI 模拟技术正迅速渗透民意调查领域。该方法通过大语言模型模拟人类回答,以极低的成本和时间取代传统人工访问。AI 初创公司 Aaru 近期的一项模拟结果被 Axios 作为真实民调引用,随后因“无真人参与”引发广泛争议。

目前,民调巨头 Gallup 已与 Simile 合作创建了 1000 个 AI 数字孪生样本,Ipsos 也在开发虚拟受访者。虽然此类技术吸引了数亿美元的硅谷投资,但其可靠性仍存疑。研究显示,模拟调查往往会放大模型固有的偏见,使结果更趋向于调查者的预设立场。专家警告,将 AI 生成的“虚构数据”包装成客观事实,将严重削弱社会科学研究的公信力,并破坏公众对政策制定依据的信任。