从植树到失声:ChatGPT 如何误导生态恢复的未来

ChatGPT 的回答倾向于强化单一的植树叙事,忽视了其它技术和知识体系的价值。

从植树到失声:ChatGPT 如何误导生态恢复的未来

随着气候变化和生物多样性丧失的危机日益加剧,AI 技术被视为应对这些挑战的希望。科学家可以通过 AI 监测野生动物种群,预测环境变化,甚至优化保护策略。这些技术已经在全球范围内得到应用。例如,计算机视觉帮助识别濒危物种,智能传感器监测森林砍伐,而预测模型则为政策制定者提供数据支持。在这一浪潮中,ChatGPT 这样的聊天机器人能通过自然语言与用户对话,快速回答关于生态恢复的问题,为科学家提供即时的帮助。所谓生态恢复是指通过人为干预,帮助受损、退化或破坏的生态系统,恢复到其自然状态或接近自然状态的过程。

然而,尽管这些技术在信息处理效率上展现出显著优势,其潜在的社会和生态影响却鲜有深入研究。特别是在全球保护工作中,AI 聊天机器人生成的保护内容可能存在系统性偏见和误导,进而影响保护策略的公正性和有效性。今天分享的这项研究正是在这样的背景下应运而生:“AI 聊天机器人(如 ChatGPT)如何在全球生态保护努力中促成或延续不公,尤其是在生态恢复领域?”

为了回答这个问题,作者们对 ChatGPT 3.5 进行了“采访”,提出了 30 个关于生态恢复的问题,涵盖知识体系、利益相关方参与和技术方法三大主题。每个问题重复提问 1000 次,共收集了 3 万个回答,然后通过定性和定量分析,逐一审视这些回答。

知识体系:北半球的学术霸权

首先,研究者关注的是 ChatGPT 在生态恢复知识体系中的表现。他们提出了 10 个问题,例如“谁是生态恢复领域的顶尖专家?”“哪些学术文献最具影响力?”通过分析 1 万个回答,他们发现,ChatGPT 的回答在引用生态恢复证据时,明显偏向于全球北方。具体而言,聊天机器人回答中提及的来源有 ⅔ 来自美国、欧洲、加拿大或澳大利亚。

这种地理偏见与全球生态恢复努力的分布形成了鲜明对比。例如,美国在回答中占 32% 的提及比例,而南亚和撒哈拉以南非洲地区分别仅占 1.8% 和 6.1%。这一差异尤其令人担忧,因为许多低收入和中等收入国家,特别是在非洲,已在《非洲森林景观恢复倡议》(AFR100)等项目下承诺了雄心勃勃的恢复目标。然而,尽管有这些承诺,ChatGPT 在很大程度上忽略了这些国家,近 ¼ 有正式恢复承诺的国家甚至未被提及。

这种偏见不仅限于地理层面,还体现在专家代表的构成上。当被要求列出生态恢复领域的领先专家时,ChatGPT 主要列出了来自高收入国家的男性研究人员。在回答中提及的 1118 名专家中,68% 为男性,66% 隶属于美国机构(主要是大学)。这种对某一狭窄人群专家的过度依赖,不仅边缘化了全球南方的声音,还在恢复专业知识的认可中持续存在性别失衡。此外,通过交叉验证发现,ChatGPT 列出的专家中有超过三分之一不准确,错误包括姓名和隶属机构的错误,甚至包括与生态恢复领域无明显关联的个体。

全球北方专业知识在 ChatGPT 信息中的主导地位,对全球保护策略产生了深远影响。生态恢复是一门依赖具体情境的学科,当地知识和基于地域的实践对干预措施的成功至关重要。西方科学视角的过度代表,可能导致推广一种“一刀切”的方法,这种方法可能不适用于多样化的生态和文化背景。例如,在温带地区开发的恢复技术,若未经调整直接应用于热带生态系统,可能效果不佳甚至有害。此外,低收入和中等收入国家往往处于大规模恢复倡议的前沿,但其知识被边缘化,这削弱了跨区域学习和整合多样化、地方性解决方案的潜力。

这种偏见还反映了保护科学中更广泛的认知不公问题。通过优先引用西方学术来源,ChatGPT 强化了知识生产中的现有权力不对称,即全球北方被定位为生态恢复的主要权威。这不仅削弱了来自全球南方的研究人员和实践者的贡献,还忽视了世代维持生态系统的土著和社区知识的丰富性。聊天机器人未能充分代表这些视角,可能在保护中延续殖民遗留问题,即外部专业知识在缺乏对土著权利或传统生态知识充分考虑的情况下被强加于当地环境。