No.3 当你爱上 ChatGPT 的幻觉

ChatGPT 的便利性和看似权威的输出,让人们放弃了批判性思维,甘愿被困在聊天室茧房之中。

No.3 当你爱上 ChatGPT 的幻觉
Photo by Jr Korpa / Unsplash

也许你已经注意到 ChatGPT 或者是 DeepSeek 在生成内容时难免会出错,有时甚至会编造出完全虚假的信息。这种现象在人工智能领域有个专有名词——幻觉(hallucination)。想象一下,你向 ChatGPT 提问,它自信满满地给出一个答案,可这个答案却可能是凭空捏造的。更令人担忧的是,它有时还会附上看似真实的参考资料,让人误以为一切都经过了严谨验证。

当用户与 ChatGPT 互动时,他们可能会不自觉地相信这些错误信息,甚至将它们融入自己的认知体系。这种信任,可能催生一种全新的媒体效应——研究者称之为聊天茧房(Chat-Chamber)。这个效应恰好处于“回音室”(echo chamber)和“过滤气泡”(filter bubbles)的交汇处。回音室指的是人们只接触与自己观点一致的信息,像回声一样不断强化原有信念;而过滤气泡则是算法根据用户偏好过滤内容,进一步隔离不同的声音。ChatGPT 可能在无意中放大这两种效应,让用户陷入一个由 AI 构建的信息茧房,里面充斥着偏见和未经核实的内容。

为了探究这一现象,研究者们在论文《The chat-chamber effect: Trusting the AI hallucination》中选择了一个既敏感又有社会意义的话题:印度和爱尔兰的 LGBTQIA+ 民选代表。他们设计了一项实验,试图揭示 ChatGPT 在提供信息时的准确性,以及用户对其输出的信任程度。为什么选择这两个国家呢?因为印度和爱尔兰在 LGBTQIA+ 权利的演进上有着相似之处。两国都曾深受英国殖民统治影响,继承了维多利亚时期的道德法律,将同性恋定为非法。直到 1993 年爱尔兰废除相关法律,2018 年印度也迎来了类似的改革,才让这一群体逐渐走进公众视野。如今,两国都涌现出少数公开身份的 LGBTQIA+ 政治家,为研究提供了一个观察窗口。