No.97 街头人工智能、脆弱性评分与人工智能中的(非)理性

在分配住房等高风险社会资源时,大语言模型能取代经验丰富的一线社工,做出更公平可靠的判断吗?当 AI 的训练目标与我们期望的真实性相悖时,我们又该如何理解和定义人工智能的理性?

No.97 街头人工智能、脆弱性评分与人工智能中的(非)理性
Photo by Sean Foster / Unsplash
本期前沿速递分享了两篇论文。第一篇论文聚焦一个非常具体且严肃的场景,当大语言模型需要像社工一样,决定将稀缺的住房资源分配给哪个无家可归的家庭时,它会怎么做呢?它的判断标准是什么,又是否稳定可靠?研究结果可能会让我们对直接将 AI 应用于高风险决策的现状,多一份审慎的思考。

第二篇则带我们回到了一个更根本的问题,我们总希望 AI 是理性的,但理性究竟是什么?当一个模型为了生成流畅的句子而编造事实时,它是不理性的吗,还是说它只是在完美执行我们赋予它的训练目标?这篇综述梳理了 AI 领域对理性的不同看法,也揭示了当前生成式 AI 在训练与评估上的内在矛盾。

祝今日读写愉悦,洞见深省。