前沿|惯习、认知不公与 AI 民意调查
为何在人工智能治理的讨论中,社会地位会决定谁有资格发言?当人工智能能精准预测选举结果,这究竟是否意味着将选民推向了被操纵的边缘?
本期前沿速递分享了两篇关于人工智能与民意的论文。第一篇论文探讨了一个令人不安的现象:在关于人工智能未来的公共讨论中,为何来自弱势群体的声音总是缺席?研究借助布迪厄的理论指出,这并非简单的「不知道」,而是一种由社会地位内化而成的惯习,导致了系统性的认知不公。当调查问卷本身就构成了学术壁垒,我们所听到的民意究竟是谁的意见?
第二篇论文则将目光投向了测量民意的新工具,人工智能民意调查。当算法能够以惊人的精度预测选举,这究竟是赋予了选民更强的决策能力,还是让他们更容易受到操纵?作者大胆论证,这种看似危险的技术非但不会削弱选民的自主性,反而可能通过提供宝贵的信息捷径,激发更深度的思考,成为增强民主的利器。无疑,从意见的表达,到意见的衡量,人工智能正在深刻地重塑我们理解和参与公共生活的方式。
祝今日读写愉悦,洞见深省。