日报|新闻偏见、医疗伦理与社会经济均等
AI & 社会|前沿研究速递 2025-04-08
研究问题
如何有效利用先进的大语言模型(如 GPT-4o 系列、Gemini 系列和 Llama 系列)构建一个可扩展的框架,以系统性地识别和减轻新闻文章(特别是犯罪报道)中的偏见,并克服传统人工审核方法的局限性?
研究结论
研究发现,在所测试的大语言模型中,GPT-4o Mini 在新闻偏见检测的准确性和去偏见的有效性方面表现最佳,同时分析证实媒体偏见会随时间和地域变化,并与社会政治动态及现实事件相关。
论文摘要
新闻报道中的偏见显著影响公众认知,尤其是在犯罪、政治和社会议题方面。传统的偏见检测方法主要依赖人工审核,但受主观解释和可扩展性限制的困扰。在此,我们引入一个由人工智能驱动的框架,利用先进的大语言模型(LLMs),具体包括 GPT-4o、GPT-4o Mini、Gemini Pro、Gemini Flash、Llama 8B 和 Llama 3B,旨在系统性地识别和减轻新闻文章中的偏见。为此,我们收集了一个包含超过 30,000 篇犯罪相关文章的广泛数据集,这些文章源自五个政治立场各异的新闻机构,时间跨度为十年(2013-2023)。
我们的方法采用两阶段方法论:(1)偏见检测,即每个 LLM 在段落级别对带有偏见的内容进行评分并提供理由,并通过人工评估进行验证以建立基准真相;(2)使用 GPT-4o Mini 进行迭代去偏见处理,其效果通过自动化重新评估和人工审核员共同验证。实证结果表明,GPT-4o Mini 在偏见检测的准确性和去偏见的有效性方面表现出优越性。此外,我们的分析揭示了媒体偏见存在时间和地域上的差异,这些差异与社会政治动态和现实世界事件相关联。本研究为偏见减轻提供了可扩展的计算方法论,有助于促进新闻报道的公平性和问责制。
研究问题
临床医生在伦理上是否有充分理由必须向患者披露其使用了医疗机器学习系统?
研究结论
目前支持临床医生必须披露使用医疗机器学习系统的主要伦理论证均不成立,因此“披露论题”应被拒绝,且强制披露可能带来负面后果。
论文摘要
人们普遍认为,临床医生在伦理上有义务向患者披露其使用的医疗机器学习系统,并且不这样做将被视为一种道德过错,临床医生应为此负责。将此称为“披露论题”。在伦理学文献中,已经或可能提出四个主要论证来支持该披露论题:基于风险的论证、基于权利的论证、基于重要性的论证以及基于自主权的论证。
在本文中,我认为这四个论证中的每一个都缺乏说服力,因此,该披露论题应当被拒绝。我认为,强制披露甚至可能存在损害患者的风险,因为它可能为利益相关者提供一种逃避因这些系统的不当应用或使用所造成损害的责任的途径。
研究问题
人工智能系统如何在现有公平性概念和欧盟《人工智能法案》框架下,有效融入社会经济地位因素以减少对弱势群体的偏见?
研究结论
研究提出了一种新的公平性概念——社会经济均等(Socio-Economic Parity,简称 SEP),该概念通过纳入社会经济地位(Socio-Economic Status,简称 SEC)并考虑个体可控因素,能够有效缓解人工智能系统中由社会经济地位驱动的偏见。
论文摘要
不公平对待和歧视是人工智能系统中关键的伦理问题,尤其随着人工智能在不同领域的应用日益广泛。为应对这些挑战,近期出台的欧盟《人工智能法案》建立了一个统一的法律框架,旨在为人工智能的创新和投资提供法律确定性,同时保障公共利益,如健康、安全、基本权利、民主和法治。
该法案鼓励利益相关者就现有的人工智能公平性概念展开对话,以解决人工智能系统可能产生的歧视性结果。然而,这些概念往往忽视了社会经济地位(SES)的关键作用,无意中固化了有利于经济优势群体的偏见。考虑到均等化原则主张通过均衡资源或机会来减轻个体无法控制的不利因素,这一点尤其令人担忧。
尽管《人工智能法案》规定了反歧视条款,但仍需扩展专门的指导方针,特别是在处理由人工智能系统加剧的经济差距方面。在这项工作中,我们使用真实世界数据集(Adult)探讨了流行的人工智能公平性概念的局限性,强调了它们在解决由社会经济地位驱动的差距方面的不足。
为填补这一空白,我们提出了一种新颖的公平性概念——社会经济均等(SEP)。该概念纳入了社会经济地位(SES),倡导对弱势群体采取积极行动,同时考虑了个体可控因素(例如可用作努力程度代表的工作时长)。我们定义了相应的公平性度量标准,并优化了一个受 SEP 约束的模型,以展示其实际效用。
我们的结果表明,SEP 在缓解由社会经济地位驱动的偏见方面是有效的。通过结合《人工智能法案》对我们的方法进行分析,我们为将人工智能公平性与社会经济地位因素相结合并确保法律合规性奠定了基础。