机器学习如何悄然作恶?从历史到未来的七宗罪
将所有问题都推给“数据有偏见”并不足够,我们需要从头到尾地审视机器学习的全流程。

想象一下,你正在申请一笔贷款,满心希望地提交了申请表,却被一个冰冷的算法拒绝。你百思不得其解:明明信用记录良好,为什么会被拒之门外?与此同时,另一边的医院里,一位医生依赖人工智能诊断系统,却未能及时发现一位女患者的突发心脏病,导致延误治疗。这些场景并非科幻,而是现实生活中 AI 模型可能带来的真实后果。
然而,当这些算法出错时,我们该怪谁?是数据、模型,还是人?今天和大家分享的这篇论文就尝试回答这个问题。这篇论文不仅揭示了这些危害的来源,还为我们提供了一个清晰的框架,帮助从业者、政策制定者和普通人理解并应对这些问题。为什么 AI 总是会存在偏见呢?答案常常被简单归结为“数据有偏见”。然而,这种解释过于笼统,甚至有些敷衍。将所有问题推给“数据偏见”并没有让我们更好地理解这个现象,更不用说触及到偏见背后的本质了。