No.99 非一致性偏见、分支政策与隐私双轨制

当 AI 招聘助手给出带有偏见的建议时,我们究竟是会纠正它,还是会不知不觉地沦为偏见的放大器呢?我们与聊天机器人的每一次对话,究竟是如何在默认情况下变成 AI 公司的训练数据?

No.99 非一致性偏见、分支政策与隐私双轨制
Photo by Jane Ong / Unsplash
本期前沿速递分享了两篇论文。第一篇探讨了人与 AI 协作时的微妙关系。在招聘筛选中,当 AI 给出带有偏见的建议时,我们真的能保持清醒的判断力吗?还是说,无论建议多么不合常理,我们都会不自觉地听从,从而让渡了自己的决策自主权?研究发现一个简单的干预措施就能增强我们的抵抗力,这又是为什么呢?

第二篇个人感觉非常重要,它揭示了我们与聊天机器人互动背后的隐私现实。你是否想过,每一次对话都可能在默认情况下被用于模型训练?而为什么对普通消费者和企业客户,科技公司会提供截然不同的隐私保护,让数据安全变成一种付费特权?

祝今日读写愉悦,洞见深省。