No.98 数据保护再思考、模型审计与残障包容性
当人工智能模型本身也成为一种需要保护的数据资产时,我们应如何建立一个全新的分层级保护框架来应对挑战?大语言模型在提供无障碍建议时,是否会不自觉地忽视某些残障群体的需求,从而在数字世界里延续新的不平等?
本期前沿速递分享了两篇论文。第一篇论文的视角很重要,它提醒我们,当训练好的模型本身也成为一种数据资产时,我们又该如何为它设计一把合适的锁呢?从完全锁定到允许追踪,一个全新的数据保护层级框架或许能给我们答案,也提醒我们叩问当前的数据保护措施是否还能适用。
第二篇则让我们反思技术的普惠性。我们常常向大语言模型寻求包容性设计的建议,但它的知识库本身是否存在偏见,导致某些残障群体的需求被系统性地遗忘了呢?当模型给出的建议总是千篇一律且浮于表面时,真正的包容性设计似乎也只能沦为口号?
祝今日读写愉悦,洞见深省。