No.99 非一致性偏见、分支政策与隐私双轨制 当 AI 招聘助手给出带有偏见的建议时,我们究竟是会纠正它,还是会不知不觉地沦为偏见的放大器呢?我们与聊天机器人的每一次对话,究竟是如何在默认情况下变成 AI 公司的训练数据?
No.98 数据保护再思考、模型审计与残障包容性 当人工智能模型本身也成为一种需要保护的数据资产时,我们应如何建立一个全新的分层级保护框架来应对挑战?大语言模型在提供无障碍建议时,是否会不自觉地忽视某些残障群体的需求,从而在数字世界里延续新的不平等?
No.97 街头人工智能、脆弱性评分与人工智能中的(非)理性 在分配住房等高风险社会资源时,大语言模型能取代经验丰富的一线社工,做出更公平可靠的判断吗?当 AI 的训练目标与我们期望的真实性相悖时,我们又该如何理解和定义人工智能的理性?
No.96 AI 依赖、社会技术系统与人类监督 当我们越来越依赖人工智能时,要如何科学地研究这种依赖行为,又为何当前的研究常常与真实世界脱节呢?当人工智能被用于执法甚至司法等高风险领域时,人类应该如何参与其中?
No.95 AI 审计标准委员会、过程审计与伦理批准 面对 AI 审计的种种乱象,我们如何建立一个真正可信的治理框架,而不是让它沦为形式主义的安全作秀?当 AI 聊天机器人被用于疗愈心灵时,我们又该如何确保研究过程本身没有忽略最基本的伦理准则?
No.93 阿拉伯记者、社会技术盲视与职业压力 当人工智能进入阿拉伯世界的新闻编辑室,它究竟是提升新闻质量的得力助手,还是加剧职业焦虑与技术依赖的根源呢?为何旨在提升效率的人工智能,反而可能让我们在工作中感到更深的孤独与压力?