关于我们
会员计划
免费试读
前沿速递
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
AI 伦理
大语言模型的三个软肋
本文介绍了越狱、反向心理学和提示注入三种攻击大语言模型方法,它们不仅暴露了 AI 在处理恶意输入时的技术局限,更凸显了 AI 在伦理与安全层面的深层隐患。
观点|待审判的艺术劳动盗窃案
艺术家并未与 AI 开发者达成任何协议,其作品被直接搜刮且用于商业目的,自己却一无所获。这种未经同意的“掠夺”正是劳动盗窃的本质。
观点|AI 生成图像到底是不是艺术?或许没那么重要
当下我们需要超越“去合法化”的批判思路,直面 AI 对于政治经济结构的挑战。
从植树到失声:ChatGPT 如何误导生态恢复的未来
ChatGPT 的回答倾向于强化单一的植树叙事,忽视了其它技术和知识体系的价值。
大模型也内卷?基准测试的认识论
我们需要更全面、负责任的评估方法,超越单纯的数字竞争,跳出竞技场上的应试逻辑,放下对测量一切的痴迷,重新定义进步是什么。
机器学习如何悄然作恶?从历史到未来的七宗罪
将所有问题都推给“数据有偏见”并不足够,我们需要从头到尾地审视机器学习的全流程。
数据集的幽灵:机器学习时代的数据伦理
训练过的模型如同数据的影子,即使源头消失,影子依然存在并影响现实。