关于我们
会员计划
免费试读
会员通讯
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
Latest
No.142 基建资源、学术鸿沟与模型透明度指数
AI 安全和伦理社群之间的学术鸿沟有多深?
No.141 策略化的想象、公地人工智能与批判性数据介入
No.140 AI 女演员、风险分歧与作为政治概念的人工智能
No.139 气候科技话语、绿色平台资本主义与不透明性
No.138 算法定价、隐私政策演变与开发者中介
No.137 AI 生成反对信、社会情感学习与自我表露
No.136 情境化、权力的殖民性与承诺性技术
伦理
大语言模型的三个软肋
本文介绍了越狱、反向心理学和提示注入三种攻击大语言模型方法,它们不仅暴露了 AI 在处理恶意输入时的技术局限,更凸显了 AI 在伦理与安全层面的深层隐患。
观点|待审判的艺术劳动盗窃案
从植树到失声:ChatGPT 如何误导生态恢复的未来
机器学习如何悄然作恶?从历史到未来的七宗罪
数据集的幽灵:机器学习时代的数据伦理
治理
软硬兼施的大语言模型审查
大语言模型提供商在设计审核策略时,可能会根据具体情况选择不同的侧重点:有的可能倾向于「直接堵嘴」,有的则可能选择「信息过滤」,通常并非两者都做。
观点|AI 监管是扼杀创新的凶手?
你的开源 AI 和我的开源 AI 好像不一样?
算力新身份:AI 治理的意外思路
红色模型:中国人工智能治理的平衡与失衡
性別
女性主义者的“数据不服从”宣言
《拒绝宣言》既是一份抵制声明,也是一份承诺书。它明确拒绝有害的数据体制,并致力于开创崭新多元的数据未来。
AI 领域中不被言说的女性缺席与困境
认知
More
AI 时代下的批判性思考危机
为什么 AI 永远赶不上人类的“胡思乱想”?
经济
More
科技巨头的免费 AI 课,背后藏着什么秘密?
生成式人工智能地图
神经生产网络:AI 巨头的扩张秘法
云计算如何助力平台扩张
书评|既非人工,也非智能
文化
More
AI 懂多国语言,但它真懂你的世界吗?
在大语言模型中定义与测量文化:框架的构建与裂痕
后社会主义:中国人工智能的文化政治密码
作为文化与社会技术的大模型