关于我们
会员计划
免费试读
会员通讯
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
Latest
No.140 AI 女演员、风险分歧与作为政治概念的人工智能
为什么专家们对 AI 风险的看法差这么多?他们争论不休,真正的分歧点到底藏在哪里?
No.139 气候科技话语、绿色平台资本主义与不透明性
No.138 算法定价、隐私政策演变与开发者中介
No.137 AI 生成反对信、社会情感学习与自我表露
No.136 情境化、权力的殖民性与承诺性技术
No.135 主权即服务、碳足迹与环境影响
No.134 学术诚信、语言悬置与少数民族语言
伦理
大语言模型的三个软肋
本文介绍了越狱、反向心理学和提示注入三种攻击大语言模型方法,它们不仅暴露了 AI 在处理恶意输入时的技术局限,更凸显了 AI 在伦理与安全层面的深层隐患。
观点|待审判的艺术劳动盗窃案
从植树到失声:ChatGPT 如何误导生态恢复的未来
机器学习如何悄然作恶?从历史到未来的七宗罪
数据集的幽灵:机器学习时代的数据伦理
治理
软硬兼施的大语言模型审查
大语言模型提供商在设计审核策略时,可能会根据具体情况选择不同的侧重点:有的可能倾向于「直接堵嘴」,有的则可能选择「信息过滤」,通常并非两者都做。
观点|AI 监管是扼杀创新的凶手?
你的开源 AI 和我的开源 AI 好像不一样?
算力新身份:AI 治理的意外思路
红色模型:中国人工智能治理的平衡与失衡
性別
女性主义者的“数据不服从”宣言
《拒绝宣言》既是一份抵制声明,也是一份承诺书。它明确拒绝有害的数据体制,并致力于开创崭新多元的数据未来。
AI 领域中不被言说的女性缺席与困境
认知
More
AI 时代下的批判性思考危机
为什么 AI 永远赶不上人类的“胡思乱想”?
经济
More
科技巨头的免费 AI 课,背后藏着什么秘密?
生成式人工智能地图
神经生产网络:AI 巨头的扩张秘法
云计算如何助力平台扩张
书评|既非人工,也非智能
文化
More
AI 懂多国语言,但它真懂你的世界吗?
在大语言模型中定义与测量文化:框架的构建与裂痕
后社会主义:中国人工智能的文化政治密码
作为文化与社会技术的大模型