关于我们
会员计划
免费试读
会员通讯
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
Latest
No.118 流浪汉恶作剧、伦理原则落地与监管主体角色
BBC 内部的不同利益相关者如何看待 AI 透明度和可解释性?
No.117 AI 教科书计划失败、神秘化与技术至上主义
No.116 第三大泡沫、交叉性残障偏见与基础设施感知基准
No.115 人才悖论、功利主义倾向与心理危机处理
No.114 机器惯习、阶级与性别偏见
No.113 反监管、话语框架与 AI 炒作类型
No.112 社群想象、批判性标注与人类学视角
伦理
大语言模型的三个软肋
本文介绍了越狱、反向心理学和提示注入三种攻击大语言模型方法,它们不仅暴露了 AI 在处理恶意输入时的技术局限,更凸显了 AI 在伦理与安全层面的深层隐患。
观点|待审判的艺术劳动盗窃案
从植树到失声:ChatGPT 如何误导生态恢复的未来
机器学习如何悄然作恶?从历史到未来的七宗罪
数据集的幽灵:机器学习时代的数据伦理
治理
软硬兼施的大语言模型审查
大语言模型提供商在设计审核策略时,可能会根据具体情况选择不同的侧重点:有的可能倾向于「直接堵嘴」,有的则可能选择「信息过滤」,通常并非两者都做。
观点|AI 监管是扼杀创新的凶手?
你的开源 AI 和我的开源 AI 好像不一样?
算力新身份:AI 治理的意外思路
红色模型:中国人工智能治理的平衡与失衡
性別
女性主义者的“数据不服从”宣言
《拒绝宣言》既是一份抵制声明,也是一份承诺书。它明确拒绝有害的数据体制,并致力于开创崭新多元的数据未来。
AI 领域中不被言说的女性缺席与困境
认知
More
AI 时代下的批判性思考危机
为什么 AI 永远赶不上人类的“胡思乱想”?
经济
More
科技巨头的免费 AI 课,背后藏着什么秘密?
生成式人工智能地图
神经生产网络:AI 巨头的扩张秘法
云计算如何助力平台扩张
书评|既非人工,也非智能
文化
More
AI 懂多国语言,但它真懂你的世界吗?
在大语言模型中定义与测量文化:框架的构建与裂痕
后社会主义:中国人工智能的文化政治密码
作为文化与社会技术的大模型