关于我们
会员计划
免费试读
会员通讯
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
Latest
No.138 算法定价、隐私政策演变与开发者中介
大模型的隐私政策是如何悄悄变化的?
No.137 AI 生成反对信、社会情感学习与自我表露
No.136 情境化、权力的殖民性与承诺性技术
No.135 主权即服务、碳足迹与环境影响
No.134 学术诚信、语言悬置与少数民族语言
No.133 拟人化特征、相互依存与主权 AI
No.132 全球扩散、喂养机器与价值抵抗
伦理
大语言模型的三个软肋
本文介绍了越狱、反向心理学和提示注入三种攻击大语言模型方法,它们不仅暴露了 AI 在处理恶意输入时的技术局限,更凸显了 AI 在伦理与安全层面的深层隐患。
观点|待审判的艺术劳动盗窃案
从植树到失声:ChatGPT 如何误导生态恢复的未来
机器学习如何悄然作恶?从历史到未来的七宗罪
数据集的幽灵:机器学习时代的数据伦理
治理
软硬兼施的大语言模型审查
大语言模型提供商在设计审核策略时,可能会根据具体情况选择不同的侧重点:有的可能倾向于「直接堵嘴」,有的则可能选择「信息过滤」,通常并非两者都做。
观点|AI 监管是扼杀创新的凶手?
你的开源 AI 和我的开源 AI 好像不一样?
算力新身份:AI 治理的意外思路
红色模型:中国人工智能治理的平衡与失衡
性別
女性主义者的“数据不服从”宣言
《拒绝宣言》既是一份抵制声明,也是一份承诺书。它明确拒绝有害的数据体制,并致力于开创崭新多元的数据未来。
AI 领域中不被言说的女性缺席与困境
认知
More
AI 时代下的批判性思考危机
为什么 AI 永远赶不上人类的“胡思乱想”?
经济
More
科技巨头的免费 AI 课,背后藏着什么秘密?
生成式人工智能地图
神经生产网络:AI 巨头的扩张秘法
云计算如何助力平台扩张
书评|既非人工,也非智能
文化
More
AI 懂多国语言,但它真懂你的世界吗?
在大语言模型中定义与测量文化:框架的构建与裂痕
后社会主义:中国人工智能的文化政治密码
作为文化与社会技术的大模型