关于我们
会员计划
免费试读
会员通讯
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
Latest
No.172 相似度排名、谷歌知识基础设施与 AI 失败循环
社工、护工、教师的专业知识被长期低估,这为何恰恰是工作场所 AI 反复失败的根源?
No.171 Tokenmaxxing 职场趋势、滥用条款和商业压力
No.170 朝鲜 IT 劳工、反基督与 OpenClaw 社交机制
No.169 注意你的语气、创意社区与AI 素养
No.168 推理能耗、绿色 AI 权与 AIGC 平台治理
No.167 依恋悖论、人工亲密关系与 Token 税
No.166 伊朗袭击美资数据中心、竞技场博弈与自动化研发
性別
女性主义者的“数据不服从”宣言
《拒绝宣言》既是一份抵制声明,也是一份承诺书。它明确拒绝有害的数据体制,并致力于开创崭新多元的数据未来。
AI 领域中不被言说的女性缺席与困境
伦理
大语言模型的三个软肋
本文介绍了越狱、反向心理学和提示注入三种攻击大语言模型方法,它们不仅暴露了 AI 在处理恶意输入时的技术局限,更凸显了 AI 在伦理与安全层面的深层隐患。
观点|待审判的艺术劳动盗窃案
从植树到失声:ChatGPT 如何误导生态恢复的未来
机器学习如何悄然作恶?从历史到未来的七宗罪
数据集的幽灵:机器学习时代的数据伦理
治理
软硬兼施的大语言模型审查
大语言模型提供商在设计审核策略时,可能会根据具体情况选择不同的侧重点:有的可能倾向于「直接堵嘴」,有的则可能选择「信息过滤」,通常并非两者都做。
观点|AI 监管是扼杀创新的凶手?
你的开源 AI 和我的开源 AI 好像不一样?
算力新身份:AI 治理的意外思路
红色模型:中国人工智能治理的平衡与失衡
文化
More
AI 懂多国语言,但它真懂你的世界吗?
在大语言模型中定义与测量文化:框架的构建与裂痕
后社会主义:中国人工智能的文化政治密码
作为文化与社会技术的大模型
经济
More
科技巨头的免费 AI 课,背后藏着什么秘密?
生成式人工智能地图
神经生产网络:AI 巨头的扩张秘法
云计算如何助力平台扩张
书评|既非人工,也非智能
认知
More
AI 时代下的批判性思考危机
为什么 AI 永远赶不上人类的“胡思乱想”?