关于我们
会员计划
免费试读
前沿速递
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
Latest
前沿|道德基础、类人信任与社会临场感
如果一个聊天机器人被注入了特定的道德观,它能否在短短几轮对话中就改变我们对敏感社会议题的看法呢?我们对生成式人工智能的信任究竟源于何处?
前沿|阿拉伯记者、社会技术盲视与职业压力
前沿|合作态度、AI 焦虑与道德能动性
前沿|民主空间、公共建筑与 AI 伴侣的情感操控
前沿|新闻业、批判性 AI 素养与语言物质化
前沿|AGI 概念争议、智能音箱与语言驯化
前沿|关系信任、可解释性与可竞争性
AI 伦理
大语言模型的三个软肋
本文介绍了越狱、反向心理学和提示注入三种攻击大语言模型方法,它们不仅暴露了 AI 在处理恶意输入时的技术局限,更凸显了 AI 在伦理与安全层面的深层隐患。
观点|待审判的艺术劳动盗窃案
观点|AI 生成图像到底是不是艺术?或许没那么重要
从植树到失声:ChatGPT 如何误导生态恢复的未来
大模型也内卷?基准测试的认识论
机器学习如何悄然作恶?从历史到未来的七宗罪
数据集的幽灵:机器学习时代的数据伦理
AI 治理
软硬兼施的大语言模型审查
大语言模型提供商在设计审核策略时,可能会根据具体情况选择不同的侧重点:有的可能倾向于「直接堵嘴」,有的则可能选择「信息过滤」,通常并非两者都做。
观点|AI 监管是扼杀创新的凶手?
后社会主义:中国人工智能的文化政治密码
你的开源 AI 和我的开源 AI 好像不一样?
算力新身份:AI 治理的意外思路
专题|红色模型:中国人工智能治理的平衡与失衡
AI & 性別
译文|女性主义者的“数据不服从”宣言
《拒绝宣言》既是一份抵制声明,也是一份承诺书。它明确拒绝有害的数据体制,并致力于开创崭新多元的数据未来。
AI 领域中不被言说的女性缺席与困境
AI & 认知
More
前沿|当你爱上 ChatGPT 的幻觉
AI 时代下的批判性思考危机
为什么 AI 永远赶不上人类的“胡思乱想”?
AI & 经济
More
神经生产网络:AI 巨头的扩张秘法
云计算如何助力平台扩张
书评|既非人工,也非智能
AI & 文化
More
AI 懂多国语言,但它真懂你的世界吗?
专题|在大语言模型中定义与测量文化:框架的构建与裂痕
作为文化与社会技术的大模型