关于我们
会员计划
免费试读
前沿速递
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
Latest
前沿|人工智能与国家、知识型与中美数据标注产业对比
AI 的知识型转变如何重塑国家治理?中美两国在数据标注的全球竞赛中又展现出怎样迥异的产业图景?
前沿|生成式搜索、信任幻觉与工作观重构
前沿|腐蚀性幻觉、用户隐私关切与态度分野
前沿|道德 AI、影响性外包与 Transformer 架构
前沿|时空修复、剥夺性积累与 AI 数据工作类型学
前沿|权力几何、AI 能动性与合成数据
前沿|当 AI 献策国计民生、可解释性与食品安全
AI 伦理
大语言模型的三个软肋
本文介绍了越狱、反向心理学和提示注入三种攻击大语言模型方法,它们不仅暴露了 AI 在处理恶意输入时的技术局限,更凸显了 AI 在伦理与安全层面的深层隐患。
观点|待审判的艺术劳动盗窃案
观点|AI 生成图像到底是不是艺术?或许没那么重要
从植树到失声:ChatGPT 如何误导生态恢复的未来
大模型也内卷?基准测试的认识论
机器学习如何悄然作恶?从历史到未来的七宗罪
数据集的幽灵:机器学习时代的数据伦理
AI 治理
软硬兼施的大语言模型审查
大语言模型提供商在设计审核策略时,可能会根据具体情况选择不同的侧重点:有的可能倾向于「直接堵嘴」,有的则可能选择「信息过滤」,通常并非两者都做。
观点|AI 监管是扼杀创新的凶手?
后社会主义:中国人工智能的文化政治密码
你的开源 AI 和我的开源 AI 好像不一样?
算力新身份:AI 治理的意外思路
专题|红色模型:中国人工智能治理的平衡与失衡
AI & 性別
译文|女性主义者的“数据不服从”宣言
《拒绝宣言》既是一份抵制声明,也是一份承诺书。它明确拒绝有害的数据体制,并致力于开创崭新多元的数据未来。
AI 领域中不被言说的女性缺席与困境
AI & 认知
More
前沿|当你爱上 ChatGPT 的幻觉
AI 时代下的批判性思考危机
为什么 AI 永远赶不上人类的“胡思乱想”?
AI & 经济
More
神经生产网络:AI 巨头的扩张秘法
云计算如何助力平台扩张
书评|既非人工,也非智能
AI & 文化
More
专题|在大语言模型中定义与测量文化:框架的构建与裂痕
作为文化与社会技术的大模型