关于我们
会员计划
免费试读
前沿速递
主题文章[has-child]
伦理[child]
治理[child]
经济[child]
文化[child]
性别[child]
认知[child]
Sign in
Subscribe
Latest
前沿|大语言模型价值观与 AI 的心里话
大语言模型在与我们互动时展现了哪些内在价值观?它们又认为自己应该获得怎样的伦理对待,甚至拥有哪些权利?
专题|在大语言模型中定义与测量文化:框架的构建与裂痕
大语言模型文化对齐的挑战与探索系列文章(一)
前沿|酷儿生态数据、记者情绪与 AI 摩擦
AI 如何挑战生态数据中的性别偏见?记者对生成式 AI 的情绪反应揭示了什么?公共部门引入聊天机器人时又遇到了哪些AI 摩擦?
前沿|相互确保 AI 故障、终结者经济与私人治理框架
超级智能时代国家应如何博弈?AI 正将我们带向终结者经济吗?私人治理能否有效约束前沿 AI?
前沿|标注 AI 生成、自动化与人类认知
为 AI 生成内容打上标签,能否削弱其说服力?自动化浪潮将如何重塑经济与工作,我们又该如何守护人类认知能力免受侵蚀?
前沿|模型可及性、AI 医疗的信任问题与人机融合学习
AI 模型发布就等于可及吗?医疗 AI 时代我们该如何重建信任?学生又该如何协同发展自我调节与 AI 素养,迈向人机融合学习?
软硬兼施的大语言模型审查
大语言模型提供商在设计审核策略时,可能会根据具体情况选择不同的侧重点:有的可能倾向于「直接堵嘴」,有的则可能选择「信息过滤」,通常并非两者都做。