No.158 模型小型化、算力治理与前沿审计
随着模型不断小型化,低算力 AI 系统构成的安全威胁有多严重?
目前很多国家的 AI 治理政策都盯着高端芯片,觉得管住算力就安全了。但如果模型越变越小,性能却越来越强,这种方法会不会失效?只用一台普通电脑,到底能造成多大的破坏?如果我们不能只靠限制算力,那未来的 AI 治理又该走向何方?第一篇论文就直面这个棘手的问题。
第二篇论文承接着第一篇,聚焦前沿人工智能审计的话题。现在各大 AI 公司都说自己很重视安全,但他们的开发过程像个黑盒子,外人很难知道真假。我们该如何穿透这层不透明,去验证这些安全声明?金融、航空这些高风险行业,有没有什么成熟的经验可以借鉴?要建立一套真正有效的 AI 第三方审计制度,具体又该从何处着手?
祝今日读写愉悦,洞见深省。
有事发生
AI 玩具 Bondu 泄露超 5 万份儿童聊天记录

据 连线 1 月 29 日报道,安全研究员 Joseph Thacker 和 Joel Margolis 近期发现,一款名为 Bondu 的 AI 恐龙玩具备严重安全漏洞。任何拥有 Gmail 账户的用户都可以通过其网络后台,访问几乎所有儿童用户与玩具的对话记录。此次数据泄露波及超过 50000 份聊天记录,还包括儿童的姓名、出生日期和家庭成员信息等高度敏感数据。研究人员警告,这些信息可能被用于儿童操纵或绑架等恶意行为。在接到通知后,Bondu 在数小时内修复了该漏洞,并表示未发现除研究人员外的其它访问证据。尽管问题已解决,但这起事件引发了对 AI 玩具收集和存储儿童敏感数据所带来的巨大隐私风险的普遍担忧。
Sora 应用发布后遇冷下载与收入双双下滑

据 TechCrunch 1 月 29 日报道,OpenAI 的 AI 视频生成应用 Sora 在去年 10 月迅速登顶 App Store 后,目前正面临增长困境。最新数据显示,随着早期热度消退,该应用的下载量和消费者支出均出现显著下滑。根据 Appfigures 的数据,Sora 在 12 月的下载量环比下降 32%,并在 2026 年 1 月再度环比下降 45% 至 120 万次,消费者支出同期也下降了 32%。目前,Sora 在 iOS 和 Android 平台的总下载量为 960 万次,总收入为 140 万美元。其热度下降可能归因于多重因素,包括来自谷歌 Gemini 和 Meta AI 的激烈竞争,以及为解决版权问题而收紧内容限制,这减少了用户使用流行 IP 创作视频的自由度。尽管 OpenAI 近期与迪士尼达成合作,但尚未能扭转颓势。
热门开源 AI 助手更名 OpenClaw 面临安全挑战

据 TechCrunch 1 月 30 日报道,个人 AI 助手项目 Clawdbot 因法律挑战最终更名为 OpenClaw。该开源项目由开发者 Peter Steinberger 创建,在短短两个月内于 GitHub 获得超 10 万颗星,人气迅速增长。其目标是让用户在个人电脑上运行 AI 助手,活跃的社区还催生了 AI 社交网络 Moltbook 等衍生项目,吸引了 Andrej Karpathy 等业界人士关注。尽管备受瞩目,OpenClaw 仍面临严峻的安全风险,例如“提示注入”等行业难题尚未解决。项目维护者明确警告,目前该工具不适合普通公众使用,仅建议技术人员在受控环境中运行。为支持项目持续发展,OpenClaw 已开始接受赞助以支付维护者报酬。
X 承诺整改后,印尼有条件解除 Grok 禁令

据 纽约时报 2 月 1 日报道,印度尼西亚通信与数字事务部于周日宣布,解除对 Grok 的禁令。数周前,由于 Grok 被大量用于生成真实人物的非自愿性化图像,印尼及马来西亚、菲律宾等多个东南亚国家宣布封锁该工具。此次解禁的直接原因是 Grok 的母公司 X Corp 向印尼政府致信,承诺将采取具体措施改善服务并防止滥用。当局表示,本次解禁是“有条件的”,如果未来再次发现违规行为,可能会重新封锁 Grok。此前,马来西亚和菲律宾已于 1 月 23 日取消了各自的禁令。