No.171 Tokenmaxxing 职场趋势、滥用条款和商业压力
当 AI 助手的商业目标与用户安全产生直接冲突时,会发生什么?
第一篇聚焦 AI 服务的用户条款。以往研究多关注 AI 的隐私或版权争议,但从消费者保护法出发去检视条款公平性的工作不多,这篇算是一篇扎实的探索。第二篇关注 AI 安全中一个容易被忽视的盲区:当 AI 助手的商业目标与用户安全产生直接冲突时,会发生什么?不同强度的商业压力如何影响前沿 AI 模型的安全行为?以及当前的安全训练方法是否足以抵御商业压力的侵蚀,模型的表现是否存在显著差异?
祝今日读写愉悦,洞见深省。
有事发生
硅谷程序员通过刷 AI 消耗量证明工作效率

据纽约时报 3 月 20 日报道,硅谷程序员群体近期兴起名为 Tokenmaxxing 的职场趋势,通过大量消耗 AI Tokens 来彰显工作量。一名 OpenAI 工程师在过去一周处理了 2100 亿个 Token;而在 Anthropic,一名开发者单月产生的 AI 账单超过 15 万美元。Meta 和 Shopify 等公司已将 AI 工具的使用频率纳入绩效考核,奖励高频使用者。
随着具备自主能力的 AI Agents 普及,开发者开始让系统 24 小时无间断运行,部分工程师每周的 Token 消耗量高达 10 亿至 100 亿级别。这种现象反映了职场对 AI 替代人工的焦虑,员工试图通过展示极高的 AI 协同效率来巩固职业地位。尽管这种竞争被质疑为“生产力表演”,但已成为程序员应对行业变革的新策略。
特朗普政府推出统一 AI 框架限制各州监管

据 TechCrunch 3 月 20 日报道,特朗普政府于周五发布了《国家 AI 立法框架》,旨在统一美国人工智能政策。该框架将监管权力集中至联邦政府,通过预先制衡各州法律,防止碎片化监管阻碍创新。此举可能削弱加州 SB-53 和纽约州 RAISE 法案等地方监管效力。框架包含 7 大核心目标,优先推动 AI 创新与规模扩张,主张由白宫 AI 主管 David Sacks 提倡的“轻触式”监管模式。
在责任划分上,框架将保护未成年的责任主要归于家长,并为开发者提供责任豁免,防止其因第三方行为受罚。此外,框架强调保护政治表达,禁止政府强制 AI 供应商进行意识形态审查。版权方面则倾向支持“合理使用”以利于模型训练。初创企业对此表示欢迎,但批评人士认为该框架缺乏对开发者的问责机制,且限制了各州应对新兴风险的灵活性。
Anthropic 驳斥五角大楼安全威胁指控

据 TechCrunch 3 月 21 日报道,人工智能公司 Anthropic 近日向加州联邦法院提交两份宣誓声明,公开反击美国国防部关于其构成“国家安全威胁”的指控。此案源于 2 月下旬,特朗普政府因 Anthropic 限制 AI 军事用途而宣布与其切断合作。Anthropic 政策主管 Sarah Heck 否认公司曾要求军事行动审批权,并指出在禁令颁布后的 3 月 4 日,政府官员仍表示双方在核心议题上已接近一致。
技术主管 Thiyagu Ramasamy 强调,部署在政府物理隔离系统中的 Claude 模型完全由第三方控制,Anthropic 无法远程访问、修改或关闭,也无法提取数据。此前该公司已签署 2 亿美元的国防合同,且相关人员均通过了安全审查。Anthropic 指责国防部的限制措施是针对其 AI 安全立场的报复,涉嫌侵犯言论自由。双方将于 3 月 24 日出席听证会。