No.113 反监管、话语框架与 AI 炒作类型
当一家公司大谈 AI 安全和隐私保护时,它是否可能在利用这些技术来悄悄地规避法律监管呢?
我们常听科技公司说,他们用加密或联邦学习是为了保护我们的隐私和安全,但这会不会只是一套漂亮的說辞,而真实目的其实是为了绕开法律的监管呢?第一篇论文就揭示了这种可能性,分析了企业是如何利用所谓的安全技术来影响和规避监管的。
第二篇论文讨论 AI 炒作。作者给了一个实用的分析工具,拆解那些关于 AI 的各类炒作说法,条理很清晰。当媒体和公司都在宣传 AI 有多厉害、市场有多大时,我们到底该从哪些角度去审视这些信息,才能不被冲昏头脑呢?如果你也疑惑,这篇论文肯定能有所帮助。
祝今日读写愉悦,洞见深省。
有事发生
英国前首相苏纳克出任微软和 Anthropic 顾问

据路透社 10 月 10 日报道,英国前首相里希·苏纳克宣布,他已加入美国科技巨头微软和 AI 初创公司 Anthropic 担任高级顾问。苏纳克在今年 7 月大选失利后辞去保守党领袖职务,但仍担任议会议员。他将为这两家公司就全球战略、宏观经济和地缘政治趋势提供建议。根据商业任命咨询委员会的规定,苏纳克在离任部长级职务后的两年内,不得为这两家公司游说,也不能使用政府内部的特权信息。苏纳克在社交媒体上表示,这些职位的全部收入将捐赠给他与妻子共同创办的慈善机构。这是继他 7 月重返高盛担任顾问后,再次进入商界。
Figma 携手 Google 将 Gemini AI 引入设计工具

据 TechCrunch 10 月 9 日报道,设计平台 Figma 宣布与 Google 合作,将多款 Gemini AI 模型集成到其软件中。Figma 表示,此举旨在满足产品设计师不断变化的需求,并提升工作效率。早期测试显示,集成 Gemini 1.5 Flash 后,其图像生成功能的延迟减少了 50%。这一合作是 AI 巨头将模型植入现有应用以争夺用户的重要战略之一。值得注意的是,该协议并非独家,Figma 也在 OpenAI 的合作名单中。
AI 结合猎犬嗅觉通过呼吸检测癌症

据 TechCrunch 10 月 9 日报道,以色列生物技术公司 SpotitEarly 正在开发一种新型癌症居家检测服务。该服务通过分析人类呼吸样本,利用训练有素的猎犬和 AI 技术进行早期癌症筛查。用户在家收集呼吸样本后寄送至实验室,由 18 只比格犬进行嗅探,AI 平台则通过摄像头和传感器验证犬只的反应。一项涉及 1400 人的双盲临床研究显示,该方法对四种常见癌症的检测准确率高达 94%。该公司近期宣布获得 2030 万美元融资,并正式进入美国市场。其居家筛查试剂盒预计将于明年推出,单项癌症检测定价约为 250 美元,远低于其它同类检测。
反 AI 俚语 Clanker 演变为种族主义伤害

据 WIRED 10 月 9 日报道,一个源自科幻作品的词汇 clanker,近期在社交媒体上流行起来。该词被用作对 AI 和机器人的贬义词,以抗议 AI 快速融入社会。过去三个月,该词的谷歌搜索量已超过 200 万次。然而,一些 TikTok 短剧开始使用 clanker 指代黑人,并重演美国民权运动前的种族主义场景。最初推广该词的黑人创作者 Harrison Stewart,因收到针对他本人的种族主义评论,已宣布停止创作相关内容。
微软与哈佛医学院合作强化 Copilot
据路透社 10 月 8 日报道,哈佛大学宣布其医学院已与微软公司达成一项授权协议。根据协议,微软将付费获得哈佛健康出版社关于特定疾病和健康主题的消费者健康内容。这些内容将被用于增强微软的 Copilot AI 助手,为用户提供专业的医疗和健康问题解答,新版 Copilot 预计最早将于本月推出。
IBM 宣布与 Anthropic 达成战略合作
据 TechCrunch 10 月 7 日报道,科技巨头 IBM 与人工智能研究实验室 Anthropic 宣布建立战略合作伙伴关系。IBM 将把 Anthropic 的 Claude 系列大语言模型,整合到其部分软件产品中。双方还合作创建了一份指南,指导企业如何构建和部署企业级 AI 代理。此次合作是 Anthropic 自 2024 年 9 月发布 Claude Enterprise 以来,大力进军企业领域的最新举措。此前,该公司刚与德勤达成协议,为其近 50 万名员工部署 Claude 模型。Menlo Ventures 7 月的一项研究发现,企业对 Claude 模型的偏好超过了包括 OpenAI 在内的其它模型。