前沿|人际关系自杀理论、负责任人工智能的框架与实践
AI 能否共情脆弱心灵?负责任 AI 的理想如何落地?
祝洞见深省,读写愉悦。
核心概念
- 自杀意念(Suicidal Ideation, SI):指个体结束自己生命的念头或想法,从单纯的想法到具体的计划和意图不等,是自杀行为的潜在前兆。
- 人际关系自杀理论(Interpersonal Theory of Suicide, IPTS):一个解释自杀行为机制的心理学框架。该理论认为,致命的自杀尝试最可能发生在三个关键心理风险因素同时存在时:受挫归属感、感知负担感、获得自杀能力。该理论强调了人际关系因素在自杀风险形成中的作用,并区分了导致自杀想法和导致自杀行动的不同过程。
- 受挫归属感(Thwarted Belongingness):指个体感觉与他人疏远、孤立,缺乏亲密的社会连结或归属感,觉得自己是孤身一人或被社会排斥。
- 感知负担感(Perceived Burdensomeness):指个体认为自己是家人、朋友或社会的负担,感觉自己的存在对他人造成困扰,觉得自己毫无价值或是一种累赘。
- 获得自杀能力(Acquired Capability for Suicide):指个体透过重复暴露于痛苦或引起恐惧的经历(如自伤史、慢性疼痛、创伤),逐渐习惯疼痛并克服对死亡的内在恐惧,从而获得执行自杀行动的能力。这是将自杀想法转化为实际尝试的关键因素。
研究问题
自杀是一个严重的全球公共卫生问题,每年有数百万人经历自杀意念或尝试。随着网络的普及,线上空间已成为个人表达自杀意念和寻求同侪支持的重要平台。尽管先前研究已利用机器学习和自然语言分析揭示了检测自杀意念的潜力,但主要限制在于缺乏理论框架来理解影响高风险自杀意图的潜在因素。以往的研究虽然可以检测到自杀意念,但未能深入探讨其背后的心理机制,特别是如何区分仅有自杀想法和那些更可能采取行动的个体。
基于上述背景和现有研究的不足,本研究旨在回答以下核心问题:在线自我表露中的自杀意念是如何通过人际关系自杀理论(IPTS)的视角来体现的? 在线空间中,针对不同类型的自杀意念表露,其回应(评论)中存在哪些独特的语言线索? AI 聊天机器人对在线自杀意念表露的回应语言表现如何?
研究结论
发现一:人际关系自杀理论(IPTS)不仅在传统临床环境中适用,也可以成功地应用于理解和分类大规模的在线文本数据(如 Reddit 帖子)中关于自杀想法的表达。通过本研究开发的结合远距离监督、迭代编码簿和语义相似性的计算方法,能够将帖子有效地区分到 IPTS 的不同维度(孤独感、缺乏爱、自我憎恨、负累感)和风险因素(受挫归属感、感知负担感、获得能力)中。更重要的是,那些根据 IPTS 理论被认为具有最高自杀风险(即同时表现出所有三个风险因素)的帖子,在语言内容上呈现出与其它帖子不同的、独特的特征模式 。
发现二:在像 r/SuicideWatch 这样的在线支持社区中,人们提供的帮助性回应(评论)并不是千篇一律的,而是会根据求助帖子所表达的核心困境(即 IPTS 风险因素)的不同而有所调整。回应者似乎能够感知到求助者主要的痛苦来源(是感到孤立、觉得自己是负担,还是已经具备了自杀的能力),并相应地在他们的回应语言中展现出不同的情感色彩、认知侧重和社交关注点。
发现三:当前先进的 AI 聊天机器人(以 GPT-4o 为例)在回应在线自杀意念帖子时的双重特性。一方面,AI 生成的回应在语言的组织、流畅性和与原文的语义关联上表现出色,甚至在某些形式指标上超过了普通在线社区成员的回应 。但另一方面,这些回应往往显得刻板、通用,缺乏真正能触动人心的情感连接、针对个体情况的细致关怀以及回应方式的多样性,难以提供类似人类同伴支持中的那种基于生活经验的、独特的共情和理解 。心理学专家的评估进一步确认了 AI 在处理这类极端敏感和复杂情境时的局限性,认为其难以建立真正的信任,并可能因缺乏个性化或不恰当的反应而带来风险 。
核心概念
- 负责任人工智能(Responsible AI, RAI):负责任人工智能是一种结合了 AI 伦理原则和标准化框架的理念,旨在确保人工智能系统的设计、开发和部署能够以一种安全、可信赖且符合社会期望的方式进行,从而最大化 AI 的益处同时最小化其潜在的风险和负面影响,特别强调透明性、问责制、公平性和隐私保护。
- 可信赖人工智能(Trustworthy AI):可信赖人工智能是指 AI 系统在技术、社会和法律等层面达到一定标准,使得使用者和社会能够对其产生信任。不同的组织和框架对可信赖 AI 有不同的定义,但通常包含技术稳健性、安全、隐私、公平、透明和问责等核心要素。它是实现负责任人工智能的一个重要目标和评价维度。
研究问题
AI 技术自 20 世纪 50 年代以来取得了长足发展,尤其近年来在大语言模型和生成式 AI 方面取得了突破性进展,极大地提升了生产力并对各行各业产生了深远影响。然而,AI 也伴随着其固有的挑战,例如模型的不透明性、偏见等问题。这些问题导致了社会对 AI 的信任度不足,并引发了对 AI 道德和伦理使用的广泛关注。以往的研究虽然探讨了 AI 的应用指南或实践挑战,但对于负责任人工智能(RAI)在全球和国家层面的标准现状、跨行业应用、与新技术的整合以及实施过程中面临的挑战和最佳实践缺乏一个全面的视角。
基于当前的背景和挑战,本研究旨在全面梳理和分析 RAI 的现状与未来。作者们试图回答以下核心问题:现有的 RAI 框架、标准、法规、伦理原则是怎样的?它们由哪些不同的行业和组织提出,具体内容和侧重点有何异同?当前有哪些正在进行的 RAI 相关的技术和项目?RAI 在不同领域有哪些具体应用?它如何与其它技术(如区块链)集成?
研究结论
发现一:目前国际上并没有一个单一的、被普遍接受的 RAI 框架。相反,不同的重要组织,如 NIST、UNESCO、IEEE 和 OECD 等,都基于自身的背景和关注点(如风险管理、人权教育、工程标准、经济发展)提出了各自的框架。这种多元化反映了不同领域对 AI 伦理和治理的不同需求和视角。然而,尽管框架的具体结构和侧重点不同,它们在核心的伦理原则和可信赖属性上表现出显著的趋同性。
发现二:尽管 RAI 的理念和原则得到了广泛认同,但在将其真正落地到 AI 系统的设计、开发和部署过程中却困难重重 。理论上倡导的伦理要求与实际操作层面之间存在明显的脱节 。这种差距的产生源于多个相互关联的因素,使得 RAI 的有效实施面临巨大挑战。首先,现有的 RAI 指南和标准往往过于宏大和抽象,缺乏具体的、可操作的细节,让实践者难以直接应用 。其次,如何衡量一个 AI 系统是否达到了「负责任」的标准是一个难题,目前缺乏公认的量化指标和评估工具,导致评估主观且难以标准化。再次,实施 RAI 需要额外的成本、时间和专业知识投入,包括组建跨学科团队 、进行专门培训 、采用更复杂的开发流程等,而现有的市场激励机制可能不足以支持这些投入,组织内部也可能缺乏相应的资源和支持结构 。
发现三:RAI 的原则和实践已应用于广泛的领域,以应对各行业特有的伦理和社会挑战。论文详细列举了 RAI 在医疗健康(如诊断偏见、患者隐私)、金融经济(如信贷歧视、算法公平性)、农业(如数据所有权、农民信任)、教育(如评估公平性、学生隐私)、交通(如自动驾驶安全伦理、系统透明度)、可持续性与 ESG(如环境影响评估、社会公平)和工业(如工人隐私、决策问责)等领域的应用案例和面临的挑战。