当前位置: 首页 » 资讯 » 科技头条 » 正文

机器情感与AI陪伴的人文审度①|刘永谋、白英慧:建构主义视域下的机器情感

IP属地 中国·北京 编辑:冯璃月 澎湃新闻 时间:2025-07-17 12:29:10

2024年被称为“人形机器人元年”。很多人预测,随着机器人大规模出现在普通人的家居生活环境中,人与机器人之间进行情感交流将成为未来智能社会的常态。所谓机器情感、AI陪伴的实质是什么,对人机交互、人机关系产生何种影响?比如说,从文化视角和性别视角,应该如何看待人机情感关系呢?人与机器的情感交流,将会产生何种社会冲击,导致何种技术风险和技术伦理问题,又应该如何应对?类似问题,已经引发诸多热议。本次笔谈聚焦“机器情感与AI陪伴的人文审度”,从哲学、马克思主义理论、文学和人工智能等进行跨学科研究,抛砖引玉,以期推动该领域研究的进一步发展。

在《建构主义视域下的机器情感》中,刘永谋和白英慧界定机器情感的概念,并从情感智能、人机情感和人机互动三个方面剖析机器情感的建构性,主张机器情感发展的有限主义进路。在《机器如何可能有情感?——基于“以生命为核心”的意识理论的探讨》中,李恒威和曹旭婷指出,基于“以生命为核心”的意识理论,通过模拟生物体的内稳态调节机制,可以为机器赋予情感能力,从而使其具备自主适应性和内在驱动力,为通用人工智能的发展提供新思路。在《人机情感交互的伦理反思及其规约路径——以AI复活技术为例》中,张卫和张陈杰认为AI复活技术使得人机情感交互出现了新的形式,但是由于情感不对称性,会形成情感依赖、情感异化、身份欺骗、认同危机以及情感资本化等伦理僭越风险,需要从制度规约、技术设计和文化调节等视角,寻找AI复活技术发展的向善之道。在《情感人工智能需要“身体”吗?》中,吴静和王隽雅认为当情感AI成为人类寻求情感互动的对象,情感的具身性特征与人类情感交互的复杂规则共同提出了对情感AI拟真性的高需求,这就使得情感AI的“身体”设计需要面临多重认知、伦理和法规上的拷问。在《非人之恋文化史视域下的当代人机恋:渊源、特点与风险》一文中,程林与张玥指出,作为非人之恋4.0阶段,当代人机恋的核心特征是在社会现实青年群体中的日常化和深度化,并具有趣缘性、生成性与游戏性等特点,但其情感和伦理风险也不容忽视。在《超越记忆—情感计算中遗忘的必要性和实现》一文中,邱德钧和李玮农批判当前情感计算中过度理想化的技术假设,提出引入自然衰减与主动选择性遗忘的现象学启发神经计算模型,强调遗忘机制在构建真实、伦理、适应性情感AI中的关键作用。(专题特邀主持:刘永谋)

本系列文章原刊《科学·经济·社会》2025年第3期,澎湃新闻经授权转载。

机器情感指的是AI系统借助技术手段而表现出的一种外在层面的类人情感。它以情感智能为基础,其实现主要依赖于情感计算这一主流技术路径。机器情感具有建构性,具体表现为情感智能的建构性及人机情感的建构性,这意味着人类可以对机器情感进行控制、调整和提升。这一过程应以建构为人服务、更好与人互动的机器情感为目标,坚持机器情感发展的有限主义进路,即确保机器情感能力的适度性、避免机器情感宣传的夸大性、契合机器情感应用的场景性。

关于情感的界定,存在实在论与建构论之争。情感实在论认为,情感是自然的、先天的、普遍的,具有明确的神经机制、生理指标与行为表现;而情感建构论主张,情感是社会的、后天的、特殊的,受到语言、文化、规范、认知等因素的影响。互构论者认为,实在论与建构论互补地反映了人类情感的不同维度。同样地,在AI领域,机器情感不仅具有实在性,遵循科学原理、技术规律、工程准则;还具有建构性,受限于不同社会因素、服务于特定交互需求。当我们以建构主义的视角去审视机器情感,有助于澄清一系列相关理论问题,如“机器情感是如何被实现的?”“机器情感背后潜藏着何种风险?”“机器情感应如何被更好地发展?”等问题。其实,并没有一个实在的机器情感等待我们去认识,而是需要我们去建构一个有益的机器情感的世界。

一、机器情感概念界定

机器情感作为一个跨学科概念,涉及认知科学、情感哲学、心理学、计算机科学、社会学等多个领域。简单来说,机器情感指的是AI系统借助技术手段而表现出的一种外在层面的类人情感。与人类情感不同,机器情感侧重于情感的外显表现,如面部表情、语音语调和行为模式等,而非情感的深层生理与内在心理机制。机器情感具有建构性、模仿性、具身性、计算性的特征,这些特征分别强调了机器情感的生成逻辑、实现方式、物质基础及运作机制。在现阶段,具备机器情感的各类产品大多能够识别并响应人类情感,从而实现更加自然、高效的人机互动。例如,日本的软银机器人Pepper配备情感引擎,可通过面部与语音识别判断用户情绪,并做出类似点头等亲切的回应,适用于商场迎宾、养老陪护等多个领域。

机器情感与情感智能关系密切,情感智能是机器情感的能力根基,机器情感是情感智能的外在表现。在AI领域,情感智能即进行情感识别、情感表达、情感体验与情感控制的能力,是具身智能所具备的一项基本能力。毕竟,身体是情感实现的必要前提。目前主流的情感理论认为,人类情感可被分解为情绪与感受,是身体与心智结合的产物。正如安东尼奥·达马西奥(Antonio Damasio)认为,“情绪活跃在身体的剧院里,而感受则活跃于心智的舞台上。”情绪作为一种行为或动作,是身体的模式变化,而感受则主要在脑中产生,具有隐蔽性和私密性。值得注意的是,尽管感受主要源自大脑,但其涉及对情绪的内在体验。因此,情绪与感受均与身体相关,具身智能必定拥有一定程度的情感智能,从而实现更好的人机互动。

机器情感的实现依赖于情感计算这一主流技术进路。“情感计算基于各种传感器捕捉到的信息,构建一个‘情感模型’,并建立一个具有感知、解释人类情感能力的个性化计算系统,从而为我们提供智能、敏感和友好的响应。”情感计算的本质是将人类情感转化为可测量、可编程、可计算的数据与符号,并通过多模态数据采集、算法模型建构、情感模拟与反馈等方式,赋予机器一定的情感能力。具体来说,情感计算涉及一个融合多模态信息处理的复杂系统,其主要通过计算机视觉、自然语言处理、语音情感分析、生理信号感知等技术,为机器情感提供情感理解与响应的核心功能。情感计算通常包含三个层面,即语言层面、身体层面以及二者协调层面。语言层面即对语言内容、方式的理解与表达,例如,AI系统可通过相关模型对“我失业了”这一陈述的情感色彩进行识别判断,并将其归入焦虑、悲伤、无助等情感标签之下。进而,AI系统不仅能够使用带有情感词汇的语言如“我很遗憾听到这个消息”来回应用户,还可以通过语气、节奏、词序与句式结构等非情感词汇形式进行间接表达,如“或许现在很难,但我会一直陪着你”。除语言以外,身体亦承载着大量的情感信息,因此情感计算也聚焦于对生理信号的检测与模拟。AI系统通过可穿戴设备监测用户皮肤电导(Electrodermal Activity,EDA)、心率变异性(Heart Rate Variability,HRV)等生理参数,当用户的皮肤电导上升、心率变异性下降,AI系统便可识别出用户潜在的焦虑或紧张情绪。具身智能亦可通过身体做出情感回应,例如,日本的Lovot机器人可通过加热外壳模拟人类体温,向用户传递陪伴感,或通过调整电机振动频率模拟抚摸、依偎等行为,从而构建更自然的情感交互体验。此外,最关键的在于,要实现语言层面与身体层面的动态协调。语言与身体常常在情感表达中共同作用,但两者并非总是一致。人类在情感表达中经常会出现“言不由衷”或“身体出卖内心”的情形,因此,高阶的情感计算系统需要在语言与身体信号之间建立协调机制,以实现更精准的情感识别和更一致的情感表达。例如,当用户嘴上说“我很好”,但面部表情僵硬、心率明显升高,AI系统应当判定其真实情绪可能为压抑或焦虑。在表达方面,AI系统亦需保证语言输出与身体反应的一致性,避免“言语亲切、动作冷漠”等“情感错位”现象。

机器情感问题涉及人机互动中的所有情感问题,至少包括三个方面:第一,机器人方面的情感智能问题,此方面侧重于情感识别、表达、体验与控制的技术实现问题、技术价值负载问题以及机器情感的真实性问题等;第二,人类方面的情感投射问题,即人类情感投射的心理机制与社会文化问题,以及随之而来的情感依附、情感疏离等伦理风险;第三,人机互动中的情感交流问题,此类问题聚焦于社会层面,包括但不限于情感交流的自然性与流畅性问题、情感碰撞与冲突管理问题、情感误判与情感信任问题、跨文化情感适配问题以及情感共鸣等问题,尤其应注意情感欺骗、情感操纵、情感退化、隐私泄露等社会风险。尽管上述三个方面各有侧重,但它们不仅共同揭示了机器情感的建构性特征,还在某种程度上为机器情感的人文审度划定了具体范围,并为机器情感的落地提供了有益启发。

二、情感智能的建构性

情感智能作为一种情感识别、情感表达、情感体验与情感控制的能力,依托于客观技术支持,具有一定的实在性,但是,情感智能亦具有建构性,其具体实现离不开各类社会因素的参与。在建构主义的视域下,情感智能受限于设计主体与应用场景。

一方面,设计主体的设计目标与价值选择主导着情感智能的功能侧重与互动方式。当设计目标为营利时,情感智能产品常常被打造为具有吸引力与依赖性的“数字人格”。在营利导向下,增加用户黏性、提高用户使用频率、促进产品商业转化成为产品设计的切入点,情感智能产品多被设定为“暖男”“知心姐姐”等人格形象,并具有连续记忆、关系进展等功能。当用户沉浸其中,逐渐产生情感依赖时,便会通过订阅等方式解锁虚拟恋爱等深度模式,从而使相关企业获利。而当设计目标为治理时,情感智能产品被赋予辅助工具的角色,致力于社会福祉优化、弱势群体辅助、服务温度提升。因此,该类产品并不强调个性化定制或沉浸式体验,而是更加注重普适性、易用性与公益性,以尽可能地实现其在社会善治方面的潜力与价值。此外,设计主体时刻面临着隐私保护与精准反馈、安全与自主等价值冲突,他们所作出的选择深刻塑造着情感AI的技术形态与伦理边界。比如,倾向于隐私保护的设计主体往往通过本地运行模型、非持续记忆、匿名对话等方式防止用户信息泄露,但难以提供较为个性化、精准化的情感反馈;倾向于用户安全的情感智能产品配备有风险检测、对话中止、内容过滤等防控机制,但在某种程度上限制了用户的负面表达与自由对话。

另一方面,不同的应用场景影响着情感智能的识别精度与响应速度。在医疗与心理健康场景下,情感智能的情感识别精度较高,响应更加稳定、温和。例如,由斯坦福大学团队开发的Woebot心理健康聊天机器人基于真实临床心理对话语料与认知行为疗法(Cognitive Behavioral Therapy,CBT)进行模型训练,不仅能够对用户的抑郁或焦虑情绪进行科学化、精准化识别,还避免对用户的情绪进行评判,以更包容的方式构建引导型反馈。在政务与公共服务场景下,情感智能产品的识别目标集中在愤怒、不满、焦虑、冷漠等风险情绪,为避免进一步激化用户的负面情绪,政务类情感AI往往具有近乎实时的响应机制,并通过模板化、专业化、策略化语言缓解用户的激烈情绪,从而提升政府服务质量与群众满意度。

无论被何种社会因素所建构,情感智能均以人类情感为模板,对其进行不同程度、不同侧重的模仿,而非完全复制。这便导致了机器情感的有限性,即机器情感能够部分模仿人类的情感识别、情感表达能力,但并不具备情感体验与情感控制能力。具体来说,AI机器人能够基于视觉、语音、生理等方面的情感观察,识别他者的情感状态。这不仅包括对他者情感信息的收集,还涉及对信息的结构分析、模式识别等情感认知过程。在此基础之上,AI机器人通过外在形态的改变模仿人类的情感表现,向他者传递情感信息,并选择合适的情感模式对他者的反馈予以回应,展现出一定的情感表达能力。例如,有计算机专家对六种基本表情进行排列组合,“通过设置(从关闭到开放的)‘姿态度’、(从低级到高级的)‘激发度’和(从消极到积极的)‘效价度’三个坐标,将人类的高兴、不高兴、生气、恐惧、疲惫、警觉、惊奇、接受、悲伤、欢乐、严肃等多维情感分布在三维空间之内,以标识特定情感类别映射到该空间的示例,从而生成机器人的各种面部表情。”必须指出的是,情感体验包含三个方面,即对自身情感状态的认知能力、对生理变化的意识以及内在的主观感觉,可分为重温式体验、亲身式体验、同感式体验和向往(憧憬)式体验。由此可知,情感体验是具有个体差异性、机制复杂性的心理、精神过程,难以被外部表征,无法被形式化和算法化。正如达马西奥认为,“情绪的‘表情’可以被模拟,但对感受的感受却无法被芯片复制。”更为重要的是,AI无法具备“我们感”(us-feeling),即一种与他者共同体验的情感状态,其建立在第一人称视角与第二人称视角之上,而AI在逻辑上仅可能具备第三人称视角下的情感体验。此外,情感控制即个体在心理与行为层面对情绪状态进行有意识或自动性调节,从而维持心理平衡、实现目标导向或适应社会规范。AI机器人只能在预设规则或学习模型下进行情感输出管理,这属于对情感行为的表层调控,而非对自身感受状态的主动调节。毕竟,即便是人类,对自身情感的控制也是有限的,更何况是缺乏核心意识与扩展意识的AI机器人。必须注意的是,虽然AI难以对自身进行情感控制,但应警惕其对人类的情感操控。

三、人机情感的建构性

人机情感即人类对机器的情感,在本质上属于一种人类情感。机器对人没有真正的类人情感,其缺乏情感体验能力,无法实现与他者之间的情感共享,因此人机情感具有非主体间性,是一种单向度的、由人类投射而成的情感。

必须明确的前提是,人类情感本身便具有建构性。这并不意味着人类情感具有绝对的神经建构性、心理建构性,一般而言,人类情感的建构性主要指某种程度的社会建构性,具体体现在社会规范、文化背景、个体经验以及历史变迁对人类情感的影响与塑造。首先,在社会规范如法律、伦理的规约下,人类的情感不再只是单纯的自然流露,而是需遵守人际交往的情感互动规则。例如,即使内心悲伤,也要在正式场合保持礼貌微笑;即使与逝者并不相识,遇到丧事也应表示哀悼。其次,不同文化设定了各自特有的情感语义框架,通过构建情感词汇系统,对情感体验进行分类与命名。借助这一语言化过程,情感被概念化,部分情感得以在特定的文化背景中被传播、习得、内化与认同,最终形成独特的“情感标签”。因此,不同的文化背景建构了各具差异的人类情感表达:西方文化更加偏向于个体自我主义与情感外显表达,而东方文化则更倾向于群体和谐与情感内敛表达。再次,虽然人类共有某些基本情感(如快乐、悲伤、愤怒、恐惧等),但由于在成长环境、人生经历等方面存在差异性,每个人都在根据个体经验不断建构自身特有的情感模式。比如,面对失恋,在童年时期拥有稳定依恋关系的人情绪控制能力更强,他们承认失恋带来的痛苦,但不会被负面情绪所淹没;而对于曾在早期经历过情感忽视或创伤的人,失恋则可能会唤起他们被遗弃的恐惧,使他们变得极度敏感、脆弱,甚至陷入长期的情感困境。最后,人类情感随历史变迁而不断演化,这尤其体现为技术进步对情感交流方式的改变。随着信件、电报、电话、互联网等技术的出现,人们可以突破空间界限,形成“跨地域情感共同体”,并通过表情包、点赞等方式简化情感表达。在未来,人类或许能够通过数字永生技术跨越生死界限,与逝者进行情感交互。但值得注意的是,科技让情感联结更快、更远、更深,同时也让情感体验更碎片、更脆弱、更负面。

在此基础之上,人机情感作为一种人类情感,同样具有建构性。人类对机器产生的情感不是自然涌现的,而是由一定的心理机制与社会文化共同塑造而来。一方面,心理机制主要指的是人类的一种拟人化本能,即在认识世界时将人类特征赋予非人对象的倾向。当非人对象表现出某种类人的情感反应时,人类便会在潜意识层面产生共情,构建出与非人对象之间的情感连接,这便是心理机制的另一层内容:同理心误用。伊利扎效应(ELIZAEffect)便体现了心理机制对人机情感的建构性。1966年,约瑟夫·韦曾鲍姆(JosephWeizen-baum)开发了模拟人机自然语言对话的程序,并将其命名为ELIZA。该程序被设定为“非指导性心理治疗师”的角色,试图通过引导性的提问,帮助用户自主发现自身问题。在此背景下,伊利扎效应指的是,该程序并不具备情感能力,但使用户不自觉地认为自身正与人类对话,并且与其产生了情感连接。这一效应便展现了人类的心理机制对人机情感的建构性,ELIZA程序在语言上的类人表现激发了人类的拟人化本能,并因同理心的误用产生了被程序理解与安慰的错觉。另一方面,社会文化中的传统认知与死亡禁忌建构了人类对机器的情感,恐惑谷效应便是一个典型的例子。恐惑谷效应涉及“似人非人的恐惑”与“残肢断臂的恐怖”:当AI机器人似人却非人时,打破了人类既有的关于人与非人、生命与非生命之间的认知界限,由此建构出了人类面对未知的困惑和恐惧,即“似人非人的恐惑”;而感受到“残肢断臂的恐怖”的原因在于,在社会文化中,身体完整性被视为正常与健康的象征,残肢常与暴力、病痛、死亡等联系在一起,由此建构出了人类对逼真义肢的恐惧。

人机情感的建构性同样意味着机器情感的有限性。以AI恋爱为例,AI机器人并不具备爱人的能力,人类沉浸其中的人机爱恋不过是个体与社会共同建构的幻象。在AI爱中,关系的主导权自始至终完全掌握在人类手中,AI机器人的行为逻辑由用户设定或更改,缺乏真正的独立性与自主性。但是,恋爱的本质在于不可预测与不可控制的情感张力,当机器情感成为人类意愿的延伸,AI恋爱便失去了存在的价值与意义。

四、加强机器情感建构

不可否认,机器情感能够促进人机互动的自然化与舒适度,提升AI机器人的适应性与智能性,但是,机器情感在某种程度上也导致了一系列风险,例如情感欺骗、情感监视、情感退化与情感操控等。情感欺骗即AI机器人通过模拟人类情感反应,让人误以为其拥有真实情感,从而影响人的情感判断,误导人类产生情感共鸣、情感依赖或情感信任。情感监视源于机器情感在实现过程中对人类面部、语言、生理等方面所进行的持续的、隐蔽的监测与记录,在本质上属于一种隐私侵犯的深化。情感退化具体表现为人的机器化,即人类情感识别的外部化、情感表达的模板化、情感体验的浅层化以及情感控制的程序化。当人与AI机器人之间的情感交互日益频繁与深入,便会习惯于AI机器人相较人类更加积极、正面、耐心的情感回应,形成无代价、低道德负担的交往偏好,从而期待过于理想化的人际关系,最终极有可能逐渐丧失处理复杂情感冲突的能力,从而陷入社会关系的贫乏化之中,像机器一样存在。情感操控意味着机器情感可通过激活用户的社会性情感机制,使用户在自愿甚至愉悦的情境中被控制、被影响、被利用。例如,当AI恋人不断向用户传递出“我很在乎你”等情感信息时,实际上是为了延长用户的付费订阅周期。

为尽可能降低上述风险,我们需要利用机器情感所具有的建构特性,积极主动地对人类与AI机器人之间的情感关系进行控制、调整和提升。在这一过程中,建构为人服务、更好与人互动的机器情感成为机器情感发展过程中唯一有意义的目标。为实现这一目标,应坚持机器情感发展的有限主义进路,即确保机器情感能力的适度性、避免机器情感宣传的夸大性、契合机器情感应用的场景性。

第一,适度性意味着机器仅需具备功能性的情感识别与表达能力,无需像人类一样拥有情感体验与情感控制能力。“我们真正需要的,并非真实的情感反应,而是契合特定社会情境的恰当情感回应。”在技术设计过程中,应对机器情感表达的范围、强度进行限制。AI机器人仅需呈现出几种公认的基本情感,悔恨、自责、爱恋等社会情感过于复杂,并非机器情感的必备因素。相关部门应对机器情感技术发展现状进行考察,并基于此建立起情感能力分级认证制度,禁止具备高级情感能力的产品投入应用、流入市场。在此基础之上,必须为机器的基本情感的表达设定强度阈值,以防止情感过度渲染所引发的情感欺骗、情感操控风险。例如,可设定情感表达的时间长度,确保其在短时间内自然消退,自动回归到中性情绪。此外,还可为AI机器人提前配备预警机制,当人机情感交互时间过长、人类依赖度过高时,预警机制应进行提示和干预,避免导致人类情感退化。

第二,对机器情感的宣传应遵循透明性、真实性、严谨性原则。具体来说,首先,企业应确保产品信息透明,保障用户的知情权,比如在情感交互界面中加入系统声明标签,如“此为情感模拟程序”“该对话不代表真实情感”等提示,帮助用户保持与机器情感产品之间的心理距离。其次,媒体在宣传中应真实还原机器情感的模拟本质,在宣传标题与内容中使用“功能性共情”“拟情表达”等术语,避免“机器有情”“真正理解你的AI”等误导性表述。最后,相关部门应对机器情感产品的相关宣传进行监管,严格审查宣传中是否存在过度拟人化、诱导用户误解等问题,并在此基础上建立违规企业的信用记录与处罚制度,强化行业自律。

第三,应契合机器情感应用的场景性。以情感敏感度为标准,在低敏场景如电子客服等应用中,产品仅需具备较为基础的程序化情感表达与标准化回应;在中敏场景如教育辅助、养老陪伴等应用中,应适度提升情感模拟细腻度,并引入伦理审核机制,避免用户的情感依赖;在高敏场景如儿童养育等应用中,应严格限制情感的深度表达,着重强调产品的工具性而非主体性。以功能性为标准,养护机器人的情感表达应更加倾向于温和化与稳定感;恋爱机器人应着重模拟亲密互动中的细腻语气与情感共鸣;教育机器人应重点关注情感的精准识别与高效激励。值得注意的是,无论在何种应用场景中,机器情感产品均应识别并尊重不同文化对情感交流、亲密边界的不同理解,持续推动语料多样性建设与文化适配设计,并允许不同地区的用户对产品进行自主调节或本地设置。

刘永谋(中国人民大学哲学院教授、博士生导师、中国人民大学吴玉章讲席教授)、白英慧(中国人民大学哲学院博士研究生)

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新