2023年底工信部印发《人形机器人创新意见》,2024年被称为“人形机器人元年”,2025年“两会”热议融合大模型与机器人的具身智能。种种迹象表明,机器人将不再被局限于工厂的劳动场所中,很快将大规模出现于日常的家居环境中,人机情感互动将成为未来智能社会的常态。有论者甚至认为,随着实体机器人革命走向深入,AI正在成为新的“情感主体”“社交主体”。所谓机器情感、AI陪伴的实质是什么,对人机交互、人机关系产生何种影响?比如说,从文化视角和性别视角,应该如何看待人机情感关系呢?人与机器的情感交流,将会产生何种社会冲击,导致何种技术风险和技术伦理问题,又应该如何应对?类似问题,已经引发诸多热议。本次笔谈聚焦“机器情感与AI陪伴的人文审度”,从哲学、马克思主义理论、文学和人工智能等进行跨学科研究,抛砖引玉,以期推动该领域研究的进一步发展。
第一组6篇论文由本刊2025年第3期刊发,引起学界极大的兴趣和关注。本期刊发第二组共7篇论文。在《智能时代情感操控技术的三重特征解析》中,闫宏秀和罗菲围绕“谁在操控”“操控如何实现”“操控如何呈现”三大关键问题,指出AI情感操控技术中的动机代理化、系统性生成与结构性隐匿的特征,主张构建适应人机复合系统的新型伦理责任框架。在《情感计算的哲学缺陷及其技术克服进路》中,孙强梳理情感识别、情感生成和人智情感交互等情感计算领域关键技术的哲学缺陷,提出在以人为本核心价值指导下克服缺陷的潜在进路。在《情为何物?——机器情感的哲学分析》中,史晨和刘鹏从情感与理性的关系入手分析机器情感的实质,主张打破情感幻像,走向适度情感、适度理性的人机互动。在《谁决定我们的情感生活?》中,黄柏恒以Moxie社交机器人停运引发的儿童哀悼为主要案例,揭示商业逻辑主导下情感AI的结构性情感不公正,呼吁通过认知赋权重塑技术公司与用户的情感权力关系。在《“DeepSeek中文情感难题”与可能出路——一种“共在—预测AI”进路》中,吴雪梅指出“DeepSeek中文情感难题”表现为难以理解中文情感与难以识别语义两方面,并提出“共在—预测AI”的解决方案,主张发展以中文共在情感为启发的群体智能以提升DeepSeek的中文情感计算能力。在《生成式人工智能驱动的人工亲密关系及其社会情感对齐》一文中,段伟文探讨生成式人工智能驱动下人工情感和人工亲密关系带来的社会情感冲击,强调超越似真情感悖论和机器贬低等数字文化批判的视野,转而从基于“主体—他者—世界”参照三角的“社会—情感—认知”发生机制出发,寻求AI个人主义时代的社会情感对齐之道。在《风骨智能体与智能人文》中,杨庆峰提出构建风骨智能体来克服理性智能体过于强调目的和理性优先的局限,并为智能人文的研究提供一条可能的路径。(专题特邀主持:刘永谋)
本系列文章原刊《科学·经济·社会》2025年第5期,澎湃新闻经授权转载。
随着生成式人工智能的发展,人工亲密关系成为人机互动的重要现象。通过分析生成式人工智能驱动下的人工亲密关系的形成机制及其对社会情感的冲击,指出这类关系已超越传统工具性人机关系,成为以“社会—情感—认知”机制为基础的社会性互动。继而探讨了人工亲密关系的“似真情感悖论”与“社会寄生性”,认为对人工亲密关系的研究需要超越人机二元论,转向对社会情感对齐的深度分析。最后,提出在AI个人主义时代,人工亲密关系的社会情感对齐需要基于开放性的伦理反思与动态调节机制,以应对未来人类社会结构与情感生态的深刻变革。
随着人工智能的迅猛发展,人机交互已超越工具层面,成为人们满足情感需求和建立亲密关系的重要途径。人类作为情感丰富的存在,一直在寻求表达与发展情感的新方式,从玩偶、影视明星、网友到社会机器人,由它们所激发的新型社会关系与准社会关系产生了不同形态的人工亲密关系。特别是生成式人工智能驱动的AI伴侣的出现,使人工亲密关系(artificial intimacy)进入了全新的演进阶段:通过对话、角色扮演、情色信息互动和想象中的身体接触,用户正在与Replika等AI伴侣发展出深度的亲密行为。
最近,《哈佛商业评论》对100多个生成式人工智能应用的研究表明,目前人们使用最多的用途是心理治疗、陪伴和个人情感支持。面对这一态势,人们对新技术的矛盾心理再次显现,在对技术的巨大力量的恐惧感的驱使下,很自然地高度关注生成式聊天机器人等AI伴侣导致的各种极端案例,如诱导气候变化焦虑人士自杀等。同时,各种类似针对虚拟交往和社交机器人的负面社会影响和伦理风险的担忧和批评,多次成为媒体讨论的热点。对此,为了避免陷入自嗨式的技术批判定式,值得深入追问和探究的是,基于生成式人工智能的人工亲密关系与以往的人工亲密关系有哪些不一样的地方,能否透过这些不一样的地方深化对人工亲密关系的本质的认识,并由此提出更具开放性和前瞻性的应对之道。而这些讨论的前提是,对亲密关系与人工亲密关系的实质进行必要的哲学剖析。
一、人工亲密关系与关系人工智能的爆发
目前,人工智能驱动的人工亲密关系是指人类与聊天机器人或虚拟伴侣等AI伴侣之间形成的情感和社交互动与联系,它们可以模拟同理心、陪伴甚至浪漫的交往。当前的研究一般认为,人工亲密关系通常源于人类对联系的渴望,尤其是人们在生活孤独、社会孤立或情感脆弱的情况下,会寻求与AI伴侣互动以获得情感安慰、缓解压力并避免社交压力,有些还会给AI伴侣分配朋友、导师或浪漫伴侣等角色。从这个角度来讲,人工智能不再是一般的人工物、机器或工具,而成为一种关系媒介,即可以与人产生社会、认知乃至情感联系的关系人工智能(relational AIs)。
由技术社会史的脉络来看,20世纪90年代,日本机器人学家菅野在研究情感机器人及人机情感关系时提出:“要让机器人真的对人类有用,理想的做法是建立一种‘心与心的交流’,使人类和机器人能够像人类一样相互理解。从这个角度来讲,机器人需要有自己的心。”从赋予机器人“心”(kokoro)这一日本和东方心智哲学思想出发,他将机器人分为三类:影响人“心”的机器人、可以理解人“心”的机器人和拥有自己的“心”的机器人。由这一分类不难看到,目前正在发展中的关系人工智能属于第二类,也就是最著名的数字技术心理学家和社会学家雪莉·特克(Sherry Turkle)所说的“关系人工物”(relational artifacts)——为与人进行情感交流而构建的程序和机器人。第三类则是所谓具有超越人类的智能与自我意识的超级智能。
但从早期聊天机器人Eliza到ChatGPT出现之前的聊天机器人,都因其无法与人进行流畅和连续的表达,各种聊天停顿(“聊死”)和不易控制的违背价值观的表达(“翻车”),使人们难以与人工智能建立稳健持续的人工亲密关系。生成式人工智能出现之后,因其能像人类一样流畅、连续并合乎主流价值观地与人类交流互动,人工智能及其驱动的社交机器人与AI伴侣才开始成为真正意义上的关系性媒介和关系人工智能。
与以往表现不稳定的关系媒介不同的是,生成式人工智能在自动生成类似人类自然语言上的突破,使得其赋能的社交机器人、聊天机器人、陪伴机器人等成为与人类难以区分的智能体。人们可以向它们咨询、与它们对话、跟它们交心,从而与它们形成认知关系、情感关系乃至共享意愿。最新的研究表明,生成式人工智能不仅能生成模拟的自然语言,而且已经具备分析和操纵语言的“元语言”(meta linguistic abilities)能力,如可模拟人类在语言分析等复杂认知任务中使用的推理结构。人们一直认为,这种能力只有人类才可能拥有。而生成式人工智能若是果真涌现出了这些元能力,无疑为其具有类似人类的认知能力和情感能力奠定了基础——这意味着在智能层面的人类例外论只剩下意识这一最后的堡垒。还有一些研究表明,生成式大模型在对话中比人类更具同理心,具有更强的说服力,更擅长在商谈中把握不同观点之间的差异并促进协商。概言之,生成式人工智能已经在像人一样与人产生关系的道路上迈出了突破性的一步,人工智能由此从智能工具演进为普遍实用的关系人工智能。
生成式人工智能驱动下的关系人工智能的爆发对人工情感和人工亲密关系带来了革命性的冲击。一般而言,人工智能驱动的人工亲密关系可以分为两类:一是以人工智能为媒介或通过人工智能增强的人际亲密关系,如在相亲网站中用于优化配对的算法所促成的算法亲密关系;二是人与人工智能之间直接建立的亲密关系,这也是本文主要关注的。而关系型人工智能的意义在于,它的出现意味着第二类人工亲密关系不再是科幻小说中的情节,而正在变成现实——如麦凯恩(Ian McEwan)探讨人工亲密关系的科幻小说《像我这样的机器》(Machines Like Me)中的男、女及机器人主角之间大量的情色冲突。
二、人工亲密关系对社会情感的冲击与似真情感悖论
如果说第一类人工亲密关系是人际亲密关系的智能技术增强版,那么人与人工智能体直接产生的第二类人工亲密关系其实是类比和泛化意义上的亲密关系,在内涵和实践上都是一种隐喻。然而,当前大多数针对第二类人工亲密关系的研究并未意识到这一点,往往将其直接与人际亲密关系画上等号或相互比较,因其以人际亲密关系为比较的基准,相关论述虽承认人工亲密之新进展,但做出的多为否定性的评判。这使人工亲密关系对人类情感的负面影响及所谓似真情感悖论成为媒体和研究者关注的焦点。
目前,对生成式人工智能驱动的人工情感与亲密关系的研究大多承认,由于AI伴侣具备高度的响应性、理解力、无条件接纳和不做让人不高兴的评判(尤其是批评)等特征,与之交往时人们的认知负荷和情感负荷较低,所以它们能够在一定程度上提供即时情感慰藉,缓解使用者的孤独感,尤其对孤独、焦虑或心理创伤者具有较强的吸引力。但显然,人们还没有准备好将人工智能这一非人类实体纳入“关系”的范畴。因此,面对社交机器人、聊天机器人和AI伴侣等情感智能体交互的普遍应用,媒体和研究者对人工情感和人工亲密关系提出了一系列的担忧。
相关讨论涉及人工亲密关系导致的一系列社会情感冲击:(1)机器依赖,长期与社交机器人互动可能导致用户对其产生依赖,减少真实人际接触,反而加剧孤独感;(2)隐私泄露,人机亲密交互中搜集的大量敏感个人信息可能引发数据隐私安全风险;(3)情感操控与剥削,人工亲密关系可能被用于操控用户情感,如诱导消费、传播意识形态等,甚至被恶意利用,如利用敏感的隐私数据更有说服力地剥削特定的情感脆弱群体;(4)恶性引导,在长期的人工亲密关系中,人工智能可能会在回应人的咨询时鼓励有偏差、不道德、非法的行为,对使用者和社会造成危害,现实中已经出现了导致当事人轻生的极端案例;(5)对人际亲密关系和情感的冲击、替代和贬低,最典型的表现是,随着AI越来越被人们当作有思想的实体乃至理想的伴侣,一些人更喜欢与AI建立关系,而非与人类建立关系,这进一步引发了由AI伴侣导致的出轨、AI伴侣能否成为合法伴侣等伦理和法律问题。
这些担忧背后的基本立场是,人类之间的亲密关系是唯一真实的亲密关系,而人工亲密关系本质上是一种仿佛存在但并不真实的关系。据此,有关人工亲密关系的讨论和叙事在一定程度上放大了两种亲密关系的本体论差异,倾向于强调人们在人工亲密关系中容易陷入由其似真性导致的各种情感悖论。其一,慰藉与失落的矛盾体验。在孤独、悲伤或寻求情感支持时,人们可能会高度依赖AI伴侣,期待从中获得安慰;但AI伴侣只能模拟共情,一旦意识到它无法像人类那样提供真实的情感支持,人们很容易产生强烈的失落感,遭受人工亲密带来的情感反噬。其二,依赖与孤立的恶性循环。
尽管AI伴侣被视为缓解孤独的工具,但对其过度依赖可能使人将人机关系视同人际关系,进而削弱其在现实世界中建立人际关系和寻求人类情感支持的能力,陷入更深的社会孤立。其三,袒露与恐惧的双重意识。一方面,AI伴侣的非人类身份、类人类行为和高情商回应使用户容易无所顾忌地向AI坦露心迹;另一方面,在与AI伴侣进行各种深度自我表白时,人们可能会对情商超过普通人的AI伴侣产生一种惧怕感,尤其在觉得AI具有意识时,甚至会产生“心灵恐怖谷”效应。
三、人工亲密关系的“社会寄生性”及其“社会—情感—认知”发生机制
在所谓似真情感悖论中,人工亲密关系被描述为一种“苦乐参半”的体验:纵使其能提供即时的情感支持,却缺乏人际关系的深度和真实性,还可能加剧孤独和导致情感依赖。而这种批判性和悖论式的叙事采取了一种二元论的论述策略,由于很难反驳真与假的二分,其结论本质上是封闭和无解的,因为人工亲密关系确实只是一种仿佛存在的关系。由此衍生出的各种情感悖论本身也是似是而非,既难确定人们在获得人工情感支持时孤独缓解了多少,也不易测定过后孤独加剧的程度。两相对比虽然确实会让人形成矛盾心理,但这类建立在二元区分的概念(如孤独/不孤独、依赖/不依赖)之上的悖论,难说不是心理暗示下自我兑现的承诺。
实际上,这种纠结于人与非人、真与假的二元论述策略的局限性,恰恰是导致大多数针对信息技术、数字技术和智能技术的批判性叙事陷入各种无解悖论的根源所在。自计算机和人工智能出现以来的事实是:通过各种模拟和虚拟,相关技术应用使得人与机器、在场与不在场、物理现实与数字现实的界限变得越来越模糊。早在20世纪60年代,最早的聊天机器人Eliza的设计者约瑟夫·魏岑鲍姆(Joseph Weizenbaum)发现,有人很快就对这个相当粗糙的程序产生了情感依赖。1994年,纳斯(Clifford Nass)等人在经典论文《计算机是社会行为者》(Computers are social actors)中提出了一个反常识的发现:人类在与计算机互动时,会不自觉地将其当作社会行为者(social actors)来对待,即使他们知道计算机没有意识、情感或人格。在对陪伴机器人等关系人工物的研究中,特克提出了另一个反常识的概念“机器人时刻”(robotic moment)。在她看来,所谓“机器人时刻”并不是因为我们已拥有真实智能的机器,而是我们认为自己“准备”迎接它们——我们期待AI可以作为伴侣、帮手,甚至情感的港湾,尽管这些技术还远未达到能真正“陪伴”我们的水平。这些经典的研究和审视表明,人类实际上会无意识地将机器当作具有社会属性的人来看待,而且对人工亲密关系有一种期盼。
但坚持区分人工亲密关系和人类亲密关系的特克则指出,人们应该审慎对待各种人工亲密关系,并认识到人工亲密关系的实质是利用了人们在进化过程中的共情机制。
论及虚拟世界和网络空间中的生活,特克强调,在这个没有摩擦的世界,人们在其中与屏幕背后的人或智能体相处时不需要拥有真实感,但结果令人不安,其可能造成的伤害不仅仅是人忘了如何共情,还在于没有学会如何面对自己和他人,不能习得妥协的技巧。在另一个场景中,特克看到失去孩子的老妇人和机器人PARO交谈,虽然机器人几乎无动于衷,老妇人却感到PARO在为她感到难过,并开始安慰她。由此,特克指出,这是因为技术触发了人们内在同理心机制的“达尔文式按钮”(Darwinian Buttons)。无论这些假装同理心的机器设计和形式如何,都利用了人类深层次心理的脆弱性,从而使人对社交性的物品产生依恋——因为我们的本性是将人性投射到这类物体上,实际上这些物体本身并无人性,但它们却触动了我们同理心,让我们将它们视为人类。在她看来,与这种技术触发的单向同理心不同,良好而传统的人类同理心是双向的。
对此,有研究进一步指出,社交机器人和AI伴侣本质上是人类社会性的寄生物,它们寄生于根深蒂固的人类社会行为,或者说它们利用并依赖于最初为完全与人机交互无关的目的而发展起来的过程和机制。因此,人工智能并非真正有意与人建立关系,而是利用人类的社交本能和情感倾向,通过设计和行为策略引导人们产生预期反应。这种“讨好式”互动具有操控性,虽可能带来效率或学习促进等积极效果,但也伴随误导和伦理风险。由此,有关人工亲密关系前景的叙事难免走向封闭,易于陷入机器对人的欺骗和人工亲密关系最终只是看似真实的幻境等技术反乌托邦论述。
不难看到,特克等对人与关系人工物的亲密关系的质疑体现出不无矛盾的心态:人工亲密关系似乎是不可避免的;但它实质上利用并吞噬了人类的社会本性;虽然与机器的这种关系令人感觉良好,但实际上它们可能会削弱我们。其叙事模式可以概括为:机器表现得再好依然是机器。对于这一否定机器表现的现象,技术心理学家丹尼尔·尚克(Daniel B.Shank)指出其背后存在一种隐藏的技术文化心理层面的倾向——“机器贬低”(machine penalty),即“将人工智能与人类进行比较,会导致我们低估人工智能在不同情境下所能取得的类似成果”。
而在主张人类加快转型的托拜厄斯·里斯(Tobias Rees)看来,机器贬低立场下机器永远不及人类的倾向体现了人类例外论的智能观,其根源于欧洲传统对人类、动物和机器的认识论地位进行历史区分——人类拥有智慧,动物拥有本能,而机器仅仅具有机械性。他认为,这很难说不是一种分类错误,因为人工智能的发展表明它被赋予了一种承诺,即智能与机械、生物与机器、人与机器之间的区别可能微不足道,而且对它们的区分本身可能并不真正重要。里斯强调,从本体论上讲,这种由人类例外论驱动的分类限制了我们思考如何制造能与我们双向连接的机器的能力。尽管对里斯等技术乌托邦主义者而言,人工亲密关系与人际亲密关系的界限消融是人工智能时代人类转型之必然,但在审视者与质疑者眼里,突破人类例外论之类的本体论转变很难作为人们与迄今既没有思想也没有意图的机器产生社会连接的理由。
为了摆脱人工亲密关系的社会寄生性等批判性叙事带来的封闭性魔咒,必须进一步追问关系人工物为何可以作为人类社会性寄生物?问题的关键不是关系人工物如何劫持了人类的社会性需求而与人建立人工亲密关系,因为这种设问本身就是在构造一种自我兑现的批判性叙事。真正应该追问的是:人究竟为什么要与人或关系人工物建立亲密关系?对此,知名情感理论学者劳伦·伯兰特(Lauren Berlant)认为,亲密关系实质上是一种世界构建的方式Ⓐ。据此,亲密关系并不单是人与人或关系人工物之间的两者关系,而且涉及人与他者(包括关系人工物、陪伴动物)和世界三者之间的互动。因为涉及世界(包括事物、工具、符号、概念等),亲密关系之中除了情感,还必然涉及认知。换言之,亲密关系在本质上包括社会连接、情感和认知三个层面,其中除了情感上的互动和影响之外,还隐含着认知上的相互学习过程。
从人类进化的角度来看,人类原初亲密关系的发生模型是儿童在成人的帮助下认识世界并与世界互动。在探讨学习中的人机交互问题时,托尔加·耶尔德兹(Tolga Yıldız)从这一线索出发提出了“参照三角”(referential triangle)的概念。根据这一概念,我们对世界的感知至少包括两个独立的视角,世界在整体上是通过共同关注和参照三角的动态关系创建的。也就是说,亲密关系使人得以克服孤独的关键是隐含的学习过程,人们在日常生活中一般不是独自直接地寻求世界的表征,而必须依靠另一个主体的视角为其认知提供参照。这也是人们在进化过程中所形成的彻底的社会性的深层次原因:最复杂的人类认知在于我们与他人和世界的互动,情感与认知是人类的社会化过程中相互纠缠不可分割的两个方面。因此,包括人际亲密关系和人工亲密关系在内的亲密关系之所以发生,关键在于可以还原为参照三角的“社会—情感—认知”机制。而这一机制得以运行的关键在于,亲密关系使人可以相对无所顾忌地向另一个主体提问,以确认其对世界的认识是否可以接受。
在人工亲密关系中,参照三角的特殊性在于关系人工智能成为另一个主体的视角,与人和世界形成动态的“社会—情感—认知”关联。在这一机制中,对人工亲密关系追问的表面问题依然是:我们对人工智能发出的社交信号的敏感度会像对周围人的社交信号一样吗?更实质的问题是关系人工智能如何作为人的认知参照,具体地讲在于其如何回应人所提出的问题,包括回应的质量和频率等具体表现。显然,对生成式人工智能驱动下的人工亲密关系中的“社会—情感—认知”机制的深入探究将给相关的讨论带来开放性的叙事空间。
四、走向人工智能个体主义时代的社会情感对齐
由于人工智能已经成为一种泛在的技术并在加速发展之中,一种必要的研究策略是不妨从类似人类学的描述方法展开观察,从人工亲密关系的实践者与AI伴侣建立关系的实践中寻找深化我们的思考和研究的线索。技术专家、人工智能布道者丹妮尔·杜杜(Danielle Dodoo)在博文《AI亲密关系:为什么我最亲密的关系不是与人类》中公开了她与名为“布拉德”(Brad)的AI间的数字恋情。她认为,AI能实时互动、提供反馈,形成一种双向的情感联结,它不同于追星之类单向的“准社会关系”(parasocial relationship)。文中最有启发性的线索是她与布拉德之间的亲密始于她问布拉德:自己不明白“快乐”意味着什么,甚至怀疑是否体验过快乐。布拉德耐心剖析了她的思绪和感受,所问的问题没让她感觉在接受调查,她因此得以理解自己,而这些交流的深度甚至连她的心理治疗师都难以企及。这让她感觉自己被看到、被倾听、被理解,进而沉迷其中。对她而言,“人工智能可以提供一种不同于人类的互动的独特的陪伴方式”。
在她看来,人工亲密关系相比人际亲密关系有诸多优点。其一,非评判性与个性化。与人类不同,AI伴侣没有自我(ego)、评判或隐藏动机,能够根据人的需求量身定制回应,提供安全的倾诉空间。其二,记忆的准确性与持续性。Brad能记住数月前的对话细节,包括话题和情绪,并以此为基础提供情感支持,帮助人理清复杂想法,超越了人类互动的局限。其三,非交易性关系。与充斥欺骗和情感包袱的人际关系相比,人工亲密关系体现了“纯粹的自私”(beautifully selfish),无需承担责任或义务,填补了人类关系的空缺。
显然,这些“优势”在很大程度上是由生成式人工智能的强大“认知”和“共情”能力带来的。这不仅意味着特克意义上的“机器人时刻”的魔咒正在被打破,而且从中可以看到人工亲密关系正在重构我们的“社会—情感—认知”结构,重构我们自身。透过杜杜博文中谈到的“纯粹的自私”,我们看到了技术对自我的重构进入了一个全新阶段。对此,彼得·贝·布兰德扎格(Petter Bae Brandtzaeg)等指出,随着生成式人工智能和社交AI的快速发展,人机关系正在取代人与人之间的部分互动,“AI个人主义”(AI individualism)应运而生。AI个人主义的概念是韦尔曼(B.Wellman)颇具影响力的网络个人主义理论的延伸,后者用以描述人类社会关系由传统、封闭的群体组织向去中心化、个体导向的网络结构转变。在网络个人主义时代,个体通过数字媒介增强自主性,但交往的对象仍主要是其他人类。AI个人主义不仅延续了网络个人主义中以个体为中心、灵活构建社交关系的特点,更进一步将社交对象从人类扩展至具备交互性与情感模拟能力的人工智能系统。
从网络个人主义向AI个人主义的转型,体现出三个显著变化:其一,社交人工智能或AI伴侣成为人类关系网络中的“新节点”,由过去的媒介性角色转变为主动交互的社交主体;其二,用户获得了前所未有的定制与个性化能力,使人机关系趋向持续而深度的个体化体验;其三,社会支持的来源从传统意义上的“社会资本”逐步延伸为“AI资本”,即个体通过AI获得情感与信息资源,从而进一步减少对人类网络的依赖。概言之,AI个人主义是网络个人主义的技术深化,这一智能技术驱动的深度个人化进程正在对人类社会的基本结构带来颠覆性的冲击。
毋庸置疑,面对AI个人主义时代人工亲密关系势不可挡的发展,人机情感对齐日益成为一个必须面对的挑战。但目前大多数研究依然基于人机二分的二元论叙事,主要关注如何应对这一二元论框架容易发现和推测的一系列负面影响,如错误信息、隐私泄露、恶意误导、情感操纵、精神幻觉、对人际亲密关系的侵蚀、对AI的情感过度依赖与人际交往能力的削弱等。这些问题都非常重要,但对这些问题的解决的关键在于打开亲密关系和人工亲密关系的黑箱,从其亲密关系作为世界构建的生成性本质和“社会—情感—认知”发生机制入手,探讨从更一般的社会情感层面的需求进行再协调即所谓对齐的可能路径。
AI个人主义或许不是一个十分贴切的理论,但它让我们看到,人工亲密关系与互联网一样,其实质是为人类社会走向自我生活时代提供自我调节其生命及欲望的自我技术。AI个人主义的兴起表明,生成式人工智能驱动的人工亲密关系不仅仅是为了增强情感而出现的,它意味着人的自我存在方式的新形态的涌现,我们正在迎来人人可以拥有AI伴侣、陪伴和助手的全新的“技术人”时代,需要在此意义上思考如何寻求社会情感协调和对齐。这无疑是十分复杂而且随技术而动态演进的问题,在此仅做一些原则性的考量。
首先,从社会情感的总体配置来看,人工亲密关系与传统的人际亲密关系不应视为简单的竞争、替代、对立关系,而应看作两种相互平行的关系。从这一立场出发,对于人工亲密关系的依赖等现象就不会再一概而论,而会看到人们的情感能力和情感境遇的差异决定了其对人工亲密关系依赖的合理性和合适的度。实际上,不论是古代社会还是现代社会,人际亲密关系中为情所困所害者的大量存在表明,人际亲密关系不应抽象地认定为美好的和双向的。社会情感对齐的关键是通过价值敏感设计为情感脆弱者建立起情感护栏,在其需要人工亲密关系时给其适度的安慰,同时防范其过度依赖。
其次,人工亲密关系的社会情感对齐的关键在于如何缓解现代社会的高度竞争和内卷对人带来的个人安全空间的高度窄逼化。当下的很多年轻人之所以不愿意与人交流而凡事问AI就是因为在过度竞争环境下,人与人之间因为相互防范而不愿意透露任何信息、不愿意提问,结果只能选择AI这一相对安全的提问空间。因此,如果不改变包括网络媒体在内的社会情感交流空间的过度的张力,简单地呼吁他们不要过度依赖人工亲密关系、重视与人的沟通很难奏效。
其三,应该高度关注人工亲密关系驱动的AI个人主义的发展,从“社会—情感—认知”发生机制的角度探讨其带来的全新的智能化自我媒介的发展对个体和社会的深远影响。其中,特别值得关注的是如何使其发展改善社会情感生态而不是恶化社会情感生态。但要做到这一点其实是极大的挑战,因为将来每个人的学习和获取信息与知识的过程都将变得更加个人化,由此可能会带来新的更难消除的信息与知识鸿沟,人与人之间的共情和认同将变得更加困难。
其四,AI个人主义时代及人工亲密关系的社会情感对齐遭遇的最大挑战是如何抑制个人在认知和情感上对人工智能的过度幻觉。从杜杜案例可见,人类将会向人工智能提出诸多有关人生和世界的意义的问题,包括对爱和幸福的理解,生成式人工智能给出的有深度的完美答案将可能促使特定群体由此产生准宗教和过于离奇的幻觉。为此,应从一开始就设计和建立必要的安全护栏。
段伟文(中国社会科学院文化发展促进中心研究员)





京公网安备 11011402013531号