加拿大萨斯喀彻温省的高中教师安・约翰逊(Ann Johnson)在2005年因脑干中风而瘫痪,经历了近乎完全的身体瘫痪,这使她饱受闭锁综合征的折磨。这种病症让她虽然意识清醒,却无法说话或行动。为了与外界沟通,约翰逊依赖眼动追踪系统,以每分钟仅14个词的速度与他人交流,远低于正常人每分钟约160个词的对话速度。
图源备注:图片由AI生成,图片授权服务商Midjourney
现在,约翰逊通过一项新兴的脑机接口(BCI)技术重新获得了说话的能力。这项技术由加州大学伯克利分校和加州大学旧金山分校的研究团队共同开发,旨在通过一种神经假体来恢复严重瘫痪患者的语言能力。2022年,约翰逊成为该临床试验的第三位参与者。研究人员通过植入神经假体,从大脑的语言运动皮层记录神经信号,绕过受损的神经通路,进而产生可听的语音。
该技术的核心是植入装置,它能够在约翰逊尝试说话时检测到神经活动,并将信号传输到连接的计算机。随后,人工智能解码器将这些信号转化为文本和语音。最初,系统的反应存在约8秒的延迟,但研究团队在2025年3月的《自然神经科学》杂志上报道,他们已经成功将延迟时间缩短到1秒,实现了近乎实时的语音转换。
为了让约翰逊的体验更加个性化,研究人员还利用她2004年婚礼演讲的录音重现了她的声音,并为她选择了一个与自己相符的虚拟形象,能够模仿微笑或皱眉等面部表情。未来,研究团队希望使这种神经假肢实现 “即插即用”,并计划开发无线植入装置,以避免直接连接电脑的麻烦。此外,研究者们还设想开发数字 “克隆人”,不仅能复制用户的声音,还能模仿其对话风格和视觉信号。
划重点: