环球时报
一个名为“同事Skill”的项目,最近在全球技术圈掀起波澜:将离职同事的工作文档、邮件往来、聊天截图等数字痕迹“喂”给人工智能(AI),便可将其“炼化”成可复用的技能包,让前同事的“AI分身”继续“赛博打工”。“肉身离职,赛博留岗”的梗,精准戳中了职场人心底的恐惧。硅谷科技企业一轮又一轮的裁员潮更是放大了这份担忧,成为当前全球AI替代恐慌的一缕缩影。
从好莱坞编剧为抵制AI侵入而罢工,到国际投行预测数亿白领岗位将被重塑,“我的工作还安全吗”的疑问正以前所未有的尺度蔓延。但归根结底,无论是被“炼化”的Skill还是各类生成式AI,本质上仍是复制品,而非数字生命。它们能改造岗位,却无法彻底取代人。
对比职场角色,AI至少有四方面取代不了人。其一,AI难以驾驭复杂情境下的价值权衡。现实工作中,边界模糊、信息残缺乃至伦理考量都时刻存在。被“炼化”的客服Skill可以复刻话术,却听不出客户语气中的情绪与潜台词,无法凭借共情重新定义问题,并给出有温度的回应。而在商业谈判、危机处理中真正起决定作用的,正是人类在模糊地带作出的负责任判断。
其二,AI缺乏突破框架的创造力。现阶段大模型的“创造”,仍是对已知的高阶重组,无法像人类设计师那样从无关的社会议题中汲取灵感,开创全新视觉语言,也无法提出颠覆既有逻辑的战略构想。推动质变的想象力,天然与意识、好奇心和意义感相连。
其三,AI无法承担真正责任,建立深层信任。无论是项目前还是项目后,签字人必须承担法律与道德责任。当面临压力时,团队需要的是有血有肉的领袖,而非一段生成的“鸡汤”。尤其是当AI介入医疗、法律领域,一个可被问责、有职业良知的主体是关键的信任锚点。代价与风险对等的立场,往往是交托信任的前提。
其四,AI依赖的知识与规则也需要人类持续刷新。事实上“同事Skill”并没有想象得那么完美,静态的Skill若不投入人力持续更新,随着有害操作或错误的积累,最终只会沦为“僵尸程序”。任何AI系统的有效运转,都离不开专家定义目标、校准价值、修补盲区。
看清这些不可替代性,恐慌便应转向建设性思考:AI将如何改造工作,我们又该如何重塑自身?这种改变至少在三个层面展开。
一是将岗位侧重点从执行转向定义与编排。AI负责“怎么做”,人类聚焦“做什么、为什么做”。媒体工作者不再简单整理快讯,而是发掘议题、设定框架、审核把关;程序员成为AI的“架构师”,理解需求并纠正报错和bug。只有从执行者转型为掌舵人,才能最大化AI的工具属性。
二是适应催生出的混合型新岗位。如同工业化生产造就了工程师与管理者,AI时代也孕育出模型训练师、提示工程师、算法审计员等新兴岗位。传统岗位也在融入AI协作素养,AI+会计、AI+医生都在走进市场,成为职业交叉的新趋势。
三是组织评价体系必须相应地进化。当技能可以被“炼化”,企业很容易将员工视为可替换的技术零件。但“炼化”员工只能换取财务报表上亮眼一时的数据,一家企业的持久竞争力源于激发跨领域整合的创意、敢于决策的魄力、对需求的细腻感知。因此,考核要相应地适配岗位与产业的变化,从传统工业生产看产出,转向影响力、创新和增值,将人的考核标准与AI加以区分。
长远来看,AI固然强大,但相应的恐慌仍是大于实际威胁的。冰冷的代码可以惟妙惟肖地模仿我们的言语,却永远无法复刻一个人内心的火焰,无法替代在面对未知时,源于生命的激情、良知与创造。(作者是北京邮电大学人机交互与认知工程实验室主任、教授)





京公网安备 11011402013531号