出品|三言Pro 作者|DorAemon
8月15日,国家卫生健康委员会联合教育部等部门发布通报,公布对肖某、董某莹事件的调查处置结果。
通报显示,中日友好医院胸外科副主任医师肖某存在违规违纪违法问题,暴露该院医疗质量安全管理、医德医风建设等制度落实不到位,相关负责人被追责。
北京协和医学院4+4试点班学生董某莹存在伪造成绩单、学位论文题目变更未履行审批手续、论文重复发表及不当署名等问题,其姑姑北京科技大学班某娟等人协助造假,多名相关指导教师、管理者因履职不力被处罚。
针对协和4+4试点班,通报明确多项整改要求:严格报考条件,界定境外学校资质,加强成绩单核验;在学位论文管理上新增答辩后第二年查重机制,同步强化学术诚信教育;要求毕业生统一参加3年住院医师规范化培训。相关涉事单位被责令提交书面检查并落实整改。
这一事件暴露出传统医学教育管理中,人工审核的滞后性与人力成本局限性。那么,笔者不由得好奇,在人工智能技术飞速发展的今天,AI能否成为监管辅助工具呢?
但比起技术能做到什么,更值得思考的是,在医学教育这一关乎人才培养与行业伦理的领域,AI的潜力应如何释放,边界又该如何划定?
AI的潜力:从“事后补救”到“过程预警”
传统学术监管多依赖“事后查重”“定期抽查”,这种被动模式往往难以应对隐蔽性问题。而AI的核心价值,或许在于将监管节点前移——通过对学术流程的全链条数据化追踪,实现从“事后补救”到“过程预警”的转变。
例如,在论文创作环节,AI可通过语义分析而非简单的文字比对,识别研究逻辑的连贯性:若开题报告与终稿的核心论点出现非合理跳转,例如协和事件中论文题目的显著差异,系统可自动标记并提示人工复核。
在成绩管理中,AI可关联课程考勤、作业提交、考试成绩等多维度数据,当出现成绩单与实际表现不匹配的异常时,及时触发校验机制。这种基于数据关联的动态监测,恰好能弥补人工审核中“疏漏率随工作量增加而上升”的天然缺陷。
在临床教学领域,AI的潜力更体现在标准化与个性化的平衡上。医学教育的核心是培养临床思维,但传统案例教学受限于师资经验与案例数量,难以覆盖复杂多变的真实场景。
AI若能基于海量临床数据构建虚拟诊疗环境,既能通过标准化病例保证考核公平,又能通过算法生成个性化挑战,帮助学生应对“书本知识与临床实践脱节”的普遍难题。
技术无法替代的“人文与制度”
然而,AI的应用必须止步于“辅助工具”的定位,因为医学教育的核心矛盾,学术诚信、教育公平、伦理判断,本质上是人性与制度的问题,而非技术能独立解决。
学术诚信层面,AI可以识别文字抄袭,却无法判断研究数据的主观造假;可以监测论文逻辑的一致性,却无法替代研究者的学术良知。
正如协和事件所揭示的,即便技术能发现形式上的异常,若缺乏对“学术不端零容忍”的制度共识,预警也可能被人为忽视。
教育公平层面,AI算法的“中立性”依赖于训练数据的客观性,若输入数据本身隐含资源倾斜,例如优质实习机会的分配不均,技术反而会成为“放大不公的工具”。
更关键的是,医学教育不仅是知识传递,更是人文精神的培育。AI可以模拟病例,却无法复制资深医师面对患者时的共情能力;可以计算治疗方案的成功率,却无法教会学生如何与患者家属沟通病情。这种“技术无法替代的人文温度”,决定了AI永远不能主导医学人才的评价标准。
平衡“技术赋能”与“制度约束”
国家卫健委“严禁AI自动开方”的规定,为医学教育领域的技术应用提供了重要原则:技术创新必须嵌套在制度框架内。
具体而言,可建立三层边界:
一是功能边界,明确AI不得参与核心决策,如学位授予、医师资格认证等必须由人类专家最终判定;
二是责任边界,AI的监测结果仅作为“线索”而非“结论”,所有异常标记必须经人工复核后才能定性,避免“技术教条”导致的误判;
三是伦理边界,AI应用需通过伦理审查,确保其不侵犯学生隐私,过度采集个人数据,不强化教育资源的马太效应。
同时,监管重心应从“技术升级”转向“制度适配”。例如,针对AI可能出现的误判,需配套申诉机制;针对技术无法覆盖的灰色地带,需完善学术委员会的仲裁流程。唯有技术赋能与制度约束形成合力,才能避免“用AI填补漏洞,却因制度缺失产生新漏洞”的循环。
协和事件与卫健委的通报,与其说是对某所院校的警示,不如说是对整个医学教育体系的提醒。在技术快速渗透的时代,我们需要的不是“技术万能论”的狂热,也不是“拒绝变化”的保守,而是清醒地认识到AI能成为堵住漏洞的“补丁”,但前提是先织好“制度与人文”的底色。
医学教育的终极目标,是培养“既懂技术又有人文”的医者,而技术的价值,正在于让这个目标的实现更高效、更公平,而非偏离本质。