【摘要】 2026年1月10日,张文宏教授在香港高山书院十周年论坛上的"拒绝AI"言论,成为2026开年医疗科技界最大的"黑天鹅"事件。在国产大模型(如DeepSeek、文心等)经历了一整年的狂飙突进后,这一来自临床顶层专家的"急刹车",揭示了医疗数字化转型中"技术狂热"与"临床理性"的激烈碰撞。本文将结合2026年最新的宏观数据与政策风向,深度剖析该事件背后的行业逻辑。
一、 事件还原:2026年的"理性回归"
时间锚点: 2026年1月10日
事件背景: 高山书院(Gaoshan Academy)十周年庆典论坛(香港)
在AI大模型全面渗透各行各业的今天,国家传染病医学中心主任、复旦大学附属华山医院感染科主任张文宏的一番话显得格格不入。据澎湃新闻及联合早报(2026年1月12日)报道,张文宏明确表示:"我是拒绝把AI引入我们的医生的日常生活(病历系统)。"
这一表态并非简单的"反技术",而是针对2025年"百模大战"后医疗行业出现的盲目跟风现象的一次纠偏。张文宏划出了三条不可逾越的红线:
红线一:临床思维的"去技能化"风险
现象: 2025年的一项行业调研显示,部分实习医生在书写病历和鉴别诊断时,对AI生成内容的依赖度超过60%。
张文宏观点: 这种依赖就像"学步车",会让年轻医生丧失独立行走的肌肉记忆(临床直觉)。
红线二:医疗的人文"温度"不可替代
医疗不仅是治愈(Cure),更是关怀(Care)。AI无法模拟医生握住患者手时的温度,也无法感知患者眼神中的恐惧。
红线三:反对"算法泰勒主义"
坚决反对医院管理者利用AI监控医生的工作时长或通过算法强制设定KPI,这会加剧医生的职业倦怠。
(表格:张文宏对医疗AI的"灰度"态度解析)
| 应用场景 | 态度评级 | 核心理由(基于2026年现状) |
|---|---|---|
| 辅助科研/文献检索 | ✅ 大力支持 | 面对每年百万级的医学新文献,AI是最高效的筛选工具。 |
| 影像辅助诊断 | ⚠️ 审慎支持 | 在肺结节、眼底病变等标准任务上已成熟,但需人工复核。 |
| 临床决策/自动开方 | ❌ 坚决拒绝 | 责任主体缺失。AI产生幻觉(Hallucination)导致的误诊,目前法律无法定责。 |
| 年轻医生培养 | ❌ 严令禁止 | 必须先学会"徒手开刀",才能使用"达芬奇机器人"。 |
| 资料来源:高山书院十周年论坛实录、澎湃新闻(2026.01.12) | ||
二、 宏观数据透视:繁荣背后的"虚火"
虽然专家示警,但资本市场的车轮滚滚向前。根据IDC China与中国信通院发布的最新数据,2026年中国医疗AI市场正处于"深水区"博弈阶段。
1. 市场规模:千亿赛道的结构性分化
2025年被称为"医疗大模型应用元年",市场经历了爆发式增长。预计到2026年底,核心市场规模将逼近千亿大关,但"软硬不均"现象严重。
_20260115085015A062.png)
2. 渗透率倒挂:越核心,越难进
Gartner 在2026年初发布的《医疗技术成熟度曲线》中指出一个尴尬数据:
外围业务(挂号、导诊、健康咨询): AI渗透率已达 85%。
核心业务(重症诊疗、手术规划): AI实际落地率不足 12%。
这验证了张文宏的判断:在关乎生死的复杂决策面前,AI目前的智商仍不足以通过图灵测试。
三、 深度博弈:为何2026年更需要"刹车"?
为什么在技术比2024、2025年更成熟的2026年,张文宏反而喊出了最强烈的反对声?
1. "幻觉"并未根除:从显性错误转为隐性误导
经过一年的迭代,大模型的"显性错误"(如胡说八道)已大幅减少,但"逻辑陷阱"(看似正确实则错误的推理)却更加隐蔽。
风险点: 这种高拟真的错误极难被疲惫的医生发现,一旦进入病历系统,将导致后续诊疗方案的系统性偏差。
2. 责任归属的法律真空(Legal Vacuum)
截至2026年1月,我国《医疗人工智能应用立法草案》仍在审议中。
核心矛盾: 如果AI建议的用药方案导致患者过敏休克,是追责点击鼠标的医生,还是追责算法供应商? 在这个法律闭环打通之前,任何三甲医院负责人的"拒绝"都是基于风险控制的理性选择。
3. 数据孤岛(Data Silos)依旧耸立
虽然国家数据局大力推动数据要素流通,但三甲医院的核心临床数据(EMR)依然是"高墙深院"。
后果: 大多数通用医疗大模型只能"吃"教科书和公开论文长大,缺乏一线临床的"隐性知识"(Tacit Knowledge)。这也解释了为什么AI能考过执业医师资格证,却看不好一个复杂的发烧病人。
四、 未来路径:从"替代者"退回"副驾驶"
张文宏的"拒绝",实则是为AI在医疗领域的定位进行了重新校准。2026年及以后,正确的打开方式是 Human-in-the-loop(人在回路)。
1. 政策风向:国家卫健委的"指挥棒"
参考国家卫健委最新发布的指导意见,AI的角色被严格限定为:
角色定位: Copilot(副驾驶),而非 Autopilot(自动驾驶)。
红线机制: 涉及诊断、治疗方案生成的环节,必须实行"双签字"制度(AI预生成 + 医生实名确认)。
2. 医生能力的2.0重构
未来的名医,不再是记忆力最好的医生(这方面比不过AI),而是判断力最强的医生。
新技能树: 医学院校正在将"提示词工程(Prompt Engineering)"与"算法偏差识别"纳入必修课。医生必须具备一眼看穿AI逻辑漏洞的能力,才能驾驭这个强大的工具。
五、 结语
2026年,站在高山书院十周年的讲台上,张文宏教授的一席话,不是为AI时代的医疗行业泼冷水,而是穿上了防护服。
核心结论:
AI进医院的"狂飙突进时代"已结束,2026年进入"去伪存真"的理性验证期。
拒绝盲从AI,正是为了更好地使用AI。 只有当医生具备了超越算法的独立人格与临床思维,人机协作的闭环才能真正跑通。
在技术彻底学会"悲天悯人"之前,把最后决定权留在人类医生手中,是文明的底线。