张文宏认为:
关于患者自诊的风险: 患者自诊缺乏关键的“人机协同”把关机制。医生具备识别AI“幻觉”或错误建议的鉴别能力,临床医生作为最终决策者才能守住安全底线,而普通患者不具备这种能力。
关于医疗责任与信任: 医疗行为的责任主体必须是医生,患者自诊一旦出错,既无专业人员兜底,也面临法律追责缺失的困境。此外,若患者绕过医生直接信赖AI,将进一步削弱医患信任,阻碍分级诊疗落地。
关于AI的应用边界: AI可以作为医生的“第二意见”或“风险提示”工具,但不具备直接向患者输出最终诊断结论的角色。对于复杂严重疾病,应推广由“AI初筛+医联体上级专家复核”构成的区域AI集中诊断中心模式。
关于医生培训与法律原则: 需要实施“AI增强型”医生培训,培养能驾驭AI的“看门人”,同时确立“医生负全责、AI来辅助”的法律原则,既防止医生推卸责任,也警示患者不可盲从系统建议。
关于AI的服务价值: 应利用AI承担慢性病随访、数据监测等重复性工作,将医生从繁琐事务中解放出来,使其能专注于加强医患沟通和提供人文关怀。
“总而言之,AI应成为赋能基层医生、推动分级诊疗落地的利器,而非患者手中不可控的‘听诊器’。要始终坚持‘医生主导、AI辅助’的原则,积极推动AI进入基层,但是更要强化基层医疗线下能力的建设,才能真正确保医疗体系的安全、公平与高效。”张文宏说道。
2026年中国《政府工作报告》提出,要深化拓展“人工智能+”,促进新一代智能终端和智能体加快推广,推动重点行业领域人工智能商业化规模化应用,培育智能原生新业态新模式。
全国人大代表、科大讯飞董事长刘庆峰表示,AI已经可以诊治2600多种疾病,且在不断完善。在国家级医师资格考试中,AI成绩已超过99%的基层医生,“完全可以赋能基层,大幅提升诊疗效果。”