分析总结AI医疗应用中需注意的六大问题
1、数据泄露问题
医疗数据包括患者的身份信息、健康状况、疾病诊疗情况、生物基因信息等,不仅涉及患者隐私,还具有特殊的敏感性和重要价值,一旦泄露,可能给患者带来身心困扰和财产损失,甚至对社会稳定和国家安全造成负面影响 。然而,医疗AI的研发与应用,必须依赖大量的医疗数据用于算法训练,数据量越大、越多样,其分析和预测的结果将越精准 。但数据收集、分析处理、云端存储和信息共享等大数据技术的应用,加大了数据泄露的风险 。
事实上,近年来医疗行业已经成为数据泄露的重灾区 。2017年全球15%的数据泄露事件来自医疗保健行业,仅次于金融业 。我国医疗数据泄露事件也不鲜见 。据《法制日报》2017年9月报道,某部委医疗信息系统遭到黑客入侵,被泄露的公民信息多达7亿多条,8000多万条公民信息被贩卖 。2018年多家医疗机构计算机系统被勒索病毒攻击 。2020年4月,某AI医学影像公司遭黑客入侵,其AI辅助系统和训练数据被窃取,并以4比特币(约合18万人民币)的价格在暗网上公开出售 。这也是国内首家被曝数据泄露的医疗AI公司案例 。
文章插图
2、医疗安全问题
尽管医疗AI被赋予了准确、高效、安全等优点,但医疗活动本身具有一定的风险性和不确定性,加上手术机器人等医疗AI在应用中需要密切接触患者身体或直接作用于人体某些器官,不可避免地面临潜在风险 。主要包括技术和人为两方面的因素 。
从技术来看,国内医疗AI的发展在当前还处于起步阶段,产品性能还不稳定,也缺乏相应的标准和规范,安全性还有待考证,需要在实践中不断调试改进 。即使是较为成熟的进口产品,也存在诸多问题 。据美国媒体报道,使用沃森肿瘤解决方案的医生发现,沃森经常会推荐不准确甚至错误的治疗建议 。如果医生据此决策,后果难以设想 。
人为因素主要是医生操作不当 。在现阶段,医疗AI还只是机器或程序,它不能根据实际情况调整自己的行为,必须依赖医生对机械进行操控或做最终决策 。在应用之初,医生可能因经验不足、操作不熟练而引发机器故障,有的甚至会造成严重后果 。如2015年2月,英国首例机器人心脏手术过程中出现“机器失控”,主刀医生在慌乱中应对失当,最终导致手术失败,患者一周后死亡 。这起事故的原因,除机器故障外,与主刀医生操作经验不足、未充分估计手术风险有很大关系 。
3、责任界定问题
传统医疗模式下,医疗机构和医生是医疗服务的责任主体 。引入AI后,改变了传统的医患关系格局,医生与患者之间增加了“AI医生”及其设计制造商,这就使得医疗责任认定问题变得复杂起来 。一方面,在当前技术条件下,无论是人类医生,还是医疗AI,都不能达到100%的准确率,出现误诊和漏诊在所难免 。如果在诊治过程中,医生依赖AI出具的报告做出错误的判断,给患者的疾病诊治和身心健康带来伤害时,其责任到底该由谁来承担?另一方面,随着AI技术的发展,今后的AI将拥有越来越强大的自主能力,在医疗活动中将扮演越来越重要的角色,甚至可能独立做出诊断结果,医疗责任界定问题将更加突出 。当医疗AI作为直接“参与者”,在手术、康复训练和护理中出现伤害患者的异常行为,或间接性地对患者造成欺骗性、虚幻性消极影响时,是否可以追究它们的伦理责任和道德义务?它们是否具有或在多大程度上具有承担医疗责任的能力?因此,有必要加强医疗AI背景下的风险责任规制,以确保患者和公众的健康权益 。
4、公平受益问题
AI应用于医疗领域,大大提高了诊疗效率和精准度,无疑会给患者带来巨大福音,但也存在不能公平受益的问题 。一方面,由于医疗AI是新兴的医学高新技术,在目前阶段还属于稀缺资源,加上医疗AI的研发成本高昂,因而在临床应用中收取费用较高,且一般不在医疗保险报销范畴 。这就使得医疗AI成为少部分人群能够享用的技术,大多数患者由于经济能力有限,只能望机兴叹 。另一方面,基于算法和大数据的AI程序并非完全客观公正,其中可能隐含着某些偏差或歧视 。这些偏差或歧视可能来自算法设计者的价值偏好,也可能来自有偏见的训练数据,还可能来自输入数据的抽样偏差 。由于深度学习是一个典型的“黑箱”算法,具有不透明性和不可解释性,从而使这些偏见难以被觉察,并在深度学习中被不断复制和放大,最终导致预测结果的偏差,可能使某些人群在医疗评估中受到歧视性对待,甚至可能引发医疗安全事故 。
5、医务人员的未来定位问题
AI有着远超人类的学习能力和计算能力,其准确、高效和不知疲倦等优势,将极大提高工作效率,降低劳动成本,并逐步取代越来越多的人工劳动 。2017年,英国一家名为“改革”的智库发布报告称,机器人未来将有可能取代英国公共部门近25万个岗位 。在医疗领域,AI正逐渐取代人类从事一些简单的医疗后勤和技术工作,如智能导诊、微信挂号缴费、机器人发药等,并在医学影像、辅助诊疗等核心医疗环节发挥着越来越重要的作用,医师的主体性地位日益受到挑战 。由此引发了人们对医务人员是否能被AI取代的争论 。
医疗行业有其特殊性,涉及人与人之间的沟通和交流,需要医生的个人经验和情感投入,这是AI无法取代的 。我国医疗资源短缺,基层医生经验不足,有了AI的辅助,医务人员不仅可以更好地诊治患者,还可把更多的精力用于与患者沟通,给予患者更多的人文关怀 。从这一点来看,AI不仅无法取代医务人员,还会使他们的工作更有价值,更有人情味,更能回归医学是人学的本质 。但是,医疗AI的应用,必将推动现有医疗模式发生变革,也必将对医务人员提出更高的要求,如果医务人员不能及时完善知识结构,提升沟通技巧和人文素养,是难以胜任AI时代的医疗工作的 。
6、患者信任问题
医疗技术的发展最终是为患者服务的,必须关注患者对医疗AI的信任问题 。据笔者的一项调查显示:虽然大多数患者对医疗AI持乐观、期待态度,表示对拥有智能医疗设备的医院会更加信任,但对AI应用于临床诊断和治疗,患者的接受度和信任度并不高,且AI介入的工作越多,占据的角色越重,患者的接受度和信任度反而越低 。
【分析总结AI医疗应用中需注意的六大问题】 分析其发因,主要有两个方面:一是当前的医疗AI还处于初级阶段,患者对其缺乏深层次了解,加上很多技术尚未成熟,患者对其安全性、易用性等心存担忧,因而对其在医疗活动中的深度介入持戒备心理 。二是医疗AI改变了传统的就医模式和医患关系,“医”不再只是有情感的人,也可以是智能机器或程序,传统的医患交流可能更多地变成“人机对话” 。因此,面对不会说话、冷冰冰的机器,患者对其沟通能力、理解能力以及应变能力等存在怀疑态度,进而影响到他们对医疗AI的信任度 。可见,AI能否在医疗领域顺利应用,还需过患者信任这一关 。
责编AJX
推荐阅读
- 初二语文下册知识点总结
- 为助抗疫,TDK压力传感器应用于医疗设备
- 工业机器人和机床应用的时序挑战分析
- 缺页异常是匿名映射缺页异常分析
- 人工智能在医疗实践中的广泛应用还需要一段时间?
- 直流减速电机的用途分析
- 一块晶圆的产能分析
- UTR系统的优势及解决方案
- 从四个方面分析云游戏自动音视频测试
- 四款经典的恒流源电路分析