过去10年里,人工智能以不可阻挡的态势发展着,并改变着人类社会的方方面面。其中,医疗健康领域的AI应用更是被寄予厚望。图灵奖得主、深度学习先驱Hinton甚至预测,深度学习可能会在未来5-10年内超越放射科医生。不过,随着AI应用的普及,相应的问题也不断显现,业界认为,如果任由这些问题发展,或将导致“人工智能家长作风”的流行并且危及患者的自主性。
关注医疗科技的读者朋友们会发现,越来越多的头条新闻宣称人工智能技术可以诊断一系列疾病,并且比受过医学训练的专业人员更好、更快、更便宜。比如在2020年5月,波士顿大学医学院就曾公布一项研究指出,他们发明了一种基于人工智能的计算机算法,该算法通过整合脑部核磁共振成像、认知障碍测试以及年龄和性别数据,准确预测阿尔茨海默病的患病风险,并对是否患病做出诊断。
然而现实是,其中许多技术都存在众所周知的问题。这些系统往往是根据有限或有倾向性的数据进行训练的,它们带给女性和有色人种的效果往往不如带给白人男性的效果好。不仅如此,这些系统用来训练的一些数据也是完全错误的。
【资料图】
图源:Pixabay
同时,研究人员也指出了另外一个值得关注的问题:随着这些技术开始渗透到医疗保健环境中,我们将看到“人工智能家长作风”的兴起。自医学专业诞生以来,医学上的家长主义就一直饱受争议。但现在,医生可能倾向于相信人工智能,而牺牲或忽视患者的生活经验和他们自己的临床判断。
人工智能已经被用于医疗保健。一些医院使用这项技术来帮助对病人进行分诊,还有些医院和医生用它来帮助诊断,或者制定治疗计划。但英国牛津大学技术与监管教授桑德拉·瓦赫特表示,人工智能被采用的实际程度尚不清楚。“有时我们并不知道现在使用的是哪种系统。”瓦赫特说。但她也认为,随着技术的进步和医疗保健系统倾向于寻找降低成本的方法,它们的普及程度可能会增加。
近期,《自然》杂志发布的一篇关于通用医疗AI临床应用潜力和局限的研究就提到了通用医疗AI模型在6大具体医疗场景有望早日落地,包括“出具影像学报告”、“辅助手术操作”、“陪伴患者聊天的机器人”等。
研究表明,医生们可能已经对这些技术充满了信心。在几年前发表的一项研究中,肿瘤学家被要求将他们对皮肤癌症的诊断与人工智能系统的结论进行比较。他们中的许多人接受了人工智能的结果,即使这些结果与他们自己的临床观点相矛盾。当然,我们也要面对一个非常现实的风险,即我们将更加依赖这些技术,这就是所谓的家长主义的体现。
加拿大安大略省病童医院的梅丽莎·麦克拉登和罗克珊·基尔希在最近的一篇论文中写道:“家长主义集中体现在‘医生最权威’的话语权中。”意思就是,医学培训使医生成为为病人做出决定的最佳人选,而不管那个人的感受、信仰、文化和其他任何可能影响我们所做选择的因素。
麦克拉登和基施还指出,“当人工智能被定位为最高形式的证据,家长主义的主角将由无所不知的医生变成无所不知的人工智能,因此会有一种‘算法家长主义’的增加趋势”。这个现象将带来许多问题。
首先,如上所述,人工智能并不是绝对正确的。这些技术都是根据带有缺陷的历史数据集进行训练的。沃赫特说:“你没有把一个算法送到医学院,然后在那教它如何了解人体和疾病。”
因此,麦克拉登和基尔希写道,“人工智能无法理解,只能预测。”例如,人工智能可以接受训练,以了解过去皮肤细胞活检中哪些规律与癌症诊断有关。
图源:Pixabay
但是,那些过去做出这些诊断并收集了这些数据的医生,更有可能遗漏了有色人种的病例。识别过去的规律,并不一定能告诉医生他们需要知道的、所有关于病人应该如何继续治疗的一切。今天,医生和病人应该在治疗决策过程中合作。人工智能的引入和更多使用,不应减少患者的自主权。
那么,我们如何才能防止这种情况的发生呢?一个潜在的解决方案是,设计在更优秀的数据集上训练的新技术。例如,一种算法可以根据关于不同社区的信仰、多样化的生物数据进行训练。但在我们能够做到这一点之前,我们需要真正走出去收集这些数据——这是一项耗时、耗力、耗钱的行动,可能不会吸引那些希望使用人工智能来削减成本的人。
这些人工智能系统的设计者应该仔细考虑将被他们评估的人的需求。他们需要记住,对某些群体有效的技术不一定对其他群体有效,不管是因为他们在生物学上的不同,还是他们的信仰不同。“所有人都不一样,”瓦赫特说。
最好的办法可能是,以与我们使用成熟的技术相同的方式使用这些新技术。X 光和核磁共振成像,再加上其他健康信息,可以帮助我们进行诊断。人们应该能够选择他们是否想做扫描,以及他们想如何处理他们的结果。我们可以利用人工智能,但不能放弃我们的自主权。
事实上,关于在应用人工智能过程中如何保持人类尊严和自主权的话题,一直伴随着人工智能的发展应用,在医疗健康领域更是如此,因为这是一个关系到人类生命健康的领域,也是最容易造成不可逆转伤害的领域。
2021年6月28日,世界卫生组织(WHO)正式发布了“世界卫生组织卫生健康领域人工智能伦理与治理指南(Ethics and Governance of Artificial Intelligence for Health: WHO Guidance)”,其中提到,人工智能带来机会的同时也伴随着风险和挑战,包括不符合伦理地收集和使用健康数据、算法中的偏见、人工智能对患者安全的风险、网络安全和对环境产生的负面影响。
该报告提出了确保人工智能符合所有国家公共利益的六项原则,其中一条就是保护人类自主性:在卫生健康方面,这意味着人类自身应确保继续掌控医疗决策过程和对医疗系统的控制;隐私和保密应受到保护,患者必须通过适当的数据保护法律框架给予有效的知情同意。
回顾人工智能发展历史,我们会发现,过去十年是AI技术突破最为频繁的阶段,先是2016年AlphaGO在围棋之战中获胜,之后是2021年AlphaFold2震惊生命科学领域,再到如今的ChatGPT,人工智能已然来到了时代的C位。
在《麻省理工科技评论》评出的“全球十大突破性技术”榜单中,人工智能技术也是屡屡上榜。其中,DeepMind 开发的AlphaFold2软件入选2022年“全球十大突破性技术”,该软件使用深度学习技术来预测蛋白质的形状,甚至精确到原子,这是计算机第一次达成与实验室中使用的速度较慢但结果准确的技术相当的水准。DeepMind通过解决生物学中一个困扰研究者长达50年的问题,为药物发现和设计开辟了新的道路。
而ChatGPT背后的大语言模型的上一代GPT-3也在2021年入选。《麻省理工科技评论》认为,GPT-3是继DeepMind的AlphaGo和IBM的DeepBlue之后,AI领域最能引发公众想象的存在。如今ChatGPT的火热也验证了这一判断。
目前,由《麻省理工科技评论》携手DeepTech推出的《科技之巅(20周年珍藏版)》已正式上线发售,该书收录了过去20余年里所评选的200多项“全球十大突破性技术”,点击下图可以购买图书!让我们一起鉴过往,知未来!
关键词: