还剩14页未读,继续阅读
本资源只提供10页预览,全部文档请下载后查看!喜欢就下载吧,查找使用更方便
文本内容:
可解释人工智能医疗应用的伦理问题2023-02-2210:51摘要可解释人工智能推动壁发展的同时引发了不同以往的伦理挑战,这种新挑战表现在事前解释、事后解释两个方面导致可解释人工智能医疗应用伦理问题的技术性根源是可解释性技术的负面效应,其社会性根源是相关道德原则和立法的缺失,主体性根源在于各利益相关方的利益多样性因此,强化技术创新、可解释人工智能医疗应用伦理教育、对医护人员的培训和跨学科合作,完善相关道德原则和法律法规,实现个性化的交互式解释等对策是问题的解决之道引言可解释人工智能已成为学术界、产业界和政府部门研究的热门话题全世界范围内都在积极探索可解释性的人工智能,例如2016年美国国防部高级计划署DARPA就启动了一项名为可解释人工智能的大型项目explainableartificialintelligenceXAI02019年欧盟委员会发布《人工智能道德准则》EthicsGuidelinesforTrustworthyAI强调要提高人工智能的透明度和实现可追溯性2017年我国也在《新一代人工智能发展规划》中明确将实现具备高可解释性、强泛化能力的人工智能”作为未来我国人工智能布局前沿基础理论研究由于医学领域的高风险性,人工智能在医疗领域的可解释性受到了更加广泛的关注在医疗领域,人工智能的可解释性有助于提的立法的滞后同样造成了一系列的道德伦理问题面对层出不穷的可解释人工智能医疗应用伦理问题,法律显现出滞后性在我国,可解释人工智能医疗应用并未形成一套完善的法律体系,如果可解释人工智能在医学诊疗中发生医疗事故,那么谁该为此负责?如果医院收集和存储的患者信息遭遇泄露,又该由谁负责?
3、主体性根源各利益相关者的利益多样性在复杂的技术系统中,可解释技术的负面效应是造成可解释人工智能医疗应用伦理问题的直接原因,但是技术离不开社会,可解释技术的开发和应用是基于社会中的各个组织与用户来实现的,在这个新型系统中的各个主体才是带来医疗伦理问题的内在根源所在首先,一些道德感不强的个体为了谋取个人私利,利用可解释性技术的缺陷攻击人工智能医疗模型,践踏医疗伦理道德规范;其次,可解释性技术设计主体为了获得某些利益,或者为了表达自己的一些主观观点而设计带有偏见性的解释方法比如,根据Linardatos等[21]的研究,目前现存的可解释性方法无论它们应用到医疗过程的哪个步骤,都过于关注特定群体层面的公平,而忽视了其他群体;最后,由于可解释性与人的认知密切相关,导致对于可解释的评估还未形成一个科学的评价标准开发人员往往是站在开发者的角度创建解释,因此,对于非专业用户来说,解释常常难以被理解可解释人工智能医疗应用伦理问题反思与应对尽管可解释人工智能医疗应用的伦理问题不可避免,但我们不能止步不前,我们需要探讨应对之法
1、强化技术创新可解释性技术的负面效应是可解释性AI医疗应用伦理问题产生的技术根源,但其伦理问题的解决也需要强化可解释性技术的创新发展,借助技术手段消解伦理之困首先,对于事前解释来说,其面临的最大挑战是消除模型可解释性和准确性之间的矛盾因此,未来在事前解释方法的设计上,应该重点平衡二者之间的矛盾其中,一种直观的方法是构建基于因果结构的机器学习模型,使模型具备发现数据间因果关系的能力;其次,对于事后解释来说,其面临的最大挑战是近似的解释往往无法正确反映待解释模型的实际运行状态和真实决策行为未来一个有前景的潜在研究方向是设计数学上与待解释模型等价的解释方法或解释模型
[16];最后,二者同时面I缶的挑战是来自外部的对抗攻击对于研究人员来说,未来同样可以利用对抗训练增强模型的鲁棒性
2、强化可解释人工智能医疗应用伦理教育既然可解释人工智能医疗应用中的相关主体是导致伦理问题的深层根源,那么加强相关主体的伦理教育是解决问题的必由之路因为技术人员参与了人工智能的全程开发,数据收集、算法设计、性能测试等都是由技术人员操作,所以技术人员的道德品质将直接影响到目标用户的相关权益因此,在可解释AI设计的过程中,加强对设计人员的伦理教育对减少医疗伦理失序问题尤为重要第一,鼓励技术人员参加可解释人工智能相关的伦理研讨会在系统开发的过程中,研究人员往往都是把重点放在算法本身,但是,可解释人工智能并不是简单的技术问题,它还涉及一系列伦理方面的问题参加相关的伦理研讨会有助于提高设计人员在开发过程中的伦理意识,减少歧视偏见等问题的产生第二,将伦理教育融入开发人员的培养之中例如,在大学阶段开设可解释人工智能伦理教育的相关课程,举办多种形式的人工智能伦理专题讲座
3、强化对医护人员的培训和跨学科合作加强对医护人员的培训和跨学科合作有助于可解释人工智能医疗应用伦理问题的产生调查显示
[22]大多数患者认为人工智能辅助诊断是值得信赖的并且可以提高医生的诊断能力,然而所有的调查者都坚持让医生来解释人工智能辅助诊断作为医生,不一定需要精通计算机科学,但是他们应该充分了解与AI医疗相关的概念、技术和伦理挑战,这些知识能够使他们在工作场所批判地检视人工智能,可以向患者清楚地传达人工智能的局限性,明确需要注意的风险和危害,从而赋予患者更多的自主权和决策权从长远来看,我们还应该将人工智能知识作为专业医疗课程的一部分,作为住院医师培训计划的一部分,教授医生医疗人工智能相关的知识,鼓励他们参加关于人工智能伦理的研讨会此外,还需加强跨学科合作,因为人工智能最终面对的用户是人类,基于此,人工智能不是一个单纯的技术问题,它涉及心理等社会学科,因此我们需要优先考虑跨学科合作例如,人工智能科学家需要医疗专家的指导来选择医疗上重要并且生物学上可信的保健应用,而医疗专家则需要人工智能科学家的指导来选择概念上精心设计和技术上可解决的预测问题
4、完善相关道德原则和法律法规相关道德原则和立法的缺失是可解释人工智能医疗应用伦理问题产生的重要原因之一,而创建完善相关道德原则和法律法规是解决问题的必由之路这就需要创建一个通用的可解释人工智能医疗应用的道德标准,确保应用主体中的组织与个人对可解释人工智能医疗应用原则有着共同的认识,有助于减少在数据采集和算法设计过程中因利益多样性而产生的歧视与偏见另外在相关法律法规中,一方面,要明确医疗责任主体具体应该如何认定,防止相关人员躲避医疗责任;另一方面,要制定针对患者隐私保护方面的法律法规,避免泄露患者个人隐私,进一步增强人们对人工智能的信任此外,对于为了谋取私利,利用可解释技术攻击预测模型,肆意践踏医疗伦理道德规范的不法分子,法律要进行严厉的打击国家以及政府部门应该尽快制定出有关可解释人工智能医疗应用的发展政策,只有由政府及其相关部门为可解释人工智能医疗应用的发展提供政策保证和法律监督,才能够保证我国在可解释人工智能医疗应用伦理监管方面处于领先位置随着可解释人工智能医疗应用方面有关道德原则和法律法规的不断健全,可解释人工智能将会迎来更好的生存与发展契机
5、实现个性化的交互式解释实现个性化的交互式解释有助于提升用户对人工智能系统的信任随着社会发展与技术的进步,未来可解释人工智能将在更加丰富的医疗情境下被更为广泛的人群所使用不同的人群、不同的医疗情境对人工智能解释形式与内容的期望都是不同的
[23]因此个性化的交互式解释是非常有必要的这就要求在开发可解释人工智能时,应当充分考虑人这一主体,充分调研目标用户的背景与需求,当解释系统的交互性得以提升时,用户能够获取更加持续的解释,深入了解系统背后的运行逻辑,用户才能被赋予更多的自主权和决策权,进而增强对可解释人工智能的信任结论与展望可解释人工智能在推动医学向前发展的同时也引发了不同以往的伦理挑战审视未来的可解释人工智能医疗应用,既要关注可解释性技术发展为人工智能医疗应用带来的有利条件,更需要研究者、管理者等认识到可解释人工智能医疗应用所处的现实困境,为可解释人工智能医疗应用伦理问题的解决提供可行路径,共同推动安全可靠的可解释人工智能在医疗领域的发展参考文献/资料
[1]VanLentMFisherWMancusoM.Anexplainableartificialintelligencesystemforsmallunittacticalbehavior[C]//AAAI2004:ProceedingsoftheNationalConferenceonArtificialIntelligence.AAAIPressz2004:
900907.
[2]GunningD^haDW.DARPA〃sExplainableArtificialIntelligenceXAIProgram[J].AiMagazine2019402:44-
58.
[3]ArrietaAB;Diaz-RodnguezN/DelSerJ/etal.ExplainableArtificialIntelligenceXAI:Concepts/taxonomieszopportunitiesandchallengestowardresponsibleAI[J].Informationfusion202058:82-
115.NafisahSLMuhammadG.Tuberculosisdetectioninchestradiographusingconvolutionalneuralnetworkarchitectureandexplainableartificialintelligence[J].NeuralComputingandApplications/2022:l-
21.ThimoteoLMzVellascoMMzAmaralJzetal.ExplainableartificialintelligenceforCOVID-19diagnosisthroughbloodtestvariables[J]JournalofControlzAutomationandElectricalSystems2022332:625-
644.CuriaF.Cervicalcancerriskpredictionwithrobustensembleandexplainableblackboxesmethod[J].HealthandTechnology2021zll4:875-
885.DuMzLiuNHuX.Techniquesforinterpretablemachinelearning[J].CommunicationsoftheACMz201963l:68-
77.HolzingerA^iemannQPattichisCS^tal.WhatdoweneedtobuildexplainableAIsystemsforthemedicaldomain[J].arXivpreprintarXiv/2017:l-
28.RudinC.Stopexplainingblackboxmachinelearningmodelsforhighstakesdecisionsanduseinterpretablemodelsinstead[J].NatureMachineIntelligence201915:
206215.
[10]王星刘晓燕.医疗大数据环境下的疾病预测模型研究[J]制造业自动{^2022447:24-
27.]陈园琼,邹北骥张美华,等.医学影像处理的深度学习可解释性研究进展[几浙江大学学报理学版202148⑴:18-
2940.]陈权,李莉陈永乐,等.面向深度学习可解释性的对抗攻击算法[J].计算机应用2022422:510-
518.RiccardoG^nnaM^alvatore^etal.ASurveyOfMethodsForExplainingBlackBoxModels[J].ACMComputingSurveysz2018z515:l-
42.BabicBzGerkeSzEvgeniouTzetal.BewareexplanationsfromAIinhealthcare[J].Science20213736552:284-
286.]RajpurkarPJrvinJ^Zhu^etal.ChexnetRadiologistlevelpneumoniadetectiononchestx-rayswithdeeplearning[J].arXivpreprintarXiv
2017.]纪守领,李进锋杜天宇,等.机器学习模型可解释性方法、应用与安全研究综述[J].计算机研究与发展20195610:
20712096.ParikhRBJeepleS^avatheAS.Addressingbiasinartificialintelligenceinhealthcare[J]Jama201932224:2377-
2378.GhassemiMzOakdenRaynerLBeamA.ThefalsehopeofcurrentapproachestoexplainableartificialintelligenceinhealthcareUl.TheLancet.Digitalhealth2021z3H e745-e
750.
[19]张娟患者自主权:内涵、困境及突破——以马克思人学交往理论为分析视角[J].福建论坛人文社会科学版20183:75-
82.HeX/HongYzZhengX/etal.WhatAretheUsersNeedsDesignofaUserCenteredExplainableArtificialIntelligenceDiagnosticSystem[J].InternationalJournalofHumanComputerInteractionz2022:l-
24.LinardatosP^apastefanopoulosVXotsiantisS.Explainableai^reviewofmachinelearninginterpretabilitymethods[J].Entropyz2020z23l:
18.FinkCUhlmann^HofmannM^taLPatientacceptanceandtrustinautomatedcomputerassisteddiagnosisofmelanomawithdermatofluoroscopy[J]JDDG:JournalderDeutschenDermatologischenGesellschaft/2018167:854-
859.]吴丹,孙国烽.迈向可解释的交互式人工智能动因、途径及研究趋势[几武汉大学学报(哲学社会科学版)202174⑸:16-
28.高模型的安全性和可靠性,增强目标用户的信任度等,但是,可解释性方法可能引发的医疗伦理问题也日益凸显探究可解释人工智能医疗应用伦理问题的意义关乎用户的安全和公平问题伦理学界从不同的角度对其进行了伦理辩护其中有两种代表性观点一种观点认为,在医疗领域中,事后可解释人工智能有助于增强用户信任、提高系统的安全性等另一种观点认为,人们应该警惕甚至是避免在医疗领域中使用事后可解释人工智能,因为事后解释可能会引发潜在的风险尽管伦理学界对此不能取得一致意见,但他们都认为探讨可解释人工智能医疗应用伦理问题对患者的安全和公平具有重要意义本文试图从科技伦理视角审视可解释人工智能医疗应用伦理问题的新挑战,以期寻求合理的解决之道可解释人工智能医疗应用伦理问题的新挑战由于考察视角的不同,可解释人工智能并没有一个标准的定义可解释人工智能来自英文ExplainableArtificiallntelligence该术语由VanLent等于2004年首次创造,用来描述他们的系统在模拟游戏应用中解释人工智能控制实体行为的能力⑴自2016年DARPA启动关于可解释人工智能的研究之后,该术语开始被普遍接受,DARPA将可解释人工智能定义为一种系统,它可以向人类用户解释其基本原理,描述其优缺点,并传达对其未来行为的理解[2]Arrieta等[3]认为,可解释人工智能指的是,针对特定的受众,通过给出细节和原因,使模型运转更清楚和更容易,被受众所理解的一项技术本文认为可解释人工智能可以定义为针对不同背景知识的目标用户,以其可以理解的方式,对模型决策过程的根据进行解释的一项技术目的就是帮助人类理解机器为什么会作出这样的决策以及决策是否可靠人工智能的可解释问题源于深度学习的黑盒〃属性所谓〃黑盒属性,指深度学习算法是不透明的不同于传统算法输入和输出之间的确定性,深度学习模型通过反向传播不断调整自己内部的参数和规则,所以人类无法理解它们的内部工作机制在某些应用领域,比如说人脸识别、文字翻译,可解释性并不是关键的要求,只要这些系统的整体性能足够好,即使系统在运行过程中出现错误,也不会造成很大的影响,因此,这些领域对人工智能系统可解释性的要求相对比较低但是,医疗领域则不同,医疗中的许多决策实际上是生死攸关的问题,微小的错误都可能会威胁到患者的生命安全,这时缺乏可解释性就成为人工智能走向临床应用的限制性因素所以,越来越多的专家学者将目光投向了人工智能在医疗领域的可解释性,各种解释方法应运而生目前,可解释人工智能在医学影像处理、疾病诊断、风险预测等方面都取得了不错的成绩例如,Nafisah等[4]利用可解释人工智能处理胸部X光片检测结核病,Thimoteo等⑸研究出通过血液检测诊断COVID-19的可解释人工智能,Curia[6]利用可解释人工智能预测患宫颈癌的风险通过给出决策依据,为临床医生提供有效的辅助信息,增加了用户的信任,改善了模型的性能尽管可解释人工智能给医学带来了很多好处,但其在医疗应用中也引发了不同以往的伦理挑战,具体而言,可解释人工智能医疗应用引发的伦理新挑战主要表现在以下两个方面L事前解释可能导致的医疗伦理问题针对深度学习的黑盒属性,人工智能专家创建了不同的解释方法根据不同的标准,这些方法又分为不同的类别Du等□根据获得可解释性的时间,将可解释性方法总体上划分为两类内在解释和事后解释这是两种不同类型的解释方法,它们以不同的方式处理不透明问题内在解释指的是模型本身可解释,因为可解释性发生在模型训练之前,所以也称为事前解释,即无需事后引入另一个解释模型就可以理解预测模型的决策依据根据解释的实现途径,又可将事前解释进一步分为两种自解释模型和内置可解释模型自解释模型就是指传统机器学习中的简单模型,例如决策树、线性回归等无论是从理论上还是理解上,这些模型都具有比较好的可解释性内置可解释模型指的是,利用某些方法构建可解释的深度神经网络模型目前,关于事前解释性的研究多局限于决策树、线性回归等结构简单的传统机器学习算法,而内置可解释模型由于对技术要求很高,暂时未取得突破性进展事前解释可能会导致医疗安全问题,其表现为以下两种情况一方面,事前解释的人工智能系统预测准确性较低,导致模型自身存在安全隐患学术界一般认为,人工智能系统的准确性和可解释性之间存在一定的矛盾,即模型的准确性越高,可解释性就越低;相反,模型的准确性越低,可解释性就越高
[8]0尽管在Rudin
[9]看来,在数据结构化并具有良好的特征时,复杂模型和简单模型之间的性能通常并没有显著差异例如,利用决策树算法构建区分感冒和咳嗽的预测模型也具有较高的准确率,基本达到诊断要求
[10]但是,这是基于医疗数据具有良好特征时,在现实情况中,绝大多数医学数据是以多种模态呈现,每种模态各有所长、相互关联,极大限制了对病症的预测和诊断
[11]0因此,虽然自解释模型自身具备良好的可解释性,但在面对多模态的医疗数据时,模型筛查水平和诊断效率与深度学习模型相比还是存在比较大的差异因此,在医疗应用中使用事前解释人工智能就意味着要以牺牲准确性为代价,从而导致人工智能系统在辅助临床医生治疗中存在安全隐患,进而给患者的生命安全带来致命的威胁另一方面,事前解释为对抗攻击提供了有利条件,导致模型自身存在医疗安全隐患对抗攻击是神经网络模型中常见的攻击方法,它通过输入人类难以察觉的微小扰动,从而使模型进行错误决策,甚至可以根据设计的扰动,输出攻击者想要的分类结果研究发现,解释方法可以本能地为对抗样本的生成提供特定区域[12]对于模型的研究者来说,可解释性技术有助于有效评估模型决策行为的安全性和可靠性,通过对抗训练,模型的鲁棒性和安全性能得到有效的提升,从而消除模型实际部署应用中的安全隐患但是,对于模型的攻击者来说,可解释方法却也为攻击者探测原始模型弱点提供了有利条件,在医学影像处理方面,对原始图像添加人眼不可分辨的扰动,对于输入中产生的微小变化,都会对深模型预测准确性产生很大的影响在临床治疗中,系统一旦受到对抗攻击的干扰,那么提供的解释结果必然会影响医生的诊断过程,甚至会误导医生的诊断而给患者带来致命的威胁
2、事后解释可能导致的医疗伦理问题事后解释指的是创建专门的解释模型来解释原始模型,即需事后引入另一个解释模型才可以理解预测模型的决策依据它往往针对的是复杂度比较高的模型[13]比如深度神经网络因为可解释发生在模型训练之后,所以称为事后解释根据解释的范围可进一步将事后可解释分为全局可解释和局部可解释全局可解释意味着用户可以通过检查复杂模型的结构和参数从而理解模型整体是怎样运行的局部可解释为模型的单个预测提供局部解释根据解释方法是否依赖具体模型内部参数,又可分为模型无关的解释方法和模型相关的解释方法,模型无关解释方法可针对任何预测模型,而模型相关解释方法则是针对特定的预测模型目前常见的事后解释方法主要有知识蒸僧、激活最大化、类激活映射、反向传播等事后解释能够在保持模型性能的基础上实现可解释,因此,目前在医疗领域主要还是依赖基于事后解释的人工智能系统事后解释主要会出现以下几种伦理问题其一,医疗责权问题将人工智能引入医疗领域本身就提高了医疗责任主体认定的复杂度在传统医疗模式下,如果发生医疗事故,医疗机构和医护人员是责任主体,而将人工智能引入医疗领域之后,医生和患者之间增加了人工智能和制造商,这就使得医疗责任主体的认定变得更加复杂即使将深度学习引入医学领域提高了医疗诊断效率和准确性,但是其应对突发情况的反应处置能力还是带来许多有待解决的问题,目前的技术条件还无法保证百分之百的医疗准确率比如在医学影像处理方面,对原始图像添加人眼不可分辨的扰动对于输入中产生的微小变化,都会对深度神经网络的预测准确性产生很大的影响,如果出现医疗事故,应该由谁负责而此时事后解释不仅仅是对传统人工智能医疗责任主体问题的放大,并且是一种颠覆Babic等[14]认为这种事后合理化的解释往往可能会成为一些利益相关者逃避医疗责任的手段因为对于自身可解释的人工智能来说,如果系统出现错误,我们可以通过回溯运行步骤找出错误的环节,事后解释却难以回溯,而且这种事后的合理化有可能还会被些利益相关者用来转移注意力例如,人工智能的制造商为了逃避医疗责任,故意设计一些对自身有利的事后解释模型当出现医疗事故时,如果医疗责任主体难以认定,患者权益将难以得到保障其二,医疗安全问题在疾病预测方面,利用可解释性人工智能取得了不错的成绩例如,Rajpurkar■等[15]基于深度学习开发了诊断肺部疾病的医疗预测模型,准确度已达到专家级诊断精度同时,通过事后解释提取模型特征,为临床医生提供了有效的辅助信息,使医生不再盲目的依赖黑匣子但是研究发现[12]攻击者可以利用事后可解释性技术对医疗预测模型进行对抗攻击一方面,在不改变解释结果的前提下,攻击者可以利用可解释性技术探测医疗模型的漏洞,诱导模型作出错误的医疗决策;另一方面,在不改变医疗模型决策结果的前提下,攻击者可以利用可解释技术干扰医疗解释过程,诱导解释方法作出错误的医疗解释相关研究表明[16]由于事后解释只是对原始模型的一个间接和近似的解释,攻击者可以还利用二者之间的不一致性设计针对系统的新型对抗样本攻击因此,在临床治疗中,系统一旦受到对抗攻击算法的干扰,那么提供的解释结果必然会影响医生的诊断过程,而错误的诊断可能会对患者生命安全产生严重的后果此外,由于事后解释的近似性,有时医生甚至可能会被误导引发错误的诊断,进而给患者带来致命的威胁其三,歧视性问题在医疗人工智能的研发设计阶段,由于训练数据偏倚等原因而将种族、性别、阶层偏见等伦理问题带入模型中,从而导致人工智能在医疗应用中出现歧视性问题例如,一种用于诊断乳腺癌的人工智能系统认为黑人女性患乳腺癌的风险更高[17]可解释性通过提高模型的透明度而被认为是防范系统偏见的有效手段,但是研究发现,目前的可解释性方法并未达到预期目标,并且对解释的依赖甚至会降低我们对这些歧视行为的警惕[18]医疗歧视引发的临床风险对患者的生理和心理都造成了严重的伤害,而且这种不平等很可能会加剧社会偏见,从而引发重大的道德问题其四,患者医疗自主权问题所谓患者医疗自主权,是指在医患关系中,以实现患者自由意志为目的,基于患者的自主能力而对生命、健康等具体人格利益进行选择与决定的抽象人格权[19]也就是说,以人工智能为辅助诊疗时,患者有权知道系统的局限性、决策的合理性等相关方面的问题对于可解释性的定义,学术界尚没有统一的标准,这是由于可解释性并不是一个单纯的技术问题,它是在人工智能与目标用户交互中才得以实现的但是研究[20]却发现,医疗领域现有的大多数可解释人工智能设计要么只关注算法本身的性能,要么就是侧重于为临床医生提供解释,往往缺乏面向患者的可解释人工智能设计实践所以,对于绝大多数没有专业知识背景的患者来说,人工智能医疗决策的根据依旧无法理解患者不知道输入数据的来源、预测模型的局限性、系统什么时候会出错等相关方面的信息,患者无法在医疗中得到有效的沟通,只能被动地去接受因此,在这个过程中,患者的医疗自主权就受到了挑战可解释人工智能医疗应用伦理问题的根源剖析鉴于以上可解释人工智能医疗应用伦理问题表现,寻求问题的根源尤其重要将从技术性、社会性、主体性三个方面探寻问题的根源所在
1、技术性根源可解释性技术的负面效应可解性技术具有两面性,它在推动医学发展与进步的同时,也难以摆脱其固有缺陷所带来的负面效应其一,医疗人工智能系统的准确性与可解释性之间存在着一种权衡即模型的准确性越高,可解释性就越高;相反,模型的准确性越低,可解释性就越低因此,对于事前解释的医学人工智能系统来说,将自己限制在充分可解释性的算法中,就意味着要以牺牲医疗准确性为代价;其二,可解释技术给对抗攻击带来了有利的条件无论是事前解释技术还是事后解释技术,都给攻击者提供了可乘之机一些不法分子会利用可解释技术探测医疗模型的漏洞,进而干扰原始医疗模型和解释模型,严重威胁着医疗人工智能系统自身的安全;其三,由于目前事后解释技术都是尝试采用近似的方法来模拟模型的决策行为,以从全局的角度解释模型的整体决策逻辑或者从局部的角度解释模型的单个决策结果所以,解释过程往往不够精确,解释方法给出的解释结果无法准确地反映待解释模型的实际运行状态和真实决策行为,而且据最新研究表明
[16]攻击者还可以利用二者之间的不一致性设计针对系统的新型对抗样本攻击,从而严重威胁着可解释系统在实际医疗应用中的安全
2、社会性根源相关道德原则和立法的缺失有关可解释人工智能医疗应用方面的道德原则与立法的缺失是伦理问题产生的社会原因首先,道德原则的不完善在可解释人工智能医疗应用与管理方面还没有形成一套统一而又完善的道德规范体系,因此可解释人工智能医疗应用处于一种无规范可依据的失范状态各国对可解释人工智能医疗应用的认识不同,从而造成了对可解释人工智能医疗应用的道德评价标准的多样性,这些不同的冲突导致了一系列的伦理问题;其次,有关可解释人工智能医疗应用。