热点三:人工智能与医学教育融合

编辑日期:2019-09-30 作者: 阅读:1
【字体:

    摘编一:应明真 刘夙璇 陈晰辉《变革中的医学教育——从信息时代到人工智能》

    一从信息时代到人工智能

    信息时代指大约从20世纪70年代到2010年左右机器学习工具的出现,它的特点是准确、及时、特异,有目的地组织使用数据并赋予其意义,使之在关联的语境中呈现,增进理解,减少不确定性。人工智能技术主要包括使计算机实现类似于人脑智能的过程,实现更高层次的应用。对于医生和患者来说,对可利用的数据进行大型编译,可以使学习机器的使用趋于精细化。在这种背景下,医学生需要接受契合人工智能发展需要的新型模式的医学教育。

    二、人工智能在医学领域的应用

    在医学领域,人工智能运用机器学习和学习算法主要涉及图像识别、自然语言识别、语音识别,首先落地的场景是语音识别技术、病理和影像诊断,带来的是多个学科的智能迭代。此外,辅助诊疗、手术机器人、健康管理、新药研发等领域也与AI不断碰撞出新的火花。AI+辅助医生提高工作效率并降低了错误发生的概率,使医生可以有更多时间投入到更有价值的工作上。

    三、人工智能与医学教育的融合

    现阶段,国内外许多医学院校已经在临床教学培训中使用“人工智能+现实虚拟”设施,在虚拟空间内全方位直视真实人体结构的解剖细节,虚拟解剖过程、设计手术方案、模拟手术切除和评估手术风险,成为临床教学、医疗实践以及医患交流的新模式。

    在未来的医疗实践中医生及治疗团队,人工智能机器(包括软件和硬件)和患者之间必须是明确的伙伴关系。未来的医疗实践将出现四个特点:第一,医疗服务可以在多个地点实现,技术服务将随患者移动,大型数据存储和处理基础设施将更方便地实现实时访问;第二,新兴的医疗团队将整合人工智能的方法,一对一的医患关系将被多种形式的医患关系所取代;第三,可获得的服务将基于多种来源的数据,大型数据集于人工智能。通过对每个患者进行连续监测和数据的广泛采集,经过分析处理的大数据将为患者的服务提供标准;第四,医学和人工智能机器之间的对接需要跨学科背景的高素质人才。

    四、人工智能在医学教育领域的前景和挑战

    目前,AI+在医学教育领域面临的最关键的挑战是我们如何将医疗数据转化为精准医学、预防医学的附加值和预测模型,而医学教育领域的挑战主要来自于数据质量的控制,教学转化的应用以及自身潜力的挖掘。

    如何使医生在人工智能转换的医疗环境中成功实践应用成为当今医学教育改革的中心焦点,这些过程的完美实现需要跨越两大鸿沟:一是患者语言到医学语言的转化,二是医学语言到计算机语言的转化。

    此外,医学教育的两个方面也必须强调和贯穿整个培训过程,一是针对数据平台所产生的具有人类复杂性的大数据结果,需要医学生掌握足够的统计专业知识,提高从医学角度处理分析问题的能力;二是医学生必须充分认识到医学一直以来都处于人文和伦理的交叉点,机械化的逻辑推断取代不了医患沟通和人文关怀。

    摘编二:王姗姗 翟晓梅《人工智能医学应用的伦理问题》

    人工智能医学应用使人类受益的同时,也提出了一些伦理挑战。

    一、安全性风险

    人工智能医学应用的安全性风险是指人工智能在应用时可能发生的伤害。根据所出现概率和后果严重程度,风险可分为四类。第一类是风险出现概率高和后果重大;第二类是风险出现概率极低,但后果一样重大;第三类是风险出现概率高,后果轻微;第四类是风险出现概率低,后果轻微。基于目前人工智能技术和其医学应用的发展情况,以第一类风险为主。典型的例子如沃森提出的治疗建议包括给有严重出血症状的肺癌患者使用会导致出血的抗癌药物,而从医学/医生的判断来看,这种用药对患者是致命的。沃森的错误建议源于有缺陷的计算机算法,有缺陷的算法对患者可以造成重大伤害、导致医疗事故的可能性,其诱导的医源性风险出现的可能性更大、后果更为严重。这也突出了人工智能医学应用可能会对人的生命健康带来威胁。

    我国对人工智能医学应用的安全性标准和风险监管尚处于探索阶段。我国人工智能技术发展速度很快,医学应用产品层出不穷,但一直没有统一的监管人工智能医学应用的标准,我国尚没有通过审批的人工智能医疗器械产品,这影响了对该技术使用的安全性风险的把控。权威管理部门出台其他类别的人工智能医疗应用的监管规则,行业和公司制定有关规范都迫在眉睫。

    二、隐私保护问题

    隐私(Privacy)是一个人不容许他人随意侵入的领域。隐私数据在国家、企业、家庭和个人层面发挥巨大作用。隐私主要通过以下三种方式泄露:

    第一,隐私被有关人员有意泄露,指可以接触到隐私的人带有一定目的故意泄露数据主体的信息。医疗健康数据分散,但具有巨大的研究或商业价值。常见的隐私泄露情况是医院员工或软件公司员工将信息贩卖给第三方。

    第二,隐私被有关人员无意泄露,指他们不带有明确目的地泄露患者隐私。医疗卫生领域中,医生可能在无意间泄露患者隐私,公共场合讨论患者信息、将患者的病案储存在云端或公共电脑中,都可能被第三方获取,导致隐私泄露。

    第三,隐私信息还可通过黑客攻击的方式被泄露。我国的医疗卫生机构信息化系统安全水平低,存在诸多系统漏洞,容易遭到黑客攻击。

隐私信息泄露会对数据主体及其家庭带来严重伤害,信息泄露可能导致公众对于数据主体的歧视或污名化。此外,数据的泄露可能危害到国家和社会安全。因此,保护数据主体的医疗健康隐私十分重要。

    三、可及性和可负担性问题

    第一,数字裂沟。数字裂沟是不同社会经济水平的个人、家庭、企业和地区接触信息通信技术和利用因特网进行各种活动的机会而产生的差距。掌握人工智能医学应用的国家和企业的垄断加剧资源分配不均衡,造成新的数字裂沟,这也削弱了人工智能医学应用的可及。在我国,各地区经济发展不平衡,经济落后地区享受到人工智能医学应用服务的机会相对较少,甚至无法享受到人工智能的技术红利。

    第二,医疗卫生资源分配不公正。医疗卫生资源分配不公正导致人工智能医学应用的可及性和可负担性问题。我国人工智能医学应用主要集中于大型三甲医院,偏远地区的患者很难有机会使用这些技术。此外,高昂的价格是制约人工智能医学应用可及的重要因素。

    四、责任划分问题

    人工智能医学应用涉及责任划分、问责等问题,包括辅助诊断系统产生诊断失误、手术机器人在为患者进行手术时操作错误等。我们应该根据手术的实际情况,界定利益相关者的责任,以便适当问责和处罚。在制度层面应尽快建立人工智能医学应用的伦理管理规范和法律问责机制,以应对其可能带来的伦理和法律等挑战。