您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[AlphaSense]:2024欧盟人工智能法案对欧洲中东和非洲地区医疗科技领域的影响分析报告 - 发现报告
当前位置:首页/行业研究/报告详情/

2024欧盟人工智能法案对欧洲中东和非洲地区医疗科技领域的影响分析报告

信息技术2024-12-04-AlphaSense喜***
AI智能总结
查看更多
2024欧盟人工智能法案对欧洲中东和非洲地区医疗科技领域的影响分析报告

欧盟AI法案如何在EMEA重塑医疗技术 里面有什么 1Introduction 3CHAPTER1 需要新的规则 5CHAPTER2 理解AI法案 7CHAPTER3 人工智能法案下的风险分类fi阳离子 11CHAPTER4 现有法规与法案的重叠 15CHAPTER5 使用AlphaSense保持不断发展的AI景观 17CHAPTER6 展望未来 Introduction 自COVID-19疫情席卷全球以来,全球医疗市场不得不大幅重新定位以应对一系列不可预测和波动的事件。2020年,原本稳固的供应链效率因全球封锁而停滞不前。疫情爆发后新出现的地缘政治冲突(如俄罗斯-乌克兰战争、以色列-巴勒斯坦冲突等)为在战争中提供挽救生命医疗服务带来了挑战。同样,慢性疾病治疗的需求急剧上升。总而言之,在医疗保健领域创新变得至关重要,因为传统的或现有的医疗干预措施已经无法满足需求。 启用人工智能(AI)和生成式人工智能(genAI)的迅速推广。在短短几个月内,这项技术重新定义了药物发现、研发、大规模数据分析、疫苗开发等领域的工作方式,使其更加高效和有效。研究人员和医疗科技开发者对genAI的热情依然高涨,他们利用这项技术来完成原本繁琐且耗时的过程。然而,这种热情也引发了一些关于该技术可能给整个行业带来麻烦的猜测。 为了围绕医疗保健中人工智能的使用设定参数并消除人们对潜在偏见性偏差或隐私风险的担忧,欧盟最近推出了《人工智能法》(AIAct),“这是世界上第一部全面的人工智能法律”。该法案已于今年五月由欧盟理事会通过,正在促使医疗技术领导者不仅质疑这些规定如何影响现有的工具,还考虑如何在新法规下开发和应用新的AI技术。 1 医疗保健系统内的循环,但这对人工智能是行业根源的未来意味着什么。 使用AlphaSense平台,我们揭示AI法案将如何在未来几个月和几年内重塑医疗科技开发。发现这些见解,使您能够掌握前沿的医疗科技行业情报,并灵活应对新兴技术与新法规的挑战。 2 CHAPTER1 需要新的规则 简单来说,《AI法案》旨在增强欧洲人对人工智能益处的信任 。尽管许多人工智能系统风险很小甚至几乎没有风险,并且有潜力解决各种社会挑战,但仍有一些 3 AI技术引入风险这需要进行管理以防止负面后果。 欧盟委员会国家“,这往往是不可能的 查明AI系统做出决策、预测或采取特定行动的原因。因此,在招聘决策或公共福利方案申请等情况下,可能会难以评估某人是否受到了不公平的不利影响。尽管现有立法提供了一定的保护,但这些保护尚不足以应对AI系统可能带来的具体挑战。 该法案旨在实现以下目标: 识别和化解AI应用程序产生的风险 解除构成不可接受风险的AI实践 确定高风险AI应用程序列表 建立对需要高风险应用程序的AI系统的要求 为高风险AI应用程序的部署者和提供商设置特定的fic义务 在给定的AI系统投入使用或投放市场之前,制定符合性评估 一旦人工智能系统进入市场,就强制实施立法 在欧洲和国家层面建立治理结构 但这对医疗技术公司有何影响? 4 它主要影响企业的合规责任并保护其财务利益。任何在欧盟使用其AI系统输出结果的业务都必须遵守此法律,无论该公司的所在地或系统的所在地如何。 “在这个意义上, 真的没有办法解决它作为一个 ,[他们]将.It 开发者必须遵守这一法案 这将是一个新的监管领域,专门针对这些特定的AI产品,唯一的例外是仅适用于高风险AI产品。 大多数的 . 用,例于如医,疗如保果健只的是产品是高风险的产品也可以低风险 用于医院管理过程,不直接与患者接触,以及那你就没有 ,你只是有 遵守人工智能法案的每一部分 以表明它是一种安全的产品,就像您将投放市场的任何其他产品一样。” -行业专家|专家成绩单 并且对于医疗科技公司而言,现在是他们熟悉该法规并采纳负责任的人工智能实践的时候了。根据 世界经济论坛实施负责任的人工智能流程通常需要大约三年时间。早期启动的公司将在合规性、赢得相关方信任、优化人工智能的商业优势等方面处于更有利的位置。 CHAPTER2 理解AI法案 genAI的广泛分布及其在当今几乎每个专业人士使用的工具中的应用(即 律师使用ChatGPT向法院提起诉讼)对于此项技术(或缺乏该项技术)的能力仅引发了担忧。在医疗健康行业,许多怀疑论者对患者信息的隐私问题、有偏见或歧视性的算法以及对生成式人工智能的道德使用表示关切,促使欧盟制定立法框架以保护患者和提供者。 在最基本的层面上,人工智能法案为人工智能和genAI如何被利用和 National 分布在医疗保健部门。医学图书馆 该法案旨在通过以下方式制定统一的内部市场规则:“(a)为人工智能的发展、投放市场、投入使用和使用设定标准;(b)促进‘以人为本且可信赖的人工智能’;(c)确保‘高水平的健康 、安全和基本权利保护’。” 在该法案实施的第一年,将主要改革通用人工智能系统,并在两年后扩展至包括人工智能驱动的数字健康工具(DHTs)的系统,最终覆盖高风险的人工智能系统(即DHTs)。 引入了一系列新的义务它同时适用于开发者、部署者、公告机构以及监管机构,特别是那些与新成立的AI办公室和欧盟委员会合作的人。与其他欧盟法规类似,它涉及在市场上开发和使用的分布式哈希表 (DHT)。 5 在欧盟以外,或更具体而言,“专门开发并用于科学研究和发展的AI系统和模型。” RegulatorsandmedtechtitansalitherremainsconflicedabouttheexactanddefiniteparametersoftheAct.Accordingto 自然医学由于医疗健康人工智能的横向性质、广泛范围以及快速变化的特点,将会产生许多由模糊性和不确定的法律交集引起的问题。在此背景下,负责机构(包括委员会、欧盟人工智能办公室、在医疗器械软件领域制定指南的责任委员会,甚至法院)的灵活性和智能化将是至关重要的,以实现《人工智能法案》所提出的旨在促进而非遏制人工智能产业创业活动和创新的目标。 6 CHAPTER3 该法案下的风险分类fi阳离子 人工智能法案的监管框架定义了人工智能系统的四个风险级别 : 不可接受的风险 社交评分,面部识别,暗模式AI,操纵 高风险 安全组件在关键基础设施中的应用、工作中的安全与绩 效、教育准入、公共服务接入、保险中的使用、信用评分、边境控制、司法系统中应用 有限的风险 通用人工智能和具有特定透明性要求的AI系统,如聊天机器人、情绪识别系统 最小风险 启用AI的视频游戏,垃圾邮件filters 图片来自ForvisMazars 不可接受的风险 违反欧盟核心原则(包括尊重人类尊严、自由、平等、民主以及法治)和欧盟认可的基本权利的人工智能系统被视为不可接受的风险。因此,此类被归类为高风险的人工智能系统将被禁止使用。 7 换句话说,这些系统以以下方式开展过程、利用或产生被委员会认为违法✁信息: 人工智能系统操纵个体执行危险或未预见✁行为,或做出否则不会做出✁决策,存在诸多问题。 此外,利用特定群体(如年龄、残疾或特定社会和经济条件)✁脆弱性✁系统引发了伦理上✁关切。 生物识别分类系统,通过分析面部特征或指纹等数据来推断政治观点、宗教信仰或性取向等特征,也引发了相关问题。 同样地,出于执法目✁在公共空间使用实时生物识别身份验证存在争议,尽管有一些例外情况。 基于社交行为对人员进行跨时间分类✁系统,即社会评分系统,是另一个值得关注✁问题。此外,在工作场所或教育环境中设计用于评估情绪状态✁AI技术应当被禁止。 高风险 这些AI系统通常具备高影响能力,因此携带系统性风险,这些风险可能会影响欧盟人员✁健康、安全和基本权利。 高风险系统在医疗科技和Healthcare行业✁相关工具中广泛应用,包括医疗设备(即任何属于IIa类或更高类别✁医疗设备,或使用AI作为安全组件✁AI系统),紧急分诊AI系统(用于急诊患者分诊治疗或手术),以及用于情绪识别监测或评估✁AI系统。 8 本报告来源于三个皮匠报站(www.sgpjbg.com),由用户Id:349461下载,文档Id:18352024,下载日期:12-04 9 这些系统✁更多特定fic示例包括: AI辅助X线诊断庇护健康风险筛查 医疗培训评估AI软件 医疗保健劳动力管理AI系统 高风险人工智能系统在进入市场之前必须遵守委员会设定 ✁义务。为了确保这些系统✁有效性和可靠性,开发者必须Incorporate适当✁风险评估和缓解系统,以及高质量✁参考数据集,以最大限度地降低风险和歧视性结果。 为了确保问责制,系统必须记录所有活动以确保结果✁可追溯性,而开发人员必须为当局提供详细✁系统及其目✁文档以评估合规性。在涉及消费者或最终用户保护时,需要适当✁人工监督措施与高度✁稳健性、安全性和准确性相结合,以最小化风险。 有限✁风险 有限✁风险指✁是在AI使用方面缺乏透明度✁系统。《条例》旨在确保在必要时向消费者提供透明信息,以培养对AI系统✁信任,例如聊天机器人。例如,最终用户应该被告知他们正在与机器交互,以便他们能够做出知情决策来评估所呈现✁信息 。 提供者还必须确保AI生成✁内容可识别。任何旨在告知公众利益事项✁AI生成文本(包括构成深度假象✁音频和视频内容)都必须标记为人工生成✁内容。 10 最小或没有风险 AI系统在最小风险下没有任何限制或强制性义务。例如,垃圾邮件过滤器和AI-enable✁游戏即属于此类低风险AI系统。 根据欧盟,“欧盟目前使用✁大多数人工智能系统属于这一类别。”然而,委员会和管理机构鼓励制定行为守则,以促进对低风险人工智能系统✁自愿遵守要求。 最终,委员会✁风险ベース戦略要求组织评估他们当前使用或计划实施✁AI系统,并确定每个系统✁风险级别。创建AI系统✁清单可以作为这一过程✁初始步骤。一旦识别出风险级别,与 《人工智能法案》进行差距评估有助于组织评估其现有实践如何调整以满足合规要求,从而制定出有结构✁计划。此外,政府部门必须考虑政府发布✁有关人工智能技术✁伦理和负责任应用✁指导原则。 CHAPTER4 现有法规与法案✁重叠 虽然AI法案提出了高尚✁目标以保护社会免受潜在✁人工智能失误✁影响,但医疗科技专业人士对于拟议中✁广泛人工智能法案及其如何与现有立法共存或协同工作(而不妨碍生产与创新)✁困惑并不是什么新鲜事。 人工智能法案广泛适用于将人工智能和genAI用于消费者使用✁公司,它在 符合欧盟政策为了“保护和改善健康,为所有欧洲人提供平等 ✁现代高效医疗保健,并协调涉及多个欧盟国家✁重大健康威胁。” 然而,许多专家和行业参与者认为,与其采取一刀切✁方法,不如针对现有sector- 医疗器械法规fic规范-即 (MDR) 和体外诊断调节(IVDR)-可以改变以解决AI技术✁细微差别 。 目前,这些行业特定✁fic法律对人工智能进行了分类医疗器械如果它被设计成 软件作为一种辅助进行医疗决策✁工具。这包括与诊断、预防 、监测、预测、预后、治疗或缓解健康状况相关✁功能,以及支持与健康相关✁生活方式改变。 11 该法规纳入了许多与MDR和EUIVDR中类似✁条款,例如质量管理体系✁要求、技术文档✁规定以及使用要求。 Medtech制造商谁已经 指令:根据欧盟MDR和IVDR获得认证✁企业很可能需要更新其技术文档以符合欧盟AI法案✁新规定。 此外,《法案》在现有欧盟医疗器械法规(MDR)和体外诊断医疗器械法规(IVDR)要求✁基础上,引入了对AI系统✁一系列新规定,包括: 用于培训和测试数据集✁治理和数据管理协议 增强✁记录保存实践,例如在系统✁整个生命周期中自动记录事件 设计透明度,以确保用户能够理解和正确利用系统✁输出 设计中✁人为监督要求准确性和网络安全标准 但医疗科技公司抱怨✁是MDR和IVDR认证所带来✁耗时且成本高昂✁负