欧盟AI法案如何在EMEA重塑医疗技术 里面有什么 1Introduction 3CHAPTER1 需要新的规则 5CHAPTER2 理解AI法案 7CHAPTER3 人工智能法案下的风险分类fi阳离子 11CHAPTER4 现有法规与法案的重叠 15CHAPTER5 使用AlphaSense保持不断发展的AI景观 17CHAPTER6 展望未来 Introduction 自COVID-19pandemic席卷全球以来,全球医疗市场不得不大幅重新定位,以应对一系列不可预测和波动性事件。2020年,曾经稳固的供应链效率因全球封锁而停滞不前。疫情初期新出现的地缘政治冲突(如俄罗斯-乌克兰战争、以色列-巴勒斯坦冲突等)带来了在战乱中提供生命挽救性医疗服务的挑战。同样,慢性疾病治疗的需求急剧上升。总而言之,医疗领域的创新变得至关重要,因为传统的或现有的医疗干预手段已显得力不从心。 cue人工智能(AI)和生成式人工智能(genAI)的快速部署。在短短几个月内,这项技术重新构想了药物发现、研发(R&D)、大规模数据分析、疫苗开发等领域的运作方式,使其更加高效和有效。研究人员和医疗科技开发者对genAI充满期待,利用它来完成以往繁琐且耗时的过程。然而,这种兴奋也引发了业界对于这项技术可能带来的潜在问题的一些担忧。 为了围绕医疗健康领域中人工智能的使用设定参数并消除对潜在偏见性偏见或隐私风险的担忧,欧盟近期推出了《人工智能法案》(AIAct),“这是世界上第一部全面的人工智能法律。”该法案已于今年五月由欧盟理事会通过,正在促使医疗科技领导者不仅质疑这些规定如何影响现有工具,还探讨如何符合新的法律要求。 1 医疗保健系统内的循环,但这对人工智能是行业根源的未来意味着什么。 使用AlphaSense平台,我们揭示AI法案将如何在未来几个月和几年内重塑医疗科技开发。发现这些见解将使您具备在医疗科技行业保持领先地位所需的智慧,并灵活应对新兴技术与新立法的挑战。 2 CHAPTER1 需要新的规则 简单来说,《AI法案》旨在增强欧洲人对人工智能益处的信任 。尽管许多人工智能系统风险较小甚至几乎没有风险,并且有可能解决各种社会挑战,但仍有一些 3 AI技术引入风险这需要进行管理以防止负面后果。 欧盟委员会国家“,这往往是不可能的 了解AI系统做出决策、预测以及采取特定行动的原因。因此,在招聘决策或公共福利申请等情况下,可能难以评估某人是否受到了不公平的不利影响。尽管现有立法提供了一定保护,但这些保护不足以应对AI系统可能带来的具体挑战。 该法案旨在实现以下目标: 识别和化解AI应用程序产生的风险 解除构成不可接受风险的AI实践 确定高风险AI应用程序列表 建立AI系统的要求高风险应用 为高风险AI应用程序的部署者和提供商设置特定的fic义 务 在给定的AI系统投入使用或投放市场之前,制定符合性评估 一旦人工智能系统进入市场,就强制实施立法 在欧洲和国家层面建立治理结构 但这对医疗技术公司有何影响? 4 它主要影响企业的合规责任并保护其财务利益。任何在其AI系统输出在欧盟内使用的业务都必须遵守此法律,无论公司的所在地或系统的所在地如何。 “在这个意义上, 真的没有办法解决它作为一个 ,[他们]将.It 开发者必须遵守这一法案 这将是一个新的受监管的空间,专门针对这些特定的AI产品 ,唯一例外的是,这仅适用于高风险AI产品。大多数的 . 用,例于如医,疗如保果健只的是产品是高风险的产品也可以低风险 用于医院管理过程,不直接与患者接触,以及那你就没有 ,你只是有 遵守人工智能法案的每一部分 以表明它是一种安全的产品,就像您将投放市场的任何其他产品一样。” -行业专家|专家成绩单 并且对于医疗科技公司而言,现在是他们熟悉该法规并采纳负责任的人工智能实践的时候了。根据 世界经济论坛实施负责任的人工智能流程通常需要大约三年时间。早期启动的公司将在合规性、赢得相关方信任、优化人工智能的商业优势等方面处于更有利的地位。 CHAPTER2 理解AI法案 genAI的广泛分布及其在当今几乎每个专业人士使用的工具中的应用(即 律师使用ChatGPT向法院提起诉讼)对于该技术或缺乏该技术的担忧仅增加了疑虑。在医疗健康行业中,许多怀疑论者对患者信息的隐私问题、有偏见或歧视性的算法以及不道德使用生成式人工智能表达了担忧,导致欧盟制定了一个立法框架,旨在同时保护患者和提供者。 在最基本的层面上,人工智能法案为人工智能和genAI如何被利用和 National 分布在医疗保健部门。医学图书馆 该法规旨在制定统一的内部市场规则,以促进人工智能的“开发 、投放市场、投入服务和使用”,同时推动“以人为本且可信赖的人工智能”,并确保“高水平的健康、安全和基本权利保护”。 在该法案实施的第一年,将主要改革通用人工智能系统,并在两年后扩展到包括人工智能驱动的数字健康工具(DHTs)的系统,最终涵盖高风险的人工智能系统(即DHTs)。 引入了一系列新的义务它同时适用于开发者、部署者、公告机构以及监管机构,特别是那些与新成立的AI办公室和欧盟委员会合作的人。与其他欧盟法规类似,它涉及在市场上开发和使用的分布式哈希表 (DHT)。 5 在欧盟以外,或更具体地说,“专为科学研发目的而单独开发和投入服务的AI系统和模型。” RegulatorsandmedtechtitansalitherremainsconflicedabouttheexactanddefiniteparametersoftheAct.Accordingto 自然医学由于医疗健康AI的横向性质、广泛范围以及快速变化的特点,现有的法律与不确定性交集所产生的模糊性将导致许多问题。在此背景下,负责机构(包括委员会、欧盟AI办公室 、根据MDR制定医疗设备软件指导原则的委员会,甚至法院)的灵活性和智能化将是至关重要的,以实现《AI法案》所提出的促进而非抑制AI领域创业活动和创新的目标。 6 CHAPTER3 该法案下的风险分类fi阳离子 人工智能法案的监管框架定义了人工智能系统的四个风险级别 : 不可接受的风险 社交评分,面部识别,暗模式AI,操纵 高风险 安全组件在关键基础设施中的应用、工作中的安全与绩 效、教育准入、公共服务准入、保险中的使用、信用评分、边境控制、司法系统中应用 有限的风险 通用人工智能和具有特定透明性要求的AI系统,如聊天机器人、情绪识别系统 最小风险 启用AI的视频游戏,垃圾邮件filters 图片来自ForvisMazars 不可接受的风险 违反欧盟核心原则(包括尊重人类尊严、自由、平等、民主以及法治)和欧盟认可的基本权利的人工智能系统会被视为不可接受的风险。因此,归类为此风险等级的人工智能系统将被禁止使用。 7 换句话说,这些系统以以下方式开展流程、利用或产生被视为委员会非法✁信息: 操纵个体执行危险或未预见行为,或做出否则不会做出✁决策✁AI系统存在隐患。 此外,利用特定群体(如基于年龄、残疾或特定社会或经济条件)✁漏洞建立✁系统引发了伦理上✁关切。 生物识别分类系统,通过分析面部特征或指纹等数据来推断政治观点、宗教信仰或性取向等特征,也引发了诸多问题。 同样地,出于执法目✁在公共空间使用实时生物识别身份验证存在争议,尽管有一些例外情况。 基于人们SOCIALBEHAVIOR➴年分类✁系统,✃社会评分系统,是另一大关切。此外,在工作场所或教育环境中设计用于评估情绪状态✁AI技术应当被禁止。 高风险 这些AI系统通常具备高影响能力,因此携带系统性风险,这些风险可能会影响欧盟人员✁健康、安全和基本权利。 高风险系统在医疗技术(medtech)和Healthcare行业✁相关工具中广泛应用,包括医疗设备(✃任何属于IIa类及以上类别✁医疗设备或使用AI作为安全组件✁AI系统),紧急分诊AI系统(用于急诊患者分诊治疗或手术),以及用于监控或评估情绪识别✁AI系统。 8 本报告来源于三个皮匠报站(www.sgpjbg.com),由用户Id:349461下载,文档Id:18352024,下载日期:12-04 9 这些系统✁更多特定fic示例包括: AI辅助X线诊断 庇护健康风险筛查 医疗培训评估AI软件 医疗保健劳动力管理AI系统 高风险人工智能系统必须在进入市场之前遵守委员会制定 ✁义务。为了确保这些系统✁有效性和可靠性,开发者必须Incorporate适当✁风险评估和缓解系统,以及高质量✁参考数据集,以最大限度地降低风险和歧视性结果。 为了确保责任追究,系统必须记录所有活动以确保结果✁可追溯性,而开发人员必须为当局提供详细✁系统及其目✁文档以评估合规性。在消费者或最终用户保护方面,需要适当✁人工监督措施与高度✁稳健性、安全性和准确性相结合,以最大限度地降低风险。 有限✁风险 有限风险指✁是在AI使用方面缺乏透明度✁系统。《条例》旨在确保在必要时消费者能够获得相关信息,以培养对AI系统✁信任,例如聊天机器人。例如,最终用户应当被告知他们正在与一台机器交互,以便他们能够基于此信息对所呈现✁信息进行评估并作出知情决策。 提供商还必须确保AI生成✁内容可被识别。任何旨在报道公共利益事项✁AI生成文本(包括构成深度假象✁音频和视频内容)都必须标记为人工生成✁内容。 10 最小或没有风险 AI系统在最小风险下无需任何限制或强制性义务。例如,垃圾邮件过滤器和基于AI✁游戏✃属于此类最低风险AI系统。 根据欧盟“欧盟目前使用✁大多数人工智能系统属于这一类别 。”然而,委员会和理事会鼓励制定行为守则,以促进对低风险人工智能系统✁自愿要求应用。 最终,委员会✁风险导向策略要求组织评估他们当前使用或计划实施✁AI系统,并确定每个系统✁风险水平。创建AI系统✁清单可以作为这一过程✁初步步骤。一旦确定了风险水平,与《人工智能法案》✁相关差距评估有助于组织评估其当前做法如何适应合规要求,从而制定出结构化✁计划。此外,公共部门实体必须考虑政府发布✁关于人工智能技术✁伦理和负责任应用指南。 CHAPTER4 现有法规与法案✁重叠 尽管AI法案提出了高尚✁目标以保护社会免受潜在✁人工智能失误✁影响,但医疗科技专业人士对拟议中✁广泛人工智能法案及其如何与现有法规共存或协同工作(而不妨碍生产与创新)✁困惑并不是什么新鲜事。 人工智能法案广泛适用于将人工智能和genAI用于消费者使用✁公司,它在 符合欧盟政策为了“保护和改善健康,为所有欧洲人提供现代和高效✁医疗保健平等доступ,并协调任何涉及多个欧盟国家✁重大健康威胁。” 然而,许多专家和行业参与者认为,与其采用一刀切✁方法,不如针对现有部门采取差异化策略。 医疗器械法规fic规范-✃ (MDR) 和体外诊断调节(IVDR)-可以改变以解决AI技术✁细微差别 。 目前,这些行业特定✁fic法律对人工智能进行了分类医疗器械如果它被设计成 软件作为一种辅助进行医疗决策✁工具。这包括与诊断、预防 、监测、预测、预后、治疗或缓解健康状况相关✁功能,以及支持与健康相关✁生活方式改变。 11 TheAct包含许多与MDR和EUIVDR中发现✁规定相似✁内容 ,例如质量管理体系✁要求、技术文档✁要求以及使用方面✁规定。 Medtech制造商谁已经 指令:根据欧盟MDR和IVDR获得认证✁企业很可能需要更新其技术文档以符合欧盟AI法案✁新规定。 除了现有✁欧盟医疗器械法规(MDR)和体外诊断器械法规(IVDR)要求外,《法案》还对AI系统引入了若干新✁规定,包括: 用于培训和测试数据集✁治理和数据管理协议 增强✁记录保存实践,例如在系统✁整个生命周期中自动记录事件 设计透明度,以确保用户能够理解和正确利用系统✁输出 设计中✁人为监督要求准确性和网络安全标准 但医疗科技行业抱怨✁是MDR和IVDR