您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[IQVIA]:历来验证 QARA 人智能实践 : 适应医治监管中的人智能发展(汉) 2024 - 发现报告
当前位置:首页/行业研究/报告详情/

历来验证 QARA 人智能实践 : 适应医治监管中的人智能发展(汉) 2024

医药生物2024-09-18-IQVIAZ***
历来验证 QARA 人智能实践 : 适应医治监管中的人智能发展(汉) 2024

白皮书 未来证明QARAAI实践 适应医疗保健监管中的人工智能发展。 GABRIELADUSEI,PharMedTechandTriuneTechnologiesLtd.创➓人MIKEKING,IQVIA数字产品和解决方案产品和战略高级总监 菲尔·布朗,英国医疗保健工业协会(ABHI)监管与合规部主任AlexDENOON,BristowsLLP合伙人 目录 Introduction2 随着AI工具的发展,监管机构和公司需要什么样的初➓教育,以及需要什么样的持续教育?2 需要访问药物的老年群体最为迫切,但同时他们也想知道自己的数据被用于何种用途。这些数据对话同样也与女性和少数群体进行——这种知识如何影响使用AI或评估AI驱动设备的监管者?具体而言,这对QARA(假设QARA为特定术语或缩写)有何影响? 4 我们知道目前存在超过20种不同的数据偏差。那么监管机构可以接受的数据偏差风险是多少?这又意味着什么对于QARA(假设QARA为特定上下文中的简称)而言?5 公司需要拥有干净的数据集和成功的算法。公司将如何与这种推测保持一致,即这些算法需要对患者具备一定的透明度?QARA又该如何为此做好准备?7 ABHI观察到的人工智能采用情况如何?企业在人工智能采用方面是否存在差异,特别是大型企业与中小企业之间的差异?8 让我们来谈谈人工智能工具在全球范围内的可用性。有哪些障碍,这些障碍是如何影响QARA的?8 仅仅因为我们可以,我们应该使用AI吗?9 来自观众的一个问题。在过去的一年里,关于人工智能的讨论的基调发生了怎样的变化,特别是对于QARA?9 关于作者10 关于IQVIA11 Introduction 人工智能作为工具为生命科学行业带来了许多益处,但同时也面临诸多挑战。随着欧盟《人工智能法案》的出台以及美国和欧盟在人工智能监管方面的合作协定签署,QARA部门必须指导其公司遵守相关的人工智能要求和标准。由于医疗健康数据本质上具有敏感性和高风险性,企业必须能够识别并缓解潜在的偏见和风险,并且在可接受的风险范围内保持透明度。在最近的一次LinkedIn直播活动中,ABHI负责监管与合规事务的主任PhilBrown、PharMedTech和TriuneTechnologiesLtd的创➓人GabrielAdusei以及IQVIA数字产品与解决方案高级总监MikeKing讨论了质量与监管领域中人工智能的发展演变,重点关注患者安全 、数据质量和减少偏见。 随着AI工具的发展,监管机构和公司需要什么样的初 ➓教育,以及需要什么样的持续教育? King:最近,美国食品药品监督管理局(USFDA)、加拿大卫生部(HealthCanada)和药品和医疗器械管理局(MHRA )联合发布了一份针对人工智能(AI)发展,尤其是机器学习方面进展的战略回应。三个全球监管机构在如此重要的议题上达成原则性共识,是一大进步。挑战在于这些共识如何转化为实际执行。考虑到不同产品类型、不同的标准、不同的国家、以及各自的技术和毒理学测试要求和临床活动等因素,情况迅速变得复杂。因此,不仅需要监管和质量专业人士了解与全球健康监管机构相关的内容,还需要关注更广泛的法规,其中医疗保健的影响只是其范围的一部分,例如我们所看到的欧盟的AI法案、网络安全和欧洲GDPR等,所有这些都可能对医疗产生影响。 用于医疗领域的CE认证设备及其他系统,并在全球范围内注册以供全球医疗使用。 棕色:你可以拥有一个卓越的系统,但监管机构仍然需要了解如何操作该AI工具,以便从特定数据核心中获取所需信息,从而确保患者的安全。监管机构在能力方面面临巨大挑战,因此拥有像AI这样的工具是一个绝佳的机会。在教育方面,我认为作为受监管的专业人士,我们面临的困难之一是对我们工作环境的充分理解。围绕医疗技术存在众多相关法规,尤其是现在考虑到REACH环境问题、危险化学品(RoHS)和电气及电子设备废弃物(WEEE)等问题以及净零目标时更是如此。从商业角度来看,如何将所有这些因素整合到技术法规中,AI将会非常有用。因此,监管机构必须参与其中并理解这种复杂性,否则将几乎不可能建立一个有效的系统。 “让三个全球监管机构原则上就像人工智能一样重要的事情达成一致,这是向前迈出的一大步。 -迈克·金,IQVIA Adusei:英国MHRA✁议将使用AI工具对技术提交文件进行初步审查,以便吸收部分监管要求,并确认公司是否提供了正确的信息以及在数据处理方面是否解决了相关问题 。这是一个快速变化的领域,令人鼓舞的是,监管机构正在承认这一点,并利用AI工具来帮助他们管理容量和增强技术专长。 棕色:在我的经验中,作为一名监管者或公务员工作时,资金限制往往非常严格。我们都能看到人工智能的实际好处 :它将如何提高安全性以及我们与产品交互的方式。但在英国的医疗保健系统中,他们仍然使用过时的Word和Windows系统。因此,尽管人工智能是一种非常出色的工具,但它必须以一种被监管者接受的方式嵌入其中,才能发挥其应有的作用。 “监管机构真的在能力上苦苦挣扎,所以拥有像人工智能这样的工具是一个绝佳的机会。” -PhilBrown,ABHI 需要访问药物的老年群体最为迫切,但他们希望了解这些数据是如何被使用的。这些关于数据的讨论也正在与女性和少数群体进行——这种知识如何影响使用AI或评估AI驱动设备的监管机构?具体而言,这对QARA(假设QARA代表某个特定术语或组织 )又会产生怎样的影响? 感激的是,制造商已经解决了这些问题——这些设备只能适用于某些肤色类型,原因是在统计显著性的人群中进行临床试验时缺乏足够的多样性,无法从广泛的人群使用中获得适当的结果。因此,这类设备的有效性仅限于特定的人群。这一问题在COVID-19时期表现得尤为严重,在此期间,脉搏血氧计提供了错误的信息,医务人员因认为患者的氧气水平足够而将患者送回家,这导致了严重的后果。可能导致患者死亡在任何医疗设备设计和开发的初期阶段,尤其是在引入任何新技术时,教育应被置于首位,以确保人们理解是否需要参与以满足健康公平和多样性需求。教育的重要性不容overst强调。我相信监管机构现在已在其要求中规定,在审查任何提交材料时,他们将寻求确定是否已经通过该过程测试了足够多的受试者,因此需要教育来动员众多人员参与。 棕色:这是一个非常重要的话题。我将提出一些具有争议的观点。如果你们考虑使用人工智能作为评估安全或数据的工具,让我们以一个例子来说明,比如使用人工智能作为扫描乳腺癌读数的初步筛查工具——患者需要了解这一过程,因此患者会知道他们进行了扫描,并且其中涉及了人工智能系统。在这种情况下,患者可能会对接受这种信息产生怀疑。如果涉及到监管审批,患者是否真的会过于担心监管机构使用的是一种人工智能工具?患者或医生唯一关心的是该产品是否经过了严格的监管审批流程。 King:质量与监管专业人士已经审查了相关文件相当一段时间。考虑一些AI模型背后的數據集:在产品的设计阶段,在验证和确认阶段,甚至在上市后,确保拥有足够的数据量、正确的数据结构、一致的数据以及相关信息至关重要,以便从中提取出特定患者群体的有意义见解。因为在产品上市后若表现不符合预期 ,可以利用AI工具收集大量数据,以在真实世界的数据中寻找产品质量问题和潜在不良事件。 Adusei:我认为教育贯穿了技术使用的全过程,因为老年人和脆弱人群无法访问某些新兴技术,但他们需要这些技术提供的益处。我记得随着指夹脉搏血氧仪的发展, Adusei:我们讨论了教育可能侧重于更广泛的公众和最终用户,但监管者本身也需要接受教育。Phil之前提到 ,监管者需要了解他们正在寻找适合使用的适当工具,以优化信息并清除市场上任何新技术或产品。这不仅仅是招募临床试验的受试者并在各方面获得临床有效性的问题,还包括对监管者进行一些新兴技术的教育。我认为,监管者需要在引入研究机构和大学、临床医生以及来自各种背景的人方面更加合作,以便能够做出合理且安全的决定,以清除技术进入市场。 棕色:这类研究机会实际上对英国来说是真正的机遇,因为国家医疗服务体系可能拥有世界上最为多样化的患者群体,利用AI工具利用这一数据池是一种卓越的患者安全机会——以前所未有的方式分析这种多样性是一种全新的视角,例如,可以借此了解产品如何在儿科中使用,或者如何在不同的少数群体和女性群体中使用。 任何潜在的危害。我认为,在临床决策中确保医疗设备有效性所需的数据量➓终是一个问题。当新技術被引入医疗设备产品时,有时缺乏足够的数据,因此需要进行临床研究或评估以说服监管机构该技术是安全的。整个设计、开发和验证过程中的数据部分至关重要,关键在于数据的质量以及数据的多样性以涵盖所有人群。制造商和监管机构都需要真正将数据点视为推动技术进入市场最关键领域之一。 King:我认为加布里尔提到的关键点在于,特别是在使用AI的情况下,可以用来支持产品开发和产品设计活动 ,寻找数据以支持这些活动。无论在人类参与的任何环节,都存在偏见,无论是编写AI算法、搜索背后的向量 、用于训练引擎的数据集,还是关键人员输入和回答或提出某些问题。关键是通过这种方式构✁和运营来尽量减少这些偏见。另一个关键因素是可接受的风险。在QARA的世界中,“安全”意味着“可接受的风险”,而不是“无风险”。它涉及到在产品设计、开发、验证和验证过程中确保有较高的性能信心。在数据存在缺口的情况下 ,我们可以利用AI爬取一些现实世界证据来支持或增强正在进行的临床活动,并借此收集有关产品性能的科学依据,从而增加我们对产品安全有效的信心,并将其推向市场。 目前已知存在超过20种不同的数据偏差。那么监管机构可以接受的数据偏差风险是多少?这又意味着什么对于QARA(假设QARA为具体上下文中的术语或组织)而言? Adusei:偏见存在于我们所做的很多事情中,最佳方法是在最初就识别出这些偏见并加以缓解,或者接受它们的存在并进行管理,以确保它们不会造成负面影响。 并且从监管者的角度来看,如果他们能够在市场前监管方面处理大量审批工作时,能够借助AI工具来筛选提交材料,在识别数据强弱方面提供帮助,这将使监管者能够对提交材料进行有针对性的审查,并真正开展专业人士之间的讨论,以提高提交材料的质量,并增强产品安全性的信心,即风险被降至双方都感到舒适的程度,从而放心地将产品推向市场。AI和数据紧密相连,它们不仅有助于医疗解决方案的创造与创新,还能支持市场前监管审查及市场后监控。 开➓✁立监管技术文件。迈克描述的情况非常引人入胜,因为这意味着监管决策权在于监管机构。然而目前在欧洲,这一决策权并不属于监管机构,而是属于符合性评估机构或公告机构。因此,人工智能可能将部分监管控制权归还给监管机构,这可能会对全球监管结构的设置产生根本性的影响。 ➓终存在这样一个问题,即多少数据才能足够做出关于医疗设备有效性的确凿临床决策。 棕色:医疗器械监管人员擅长风险管理。我们从一开➓就注重整合风险管理系统等工具。 -GabrielAdusei,TriuneTechnologies 公司需要拥有干净的数据集和成功的算法。公司将如何与这种推测保持一致 ,即这些算法需要对患者具备一定的透明度?QARA又该如何为此做好准备? 被符号化表示。我已经要求ISO技术委员会210修订ISO15223标准,以包括制造商提供的标签符号和信息,无论该设备是否包含生成式AI或其他AI工具,均需明确标注。这些信息需要足够透明,以便最终用户能够了解到他们正在使用基于AI或嵌入了AI技术的产品。 Adusei:我认为数据透明度需要从制造商开➓,就像您会声明产品的成分以供评估、监管审查以及标注标签一样。我认为——并且我一直倡导这一点— —任何设备中使用AI的技术也需要进行类似的透明度披露。 棕色:作为行业,我们越来越多地,我认为这是正确的方向,朝向透明化和患者数据的透明化。确保人工智能工具产生的信息的一致性、透明性和安全性的一种方式是确保所使用算法和机制