您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[Ipsos]:生成型人工智能时代中的医患关系 - 发现报告
当前位置:首页/其他报告/报告详情/

生成型人工智能时代中的医患关系

2023-08-15-Ipsos张***
生成型人工智能时代中的医患关系

一代人工智能时代的医患关系 现在是时候为制药公司采取行动的五个原因 ROBERTOCORTESE 辛迪加医疗研究高级总监 一代人工智能时代的医患关系 Introduction 很有可能,这不是你在医疗保健中遇到的关于生成AI的第一篇文章。 如果您对Feed中普遍存在的此主题感到不知所措,那么您并不孤单。 在这篇透视文章中,我们评估了这项技术在医疗保健领域的一个讨论不足但破坏性的后果:它对医疗基石的影响,即医患关系 。前所未有的免费、人性化和看似权威的医疗保健建议正在重塑这种影响。 ©益普索2023保留所有权利。2 在探索不断变化的AI格局中,益普索强调了“增压”大型语言模型(LLM)的突破,例如OpeAI的ChatGPT,将对我们的生活产生重大影响,从而增强有效利用它的人的能力。在医疗保健领域,这意味着患者现在可以轻松获得前所未有的丰富医疗建议,从根本上改变了他们获取、理解和采取行动的方式。这一发展将由即将发布的GoogleMed-PaLM2(旨在为医学问题提供高质量的答案)进一步推动,将比传统的“Google博士”产生更深远的影响。 随着医学界已经在努力应对巨大的短缺和不断升级的压力水平,AI驱动的聊天机器人可以简化管理活动并支持患者服务。然而,从这些LLM中获得建议的患者的涌入,可能是准确的或不相关的,可能会给需要帮助患者解决所收集信息中的误解的医生带来额外负担-同时仍在时间有限的咨询中做出快速有效的临床决定。JAMA最近的一项研究甚至表明,ChatGPT在同理心和建议方面可能优于实际医生,在在线论坛中比较了实际医生和ChatGPT对实际医疗查询的回应。 制药公司发挥着至关重要的作用在这一重大的范式转变中,在降低风险和抓住机会方面。虽然医生远未过时,但患者在咨询室内外的健康决策中变得比以往任何时候都更有能力,可能更有信心和影响力。 对于制药公司来说,这是一个机会之窗。医学界在很大程度上还没有做好准备,而患者不仅在使用这项技术来检查症状,而且还在寻求有关治疗的信息。为了避免落后,公司必须积极塑造患者和医生如何应对这种转变。这带来了巨大的挑战,但正确的公司将获得巨大的回报。这不是“是否”会发生这种变化的问题,而是“何时”。 -那个'什么时候'就是现在. 在本文的其余部分中,我们介绍了制药公司立即采取积极行动最终将使所有利益相关者受益的五个关键原因。我们的建议得到了最近在283美国HCP(包括心脏病专家,皮肤科医生,内分泌学家,血液学家,神经科医生,妇产科医生,肿瘤学家,PCP和药剂师),由Medefield代表Ipsos进行,以及通过Ipsos的DigitalDoctor收集的多年知识 ,Ipsos的DigitalDoctor是该行业长期运行的数字HCP行为和态度跟踪器,涵盖20个市场。 3 一代人工智能时代的医患关系 五个原因为什么现在是采取制药行动的时候了 1.对于患者来说,生成AI时代已经开始 美国医生关于生成性AI及其对医患关系的影响的在线调查显示,接受调查的HCP中有41%意识到他们的患者已经将 ChatGPT和Med-PaLM等技术用于医疗相关目的。 虽然这个数字包括很少使用它的患者,但这种现象的实际患病率可能被低估了,因为患者可能并不总是在就诊前披露他们对生成性人工智能的使用。 图1:患者对生成性AI的使用水平(HCP感知) %接受调查的HCP表示他们的患者在过去三个月中使用了GenerativeAI(例如,ChatGPT,Med-PaLM)的频率 2%2% 3% 从不 14% 很少 偶尔/有时经常总是 20% 59% 不知道/NA 资料来源:从美国283个HCP(Ob/Gyns,n=89;普通/家庭医生,n=53;皮肤科医生,n=38;心脏科医生,n=31;内分泌科医生,n=25;神经 科医生,n=25;肿瘤科医生,n=10;药剂师,n=8;血液学家,n=4)在5月至6月之间代表Medefield在美国。 展望未来,我们预计在未来几个月内使用LLM聊天机器人的患者数量将大幅增加。在某种程度上,这种增长将由这些技术潜在的整合到医疗平台如巴比伦或医疗中心提供的患者服务中推动。 ©益普索2023保留所有权利。4 2.超越Google博士:患者正在访问类似人类的“数字顾问” 同一组HCP表明,生成AI不仅仅是一个症状检查者,传统上由“Google博士”担任的角色。虽然症状检查和自我诊断在患者对生成性AI的陈述使用中名列前茅,但使用该技术的患者的一些HCP报告了更全面和深刻的使用,例如收集有关治疗可用性的信息(28%)及其副作用(26%),疗效(14%)和成本(11%),以及了解测试或程序(26%)。 图2:患者使用生成性AI(HCP感知)的目标 %接受调查的HCP引用其患者中使用生成性AI的目标 用于自我诊断35% 获得一般医疗建议检查症状 35% CONDITION 检查可用的治疗方法 34% 获取有关可能的副作用的信息获取有关测试或程序的信 28% 息获取有关治疗功效的信息获取有关治疗费用的信息 26% 找出要与哪些HCP交谈 26% 治疗与管理 14% 获得有关改变生活方式的指导寻找心理健康支持 11% 寻找实际支持其他 10% 我不知道 10% 6% 支持 6% 4% 12% 资料来源:5月至6月在美国从283个HCP(Ob/Gys,=89;普通/家庭医生,=53;皮肤科医生,=38;心脏科医生,=31;内分泌科医生,=25;神经科 医生,=25;肿瘤科医生,=10;药剂师,=8;血液学家,=4)。该分析的基础是HCP引用他们的患者很少/偶尔/经常/总是使用生成性AI(=115)。 ©Medefield 一代人工智能时代的医患关系 患者对生成性AI的使用不应该令人惊讶。正如上述JAMA文章中所指出的,ChatGPT在移情反应的患病率方面比医生高 9.8倍,在高质量反应的患病率方面高3.6倍。 更令人惊讶和潜在风险更大的是它用于检索有关治疗的信息。对话向ChatGPT和“Google博士”提出了与癌症相关的相同问题。当被问及特定癌症药物的副作用时-“pembrolizmab会引起发烧,我应该去医院吗?”-ChatGPT每次被查询时都提供了五种不同的回答。尽管所有回应都建议寻求专业的医疗建议,但并非所有回应都传达了紧迫性或明确定义了这种副作用的严重程度。一个回应甚至指出发烧不是常见的副作用,但没有明确说它可能发生。考虑到ChatGPT仅在2021年之前对数据进行训练,这种风险可能会进一步放大。 聊天机器人提供的自由和类似人类的见解也可能会产生更深层次的影响。患者可能难以区分事实与捏造的事实(“幻觉”是这些模型的内在限制),并且对收到的建议感到满意,可能会延迟或完全避免联系他们的医疗保健专业人员(HCP)。患者自己可能会加剧这种错误信息循环,因为他们无意中将不正确或放错位置的信息输入到算法中,稍后将与其他患者共享。DigitalDoctor2023-Ipsos在3,248个HCP中进行的一项正在进行的研究-最近发现,尽管患者赋权有明显的好处,但大多数接受调查的HCP表示担心连接的健康设备和工具可能导致患者在没有医生监督的情况下误解数据或自我诊断。这些发展对制药行业,个人健康和更广泛的医疗保健系统具有明显的影响。 ©益普索2023保留所有权利。6 3.陷入困境的HCP担心他们现有的挑战会增加 当被问及他们期望所有这些将如何影响医患互动时,参与美国调查的HCP明确呼吁提供援助。根据他们的回应,患者使用生成性AI可能会在多个方面加剧他们现有的挑战: •需要更多时间根据42%的接受调查的HCP,医生可以解决由生成AI造成的任何误解 •要求他们学习新技能-根据接受调查的HCP的30% 图3:生成AI对医患互动的预期影响 %接受调查的HCP引用了生成性AI对未来医患互动的预期影响 医生需要更多的时间来解决任何问题反对/误解 它会造成误解和错误的期望 42% 33% 这将需要医生发展新技能 这会损害医生的权威和信任 30% 27% 它可以帮助医生做出更好的决定 它将使患者更了解和授权 22% 19% 资料来源:5月至6月在美国从283个HCP(Ob/Gys,=89;普通/家庭医生,=53;皮肤科医生,=38;心脏科医生,=31;内分泌科医生,=25;神经科 医生,=25;肿瘤科医生,=10;药剂师,=8;血液学家,=4)。*表示在实地考察期间添加的选项,并要求以=72HCP为基数。©Medefield. •侵蚀他们的权威和信任-根据27%的接受调查的HCP 这将增加患者对治疗决策的影响 16% 我担心它可能会接管我的角色* 15% 这将有助于解决一些员工的活动/短缺* 14% 这将提高我们医疗建议的质量 12% 负面期望 这将使访问更有效率 10% 中立期望 这将需要医生更多的理解/同情 6% 积极的期望 我不知道 13% 没有这些 1% 7 一代人工智能时代的医患关系 生成人工智能对医患互动的更积极影响是可能的。潜在的好处,如改善决策、更好的患者赋权和提高效率,必须走在前列 。然而,要做到这一点,制药公司、医疗保健和政治系统必须听取HCP的帮助呼吁。 ©益普索2023保留所有权利。8 4.HCP看到了AI的好处-但他们需要这里的指导 我们的2023年数字医生研究揭示了一个有希望的趋势:HCP正在向AI升温。调查发现,在接受调查的20个市场中,40%的参与HCP对人工智能在医疗保健中的作用感到兴奋,同样比例的人认为人工智能可以自动化重复任务,提高诊断效率和准确性。但是,只有35%的人认为他们对此“了解很多”。到目前为止,我们已经从最近的美国HCP调查中获得了深刻的见解 ,这加强了这一发现:虽然一些HCP在各种应用程序中获得了AI的个人经验,但大多数人在过去三个月中没有广泛使用它 图4:过去3个月内HCP对生成AI的使用情况 %接受调查的HCP在过去三个月中引用了生成性AI的使用和应用 64% 知/支持患者监测 为患者提供实际/情感支持 我不知道 3% 3% 2% 2% 3% 资料来源:从美国283个HCP(Ob/Gyns,n=89;普通/家庭医生,n=53;皮肤科医生,n=38;心脏科医生,n=31;内分泌科医生,n=25;神经 科医生,n=25;肿瘤科医生,n=10;药剂师,n=8;血液学家,n=4)在5月至6月之间代表Medefield在美国。 。 在过去的3个月中,我没有使用AI来探索医学文献来探索治疗方法 10% 进行管理任务(例如数 10% 据输入) 9% 通知/支持诊断写电子邮件/与我的 同事合作探索临床试验撰写医学内容 通知/支持治疗开始支持患者就诊/随访通 5% 4%4% 7% 6% 这些发现为制药公司提供了一个理想的机会,可以帮助HCP建立对AI技术的信心。通过这样做,HCP更有可能看到患者使用的生成性AI的好处,并将自己视为改善医患互动的促进者,而不是技术进步的受害者。 一代人工智能时代的医患关系 5.制药公司有一个独特的机会窗口来塑造人工智能的影响 对于一些患者和HCP来说,生成AI已经成为现实,制药公司必须迅速采取行动,利用这种结构性转变带来的机会,同时减轻相关风险。 制药公司可以通过在两个关键时刻加强医疗保健建议来塑造这项技术对医患互动的影响: 上游: 确保患者获得更有价值和值得信赖 的在线信息 A 下游:配备HCP以有效处理AI驱动的信息。 B •准确度:确保有关病情和治疗的信息清晰,简洁,最新,并得到“现实生活”关键字和短语的支持。这需要在向LLM寻求建议时了解患者的需求和实践。 •一致性:在可能包含在AI训练数据中的各种可靠来源中传播相同的信息。这需要了解 AI培训工作。 •教育程度:正如益普索最近与人工智能论文的对话所指出的那样,一个精心制作的问题可能会导致对现实的扭曲感知和误导行为,而一个精心制作的问题可能会导致准确和有见地的答案