公共部门POV的转型时期 ©Capgemini2024。保留所有权利 一个转型的时间公共部门 使用生成式AI推动公共服务向前发展 生成AI 可以彻底改变公民服务 公共部门必须走一条细线;利用生成AI的潜力创造价值,同时保持公民信任,控制数据,遵守法规和道德 私营部门通常在技术创新方面处于领先地位,而公共部门则紧随其后。私营公司拥有投资研发的手段,希望这些投资能够产生更高的收入,帮助获得更大的市场份额,并使业务领先于竞争对手。 另一方面,公共部门组织与私营部门不受相同的业务目标驱动 。相反,他们优先考虑为社区提供稳定和可靠的服务。这在两个部门之间造成了创新差距,公共部门组织无法承担与私营部门相同的计算风险。 2 但事情是 改变 当OpenAI在2022年11月推出ChatGPT时,反应是惊人的。ChatGPT在发布后的短短两个月内就看到了1亿每月活跃用户。1 ChatGPT标志着大量开始使用生成AI作为增强其工作的工具的人的转折点。在发布的最初12个月中,ChatGPT被用于从为国家报纸生成文章 领导教会服务。几乎在一夜之间,组织都在考虑如何将生成AI整合到他们的商业模式中。 与许多其他新兴技术不同,ChatGPT、GitHubCopilot、Midjoury和Bard等生成AI工具从一开始就已经民主化。作为美国技术编辑GuyScriven 对于《经济学人》,他说:“当新技术出现时,它们会在不同的时间使不同的群体受益。” 每天被数百万人采用。由于易于使用和访问,许多公共部门几乎立即开始尝试生成人工智能。现在公共部门面临的挑战是保持势头,而不是因为组织寻找创新的方式来使用生成人工智能而被抛在后面。 生成AI引起了人们的兴奋。但是随着炒作开始消散,公共和私人组织的焦点都转向了如何最好地利用这项技术,以及至关重要的是,如何安全和负责任地完成这项工作。 在这里,公共部门确实有机会带头。但它必须谨慎行事。 1ChatGPT创造了增长最快的用户群的记录, 路透社,2023年2月 公共部门POV的转型时期 3©Capgemini2024。保留所有权利 公务员和公民 想看看 公共部门改善 世界各地的政府机构看到了两个主要趋势 。其中一个趋势是对提高效率的需求日益增长。 缺乏效率在很大程度上是由于许多公共部门组织正在处理工作量的压倒性增加。超过一半(56%)的公务员报告说,自2020年以来,他们的工作量显着增加。2与此同时,由于人口结构的变化和与私营部门的人才竞争,许多公共部门机构正在努力应对劳动力的萎缩。 当今政府面临的另一个趋势与公民经验有关。在过去的几年中,人们 政府机构提供的服务越来越令人沮丧。最近的一项研究发现,公民对政府服务的满意度比私营部门服务低21%。3虽然私营部门的服务变得越来越数字化和快捷,但政府机构往往无法提供同样水平的服务。 但也有好消息。尽管公共部门享有厌恶技术的声誉,但如今情况却有所不同:根据最近的一项研究,超过三分之二的公共部门工作人员认为新技术可以显着提高他们的工作绩效,大多数人同意对人工智能等技术的投资可以减少他们的工作量。4 因此,问题就变成了:如何将生成式AI应用于公共部门? 2全球公务员对工作量增加发出警报,全球政府论坛,2023年9月 32023年爱德曼信托晴雨表全球报告 4全球公务员对工作量增加发出警报,全球政府论坛,2023年9月 公共部门POV的转型时期 4©Capgemini2024。保留所有权利 改进效率 和增强用户体验 世界各地的政府机构看到了两个主要趋势 。其中一个趋势是对提高效率的需求日益增长。 生成AI有可能彻底改变 publicsectoroperate.Onewayitcandothisisbytakingoverrepeatingtasks,allowingforfasterworkflow.Forexample,alargelanguagemodel(LLM)canbeusedasan 行政助理可以帮助管理城市的支持台,快速处理和关联案例,以及自动化数据输入以减少处理时间。这将释放人力资源,专注于更复杂的任务。 生成型人工智能驱动的聊天机器人还可以为公民提供全天候支持,快速有效地回答查询。这将使公民能够在白天或晚上的任何时间访问他们需要的信息,而不必等待人类的回应。 在税务服务的背景下,生成AI可以启用自助服务平台 ,并提供有关税收优惠和支付的个性化指导。这将为公民和税务机关节省时间和资源,同时也减少了出错的可能性。 由于任务自动化和更高效的流程,在公共部门使用生成AI可以降低运营成本。反过来,这将为公民带来更好的用户体验,因为他们将能够更快,更轻松地访问所需的服务。 公共部门POV的转型时期 5©Capgemini2024。保留所有权利 的挑战 创成式AI 虽然传统的AI模型旨在根据输入数据准确预测输出,但生成AI模型超越了 预测并创建以前不存在的全新数据。 虽然这看起来很聪明,但至关重要 要记住,生成AI没有一般的智能,并且完全依赖于它已经给出的信息。为了生成新数据,模型将在大量有标签或无标签的数据上进行训练,这些数据在训练过程中被馈送到模型中。模型学习模式 和训练数据中的关系,并使用这些知识来生成新的数据,这些数据与训练数据相似,但也是独特和新颖的。 生成AI模型的性能和准确性取决于训练数据的质量和数量。确保训练数据代表模型将在现实世界中遇到的数据的分布至关重要。 公开可用的生成AI模型的最大弱点之一是它们容易出错。它们有时可能产生不准确或不现实的输出,并且可能包含错误,失真或不一致。错误信息的出现,被称为“幻觉”,可能是由于各种原因而发生的,例如训练不足或模型架构或实现中的错误。幻觉也可能导致。 来自生成AI模型的固有限制和约束,例如无法捕获数据中复杂或细微的关系,或者无法推广到新的和看不见的数据 。 由于幻觉的可能性,组织需要有一定程度的可解释性;他们应该有能力理解和解释生成新数据的人工智能模型的决策过程。生成人工智能模型的挑战在于它们往往缺乏透明度,使得很难理解它们是如何达到输出的。透明度 andexplainabilityhelptoensurethattheoutputisrelevantandtrustely.TransparencyalsoinvolvestheAImodelbeingopenaboutitslimitations.Ratherthanpresentinformation,itshouldbe 内置的,一个模型承认不知道什么正确答案是。 公共部门POV的转型时期 6©Capgemini2024。保留所有权利 AI安全是关于 人权 人们注意到的关于生成AI的最令人担忧的事情之一是,它在某些情况下显示出对特定人群的偏见。 正如《纽约时报》报道的那样:“科技公司承认机器学习算法可以使歧视长期存在,需要改进。5 无论组织如何,该技术基于性别或种族等某些特征对个人显示出不公平或偏见的事实都是不可接受的。对于公共部门而言,这与他们所代表的一切背道而驰。 政府机构、服务和政策必须平等地提供给所有有资格的人 个人,无论其种族,民族,性别,宗教,残疾或其他受保护的特征。 不这样做可能会导致法律诉讼和处罚,以及对组织声誉和信誉的损害。公共部门组织需要在 防止和解决任何歧视事件,并确保他们的行动和决定对所有个人都是公平和公正的。 5黑人艺术家说人工智能显示偏见,用算法抹去他们的历史,纽约时报,2023年7月4日 公共部门POV的转型时期 7©Capgemini2024。保留所有权利 建筑 更流畅的体验为所有公民 加泰罗尼亚GeneralitatdeCatalunya在西班牙统治加泰罗尼亚自治,引入了生成AI来更有效地响应公民查询。 该计划始于企业管理办公室,其初始阶段涉及测试AI在预测和自动化响应方面的有用性。尽管AI的响应仍由官员监控 ,但该模型最终将独立工作。这将减轻公务员的工作量,并实现更好的交互 为公民。 主要关注的问题之一是AI是否可以在加泰罗尼亚语和西班牙语中进行有效的理解和交流,因为这两种语言在加泰罗尼亚都是官方语言。无论他们希望交流哪种官方语言,用户都必须获得相同的体验质量 在.Capgemini在该项目的实验阶段发挥了重要作用,而参与该项目的GoogleCloud已经训练了其Palm2AI语言模型,以理解并在加泰罗尼亚语中表达自己。 不可动摇的信任 组织可以使用自己的数据来训练生成AI模型,以此来应对幻觉 、透明度和可解释性的挑战。但是,将机密信息输入到可公开访问的AI模型中会带来严重的隐私风险。如果公共部门组织希望将安全数据馈送到生成AI模型中,他们需要有一个仅供他们使用的定制模型。 一个定制的AI模型也需要一个信任层,建立这个信任层意味着组织可以监控潜在的模型使用漏洞,确保AI工具被安全和私下使用,并且模型没有显示出歧视或负面偏见的迹象。 作为信任层的一部分,需要设置护栏。这些可以防止AI模型产生不准确的信息或产生与组织价值观相抵触的响应。有了护栏,系统可以避免幻觉并维护 它的准确性和一致性。还必须建立边界,并确保模型在必要时承认他们缺乏知识,而不是提供虚假数据。 公共部门POV的转型时期 8©Capgemini2024。保留所有权利 一种伦理方法 创成式AI 当国王查理三世在2023年11月的国际人工智能安全峰会上发表讲话时,他并没有低估人工智能的潜力。 在预先录制的视频中,他在峰会上说:“我们这个时代的许多最伟大的思想家认为,强大的人工智能的迅速崛起与电的发现,原子的分裂,万维网的创建,甚至是火的利用一样重要。 当我们听到这样的夸张时,很容易假设生成AI的出现标志着公共部门的根本性变化。但事实并非如此。角色 生成性人工智能本身并不是主要关注点,而是作为一种有用的资源 ,可以帮助政府机构以更有成效和更有影响力的方式履行职责。 为了使生成AI成功,它需要在安全和道德上得到高度重视。正如查理三世国王在峰会演讲中提到的那样,只有解决AI的重大风险,我们才能充分实现AI的巨大好处。他敦促政府,公众 部门,民间社会和私营公司合作保护人们的隐私和生计,确保我们的民主国家免受伤害,并确保每个人都分享新技术的优势。并以遵守我们既定价值观和法律的方式做到这一点。 在凯捷,我们坚信坚持道德,并将其置于我们所有行动的最前沿。自2019年以来,我们制定了AI道德准则,以确保我们在AI方面的进步与我们更广泛的价值观保持一致。 我们对道德和技术创新的承诺也传递给我们的客户。我们提供透明和可解释的人工智能,确保 易于理解,可追溯和可审计。我们的AI 是可控的,这意味着人类始终拥有最终决定权。我们还在生成AI操作中优先考虑数据保护和隐私,从一开始就确保数据保持安全并合法遵守隐私法规。 我们在全球拥有超过30,000个数据和AI顾问,可以从我们在各个行业和技术领域的丰富经验中汲取经验。作为全球数据驱动型政府值得信赖的战略合作伙伴,凯捷帮助公共部门组织利用生成式AI的潜力。 关于凯捷 凯捷是全球领导者,与公司合作,通过利用技术的力量来转变和管理他们的业务。该集团每天都遵循其宗旨,即通过技术释放人类能源,实现包容性和可持续的未来。它是一个负责任的多元化组织,在50多个国家拥有近35万名团队成员。凭借其强大的55年历史和深厚的行业专业知识,凯捷受到客户的信任,能够满足从战略和设计到运营的整个业务需求,这得益于云、数据、人工智能、连接、软件、数字工程和平台的快速发展和创新世界。该集团报告2022年全球收入为220亿欧元。 获得你想要的未来|www.capgemini.com 联系人 PHILIPPFUERST博士 数据驱动型政府副总裁&全球公共部门服务负责人 PIERRE-ADRIENHANANIA 欧盟机构的生成AI负责人 版权所有©2024凯捷。保留所有权利。