中国大陆和香港 高管们的剧本-从治理开始 管理生成AI的风险和机遇 2023年10月 受信任的AI 负责任地加速。 目录 Introduction2 商业有什么危险?4 如何识别您的Gen-AI用例6 管理新的和放大的风险8董事会成员和董事可以做什 么10高管可以做什么11 底线13 联系我们了解更多15普华永道风险保证如何 帮助14 管理生成式AI的风险和机遇1 Introduction 2022年11月发生了真正革命性的事情。突然之间,任何拥有互联网连接的人,只具备在聊天应用程序中进行对话的能力 ,都可以运用人工智能(AI)的变革力量。 在一周之内,在ChatGPT的帮助下,超过一百万的用户制作了简短的文章,编写了计算机代码,制作了艺术品,并将长篇资料汇总成可能比原著更好,更简洁的作品。 同时,恶意威胁行为者测试了生成AI(Gen-AI),以编写恶意软件,更可信的网络钓鱼电子邮件和更有说服力的假身份,并迅速广泛传播-大规模欺诈,侵犯隐私,虚假信息和网络攻击的潜在预兆。 在ChatGPT首次亮相几个月后,生成AI继续越来越深入地融入我们的生活和业务。我们看到了有史以来活跃消费者用户增长最快的情况。我们已经看到了从OpeAI的GPT3到GPT4的功能飞跃-在编码和中级专业写作中记录的成就。很快,科技公司推出/重新推出了竞争产品;初创公司发布了定制应用程序的模型;包括普华永道在内的公司已经宣布了大量投资,以创建自己的“CompayGPT”供内部使用和新服务产品。 但是生成AI带有警告标签。“具有人类竞争情报的AI系统可能对社会和人类构成深远的风险,”包括专家在内的有关公民警告说。即使是这项技术的顶级提供商也承认这些风险。 管理它们是成功的关键。如果您的公司希望推出成功的生成式人工智能计划并获得竞争优势,您将需要评估该技术可能在整个企业范围内带来的风险。为此,您将需要一个风险管理框架,该框架还可以让您抓住机会。 基于风险的生成AI方法将使您与监管机构,消费者和其他利益相关者站在正确的数字基础上。在部署生成AI时赢得信任将使您能够迅速充分利用这种改变游戏规则的技术所提供的好处。 公司是否面临以速度换取信任的风险? 46%中国vs68%香港78%Only48% 受访者正在投资包括人工智能在内的新兴技术(来源:普华永道,2023年) 中国受访者认为使用人工智能的产品和服务利大于弊(来源:IPSOS,2022) 员工认为越来越多地使用人工智能将使他们的职业生涯变得更好(来源:IPSOS,2022) 生意有什么危险? 作为人工智能(AI)的一个强大子集,它正在对业务产生真正的变革性影响。它可以自动化和增强几乎所有业务运营的各个方面,包括客户服务、软件开发和数据分析。 它可以通过个性化与客户的互动来改善您与客户的互动方式。它可以自动执行大量任务 ,例如处理保险索赔和通信或执行某些软件开发任务。 它可能使您的团队更容易理解非结构化数据,包括合同、发票、客户反馈、保单、保险调整员注释、绩效评估、医疗记录等。 通过自动化常规任务,生成AI工具可以让员工创造性地工作、创新并更全面地理解复杂的主题和任务,从而实现更高级的批判性思维。 随着对这项技术的需求持续增长,其功能也在不断增长。仅在四个月内,人工智能语言系统在复杂程度和使用上都取得了显着进步,而且它们不太可能很快停止。 可持续地实现这种增长的关键将是从最初阶段招募风险专家。这样做可以帮助您建立对生成AI项目的信心。 您的风险经理必须管理新的和放大的风险,以及一系列业务、法律和监管挑战。白宫,美国国会,联邦贸易委员会,中国网络空间管理局和欧盟(EU)相继采取行动来规范生成AI。与此同时,一些国家(意大利、加拿大、西班牙、法国、德国)开始调查,以回应关于生成人工智能未经同意收集、使用和披露个人信息的投诉或担忧,这违反了数据保护法。 针对更广泛的生成AI技术,中国网络空间管理局(CAC),国家发展和改革委员会(NDRC),教育部(MOE),科技部(MST),工业和信息化部(MIIT),公安部(MPS)和国家广播电视管理局(NRTA)于2023年7月10日联合发布了《生成AI法规》,该法规于2023年8月15日生效。CAC于 2023年10月18日发布了全球AI治理倡议。 习主席在中共中央政治局会议上还表示,“关键是要优先发展通用人工智能,建立创新生态系统,并注重风险防范”。 *基于美国的研究 管理生成AI的风险和机遇4 生成AI对您的业务意味着什么 以下是您的公司开始利用Gen-AI时需要考虑的关键重点领域。 功能转换:重新构想操作。 部署生成AI以实现快速投资回报的“最佳点”是显而易见的:部署它以自动化和改进各种运营方面,如营销、财务、供应链和税收合规。通过利用Ge-AI,您可以最大限度地利用现有资源,增强决策能力,并提升客户和员工的体验。Ge-AI可以简化数据和文档集的组织,简化人类研究工作。它还可以生成初始版本的财务,风险和合规性报告,制作个性化的客户服务响应,并识别由人类编写的报告中的违规行为。然而,为了确保可靠的结果,至关重要的是在负责任的AI框架中保持强有力的监督 。 负责任的AI:建立信任和管理风险。 为了让Ge-AI真正彻底改变您的业务,可信度至关重要。这需要采用负责任的AI,这是一种专门为确保AI的可信赖和道德应用而精心设计的方法。通过整合技术、流程和技能,负责任的人工智能解决了与生成人工智能相关的各种风险,如网络威胁、隐私问题、法律影响、性能问题、偏见和知识产权风险。为了有效地实施负责任的AI ,理想的方法是按设计信任,从一开始就将其集成到您的系统中,并根据学到的经验教训不断完善它。 劳动力:为新的工作方式培养技能。 Ge-AI具有增强知识型员工能力的潜力,使他们能够在更短的时间内取得比现有能力更大的成就。但是,要充分利用这一潜力,必须为员工提供提高技能的机会,为他们提供必要的技能,以利用新工具并采用新的工作方式。重要的是不要被Ge-AI的简单性欺骗,而是必须获得如何负责任地使用它的知识。随着你的组织接受人工智能,新的角色将会出现,比如工程师和模型机械师,可能会形成一个“人工智能工厂”来支持人工智能系统的实施和维护。 云和数据:为增长奠定基础。 Gen-AI释放了非结构化数据的潜力,从而实现更好的决策,收入增长和业务扩展。对于公司而言,在考虑Gen-AI的情况下规划其数据和应用程序现代化至关重要,因为它将从根本上改变基于云的业务应用程序的构建和运行方式。 新的商业模式:数据货币化和行业重塑。 Ge-AI提供了这种潜力,既可以建立新的商业模式,又可以破坏基本的价值链。当您利用Ge-AI提供的当前运营效率时,请考虑它如何在不久的将来改变您的行业和业务 。 如何识别您的Gen-AI用例 从客户服务到软件开发和数据分析,绝大多数业务运营的各个方面都可以通过生成AI进行自动化和增强。组织可以使用以下观点来识别用例。 Top-Down 自下而上 对于我的部门和职能来说,Gen-AI适合什么?Gen-AI做得很好,它如何为我服务? 工业部门 Gen-AI技术已证明其在解决特定行业问题方面的价值,例如医疗保健,科学研究和金融领域的问题。 哪些Gen-AI技术可用于您的行业?生成能力如何提高您相对于竞争对手的竞争优势? 任务类型 某些类别的任务,例如摘要,转换和问答,最适合于生成模型的技术机制。 这些职责如何在您的业务流程中发挥作用 ? 业务职能 Gen-AI技术可以集成到研发,营销,销售,客户支持,运营,法律和后台程序中。 生成应用程序如何才能最好地服务于更大的利益? 输出数据模态 生成技术涉及文本,代码,图像,音频,视频等的全新创建。 团队和员工每天都在制作什么样的内容 ? 您的IT和风险专业人员可以通过GenerativeAI帮助您的公司以负责任的方式加速发展。他们可以帮助确认它是适当的私人,公平的,具有管理的有害偏见,有效和可靠,负责和透明,可解释和可解释。 换句话说,它是可信的。 管理新的和放大的风险 我们看到组织需要了解和管理的技术固有的四大风险: 数据风险 错误传播,知识产权(IP)或合同问题(由于缺乏将数据用于此类目的的批准),或由用于训练生成AI模型的低质量数据引起的误导性和有害内容。 模型和偏差风险 在语言模型开发中违反道德和负责任的 AI原则,导致歧视性或不公平的输出 。 提示或输入风险由于向AI模型提供了不复杂的提示或问题,导致了误导性 、不准确或有害的响应。 用户风险 由于用户在不知情的情况下成为错误信息和其他有害内容的创建方,造成了意想不到的后果。例如,他们可能会将AI产生的幻觉——错误或无意义的反应——作为事实。 您也可能会遇到其他风险,具体取决于您的公司如何使用生成式AI-特别是如果您计划创建连接到基础模型的专有模型并添加专有或第三方数据。 您的风险专业人士将激活生成AI以实现可信赖的结果,因此,设计信任而不仅仅是速度,是您对客户,投资者,业务合作伙伴,员工和社会的价值主张。 风险领域专家应考虑隐私、网络安全、监管合规、第三方管理、法律义务、知识产权等方面的全部风险,并相互合作管理整体企业风险。同时,你应该与你的人才/人力资源领导者一起开发各级培训计划,让每个人都熟悉生成AI的风险和回报。 监测人类的表现,以防止“技能萎缩”、自满或质量随时间下降。 既定框架,例如香港政府资讯科技总监办公室(OGCIO)发布的道德人工智能框架,香港个人资料私隐专员办公室(PCPD)发布的道德发展和使用人工智能指南,《关于银行业和保险业数字化转型的指导意见》,中国银行保险监督管理委员会发布。使用机器学习的IS0/IEC23053:2022AI系统框架是设计和部署可信AI应用程序的良好开端。 拥有有效的AI治理策略至关重要,因为除了风险专业人士之外,组织内外的许多人都可以影响您负责任地使用生成AI的能力。他们包括数据科学家,数据工程师,数据提供商 ,领域专家,社会文化分析师,多样性,公平性,包容性和可访问性领域的专家,受影响的社区,用户体验设计师,治理专家,系统资助者,产品经理,第三方实体,评估人员以及法律和隐私专业人员。 安全 有效性和可靠性 安全性和弹性 透明度和问责制 可解释性和可解释 性 隐私 公平(有害偏见管理) 绩效和业务价值 2.模型验证 基于风险的测试方法,具有设计的评估指标和接受标准。 性能监控(即漂移) 福利管理 变更和发布管 理 问题管理 配置和版本管理 人类监督 训练和提高技 能 反馈机制 3.模型管理 在生产中部署、操作和监控AI模型的关键控制措施。 法律和法规遵从性 影响分析和风险评估 战略调整和业务关怀 模型设计、方法和假设 定义的范围和要求 限制、护栏和超控 选项分析 训练数据 1.模型设计与开发 规划、设计、采购和/或开发AI模型的关键控制。 可信AI的关键AI治理注意事项 关键输入和依赖项 明确的角色和职责 多元化和包容性 的团队 敬业的领导 Workforce和技 能规划 定义的政策和程序 风险管理框架 定义的风险容 忍度 第三方风险管理 9 生成AI带来的关键风险以及风险高管可以采取的行动在以下部分中。 管理生成AI的风险和机遇 userid:414195,docid:149312,日期:2023-12-22,sgpjbg.com 董事会成员和董事可以做什么 首先要让董事会增加董事对人工智能和生成人工智能的了解,利用管理和外部资源来了解技术不断增长的能力,跟上新的用例以及商业模式的变化,以及风险和负责任的使用。 在解决AI和生成式AI时,董事们需要从商业角度考虑这项技术及其使用。与董事会监督的许多其他领域一样,它的作用是向管理层提出好问题-本报告中分享了一些开始的示例-并在适当的时候挑战管理层。当