您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[Insight]:超越假设 : 理解生成 AI 的真正可能性 - 发现报告
当前位置:首页/行业研究/报告详情/

超越假设 : 理解生成 AI 的真正可能性

信息技术2023-06-22Insight福***
AI智能总结
查看更多
超越假设 : 理解生成 AI 的真正可能性

超越假设: 理解生成AI的真正可能性 控制表 4 INTRO • •揭秘 8 创成式AI6 工作中的一代AI:企业使用案例 •热门用例11 •对齐生成AI 14 到工作流12 安全与安全 • • •内部生成AI政策18 20 一起工作:雇员和GENERATIVEAI •利用关键角色的机会创成式AI24 •现在的时间是28 •贡献者31 Aroadmapfor采纳26 工作中的生成AI:企业用例3 2 CarmTaglienti Insight首席数据官 DavidMcCurdy 首席企业架构师和首席技术官, Insight 会议的时刻 如果你已经阅读了与我们一样多的关于生成人工智能(AI)的新闻稿和白皮书,你可能会想:我们正处于人工智能的风口浪尖吗?如果是的话,这对人类和我们这个物种的未来意味着什么? 虽然像这样的对话对鸡尾酒派对来说很好,但它们并不是在全球董事会中进行的对话。与我们交谈的高管正在询问他们如何在员工不过度依赖这项技术的情况下采用这项技术。他们询问哪些工作将被生成式人工智能取代,并想知道他们是否已经达到就业高峰。他们对如何利用它与客户联系、推动产品创新和促进收入增长感到好奇。最重要的是,他们问的是,他们在不暴露组织专有数据的情况下,能够多快地访问生成式人工智能。 时间至关重要,所以我们将跳过哲学辩论。我们不会在真空中表达我的观点,也不会在Isight对生成AI的独家意见中表达我的观点。相反,我们将在数百名高管的综合情报的背景下提出我们的想法,我们最近与哈里斯民意调查合作,就当今商业领袖最重要的问题进行了调查。 我们希望您对生成AI的现实应用更加了解和兴奋,以帮助您在这个快速发展的环境中转变并保持领先地位。 CarmTaglienti 4工作中的生成式AI:企业用例5 揭开生成AI的神秘面纱 生成AI的起源可以追溯到20世纪60年代的早期AI 研究。 在过去的10年中,该技术通过变压器和大型语言模型的出现而发展。 但是,当OpenAI在2022年11月启动ChatGPT的公开测试时,它真正达到了公众的意识。从那时起,探索生成AI的对话和内容激增。 什么是生成AI? 它与已经使用的工具有哪些示例?即将推出的工具有哪些例子?对话AI? 生成AI是人工智能的一个子领域,它使用神经网络方法来生成类似于人类创建内容的输出,例如文本,图像和音乐。由这些技术产生的神经网络模型称为大型语言模型 (LLM)。用户提供的指令,称为“提示”或“输入” , 两种技术都使用训练数据执行活动-提供给模型以通知输出的信息。它们的不同之处在于生成AI输出是概率性的,这意味着每个输出 是唯一的,并由输入和训练数据提供信息。对话式AI 输出 进行语义评估,然后匹配 •ChatGPT(OpenAI) •Bing(Microsoft+OpenAI) •吟游诗人(Google) •稳定扩散(稳定性AI) •AdobeFirefly(生成艺术) •Copilot,将集成到Microsoft365中 •DuetAI,将集成到GoogleWorkspace 转型 诱导模型生成响应,也称为“输出”。具有预定义输出的输入。 67 工作中的 GENERATIVEAI: 企业用例 在接下来的12个月中,增加收入和推动创新分别是企业领导者的第一和第二要务。1近一半(49%)的受访者表示,在技术创新方面与竞争对手保持同步是今年面临的最大挑战。1 生成型人工智能可以帮助领导者实现这些目标,甚至更多。利用这项技术拥抱新的工作方式、驱动方式的机会比比皆是 效率,加强客户服务,加快创新,提高竞争优势。 就像之前的互联网、移动和云一样,生成AI将从根本上改变企业的运营方式——变得更好。 为了确定生成式AI的商业价值,组织需要首先确定可以通过利用这项技术进行实质性改进的流程和工作流程的优先级。这意味着确定涉及创建独特内容的活动(例如营销材料或代码创建),并评估自动化此内容创建是否会产生关键结果,例如可量化的生产率提高。 1Insight。(2023)。2023年Insight智能技术TM报告:我们正在进入创新的新时代吗? 9 8 员工生产力 吸引客户 (例如,聊天机器人) Research&Development 72% 66% 53% 生成式AI有可能通过自动化和增强跨团队的特定任务来彻底改变各种企业用例。 自动化soware开发 50% 个性化领导者希望主要采用生成式AI 客户体验 市场和业务洞察 44% 44% 44% 提高员工生产力和客户服务,但他们相信它可以改变整个组织的工作流程。 在未来三年内,大多数商业领袖预计将采用生成式AI关键使用案例 销售营销财务运营IT法律人力资源 自动化人工工作流从数据中发现洞察力 44% 42% 让员工更有效率,加强客户服务. 大约一半的人希望技术能够协助研究和开发以及自动化软件开发或测试. 其他用例包括反映市场见解,开发创造性工作以及自动化管理 FIND 总结 客户洞察 销售报告 趋势分析 社交媒体监控 欺诈检测 风险分析 预测性维护 质量控制 网络安全 性能监控 合同分析 合规性监控 恢复筛选 员工反馈 供应链管理 41% 供应链和库存。 哈里斯民意调查代表洞察企业,2023年5月。 CREATE Productrecommendations 广告副本 Financial 语句 供应链代码 优化优化 法律简报 入职培训材料 库存管理 40% 代码销售预测 活动优化 投资策略 生产计划 Bug检测 合同生成 性能指标 哈里斯民意调查代表洞察企业,2023年5月。 10工作中的生成式AI:企业用例工作中的生成AI:企业用例11 有效的用例 有效使用案例 内容创建数据生成代码生成 将创成式AI与工作流对齐 将生成AI与组织工作流程保持一致需要清楚地了解技术在哪里有效以及需要解决哪些挑战。 生成的AI模型通过可扩展性实现了新的能力水平。 在私有和安全的环境中运行生成式AI允许组织探索几条潜在途径,为业务和团队实现最大价值。 理解语言 类似人的交互性、情境性和适应性 支持自动化 支持数据驱动的决策过程 有效的用例 导航的挑战 定制输入 安全和隐私 使用搜索层使用组织现有的知识语料库来增强模型涉及仔细查看数据,确定哪些数据将驱动优先业务成果,并确定如何构造该数据,以便可以在上下文中丰富响应。 模型调整 调整或微调模型的运行方式和决策方式可以帮助 aorganizationyieldbetterresultsforitsspecificneeds.Modelfinetuningfurtherrefinesanalreadypre-trainedmodeltoproduceastute 以及针对特定用例的受众适当响应 能力有限 偏置 合规性 。 模型训练 虽然是一项更大的努力,但组织也可以通过提供独特的训练数据来创建自己的模型 。 精心策划的数据资产可用于训练模型 -为组织提供定制的大型语言模型,该模型既安全又能够轻松支持特定的业务目标 。 对质量数据的依赖性 Trust Promptengineering-theactofprovidinginstructionstothemodelwithtustedinputthatincludingstringingseveralinputtogethertoreachadesiredoutputorprovidingpastoutputasinputwith 一些编辑-在所有发展生成AI模型能力的途径中起着重要作用。组织将需要专注于在所有生成AI最终用户中发展这一技能。 12工作中的生成AI:企业用例工作中的生成AI:企业用例13 缺乏“可解释性”(即无法解释模型的决策) 哈里斯民意调查代表洞察企业, 2023年5月。 安全与安全 在生成AI时代 商业领袖对这项技术的承诺感到兴奋,但他们表达了对将其安全集成到组织中的主要担忧。 人们担心漏洞源于不准确和错误信息、人为错误以及内部和外部数据泄露。 我们正在进入一个安全风险加剧的新时代 它要求我们不断帮助最终用户了解利害关系。 幸运的是,有我们可以做很多事情来保护我们的企业和人民同时仍然利用生成AI的全部力量。 14生成AI时代的安全与保障 生成AI时代的安全与保障15 关于实施生成AI的四大关注点 首要安全问题 与安全和安保相关的问题出现在关于实施生成AI的四大担忧中的三个。 特别是,领导者担心利益相关者 -从员工和投资者到客户以及其他地方-将成为外部 AI生成的内容,如错误信息、深度伪造和网络钓鱼诈骗。 他们几乎同样担心内部生成AI解决方案导致的数据泄露和泄漏 ,这些解决方案扩大了对公司数据和知识产权(IP)的访问。 领导人也专注于来自组织内部的风险,就像意外的数据泄露源于无意的员工错误。 关键安全原则 生成AI安全性的关键原则是机密性 、完整性和可用性。 一个组织必须了解其风险偏好,并评估技术创新生成AI可以产生的整体风险。 早期采用者冒着不得不独自开辟道路的风险,但他们也将从第一个进入市场中受益。 领导者需要通过安全策略和治理模型为整个公司提供指导,包括新的策略或对现有策略的补充。 生成AI的安全三元组 员工将希望利用公司数据 51%49%39%38%Confidentiality 完整性 使用生成式AI仍然可能有不正确的输出 可用性 虽然这似乎是一个不太明显的安全考虑, 质量和控制(例如,失去控制的风险 内容、错误信息和/或深度假货) 安全和安全风险(例如,网络攻击和数据泄露) 限制人类创新 (例如,劳动力 过于依赖生成式AI技术) 人为错误(例如,缺乏了解如何使用 工具和意外的人类驱动数据 违规行为) 生成AI模型,因此组织需要考虑这些数据的质量和敏感性。他们 还应应用适当的标签和控制,以防止未经授权的使用。 modelswhitetheireffectiveutilityacrossmanyusecases.Creatingverificationprocessesandimplementingaclosedfeedbackloopforcontinuousimprovementinresponseaccuracywillensurethe 系统的可用性至关重要。如果生成AI进入自动化和 在没有适当质量保证和测试的情况下,编排工作流的结果可能 充其量是不可预测的,而且 哈里斯民意调查代表洞察企业,2023年5月。数据接受适当的审查,以避免严重 的误判。 在最坏的情况下是毁灭性的。 16生成AI时代的安全与安全生成AI时代的安全与安全17 81% 一些领导人表示,他们的公司已经制定或正在制定内部生成人工智能政策。 内部政策概述了组织将如何负责任地安全地使用生成式AI。一些常见元素包括: 1% 17% 39% 42% 开发生成式AI政策的意图 既定政策 制定政策 制定政策的规划 角色和职责参与实施生成式AI的人 数据治理在生成AI的背景下 示范培训标准和最佳实践 安全和隐私控制,包括用户访问、加密和事件响应计划 哈里斯民意调查代表洞察企业,2023年5月。 没有制定政策的计划 道德使用和版权侵权准则 合规性和法律考虑因素,尤其是针对特定行业的指导 员工培训协议监测和审计机制 内部生成AI政策已经在大多数组织中发挥作用。 18生成AI时代的安全与安全生成AI时代的安全与安全19 一起工作: 员工和生成型AI 一些最紧迫的问题涉及到生成AI对员工的影响。团队将如何与之互动?它将如何改变工作?它会取代工人吗? 这些问题是有效的,但生成AI的力量是它增强而不是取代人类智能的能力. 历史告诉我们,如果您给人类正确的工具,他们将使自己更有效率,并发现使用这些工具的新方法,以造福他们。拥抱这一点 技术为员工提供了前所