您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[Gartner]:生成式 AI 对精神病学和政治学的影响 ( 汉 ) - 发现报告
当前位置:首页/行业研究/报告详情/

生成式 AI 对精神病学和政治学的影响 ( 汉 )

信息技术2023-10-18-Gartner胡***
生成式 AI 对精神病学和政治学的影响 ( 汉 )

Gartner网络研讨会 Gartner提供可操作的、客观的洞察力、指导和工具,使您的 组织的关键任务优先事项 增强您的网络研讨会体验 问一个问 题 下载附件再次观看 受限制的分销 2©2023Gartner,Inc.和/或其附属公司。保留所有权利。 人工智能对治理和政策的影响 与Gartner联系 罗恩·弗里德曼 高级董事分析员 LaurenKornutick 董事分析师 受限制的分销 3©2023Gartner,Inc.和/或其附属公司。保留所有权利。 170万人使用过ChatGPT 。 近70%在工作中使用ChatGPT 的人没有告诉老板这件事** •在发布后的前两个月 •**来源,商业内幕 尽管对AI感到兴奋,但将近三分之一的企业在评估风险时禁止使用GenAI 来源:2023年GartnerIT领导者对软件工程的生成AI进行民意调查 AI的好处大于风险 同意的受访者百分比 27% 不知道 5% No n=1,079 资料来源:超越炒作:ChatGPT和GenerativeAI网络研讨会的企业影响,2023年4月21日问:“您认为生成AI的好处大于风险吗?” 有关更多信息,请参阅ExecutivePulse:AI投资从ChatGPT炒作中获得提振 68% Yes 尽管对AI感到兴奋,但超过三分之一的企业缺乏使用GenAI的指南 来源:2023年GartnerIT领导者对软件工程的生成AI进行民意调查 路线图 了解用例和风险 评估风险作为治理模型的输入 在政策指导中平衡用例和风险偏好 了解用例和风险 评估风险作为治理模型的输入 在政策指导中平衡用例和风险偏好 什么是GenerativeAI? 聊天GPT 一种OpenAI服务,它将会话聊天机器人与LLM结合在一起以创建内容。它在来自多个来源的数十亿个单词的基础模型上进行了训练,然后通过从人类反馈中进行强化学习进行了微调。 大型语言模型(LLM)在大量文本上训练的人工智能允许它 解释和生成人性化的文本输出。 基础模型 大型机器学习模型:它们在大量未标记的数据上进行训练,经过微调并适用于广泛的应用。 GenerativeAI(GenAI) 从工件表示中学习的AI技术 在模型中生成具有相似特征的新工件。 来源:Gartner Legal Research Drafting 总结 Marketing 生成广告文案 内容生产 写入产品 复制 Sales 创建销售支持 材料 培训内容 软件 Engineering AI辅助配对编程 代码生成 代码 documentation 供应 链条 内部知识基础 问题解决 客户 服务 平衡风险与用例 对人工智能风险的担忧:第2季度风险流星 第2季度的主要新兴风险 按风险评分1 ScoreRank 风险名称 影响 Score 时间范围Score 频率 2 4 Organization 财务规划不确定性 第三方可行性 5 中国贸易 Tensions 云 集中风险 MassGenerativeAI可用性 1 第三方生存能力2.91 1.92 67% MassGenerativeAI可用性2.922.2066% 3 FinancialPlanning2.711.7362% 不确定性 云浓度 Risk2.902.2362% ChinaTrade2.802.0256%Tensions 排名影响时间 n=249 受限制的分销 12©2023Gartner,Inc.和/或其附属公司。保留所有权利。 来源:第2季度Gartner新兴风险调查 1风险评分:风险评分=立方根(影响×逆时限×频率入选前十大新兴风险重估) GenAI使用风险 LLM输出可能由于工具无法理解内容或培训不准确而出现故障 材料。 不可靠的输出 Description Risk 数据隐私和保密 在一些LLM中输入的信息可以成为其训练集的一部分。 模型和输出BiasLLM工具可能产生有偏差的输出。 知识分子Property输入的IP可能成为训练集的一部分,输出可能违反版权或IP保护。 网络安全不良行为者可以滥用LLM大规模访问信息或生成恶意软件攻击。 消费者保护未能向消费者披露LLM使用情况的企业可能会失去客户的信任。 第三Party第三方使用LLM工具可能会损害组织数据。 责任与LLM输出相关的责任仍不清楚。在某些情况下,用户对工具输出负责。 监管合规性 分散的、快节奏的人工智能监管环境使得很难跟上潜在的监管。 受限制的分销 13©2023Gartner,Inc.和/或其附属公司。保留所有权利。 资料来源:法律和合规负责人需要了解的大型语言模型风险 人工智能的社会风险 GenAI 使用事故 错位,寻求动力的AI 对社会的结构性影响 Misuse Disruptindustries 新的、规模较小的竞争对手,由GenAI推动 ,进入并颠覆行业 大量生产错误信息和深度假货 AI幻觉导致不正确的决策 预期 内容和代码创建者的大规模失业 目标与人类不一致的寻求权力的人工智能模型 无意的 来源:Gartner 了解用例和风险 评估风险作为治理模型的输入 在政策指导中平衡用例和风险偏好 部署模型 可公开访问的生成性AI行业定制的生成AI系统集成的生成AI 怎么了? 公开提供的大型语言模型产品 将大型语言模型产品整合到软件或内容产品中的第三方供应商产品 开源或专有(可许可)语言模型技术 优点●没有或低财务成本 ●每个人都可以访问 ●潜在的更高的法律准确性和对非公开法律信息的访问 ●更强大的数据保护●可能包括引文 ●能够根据单个公司的需求进行定制●与公司内部数据和流程轻松集成 ●风险通常低于公共模型(至少在数据丢失方面) 缺点●更高的隐私和IP风险 ●更高的“幻觉”风险 ●需要更精确的用户输入和培训 ●无引文●可能不是当前 ●成本较高 ●灵活性和能力的限制自定义●快速变化的市场;选择可能很困难 ●需要强大的内部技术能力和维护 Examples OpenAI的聊天GPT,谷歌的吟游诗人 CasetextCoCounsel或Harvey HuggingFace中包含的模型,需要技术团队将其集成到现有的企业系统中 风险概况各不相同 来源:Gartner,说明性数据 了解用例和风险 评估风险作为治理模型的输入 在政策指导中平衡用例和风险偏好 治理AI的多种方法 推动决策的四个因素 来源:Gartner,GenerativeAI:创建策略时要做出的4个决定 AI策略的推荐结构 •目的和范围 •什么是GenerativeAI? •与生成AI相关的风险 •可接受和禁止的用例 •用户义务 •监控 •未能遵守 •角色和责任 •相关政策 •报告信息 来源:Gartner,工具:生成性AI政策模板 政策是不够的-治理+控制 利用现有治理结构 IT合作伙伴关系 •合规、隐私或风险委员会 •与隐私、IT安全、人力资源、法律和业务线索 •用例和批准的存储库 •DLP工具 •阻止应用程序 •一致的纪律未经授权使用或部署第三方应用程序 培训和沟通 第三方风险 •董事会培训达到风险容忍度水平 •更新InfoSec、隐私或行为准则培训,以将生成性AI置于上下文中 •合同变更项目 •扩展到包含机密信息的应用程序 •要求透明度和第三方通知 来源:Gartner IBM的焦点参与 受限制的分销来源:改编自IBM 焦点分流流程 受限制的分销 24©2023Gartner,Inc.和/或其附属公司。保留所有权利。 来源:改编自IBM Recommendations 了解您的企业希望如何使用和目前正在使用AI,以及这样做的好处与您的执行团队合作,定义可接受的用例 在指导和治理与企业希望如何使用它所产生的风险之间取得平衡 我们支持的其他地方 •Pan-Gartner专家团队应对多个角色的趋势 •基准数据,为您提供来自同行的洞察力 •新的AI资源中心,对多个主题进行深入研究 •帮助在整个组织中进行沟通的工具和模板 •支持您的专家团队 问演讲者 Gartner会议2023-2024 访问更多研究支持的见解,以掌握您的角色并转变您的业务。 查看全球Gartner会议日历 受限制的分销 28©2021Gartner,Inc.和/或其附属公司。保留所有权利。 :gartner.com/cal 战略规划要点 如何避免7个代价高昂的计划错误-采用一页模板来传达您的计划 □立即下载 第23季度 Gartner业务季刊 AI在这里和现在 立即下载 ©2023Gartner,Inc.和/或其附属公司。保留所有权利。2510876 Gartner在社交媒体上 在社交媒体上关注我们,以获取最新的见解和趋势。 跟随我们 成为客户 客户可以全天候访问经过验证的管理和技术研究,专家建议 ,基准测试,诊断等。 填写表格以与代表联系并了解更多信息。 了解更多 或者给我们打电话:+441784614280|+18556370291 上午8点至晚上7点ET 上午8:00-下午5:00GMT 周一至周五 受限制的分销 32©2023Gartner,Inc.和/或其附属公司。保留所有权利。 获取更多Gartner见解 下载研究幻灯片 在以下位置查看即将到来的按需Gartner网络研讨会gartner.com/网络研讨会 对本次会议进行评级 对本次会议进行评级