视点2023 我的孩子有代替我 与ChatGPT AI将如何生成2023年中断业务 视点 我的孩子有代替我 与CHATGPT AI将如何生成AUTHOR 2023年中断业务 ALbertMeige 与善意的承认 格雷戈里·雷纳德的贡献, AAICO应用AI负责人 这个观点是AI系列中的第二个观点ChatGPT最初受到一篇文章的启发 在LinkedIn上发布,这是100%的AI生成从一个单一的提示。第一个观点是 使用迭代过程与AI共同编写。这个观点提供了一个更深入的关键人类编写的技术分析 作者和校对并由AI增强。 最近,我的一个15岁的双胞胎女儿问我帮她做作业。不幸的是,我 已经忙着帮助另一个。当我终于来了30分钟后,她告诉我,为时已晚她向ChatGPT寻求帮助。通过 一系列查询和答案,对话机器人解释了她的物理课在光学以及帮助她解决了她应该做的问题。我检查了聊天和结果。解释和指导完美无瑕。 我不会称之为“作弊”-她没有要求机器人做这项工作相反,通过她与机器人的积极互动,她 获得了对问题以及如何解决问题的更好理解。超越展示了ChatGPT的潜在力量,这个个人轶事揭示了在人与人工智能(AI)的交互中可以想象到什么。 我们预测2023年将是AI增强的转折点 业务。下面我们仔细看看GPT是什么,它是如何工作的,它的局限性和风险,以及短期应用前景。 2 什么是GPT? GPT(生成式预训练变压器)是GPT-3两个数量级 研究实验室OpenAI的大型语言支持几个游戏的模型(LLM)- 不断变化的应用程序,包括ChatGPT 和Dall-E OpenAI最近受到重视在290亿美元 由ElonMusk于2015年成立, SamAltmanGregBrockman还有IlyaSutskever, OpenAI已获得微软的投资 和LinkedIn联合创始人里德·霍夫曼,以及著名的硅谷金融家彼得·泰尔。 根据最近的报道华尔街 Journal,OpenAI正在谈判通过要约收购,可能会将公司估值定为惊人的290亿美元-从 该公司先前的估值为140亿美元2021年,特别是考虑到 当前的经济气候。 微软计划整合OpenAI的GPT技术- NologyintoBing,withthesearchenginepotentially 使用它来生成完整的句子和源代码2023年3月的搜索查询信息。How-曾经,GPT不是为了搜索互联网或 找到实时信息,因此它在这种情况下的使用可能是有限的。 比它的前身大 GPT的第三个版本(GPT-3)在 2020年7月通过一个拥有1750亿参数的API- 相比之1下,只有15亿个参数 GPT-2,于2019年2月推出。这个规格-tactular增加-18中的两个数量级 几个月-使GPT-3成为现有最大的局域网- 迄今为止的guage模型。它有10倍以上的容量比微软的图灵自然语言生成- TION(T-NLG),于2020年初推出,当时,有史以来最大的模型 170亿参数。需要明确的是:数字参数的精度直接关系到 模型。虽然许多分析师已经在演讲- 更少地了解GPT-3提供的当前结果,保持请记住,GPT-4可能会在2023年问世,预计将获得数万亿的参数-另一个 10x增加。 正如OpenAI的原始论文所述,该卷2 用于训练模型的数据也是巨大的。根据该论文,GPT-3是使用 来自CommonCrawl的数据组合(数据包含大量网页和 文档)、WebText2(Web的大型数据集 页面),Books1和2(包含书籍的数据集),和维基百科。大部分数据,60%,来自 来自普通爬行,包括4100亿 字节对编码(BPE)令牌。其他数据3 设置占剩余的40%,包括19 来自WebText2的十亿令牌,来自120亿令牌 GPT未设计搜索互联网或find实时 信息。 Books1,来自Books2的550亿个代币和30亿个代币来自Wikipedia的令牌。总的来说,GPT-3经过训练上千亿个单词,也能够 使用各种语言编写代码,包括CSS、JSX、和Python。它的全面训练使它能够 执行各种语言任务,而无需额外的培训。 1在AI中,参数是对数据的某些方面应用较大或较小权重的计算。参数的数量是规模和精度的指标的模型。 2布朗,汤姆·B等人。“语言模型是很少有人学习的人。”第34届神经信息处理系统国际会议论文集。ACM,2020年12月。 3BPE是一种数据压缩技术,通过用单个字节替换数据集中频繁出现的字节对。例如,如果字节对“th”频繁出现 在数据集中,它可以被替换为单个字节,说“a”。BPE的目标是通过用单个字节替换频繁发生的字节对来减少数据集的大小。在在GPT-3的情况下,训练数据由4100亿个令牌组成,这些令牌已被字节对编码,这意味着频繁出现的字节对已被替换为单个字节来减小数据集的大小。 3 GPT由人类训练并给出与人类相比,更好的结果 一个人——但要持续多久? 根据OpenAI的博客,GPT接受了培训使用多迭代三步方法: 1.监督学习-人类训练员从事与另一个人的对话 人类假装是AI助手。这个 对话数据被馈送到模型中,以训练它。 2.奖励模式-人类从事 与经过训练的模型的对话和 根据准确性对AI的响应进行排名或相关性来创造所谓的奖励 模型。 3.强化学习-微调 使用奖励模型和OpenAI的模型近端策略优化。 因此,训练模型是人力密集型的 task.Andaswewillsee,thetoolsbuiltontopofGPT在一起工作时会提供更好的结果 与人类比对自己。然而,它是有效的 想知道人类需要呆多久循环。 构建在之上的工具 GPT给出更好的工作时的结果与人类一起 而不是自己。 几个应用程序已经 建在GPT之上,包括ChatGPT和DaLL-E OpenAI在30上推出了ChatGPT聊天机器人2022年11月。基于GPT-3.5,它可以生产对问题或提示的类似人类的回答 我们目前正在经历一个技术加速,这只是开始。岁月 2023年及以后将在技术方面至关重要-Nology采用。这对我来说并不奇怪,因为这些技术已经为几个 几年来,不太先进的形式。ChatGPT加速- 实现人工智能和生成的民主化 AI,到目前为止一直受到顶级AI的阻碍公司发现它太复杂和风险 向公众发布。 问题不是机器是否会 取代人类,但这项技术是否 将被广泛采用-就像电力一样,个人电脑和互联网在 过去。风险没有被机器取代 但是通过整合这些技术的竞争对手-进入他们的生产过程。一个主要的挑战是走出我们的舒适区 学习-快速-与机器协作为了避免自己被打乱。 格雷戈里·雷纳德,AAICO应用人工智能主管, 旧金山,美国 模拟对话。机器人在 人们写的大量文本,允许它产生听起来自然的反应。另外- 到GPT-3.5,ChatGPT还利用了OpenAI的审核API来保护聊天机器人 暴露于或产生令人反感的内容。 要使用ChatGPT,您可以注册一个帐户 在chat.openai.com上,并开始探索该工具的功能。ChatGPT提供指导和考试- 适用于首次使用的用户,以帮助您入门。目前,ChatGPT是免费的,尽管 未来可能会收取费用计算的高成本。 Dall-E是基于神经网络的图像生成OpenAI开发的系统,也是 在GPT之上。它被训练为从生成图像文本描述,使用文本图像的数据集对。该系统于2021年1月推出, 连同它的续集,Dall-E2,这是介绍-2022年4月推出。Dall-E可以产生广泛的图像范围,包括逼真,高度 程式化和超现实的图像。它有潜力用于各种应用,如设计和 广告。Dall-E与其他应用程序竞争- 如中途之旅。 4 GPT及其应用已经中断业务-这只是开始 第一个现有的应用程序之一想到被GPT打断是 “搜索”,今天由Google主导。然而,有几件事要保留 首先,ChatGPT不是一个实时网络搜索引擎。相反,它是一种语言模型 早在2021年就接受了大量数据的训练。 因此,ChatGPT在2021年之后没有任何知识。至少还没有。第二,谷歌还开发了 它自己的人工智能技术,包括LaMDA,它的在上训练的大型神经语言模型 1.56万亿字的对话数据和 使用Transformer架构的在线页面- 真实,参数高达1370亿。我们因此可以期待谷歌的一些举动在接下来的几个月里。 也就是说,应用程序和用例已经存在 对于GPT,特别是ChatGPT,这些应用- 阳离子有可能产生巨大的破坏- 在未来几年内。一些主要的用例包括: 图1-使用ChatGPT自动生成的Python代码示例 人类般的聊天 AI驱动的聊天系统,可以复制人类谈话有可能扰乱传统- 国家业务通过自动化,例如,客户-tomer服务任务。 写入内容 人工智能现在可以帮助人类写作。 注明的电子邮件、文章、信件(甚至假装是 律师)、诗歌和歌曲。这些人工智能生成的伴侣- 里亚尔可以快速有效地创建,通常使用与人类产生的质量水平相当 内容。内容可以使用简单的生成提示或通过更复杂的交互 用机器人得到更有说服力的结果。 重新制定、改进、扩大、或合成 通过提供现有(人类)的起点 含量,GPT可用于重新制定、改进,膨胀,或合成新材料。这有 许多潜在用途,如创造更多高效准确的长篇文档摘要-生成新的想法或观点的基础 在现有内容上,甚至自动化创作- 营销副本或其他书面材料。GPT具有巨大的潜力来简化和改进内容创建过程。 编写和调试计算机代码 GPT可以编写计算机代码,这涉及到- 使用所需的功能提供GPT,然后允许它生成满足这些要求的代码规格。而GPT的代码生成功能-能力仍处于发展的早期阶段, 它有可能极大地简化编码过程(例如,参见图1)。 5 提升创造力 长期以来人们一直认为,创造力只是对于人类来说,电脑永远不会被创造- 。我们认为这不再是真的。艺术家创作者现在可以在互动中利用AI 提高他们人类创造力和记忆力的方式- idlytestideas.Forexample,whatwoulda“贡品钢铁侠优雅的西装“看起来像(见图2)? 上述应用远非详尽无遗 列表,特别是因为意外的属性 已经开始从这些工具中出现,并将在未来不断涌现。这些新兴的prop-erties包括(但不限于)以下内容。 填空 GPT-3可以通过使用其知识来填补提示中的空白- 语言和语境的边缘和理解产生相关和适当的回应。它 已经接受了大量数据的训练,允许它对什么单词做出明智的预测 或短语可能会出现在给定的情况下-文本。这使它能够“填空”并支持-提供对提示的连贯和明智的回应 这可能是不完整或模棱两可的。 图3-使用MidJourney和提示生成的照片 "1920年钢铁侠的照片" 图2-带有提示的MidJourney设计的套装“一件优雅的西装,这将是对铁的致敬 男人,全身,高级时装,逼真,超详细 4k--ar2:3“ 视觉推理 最近的一项科学研究比较了推理4人类对LLMGPT-3和 发现该模型具有很强的能力 抽象模式归纳,可以找到零射广泛的类比问题的解决方案。在 一些设置,该模型甚至超过了人类 capabilities.ThesefindingssuggeststhatLLMlikeGPT-3可能已经获得了一种新兴的能力 模仿人类足够的认知能力 训练数据。 视觉趋势理解 GPT-3已经获得了分析和了解视觉趋势,包括外观和 历史上特定时间段的感觉。这是通过对大量数据的训练, 这使得它能够识别模式并进行预关于视觉趋势的指示(见图3)。 该技术不仅已经启用了新的 使用,新兴的物业将使进一步的增加-国家意想不到的新用例。最后,采用惊人的快速。ChatGPT于30日推出2022年11月,到12月4日,它已经超过100万用户-在发布后仅五天。 4Webb,Taylor,KeithJ.Holyoak和LuHongjing。“大型语言模型中的新兴类比推理”。加州大学,2022年1