您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[OpenAI]:揭示OpenAI在2027年之前创建AGI的计划 - 发现报告
当前位置:首页/行业研究/报告详情/

揭示OpenAI在2027年之前创建AGI的计划

信息技术2024-03-11-OpenAIS***
揭示OpenAI在2027年之前创建AGI的计划

揭示OpenAI在2027年之前创建AGI的计划 在本文档中,我将披露我收集到的有关OpenAI在2027年之前创造人类级别AGI的(延迟)计划的信息。并非所有信息都能轻易验证,但希望有足够的证据说服你 摘要:OpenAI于2022年8月开始训练一个125万亿参数的多模态模型。第一阶段是Arrakis,也称为Q*。模型于2023年12月完成训练,但由于推理成本过高而取消发射。这就是原计划于2025年发布的GPT-5。戈壁(GPT-4.5)已更名为GPT-5,因为原来的GPT-5已被取消。 Q*的下一阶段原为GPT-6,后更名为GPT-7(原计划于2026年发布),但因埃隆-马斯克最近的诉讼而被搁置。 Q*2025(GPT-8)计划于2027年发布,实现完全AGI ... Q*2023=48IQ Q*2024=96IQ(delayed) Q*2025=145IQ(delayed) 埃隆-马斯克因为他的诉讼而导致了延迟。这就是为什么我现在要透露这些信息,因为这样做不会造成进一步的伤害 我见过很多关于AGI(人工通用智能)的定义,但我要把AGI简单地定义为一种人工智能,它可以完成智能人类可以完成的任何智力任务。现在大多数人都是这样定义这个词的。 2020年,我第一次被人工智能系统震惊了--那就是GPT-3。GPT-3.5是GPT-3的升级版本,是ChatGPT背后的模型。当ChatGPT发布时,我感觉好像全世界终于跟上了我两年前的互动。2020年,我广泛使用了GPT-3,它的推理能力令我震惊。 GPT-3和它的半步后继者GPT-3.5(在2023年3月升级为GPT-4之前,它为现在著名的ChatGPT提供了动力),是向AGI迈出的一大步,而早期的模型却不是这样。值得注意的是,早期的语言模型,如GPT-2(以及Eliza之后的所有聊天机器人),根本不具备真正的连贯响应能力。那么,为什么GPT-3会有如此巨大的飞跃呢? ... 参数计数 "深度学习"这一概念基本上可以追溯到20世纪50年代人工智能研究的初期。第一个神经网络诞生于上世纪50年代,而现代神经网络只是"更深"而已,这意味着它们包含更多层次--它们要大得多,也要在更多数据基础上进行训练。 当今人工智能领域使用的大多数主要技术都源于20世纪50年代的基础研究,并结合了一些小的工程解决方案,如"反向繁殖"和"变压器模型"。总的来说,人工智能研究70年来没有发生根本性变化。因此,近期人工智能能力爆发的真正原因只有两个:规模和数据。 该领域越来越多的人开始相信,几十年来我们已经解决了AGI的技术细节,只是在21世纪之前没有足够的计算能力和数据来构建它。显然,21世纪的计算机要比20世纪50年代的计算机强大得多。当然,互联网也是所有数据的来源。 那么,什么是参数?你可能已经知道了,但简单概括一下,它类似于生物大脑中的突触,即神经元之间的连接。生物大脑中的每个神经元与其他神经元之间大约有1000个连接。显然,数字神经网络在概念上类似于生物大脑。 ... … 那么,人脑中有多少个突触(或"参数")呢? 最常引用的大脑突触数量大约为100万亿个,这意味着每个神经元(人脑中约有1000亿个神经元) 大约有1000个连接。 如果大脑中的每个神经元都有1000个连接点,这意味着一只猫大约有2500亿个突触,一只狗有 5300亿个突触。一般来说,突触数似乎预示着较高的智力,但也有少数例外:例如,从技术上讲,大象的突触数比人类高,但智力却比人类低。 突触数量越多,智力越低,最简单的解释就是高质量的数据量越少。从进化论的角度来看,大脑是在数十亿年的表观遗传数据的基础上"训练"出来的,而人类的大脑是在比大象更高质量的社交和交流数据的基础上进化出来的,因此我们的推理能力更强。无论如何,突触数量无疑是非常重要的。 同样,自2010年代初以来,人工智能能力的爆炸式增长是更强计算能力和更多数据的结果。GPT-2有15亿个连接,还不如一个小鼠的大脑(约100亿个突触)。GPT-3有1750亿个连接,已经接近猫的大脑。 直觉上,猫脑大小的人工智能系统会比小于老鼠大脑的人工智能系统更优越,这难道不是显而易见的吗? ... 预测人工智能的性能 … 2020年,在发布了1750亿参数的GPT-3之后,许多人都在猜测一个比GPT-3大600倍、参数为 100万亿的模型的潜在性能,因为这个参数数将与人脑的突触数相匹配。2020年并没有强烈的迹象表明有人在积极研究这种规模的模型,但这种猜测还是很有趣的。 最大的问题是,有可能通过参数数量来预测人工智能的性能吗?事实证明,答案是肯定的,就像你在下一页看到的那样。 [来源:https://www.lesswrong.com/posts/k2SNji3jXaLGhBeYP/extrapolating-gpt-n-performance] 【以上内容来自Lanrian的LessWrong帖子。] … 正如兰里安所阐述的那样,外推表明,人工智能的性能似乎莫名其妙地达到了人类水平,同时人类水平的大脑大小与参数计数相匹配。他对大脑中突触数量的计算大约为200万亿个参数,而不是通常引用的100万亿个参数,但这一点仍然成立,并且在100万亿个参数下的性能非常接近最佳。 顺便提一下——需要注意的一件重要事情是,尽管100万亿在性能上略显次优,但OpenAI正在使用一种工程技术来弥补这一差距。我将在文档的最后解释这一点,因为这对OpenAI的构建至关重要。 Lanrian的帖子是网上许多类似帖子中的一个——这是基于以前型号之间的跳跃而推断的性能。OpenAI 当然有更详细的指标,他们得出了与Lanrian相同的结论,我将在本文稍后展示。 那么,如果人工智能性能可以根据参数计数进行预测,并且~100万亿个参数足以达到人类级别的性能,那么100万亿个参数的人工智能模型将于何时发布? ... GPT5号在2023年末实现了智商为48的AGI原型 … 第一次提到OpenAI正在开发的100万亿参数模型是在2021年夏天,萨姆·奥特曼是Cerebras公司的主要投资者之一。 萨姆·奥特曼在2021年9月举行的名为AC10的在线会议和问答上对安德鲁·费尔德曼的回应。值得注意的是,萨姆·奥特曼承认他们的100万亿参数模型计划。 (来源:https://albertoromgar.medium.com/gpt-4-a-viral-case-of-ai-misinformation-c3f999c1f589 https://www.reddit.com/r/GPT3/comments/pj0ly6/sam_altman_gpt4_will_be_remain_textonly_will_not/reddit上的帖子来源于LessWrong的一个帖子,该帖子已应SamAltman的要求删除: https://www.lesswrong.com/posts/aihztgJrknBdLHjd2/sam-altman-q-and-a-gpt-and-agi) … 人工智能研究员伊戈尔-拜科夫(IgorBaikov)仅在几周后就声称,GPT-4正在接受训练,并将于12月至2月间发布。我将再次证明伊戈尔真的确实有准确的信息,并且是一个可信的消息来源。这一点很快就会变得很重要 格温是人工智能领域的知名人物--他是一名人工智能研究员和博客作者。 和博主。他在Twitter上给伊戈尔-拜科夫发消息(2022年9月),这就是他收到的回复。 重要提示:"参数数量巨大"。"文本"、"音频"、"图像"、"可能还有视频"、 以及"多模态"。 这篇文章来自一个名为"thisisthewayitwillbe"的子论坛,这是我参加的一个小型私人子论坛,由一位对人工智能感兴趣的数学教授运营。人工智能爱好者(还有一些专家) 使用该子版块讨论的人工智能话题比主流话题更深入。 参数数量巨大"?听起来伊戈尔-拜科夫指的是100万亿个参数的模型,因为在他于2022年夏天发布推文时,5000亿个参数的模型和多达1万亿个参数的模型已经被训练过很多次了(因此这种规模的模型并不出众,当然也称不上"巨大")。 rxpu"似乎是一位来自土耳其的人工智能爱好者(?),他的这些推文很有意思,因为他们在其他人之前就对GPT-4的发布窗口提出了非常类似的说法(相信我--我每天都要花很多时间在互联网上搜索类似的说法,但没有人比他更早提出这一具体说法)。 他还提到了"125万亿突触"的GPT-4--然而,他错误地将GPT-3的参数数说成了1万亿。(看起来rxpu确实掌握了内部信息,但在参数数量上弄混了--我稍后会再次说明这一点,并证明rxpu没有撒谎)。 … 这是一个较弱的证据,但还是值得一说,因为"roon"作为硅谷的人工智能研究人员相当著名,OpenAI 的首席执行官SamAltman和其他OpenAI研究人员都在Twitter上关注他。 2022年11月,我联系了一位名叫阿尔贝托-罗梅罗的人工智能博主。他的文章似乎在网上传播得很广,所以我希望如果我给他发一些关于GPT-4的基本信息,他可能会写一篇文章,这样消息就会传开。 这次尝试的结果非常显著,我将在接下来的两页中加以说明。 阿尔贝托-罗梅罗的帖子。下一页将展示普遍反应。 100万亿个参数的泄露在网络上疯传,影响了数百万人,以至于包括首席执行官萨姆-阿尔特曼(SamAltman)在内的OpenAI员工不得不做出回应,称其"完全是胡说八道"。TheVerge称其"与事实不符"。阿尔贝托-罗梅罗(AlbertoRomero)声称对泄露事件负责,如左图所示。 … IgorBaikov是"参数数量巨大"说法的始作俑者。 参数"声明的始作俑者伊戈尔-拜科夫也看到了GPT-4泄漏病毒的传播(这基本上是他自己造成的),并做出了回应。 因此,伊戈尔在说"参数数量巨大"时,毕竟是指"100万亿个参数"。 但是,伊戈尔的消息来源可靠吗?他的其他说法准确吗?多模态又是怎么回事? GPT-4处理图像、声音和视频的能力如何?我很快就会证明伊戈尔的可靠性。 大约在2022年10月/11月,我确信OpenAI计划在发布完整的100万亿参数模型("GPT-5")之前,首先发布GPT-4的~1-2万亿参数子集。 100万亿参数模型("GPT-5")。 这些消息来源并不特别可靠,但他们都说了同样的话--包括rxpu、 曾声称有一个125万亿参数的模型正在制作中,后来又错误地声称GPT-3是1万亿--我相信他把信息弄混了。 --(日期:2022年) 这里的消息来源可信度不一(Jyri和Leeor是旧金山的投资者,Harris是一位人工智能研究员),但他们都莫名其妙地说了同一件事--GPT-4 正在2022年10月/11月进行测试。而且(从20220^)国工研究员 CherieMPoland的说法,GPT-4绝对是在10月份进行训练的,这又与IgorBaikov的泄密不谋而合。 … 正如山姆-奥特曼(SamAltman)本人所表明的那样,OpenAI的官方立场是,100万亿个参数的GPT-4完全是"胡说八道"。这句话有一半是对的,因为GPT-4是完整的100万亿参数模型的1万亿参数子集。 为了说明100万亿参数模型尚未到来,仍处于开发阶段,Semafor在2023年3月(GPT-4发布后不久)声称 GPT-4是1万亿参数。(OpenAI拒绝正式披露参数数量)。 还有一点值得注意的是,OpenAI声称GPT-4在8月份"完成了训练",而我们知道,在8月到10月期间,一个"巨大的"多模态模型正在接受训练。对此的一种解释是,OpenAI撒了谎。另一种可能是,1万亿参数的GPT-4可能在8月份完成了第一轮训练,但在8月至10月期间又进行了额外的再训练,而这正是100万亿参数模型的大部