-、A大稳型领域的进展 .Al大模型领域发展迅速,已经出现了能稳定胜过上一代模型的新型号。.某些新模型在强推理内容上可能优于前代模型,整体水平接近前代模型。 二、多模态大模型的发展 .某公司的新型多模态大模型支持多模态能力,与前代模型和另一公司的GM1.0模型相似。 -、A大稳型领域的进展 .Al大模型领域发展迅速,已经出现了能稳定胜过上一代模型的新型号。.某些新模型在强推理内容上可能优于前代模型,整体水平接近前代模型。 二、多模态大模型的发展 .某公司的新型多模态大模型支持多模态能力,与前代模型和另一公司的GM1.0模型相似。.该公司在多模态大模型方面的进展并不理想,影响了其在商业拓展尤其是多模态应用方面的表现。 三、1.5模型的应用与性能 .1.5模型能够在语言场景下解锁生产力环节,适用于生成文档和代码。 .在大部分生产力场景下使用是足够的,但在极限测试中仍逊于前代模型或class3。四、日常办公场景下的AI模型应用 .真的1.5模型能够记录足够长的知识窗口期,有助于写文档和做出准确判断,实现recall无问题。 .Plus3模型尚未在推理速度上进行优化,但综合实力仍然优于Cloud模型。五、开源模型的贡献与闭源模型的挑战 .某公司的开源模型在推理加速和大模型的发音修订方面有所贡献。 .闭源模型需要自行尝试复刻,对于想要使用这些模型的开发者来说存在一定挑战。Q&A Q1:OPPOAI和皮卡在过年期间发布的纹身视频模型有哪些技术优点? A1:这些纹身视频算法采用了传统贝斯模型,能够在空间上生成关键帧,成本较低。OPPOAlI的方法是将视频分块处理,每个块包含空间和时间信息,以提高信息完整性。 Q2:国内大模型何时能赶上GPT水平?国内大模型厂商的评价和排序如何? A2:中国公司在算力方面存在挑战,但若解决算力问题,制作与GPT相当的模型并非难题。在中国大模型厂商中,志远被认为是第一梯队,百度在合规性方面表现良好,而圣象大唐 和阿里通等公司则在使用量和关注度方面表现不错。 Q3:GPT4.5的发布时间是什么时候? A3:GPT4.5可能在一个月内发布,它是基于GPT4的改进,主要涉及工程问题。 Q4:CCTV5将提供哪些替代功能? A4:GPT5旨在成为一个原生多模态模型,但目前仍面临挑战,例如模型推理能力下降。可能的解决方案包括增加训练数据量和使用Moe架构。 Q5:AlID处理的应用场景和发展路径有哪些? A5:A点的开发较为困难,解决方案可能包括为大客户定制模型,提高特定任务的推理能力,或者通过API定义指令集来实现精准的函数调用。 Q6:垂直行业模型的发展状况及成长前景如何? A6:垂直场景将是商业化应用的主流。大企业可能在私有云上托管模型,专业企业和中大型企业可能采用专业模型。例如,OPPO等公司已实现个人训练自己的GPT模型。 Q7:GPT-5在海外可能在哪些应用场景实现突破?电商助理和机票预订功能实现不佳的原因是什么? A7:GPT-5将解决多模态问题,未来发展将看是否能在一个模型中实现多个模块的互动。电商助理和机票预订功能的主要障碍是产品和Al算法开发者之间的不良对齐,以及模型在推理和信息查询上的高要求。 Q8:国内实现应用场景突破的瓶颈在哪里?A8:国内外普遍面临的挑战是缺少强大的底层模型。一旦有了可靠的底层模型,应用场景的搭建将更加顺畅。Q9:电商领域中,哪些数据积累对模型应用场景有价值? A9:电商领域中,虚拟客服的应用场景以及电商交易相关数据的积累对模型的应用是有价值的。 Q10:英伟达即将发布的第一版芯片对Al产业可能产生哪些影响? A10:英伟达的新芯片可能会加快供货速度,增加云服务商的GPU供应,从而降低算力成本。推理端的进步显著,例如拉马模型的推理速度提升超过10倍。这将使得大模型能力逐渐普及,推理成本大幅降低。 Q11:大模型的商业模式和竞争格局将如何演变? A11:目前,大型模型的定价主要是为了覆盖算力消耗成本,厂商并未过分强调盈利。未来竞争格局尚不明朗,但Cloud服务价格较高且质量优于Google,而openai服务不够稳定。大模型的长期价值将取决于其在应用场景中的表现。 Q12:自研芯片趋势背后的原因是什么? A12:自研芯片趋势的背后原因是算力的短缺,尤其是在C端 大规模应用大语言模型时。自研芯片有助于实现独立自主,避免对英伟达的依赖,并且能够进行定制化优化,提升效率。 Q13:B端用户使用AI服务的体验如何? A13:目前cosplay的使用体验并不理想,主要是因为不支持长contextwindows,但预计在未来1到2个月内会有所改善。大多数企业不会使用公共AI服务,以防数据泄露,更倾向于私有化部署。 Q14:Al手机和大模型产品是否能满足消费者需求? A14:目前公司在处理模型参数时的挑战是如何在保证参数精度的同时压缩模型大小。例如,一个700亿参数的模型,若每个参数为16位,则大小约为140GB。在手机等设备上运行这样的模型需要大幅度减少参数精度,从而影响模型的推理精确度和质量。目前,公司 正在探索使用较小的模型和保持较高精度的方法,以实现更实用的应用场景。但在手机这一场景中,人工智能的能力可能被过高估计,目前仅能在部分场景中实现优化。