您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[AIRPO]:苹果AI的发展策略和变现方式 - 发现报告
当前位置:首页/其他报告/报告详情/

苹果AI的发展策略和变现方式

2024-08-06-AIRPOB***
苹果AI的发展策略和变现方式

【以下为专家观点汇总】 苹果在AI方面的整体进度和计划是什么样的? 苹果目前在AI领域取得了显著进展,主要集中在自研AI和第三方合作两个方面。今年,苹果已经展示了其成熟的AI能力,包括与OPPO和谷歌的合作。尽管这些合作未在发布会上详细说明,但用户可以通过调用谷歌的资源来使用计算机视觉(CV)功能。 苹果在文本生成和图片生成方面投入了大量资源,开发了一套离线框架,用于实时屏幕感知。这一框架能够理解用户当前所在界面及其构成,包括可点击元素等。此外,苹果还推出了名为AppIntent意图框架的底层技术,该框架包含自学习引擎,可以实时学习用户行为,并根据时间和空间提供个性化服务。例如,在特定时间段内,系统会自动打开常用应用,如企业软件或外卖软件。 意图框架还支持第三方开发者接入,通过捐赠库将应用内功能封装成原子化能力,并捐赠给CV底层意图框架进行学习。这样,用户可以在特定场景下快速调用这些功能。例如,美团可以将外卖推荐功能封装成原子能力并捐赠给意图框架,从而实现智能推荐。 今年,这些AI能力将在所有机型上推广,其中文本识别、图片生成等基本不受设备限制,而屏幕感知等高级功能则需要A17及以上芯片支持。苹果还推出了一套公有化控件系统,使得任何应用都能通过SDK调用文本润色、改写、生成以及图片美化、风格处理等功能。这些控件不仅适用于官方应用,如便签、笔记、邮件和短信,也支持第三方应用接入,实现广泛覆盖。 苹果如何利用意图框架提升用户体验? 意图框架是苹果提升用户体验的重要工具之一。该框架通过自学习引擎实时分析用户行为根据时间和空间提供个性化服务。例如,如果某位用户每天上午9点到10点出现在写字楼附近,并且经常使用企业软件或Office软件,那么系统会自动优化这些应用的使用体验。同样,在中午时段,当用户可能打开外卖软件时,系统会智能推荐周边美食。 此外,意图框架允许第三方开发者将其应用内功能封装成原子化能力并捐赠给CV底层进行学习。例如,美团可以将外卖推荐功能封装为消费原子能力,然后结合苹果底层自学习引擎,在特定场景下主动向用户推荐相关服务。这种方式不仅提高了系统智能性,还增强了跨平台兼容性,使得更多第三方应用能够无缝集成到苹果生态中,为用户提供更丰富、更智能的使用体验。 苹果在AI助手方面有哪些最新的进展和未来规划? 两个主要方向。首先,苹果已经实现了屏幕感知技术,这项技术能够实时栅格化处理当前界面,识别图片、文字、按钮等元素,并理解这些元素背后的功能。这项技术将在今年上线商用。未来,苹果计划推出记忆体系和自动驾驶辅助功能。记忆体系旨在让AI助手更个性化,更像贴身秘书,能够理解用户每天的行为和数据,从而提供更个性化的服务。自动驾驶辅助功能则类似于汽车的自动驾驶,将使AI助手具备自主执行任务的能力。 苹果在做AI这件事遵循哪些原则? 第一,聚焦系统本身应做的事情,并投入研发资源优化用户体验,同时形成规范化模板,让更多第三方应用接入。第二,提高用户使用手机的效率,通过人与AI之间的交互,实现任务链路最短。例如,在信息交流过程中,通过AI实时监听和整理信息,使得任务能在预定时间内完成。第三,在特定场景下授权给AI进行操作,使其能够替代用户完成重复性任务,从而提高效率。 苹果如何平衡云计算与端计算之间的关系? 在日常用地行为(如打电话、使用社交软件和生活服务软件)上,苹果优先聚焦端计算,通过自研大模型提升用户体验。而对于知识搜索等脱离手机核心场景的需求,则更多通过与第三方合作来实现。例如,在浏览网页或使用微信聊天时遇到的问题,可以通过联网搜索解决,而这些功能并不属于手机核心场景,因此不由苹果自研。 未来苹果计划如何增强其屏幕感知能力? 包括强化离线AI能力,使其能更好地理解复杂场景下多任务执行。在确保敏感数据保护前提下,增强AI对屏幕内容及交互操作的理解。例如,当用户请求推荐餐厅时,不仅能提供推荐,还能帮助预订座位、查询门店排队情况等。这些增强功能将使未来的AI更加智能、高效地为用户提供服务。 苹果在AI领域的战略?他们如何定义不同规模的大模型应用场景? 主要是通过自研和合作两种方式来实现。他们将大模型分为两类:一类是规模在5,000亿参数以下的小型大模型,另一类是规模超过5,000亿参数甚至达到万亿级别的大型大模型。对于前者,苹果倾向于自主研发,因为这些小型大模型能够帮助解决用户在日常使用中的一些问题,例如手机功能设置和优化等。而对于后者,苹果则选择与行业内更专业的团队合作,如OpenAI和谷歌等公司。这些大型大模型主要用于处理复杂的知识问答、实时新闻以及专业学科的数据分析。 苹果与其他大模型厂商的合作模式是怎样的?是否涉及费用? 合作确实涉及费用。目前,这些厂商需要支付给苹果一定的费用,以确保其数据接口能够在苹果设备上实现最佳兼容性和用户体验。比如,OpenAI的数据接口需要经过苹果优化,以保证其生成的数据能在苹果设备上友好展示和交互。这种情况下,这些厂商相当于购买了一个入口。此外,苹果也开放了一部分选择权给用户,让他们可以根据自己的习惯选择使用不同的大模型服务。 在数据隐私方面,苹果如何处理用户数据?这些数据是否会共享给第三方? 苹果对用户数据采取了严格保护措施,并不将这些数据共享给第三方。在与OpenAI等公司的合作中,苹果会将这些公司的接口进行黑盒化封装,并部署在自己的服务器上。无论用户如何交互使用,这些数据都不会被传递给第三方,同时也不会被苹果获取。这种设计确保了用户的数据隐私。此外,在训练过程中,如果需要真实用户数据进行优化,只有那些明确同意分享自己数据的用户才会被纳入训练样本。 苹果自研的小型大模型主要解决哪些问题?为什么不进一步研发更大型的大模型? 苹果自研的小型大模型(5,000亿参数以下)主要用于解决日常用机过程中遇到的问题。例如,通过自然语言理解帮助用户找到手机设置中的特定功能或调整选项。很多时候,普通用户并不了解某个功能具体叫什么名字或者在哪里设置,而通过口语化表达让AI来识别并指导操作,可以极大提升使用体验。至于更大型的大模型,由于其应用场景更加复杂且广泛,例如全球范围内的知识问答、实时新闻分析等,这超出了日常用机需求,因此苹果选择与专注于此领域的大公司合作,而不是自行研发。 用户生成的新数据如何处理?这些新生成的数据归属权属于谁? 用户生成的新数据归属于用户自身,并由苹果负责保护。这些新生成的数据不会传递给第三方,也不会被用于商业目的。在自动驾驶项目中,类似的数据保护机制已经实施,即使是在汽车行驶过程中采集到的数据,也是严格保护并归属于车主个人。同样,在手机场景下,无论是通过AI交互产生的新数据还是其他形式的数据,都遵循相同原则,不会泄露或滥用。 在实际操作中,如果没有默认强制要求分享,那么训练所需的数据从何而来? 训练所需的数据来源于那些愿意分享自己使用情况和行为信息的真实用户。在初次设置或特定提示时,一部分愿意参与共创过程的用户会同意分享他们的一部分使用信息。这些信息经过匿名化处理后,用于不断优化和训练小型大模型,以提升其准确性和实用性。但这种分享完全基于自愿原则,不存在强制要求,因此确保了绝对隐私安全。 AI手机功能对硬件有哪些要求?苹果在硬件上需要做哪些更新? AI手机功能对硬件的要求主要体现在芯片、内存和低功耗器件方面。首先,端侧计算 (EdgeComputing)对于芯片的算力和带宽有极高的要求。大模型在运行时需要强大的算力来处理大量数据,从而保证回复和用户意图理解的准确性。传统AI通过API接口调用现成的数据,而大模型则基于对用户意图的理解进行实时生成数据,这类似于人脑在回答问题时一边思考一边表达。因此,芯片不仅需要强大的算力,还需具备高带宽以确保短时间内能够处理和吞吐大量信息。 苹果在这一领域表现出色,其最新发布的芯片如A17Bionic,在单核性能上远超竞争对手,高达三倍于高通和联发科。这是因为大模型计算依赖单核能力,而非多核并行运算。此外苹果芯片设计注重定制化,服务于自身产品需求,这与高通和联发科等厂商试图覆盖更多手机厂商需求的策略不同。 其次是内存,大模型处理过程中需要大量内存支持,以便快速访问和处理数据。最后是低功耗器件,由于端侧计算常用于移动设备,对电池续航提出了更高要求,因此低功耗设计至关重要。 为什么大模型计算依赖单核而不是多核运算? 大模型计算依赖单核能力,因为其工作逻辑类似人脑,是一个完整且连续的思考过程,而非传统AI那样可以将任务分解为多个独立模块进行串行处理。例如,传统AI影像处理中,可以将图像分离为主体、背景等部分分别处理,再合成最终结果。而大模型则基于整体信息进行实时理解与生成,因此无法简单地通过多核运算来提升性能。这种特性使得大模型更依赖单核性能以及整体架构设计优化。 苹果芯片为何能够在AI应用中表现突出? 苹果芯片在AI应用中表现突出的原因有以下几点:首先,其单核性能极强,是竞争对手的三倍。这源自苹果长期以来在AR眼镜、自动驾驶等项目中的积累,这些项目涉及大量空间计算,需要强大的实时数据处理能力。此外,苹果采用定制化架构,与ARM合作开发 专门适配自身需求的架构设计,使其能够精确满足产品定位与性能标准。这种定制化策略使得苹果芯片在特定应用场景下,如大模型运算中具有显著优势。 高通和联发科推NPU(神经网络处理器)是否会影响未来AI发展? 高通和联发科推出NPU主要用于推理型神经网络运算,但目前的大模型并不使用NPU架构。NPU适合本地小规模神经网络推理任务,如图像识别等,但对于复杂的大规模训练及实时生成任务,大模型仍然依赖CPU或GPU。目前来看,大规模深度学习技术的发展方向尚未完全转向NPU。 在大模型的应用中,NPU和GPU在手机端的作用如何? 目前较为有限。虽然NPU可以用于推理任务,但在训练阶段并不能显著拉开与GPU的差距。 内存对大模型计算有何影响?苹果与安卓设备在这方面有何区别? 大模型计算对内存依赖极高。例如,目前安卓厂商能够实现3B、7B、10B和13B四种规格的大模型离线计算,其中13B已经是封顶规格,因为现有芯片带宽最多支撑到13B。在实际运行时,大约需要5.5GB到6GB运存才能保证10B大模型正常运行。因此,为了支持这些大规模计算任务,安卓设备通常标配12GB或16GB内存。 苹果设备则表现出色,其3B大模型具备别人7B级别的计算能力,但功耗和运存占用却非常低。例如,在国产安卓设备上运行3B任务可能需要4GB左右内存,而苹果仅需1.8GB左右。这得益于苹果定制化内存条性能远高于其他品牌。此外,苹果通过优化内存架构,使其标配内存在8GB或12GB时也能提供稳定且高效的性能。 苹果在低功耗器件上的技术优势体现在哪些方面? 苹果在低功耗器件上进行了大量布局。例如,其前置摄像头能够离线识别用户面部信息,并根据用户是否注视屏幕调整交互反馈。这些功能通过低功耗摄像头实现,不会导致设备发热或快速掉电。此外,苹果还结合GPS定位信息,通过AI综合判断用户需求,如查询航班信息时,会考虑用户当前所在位置及移动状态,从而提供更精准的信息服务。 苹果硬件成本增加是否会影响售价?未来软件收费模式如何? 由于芯片、内存及低功耗器件升级,今年苹果硬件成本预计增加不到1,000人民币。尽管如此,高端配置机型售价可能会上涨至15,000人民币以上,但普通数字系列或SE系列机型价格不一定上涨。在软件收费模式上,苹果目前没有计划将AI能力商业化单独收费,而是继续通过硬件销售附加价值来盈利。未来更高级的软件应用可能由第三方开发,并通过“Apple税”模式进行分成,这与其一直以来“硬件服务于软件”的逻辑一致。 苹果公司在未来两年内计划进行大规模的AI更新,安卓厂商在这一领域的表现如何? 安卓厂商实际上在AI领域起步较早。例如,vivo早在2022年底就启动了大模型的自研,并于2023年发布了大模型矩阵。vivo是国内最早布局观测大模型并与MTK、高通等厂商进行联调