Q1:请介绍下公司全球布局安排? A:公司在全球50多个国家,部署94个数据中心,将近1000个边缘节点,构建算力资源池和全球物理环网,并在美国达拉斯持有自建机房,业务范围覆盖欧美等成熟市 场,东南亚,南美等新兴热点区域。 公司是从2014年第二次战略转型开始布局海外市场,主要的客户包括游戏、音视频、电商。同时,公司积极优化客户结构,实现客户多样性,从而更好的提升公司综合竞争实力与抗风险能力。在游戏赛道中,公司在海外公有云业务中使用的以CPU为主的全球公有云平台,已展现出了良好的发展态势和业绩韧性。 Q2:据了解AI智能算力方面主要使用A100的卡。公司对此怎么布局?公司如何看待AI算力作为一个新兴产业,成长较快但是相对风险较大的问题? A:公司去年在GPU上投入了两个亿,主要购买的是 A100、A5000、A30、A40等10多个型号的卡。主要为满足渲染客户需求。目前公司也在使用A5000为推理算力客 户提供服务。公司认为只要客户能力强,总体风险是可控的。目前AI算力市场上主要还是以训练算力为主的中小公司,客户签约时间不长,不能深度绑定,这样就将风险转 接给公司,公司如大量采购A100的卡,将有设备冗余和成本风险,所以公司现阶段只储备了部分A100的芯片。公司会在控制规模的前提下,在新的赛道上抢占先机,积极拓展AI智能算力业务。 Q3:公司如何看待AI推理算力虽然客户粘性更高,但是从训练到推理是需要时间的问题?A:公司认为在训练完成后,会产生大量的推理算力需 求,推理需求将大于训练算力需求。在结合推理算力需要网络,公司在网络上具有优势,所以主赛道选择了推理算力,但是公司也会做一部分训练算力,不承接大规模的训练算力。公司某客户是AI行业较早期涉足的企业,目前已经从大模型进入推理算力。Q4:公司如何看待算力资源利用不高的问题?如果后续全部利用后,预计将对公司的收益带来什么样的影响?A:为承接大客户的需求,公司要预留部分资源冗余,公 司会通过精细化的管理,将这部分冗余合理化。公司于2022年初增加了部分前瞻性投资,在新的业务市场、新的行业领域进行开拓,加大面向新兴产业所需的边缘算力的 研发及投资部署,此部分前瞻性投资仍处于快速迭代升级阶段,业绩释放尚需要时间,如此部分业绩得以释放,将大幅提高公司的营收规模、毛利水平。Q5:公司今年的经营目标是如何的?A:今年,公司经营的目标是将去年前瞻性战略布局的算力资源实现业绩兑现,增加的收入即可认为是公司增加的毛利,这对公司利润增长将有非常大的正向影响。Q6:请介绍下公司与GPU厂商合作情况的优势?A:公司目前采购的芯片是英伟达A5000和A100,但是考虑到中美科技脱钩加速,所以公司较早就与国内GPU厂商建立了生态合作。目前,公司与燧原科技的合作为资源方面的合作,双方通过首都在线云计算平台与燧原科技AI算力平台的强强联合,共同聚焦打造全面的AIGC生态圈,将重点针对大模型MaaS(Model-as-a-Service)展开联合攻关。同时,燧原科技以现在部署于首都在线的算力基 础设施为首发,结合其过往五年积累的大模型训练与推理的经验,正式对外推出基于云燧i20支撑的AIGC实时推理应用。未来的商业化路径为双方共同打造针对大模型 MaaS的国产算力池平台,共同开发市场,共同构建生态体系。与此同时,未来公司也将积极拓展与国产算力第一梯队的厂家开展深入合作,共建GPU合作生态。Q7:目前巨头云计算厂商都在布局大模型,会不会我们只能获得一些尾部的客户?未来如果大厂也提供类似服务,我们如何竞争?A:大模型需要经历深度训练,然后被终端用户使用。深度训练需要训练算力,这是目前大厂布局的方向。终端用 户使用需要推理算力,叠加公司在网络方面的优势,推理算力是公司目前布局的主要方向。 根据数据显示,训练一次ChatGPT模型(13亿参数)需要的算力约27.5PFlop/s-day,即以1万亿次每秒的速度进行计算,需要耗时27.5天,需要1万张A100算力支持。推理算力,如果以A100GPU单卡单字输出需要350ms为基准计算,假设每日访问客户数量高达5,000万人时,按单客户 每日发问ChatGPT应用10次,单次需要50字回答,则每日消耗GPU的计算时间将会高达243万个小时,对应的GPU需求数量将超过10万个。由此可见,推理算力的需求规模 比训练算力需求规模大太多。 同样一个大模型客户,既需要训练算力提供商,也需要推理算力提供商,因此,一个大模型既需要大厂提供训练算力,也需要公司为其提供推理算力,不存在大厂布局头部客户,只剩下尾部客户的情况。 Q8:公司在开发AI算力底座的时候,与前期的算力底座相比会有什么差异化吗? A:AI算力底座与前期算力底座相比是一个新的产品,具有很大的差异。首先,从功能层面,CPU算力资源的主要功能体现在逻辑判断,任务调用和控制,而GPU侧重于大规模并发算力及图形处理。其次,从网络要求上,对于CPU公有云服务,对internet网络要求很高,有网络才能实现数据的互联互通。而对于GPU算力来说,训练算力对网络的依赖度不大,但是面向于客户端的推理算力对网络 的依赖度较大。最后,从价格角度,GPU的价格通常是CPU的十倍,GPU算力资源池建设是一项重资产投资业务。 Q9:目前很多IDC厂商都在纷纷往云计算方面转型,将来云计算行业竞争压力将会与日俱增,公司相对于其他云厂商的竞争优势主要体现在哪些方面呢?A:首先,公司在云计算领域已深耕多年,在技术储备上具有一定的优势,包括在公有云搭建、运维服务等方面,已经积累了丰富的经验。同时将来越来越多的高端制造业企业也将纷纷上云,例如车联网等,这一类企业对上云整体的解决方案要求较高,需要有一定技术优势及经验的云厂商协助其完成复杂的上云迁移过程;其次,公司认为未来信创持续高增长发展是必然趋势,所以较早就与国内的GPU厂商进行了合作,做好公司上下游的生态合作建设;再次,除去算力,网络能力也是公司的一大核心竞争力,公司目前在全球布局环网,同时公司计划继续在全球及国内继续增加节点,都是为了进一步提升网络覆盖。在海量算力的基础上,再加上网络覆盖,从而增强公司云的核心 能力。Q10:公司AI公有云、渲染云是开始布局的时间及去年的主要客户的情况? A:公司自2021年下半年开始进行业务布局,2022年初开始采购英伟达的芯片,并自主研发渲染云等产品,作为公司业务的第二增长曲线。由于公司在渲染云方面布局较 早,抢占了一定的行业先机,因此公司在该领域的大客户都是行业头部客户,如全球元宇宙引擎提供商及国内相关领域的龙头企业。在推理计算方面,已与行业内较为优秀的芯片企业建立了生态建设战略合作。目前客户主要集中在推理算力、训练算力、建筑设计等领域所属企业。Q11:公司目前的算力资源利用如何?对公司的收益带来的影响? A:公司于2022年初增加了部分前瞻性投资,在新的业务市场、新的行业领域进行开拓,加大面向新兴产业所需的边缘算力的研发及投资部署,此部分前瞻性投资仍处于快速迭代升级阶段,业绩释放尚需要时间,如此部分业绩得以释放,将大幅提高公司的营收规模,毛利水平也将大幅 提高。Q12:公司今年在销售团队人员配置上会有调整规划吗? A:公司目前的销售团队已经具有一定的实力。2022年公司进行战略调整,划分为4个不同产品线条的事业群。公司目前正在从集团的层面,将4个事业群的销售力量更加高效的进行整合,贯彻大客户原则,从多维度、多产品线条更好的为客户提供综合解决方案。此外,公司计划今年 将进一步加强销售团队力量,一是布局信创市场及混合云市场,将注入更加强大的销售力量,进而提升云业务的规模,利用规模优势实现降本增效。二是丰富客户多样性,利用客户多样性实现资源使用错峰,为公司带来更高的利润增长。 Q13:2022年的收入占比情况是什么样的?公有云及混合云的情况如何? A:公司2022年收入整体跟2021年持平,公司2022年度IDC服务收入约6.89亿元,公有云及混合云的云服务收入约4.92亿元,增值服务及其他收入约为4200万元,公有云中海外云收入大约3.5亿元,公司近年公有云收入增长也主 要来自于海外云,海外云主要是服务中国企业出海,客户主要是游戏、音视频、电商这三类C端客户,其中游戏类客户出海中公司市场份额应该是可以排到第一的。主要产 品为云平台、网络、pass数据库安全产品等。 AI公有云方面的赛道主要是AI推理,业务含有少部分AI训练。赛道选择主要是考虑AI训练对网络没有要求,但对资金规模有很大要求。公司的优势在于网络,AI训练不是我们擅长的领域,所以聚焦了AI推理这个赛道。目前公司将产品解决方案建立在GPU算力资源池上,依托低延时的网络,实现AI推理解决方案的提供。 渲染云主要是服务元宇宙、数字建筑客户,目前公司的渲染GPU云主机性能非常好。公司从去年开始布局渲染云,截止目前整体增速较小,但我们认为渲染、虚拟人的市场将在今年下半年有很大的增长。 混合云主要是存储项目,例如在新疆等地区,主要形式是公司通过为运营商提供底层存储产品,然后由运营商与政企客户签约,最终实现公司为政企客户提供产品和服务。 Q14:公司如何提高经营利润率和毛利?A:为了维持公司业务的快速增长,公司将在业务量起来以后,去调整客户结构,提升利润率。例如出海业务,我 们开始是做中国企业出海业务,待业务量起来以后,再去开拓国外本地化的业务,从而提高整体利润率。公司将通过大客户做大规模,然后通过规模优势调整客户结构,提高毛利。Q15:公司与英伟达高端显卡合作的预期?是否将来有更加密切和深入的合作?A:在限售禁令发布之前,公司就已持有英伟达的A100和A5000芯片。目前,英伟达公布在向全球开放云算力资源池,公司在积极关注英伟达开放中国的具体政策。 鉴于AI训练及推理的爆发,催生了更多的算力需求,公司预期将很快实现去年前瞻性投资的回收并产生效益。同时,考虑芯片的交付周期,公司目前也已经在考虑提前进行新的算力资源部署,以满足后续的客户需求。根据英伟达发布的公开信息,英伟达计划在全球范围内开放算力资 源,目前在寻找国内优秀的公有云厂商进行合作,同时公司也希望能够和英伟达在GPU算力方面催生密切和深入的合作机会。 Q16:相对于CPU卡,GPU卡折旧年限情况? A:CPU的卡基本已更新迭代稳定了,GPU的卡A100折旧为5年,其他的卡公司内测大概是3年。同时除了折旧,新开发版本的迭代,会导致GPU的性能损耗也较快。公司布局GPU算力较早,可能会面临性能损耗的问题,但提前占据了赛道。Q17:在政企合作的混合云模式中,公司的角色是什么?A:产业互联网客户的上云是一个复杂的过程,会存在各种困难,不是一个标准化过程,需要公司为其提供定制化的上云服务,是需要技术支持的。其次,公司与运营商紧密合作,为其产品提供支撑。Q18:公司自建机房情况如何?A:公司自建机房主要在美国达拉斯和海南,公司近期计划在怀来建设一个新的机房,位于国家东数西算环京的张家口数据中心集群。美国机房去年已建设完毕,海南机房 今年6-7月份可交付使用。Q19:公司将来会有融资的需求吗?整体的投资方向是什么? A:公司目前正在推进2022年向特定对象发行股票的准备 工作,本次计划融资规模约7.3亿元,募投项目主要是渲染算力平台和怀来数据中心项目,主要是围绕算力资源建设进行的投资。Q20:公司本次向特定对象发行股票对于投资人类型有什么考虑?A:公司更倾向于战略投资者,能够为公司业务上下游形成协同效应。从另一方面,公司也需要同步考虑融资进度的情况,酌情考虑财务投资人。