Q&A Q1:K米的核心技术是什么? A1:K米的核心技术包括解决长上下文序列问题的新经营机制和无损压缩技术。它使用无损压缩技术将大量文本压缩后进行推理,提高了处理速度,并具备跨文档信息提取能力。此外,模型还具备代码生成能力,在国外排名中位列前三。 Q&A Q1:K米的核心技术是什么? A1:K米的核心技术包括解决长上下文序列问题的新经营机制和无损压缩技术。它使用无损压缩技术将大量文本压缩后进行推理,提高了处理速度,并具备跨文档信息提取能力。此外,模型还具备代码生成能力,在国外排名中位列前三。 Q2:公司技术方面是否已经具备多模态图表的能力? A2:公司的技术团队具备多模态能力,包括图像和视频处理。当前版本已融合文本和图像解析能力,能够处理扫描文档并运用OCR等技术。 Q3:公司未来的产品规划有哪些? A3:公司的产品规划专注于长文本处理能力,计划在模型上进行多模块构建,融合图像理解和文字推理能力。C端产品将继续迭代智能助手,B端市场将专注于法律、教育、金融等行业,并扩展到游戏和电子书写作场景。 Q4:公司与股东方的关系如何?未来是否大部分业务将部署在阿里云? A4:公司与股东方保持一定自由度,未来业务发展不会受到过多干预。公司将邀请第三方模型加入云平台,帮助引流并分成收益,同时从内部赋能和云平台协同两方面与股东方合作。Q5:投资方提供了多少算力券给K米?目前是否有很大一部分算力券流向了投资方?A5:公司去年10月和11月开始回收全部训练算力,提供了数千万代金券给K米,目前有超过4000片集群用于支持创业公司的训练需求。 Q6:股东方能否支持K米当前的用户量级?如果K米用户量增长,股东方是否有能力继续支持? A6:公司预估了K米用户量的增长,将继续支持K米,尤其是在云上的推理算力方面。公司正在适配更多算力资源,如英伟达H20国内芯片,并计划迅速恢复算力以应对业务量增长的需求。 Q7:K米的应用产品用户主要分布在哪些地区?哪些用户群体在使用?使用场景有哪些?A7:K米的用户年龄主要集中在18至45岁之间,以男性为主,主要分布在一线及新一线城市。用户群体多为学生和职场白领,主要使用场景包括文本处理、专业知识问答和基础知识 问答。 Q8:在大厂的竞争格局下,其他公司对产品经理(PM)的关注度如何? A8:在大厂竞争格局中,产品经理的关注度因公司而异。字节跳动倾向于自研模型,而腾讯的AI模型发展相对缓慢,可能会将AI模型与社交功能结合。 Q9:Kimi的模型复制难度如何?未来是否可能出现同质化竞争? A9:Kimi的部分技术如XL模型和糖系列解决方案已开源,但无损压缩技术尚未开源,构成技术壁垒。大厂需要自行研发以提升推理速度和效率。未来可能会有新的技术突破,但200万级别以上的模型仍是一个挑战。 Q10:目前的图生图技术成熟度如何?是否考虑发展多模态技术? A10:图生图技术已经相对成熟并且开源。公司正在开发中,未来可能会集成到产品中。长视频生成是当前较大的挑战,公司正在积极研究并构建新的技术架构应对。 Q11:2月份业绩提升的原因是什么? A11:2月份公司通过社区推广,使得模型进入海外榜单前8名,吸引了开发者的关注。公司通过社区和媒体观测,对模型的增长进行了预测。 Q12:Kimi模型的资料来源主要是哪里? A12:Kimi模型的数据来源广泛,不仅限于知乎,也包括国内外的其他网站。但由于国内的运营限制,主要依赖知乎等专业网站的数据。 Q13:Kimi模型在实时信息搜索上是如何工作的? A13:Kimi模型在预训练时已经采集了大量数据,实时信息搜索则是通过搜索引擎API进行,将搜索到的优质内容提炼并总结后呈现给用户。 Q14:Kimi模型使用的搜索引擎API是否会带来安全问题? A14:Kimi模型使用多个搜索引擎API主要用于数据获取,由于只涉及读取操作,因此不会产生安全问题。 Q15:Kimi模型使用搜索引擎API的成本如何? A15:Kimi模型对使用的搜索引擎API是按千次查询收费的,对公司产生了一定的成本。 Q16:Kimi模型背后的团队构成是怎样的? A16:Kimi模型背后有一个强大的团队支持,包括AI、视觉、产品等多方面的专家。团队成员具有包括谷歌、腾讯在内的丰富背景。 Q17:Kimi模型的成功是否意味着制作大模型的门槛降低了? A17:Kimi模型在上下文知识长度上具有独特性,技术壁垒较高,公司预计能在市场上保持长期的领先地位。 Q18:Kimi模型的参数量是否意味着模型不需要万亿级别的参数来取得良好效果? A18:是的,模型不需要万亿级别的参数就可以取得良好的效果,千亿级别的参数量已经足够。 Q19:Kimi模型是否会短期内构建超大模型? A19:短期内Kimi模型不会构建超大模型,以避免算力成为瓶颈,但未来可能会构建数百亿至千亿级别的模型。 Q20:单模态模型是否可以提高效率? A20:单模态模型可以通过利用专家模型来提高效率,例如missyou模型就采用了专家模型的方法,这些模型单独训练后再组合,可以降低训练成本,提高推理速度。 Q21:Kimi公司是否应该优先研发专家模型技术路线? A21:Kimi公司将考虑在技术路线中引入专家模型,但他们目前更注重无损压缩技术在性能优化和推理速度上的提升。 Q22:模型在支持上下文长度大幅提升时需要进行哪些改变? A22:模型需要变得更厚,例如层数可能从128层增加到196层以上,并且需要改进无损压缩技术以捕捉长期关系。此外,可能会对文档提交数量进行限制,并对超量部分收费。 Q23:如果用户数量大幅增加,现有的算力资源是否足够? A23:目前的算力资源可以支持到千万级用户,但如果用户数量达到1亿或更多,可能会出现瓶颈。此时可以考虑使用不同平台的GPU资源来均衡算力。