腾讯云工具指南09期 用腾讯云工具产品更好使用DeepSeek 代码传递思想·技术创造回响 目录 CONTENTS 01 编者按 编者按03 02 模型部署 腾讯云高性能服务HAI05 云原生构建 ..........................................................................................................................09 TI平台 ....................................................................................................................................12 云原生套件TCS19 03 应用开发 腾讯云ES22 腾讯云向量数据库28 腾讯云大模型知识引擎31 实时音视频(TRTC)33 云开发小程序SDK35 04 开发提效 腾讯云cloudstudio38 AI代码助手41 01 PART 编者按 在2025年初,DeepSeek作为顶流大模型的技术实力毋庸置疑但对于很多个人开发者却面临技术与工具链的断层—— 云端使用经常遇到“服务器繁忙”,本地部署又面临高昂算力成本;想快速试错却困于本地硬件不够,1.5B模型都跑得磕磕绊绊; 业务急需智能问答但模型总“胡言乱语”,缺乏领域知识支撑; 真正的「高效开发」绝非单纯提供API或算力而是在复杂场景下给出工程化的最小阻力路径 这也是腾讯云系列产品希望通过技术优化与产品创新给开发者带来的价值让更多人更便捷高效地使用DeepSeek,比如说—— 省去与目标无关挣扎:无论是硬件、部署、调试还是运维; 假定用户0代码基础:比如零代码部署、可视化调试、多模态开箱即用;解决真实生产隐患:安全合规、高并发稳定性...... 一个全场景适配、低使用门槛、企业级服务延展能力的腾讯云工具箱等你开启! 02 PART 模型部署 如何快速在本地部署启动DeepSeek?如何更好实现云端部署的环境与资源配置?如何降低企业级DeepSeek的运维压力?如何助力企业用户在私有云开箱即用DeepSeek? 用腾讯云工具产品高效部署满血版DeepSeek,四款工具产品,实现3分钟一键部署,10秒钟快速启动,提供企业级全模型支持,助力企业在私有云环境中快速启动DeepSeek并确保最佳性能。 如何快速在本地部署启动DeepSeek? 痛点:开发者希望快速尝试DeepSeek的生成与推理能力,但个人电脑显存不足、模型加载缓慢甚至无法运行完整版产品:腾讯云高性能服务HAI(3分钟一键部署DeepSeek,本地低显存适配) 腾讯云HAI提供3分钟云端GPU启动服务,支持按需选择1.5B至32B-Q4模型规格,免去本地硬件适配问题。实际测试中,1.5B模型加载完成仅需35秒,响应速度等效本地运行的2倍以上,且支持会话状态持久化。 操作步骤 步骤一:创建DeepSeek-R1应用 1.登录高性能应用服务HAI控制台。 2.单击新建,进入高性能应用服务HAI购买页面。 选择应用:选择社区应用,应用选择DeepSeek-R1。 地域:建议选择靠近自己实际地理位置的地域,降低网络延迟、提高您的访问速度。算力方案:选择合适的算力套餐。 实例名称:自定义实例名称,若不填则默认使用实例ID替代。 购买数量:默认1台。3.单击立即购买。 4.核对配置信息后,单击提交订单,并根据页面提示完成支付。 6.您可以在此页面查看DeepSeek-R1详细的配置信息,到此为止,说明您的DeepSeek-R1应用实例购买成功。 5.等待创建完成。单击实例任意位置并进入该实例的详情页面。同时您将在站内信中收到登录密码。此时,可通过可视化界面(GUI)或命令行(Terminal)使用DeepSeek模型。 步骤二:使用DeepSeek-R1模型 等待几分钟创建完成后,将在站内信中收到登录密码。此时,可通过可视化界面(GUI)或命令行(Terminal)使用DeepSeek模型。 方式一、通过OpenWebUI可视化界面使用(推荐) 1.登录高性能应用服务HAI控制台,选择算力连接>OpenWebUI。 3.自定义名称、电子邮箱、密码,创建管理员账号。 2.在新窗口中,单击开始使用。 4.开始使用 方式二、通过ChatbotUI可视化界面使用 1.登录高性能应用服务HAI控制台,选择算力连接>Chat-botUI。 2.在新窗口中,可以根据页面指引,完成与模型的交互。 方式三、通过终端连接命令行使用 1.登录高性能应用服务HAI控制台,选择算力连接>终端连接(SSH)。 2.在弹出的OrcaTerm登录页面中,输入站内信中的登录密码,单击登录。 3.登录成功后,输入以下 命令加载默认模型: 运行结果如下: 方式四、通过JupyterLab命令行使用 1.登录高性能应用服务HAI控制台,选择算力连接>JupyterLab。 2.新建一个Terminal。 3.输入以下命令加载默认模型: 运行结果如下: 方式五、进阶使用 ●切换不同参数量级 若默认的模型无法满足需求,可通过以下命令自定义模型参数量级: ●API调用 实例环境中已预装并启动Ollamaserve,该服务支持通过RESTAPI进行调用。您可以参考OllamaAPI文档,以了解具体的调用方式和方法。 如何更好实现云端部署的环境与资源配置? 痛点:开发者在本地调试模型时常受限于环境冲突(如CUDA版本)、硬件资源碎片化(显存不足却又CPU空闲),且切换分支需反复安装依赖 产品:云原生构建(10s启动DeepSeek:容器化快速启动) 腾讯云原生构建(CNB)提供容器化沙箱环境,支持“分支即独立环境”——每个代码分支自动分配隔离的运行时(预装DeepSeek-R11.5B至70B多版本),开发者无需手动配置,10秒内即可启动调试。测试显示,使用每月1600核时的免费额度(相当于64G内存机器连续运行50小时),某算法团队在3天完成多模型AB测试,较本地部署效率提升3倍,资源闲置率下降70%。 操作步骤 Step1注册 操作:打开CNB官网→右上角微信扫码登录! Step2Fork仓库 操作: 0.先新建一个组织,随便建,赶紧建,点加号,起个名字,快点,下一步了! 1.什么都不用管,直接打开搜索栏,搜索栏搜索,DeepSeek。选择红框里的这个官方示例仓库。 2.进入仓库,右上角,Fork。不知道哪个是fork,没关系,看图!fork完成会自动跳转回你自己的仓库。 3.选择你要运行的模型,怎么选呢?打开分支,你就明白了!分支名就是你要跑的模型,选吧,一选一个不吱声。 Step3一键启动:召唤神龙的正确姿势 操作: 1.只需要,点击,云原生开发!完事了,结束了~真的,别人ollama还没下完,你部署好了! (期间够你发个凡尔赛朋友圈,发他半天都没问题) 2.中途会出现一个页面,选择WebIDE,至于其他的,朋友你部署完慢慢研究! 3.这时候我们就打开了一个在线VsCode,我们要做的第一件事情是,在控制台执行一下这个命令 4.最后就是召唤神龙的命令! 结束了,朋友! 当然你可能很疑问怎么使用~来看图: 在控制台的旁边,有一个PORT选项卡,里面会有一个Forward- Address,直接复制他。 无论你使用的是什么WEBUI,ChatBox也好,WebUI也好,你复制出来的地址,就是DeepSeekAPI的地址,就像这样: 如何降低企业级DeepSeek的运维压力? 痛点:开发者希望快速尝试DeepSeek的生成与推理能力,但个人电脑显存不足、模型加载缓慢甚至无法运行完整版产品:TI平台(企业级全模型支持) TI平台支持DeepSeek-V3(671B)分布式推理,在按需计费模式下,每小时成本较自建集群降低60%。支持动态扩缩容,无会话时可关闭实例,将企业级AI应用的运维人力压缩至1人/周。 操作步骤 下文我们将选用尺寸相对最小的DeepSeek-R1-Distill-Qwen-1.5B模型进行部署实践。其他模型的操作流程类似,仅需注意算力资源的配置差异。 前置准备工作 ●模型:TI平台已将DeepSeek模型内置在大模型广场中,您可直接选择模型并一键部署。 ●资源:1.5B的DeepSeek模型对算力需求较小,单张中端GPU卡即可支持其推理服务。您有多种计费模式选择: —按量计费:对于仅需短时体验或所需算力较小的用户,机器来源推荐选用“从TIONE购买”,并选用“按量计费”模式。该模式无需提前准备算力。开始部署时,平台会自动分配资源并进行计费,本实践也将使用该模式进行展开。 —包年包月:对于已购买CVM机器或需较大、稳定算力的用户,机器来源推荐选用“从CVM机器中选择”,并选择对应的资源组。该模式下需要您提前购买好CVM机器并添加至TI平台资源组,详细操作步骤请参考资源组管理。 —请注意,如部署DeepSeekR1、V3模型,需要使用HCCPNV6机型,该机型需联系您所对接的腾讯云销售或售前架构师进行开通。 步骤一:部署模型服务 1.登录腾讯云TI平台,在大模型广场页面,您可看到TI内置的开源大模型卡片。 2.单击进入“DeepSeek系列模型”卡片,查看模型详细介绍。 3.在模型详情页面,单击新建在线服务,跳转至“模型服务>在线服务>创建服务”页面配置部署参数。 4.按页面提示填写配置信息,参考如下: 服务名称:输入您的自定义的服务名称。如:“demo-DeepSeek-R1-Distill-Qwen-1_5B”。 机器来源:支持“从CVM机器中选择”和“从TIONE平台购买”两种模式。本例采用“从TIONE平台购买-按量计费”。如果您选择从“TIONE平台购买”选项时无法选到您所需要的GPU机型,说明在TI平台中暂无该机型的库存,此时您须选择“从CVM机器中选择”,然后自行购买CVM机器并添加至TI平台资源组,详细操作步骤请参考资 源组管理。 部署方式:选择“标准部署”。服务实例: —模型来源:选择“镜像”类型。 —模型和运行环境:选择“内置大模型/DeepSeek系列模型/DeepSeek-R1-Distill-Qwen-1.5B”。 —算力规格:单张中端GPU卡,推理资源配置建议详见大模型推理所需资源指南。 5.授权并同意《腾讯云TI-ONE训练平台服务协议》,单击底部启动服务,正式发起服务部署。 步骤二:体验模型效果 1.服务部署完成后,在“模型服务>在线服务”页面的列表中,其状态将显示为“运行中”。DeepSeek-R1-Dis-till-Qwen-1.5B模型的部署时长预计为1-2分钟。 2.单击列表中的在线体验,进入模型快速体验页面。可通过前端页面直接提问,体验模型效果。 步骤三:调用模型推理API 腾讯云TI平台在线服务模块内置了接口调用测试功能。此外,您还可以使用命令行等工具对测试API调用。测试完成后,您可以以API调用方式将模型接入AI应用。下文将对模型推理API的测试及接入进行示例说明。 方式一:使用TI平台内置工具测试API调用 1.在“模型服务>在线服务”页面的列表中,单击刚部署的服务的名称,跳转到服务详情页。 2.进入服务详情页的“服务调用”Tab,在页面底部可看到“接口信息”版块。 3.在“接口信息”版块的输入框中,输入接口和请求信息,进行接口测试。 接口名:在上图中位置1处输入接口名,对话接口请填写/v1/chat/completions。 备注:TI平台为内置开源大模型配备的推理框架为vLLM,兼容Open