在人工智能领域,腾讯云TI平台近日迎来了一项重大更新,正式上架了备受瞩目的DeepSeek系列模型。这一系列模型涵盖了参数量高达671B的“满血版”V3和R1原版模型,以及通过蒸馏技术衍生出的多种模型,参数规模从70B到1.5B不等。这一举措无疑为开发者带来了强大的AI工具,也为大模型技术的普及和应用注入了新的动力。
DeepSeek系列模型凭借其卓越的性能在全球范围内获得了广泛的关注和认可。其中,DeepSeek-R1在发布之初就开源,并在后续训练中大规模应用了强化学习技术。即使在标注数据极为有限的情况下,该模型依然能够显著提升推理能力。在数学、代码生成以及自然语言推理等关键任务上,DeepSeek-R1的表现与OpenAI的GPT-4正式版相当。此外,DeepSeek-R1遵循MIT License,允许用户通过蒸馏技术进一步训练其他模型。其蒸馏模型DeepSeek-R1-Distill在参数规模更小、推理成本更低的情况下,依然在基准测试中展现了出色的性能。
腾讯云TI平台为开发者提供了全方位的支持,不仅实现了DeepSeek系列模型的一键部署,还限时开放了R1模型的免费在线体验。开发者可以在“TI平台-大模型广场”中轻松点击DeepSeek系列模型卡片,查看详细信息,并进行在线体验和一键部署。此外,TI平台还提供了模型服务管理、监控运营、资源伸缩等企业级能力,助力企业和开发者将DeepSeek模型高效、稳定地接入实际业务场景。
为了满足不同用户的需求,TI平台提供了灵活多样的计费模式,包括按量计费和包年包月。对于希望短时体验的用户,可以直接从TI平台购买算力并选择按量计费模式;而对于已经购买CVM机器或需要长时间体验的用户,则推荐使用自有的CVM机器作为推理算力。在算力配置方面,“满血版”DeepSeek-R1建议使用腾讯云上的2台8卡HCCPNV6机型进行服务部署,以确保稳定的业务体验;而蒸馏后的DeepSeek-R1-Distill-Qwen-1.5B模型则可以单张中端GPU卡进行部署。开发者可以根据自身业务的复杂程度选择合适的模型进行测试,并通过调用API的方式将其接入AI应用。
腾讯云TI平台的这一新动作,不仅为开发者提供了强大的AI工具支持,也为大模型技术的普及和应用提供了有力的推动。通过免费体验和一键部署功能,TI平台大幅降低了开发者使用大模型的门槛,使其能够更快速地将AI技术应用于实际业务中,进一步提升了AI技术的实用性和可及性。