DeepSeek持续扩大生态圈 AI应用层热度飙升

  DeepSeek(深度求索)作为继ChatGPT之后的又一现象级AI产品,迅速在全球范围内引发关注。据国内AI产品榜统计,DeepSeek应用上线仅20天,其日活跃用户数(DAU)便突破2000万大关,达到2215万。这一成绩不仅标志着中国生成式人工智能技术进入全球视野,也直接激活了整个人工智能产业链,从云服务厂商、芯片公司到下游应用层,纷纷进行部署和适配。业内普遍认为,未来一年有望成为AI应用爆发的黄金期。咨询机构Omdia预测,未来五年中国生成式AI市场规模将增长5.5倍,到2029年达到98亿美元。

  云厂商加速部署

  国内主要云厂商,如天翼云、移动云、联通云、华为云、京东云、阿里云、百度智能云等,均已接入DeepSeek大模型。国际云厂商微软云和亚马逊云科技也在春节前上线了DeepSeek服务。

  中国电信旗下天翼云自主研发的“息壤”智算平台率先完成国产算力与DeepSeek-R1/V3系列大模型的深度适配优化,成为国内首家实现DeepSeek模型全栈国产化推理服务落地的运营商级云平台。中国移动旗下移动云则深度集成DeepSeek模型,并搭载自研的COCA算力原生平台,提供“开箱即用”的便捷性。中国联通则基于“星罗”平台实现国产及主流算力适配多规格DeepSeek-R1模型,兼顾私有化和公有化场景。

  DeepSeek的开源特性大大加快了技术创新和应用推广的速度。云厂商基于各自平台的底层能力,提供与DeepSeek-R1及DeepSeek-V3相适配的服务,简化开发流程,满足用户需求。例如,百度智能云千帆平台推出超低价格方案并提供限时免费服务;阿里云PAI Model Gallery支持云上一键部署DeepSeek-V3、DeepSeek-R1;京东云则支持公有云在线部署和专混私有化实例部署两种模式。

  随着越来越多云厂商接入,模型调用价格下降,围绕大模型应用的生态有望进一步普及和成熟,AI应用全面落地可期。

  芯片层加速创新

  作为云厂商上游的芯片公司也在加速创新。GPU是AI大模型训练和推理所需的核心器件,国内多家GPU公司正在或已完成对DeepSeek的适配。

  燧原科技已完成对DeepSeek全量模型的高效适配,包括DeepSeek-R1/V3 671B原生模型及多个蒸馏模型。其AI加速卡的计算能力得到充分利用,能够快速处理海量数据,同时为模型的持续优化和大规模部署提供坚实基础。目前,DeepSeek的全量模型已在多个智算中心完成数万卡的快速部署。

  壁仞科技基于自主研发的壁砺TM系列产品,仅用数小时即完成对DeepSeek R1全系列蒸馏模型的支持,涵盖从1.5B到70B各等级参数版本,为开发者提供高性能、低成本的大模型部署与开发解决方案。摩尔线程则通过开源与自研双引擎方案,快速实现了对DeepSeek蒸馏模型的推理服务部署,并即将开放自主设计的夸娥(KUAE)GPU智算集群,全面支持DeepSeek V3、R1模型及新一代蒸馏模型的分布式部署。

  业内普遍认为,DeepSeek开源模型凭借其开放性、高效性和易用性,正在成为推动AI技术普惠化的重要力量。未来一年有望成为AI应用爆发的黄金期,对大模型训练和推理成本持续下降的预期也将越来越高。

  AI应用层热度飙升

  DeepSeek的热度也席卷AI应用层。钉钉宣布其AI助理已全面接入DeepSeek系列模型,用户可自主选择DeepSeek系列的R1和V3模型。联想也宣布个人智能体“小天”已接入DeepSeek,用户可通过联想YOGA Air 15 Aura AI元启版体验其在自然语言处理、代码生成与编程、数学推理及多模态处理等领域的尖端能力。

  Omdia人工智能与物联网领域首席分析师苏廉节认为,DeepSeek所引发的杰文斯悖论将让大模型更加普及,刺激更多需求的产生。杰文斯悖论指出,当资源使用效率提升时,成本下降会刺激更多需求。在AI领域,随着AI成本的下降,更多企业和机构将部署大模型,加速AI向全行业、日常化普及。

  Omdia预计,2024年中国生成式AI软件收入已达到18亿美元,未来五年市场规模将增长5.5倍,到2029年达到98亿美元。这一收入还不包括其他关键生成式人工智能技术,如AI训练和推理芯片、服务器、数据中心建设及开发平台收入。随着技术的不断进步和应用的广泛普及,AI产业将迎来更加广阔的发展前景。

上一篇:春节假期全国揽投快递包裹超19亿件 揽收快递包裹11.45亿件 下一篇:返回列表
标签:
分享到:

相关文章

    最新文章
    热门
    最新推荐