您当前的位置: 首页 >> 行业资讯

硬核推荐_亚马逊模块介绍_亚马逊云科技对话:快速接入中国大模型背后的原因

作者:admin 日期:2025-04-14 点击数:0

图片来源@pixabay2023年10月,当全托管生成式AI服务Amazon Bedrock正式上线时,一家中国媒体提出了一个疑问:亚马逊云科技是否会接入基于中文语料库的大模型?当时,这个问题尚未有明确答案。

2024年5月,亚马逊云科技的机器学习平台Amazon SageMaker Jumpstart上线了两款中文大模型:零一万物和百川智能随后,亚马逊云科技又陆续上线了智谱等更多中文模型2025年1月30日,就在DeepSeek-R1惊艳众人后的一周,亚马逊云科技迅速宣布了对这款中国大模型的支持。

具体措施包括在Amazon Bedrock Marketplace中部署,或在Amazon SageMaker Jumpstart中部署,也可以通过Amazon Bedrock自定义导入功能或Amazon EC2 Trn1实例中部署DeepSeek-R1-Distill系列模型。

这意味着无论客户体量和算力储备如何,都能得到充分的支持

“许多中国企业在调用海外区域的模型来支持其出海业务从尝试性的角度来看,中国区域客户的需求也非常旺盛,他们希望通过尝试各种大小的DeepSeek模型实现快速部署”DeepSeek-R1接入亚马逊云科技平台之际,亚马逊云科技大中华区产品技术总监王晓野向钛媒体透露了这场变局中的客户洞察。

目前,DeepSeek-R1已经获得了中美科技公司的广泛支持,包括英伟达、亚马逊、微软、谷歌、阿里、百度等一些厂商推出了便捷的一键部署方案,有的则提供了低价或免费服务,还有芯片厂商正在进行大量工程化调优以适配DeepSeek。

王晓野所在中国区团队在春节期间加班加点,与海外团队协作,迅速将DeepSeek上线王晓野认为,这得益于与DeepSeek社区从去年开始的技术交流与合作,“我们在帮助客户应用DeepSeek模型的工程化实践上从未间断。

”监测网站SimilarWeb的数据显示,1月31日,尽管与ChatGPT相比有8倍之差,DeepSeek网站在美国的日访问量为240万次,在全球(不包括中国)的访问量为2920万次然而,DeepSeek服务器的繁忙状态和频繁受到的网络攻击,也反映了其在资源稳定性与网络安全性方面存在不足。

“根据亚马逊云科技平台上的客户访问情况,如果将DeepSeek横向对比来看,有点类似于开源的Llama”王晓野指出他强调,“开源开放的重要性不容忽视相对于闭源模型,开源模型有更广泛的客户群,且增长速度较快。

”2月24日,钛媒体获悉,DeepSeek R1和V3模型正式上线由西云数据运营的亚马逊云科技Marketplace(中国区),亚马逊云科技中国区域企业用户可以通过订阅硅基流动推出的SiliconCloud服务以调用模型API的方式直接使用模型,无需自己管理模型或算力。

从DeepSeek对整个市场的影响力来看,2025年的人工智能竞赛只会更加激烈首先是大模型的深度推理能力继GPT-3、DeepSeek-R1之后,各大厂商也迅速推出了一系列推理模型,如阿里通义的QwQ、月之暗面的Kimi-k1、智谱的GLM-Zero、昆仑万维的Skywork-3、以及最近xAI的Grok3 Reasoning。

其次,训练成本问题R1在达到与大模型相当的能力的同时,描述了一个相对成本更低的训练过程,这表明通过技术优化实现低成本高性能的大模型是可行的此外,模型开源问题闭源与开源并不矛盾,商业公司为了维持商业模式和技术壁垒,会选择闭源,但同时又希望通过开源快速触达客户。

然而,当开源与闭源模型质量相当且差距不大时,客户不会为受限制的模型付费,这一点在全球范围内都是如此对于客户关心的收费问题,目前DeepSeek主要面向企业客户,采用本地部署,按百万tokens输入价格收费。

借助亚马逊云、阿里云等云厂商提供的模型调用服务,客户只需为使用的云计算资源付费,具体计费方式因各云厂商而异值得注意的是,亚马逊云科技、微软、谷歌尚未向云客户收取使用DeepSeek的费用使用DeepSeek的客户只需为使用的云计算资源付费,有按计算资源付费和按算力资源转换的token计费等多种方式。

而在抢滩DeepSeek商业化与工程落地的背后,云厂商仍需回答如何维护好云计算的护城河这一问题近日,钛媒体就相关话题独家对话亚马逊云科技,以下是此次对话的要点:1. R1展示的推理能力,将推动Agent落地及企业流程自动化热潮;关注点不应仅限于推理,还包括多模态。

2. 没有一个模型能一统天下企业客户需要多个模型的选择这一逻辑仍然成立3. 亚马逊云科技的产品逻辑在于,扎根在基础层面持续创新,包括Amazon Trainium2芯片,加大在训练和推理层面的研发4. 客户在亚马逊云科技上部署DeepSeek R1,只需为使用的云资源付费。

5. 目前中国客户对DeepSeek的尝试性较高,包括对各种尺寸模型的尝试部署真正满血上线大模型的,没几家钛媒体:内部如何评价DeepSeek?王晓野:对于国内用户而言,DeepSeek有两层关注点:一是应用,即手机/网页版的聊天回复功能;二是模型。

这是全球范围内DeepSeek被广泛关注的核心,包括面向文本聊天的通用模型DeepSeek-V3和深度推理模型DeepSeek-R1目前,R1相对更受关注,全球范围内客户对R1模型的需求激增总结来看,主要有几方面原因:一是技术报告非常扎实,思维链清晰,R1达到了类似大模型的推理能力,我们看到了较好的效果;二是成本,在达到第一梯队大模型能力的情况下,描述了一个相对成本更低的训练过程;三是作为开源模型的影响力;四是客户需求迅速提升。

星界云手机,让推广营销更加高效和智能!通过云端仿真手机,你可以灵活展示产品、运营活动,快速响应市场需求,实现推广营销的精准投放,提升品牌影响力。

这在当前探索阶段是令人赞叹的钛媒体:亚马逊云科技在选择接入哪些中国模型时有哪些考量?为什么此次反应如此迅速?王晓野:就接入DeepSeek-R1而言,大家需要明辨模型尺寸,如有的上线的是1.5B、32B等较小的蒸馏模型。

但真正全量上线满血版(R1-671B)的,目前亚马逊云科技是为数不多的之一在V3发布前,我们的业务团队就与DeepSeek背后的社区进行交流2024年4月,Amazon Bedrock推出“自定义模型导入”功能,当时功能还在预览阶段时,最先上线的就是DeepSeek Coder模型,专门用于代码生成。

后来R1公布后,我们与社区一直保持良好的沟通和技术经验交流,加之DeepSeek开源版本的原因,很快实现了模型的上线部署春节期间,我们迅速完成了对DeepSeek的平台支持可以说,从去年到今年,我们在帮助客户部署DeepSeek模型的工程化实践上从未停止。

钛媒体:部署一套满血版模型对客户而言成本很高,那么从云厂商上线DeepSeek后,各云厂商之间会有明显的差异化吗?王晓野:目前来看,差异不大DeepSeek推理模型在服务器部署过程中,主要采用多集群方式,积累了大量推理层面的工程化经验。

在云厂商级别,大家掌握的知识是差不多的但未来看,以亚马逊云科技为例,如对开源模型Llama的支出,去年re:Invent发布了延迟优化的推理功能,其底层结合了我们的自研芯片Amazon Trainium2,将Llama的推理性能优化到了现阶段云厂商中的最优水平。

钛媒体:去年亚马逊云科技推出了自己的大模型Amazon Nova,DeepSeek的出现是否会对亚马逊云科技自研大模型的思路产生影响?王晓野:大方向不会有太大影响Amazon Nova系列模型仍然非常专注于特定场景。

我们坚持认为没有一个模型可以包打天下,需要选择最适合的模型去适配场景Amazon Nova系列模型中,Nova Micro适用于文本校验、简单翻译等场景,Nova Lite则以低成本多模态见长,适用于图像、视频、文本生成,提供极致性价比。

至于Nova是否会在未来推出逻辑推理能力模型,目前还没有更多见解如果将Amazon Nova与V3在通用场景下对比,大家都在第一梯队,没有明确的结论说谁比谁更强钛媒体:DeepSeek存在哪些技术天花板?。

王晓野:模型的天花板依然存在模型的本质是生成token,其原理始终存在幻觉问题现阶段,第一梯队的任何模型都未完全解决这一问题其次,成本相对较高尽管大家会认为模型参数量越大,能力越强,所需算力越多,但企业在选择智能与性能时,始终需要在性价比上做出妥协和折衷。

此外,R1推理的思维链越长,理论上生成一个token的成本也会越高在推理阶段,尽管各家API价格不同,但稳定性和持续响应问题依然存在,客户仍需要底层算力资源、数据定制及应用等方面的支持针对这些问题,一是在工程层面做好幻觉和有害内容的防护;二是需要底层算力不断优化,作为云厂商,拥有自研芯片的公司会在推理性能上持续优化,尽管推理定价较低,但在企业级应用中,能够稳定提供服务的成本会迅速上升。

客户仍需工程化手段控制模型输出钛媒体:客户对你们有哪些诉求反馈?王晓野:大客户在本地部署时,特别担心算力不足和稳定性问题另外,许多中国企业在调用海外区域支持出海业务,但国内客户的尝试性需求也非常高,即如何通过各种大小的模型快速部署。

当前,DeepSeek在应用端仍面临服务器响应问题尽管在部署时对吞吐进行了优化,但底层算力和资源相对固定对于真正走向企业应用的客户,最好的方式是在云上利用云资源,以弹性方式实现较好的服务可用性和连续性这也是亚马逊云科技推出在Amazon Bedrock Marketplace和Amazon SageMaker Jumpstart上部署模型的原因。

当然,企业关注的是选好模型,针对具体场景选择正确的模型;定制私有数据;通过一系列工程手段降低成本;并通过工具层面的能力控制好模型输出如尽管DeepSeek表现优秀,但仍存在有害内容和幻觉问题,需要成熟工具Guardrail确保应用层面的输出正确。

此外,还有端到端的加密安全这些话题未来会成为企业关注的焦点钛媒体:目前平台上客户调用情况如何?增量有多快?王晓野:需要强调的是,R1不仅在中国,全球范围内的客户都在关注,核心原因在于其推理能力处于全球第一梯队。

同时,V3没有那么惊艳的原因在于全球范围内还有不少可选项,针对具体场景,各有所长对于R1,尽管蒸馏后的较小版本关注度相对较低,但尝试小规模部署蒸馏版的客户很多全球范围内,客户主要需求仍是满血版的R1,尤其是体量较大的客户,正在积极探索。

钛媒体:与之前亚马逊云科技上线的第三方大模型相比,客户增量的速度是否有明显差异?王晓野:类似开源开放非常重要如果横向对比,有点类似于Llama因为相对于闭源模型,开源模型有更广泛的客户群,增长速度也较快。

钛媒体:基于亚马逊云科技使用DeepSeek的客户只需为计算资源和工具付费吗?计费模式是怎样的?这与使用Llama大模型是否相同?在调用价格上是否有优势?王晓野:目前,亚马逊云科技提供的版本并不是商业分成模式,对于模型的其他环节,包括部署工作等都不收费。

客户在调用模式下,需要为使用的底层云计算资源付费钛媒体:与token计费模式相比,对客户和云厂商而言有哪些利弊?王晓野:整体来看,Amazon Bedrock对用户而言是最简单的方式,只需选择好模型和机型,即可一键部署,也是最容易触达满血版模型的方式。

在Amazon Bedrock Marketplace和Amazon SageMaker JumpStart部署DeepSeek-R1模型,主要服务的场景是调用DeepSeek满血版,提供满血版能力的厂商仍然非常有限。

利用Amazon Bedrock的自定义模型导入功能部署DeepSeek-R1-Distill模型,或通过Amazon EC2 Trn1实例部署DeepSeek-R1-Distill模型,目前也是按云资源计算,背后有相应的成本核算。

未来,随着底层优化,客户访问模型的性价比将持续提升钛媒体:预计今年整体的中美AI竞争会处于什么态势?这将对云供应商/算力供应商带来哪些影响?王晓野:未来大模型的焦点可能不仅在于Agent reasoning,多模态也是重要的方向。

此外,海外对负责任的AI和模型生成有害内容的担忧更大以云厂商为首,大家会加强这一方面的投入如果预测DeepSeek下一步的影响,首先会给中国企业,尤其是传统企业带来两个信号:一是成本,二是推理能力模型推理特别适合企业提效,如代码生成、Agent自动化完成任务等场景。

R1所展现的推理能力将再次推动Agent的落地及企业流程自动化的应用热潮

星界云手机,让推广营销更加高效和智能!通过云端仿真手机,你可以灵活展示产品、运营活动,快速响应市场需求,实现推广营销的精准投放,提升品牌影响力。

本站所有文章、数据、图片均来自互联网,一切版权均归源网站或源作者所有。

如果侵犯了你的权益请来信告知我们删除。邮箱:631580315@qq.com

标签: