赵何娟对话火山引擎谭待:大模型的下一个战场在哪|何谓

开通VIP,畅享免费电子书等14项超值服

首页

好书

留言交流

下载APP

联系客服

钛媒体注:

如果站在未来的视角回望这场始于2023年的中国“百模大战”,从上半场积蓄动能时的竞相破局,到下半场的价格战开打后的硝烟弥漫,在一片喧嚣之中,大模型也迅速迭代到了从“玩具”到”工具”的关键时期。

2024年进程未半,中国大模型市场的竞争已经骤然进入白热化阶段,大规模降价潮、免费潮来临。在这个过程里,字节跳动的火山引擎豆包大模型率先打响了大规模降价99%的第一枪。之后阿里通义千问、百度文心一言等也都陆续推出了更低价格甚至免费模型服务。它们都希望这能更大地降低各大产业应用的使用门槛,扩展应用场景,加速中国在创新应用上的优势落地。而这是否会如愿呢?

钛媒体高端对话节目「何谓2024」-「何谓AGI」系列,特意请到了这次打响了中国大模型价格战第一枪的火山引擎总裁:谭待。来共同探讨:在中国大模型当下格局以及全球AGI革命浪潮翻涌的大背景下,大模型竞争的下半场将会走向何方?以下是本期「何谓2024」完整版对话视频,以及部分精华文字内容摘编。欢迎参与更多讨论。

大模型价格为何走向“厘时代”?

赵何娟:很高兴今天能够请到火山引擎的总裁谭待来到「何谓2024」的节目,火山引擎的大模型发布会,可以说引起了行业非常大的一个反响。其中最重要的一条就是开始卷价格战了,大家可以看到最大的一个亮点,就是价格比同行能低到99%,为什么你们一开始选择以最低价的方式来做市场的引爆?

谭待:我们发现,企业在AI应用创新上会面临两大挑战,一个就是模型的质量,目前市场上主流的模型基本能达到“可用”的质量水平;另一个就是以模型为首的创新成本。

目前AI还是一件很不确定的事情,失败概率会比较高,如果用AI去做企业的创新通常90%会失败。现在很多企业去做一个AI驱动的创新项目,可能至少要100亿Token起,而且用完之后可能才能知道是否可行,如果按以前的价格来说,可能需要将近100万元成本,但是如果能降成1万块钱,企业的创新门槛就大幅下降。

ToC的商业模式是把用户规模做大,通过别的方式来变现,比如说广告。但ToB的企业服务讲究的是持续性,企业在乎的是能够持续得到持续且质量好,价格也稳定的服务。因此即使一方面市场有需求,但另外一方面如果做不到,这个事也很难持续。所以实际上火山引擎是在整个模型的成本优化上做了非常多的事情。

有的芯片内存是瓶颈,有的芯片算力是瓶颈,把这两类芯片组合在一起成本就能下降。因为规模非常大,调用量非常大,把不同的调用量混合在一起就可以降低成本。

再比如有的人是白天工作时候用,有的人是晚上娱乐的时候用,还有人是大家都睡着的时候用,但是有些科研,有些这种离线的任务也可以来用,我们把这些不同的对大模型的调用负载混合在一起,成本又可以降低很多。所以我们做了这么多优化之后发现我们可以做到这个事,从技术上我们可以做到,同时市场也需要你做到,那就应该这么来做。

还要提供很多应用的工具,包括插件,还有低代码的扣子平台,它可以让你不会写代码,也能够去开发自己的Agent,还包括一些脚手架的工具等等。

总体来说,需要持续做好三件事:更好的模型、更低的价格和更易落地的方案。

赵何娟:国内的云服务厂商中火山云因为入场是最晚的,因为入场晚,就意味着规模肯定不如先发者,比如说阿里云。为什么阿里云规模效应更强,但它的价格做不到那么低?你们现在能把价格做到这么低,本质上来说还是有利润的,并不是在倒贴钱给客户?

谭待:其实做云这个事情,最大的壁垒就是规模,规模大弹性就能好,弹性好成本也能低,也可以有资源,去让更有更强的团队去不断优化成本。

火山虽然对外做得比较晚,但是其实火山是字节的一部分,对内自用部分的时间和规模是可以综合进来的,当时我加入字节的时候,就在讨论说要不要进入云这个市场?战略团队就顾虑,我们做得比较晚,可能在规模上追有点难,但我说不应该这么算。在技术上,我们可以把自有的规模和外部客户的规模在安全可控的情况下做一定隔离,但是可以在资源上做混合的调度。所以这个时候去算规模,就不是去看纯外部的规模,而是看整个所有的负载的规模。所以火山坚持技术上一定要内外统一。所以可以认为不管是我们外部的客户,比如说手机、汽车、零售、金融的客户,还是内部的,比如说抖音、头条,其实都跑在火山引擎上。这样综合起来算,我们的服务器数其实就是中国第一,我们整体的服务器数,也看到了友商公布的服务器数。整体通盘有这个规模,自然就有把云,包括后面比如说现在把AI推理做好的底气,只需要技术上不断去优化,去把这个规模的优势做好。

倒贴这个事情,其实是不可持续的,如同前面说过的,ToC模式往往是“羊毛出在猪身上”,就是把用户免费地拿过来之后,可以通过别的变现方式来做。ToB不是这样的,售卖的是一个服务,而这个服务它得不管是从品、性能、服务的质量,还是说价格上,都得是一个稳定的。特别是云,它是一个可持续的。因为可能客户签了个3年的合同,这中间是不能变的。所以要去定一个价格的时候,一定要是保证这个事情是有毛利的。当然在这个阶段的时候,最重要的是说我们其实想让AI被更多的人能用起来,能有更多的创意,更多的创新出来,所以即使有利润我们也不会把它定特别高。

赵何娟:当初为什么字节要进入到云这个市场?毕竟字节是做ToC起家的,ToB业务逻辑完全不同。在当时“后发”的情况下,你们是怎么说服张一鸣?我们虽然进入公开市场晚,但是综合基础不差,一定能做成这个市场的?

谭待:首先是看这个市场重不重要,大不大?任何数字化底座一定是云,包括现在AI也是数字化的一部分,底座也是带来大量的云的消耗,这个市场是非常大的,中国未来的云市场会占全球17%-18%,,这个比例非常高了,而且现在保持着一个非常高速的增长。,有数据显示,2025年后,全球整个云市场就要超过在线广告的市场,所以这个空间是很大的。

而且云市场并不是一个赢者通吃的市场,马太效应不明显,大企业一定会采取多云政策。一方面避免被一家“绑定”,无法拿到好价格,另一方面,每家云都有自己擅长的地方。如果只用一家的话,就没办法采各家之所长,也不利于企业的技术的创新。也就是说在空间很大的云市场,后来者也是有机会的。

这个市场值得做。但是怎样才能做好?核心是战略一定要有定力,因为ToB是一个很长的事情,跟客户合作,可能有的客户得需要一年、两年才能真正去做得比较深。所以战略一定要稳定,要知道能创造的价值是什么,擅长是什么,不擅长什么,什么是自己做,什么是伙伴来做,给客户传递的是什么价值。

AI,云服务市场的下一个驱动力

赵何娟:提到火山的战略定力,哪些方向是火山比较明确的战略方向?公有云应该算一个吧?AI这个方向火山发声比较早,是不是也算一个?

谭待:公有云肯定是火山的战略方向之一,因为规模化是共有用发展的基础,前面也提到,这正好我们的优势,此外火山引擎确实花了很多精力去想什么是驱动云技术变化和发展的下一个关键因素。上一个关键因素是互联网,特别是移动互联网下一个大的关键点是什么?在自动驾驶领域,其实已经从以前的小的视模型、视觉模型或什么模型转向Transformer,典型的就是以前可能是用那些小的算力卡,后面当时开始用A100,生信也是一样的,生信制药想再把Alpha Fold出来,大家也在做这个事情,虽然那时候大模型,大家没有看那么清楚,但是明显已经感到Transformer大量的应用,AI会成为云的下一个驱动力。

所以在2022年的时候火山其实就在深度地做这个事情。第一要把供应链做好,要把算力的基础建好。第二算力规模变大之后,需要好的平台配合调度。所以火山在整个GPU的调度、优化上做了非常多的事情,比如算子的优化,整个平台的调度能力的提升,整个MFU提升。一个是要坚定不移地把规模优势发挥好,把模型成本和平台稳定性做好。第二则需要把握住大的技术变革。比较幸运的是火山在这些方面还是看得比较早,也非常准确的。

赵何娟:我听说在2022年的时候,国内有很多大厂都准备要放弃掉AI这个方向,或者说觉得看不到希望,而且把已经采购的或者囤积的GPU的A100的卡可能直接都要准备退还,据说退的这几万张卡都被字节给接了是吗?

谭待:2022年的时候确实发生过这样的事情,因为有些友商大量地去做退订。但是那个时候我们很坚定不移地看好AI这个方向,认为AI是驱动云很重要的一块。

当然同时也需要结合自身情况做技术层面的判断。因为刚好我本身技术出身,所以这个选择可能需要结合技术,也要结合商业来判断。因为那时候大模型没有发展起来,那个时候如果有谁说我已经看到了大模型未来的爆发?他肯定是在骗人。但是我们可以看到的是,自动驾驶是很确定的事情,而且除此之外至少有一两个行业已经有很大的体量能够支持大模型的发展。其实放到现在汽车行业在自动驾驶领域也投入非常大,并且在这个领域算力储备也比较雄厚。只不过聚光灯可能更多的看到是大模型的公司,比如说2022年火山和毫末建立了一个驾驶领域最大的算力集群。所以这个领域相当于是火山不仅从技术上有所判断,而且从客户的需求上也验证了这一点。

既做裁判员又做运动员?

赵何娟:现在国内的做大模型的企业和团队非常多,包括像月暗、智谱、百川,在国内来说相对来说有一些知名度的大模型,基本上还是在火山引擎上跑。作为一个行业底层服务的提供商来说,你会觉得国内现在的“百模大战”“千模大战”优势在哪里?或者有一些什么问题?

谭待:首先我觉得这些公司和团队其实做得都非常好,每家也有自己的特色,行业认知水平也在不断提升。

当然这个行业还需要让更多人参与进来:第一模型要好,第二成本一定要低,把100万的成本降低到1万,那进入这个行业的人可能就不是多100倍,而是多1000倍了。可能10个项目里里面,虽然9个项目不一定能成功,但只要有1个项目成功了,可能前期的所有投入就都回来了。

火山做了很多插件平台,做了方舟2.0,以及扣子这个低代码的平台,就是让更多的人能够更便捷地使用大模型。

所以通过这个平台,通过好的模型,通过低的价格,把整个做创新的门槛一降再降,就能看到行业的繁荣。

赵何娟:你觉得做大模型的平台,有必要什么应用都自己去开发吗?既做大模型的底层基座,又在上面去做各种各样的专有模型,会不会给行业造成火山既做裁判员,又做运动员的感觉?

谭待:豆包这个模型,有一个对应的同名的APP,就像OpenAI有个ChatGPT,因为平台需要有一个对应的一个产品,去让用户能很直观地感受到这个模型的好和坏,模型本身是开放的,火山引擎也是开放的。

比如说字节内部也会产生平台的客户,比如说抖音想用这个模型能力做些事情,抖音其实也就成为了火山的一个客户。外部比如说快手也想用,道理也是一样,对于火山来说,就是要保持一个开放性和中立性,只要是客户,就提供同样的优质的服务。

算力之外,大模型的增长动能在哪?

赵何娟:在2022年底ChatGPT发布,全行业爆火之后,据说2023年整个火山引擎的财务业绩翻了好几番。2023年现在的整个的业绩规模和2024年现在半年过去的增长,让你们的财务模型又已经进入了新的平衡点。有没有可能接下来的规划中会更考虑利润的提升?

谭待:我们觉得什么最重要?是有毛利的规模是最重要的,不是只看规模,也不是只看利润。而是要看是带毛利的规模。带毛利的规模决定了可持续性。比如说要做语音,需要组建一个非常大的团队,然而人力成本是非常高的,因为只有很强的团队,才能把技术和产品做好,所以人力投入肯定是最大的开销之一。只要看重和坚持带毛利的规模,最终就可以做到平衡、盈利。

赵何娟:可以说现在火山引擎的算力储备是非常充分的,可以说是前两年的准确的战略判断带来的,那么算力用完了怎么办?可能这两年的财务增长和爆发都是基于之前的储备带来的。未来的持续性如何保证?会不会受到美国制裁的影响?

谭待:首先规模是正循环的,规模大,对未来就有预期,就有信心做更大的投资。更大的投资又能带来更大的规模。所以如果之前的增长是基于我们判断得早,以及我们内外复用的规模优势。我们在这个领域就一直很会很有先机和优势。

第二其实现在算力在当下的这个情况下,是一个异构算力的系统,因为可能每一个团队有不同的芯片的选择,而且不同的芯片有不同的擅长的地方,有的内存很大,有的算力很强,有的兼容性很好,所以就对技术平台本身要求很高,技术的打磨也是很重要的。

第三其实也在看和各家厂商,比如下游的芯片厂商如何合作。我不仅只是说在算力层面,让大家一起能合作得更紧密。比如说我们最近和英伟达一起在中国发布了Omniverse,这样企业可以在中国通过火山引擎来使用Omniverse,这个合作也很重要,第一就是未来物理世界和真实世界可以连接在一起,这样可以用AI通过仿真或者其它方式,不仅改变虚拟世界、数字世界,也能去改变物理世界,所以一方面平台做这个事情。另外一方面通过合作,其实双方也加强了合作的深度和广度,可能关系会更加紧密,也会在其它层面的合作上也会有更多的帮助。

赵何娟:从美国的芯片的出口的规则限制来说,可能中国企业过去还能正常购买A100或者H100这样的芯片。可能将来这种高制程的芯片都是不允许被中国公司购买的,在这一点上来说,可能之前的护城河或者说壁垒,事因为规模在早期带来的壁垒,但这种壁垒可能再经过两三年就被别人取代了。这种前提下,对于火山来说,是不是相关的壁垒就不存在了?

谭待:规模优势是始终存在的。所以不管说会不会涌现出更多的底层的供应商,都会第一时间想到和字节、和火山来合作,所以这个优势是持续的,规模的好处就在这一点。所以我们这一次能把推理的成本做低,也是因为用了异构的芯片,去把它们的特点都发挥出来,所以就能通过分布式推理来做这个事情。

赵何娟:所以从这个角度来说,开源大模型更好?还是闭源大模型更好?。

谭待:不管是开源还闭源,目的都是让大家更多地来使用。

第一开源有开源的商业模式,闭源有闭源的商业模式,大家只是不同商业模式而已,开源有很多成功的公司,闭源也有很多成功的公司。所以第一就是你自己这家公司怎么来选择,不能简单说开源和闭源谁更好。

第二也要看企业的具体需求,企业选开源、选闭源,背后的需求是说,第一性能好不好?第二安不安全?当然开源有安全的解决方法,闭源也有安全的解决方法。

第三就看成本,用开源就代表着底层的算力没有办法在云的池子里面来混合,如果云平台没做好,肯定还是用开源便宜一些。所以对企业来说,要决定自己的战略路线是什么,用什么样的商业模式来做这个事情?但整体上没有必要去争论这个事情。现在豆包是闭源的,但我们将来肯定也会推出豆包某一些系列的开源的模型,我们肯定是这样的一个逻辑。

大模型落地的应用场景和挑战

赵何娟:互联网革命来自C端的爆发,然后逐步延伸至B端,你觉得AI或者大模型的这波2.0的浪潮更可能在C端还是B端率先爆发?

谭待:我觉得可能会是在B端和C端同时开始爆发。

移动互联网可能先是在C端也就是手机端爆发,但如果我们看PC互联网,其实最开始也是工作场景和生活场景不分的。比如邮箱和搜索,用户也是为了获取知识而非娱乐。刚开始软件诞生的时候,很多也是给B端使用。比如70年代时候的软件巨头其实都是做ToB的事情。所以我觉得一个技术的提升,是不一定先从C端爆发,或者先从B端爆发的。

AI能够提升生产力。所以AI在B端有很多天然场景。但实际上当AI能带来很多能力之后,C端用户也就开始在日常生活中使用了。比如说ChatGPT其实有很多付费用户,他们也是同时在工作场景和生活场景中使用。

赵何娟:豆包模型也有ToC和ToB的模型,你们在做这个模型,或者在推出相关模型应用的时候,有什么样的区别?

谭待:首先我们要有一个通用模型,这个通用模型应该是最强的。

比如说豆包通用模型Pro就干这个事情的。豆包通用模型Pro就是可以同时解决C端和B端的需求。而且支持长文本128K可精调。尤其在B端使用的时候,需要让模型做一定的优化,所以能不能可精调是很重要的。

在此基础上,再看哪些场景是很垂直,规模又很大,就可能会把它做一定的特化。比如说角色扮演,看起来可能是C端的使用场景,这个情况下就需要通过AI去和用户在场景中进行交互娱乐,所以我们有一个专门的角色扮演模型。

所以整体核心就是最底层通用的强大,如果没有把最强的底层大模型做出来,后续做专有模型大概率就不会做得好。

赵何娟:下半年你会认为有很多应用出来,从应用场景上来说会有哪些判断?比如说哪些行业可能会跑得更快一些?

谭待:首先终端上肯定还能做出很多创新出来。比如手机、汽车、PC、IOT,这就是为什么我们这次搞两个大联盟,一个是手机的大模型联盟,还有一个是汽车的大模型联盟。还有一些场景,比如说C端的一些助手类的应用,包括Agent,包括搜索。

在企业内部,大模型对于企业就整个知识的管理,包括数据的分析肯定是有很大的辅助。比如说我们做Chat BI,以前CEO问一个问题,底下人不知道,马上就找人去查,查完以后截个图再反馈过来就很慢,CEO说我还想看看别的,就需要再走一次流程。其实这些数据BI里面都有。管理就是一个很大的效率题,我们有个理念叫数据飞轮,以前大家看数据中台讲的是说要积累多少数据,但数据不用是没有意义的,所以应该看数据飞轮每天消耗了多少数据,用了多少数据,消费了多少数据,就要想各种方法去把消费的便捷性和体验做好,Chat BI就是这样,以前信息传递靠口口相传,现在是直接向Chat BI提问,这样就把数据消费的实时性和便利性都提升了非常多。

比如说有个职业叫打字员,也是一个白领,以后可能就再也没有这个职业了,取而代之的可能是一个更智能的“打字员”,它能做扩写,做很多其它的事情,但是我自己还是一个乐观主义者,我认为人类最精髓的部分始终还是在人的这个地方,而且也许人可以跟AI共同进化,而不是说AI取代人。

赵何娟:2022年11月底推出ChatGPT的时候,12月初我们就组织了一个讨论,那个时间段感觉行业里面对这件事情关注度和热度还是非常高的,但是大众领域还没有那么关注,大众领域一直到2023年,可能1月份、2月份才开始爆发性地关注ChatGPT。那个时间OpenAI推出的ChatGPT对你的冲击有多大?

谭待:因为我一直在做云,所以当时我最大的感受是太好了。看来以前想得很对,比如说我们当时内部在讨论说为什么OpenAI可以做出来ChatGPT,因为不是说中国做不出来,美国反而做出来,其实是OpenAI做出来,别人都没做出来。

ChatGPT比我们想象来得更早。我们本来觉得可能还再晚一点点,比如我们再布局几年,可能会有类似的模型出现,而且也在推测比如生信领域会不会更快一些?但没想到大语言模型是最快来的,我想知道下一个是什么,大模型的概念一直都有,但放在那个时间看到ChatGPT你没想到能做到这么大。

赵何娟:有一个典型的应用场景,我们钛媒体自己现在也在做科股数据的大模型。我们也有自己的数据库。我们就想着基于我们自己的自有的数据业务再做一些预训练的尝试,而且能够基于这个大模型还能开发我们自己的应用产品。从场景上面来说可能还不是那么简单的事情,这一点我不知道你是怎么来面对这种像我们这样很具体的场景应用的需求的?

谭待:我们认为大模型落地有三个核心关键挑战:更好的模型、更低的成本和更易落地的工具。其实刚好你这个例子就可以讲讲我们对以上这三个挑战的理念:

首先有比较好的模型,比如说用豆包,可能都不一定要用精调,做一些提示工程就好了。因为豆包的底座能力是很强的。这样其实基础功能就可以满足了,但是要把这个应用做好,其实还要做很多事情,比如说需要联网,因为财经的数据,是需要有很多实时的数据更新。所以我们方舟推出了联网的平台,而且它能拿到独有的内容,这样你就可以更好地去获得信息和内容。

第二是知识库的搭建,自己积累的知识库是很重要的,可以去帮助这个模型在应用的时候减少幻觉,提高精准度。这个是很重要的,比如有些东西已经在知识库做好了,就从这个受限的知识库里面出内容,而且做到有一些东西让它不要瞎说。

第三就是考虑到用户的交互,用户使用的时候可能只有文字的内容是不够的,还需要有一个视频,所以我们还做了一个内容插件,这样一方面去让大模型去回答问题,出数据报告的时候,还可以去把相应的视频内容播放出来。

除此之外用户在很多使用过程中有很多细碎的需求。这些细碎的需求可能需要做一个对应的Agent,来去解决它,通过扣子平台。比如说用户需要了解和体育相关的公司的财经知识,不需要写代码,只需要编辑或者是其他业务人员,用扣子平台很快就能搭建一个这样的一个小助手一个Agent。让它和应用放在一起,当用户来的时候,小助手就可以自动调出来回答用户的问题。

最后,我们还配了一个叫算法BP团队,就是算法服务团队。因为他们有很多经验,他们其实就是火山AI相关的算法人员。有需求的客户团队所以可以和算法BP团队的技术人员先对接一次,帮助把这套基于AI基于大模型来开发和应用的流程建立起来。未来就可以不断去更新它来运转起来。这样操作会让整个服务更易落地,同时还能够有一套配套的服务体系来帮助客户完成既定目标。

THE END
0.IDC:2025年上半年大模型公有云市场,火山引擎占比49.2%排名第一IDC:2025年上半年大模型公有云市场,火山引擎占比49.2%排名第一Video Player is loading.00:00/00:00 Loaded: 0% 视频加载失败,请查看其他精彩视频 相关视频 猜你喜欢 00:05:39 美媒:想买安世的芯片可以,但中方 00:02:06 Dexmal开源Dexbotic 00:07:03 越南在南沙疯狂造岛,中国为何不阻 jvzquC41xkjfq7xkpc4dqv3ep1v0hrscpek04977/2?.3B4fgvgjn6nphs€d{w>99:7857i0jvsm
1.抖音大规模实践火山引擎向量数据库对外开放服务快科技解决方案就是,将火山知识库文档和数据通过向量特征提取,然后存储到向量数据库中,应用LLM大语言模型与向量化的知识库检索和比对知识,构建火山引擎Oncall智能问答,可以让聊天机器人的回答更具专业性和时效性,构建专属Chatbot。未来,火山引擎Oncall的FAQ知识将持续沉淀,知识库持续完善,同时还能提供大模型训练数据,处理大量客jvzquC41pg}t0v~ftk|ft|3eqo521B871;968:;0jvs
2.万有商城云市场大模型AISaaS应用火山引擎万有商城荟聚优秀SaaS伙伴,为企业提供内容创意、直播工具、电商运营、广告营销、企业办公、网站建设等软件产品与服务,一站式助力客户运营提效和生意增长。jvzquC41ocxlg}3xqnifppnpg0ipo8
3.產學研齊聚楊浦,共話大模型產業創新未來火山引擎推出火山方舟大模型,提供模型訓練、推理、評測、精調等全方位功能和穩定可靠的安全互信方案﹔優刻得推出智能雲平台,提高全要素生產力﹔復旦大學與阿裡雲共同建設CFFF智算平台,推出多學科融合創新的AI for Science計算集群“切問1號”和專用高性能計算集群的“近思1號”,聚焦高性能、低能耗、靈活穩定、強拓展jvzq<84uj0vfqyqg0eun0ls1DKM61w71428419>471i25=<8:/:17A94:24ivvq
4.火山引擎大模型应用启动邀测,抖音十多个业务团队已试用6月28日,火山引擎发布大模型服务平台“火山方舟”,面向企业提供模型精调、评测、推理等全方位的平台服务(MaaS,即Model-as-a-Service)。目前,“火山方舟”集成了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等多家AI科技公司及科研院所的大模型,并已启动邀测。 jvzquC41hktbplj0gcyuoxsg{0ipo8sgyu525>9.42842?7;49<63B:85;4ivvq
5.火山引擎大模型生态:“SaaS+AI”商业化的新解法转动“数据飞轮”,需要更多 SaaS 伙伴使用大模型技术;随着调用量和使用深度的增加,大模型也会越用越好用。这也是火山引擎“万有计划·豆包企服联盟”期望带给 SaaS 伙伴的帮助:通过政策、技术、服务等资源上的支持,鼓励更多 SaaS 伙伴尝试大模型技术,解除在大模型探索、商业化过程中的种种顾虑。 jvzquC41yy}/gkwwp0ipo87246683B4p/3=82=3jvor
6.升级云服务火山引擎要做AI大模型“发动机”火山引擎总裁谭待表示,AI大模型有巨大潜力和创新空间,火山引擎会服务客户做好大模型,共同推动各行业的智能化升级。据悉,火山引擎机器学习平台经过抖音等海量用户业务长期打磨,支持单任务万卡级别的超大规模分布式并行训练场景。jvzq<84yyy4djrscpg}t0lto1ep0497512:.3A4;;;816B3ujvsm
7.海尔消金携手火山引擎,共建消费金融大模型产经在生成式人工智能浪潮的推动下,金融科技正迎来新一轮的创新与变革。5月10日,海尔消费金融(以下简称“海尔消金”)与火山引擎正式宣布,双方将共同成立金融大模型联合创新实验室,致力于构建消费金融垂直大模型,并在精准营销、智能客服、贷后管理、风控等业务场景中持续探索大模型的创新应用,从而加速海尔消金的智能化转型jvzquC41yy}/eny0eqs/ew4y|u0e‚z1361796530yivvq
8.火山模型和优化(向量化执行编译执行)文章讨论了现代CPU的处理特性,包括超标量流水线、乱序执行、分支预测、多级存储和SIMD优化,以及这些特性如何影响数据库查询性能。文章提到了火山模型和向量化执行模型在数据库执行器中的应用,分析了各自的优劣,并探讨了编译执行和数据预取等优化策略。 文章目录 jvzquC41dnuh0lxfp0tfv8vsa6:88?=:51gsvrhng1jfvjnnu1743<:588;
9.字节终于掀桌子了快科技5月 15 日,字节跳动首次向外界“推销”旗下 AI 大模型——其自研豆包“全家桶”官宣将通过火山引擎(字节旗下六大业务板块之一,其余五块分别是抖音、大立教育、飞书、朝夕光年、TikTok)对外提供服务。 至此,字节跳动纵身跳入国内大模型混战,其大模型版图正式浮出水面。 jvzquC41pg}t0v~ftk|ft|3eqo521B=21;>1;<;0jvs
10.火山引擎云上实战:DeepSeekR1大模型(全尺寸)本文将介绍两种在火山引擎云上部署 DeepSeek-R1 全尺寸模型服务的方案,涵盖大模型推理服务的 Terraform 一键部署、容器化部署、资源弹性伸缩和模型可观测。 来源| 火山引擎云基础 在AI 大模型日新月异的当下,企业在使用大模型时往往面临着数据隐私保护和性能优化的挑战。为了解决这些问题,企业 AI 大模型在云端进行私jvzquC41zkk/kwkqs0io1jwvkerf1;:8:h::h?5d37k83;=;99l39k
11.火山引擎吴迪:带你了解大模型的应用和未来技术解析火山引擎提供了火山方舟这个平台,火山方舟平台上面有众多优质的、精选的国内的高质量商用模型,像智谱AI的ChatGLM的商用版本,像MiniMax的MiniMax-ABAB 5.5以及字节跳动的云雀模型等等。我们有很多客户基于方舟平台,在这些优质的商用模型上去开发自己的应用。 大模型,将在哪些方面帮助职场人? jvzquC41yy}/xxqegpmjpn3eqo5eqlx185<11:6742=5