前哨做大模型不香么,火山引擎为什么要发布方舟做生态

凤凰网科技讯 《AI前哨》6月30日消息,6月28日,火山引擎正式发布了大模型服务平台“火山方舟”,面向企业开发者提供大模型精调、评测、推理、干预等全方位大模型服务的企业级大模型应用平台。注意,火山方舟不是火山引擎的大模型,它是一个平台。那么,火山引擎为什么要发布方舟做生态?

一、门槛虽然高,但技术大潮不可阻挡

最近跟伯克利大学的一名教授聊天时,曾经谈到训练一个大模型的价格。他的答案是,常规的成本是1000万美金,便宜的训练一次也要300万美金。

怎么衡量这个价格呢?研发高级芯片流片一次差不多就是1000万美金,差一点的就是300万美金,基本上和大模型差不多。

众所周知,芯片的门槛之高,高于上青天,而且只有个别有实力的国家能做。

这里面不仅是钱的问题,还有科技人才的问题。

大模型也同样如此,目前全球大模型创业主阵地就是中国和美国,其对顶尖算法人才的需求,也是到了难于上青天的地步。

回顾人工智能的发展史,从神经网络模型的引入,到2017年Trnasformer架构的提出,再到现在的GPT4。

可以说,大模型以一己之力,把科幻电影里关于强人工智能的幻想,变成了可能被验证的未来。

这就让人想起那个经典比喻,“人工智能就像一列火车,它临近时你听到了轰隆隆的声音,你在不断期待着它的到来。它终于到了,一闪而过,随后便远远地把你抛在身后。”

自2022年底发布以来,ChatGPT迅速成为了人类历史上最快获得上亿用户的消费级互联网应用,最新的GPT4更是在法律、数学、生物学等领域的多项测试中超过90%的人类。

大模型将如蒸汽机一般,引发新一轮科技革命,这已经是注定。

国内以BAT为首的老牌大厂肯定不会错过这个机会,先是百度抢跑发布文心一言,接着国内大模型呈现百花齐放的局面——阿里的通义千问、智谱ChatGLM、复旦大学MOSS、360智脑、IDEA研究院的姜子牙等陆续亮相。

不少知名创业家也纷纷入局,美团联合创始人王慧文、搜狗创始人王小川等知名大咖,也陆续进场。

目前国内的大模型搭建工作正在如火如荼地进行,做大模型似乎成了科技公司必由之路,但火山引擎却在这种潮流中,选择走一条横向的道路。

火山引擎选择做平台,也就是接入多家大模型,为企业提供更丰富的AI应用。

6月28日,火山引擎正式发布了大模型服务平台“火山方舟”,面向企业开发者提供大模型精调、评测、推理、干预等全方位大模型服务的企业级大模型应用平台。

注意,火山方舟不是火山引擎的大模型,它是一个平台。

二、火山做事的逻辑是什么?

火山方舟一头接着多家AI科技公司及科研院所的大模型,目前包括智谱AI、2021年就创办的MiniMax、复旦的MOSS、大湾区创新实验室IDEA、李志飞的出门问问、澜舟科技、王小川的百川智能七家大模型;另一头邀测了国内一些需要使用大模型的应用方,比如北京银行就是其典型客户。

为什么会做出这样的选择呢?

第一个逻辑其实也好理解,这是一个很典型的“卖水”商业模式。

有个典故是,19世纪加州发现金矿,全世界探险家都跑去淘金,千辛万苦的淘金者只有一部分能找到金矿,但是跟在后面卖水的农夫却挣到了钱。

在这场创业热潮中,包括MiniMax、出门问问、百川智能等等在内的各家大模型不仅是创业者,也是消费者,这些公司在研发的时候需要消耗巨大算力。他们在给客户提供服务的时候,还需要消耗更加持续的算力。

火山引擎作为中国代表性的几个云服务商之一,也就是这些算力的提供者,是他们需要的合作对象。

我们曾问过一位大模型创业者,“你们既然注定要消耗这么大算力,那自己买几千张卡,自己搭建算力平台不行吗?”

对方明确表示:“不可以!某团队虽然也号称有几千张卡,但没用高速网络的基础设施,那都是废卡,500张以后就没用任何加速了。”

我们又问:“那你们就不能自己做高速网络?”

对方回答:“也不可能,这又是一项巨大挑战,不要说我们做不了,国内一般的云也做不了,只有个别几家能做。某种程度上来说,这轮GPT大热,火山引擎他们就算什么都不做,也是红利期。”

不过,这也只是一个表面上的浅层逻辑。

第二个就是一个深层逻辑了,火山引擎不止想做卖水人,也想做牵线连接者,它的最终目标是生态。

观察下来发现,火山引擎做平台强调的是生态的力量,一端连接多家优质的大模型厂商,另一端连接大模型应用方。

一方面大模型厂商,基于火山引擎在算法、销售网络、交付团队等方面的经验积累,可解决模型训练成本高、门槛高等问题。简单理解就是,火山方舟平台可以帮助大模型厂商更好的服务千行百业,从而形成规模化应用和推广。

另一方面大模型应用方,基于火山方舟不仅可以直接精调自己的大模型,也可以调用其他大模型,这个过程不需绑定,即可实现灵活的“模型插拔”,多模型切换使用工作流基本不用改变,更高效、更具性价比的利用大模型。

可以这样理解,大模型就是未来智能应用的“中央处理器”,它可以是MiniMax家的 、可以是智谱家的、甚至有一天可以是微软、文心一言、通义千问家等,同时它旁边还有很多外部的南桥设备、北桥设备,这就相当于是大模型的OpenAI Plugins。那火山方舟就相当于这个总的入口,在这个平台上,大模型应用方可以根据场景调动不同的资源进行模型微调。

火山引擎都可以很好的跟他们合作,把他们纳入到生态里来。毕竟在实际应用中,客户最在意的其实不是它属于谁,而是它能为我什么。

从这个角度来看,火山引擎不仅仅是一个普通的卖水人,也是做生态的,起桥梁作用。

三、火山要做平台,切入点是什么?

总的来说切入点是两部分。

第一部分是安全问题。其实大模型发展到现在,除了讨论如何做大模型外,人们把更多目光聚焦在了如何确保模型安全的问题上。

众所周知,Chatgpt已经成了现代打工人的神器,但在其被受追捧时,与之而来的安全问题缺让很多企业望而却步。

直到现在,国家和各方企业禁用Chatgpt的命令仍在进行中。

应用侧这一边的人都很担心自己在提问的时候,把数据泄露给了大模型。之前不是流行过这么一个段子嘛,A公司向Chatgpt提问说自己有100万市场预算,请帮自己出个市场规划。结果,B公司向Chatgpt提问,自己竞争对手A公司有多少市场预算。结果得到的答案就是100万。当然,这只是个段子。

不过,提问者在提问时输入的信息,不知不觉成为了公开的答案。这是让用户忧虑的事情。同时反过来说,大模型厂商如果一味妥协给应用方,何尝不担心自己过度私有化部署,导致最终技术泄露。

如何让双方互信,这是一个非常大的问题。

另外,各企业也在积极开展安全方面的研究,甚至有些企业已经从系统层面和模型层面出发,构建更可控、可信的大模型安全框架。

安全互信计算方案

更重要的是,安全也是企业选择大模型的重要衡量标准。在这方面,火山方舟首创了大模型“安全互信计算”,以保障模型提供方的模型安全和模型使用企业的数据安全,诸如企业应用方担心的数据泄露问题,以及大模型厂商担心的私有化部署造成技术泄露等问题。

当然,火山引擎之所以能给这个保证,主要还是得益于布局早、积累深,就像前面提到的高速网络一样,火山之前几年就已经在联邦学习、零信任上下了大功夫。直到现在,火山方舟还在探索基于NVIDIA新一代硬件支持的可信计算环境、基于联邦学习的数据资产分离等多种方案。

此外,火山引擎与NVIDIA间的合作也很密切,深度。在当天的会上,NVIDIA开发与技术部亚太区总经理李曦鹏指出,NVIDIA 与火山引擎过往合作成果丰硕,包括共同合作的 GPU 推理库 ByteTransformer 在 IEEE 国际并行和分布式处理大会(IPDPS 2023)上获得最佳论文奖,双方还联合开源了高性能图像处理加速库 CV-CUDA,并在大规模稳定训练、多模型混合部署等方面的技术合作上取得成效。

据了解,未来 NVIDIA 和火山引擎团队将继续深化合作,包含在 NVIDIA Hopper 架构进行适配与优化、机密计算、重点模型合作优化、共同为重点客户提供支持,以及 NeMo Framework 适配等。

第二部分就是性价比问题。

安全问题解决了,下一步需要解决的就是成本问题。据国盛证券报告发布的《Chatgpt需要多少算力》,GPT3训练一次的成本约为140万美元,对于一些更大的大模型训练成本介于200万美元到1400万美元之间。

大模型的训练成本高已经成为行业共识,但火山引擎却表示,从长远来看,推理成本要明显高于训练成本,降低推理成本会是大模型应用落地的重要因素,并且效果和成本的矛盾永远存在。

对此,火山方舟选择从两方面入手:一方面和多家大模型厂商合作,支持他们把基座大模型训练得更稳、更快、更省;另一方面大模型应用方除了调用大模型外,也可以利用火山方舟的高性价比算力等配套服务进一步训练调用的大模型,提高其业务表现。

目前火山方舟已经邀请了首批企业来验证,金融、汽车、消费等众多行业的客户都包括在内。此外,抖音集团内部已有十多个业务团队试用“火山方舟”,在代码纠错等研发提效场景,文本分类、总结摘要等知识管理场景,以及数据标注、归因分析等方面探索,利用大模型能力促进降本增效。

四、底气和目的是什么?

无论头部企业还是创业公司,想要做出能为企业所用的大模型必须有数据、算法和算力三驾马车,火山引擎有更底层的能力为他们提供更好的支撑。

首先,训练大模型需要高质量且有效的数据,据相关报告显示,到2025年全球数据量将达到175ZB。那如何从选出高质量且有效的数据?火山引擎之前发布了数智平台VeDI,开放字节跳动数据技术能力,帮助大家更好地建设数据和应用数据。最起码可以看出,企业的数据技术这块问题不用担心。

其次,算力是大模型的硬件底座,高性能、高弹性、高稳定性的算力对大模型的训练至关重要。谭待曾表示,未来几年,AI算力的工作负载与通用算力的差距会越来越小,同时也会对数据中心、软硬件栈、PaaS平台带来新的挑战。

以数据中心的算力结构为例,大模型需要大算力,虚拟化会带来资源损耗,规模越大就损耗越多。未来3年内,大规模的算力中心,都将形成“CPU+GPU+DPU”的混合算力结构,CPU负责通用计算,GPU负责AI计算,DPU负责资源卸载、加速和隔离,提升资源效率。基于此,火山引擎在今年4月份发布了新一代自研的DPU,实现计算、存储、网络的全组件卸载,释放更多资源给业务负载。

尽管外界称火山引擎是“最年轻”的云厂商,但其自研的DPU已经达到业界领先水平,网络性能高达5000万pps转发能力、延迟低至20us。以适用于大模型分布式并行训练场景的GPU实例测试数据显现,相较上一代实例集群性能最高提升3倍以上。

在算法训练方面,火山引擎还推出了新版机器学习平台,该平台经过抖音海量用户业务长期打磨,可支持万卡级大模型训练、微秒级延迟网络、弹性计算可节省70%的算力成本。

这都是火山引擎在大模型方面积累的技术优势,这也契合了谭待给火山引擎在大模型时代的定位:为大模型客户提供高稳定性、高性价比的AI基础设施。

此外,火山引擎总裁谭待还判断,企业使用大模型,未来可能会呈现“1+N”的模式:“1”是通过自研或深度合作,形成1个主力模型;由于成本和场景复杂多元等原因,在这个主力模型之外,还会有N个模型同时应用。

这正是火山引擎发布火山方舟平台的意义,看到了大模型应用上的格局,提前布棋。应用方在意的不是用谁家的大模型,而是在于应用效果和安全,最好有一个量化服务标准,甚至有些应用方很怕只用一家厂商的服务,因为这样对他们来说并不安全。火山方舟作为大模型服务平台,做的就是标准、工具链等配套服务,让应用放心。

正如前文所言,火山方舟平台目前已经集齐了百川智能、出门问问、复旦大学MOSS、IDEA、澜舟科技、MiniMax、智谱AI等七家大模型,基本覆盖了国内成熟的大模型厂商。预计接下来,平台还将接入更多大模型。

写在最后

从历史发展来看,技术流动很快,且很难长期垄断,这是必然的结果。

观察国内大模型发展,其实大家和GPT3.5和GPT4还有很大的差距,各家想要追赶上GPT3.5起码要有8000到10000张卡,GPT4则要翻一倍左右。

从应用角度看,首先,仅通过一个大模型的API调用是无法满足企业的实际需求的;其次,即便有一个超强的大模型,高成本、高延迟等问题也会让众多企业望而却步;更重要的是,很多行业其实并不需要像GPT4这样的通用大模型,大家需要的是普遍的、便宜的,且更专业的解决自己领域的问题。

简言之“大模型不会一家独大,而会百花齐放。”从这个角度来说,火山引擎的做法很聪明,但这只是其一,真正让火山引擎下定决心做平台的原因是,连接者更有价值。

数年前,谭待曾说过我觉得比较重要的事,一是帮客户创造价值,第二就是帮客户的客户创造价值。”

只要有人,商业价值也不用多想,迟早是顺理成章的事。这个“愿意跟我合作”的观念才重要,这就是生态。

火山方舟通过这个平台,不断扩大生态,形成正和博弈,最终加速大模型的使用,让玩家和使用者变得更多,所有人都会从中受益。

THE END
0.IDC:2025年上半年大模型公有云市场,火山引擎占比49.2%排名第一IDC:2025年上半年大模型公有云市场,火山引擎占比49.2%排名第一Video Player is loading.00:00/00:00 Loaded: 0% 视频加载失败,请查看其他精彩视频 相关视频 猜你喜欢 00:05:39 美媒:想买安世的芯片可以,但中方 00:02:06 Dexmal开源Dexbotic 00:07:03 越南在南沙疯狂造岛,中国为何不阻 jvzquC41xkjfq7xkpc4dqv3ep1v0hrscpek04977/2?.3B4fgvgjn6nphs€d{w>99:7857i0jvsm
1.抖音大规模实践火山引擎向量数据库对外开放服务快科技解决方案就是,将火山知识库文档和数据通过向量特征提取,然后存储到向量数据库中,应用LLM大语言模型与向量化的知识库检索和比对知识,构建火山引擎Oncall智能问答,可以让聊天机器人的回答更具专业性和时效性,构建专属Chatbot。未来,火山引擎Oncall的FAQ知识将持续沉淀,知识库持续完善,同时还能提供大模型训练数据,处理大量客jvzquC41pg}t0v~ftk|ft|3eqo521B871;968:;0jvs
2.万有商城云市场大模型AISaaS应用火山引擎万有商城荟聚优秀SaaS伙伴,为企业提供内容创意、直播工具、电商运营、广告营销、企业办公、网站建设等软件产品与服务,一站式助力客户运营提效和生意增长。jvzquC41ocxlg}3xqnifppnpg0ipo8
3.產學研齊聚楊浦,共話大模型產業創新未來火山引擎推出火山方舟大模型,提供模型訓練、推理、評測、精調等全方位功能和穩定可靠的安全互信方案﹔優刻得推出智能雲平台,提高全要素生產力﹔復旦大學與阿裡雲共同建設CFFF智算平台,推出多學科融合創新的AI for Science計算集群“切問1號”和專用高性能計算集群的“近思1號”,聚焦高性能、低能耗、靈活穩定、強拓展jvzq<84uj0vfqyqg0eun0ls1DKM61w71428419>471i25=<8:/:17A94:24ivvq
4.火山引擎大模型应用启动邀测,抖音十多个业务团队已试用6月28日,火山引擎发布大模型服务平台“火山方舟”,面向企业提供模型精调、评测、推理等全方位的平台服务(MaaS,即Model-as-a-Service)。目前,“火山方舟”集成了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等多家AI科技公司及科研院所的大模型,并已启动邀测。 jvzquC41hktbplj0gcyuoxsg{0ipo8sgyu525>9.42842?7;49<63B:85;4ivvq
5.火山引擎大模型生态:“SaaS+AI”商业化的新解法转动“数据飞轮”,需要更多 SaaS 伙伴使用大模型技术;随着调用量和使用深度的增加,大模型也会越用越好用。这也是火山引擎“万有计划·豆包企服联盟”期望带给 SaaS 伙伴的帮助:通过政策、技术、服务等资源上的支持,鼓励更多 SaaS 伙伴尝试大模型技术,解除在大模型探索、商业化过程中的种种顾虑。 jvzquC41yy}/gkwwp0ipo87246683B4p/3=82=3jvor
6.升级云服务火山引擎要做AI大模型“发动机”火山引擎总裁谭待表示,AI大模型有巨大潜力和创新空间,火山引擎会服务客户做好大模型,共同推动各行业的智能化升级。据悉,火山引擎机器学习平台经过抖音等海量用户业务长期打磨,支持单任务万卡级别的超大规模分布式并行训练场景。jvzq<84yyy4djrscpg}t0lto1ep0497512:.3A4;;;816B3ujvsm
7.海尔消金携手火山引擎,共建消费金融大模型产经在生成式人工智能浪潮的推动下,金融科技正迎来新一轮的创新与变革。5月10日,海尔消费金融(以下简称“海尔消金”)与火山引擎正式宣布,双方将共同成立金融大模型联合创新实验室,致力于构建消费金融垂直大模型,并在精准营销、智能客服、贷后管理、风控等业务场景中持续探索大模型的创新应用,从而加速海尔消金的智能化转型jvzquC41yy}/eny0eqs/ew4y|u0e‚z1361796530yivvq
8.火山模型和优化(向量化执行编译执行)文章讨论了现代CPU的处理特性,包括超标量流水线、乱序执行、分支预测、多级存储和SIMD优化,以及这些特性如何影响数据库查询性能。文章提到了火山模型和向量化执行模型在数据库执行器中的应用,分析了各自的优劣,并探讨了编译执行和数据预取等优化策略。 文章目录 jvzquC41dnuh0lxfp0tfv8vsa6:88?=:51gsvrhng1jfvjnnu1743<:588;
9.字节终于掀桌子了快科技5月 15 日,字节跳动首次向外界“推销”旗下 AI 大模型——其自研豆包“全家桶”官宣将通过火山引擎(字节旗下六大业务板块之一,其余五块分别是抖音、大立教育、飞书、朝夕光年、TikTok)对外提供服务。 至此,字节跳动纵身跳入国内大模型混战,其大模型版图正式浮出水面。 jvzquC41pg}t0v~ftk|ft|3eqo521B=21;>1;<;0jvs
10.火山引擎云上实战:DeepSeekR1大模型(全尺寸)本文将介绍两种在火山引擎云上部署 DeepSeek-R1 全尺寸模型服务的方案,涵盖大模型推理服务的 Terraform 一键部署、容器化部署、资源弹性伸缩和模型可观测。 来源| 火山引擎云基础 在AI 大模型日新月异的当下,企业在使用大模型时往往面临着数据隐私保护和性能优化的挑战。为了解决这些问题,企业 AI 大模型在云端进行私jvzquC41zkk/kwkqs0io1jwvkerf1;:8:h::h?5d37k83;=;99l39k
11.火山引擎吴迪:带你了解大模型的应用和未来技术解析火山引擎提供了火山方舟这个平台,火山方舟平台上面有众多优质的、精选的国内的高质量商用模型,像智谱AI的ChatGLM的商用版本,像MiniMax的MiniMax-ABAB 5.5以及字节跳动的云雀模型等等。我们有很多客户基于方舟平台,在这些优质的商用模型上去开发自己的应用。 大模型,将在哪些方面帮助职场人? jvzquC41yy}/xxqegpmjpn3eqo5eqlx185<11:6742=5