火山引擎给大模型造大底座!iniax智谱等已登陆算子智谱ai

明敏 发自 凹非寺量子位 | 公众号 QbitAI

火山引擎刚刚交出大模型趋势答卷:

火山方舟,一个大模型服务平台。

它将国内多个明星大模型放在平台上,如MiniMax、智谱AI、复旦MOSS、百川智能、IDEA、澜舟科技、出门问问等。

不仅为大模型玩家提供训练、推理、评测、精调等功能与服务,后续还提供运营、应用插件等工具,进一步支撑大模型生态。

总之,就是要为大模型,打造一个超强底座。

而透过火山方舟,火山引擎如何看待大模型趋势?想做哪些事?如今也有了更明确的答案。

火山方舟是什么?

简单理解,各种大模型平台都好比自营商铺,向行业用户售卖大模型服务。

不过火山方舟想做的不是自家专卖店,而是一个集合了多家大模型旗舰店的商城。

在这个商城里,行业用户可以快速触及到业界优质的大模型,基于火山引擎的能力对模型精调推理,降低大模型使用门槛。

大模型玩家能基于火山引擎搭建稳健的大模型基础设施,提升自家模型业务能力,触及到更加直接和广泛的行业需求,加速迭代升级。

火山方舟作为连接二者的平台,则负责提供丰富完善的开发工具、充沛算力、安全互信的平台以及企业服务等,让双方的合作更加丝滑。

重点功能包括6个方面,贯穿了大模型采购使用的全流程:

第一是模型广场。

这可以理解为模型提供方和使用方初步了解的一个平台,大模型厂商能在此进行模型创建、上传、部署等操作,下游用户能看到模型效果并快捷体验。

第二是模型推理。

当用户选定好模型后,火山引擎可提供安全互信的推理方案,既保障模型提供方的知识产权安全,同时也维护使用者的数据信息安全。用户能直接使用已部署的在线服务,或者将精调模型部署为在线任务。

第三是模型精调。

对于大部分行业用户来说,通用大模型只是基础能力,想要使用更优质的大模型服务可能都需要基于自家数据进行持续训练或精调。

火山方舟能提供极简精调流程,只需两步即可一键精调:选择基础模型→上传标注数据集。对于有复杂需求的场景,还能进一步设置高级参数、验证集、测试集等更丰富的功能。

第四是模型评测。

生成式大模型目前还很难形成一个业界公认的benchmark,应用场景、数据等因素都会影响它的表现。但对于行业用户来说,明晰不同大模型的优劣势是购买服务前至关重要的一步。

所以火山方舟同步推出了评测工具,支持用户基于自身数据、系统化地感知模型表现情况,并且给出详细的测评报告,为后续做决策提供数据基础。

要知道,B端的使用场景也是“千人千面”的,企业要用自己的评测数据试一试,才能给出符合自身要求的准确评估。此外,基础模型的升级,新技术新模型的涌现,还将持续很长一段时间。企业需要不断测试对比、紧跟发展。

第五是运营干预。

第六是应用插件。

目前大模型接入插件功能是大势所趋,能进一步发挥模型能力。未来在火山方舟上,能看到实时信息获取(通常说的“联网”)*、私域文档问答召回、Prompt补全与构建等。

透过以上重点功能,不难看出火山引擎对于当下云计算趋势的理解——尽可能加速大模型应用落地。

而且在具体实现路径上,火山引擎还给出了一种别样的打法,并且形成了鲜明的自身特点。

火山引擎智能算法负责人吴迪给出了三个关键词来总结:

开放、加速、信任。所以火山方舟有何不同?

开放、加速、信任,三个关键词一一对应,其实代表火山方舟的自身定位、算力和安全。

首先来看自身定位上,火山方舟是个开放、中立的平台,企业客户可以根据实际效果自由选择模型。

对于云厂商而言,想要做好MaaS服务,核心之一肯定是模型层要够丰富、够强大。因为这意味着能在更丰富的应用场景中落地。

此前不少人将这一问题的解决,局限在了云厂商自家大模型能力提升上。

随着亚马逊云推出大模型平台Bedrock,一次接入Stability AI、Anthropic等多家大模型能力,给行业内开启了一种新范式。

这样一来,平台能直接引入业内最优秀的大模型,丰富自身能力和应用场景。

火山方舟的路径亦是如此,纳入更多大模型也让它具备更高的灵活性。

吴迪介绍,这样一来用户能够根据不同任务需求“货比三家”,接触到更多行业先进大模型。

通过提供统一的workflow,火山方舟能够实现模型之间的灵活插拔。在多模型切换下,工作流基本不改变,让各个模型完成自己擅长的任务,加速大模型的开发构建应用。

火山引擎的海量资源池,能够满足当下大模型训练推理的需求。

而通过加速训练和推理,能让算力的性价比更高。

NVIDIA开发与技术部亚太区总经理李曦鹏表示,如果想要硬件充分发挥性能,需要软硬件协同设计。

硬件方面,NVIDIA针对生成式AI的不同硬件配置与火山引擎底层平台深度结合。

在软件层面也提出了多种优化方法,双方一起做了很多开源发布,以图像预处理算子库CV-CUDA为例。它们能高效地运行在GPU上,算子速度达到OpenCV(运行在CPU)的百倍左右。如果用CV-CUDA作为后端替换OpenCV和TorchVision,整个推理的吞吐量能提升至原来的二十多倍,算子输入结果上CV-CUDA与OpenCV完全对齐。

此外,火山引擎还推出了Lego算子优化。

这一框架可以根据模型子图的结构,采用火山引擎自研高性能算子,实现更高的加速比。

在推理场景下,使用Lego算子优化,可以将基于Stable Diffusion模型的端到端推理速度提升至66.14 it/s,是PyTorch推理速度的3.47倍,运行时GPU显存占用量降低60%。在训练场景下,在128张A100上跑15天,模型即可训练完成,比当时最好的开源版本快40%。

而在稳定性方面,火山引擎也和英伟达做了更底层的合作。

李曦鹏介绍,目前大模型训练往往需要几千、上万张卡同时启动,如果其中某台机器出现故障,则会导致整个训练过程被影响。因此训练过程中的稳定性非常关键,它将直接影响开发效率。

在这方面,火山引擎和英伟达基于内部大量测试,最终实现了特定模型的规模、网络结构等,确定合适的checkpointing频率,在保障训练连续性的同时又让机器能够稳定运行。

具体能力也已有实际案例验证。

大模型玩家MiniMax基于火山引擎,研发了超大规模的大模型训练平台,高效支撑着三个模态大模型每天数千卡以上的常态化稳定训练。在并行训练上实现了99.9%以上的可用性。除了训练以外,MiniMax也同步自研了超大规模的推理平台,目前拥有近万卡级别的GPU算力池,稳定支撑着每天上亿次的大模型推理调用。MiniMax和火山引擎一起为大模型训练搭建了高性能计算集群,一起致力于提升大模型训练的稳定性,保证了超千卡训练的任务稳定运行数周以上。

稳健的大模型基础设施让MiniMax从零开始自主完整地跑通了大模型与用户交互的迭代闭环,实现从月至周级别的大模型迭代速度,和指数级的用户交互增长。MiniMax面向企业级的大模型解决方案目前已接入数百家企业客户,打通办公协作、智能硬件、教育、医疗、客服等十余个行业场景。

然后是能力输出上,火山引擎提出训推一体以及统一workflow。

统一workflow的能力不仅在于模型的灵活插拔,它还集成了火山引擎对大模型能力的理解。

比如如何做自动评估?pipeline怎么定?该做多少精调?这些问题都是需要经过大量开发工作后,才能输出的经验。通过这些细节上的保驾护航,企业用户落地大模型的效率和成功率都会有明显提升。

另一边,火山方舟也重点提出了训推一体的理念。

吴迪表示,基于对行业的观察,他相信未来大模型领域的头部及腰部厂商都会使用“1+n模式”,也就是自研或深度合作一个主力大模型、同时调用多个外部模型,对训练和推理都有需求。

加之火山引擎始终认为深度学习、机器学习是一件统一、紧凑且纯粹的事情,所以他们判断训推一体模式会是发展趋势,并已在火山方舟上推出。

而且训推一体化后,同样能为企业节省算力。

最后再来看安全方面,这也是火山方舟着重强调的部分。

吴迪表示,在大模型时代,信任问题至关重要。

大模型提供方不希望自己辛苦训练出的模型被人拷贝走,这属于重要知识产权;下游客户不希望自己的数据在推理和精调过程中被泄露,敏感数据只有自己可见。

在这二者之间,便会形成一个信任的gap。尤其是当下大模型服务中的合作方众多,构筑信任墙就显得至关重要。而火山引擎作为云平台,会通过互信计算框架,基于不同客户的安全和隐私保护诉求,提供了包括安全沙箱、可信硬件以及联邦学习方案,来保证大家在互信的基础上推理、精调等。

以上三个方面,将火山引擎在云市场中的差异勾勒清晰。

从中也可看出,火山引擎的技术积累、行业经验和趋势理解,都为它入局大模型平台提供了坚实的保障。

那么,为什么火山引擎的答卷是火山方舟?

为什么是火山方舟?

直接原因来自于市场需求。

大模型趋势轰轰烈烈演进几个月,几乎触及到了各行各业,相应的需求也随之暴涨。

但对于行业用户来说,怎么触及市面上最先进的模型?怎么选择最适合自己的模型?怎么确定最后的大模型服务方案?这些问题对企业自身的技术理解程度、开发水平都提出了要求。

作为供给侧,大模型玩家也急于在热潮下快速推进自家业务发展。这不仅是一场技术竞赛,同时也是一场商业竞速赛,谁能更快触及更多用户,就会在市场中更快站住脚跟。在这种情况下,平台的触达能力一定大于厂商自身。

以及底层硬件厂商,同样也迫切需要大模型底座。

NVIDIA开发与技术部亚太区总经理李曦鹏表示,英伟达开发每一款新产品,都是以workload来驱动,所有开发都是要解决真实存在的问题。

比如随着深度学习的兴起,用Tensor Core加速矩阵乘法计算,就是在原有框架下针对workload的重点模块做效率提升。

再比如英伟达去年发布的Hopper架构,设计远早于发布时间。当时GPT-3才刚刚问世,大模型趋势远没有到来,英伟达是做了大量前瞻性的研究。而怎么做出这种前瞻性的探索,就是要从实际应用的基础结构中去发现问题。

回到当下来看,对于未来AI的趋势是否朝着GPT趋势发展,李曦鹏表示现在也无法确定,但是行业中的实际需求能够推动英伟达做出更有针对性的硬件和软件特性升级。

怎么更快、更准确把握住这些需求?还是要依托平台连接大模型玩家。

所以,像火山方舟这样承载着大模型供给方、使用方以及底层硬件厂商的平台,是行业迫切需求的。

而更深层的原因,还来自火山引擎自身。

吴迪很确定地说,火山方舟的使命,是加速大模型、大算力应用落地。

为什么要加速?两条增长曲线可以给出答案。

现在新兴的大模型正如雨后春笋般冒出,训练需求量飙升。但随着通用大模型市场趋于饱和,这条增长曲线也会逐渐放缓。

与此同时,还有一条增长曲线出现:推理需求曲线(模型应用曲线)。

而且它将在短期内呈指数增长趋势,在2025年左右和训练需求曲线相交,并在之后反超。

也就是说,市场上的推理需求量,最终一定会大于训练需求量。因为推理需求多大,代表了应用场景有多丰富。

如果应用场景的丰富度不够高,导致推理需求曲线没有快速升起,训练需求曲线同样也会受到影响滑落。

一旦出现这一局面,将意味着目前诸多投身大模型浪潮的创业者和企业,将会面临非常艰难的局面。

吴迪表示,火山引擎深信大模型趋势不是一次简单的浪潮,它将是新技术时代的一扇窗。如果想要加速这个时代更快到来,那么就要尽可能缩短推理需求超过训练需求的时间轴。

也就是加速大模型的应用落地。

火山方舟同时连接下游应用层和上游模型层、硬件层,加速企业用户使用大模型,在营收上更快去回报大模型领域创业者,以此形成一个加速正向循环。

而这也是为什么火山引擎要将自家大模型平台取名为“方舟”。

吴迪说,在想名字的时候,他们希望能有一个词来形容开放包容、生机勃勃、充满希望的意境。

最终在几十个词中确定了方舟。因为它能代表两方面寓意。

第一,承载着很多人的事业和梦想,共同驶向一个成功的远方,而且是一个具象的词;

第二,火山引擎相信整个大模型、大算力领域,需要众多合作伙伴在模型训练、内容安全、硬件优化等方面共同努力;

如今,方舟带着火山引擎的技术积累、行业理解以及美好愿景,正式启航。

未来大模型浪潮将会如何翻涌,还是未知数。

但载着众多国产大模型玩家、携手英伟达的火山方舟,一定会带着火山引擎驶向新的节点。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

THE END
0.大模型定价低于行业价格99%,火山引擎助力车企加速驶入“AI时代”近日,火山引擎举办2024春季Force原动力大会,首次发布了字节跳动自研大模型家族、升级火山方舟大模型服务平台,并联合中国电动汽车百人会、中国一汽等20余家组织、厂商成立汽车大模型生态联盟,探索新一代人车交互形态、提升汽车全场景AI新体验,全方位赋能汽车产业智能化转型。面对智能化带来的颠覆性变革,汽车产业要如何从容应jvzq<84yyy4dpjzvqpkxu7hqo1npw|mkejgoi8724651787:1fkucrqa42852>7:58;48@3jvor
1.“火山方舟”发布构建大模型服务平台6月28日,字节跳动旗下火山引擎发布大模型服务平台“火山方舟”,面向企业提供模型精调、评测、推理等服务。目前,“火山方舟”集成了百川智能、出门问问、智谱AI等多家AI科技公司及科研院所的大模型。 今年以来,云厂商纷纷召开相关产品发布会,而大模型成为吸引关注的重要砝码。3月底和4月初,百度和阿里巴巴先后公布大模jvzq<84hkgre0:5lsmg/exr0ep532;8284?0e?9:626:2@3ujvsm
2.云+AI,火山引擎助力泛互联网行业创新和增长火山引擎AI火山引擎凭借多年的技术沉淀和产品创新,已经形成云基础设施、豆包大模型和方舟2.0的全栈产品体系,可助力企业构建一个可信赖的大模型应用平台,满足企业在 AI 时代下的多元化需求,在数字化转型的道路上加速前行。 火山引擎智能算法负责人、火山方舟负责人吴迪表示,作为云基础设施提供商,火山引擎通过模型效果优化、系统性能强化、成本持续降 jvzquC41pg}t0|npc0ipo7hp1u~04976/2;.4=4fgvgjn6npcyogv};:379827xjvor
3.火山方舟点击查看豆包大模型手把手应用教程与解决方案白皮书 立即查看 最新活动 企业开通最新模型享五折,19.9元限量抢购最新模型千万Tokens 立即秒杀 特惠活动 最新福利 协作奖励计划二期全面升级,免费每日领取单模型最高500万Tokens 立即参与 极速体验火山方舟 极速体验模型 jvzquC41yy}/xxqegpmjpn3eqo5qtxiwev5btt
4.大模型产业,Maas成“风”?朱啸虎模型火山不同模型在不同的场景下,效果是各擅胜场。一个经过良好精调的中小规格模型,在特定工作上的表现可能不亚于通用的、巨大的基座模型,而推理成本可以降低到原来的十分之一。 在这种综合认知下,与其他大模型厂商所走的路径有所不同,火山引擎的切入方式并非是从头自研,而是发布大模型服务平台“火山方舟”,面向企业提供jvzq<84m0uooc7hqo0io1jwvkerfa@9836858>8a3dice=j2f2622:=:sd4ivvq
5.开发者指南|从购买到实战,手把手教你玩转火山方舟CodingPlan它兼容Anthropic API等主流开发环境,让你无需修改现有的集成代码,就能将豆包模型接入。 完美支持Claude Code、veCLI、Cursor、Cline、Codex CLI等主流工具环境,Coding Plan 都能很好地支持,让你在熟悉的工具中调用豆包模型。 稳定可靠的保障: 所有服务均依托火山方舟超大资源池,告别卡顿和排队,为你提供稳定、畅快的算力jvzquC41dnuh0lxfp0tfv8hufpyru}52685bt}neng5eg}fknu527=>73;:9
6.火山方舟大模型智能数据洞察(私有化)火山方舟大模型是特色专区算子中的智能化数据处理工具,支持对接火山引擎大模型服务,通过自定义模型配置、生成策略及角色人设,实现非结构化数据解析、多语言翻译等功能,适用于企业数据智能化处理场景。本文为您介绍如何使用火山方舟大模型。 功能概述 火山方舟大模型算子对接火山引擎大模型服务,可对存储在 TOS 存储桶中的jvzquC41yy}/xxqegpmjpn3eqo5eqlx169871:;237?5
7.DeepSeek+CherryStudio本地部署大模型(简单能用)三、对接火山引擎 豆包 使用抖音号、手机号、头条号注册均可 3.1注册 3.1.1进入控制台 3.2.2 进入火山方舟 点击左上角蓝色区域 点击火山方舟 3.2开通模型 3.3创建接入点 3.3.1创建 3.3.2复制模型ID 四、火山引擎接入cherryStudio 4.1添加模型 4.2接入检查 jvzquC41dnuh0lxfp0tfv8r2a8799;<2;1gsvrhng1jfvjnnu1762=77397
8.方舟招聘方舟招聘招聘AML-火山方舟大模型推理系统工程师 【上海-江湾】 35-65k·15薪 5-10年本科 字节跳动 互联网融资未公开10000人以上 杜女士 HRBP 汉氏方舟东营健康科普中心 【东营-西四路】 20-30k 3-5年大专 东营市优而美生物科技有限公司 专业技术服务1-49人 jvzquC41yy}/nrjrkp4dqv4u19?c6:96eg6ch:f3cd=4c?ih84k1g@hc51
9.豆包大模型应用落地,又有新进展。8月21日,火山引擎在AI创新巡展活搭载火山方舟大模型服务平台,通过火山引擎RTC实现语音数据的高效采集、处理和传输,并深度整合豆包·语音识别模型和豆包·语音合成模型,简化语音到文本和文本到语音的转换过程,火山引擎对话式AI实时交互解决方案,提供优秀的智能对话和自然语言处理能力,帮助应用快速实现用户和云端大模型的实时语音通话。 jvzquC41zwkrk~3eqo522B<86;9748823;>95?>
10.MetaGPT配置各个大模型APImetagpt配置qwen本地部署的大模型我们以OpenAI API为例说明配置过程,其他大模型的API配置过程是相同的。 您可以通过设置 config2.yaml完成配置 使用config2.yaml 在当前工作目录中创建一个名为config的文件夹,并在其中添加一个名为config2.yaml的新文件。 将示例config2.yaml文件的内容复制到您的新文件中。 jvzquC41dnuh0lxfp0tfv8f994916=6;1cxuklqg1fkucrqu13:739<9:2
11.微信小程序接入DeepSeek模型(火山方舟),并在视图中流式输出通过流式输出,DeepSeek模型可以在处理过程中实时地将结果发送给小程序,小程序前端则能够立即接收到这些数据,并在视图中动态展示出来。这样,用户就可以边等待边看到已经接收到的结果,大大提升了用户体验。 本文中的DeepSeek模型为火山方舟(字节跳动火山引擎)中的DeepSeek大模型,当前可以免费使用。jvzquC41dnuh0lxfp0tfv8qhs9<24991ctzjeuj1fgzbkux136;:;A<94
12.大模型加持,火山引擎加速数据价值的“飞轮效应”|火山引擎|字节今年6月,火山引擎推出了大模型服务平台火山方舟,来拥抱大模型时代的到来。在此次大会中,火山引擎数智平台VeDI对数据产品大数据研发治理套件DataLeap和智能数据洞察DataWind进行了升级,以AI加持,降低企业数据消费门槛。 字节跳动数据平台负责人罗旋表示:“无论何种技术赋能,其核心都在于进一步降低业务使用门槛,更好地探索数据jvzq<84m0uooc7hqo0io1jwvkerfa:<;:9=84=h23?14{t{30nuou