在火山引擎位于海淀区大钟寺广场的办公楼见到谭待时,王慧文撤离大模型赛道的消息尚未传出,否则又会为这场专访提供一份堪称变量的背景。
话虽如此,大模型依然是全球资本追逐的宠儿,AI概念股推动纳斯达克在2023年实现了29%的涨幅,中国的下场者也高密度的出现在各家大厂和各所高校的顶尖名册里,但在大规模应用的构想里,所有人都还在等待那个从酝酿到爆发的时间窗口。
从某种意义上来说,火山引擎刚刚发布的大模型服务平台「火山方舟」,就是为了缩短距离未来的尺度。
谭待之前说,火山在云服务领域全力支持大模型发展,是要「不让任何创新因为算力不足而夭折」,到了「火山方舟」推出之后,这句宣言或许还能扩写为「不让任何大模型产品失去用武之地」。
· · ·
今年以来,英伟达的股价涨了172%,以致于科技圈和投资圈都在这么一张图上找到了共鸣:
当然也有人会反驳说,谁都知道怎么造铲子,但不是每个人都能造GPU,售价1.5万美金一片的铲子,在历史上也不多见。
不过更重要的是,只要我们认同AI将会彻底改变人类未来的生活范式,那么它所构成的产业,也会变得高度分工化,如果英伟达卖铲子可以赚得盆满钵满,那么像是ASML卖给芯片厂商制造铲子的机器,同样也是一门好生意。
有些时候,找准自己的位置,是在这个位置上能做什么的先决条件。
谭待就是如此解释火山为什么不做自己的大模型的,几乎所有媒体都会在这个问题上半信半疑,毕竟作为字节跳动的云服务平台,火山引擎看起来和大模型研发很是「般配」,加上字节跳动迟迟没有公布下场消息,所以越来越多的好奇心,都被牵引到了最可能会和大模型发生关系的火山引擎身上。
他说:「这有点像几年前大家讨论云计算厂商要不要自己做SaaS,实际上你的愿景决定了你要做的事情,愿景当然是可以改变的,但是如果没有改变,那你就应该坚持那条路。」
据说谭待当年加入字节跳动并负责整个火山引擎的管理时也是问了两个问题,一个是字节有没有做2B的决心,另一个是字节敢不敢把内部最好的技术分享出去,现在来看,他当时想要确定的东西,和现在外界想要从火山的一系列动作里确定的东西,本质上是一致的。
所以,火山引擎做不做大模型其实并不重要,重要的是,在大模型发展可能影响科技行业未来几十年走向的这个当口,为大模型厂商提供一个最具竞争力的环境支持,这是不可或缺的服务资源。
火山引擎作为云服务平台,聚焦的就是搭台这件事情,唱戏固然讲究天赋,但若是台子不稳当,再好的戏,也会唱成事故。
而就中国云市场的整体格局而言,火山引擎依然只是其中的一小片,尽管背靠字节跳动,以及有着抖音这等明星业务加持,相比阿里腾讯华为三座大山,火山的入局时间偏晚,2B业务的迁移成本又高,这给火山带来了不小的竞争压力。
由此理解谭待提出的「多云多模型」预测,实际上都和火山自身的战略有关,「多云」是守,认为企业会根据业务需求的不同而混用多个云服务,火山愿为其中之一,就可以了,「多模型」是攻,在其他云服务厂商都还在费心取悦现有客户时,火山引擎率先出来全面拥抱大模型客户,甚至专门推出「火山方舟」,来押注那个百花齐放的AI未来。
· · ·
最新的数据显示,国内已经发布的10亿参数以上的大模型有79个,一个追逐着AI宝藏的大航海时代正在缓缓到来。
在「火山方舟」上线之前,火山引擎对于大模型的支持,主要在于算力供给的层面,比如万卡级别的训练资源,企业直接在火山平台里弹性购买,相比自购显卡,性价比显然高出太多。
有说法是大模型行业的入场券就是第一年5000万美金起步,这种门槛当然是不利于创新的,根据腾讯新闻的报道,国内的VC虽然对大模型的机会感到兴奋,但出手却异常谨慎,原因无他,就是烧钱太夸张,却又胜算莫测。
谭待说得很直接,中国的大模型玩家,至少要拿出3.5的水平出来,才有资格到牌桌上叫牌:「你的技术很厉害,但是成本控制不住,就一定没办法广泛应用起来,当然我们还有一种情况是,你的基础模型还不够强,这个时候讲成本没有意义,你要先做到一个最高水平,接下来才有考虑做减法的价值。」
这也是为什么MiniMax总会出现在火山引擎的案例里,这家刚刚融了2.5亿美元、估值超过12亿美元的AI独角兽,基于火山的算力供应,MiniMax成为了国内第一家在公有云上数千卡并行训练的大模型厂商。
不过,如果只是这些,或者说仅仅是为了给大模型行业降本增效,火山引擎原有的云服务和机器学习平台就已经可以完全满足了,「火山方舟」的亮相,是有新的叙事展开。
一切都从这张图开始。
这是火山引擎内部对于大模型行业算力消耗的预测,紫线是训练,蓝线是推理。
简单来说,训练是一个爆发式增长的成本,开发者需要支付算力完成机器学习的目标,AI将会越来越少的依赖人工校正,而是通过对于海量数据的自主理解来变得日渐聪明,而这一切都建立在GPU和云计算等基建之上。
但是随着大模型相继走出实验室、落户到千行百业的过程,用户使用模型应用时所消耗的推理算力,则会成为第二条成本曲线,且和用户规模的增长呈正比关系,它可能会逐渐超过预训练的整体算力消耗。
「火山方舟」实际上是想要一揽子解决当下和未来的两大缺口问题,为此,它甚至希望搭建一个交易市场。
· · ·
前段时间,科技媒体「The Information」爆料表示OpenAI正在考虑自建一个AI应用商店,要像App Store那样分发各种高度成熟化的AI产品。
在事先了解到「火山方舟」将会同时容纳模型开发者和模型使用者的时候,我一度以为这也会是一个类似OpenAI想做的商店,感觉和火山的2B身份很是违和。
谭待说,「火山方舟」确实有做交易市场的想法,但它不能算是大家认知里的应用商店,位于供需两端的依然都是企业用户,这个交易市场的价值在于,它让垂直类大模型有了一个快速落地的「演武场」。
这也是谭待的判断方向之一,像是ChatGPT这样的通用大模型,在市面上不会很多,大浪淘沙下来,可能最后只有寥寥几个,为了应对大众场景,它的推理成本也会居高不下——比如GPT-4现在就被评价为「既贵又慢」——但在很多时候,企业在用AI打造解决方案时,未必一定要用这种性价比最低的通用大模型,「就好比说你要招一个清洁工,最后招进来一个博士,这肯定是不对的。」
就像开源市场里涌现出越来越多基于LLaMA7B的小参数模型,行业里普遍意识到「杀鸡焉用牛刀」的错配性,消费者对于物美价廉的追求,在AI领域也不例外。
所以「火山方舟」的交易场景可能最接近商城模式,开发者提交大模型之后,可以在火山进行统一的注册、展示与售卖,有着相关需求的企业进来,如同逛精品店一样,在菜单里挑选符合自己要求的大模型,并使用火山提供的定制优化工具。在这个双端市场里,开发者可以对接更多客户并获得使用反馈,使用者可横向对比并提高了生产效率。
比如对于「AI污染互联网」的讨论,有苗头显示,很多人采用AI撰写内容在各大平台套利,导致大量低质重复信息堆积如山,影响了正常用户的内容消费体验,在技术层面看来,这个问题很好应对,那就是让AI监管AI就好了,因此,如果有内容平台苦恼于这个问题,那么它完全可以来「火山方舟」定制一款清扫大模型,帮助判断并处理AI内容,而不是去盲目扩大审核团队。
通过模型广场,「火山方舟」想要看到的,是中国互联网的大模型应用真正获得流动性,大家不再是纸上谈兵或是隔空打榜,优质的模型可获得更大的商业价值,进而使模型提供方有更充足的预算用于模型迭代优化,形成飞轮效应。
OpenAI的领先正是如此,因为ChatGPT足够强大,从而吸取了海量的使用者,这些使用者一方面支付订阅费用,分摊了ChatGPT的运行开销,另一方面也在使用过程中贡献了新的语料知识,帮助ChatGPT变得更加优秀。
既然要做交易市场,「火山方舟」也要面临交易成本的问题,谭待举了支付宝的例子,早期互联网出来的时候,中国网民都不相信网上买东西可以先把钱转给别人,所以支付宝最核心的就是用平台信用解决了买家和卖家之间难以建立的互信问题,而在企业级市场,「火山方舟」也做了大量的工作,为大模型的交付环节设置防火墙。
比如现在科技公司都意识到了数据资产的意义,特别敏感于数据的跨界流通,但是大模型的调用就是需要不断交换数据的,那么在这个过程里,数据的可控性就很关键了,哪些是可以传给买家的,哪些是可以传给卖家的,哪些需要在沙盒里读写,哪些又需要定时销毁,林林总总,都被考虑到了。
· · ·
「火山方舟」负责人、火山引擎智能算法负责人吴迪说,「方舟」这个名字,是团队从几十个词里挑出来的,他们希望这款产品的名称可以象征出开放包容、生机勃勃、充满希望的意境,而且还要足够具象。
一艘承载所有物种乘风破浪抵达彼岸的巨大船只,这似乎也和火山引擎心心念念的底座角色如出一辙,甲板之上,万物生长。
最重要的是,从开发成本到交易成本的递进介入,显示了火山引擎的云服务依然充满了「大力出奇迹」的特色,即使没有直接参加中国大模型的风口竞赛,但它对于大模型产业的影响,恐怕还会更胜一筹。
站在这个位置看待AI,整天寻思着在训练时能怎么省钱,或是坐在一张桌子前平衡买卖双方的利益,可能确实不够性感,但是就像凯文·凯利说的,即将到来的人工智能既非能力超凡的机器人,也非让未来学家心醉神迷的超人工智能,「它更像是亚马逊的网络服务——廉价、可靠、工业级的数字智慧在一切事物的背后运行,偶尔在你的眼前闪烁几下,其他时候近乎无形。这一通用设施将提供你所需要的人工智能而不超出你的需要。」
用户永远不需要操心灯光闪烁的那几秒钟背后经历了多大规模的运算和多么复杂的协议,技术的价值就在于此。
(举报)