李开复、张亚勤对谈:大模型产业化,To B、To C哪个赛道更有机会?

发布时间:2024-06-15 16:30:50 编辑: 来源:
导读 相信很多大家对李开复、张亚勤对谈:大模型产业化,To B、To C哪个赛道更有机会?还不知道吧,今天菲菲就带你们一起去了解一下~.~! 6月1...

相信很多大家对李开复、张亚勤对谈:大模型产业化,To B、To C哪个赛道更有机会?还不知道吧,今天菲菲就带你们一起去了解一下~.~!

6月15日消息,在第六届“北京智源大会”上,零一万物CEO、创新工场董事长李开复博士,中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤院士、智源研究院理事长黄铁军教授,三位行业领袖就大模型的成功因素、面临的挑战、产业化场景等多个热点话题展开了深入的讨论。

以下为讨论内容部分摘录:

一、什么原因使得大模型如此成功?

黄铁军:近期关于大模型的讨论特别热门,从刚才的报告大家也感受到了大模型的能量以及其在各领域的应用潜力,可以说大模型是至今为止人工智能发展最成功的一个技术方向。想请问两位,是什么原因使得大模型如此成功?还有哪些欠缺的地方需要进一步发展?

李开复:AI 2.0是有史以来最伟大的科技革命和平台革命,大模型Scaling Law 的重要性在这个时代得以凸显——人类能够用更多计算和数据不断增加大模型的智慧,这条被多方验证的路径还在推进中,还远没有触达天花板,这点也让大家非常振奋。

第二,大模型的智慧来自于接近无损的压缩,这点也非常重要。上世代的人工智能从业者很难想到今天会把压缩和智能连接在一起。因为Scaling Law过程中不能盲目堆更多的GPU,所以需要有一个方法评估我们有没有越做越好或者哪个方法做得更好。零一万物内部有严谨的方法论,用压缩的理念去评估,让以往漫无目的“炼丹”训模过程变得更系统也更有科学和数学根据。

大模型正面临着一些挑战。比方说,如果“仅仅用更多算力就能把它往前推动”是主要方向的话,就会导致只有那些GPU资源丰富的公司和国家能够在这方面胜出。但话说回来,我们已经验证了,很多国内大模型在部分案例里接近或者打平、或者偶尔超过美国的大模型。所以我认为需要专注的是算法和工程创新一体化的推进,以及怎么以这种能力避免进入“盲目堆算力推动模型性能提升”的状态。

当然,目前大模型还直面许多挑战。就像每个技术刚诞生都会有问题,起初大模型也不知道最近一年发生了什么。还有记忆的问题、窗口构成的问题、幻觉问题等等,但我们可以看到的是,当全球如此多聪明的大脑涌入这个领域后,大部分问题不能说被完美地解决,但是都在逐步被攻克的过程中,所以我对大模型的未来相当乐观。

张亚勤:我讲“三个做对了”的和“三个需要改进”的 。

“三个做对了”的点是,首先,规模定律Scaling Law。规模定律的实现,主要得益于对海量数据的利用以及算力的显著提升。再加上现在的Diffusion和Transformer架构能够高效地利用算力和数据,使得“飞轮效应”得以正循环。尽管有人质疑Scaling Law在2到3年后是否仍然有效,但我个人认为至少在未来5年里,它仍将是产业发展的主要方向。

其次是“Token-Based”统一表述方式。在大模型中,“Token”是一个基本元素。无论是文本、语音、图像、视频,还是自动驾驶中的激光雷达信号,甚至是生物领域的蛋白质和细胞,最终都可以抽象为一个Token。Token之间的训练、学习和生成是核心环节,这与我们大脑中的神经元工作原理相似,无论执行何种任务,其基础机制都是相同的。

最后是通用性。这与Token紧密相关。现在的通用性不仅体现在文本处理上,还扩展到了多模态领域,甚至可以生成如蛋白质等复杂结构。此外,它在物理世界(如具身智能)和生物世界(如生物智能)中也有着广泛的应用前景。以上这三个是大模型做对的。

现阶段主要问题呢,第一个是效率较低。特别是大模型的计算效率低下问题,与人类大脑的高效性形成了鲜明的对比。

人类大脑拥有860亿个神经元,每个神经元又有数千个突触连接,却只需要20瓦的能量,重量还不到三斤;而GPT-4这个万亿参数模型则需要巨大的算力和能源,与人脑相比相差1,000倍之多。

此外,人脑能够根据不同的情境灵活调用不同区域的神经元,而大模型却每次输入一个问题都要调用和激活几乎大量参数。

因此,如何借鉴人类大脑的计算方法,在降低计算耗能、提高效率方面进行探索和创新,是一个值得关注的方向。

第二个,大模型目前还未能真正理解物理世界,相关的推理能力、透明性以及开复刚才提到的幻觉等问题都还在深入研究中。

有一个重要的问题是,即使我们的大模型做得再好,它在生成式表述与对真实世界的描绘之间仍存在矛盾。因此,我们需要探索如何将生成式的概率大模型与现有的“第一性原理”或真实模型、知识图谱相结合。

目前,虽然已经有了一些尝试,如采用RAG技术或进行微调,并取得了一定的进展,但我认为这些方法并非根本解决方案。我预测,在未来五年内,将会有一个全新的架构出现,这个架构有望取代目前的Transformer和Diffusion模型。

第三个欠缺的地方是边界问题。现在大模型无法知道“我不知道什么”,这是目前要解决的问题,是它的边界效应。

黄铁军:谢谢亚勤的“三个做对了”和“三个不足”。

刚才开复老师没讲,我想再追加问一下,有些人认为大模型是一个实践、是一个工程,是经验主义做的东西,没有理论基础,说得不好听叫“不靠谱”,不知道你怎么看这个问题?

李开复:我觉得科学和工程缺一不可。如果只做工程,不了解“第一性原理”,没有数学的根据、没法评估不同路径的效果,考虑到高昂的算力成本,这样的摸索肯定是做不出一个好模型的。但是如果只是在实验室里雕花,期待有工程人才把自己的论文做成产品,这也是不行的。

零一万物的经验是,每个做AI、做模型的Researcher要懂Infrastructure、都要懂推理、都要知道成本的问题。这样当你需要面对科研问题时,就知道在产品里需要的反应速度有多快,要怎么实现,做完实验就能确保模型可以得到令人满意的工程结果。训练模型的过程中绝对不只是写Paper,还要同时考虑怎样系统化、工程化地做数据工程,因为数据的训练、数据的筛选是非常重要的。还有底层的AI Infrastructure,GPU这么昂贵,如果把一张当成两张、三张使用,任何公司都会得到好处,所以科技和工程这两方面缺一不可。

二、大模型产业化To B、To C哪个赛道更有机会?

黄铁军:大家关心AI2.0,大模型产业化最大的场景在哪里?移动互联网这么多年,To B、To C ,这两个大赛道哪个更有机会?为什么?

李开复:简单来说,在中国To C 短期更有机会,国外两者都有机会。To C方面,就像移动互联网、PC时代里,一个新技术、新平台带来新应用,大模型同样如此,这是巨大的机会,但是这些应用的出现一定是按部就班的。

我认为AI 2.0 时代会和PC、移动互联网时代一样,第一个阶段应该是生产力工具,包括信息获取;第二个阶段可能会是娱乐、音乐、游戏,第三个阶段可能会是搜索;再下一个阶段可能会是电商;然后可能会有社交、短视频、O2O的应用出现。

一个理由就是刚开始应用要能够赚钱、能够解决问题,所以第一波潮流会是生产力工具,但越往后,难度越高——高用户量的应用商业模式往往是先堆积用户再找变现模式,所以应用成本一定要很低,试错难度很大、所需要的投资也更多。

我认为递进的模式不会有特别大的改变,To C应用会从生产力工具一步步走向短视频类应用。To C确实会产生大量的用户,但这不是说不能用大模型来做产品,只是在普及顺序上会按照这六个阶段进行。

当然,这个过程中也有挑战,在大模型领域做应用跟PC、互联网时代不一样,因为推理成本还太贵。最近零一万物提出了TC-PMF概念(技术成本✖️产品市场契合度),这个概念是指,当你考虑PMF时,还要把技术的需求、实现难度和成本考虑进去。

做应用一定要考虑到刚才这六个阶段谁先谁后、什么时候做、提早做。第二,做应用的时候还要综合考虑到当时的技术够不够好,成本是否足够低,所以大模型To C应用不像过去移动互联网时代,产品经理一个人就可以做主,它需要做Infrastructure、做推理引擎的人、一起打磨TC-PMF。这件事难度高,但是回报也高,机会也更大。最后我想讲,在To C方面,我不相信技术可以永久领先,事实上技术带来的领先窗口非常短暂,一旦巨头看到你验证了PMF,他们会有很多方法超越你。一旦你验证了TC-PMF,要把握时间窗口把品牌打出来,最终胜出的To C应用不只是需要有技术优势,还需要在时间窗口内打造持续优势,比如品牌优势,比如社交链,比如用户数据,让用户不能离开你这个平台。在微信强大的时代里抖音能被做出来,就是因为它抓住了这个时间窗口。

再讲一下To B的应用。大模型有可能在To B方向上带来更大价值,而且能够比To C更快实现,但是To B这个领域有几个挑战。

第一个挑战是大公司、传统公司不是很敢采取颠覆式技术,大公司会习惯每年增长5%预算,做和去年一样的事情。

第二个挑战在中国比较严重,许多大公司没有认识到软件的价值,为软件付费意的意识有待进一步提高。现在有许多大模型公司在竞标时越竞越低,做到最后做一单赔一单,都没有利润。我们在AI 1.0时代曾见过这个现象,现在它在AI 2.0时代又重现了。这种心态导致部分大公司只愿支付很低的价格,大模型公司也只能给出折中的方案,达到惊艳效果的寥寥无几。

零一万物坚决做To C,不做赔钱的To B,而是做能赚钱的To B。所以零一万物在To B方面精挑细选,找那种公司上下都愿意拥抱新概念的公司,也为它们设计了 RAG 知识检索、专有云、微调等方案,在国内国外都有尝试。无论To C还是To B,API都很重要,最近国内很多模型降价了,零一万物也推出了接入国际SOTA成绩Yi-Large大模型的API,也希望有机会可以跟各位合作。这个API背后的模型能力大概接近GPT-4o,但是价格是GPT-4的四分之一,我相信这可以帮助更多公司或者创业者达到所谓的TC-PMF。

黄铁军:谢谢开复老师对To B、To C的分析,很透彻。亚勤,刚才关于To B的观点,大家还有一个非常关心的问题,大模型产业的最大场景会在哪里?To B、To C在什么地方能够落地发挥作用?

张亚勤:在应用和服务层面,先面向消费者(To C)再面向企业(To B)。To B的周期相对较长,而To C的应用产品则可以迅速推出,这与过去的PC互联网和移动互联网的发展路径基本一致。在基础设施层,目前真正盈利的主要集中在To B领域,特别是在芯片、硬件、服务器等。像英伟达、AMD等芯片制造商,以及服务器、HBM存储、InfiniBand和NVLink等相关技术的提供商,他们目前是盈利最多的。

关于AI路径,我在过去十年中一直强调三个关键领域:首先是信息智能,其次是物理智能(现在流行的术语是具身智能),最后是生物智能。在具身智能阶段,To B的应用可能会比To C更快落地。然而,在生物智能阶段,情况可能相反,To C的应用可能会先于To B出现。尽管每个领域的具体情况可能有所不同,但总体来看,无论是To C还是To B,都将存在开源模型、商业闭源模型、基础大模型,以及针对垂直行业模型和边缘模型。

以上就是关于【李开复、张亚勤对谈:大模型产业化,To B、To C哪个赛道更有机会?】的相关内容,希望对大家有帮助!

免责声明:本文由用户上传,如有侵权请联系删除!

热点推荐

精选文章