李彦宏揭示大模型的认知误区:开源无法解决效率问题,大模型之间的差距日益增大
编辑日期:2024年09月12日
智能体是大型模型未来发展的关键方向。
各大型模型之间的差距将会继续扩大!
最近,李彦宏的一次内部发言被曝光,立刻引起了业界的广泛讨论。
在当前众多大型模型横扫排行榜和测试集,并在多个评分项目上超越GPT-4的情况下,人们很容易产生一种错觉:下一个GPT-4、下一个OpenAI似乎即将诞生。
为什么会有这样的观点呢?李彦宏进一步阐述道,大型模型的发展潜力巨大,目前离理想状态还有很大距离,因此需要不断地快速迭代、更新和优化。
这需要长期、持续的投入,不断满足用户需求并降低成本,提高效率。
同时,他还提到开源模型的效率不高,无法解决计算能力的问题,而智能体则是大型模型最重要的发展方向。
作为大型模型应用领域的先驱,百度的领航者李彦宏这次的讲话无疑为行业提供了重要的参考价值。
让我们来看看他具体说了些什么。
李彦宏在内部讲话中提出了三个思考点,正好回应了当前一些认知误区:大型模型之间的差距是否在缩小?大型模型的技术是否已接近极限?为什么说商业化的模型更具成本效益?
首先,大型模型之间的差距不是在缩小,而是在扩大。
一开始,李彦宏就反驳了外界关于大型模型能力差距缩小的观点,认为不同模型之间的差距依然显著,并且这种差距还会继续扩大。他指出,尽管新发布的模型在测试集上的表现不错,但这并不能说明它们与最先进的模型(如GPT-4)之间的差距有所缩小。
他解释说,许多模型发布后,通过排行榜、猜测测试题目的方式以及答题技巧,在表面上看似乎能力相近,“但在实际应用中,仍然存在明显的实力差距。”
一方面,模型间的差距是多方面的。除了理解、生成和逻辑推理等多维度的能力评估外,还包括相关的成本和推理速度。此外,对测试集的过度拟合也可能导致对模型能力的误判。
如今,大模型已经进入应用阶段。李彦宏认为,衡量模型成功与否的标准在于其是否能在实际应用中满足用户需求并创造价值。因此,在百度的实际应用中,他禁止技术人员参与排行榜竞争。另一方面,当前模型的发展空间仍然很大,现有的成果距离理想效果还有很大差距,因此模型需要持续迭代和更新。只有经过数年乃至十数年的投入,才能使模型真正满足用户需求、适应应用场景,并提高效率或降低成本,这也是保持竞争力的关键所在。
基于此,李彦宏认为,所谓的领先12个月或落后18个月并不十分重要。即使能确保始终领先对手六个月,就已经算是胜利了。
此外,开源模型并不能解决商业应用中的效率问题。李彦宏指出,开源模型需要用户自行部署和维护,导致GPU使用率低,无法有效分担推理成本。而闭源模型则通过用户共享资源和分摊研发成本,实现了更高的效率与效果。目前,百度的文心大模型3.5和4.0版本,GPU使用率均能达到90%以上。
正如前所述,评价一个模型需要从多个维度考量,不仅要看其在排行榜上的多项能力,还要看其效果和效率。当大模型加速进入商业应用后,在追求高效率和低成本的情况下,开源模型并无优势。
李彦宏明确表示,在大模型时代,算力的高效利用是决定模型成败的关键,而开源模型无法解决这一问题。
最后,智能体是大模型最重要的发展方向之一,其低门槛使得应用转化更加直接和高效。
对于大模型发展的主要阶段,李彦宏在内部讲话中给出了明确答案:首先是Copilot阶段,辅助人类进行操作;接着是Agent智能体阶段,具备自主使用工具和自我进化的能力;最后是AI Worker阶段,能够独立完成多种工作。
其中,智能体作为大模型最重要的发展方向之一,虽然尚未形成行业共识,但在百度的产品中,如文心智能体平台AgentBuilder,已经开始展现其潜力。
低门槛的特点使得从模型到应用的转化变得简便,从而促使大量新的智能体在百度平台上诞生。李彦宏指出,通过百度庞大的用户基础和需求,智能体能够更好地满足市场需求,并推动自身的发展。
总结起来,李彦宏提到的几点思考中,前两点主要讨论的是现状,而智能体则代表着未来。这一切恰好发生在大模型发展进入深水区的背景下。
随着基础模型更新速度的放缓,大模型的应用逐渐深入各个产业,企业面临更加复杂的市场环境和技术挑战。简单的技术迭代已经无法满足市场的多样化需求。
人们对大模型的期待和看法也在发生变化:模型的参数量和排行榜得分不再是衡量模型能力的核心指标,是否开源也不再那么重要。
产业界对AI的需求已经不仅仅是单纯的技术追求,解决实际问题是衡量大模型的唯一标准。在这个过程中,许多问题和挑战不容忽视,例如推理与算力的成本问题以及提升业务效率等。
百度作为长期且持续在该领域投入的企业,自然为中国的众多大模型提供了一种发展的参考路径,这个答案就是智能体。
因此,李彦宏此次内部谈话不仅仅是关于行业认知的讨论,更是百度智能体实践的有效验证和体现。
此前,李彦宏在多次讲话中强调,智能体代表了AI时代的未来趋势。作为一种几乎“放之四海而皆准”的大模型应用,智能体的门槛极低,甚至不需要编程技能,用户就可以轻松开发出功能强大的应用。李彦宏形象地将智能体比作“AI时代的网站”,预示着它将形成一个数百万量级的巨大生态。这种广泛的应用潜力使智能体成为各行各业的“Super APP”,推动了AI技术的普及和应用。
与此相应的是,百度在智能体领域的布局也十分显著。
通过文心智能体平台AgentBuilder,百度已经吸引了20万开发者和6.3万家企业入驻,并在2023年7月免费开放了文心大模型4.0。这一举措使开发者在构建智能体时能够灵活选择合适的模型版本,大大降低了开发门槛。
短时间内,百度智能体展示了大模型应用的强大潜力。根据百度2024年第二季度财报,智能体在百度生态中的分发量迅速增长,7月的日均分发次数超过800万次,较5月翻了一番。
热门智能体包括内容创作、性格测试和日程规划等,覆盖了教育、法律和B2B等多个行业。百度的智能体生态吸引了1.6万家商户参与,形成了用户、开发者和服务商共赢的局面。
李彦宏强调,智能体的发展不仅依赖于技术创新,更要紧密结合用户需求。随着用户对智能体的需求不断上升,这些智能体得以快速迭代。只有智能体生态持续扩展,才能推动AI技术在各个领域的深入应用。
在大模型应用逐渐深入的当下,百度的智能体实践无疑为行业提供了重要的借鉴和启示。
今年以来,随着大模型技术的不断发展和应用的深化,行业正在进入一个新阶段。在这个阶段,大模型玩家的格局已基本形成:具备自研能力和可持续研发大模型的企业开始向头部集中。
同时,大模型的应用和落地进入了生态建设期。
越来越多看好大模型前景的创业者不再纠结是否要自研或自建大模型,而是更加关注如何利用现有的大模型解决实际痛点需求和问题。
在这个过程中,智能体作为最小规模的AI应用形式,展现了其巨大的潜力。它具有低门槛、轻量级的特点,能够在行业中迅速普及并实现广泛覆盖,同时满足效率和成本控制的需求。随着基础模型的不断进步,智能体的应用将变得更加简便且广泛。这也是李彦宏对智能体充满信心的主要原因。
从李彦宏的讲话中可以看出,百度的战略重点正在发生转变。基础模型的竞争阶段已经过去,如今更为重要的是通过智能体建立丰富多样的应用生态系统,使该生态系统成为保护百度大模型“文心”的护城河。
这意味着百度将更加重视智能体在应用生态系统中的价值和作用。通过不断改进智能体平台和工具,百度希望吸引更多开发者和企业参与进来,共同构建一个繁荣的AI应用生态系统。
未来,智能体的功能将不再局限于内容创作和日程管理等基础任务,还将扩展至更多专业领域,如医疗、金融和法律服务等,为用户提供个性化和高效的解决方案。
为了实现这一目标,企业需要持续投入资源进行技术创新和更新,不断优化算法并提升用户体验。
当然,在这一过程中也会遇到一些关键问题,例如数据隐私和安全问题,以及智能体的管理和维护等。然而,任何技术应用进入深入发展阶段时,都会面临各种挑战。
随着智能体生态系统的不断壮大,百度正在引领行业迈向一个更加智能化和高效化的未来,为各行各业带来新的机遇和挑战。
李彦宏揭示了大型模型的认知误区:开源并不能解决问题。这标志着大型模型产业应用正在摆脱困境。
李彦宏指出了大型模型认知上的一些错误观念,即开源并不是解决问题的万能钥匙。
这是国内首个实现全自动流程的插件开发平台。
(注:提供的图片链接未能访问,因此无法确认其内容,上述文本根据您的请求进行了重写。如果您有具体的图片内容需要描述,请提供详细信息。)