跳转至

🔥AI副业赚钱星球

点击下面图片查看

郭震AI

不训练大型模型的互联网公司,探索出了首批人工智能转型的经验。

编辑日期:2024年09月11日

上云成为关键战略

AI应用逐渐普及,但算力不足仍然是众多企业面临的一大难题。

国产芯片设计公司燧原科技自成立以来便遭遇了这一挑战。然而,通过采用云端服务,其验证和基准测试的效率从原先的两周时间缩短到了仅仅30分钟,充足的算力显著加快了芯片的研发进程。

不训练大型模型的互联网公司,探索出了首批

△ 燧原科技副总裁 任树峰

目前,“云+AI基础设施”已经成为推动企业智能化转型的重要支撑力量。随着以生成式AI为代表的技术的发展,互联网行业作为“云+AI”应用的先锋,已经发现了新的增长机遇。

具体是如何实现的呢?

9月6日,腾讯数字生态大会“互联网AI应用专场”在深圳正式开幕,现场人潮如织,尽管台风摩羯来袭也未能阻挡人们的热情。

整场会议专注于分享实用经验和干货内容,例如:

不再赘述,直接进入重点。

不训练大型模型的互联网公司,探索出了首批

与会者达成了一项共识:技术方案的选择将直接影响到AI应用的效率。截至目前,有三条主要的技术路径成为了主流趋势:

  • 腾讯云副总裁许华彬指出,结合企业自身知识库的RAG技术无需大量的人力资源和计算能力,也不需要对大规模模型进行微调,是当前企业级AI部署的有效解决方案。
  • 近期,多个行业的AI代理应用迅速发展,针对消费者端的原生应用及企业端的业务流程自动化将成为未来应用的主要方向。
  • 云计算是构建坚实基础的关键组成部分,云原生技术帮助企业实现快速开发,通过技术创新和市场开拓实现增长的突破。

不训练大型模型的互联网公司,探索出了首批

那么问题来了,不同行业或企业应该如何根据自身的实际情况作出最佳选择呢?

下面请几位代表性的玩家来分享他们的实际案例。作为专注于消费领域的公司,值得买科技分享了一组有趣的数据:

在最新的内部测试中,由AIGC生成的内容点击率已达到用户生成内容的103%。

该公司首席技术官王云峰坦诚表示,通常人们不太喜欢AI生成的内容(因为担心虚假信息),但如今这个点击率已经改变了人们的旧有观念。

为何会这样?

为了探究背后的原因,王云峰首先分享了他们对于AI的不同理解:

AI不仅是一种技术,它更是一个生态系统。

按照他的说法,如果仅将AI视为一种技术,那么其应用可能仅仅局限于使用通用模型。然而,AI不仅是生产力工具,很多时候它也在重塑我们的生产流程。

在消费领域的AI生态系统中,有一个显著的特点将其与金融或医疗领域区分开来:在这个领域,经验比知识更为重要。

这意味着,在消费领域,尽管金融和医疗领域有许多确定性的知识可以供模型学习,但用户的消费行为更多依赖于个人经验,并且具有高度的个性化。

总结起来,消费领域的特点主要包括:

  • 高度个性化
  • 经验驱动

明确了这些认知和行业特性后,我们来看看为什么AIGC内容能够逐渐受到青睐。答案在于:

让AI帮助用户完成更多的准备工作。

值得买发现,当AI帮助用户解决那些原本需要大量研究才能解决的问题时,用户的点击率、阅读效率和阅读时间都比单纯使用AI生成的内容更好。

具体来说,值得买的做法是:推出了一套AI解决方案。

该方案包括一个“值得买消费大模型”(自主研发的13B消费模型)、两大数据库——“商品库”和“内容库”,以及三个应用构建框架——AIUC分析引擎、AIGC生成引擎和AGENT调度引擎。此外,还有一套针对特定场景提供AI解决方案的四大应用AI战略。以下是相关说明图:

不训练大型模型的互联网公司,探索出了首批

在这一方案中,采用云端服务是值得买的策略核心:

不训练大型模型的互联网公司,探索出了首批

作为国内AI算力的先驱者,燧原科技副总裁任树峰在其演讲开始时,回忆起创业初期遇到的问题:

对于一家从事芯片设计的初创企业而言,确保高峰时段的算力供应始终是一项挑战。

根据他的说法,一个芯片设计项目的研究开发周期大约为1到2年,在此期间,对算力的需求会呈现出高低起伏的情况。

实际上,公司往往会在连续两到三个月内进行大量复杂且高压的模拟测试和其他计算工作。

不训练大型模型的互联网公司,探索出了首批

与此同时,人们通常认为芯片设计仅涉及编写IP或代码,但事实上,一家芯片企业还需建立数据中心、购置服务器,并负责维护这些硬件设施。

于是,对于当时的燧原而言,面临的问题是:

当需要扩大规模时,公司必须购买更多服务器,而这个过程会导致工程师等待算力;同时,数据中心的搭建本身也是一个相当复杂的任务。

结果,尽管投入了数百万级别的IT预算,工程师们仍然因算力不足而不得不等待物理扩展和算力提升。

最终,解决方案是采用云端服务。

据任树峰所述,在整个行业内,将芯片设计迁移至云端的做法并不多见,主要原因在于相关数据的安全性问题。

为了解决这个问题,燧原科技与腾讯云合作,创建了一种本地加云端的存储与计算分离的新架构。

通过腾讯云的支持,燧原科技的峰值计算能力得到了有效保障。这使得燧原科技在验证和基准测试中的准备工作从原先的两周缩短到了30分钟,并提升了任务处理的并发性100%,同时缩短了30%的模拟周期。

而在看似与技术不太相关的娱乐行业,猫眼娱乐的副总裁徐晓也公开了他们所面临的挑战:在制作动画电影的过程中,涉及到跨城市的协作,且数据量巨大,达到了数十到上百TB。使用传统的网络传输方式,速度非常慢。由于动画项目的工作人员和服务商往往分布在全国各地,因此需要收集并整合这些分散的工程文件进行统一渲染。通常情况下,只能依靠邮寄U盘或硬盘的方式,跨城市的传输至少需要一天,跨省则需要两天,而跨国合作甚至可能需要十几天。

为此,猫眼利用腾讯云的数据传输和存储安全能力,创建了一个猫眼渲染平台。员工可以通过远程桌面登录到集群,在集群上安装常用的工作软件,从而直接在集群中进行创作。这样不仅可以避免素材的交换和下载过程,还可以更好地保护版权方的利益。解决了这些问题后,就可以进一步使用AI进行建模等工作。

此外,关于猫眼的AI转型,徐晓在会议中透露,由于缺乏基础设施建设的能力,他们只能专注于特定领域的模型开发。他特别提到了票房预测的应用场景,目前猫眼可以根据单部影片的特点及同期市场的表现来预测票房。这是基于腾讯云建立的大数据平台实现的。据统计,该平台可以每天稳定运行超过3万个离线数据仓库调度任务,并将核心任务的执行效率提高了20%。

实际上,本次大会汇聚了多个泛AI应用场景的企业,包括SaaS、娱乐、社交、营销、电商和招聘等领域。参会并分享经验的企业有金蝶云、趣丸科技、智谱、猎聘、筷子科技等。由于篇幅限制,以下仅展示部分嘉宾的观点。

作为大型语言模型(LLM)领域的领先者,智谱企业的商业技术中心总经理柴思远提出了以下见解:

要将大规模模型转化为企业的生产力,有几点值得深思:

  • 首先,企业需要选择一个合适的基座模型,并且最好内部有一个理解模型价值及业务的角色(如业务分析师)。
  • 更重要的是,应当鼓励全体员工使用AI技术。
  • 最好的应用通常基于业务场景中的原生应用,而这些应用的创新往往源自组织内部自下而上的贡献。
  • 随着数据资产的积累与利用,企业可以建立自身的竞争优势。
  • 在大规模模型的应用中,随着指令工程和SRT内容的不断深化,这些将成为企业在新时代的数据资产或壁垒。
  • 从长远来看,企业不仅要将大规模模型融入现有工作流程,还需要探索新的应用场景和商业模式,以充分发挥模型的能力。

此外,趣丸科技的技术保障负责人刘亚丹提出了应用AI赋能工具时需解答的三个问题:

  • AI转型的投资回报率(ROI)是多少?即“愿意为AI转型投入多少?期望获得什么样的成果?”
  • 寻找合适的切入点,只有那些能够显著提升效率(至少三到五倍)的任务才值得投资。
  • 基于以往尝试向客户交付颠覆性产品的经验,他建议:“在选择切入点时,不要改变现有的流程。”

最后,腾讯混元的高级AI策略产品经理张汉策分享了构建AI角色的方法。

他们打造的《长相思》AI角色取得了显著的成功:该AI角色的对话总热度超过了3.7亿次,“相柳”这一角色的热度更是突破了2亿次。

在此过程中,他们详细探讨了各种训练方法遇到的问题,包括纯Prompt法、RAG法,以及Agent法等。

最终,他们总结了《长相思》所采用的有效方法。

值得注意的是,这些企业在进行AI转型升级的过程中,都选择了腾讯云作为支持。

据透露,腾讯云拥有广泛的全球基础设施,覆盖21个地区,运营着58个可用区域,拥有超过100万台服务器,并在全球范围内部署了超过3200个加速节点,其带宽储备达到了200Tbps。

腾讯云凭借其强大的公有云能力和分布式云策略,一直致力于推动各行各业的数字化转型。目前,腾讯云的AI产品已经服务于超过400家领先的互联网企业,累计为超过12万家互联网客户提供服务。

针对AI应用落地过程中面临的挑战,腾讯云行业架构副总监邱浩分享了腾讯云的全栈AI解决方案。此方案涵盖了基础设施层、模型层、模型加速层、机器学习平台层、应用平台层和业务应用层,展示了腾讯云在计算、存储、网络、一站式AI开发平台(如腾讯云TI-ONE)及云原生产品等方面的能力,并提出了各阶段AI应用开发的具体方案。

具体来说,腾讯云提供了以下开箱即用的产品:

总之,腾讯云能让企业更加专注于其核心业务。正如值得买科技的王云峰所说:

企业所面临的不确定性不会消失,但可以交给专业人士来应对。

在大会前一天,腾讯发布了全新的混元Turbo大模型。这一新一代旗舰模型,在推理性能提升超过100%的同时,成本降低了50%,效果可与GPT-4媲美。

此外,新模型还支持角色扮演、代码生成FunctionCall等功能,并推出了整合腾讯生态的AI搜索联网能力。

值得一提的是,Turbo模型此次的定价也下调了50%。

阿里云发起了一个活动,共有15家机构/公司参与其中。

这些模型具备持续记忆功能,不会出现“读下文忘上文”的情况。

网友评价:这是一场创意DNA的较量。

不训练大型模型的互联网公司已探索出首批攻击成功率的新SOTA。

在大模型时代,CPU仍具有巨大的发展潜力。

(注:原文中的图片链接无法访问,因此未包含图片内容。)

大家在看

京ICP备20031037号-1 | AI之家 | AI资讯 | Python200 | 数据分析