
AI专家齐聚:2024年技术突破与2025年展望
近日,IBM 旗下的《Mixture of Experts》邀请了来自AI模型、智能体、硬件和产品研发四大领域的顶级专家,共同深入探讨了2024年AI技术的突破性进展。这场长达一小时的深度对话,聚焦于高性能AI模型的演进路径、智能体技术的突破与创新、AI硬件格局的剧变,以及年度重磅产品所带来的行业洞见。专家们一致认为,2025年将是AI发展的重要转折点,开源模型与闭源模型将首次平分秋色,超级智能体时代即将到来,英伟达在AI芯片市场的主导地位也将面临前所未有的挑战。
事实上,变革的迹象早已显现。去年,OpenAI推出o1架构,Apple Intelligence进军移动端AI,Meta通过Llama Stack重新定义智能体交互标准,各科技巨头都希望能在AI领域定义自己的格局。那么,这些变革背后究竟意味着什么?
“战国纪”:巨头暗战与开源逆袭
主持人:回首2024年1月,GPT Store的上线和Claude 2.1的长上下文窗口能力还引发热议,当时大家都在翘首以待Llama 3的发布。毫无疑问,2024年是充满变革的一年。
为了全面回顾这一年的发展,我们邀请了多位业界专家,他们将分享各自领域的亮点与不足,并展望2025年的发展趋势。我们将深入探讨AI智能体、硬件进展以及全年重要的产品发布。首先,让我们聚焦2024年AI模型领域的发展。为此,我们特别邀请到了IBM高级研究科学家Marina Danilevski以及负责IBM美国、加拿大和拉丁美洲AI咨询业务的高级合伙人Shobhit Varshney。
在回顾年初的“远古时代”之前,我想先从OpenAI o1的发布谈起。Shobhit,你曾认为OpenAI o1的发布标志着这些公司在思考模型开发和扩展方式上出现了重大转变,请谈谈原因。
Shobhit Varshney:这确实是激动人心的时刻。过去一年,我们见证了扩展定律的演进,通过增加算力和构建更大的模型,性能得到了显著提升。如今,我们拥有了规模惊人的模型,比如拥有405亿参数的Llama和1750亿参数的GPT-4。而现在,市场正在经历几个重要的转变。
首先,重心正在向推理阶段转移。模型开始放慢速度,思考用户的真实需求,制定计划并得出答案。我们也开始为这些模型提供更多可用的工具。同时,成本结构也发生了重大变化,专有模型的成本大幅下降,而较小的模型变得更加高效,性能不断提升。
因此,我们看到了这样的转变:从规模惊人的模型开始,在用尽所有公共互联网数据后,我们现在更专注于高质量的企业数据或为特定模型定制的数据。现在,大型指导模型能够创建合成数据,帮助训练更小的模型,从而以较低价格提供高性能的模型。这表明我们在思考AI模型和构建投资方式上已经发生了重大转变,2025年及以后的发展将会呈现出完全不同的局面。
Marina Danilevsky:我同意你的观点。现在终于到达了一个重要的节点,也就是可以思考“既然我们已经知道了(模型)能做多大,现在该考虑如何做得更小了”。因此,在“规模至上”的初始研究推动之后,我们终于有机会开始考虑效率问题了。
主持人:这是你对2025年的预测吗?
Marina Danilevsky:是的,2025年的趋势非常有趣。模型质量已经达到了一个新的高度,我们可以开始可靠地构建企业级解决方案了。
主持人:确实如此。Marina,在今年春季或其他时候,有没有什么特别的事件让你印象深刻?
Marina Danilevsky:首先,我会记住今年的竞争达到了空前的激烈程度。感觉每两周就会有新的突破,甚至一些你意想不到的公司,比如最近的亚马逊,也展示了他们令人惊喜的成果。今年最让我印象深刻的是众多参与者以一种积极的方式相互竞争,真正推动了这个领域向前发展。
Shobhit Varshney:我们最近的调查显示,全球约15%的客户已经通过应用生成式AI获得了实实在在的价值。过去很多知识都被锁在文档和流程中,而现在我们看到客户在一些小型但复杂的工作流程上取得了显著进展。通用Copilot或AI助手可能没有带来足够的价值,这使得关注点转向了如何将AI与企业自身的数据和知识更好地结合。我认为过去的几周正是AI发展史上最精彩的时刻之一:OpenAI、谷歌之间的竞争,以及Meta的加入,在整个社区中引发了巨大的变革。关于o1的重大进展,我认为这将成为历史上的一个重要节点,因为我们开始意识到每月200美元实际上是非常有价值的投资。
主持人:确实如此。从模型的角度来看,你们认为o1是今年最重要的发布吗?
Shobhit Varshney:对我来说,最具突破性的是Gemini Flash。我认为谷歌用一个小型多模态模型所实现的成果,将推动未来两三年计算领域的发展。原因在于它现在能够开启的所有可能性。如果你关注了最近的Android XR发布会,你会发现我们已经进入了一个新阶段。有了像Gemini Flash这样的模型,你可以用一个小型模型就能很好地完成多模态任务。它开始能够记住刚刚看到的内容,我认为它将开始增强我们日常工作流程的方方面面,包括记忆功能。这意味着我们最终可以实现这样的计算基础设施:在XR、AR体验中,将更多的计算能力转移到设备端。这也将带来更好的隐私保护,因为数据将被存储在用户随身携带的设备中,而不是他人的云端。
Marina Danilevsky:我完全同意这点。小模型的发展令人振奋,因为我认为在未来一两年内,我们将开始看到更多正式的监管出现,更多人会意识到这真正意味着什么。如果模型开始具备记忆功能、实现个性化、准备好被定制,这将变得极其重要。因此,拥有一个小型的、本地的、技术上可靠的解决方案,将变得尤为关键。
主持人:那如果要你评选年度最佳模型,会选择什么?
Marina Danilevsky:我更倾向于从整体的角度来看待这个问题。我想提名的是Llama模型系列。我们已经看到了预训练能做到什么,接下来我们将见证后训练阶段能带来什么突破。我希望看到更多团队采用这种连贯的研发方式:推进预训练,深化后训练,探索规模极限,并不断迭代。
Shobhit Varshney:Marina,我认为我们将进入这样一个阶段:大型研究实验室会继续构建更大的模型,但他们可能不会在公共领域发布这些模型。这些模型更多地会被用于创建合成数据,用作指导模型进行蒸馏等工作。我们正在重新学习如何教育年轻一代,比如尝试不同的方法,制定计划,回答问题,必要时使用计算器等工具。现在我们开始更深入地理解这些模型是如何学习的。
主持人:说得对。今年最有趣的发现之一就是,每逢更新,用户都会问“你能不能再努力一点?”,然后模型真的就在下个版本表现得更好了。最后一个问题,我们还没有深入谈论多模态领域,但它似乎真的有望在2025年成为一个重要议题。也许我先请教你,对未来一年多模态发展有什么预测?
Marina Danilevsky:我认为多模态技术可能终于到了真正发挥作用的时候。业界对多模态模型有着巨大的兴趣,因为当一个模型同时处理多个任务时,这些任务之间会相互学习。现在情况变得更加有趣:如果你有一个多模态模型,它是否也会在每个单独的模态上表现得更好?我认为数据现在终于到位了,不仅仅是计算能力,还包括数据以及创建更多数据的能力。
Shobhit Varshney:我认为多模态领域在未来几年将会迎来令人振奋的发展。这个领域之所以重要,是因为它能够理解人类所看到的、感受到的、观察到的、阅读到的和听到的所有信息,这对于AI助手更好地帮助我们至关重要。而且竞争将会非常激烈,你会看到这些模型从各个方向涌现出来。比如,直接的语音到语音的转换,这些都在提供卓越的用户体验。我对明年在多模态、小型化和完整上下文处理方面的发展感到非常期待。
“元年志”:超级智能体的崛起
主持人:接下来,让我们把话题转向2024年的智能体技术。为此,我们邀请到了两位嘉宾:IBM杰出工程师、用户转换CTO Chris Hay,以及IBM AI孵化项目产品经理Maya Murad。
2024年是智能体的元年,“智能体”这个词几乎无处不在。我想先请教Chris,你认为2024年的智能体技术是被过度炒作了,还是说它的潜力还被低估了?
Chris Hay:绝对是被低估了,远远没有被充分重视。智能体就是未来,智能体就代表着一切。在2025年,我们将迎来超级智能体的时代。
Maya Murad:我完全同意这个判断。2024年,我们确实听到了很多关于AI智能体的讨论。我很期待看到更多实际落地的案例,同时我也预计我们会遇到更多挑战。今年我注意到的一个重要趋势是出现了更多的协议和标准化努力。我们看到Meta通过Llama Stack在这方面进行尝试,Anthropic则推出了他们的模型上下文协议(MCP)。我认为这将是一场关于如何标准化大模型与外部世界交互方式的重要博弈,而未来,这个重点将转向智能体之间如何互相交互。我认为这是下一个前沿领域。
主持人:是的,感觉2024年更像是未雨绸缪之年。Maya,不知道你是否同意这个观点?
Maya Murad:确实感觉这是在为未来做准备的一年。比如说,Meta很早就投入其中就很有意思。虽然Llama Stack的第一个版本可能还不够完善,但他们展现了长期投入的决心。他们想要帮助定义这些智能体间的通信协议。这也暗示了一些有趣的变化。在过去两年里,这个领域主要是在响应OpenAI的产品节奏。现在我们看到更多的参与者在争夺制定这些标准和协议的主导权,这是一个重要的转变。
主持人:确实如此。Chris,展望2025年,你觉得Meta在这方面是否处于有利位置?或者你对于谁将在这个领域领先,谁可能会落后有什么预测?
Chris Hay:我很认同Maya关于Anthropic和模型上下文协议(MCP)的观点。我认为这将成为明年智能体发展的最大推动力之一。他们很好地解决了一个核心问题,那就是允许远程调用工具。我认为MCP在允许远程调用工具方面做得非常出色,而且能够通过多个服务器将它们链接在一起。我认为这将是一个重大的推动因素。
有趣的是,他们设计的架构让连接不同的LLM变得很容易。我认为我期待看到的是没有任何一家公司独占市场。这个由不同提供商组成的生态系统将推动整个行业向前发展。我们将进入一个庞大的智能体市场时代。这就是为什么我说超级智能体(Super Agent)即将来临,因为在2025年,这将成为一个真正庞大的生态系统。
主持人:当你说超级智能体时,具体是指什么?
Chris Hay:说实话,我刚刚才想出这个词。一个真正强大的智能体就是超级智能体。
主持人:你们两位的重要预测似乎都指向了一个方向:智能体市场,这可能是我们明年会看到的最重要的发展趋势。我认为一个重大问题是,关于智能体世界中最先成功的应用场景会是什么?在你们与客户交流的经历中,他们对智能体有什么特别的期望和愿景?
Chris Hay:从我的角度来看,在那个市场中有一些明显的应用场景,比如翻译。还有领域服务,比如法律领域,我认为这可能会成为市场的一大部分。但我希望不仅仅局限于这些个别的智能体。任何信息,都可能成为应用场景。这就是我对2025年的另一个预测:我认为我们将看到万维网的一次重大转变。为了让智能体蓬勃发展,不仅仅需要有市场,还要有标记数据的新方式。所以我预测我们将开始看到网络向所谓的Web 4.0转变。这里我们会看到专门为智能体消费设计的内容。
主持人:对智能体的承诺会引发如此大的兴趣,以至于我们几乎要重构整个网络,使其对智能体更安全或更有效。Maya,你同意这个观点吗?
Maya Murad:我认为很多有趣的应用场景将在不同提供商构建的、由不同组织拥有的智能体能够相互交互时被开启。比如,我们如何建立安全协议?如何能够高效地实现这一点?这里的愿景是:我们如何摆脱所有这些不同系统的孤岛,不再需要手动设计它们如何相互对话?这确实是一个令人向往的前景。例如像软件工程任务,这个领域已经有了大量投资。但我仍然认为没有人真正解决好普通商业用户的需求。所以我看到了很多机会来简化这些复杂的体验,使它们更加动态和整合。
主持人:你描述的世界几乎就是智能体成为了所有这些应用程序的统一界面。它们保持独立运作,但是未来的操作系统实际上就是代表你执行任务的智能体。
Maya Murad:是的,关键是自然语言。就像LLM改变了我们与数字世界交互的认知一样,我们开始期望所有事情都能用自然语言来处理。现在你填写表单时,往往也会有一个自然语言交互的选项。我认为这种期望会继续扩大。
主持人:确实,这很有道理。最后我想谈谈工程和编程方面的问题。今年我注意到编程助手已经变得非常非常强大了。但最终的愿景是,你只需要描述你对软件代码库的构想,智能体就能够在代码库的所有部分进行构建和互操作。对于这种自动化和智能体行为的前景,你们怎么看?
Chris Hay:我认为在未来几年的一个大挑战是,我们可能会看到一种更适合智能体的原生语言出现,这种语言的设计更适合LLM,因此会减少为满足人类需求而设置的语法糖。所以我认为编程语言本身将会发生演变。我认为就像AI操作系统一样,未来将出现AI编程语言和库,一切会更加原生化。这将有助于编程的发展。
Maya Murad:就目前我们拥有的技术而言,我对我在Replit上看到的能力印象深刻,这是一款AI编程助手,能够构建完整的全栈应用程序。这是一个很有趣的范式,就像通过对话来构建应用程序。我真的看到了创建数字界面和代码库的能力正在以前所未有的方式普及化,这完全得益于我们现有的智能体技术。
“封神榜”:芯片新秩序
主持人:接下来有请两位来自IBM的硬件专家,Khaoutar El Maghraoui是我们AI工程的首席研究科学家,负责人工智能硬件中心;Volkmar Uhlig则是我们的副总裁,负责人工智能基础设施组合。
首先请教Volkmar,当我们谈论AI硬件时,这几乎成了与英伟达相关的代名词。我很好奇你认为今年英伟达最重要的故事是什么?
Volkmar Uhlig:英伟达为GB200确实做了很大的宣传。我认为我们正在看到一个重大转变,特别是在训练方面,正朝着更集成的系统方向发展。现在是非常大型的机架规模计算机的时代,液冷技术也开始普及。所以这些年我们看到的所有进展,比如如何在更小的空间内集成更多的计算能力,让它更快,配备更好的网络等等,英伟达正在努力保持其领导者地位。
我们看到的升级某种程度上反映了现在模型的样子。现在,你不希望必须购买完整的显卡。所以,如今所有加速器的内存容量都在增加,不仅仅是英伟达在这里发力,我们观察到了新的进入者和其他市场参与者。AMD正在发布他们产品的一个相当不错的路线图,所有产品都具有非常大的内存容量和内存带宽,以应对这些大型语言模型。英特尔也在这个市场上积极布局。此外还有一些创业公司,我们也看到了一些真正有趣的技术进入市场。比如Cerebras,现在你已经可以作为云服务使用它了。现在还有Groq作为一个新兴参与者。还有其他公司正在崭露头角,比如D-Matrix,将在明年初推出一个适配器。
所以我认为这个市场不再只是英伟达一家独大,这对整个行业来说是件好事,而且发展非常快。我们不仅看到了训练系统的进展,对推理的关注也在增加,因为从我的角度来看,这才是真正能创造收益的领域。
主持人:Khaoutar,我很想听听你对这一点的看法。我想确保我们也谈谈今年推理领域的大趋势,因为这确实是市场发展的一个重要主题。如果你愿意,请谈谈2024年在这方面的发展和你的观点。
Khaoutar El Maghraoui:是的,当然。特别是在推理引擎和优化推理引擎方面发生了很多进展。硬件软件协同设计也在发挥关键作用。在开源领域围绕构建和扩展推理系统发生了很多创新,特别是针对大型语言模型。
主持人:Volkmar,你能稍微预测2025年的情况吗?听起来随着这个市场变得越来越拥挤,我想每个人都在追逐英伟达的王冠。你对2025年有什么期待?英伟达是否仍然能保持领先地位?
Volkmar Uhlig:我的预测是,在训练领域,英伟达仍将牢牢占据主导地位。我认为AMD和英特尔会努力进入这个市场,但那可能要等到2026-27年的时间框架。我之所以这么说,是因为构建一个真正成功的训练系统所需的不仅仅是GPU。这是一个完整的系统工程。
你需要真正优秀的低延迟网络,需要解决可靠性问题。现在有一个强烈的趋势,就是将计算能力转移到网络架构中,以进一步降低延迟并更有效地利用硬件。英伟达通过收购Mellanox,实际上获得了高性能计算领域的头号网络供应商。因此,其他参与者的大部分投资都更多地集中在推理市场,这个市场更容易进入,因为在这里并不是只有英伟达的系统。
我认为训练领域在英伟达手中很安全。但我认为现在随着集成了以太网的Gaudi 3的上线,以及AMD推向市场的新产品,我们会看到竞争对手慢慢渗透到这个市场。我认为到2026年,我们可能会看到市场格局发生重大变化,英伟达可能会失去现在这种独特的主导地位。
主持人:这将是一个重大转变。Khaoutar,你对这段关于2025年的预测同意吗?
Khaoutar El Maghraoui:我同意Volkmar的观点。AI硬件竞争确实在加剧,正如他所提到的,像AMD、英特尔和像Groq、Graphcore这样的创业公司都在开发富有竞争力的硬件。英伟达GPU面临的问题主要在于成本和功耗效率。英伟达的GPU非常昂贵且耗电量大,这使它们对边缘AI和对成本敏感的部署来说缺乏吸引力。而且我认为,像OpenAI Triton和Onyx这样的开放标准,以及新的框架,也在努力减少对英伟达专有生态系统的依赖,这使得竞争者更容易在这里获得发展机会。如果我们看看推理专用硬件,这些专用推理引擎如VLLM、SG-Lang、Triton,它们展示了非英伟达硬件的潜力。我认为这正在挑战英伟达在这个快速增长的边缘AI市场中的地位。
主持人:是的,我想边缘计算是最后一个我们必须要谈到的重点。对我来说,显然今年的大新闻之一是苹果,他们进军Apple Intelligence领域并确保所有iPhone都配备了AI芯片。但我很好奇,对于我们那些不太关注硬件领域日常发展的听众来说,在未来12个月里,有哪些趋势值得他们特别关注?
Volkmar Uhlig:我认为苹果的模式在功耗受限的环境中是非常优雅且实用的解决方案。随着芯片技术的成熟,我们将在边缘设备上看到更多的计算任务本地化。而且随着芯片变得越来越专门化,专注于简单的矩阵乘法运算,我认为我们将看到实际上每一个出厂的芯片都会以某种形式包含AI功能。然后真正的关键是这种设备内部和设备外部处理的混合架构,它使得硬件能够长期保持竞争力。特别是在边缘设备上,你不想每两年就为了训练另一个网络而不得不更换芯片。所以我认为苹果提出的架构将会更加稳固,我们将看到围绕这个架构建立起来的软件生态系统。
主持人:Khaoutar,当前最被低估的趋势是什么?在AI硬件领域,是否有一些人们没有充分关注的发展方向?
Khaoutar El Maghraoui:这是一个很好的问题。我认为有很多关于实时计算优化的工作被低估了。例如,像测试期计算(test-time compute)这样的技术,它允许AI模型在推理过程中动态分配额外的计算资源。这也在推动更多的硬件软件协同设计。我认为另一个重要趋势是硬件的普及化。当我们看到Llama 3系列时,它展示了新的硬件生态系统正在发展,既适用于高端研究模型,也适用于消费级应用。另一个方面是开源和企业的协同效应。
“新生代”:AI产品爆发
主持人:最后,为了完整回顾2024年的图景,我们需要谈谈那些让我们震惊、惊叹并引发深思的产品发布。为此我们邀请到了IBM Granite技术产品管理总监Kate Soule,以及负责AI治理工作的IBM研究员Kush Varshney。
显然,今年在产品发布方面的节奏非常快,感觉每隔一周就有新产品问世。Kate,回顾过去12个月,你认为最重要的突破是什么?
Kate Soule:作为Granite技术产品管理总监,我想首先要为我们IBM团队所取得的成就感到自豪。我们发布了Granite 3.0模型系列,这些模型都采用Apache 2许可证,具有高度透明性,数据来源符合伦理要求。我认为GPT 4.0系列模型和产品的发布也令人振奋。这真正预示了我们将在2025年看到的下一波创新:我们如何在推理阶段投入更多资源,允许使用这些模型的产品进行更高级的推理计算来提升性能,而不是简单地投入更多资金进行训练,投入更多数据,不断扩大规模。
主持人:第一个方面,2024年确实是开源领域反击的一年。第二个方面,就是“明智工作,而不是盲目增加工作量”的理念。那请问Kush,回顾2024年,无论是开源方面还是在AI方面,有什么值得铭记的内容?
Kush Varshney:是的,“开源的回归”。当我们与各行各业的客户交谈时,我们发现他们在2023年主要关注的是概念验证和类似的工作,比如让公司内部的人们认识到生成式AI可能发挥的作用。但随着时间推移,他们意识到实际落地时需要考虑版权数据、其他治理问题、成本,以及如何使这些系统可操作。我认为Watson X这个IBM产品就在这方面发挥了重要作用,Granite模型显然也是如此。我们正在探索如何将2023年的科学实验转变为在今年得到更多实际应用,现在进入明年,一切都将变得更加成熟和严谨。
主持人:Kush,让我们来谈谈AI治理。你一直以来花了很多时间思考这个问题。今年在这方面有很多重要进展,我不知道你是否想特别指出2024年的一些重要事件。
Kush Varshney:仅仅是整个AI安全领域的大规模集会这件事就很能说明问题。我认为这是我们需要克服的关键问题,因为仅仅拥有生成式AI而没有安全护栏,没有治理机制,这是很危险的。我认为投资回报的承诺只有在你能够克服治理这个门槛后才能真正实现。
主持人:你对2025年这方面的发展有什么预测吗?在2024年,我们几乎为很多事情做好了准备。2025年,我们将看到这些准备如何转化为实际的发展。无论是在开源还是在治理方面,似乎都是如此。
Kush Varshney:我的预测是,Agentic AI会真正爆发,而且治理将成为推动其他用例发展的关键因素。为了让这些系统有一定的自我反思能力,也许能够对它们要输出的答案多思考几次。所以,我们将看到更多用于管理智能体的工具。比如Granite Guardian 3.1刚刚发布,实际上包含了一个函数调用幻觉检测器。
Kate Soule:Kush,你刚刚说推理运行时将被更多地用于治理和自我反思,但你最近也说过这打开了其他风险和潜在安全问题的潘多拉魔盒。当模型在后台运行所有这些循环时,人们能够观察到模型的输入过程。
Kush Varshney:你可以称之为“自我反思”,可以称之为元认知,甚至可以称之为智慧。这些都将成为系统运作的重要组成部分。但是,任何时候你有额外的操作发生,更多的循环,更多的机会,就会产生更大的攻击面。
主持人:我认为这最终变得至关重要。如果所有的开源在2024年发展得如此迅速,感觉2025年可能终于是开源与闭源平分秋色,甚至在某些方面开源会超过闭源的一年。我认为这种情况的发生不仅仅是因为技术在变得更好,而且就像Kush说的,我们确保开源模型部署安全的能力也在提高。过去,人们常说我们必须依赖闭源,因为只有他们真正理解如何进行对齐和确保安全。
Kate Soule:总是有人说只有大型模型提供商才有预算能够研究如何安全地做这件事,或者只有他们才有这方面的专业知识。现在我认为我们终于开始足够地打破这种说法了。我们看到Meta做得非常出色,发布了非常大的模型,具有出色的安全对齐能力,并向外界展示你可以公开地做这件事。这不需要躲在黑幕后面进行。
主持人:这是你对2025年的预测吗?我们可以兼顾开放性和安全性?你对未来12个月有什么开源方面的预测?
Kate Soule:我认为明年的重点将更多地放在模型之上的技术栈上,以及优化模型和开发者框架的协同效应上。我们看到了LlamaStack的发布,对吧?我认为我们将看到它随着成熟而大幅发展,以及其他类似功能和技术栈的开发。我认为我们都也接受了像OpenAI端点这样的工作方式是现有的操作方式。但可能还有其他方式,我们可以继续创新和改进,现在我们已经积累了一定的经验。
主持人:就像你说的,考虑到有这么多新闻,很容易导致我们忘记这些都是很新的东西。我很好奇你们两位对此是否有预测,甚至是关于界面本身,我们是否会开始以一种与现在完全不同的方式与这些系统交互?
Kush Varshney:我认为共同创造力,共同创作将成为一个更大的趋势。所以会有多个参与者共同参与。但我认为这只会继续增长。我认为未来的发展重点可能会稍微转移,更多地关注人类的繁荣和幸福感,探索如何让人们真正一起工作,实现一种开放性的协作等等,这可能会成为未来的主要趋势。
主持人:也许我们还剩下几分钟时间讨论这个话题。有什么人们没有在谈论的事情吗?对你们两位该领域的专家来说,什么是目前被低估的,且真正值得在明年关注的事情?
Kate Soule:我认为在使用LLM构建模块化组件方面将有巨大的机会。我真的希望这个方向能够蓬勃发展。例如,我们如何达到这样一个阶段:你可以为你的特定任务微调一个LoRa适配器,它位于模型之上。现在,这些适配器必须为你要部署的具体模型量身定制,新版本出来后,你就必须重新调整你的模型。
但是我们如何创建这些更通用的版本?这就能创造出一些真正优秀的模块化组件,你可以发布或者建立一个目录供选择和实时配置,并可以随时替换进出。还有一些方面,比如我们现在都听说过开创性的专家混合(MoE)架构。所以我希望,我认为在基础层面有一些非常有趣的研究正在进行,可以支持在2025年关注如何使模型构建和专业化变得更加模块化。
主持人:我认为这个方向没有得到足够的关注。每个人总是认为AI就是一个能做所有事情的大模型。Kush,轮到你了,有什么被低估的趋势要向我们的读者指出吗?
Kush Varshney:我认为智能体的中间件也是一个重要方面。基于Kate刚才说的关于模块化的内容,即使在多智能体系统中有不同的智能体,我们也需要考虑如何注册它们,如何编排它们等等。从IBM研究院的角度来说,我们推出了Bee Agent框架。现在还有其他创业公司也在这个领域发力。我认为这个领域会继续增长。再次呼应Kate说的,我认为在开发环境和模型之间建立更紧密的联系非常重要。我认为,一旦所有模型都达到足够好的程度,那么问题就变成了:我们如何更好地使用它们?我们如何有效地使用它们?我们如何更好地开发它们?这就是我们未来该关注的问题。








