Meta、微软掌门人最新对谈:AI浪潮带来软件开发革命
4月30日,Meta CEO Mark Zuckerberg 和微软CEO Satya Nadella在LlamaCon 2025 闭幕会议上进行了一场精彩对话。
本次对话从历史视角切入,将 AI 定位为继客户端服务器、互联网与云之后的又一次重大技术平台革命,并剖析了其驱动下的效率飞跃与成本优化趋势。对话深入讨论了微软在开源与闭源模型间的战略平衡、Azure 云平台在赋能开发者构建 AI 应用中的核心作用,以及 AI Agent 在重塑软件开发和知识工作流程方面的潜力。此外,双方还探讨了 AI 驱动下的未来工具形态、模型蒸馏技术的机遇与挑战等话题。
以下是本次对话实录,经数字开物团队编译整理。
一、AI浪潮带来新一轮技术平台革命
Mark Zuckerberg: 非常荣幸能邀请到 Satya。你引领 Microsoft 这家伟大的科技公司实现了惊人转型,推动公司向 AI、云等重要领域发展。对于我们所做的开源工作,你一直是我们的朋友和盟友。我非常珍视我们长期的伙伴关系,也感谢你就 Llama 生态系统及基础设施建设给予的建议。
Satya Nadella: 谢谢你,Mark。我的荣幸。我还记得大约 2008 或 2009 年,我负责 Bing 时与你见面,当时你指出互联网需要体现“人”的存在,用户需要随处可见的个人档案页面,这个观点我至今记忆犹新。
Mark Zuckerberg: 是的,互联网确实需要体现“人”。
Satya Nadella: 或者现在需要的是Agents。
Mark Zuckerberg: 两者或许都需要。你曾多次提到,当前 AI 技术的蓬勃发展让你想起了过去几次重大的技术变革,比如向客户端服务器架构的迁移、互联网的兴起。能否请你详细谈谈这个看法?
Satya Nadella: 我经历的第一个时代是客户端概念兴起。我在 Windows 3 发布后加入 Microsoft,亲身经历了客户端服务器架构的诞生,接着是互联网、移动和云时代。 现在这次 AI 浪潮可以算是第四次或第五次大的技术变革了。 每当发生这样的转型,整个技术栈的每一层都要被彻底重新评估,必须回归第一性原理,重新开始构建。
例如,我们从 2007、2008 年开始构建的云基础设施,其形态就需要为 AI 进行调整。用于 AI 训练的核心存储系统,和我们过去为通用目的构建的核心存储系统截然不同;AI 训练这种数据并行、同步的工作负载,也与过去的 Hadoop 之类的负载截然不同。 平台转型迫使我们重新思考整个技术栈,这是我们面临的周期性挑战。 新的技术在现有基础上发展起来,就像互联网诞生于 Windows 平台,但其发展早已超越了 Windows。我也是这样看待当前变革的。
二、AI性能指数级提升,多模型、多Agent应用成为可能
AI效率与成本优化:摩尔定律“超速”与多模型协同 (多重技术S曲线叠加驱动AI性能每6-12个月提升10倍,成本快速下降,催生了编排多模型、多Agent的复杂应用需求)
Mark Zuckerberg: 你提到技术变得更高效时,会改变原有运作模式,人们最终会消费掉更多的服务量。在 AI 模型领域,这种趋势是如何体现的?AI 模型效率越来越高,智能水平也远超前代,这一切都发生得极快。你对此有何观察?
Satya Nadella: 几年前大家还在讨论摩尔定律是否终结, 现在我们却进入了一个摩尔定律的“超速”发展阶段。 重大的技术平台转型,并非由单一的 S 曲线驱动,而是由多个 S 曲线叠加复合而成。
芯片本身在不断进步 (如 Jensen 或 Lisa 的创新) ,产品迭代周期缩短,这是摩尔定律的 S 曲线。此外,还有计算集群系统软件优化、模型架构优化、推理内核优化、应用服务器优化,乃至提示缓存技术等多个层面的进步叠加。所有这些因素加在一起,整体性能可能每过 6 到 12 个月就能提升 10 倍。能力以这样的速度提升,成本以这样的速度下降时,消费量的增长是必然的。
我们正处在一个可以构建真正深度应用的阶段,特别是那些需要编排层来协同调度多个 Agents 和多种模型的复杂应用。第一代AI 应用通常与特定模型高度耦合。现在我们能够构建多模型的应用程序,可以编排确定性的工作流,让一个应用或基于某个模型构建的 Agent 与另一个 Agent 交互。
已经有一些有用的协议支持这种交互,比如 MCP、A2N 等。如果在协议等方面实现一定程度的标准化,开发者就能更容易构建出既能充分利用这些日益增强的技术能力、又具备高度灵活性的应用程序。这恰是开源可以发挥其巨大作用的领域。
三、开源与闭源AI模型各有优势且市场需要并存
Mark Zuckerberg: 之后我们一定要深入探讨如何协同使用多个模型,以及你提出的“distillation factory”概念。在此之前,Microsoft 在拥抱开源方面历经转变,这是你任期内的早期关键举措之一。你们与 OpenAI 早期合作,但也明确表示, 除了闭源模型,也要服务好开源模型。 你是如何考虑开源与闭源的关系?如何看待开源生态的发展?它对你们的客户为何重要?在构建基础设施时如何考量开源因素?
Satya Nadella: 我在 Microsoft 早年负责确保 NT 系统能与各种 Unix 实现互操作性的经历让我认识到: 互操作性是客户的需求,做好互操作性对业务有益。 这是我思考开放问题 (包括开源) 的出发点。
我对闭源还是开源并不固执己见, 世界两者都需要,客户也会同时需要它们。 即使有人对此抱有执念,最终市场格局会证明对两者的需求真实存在。现实中:有 SQL Server,也有 MySQL 或 Postgress;有 Linux,也有 Windows;还有 Windows 上的 Linux (WSL) 。我喜欢在 Windows 上用 WSL,因为它能方便地使用大量 Linux 开发工具并进行部署。
采取一种允许灵活组合搭配闭源和开源的策略非常有益。这也和你提到的观点相契合,很多企业客户希望基于自身拥有的模型或数据进行“distillation”——这是他们的IP。
在这种场景下,开放权重模型相较于闭源模型,拥有巨大的结构性优势。 当前世界同时拥有顶尖的闭源前沿模型和顶尖的开源前沿模型是好事,能更好地满足各方需求。 对我们这样的超大规模云服务提供商而言,这也是有利的,我们的职责就是服务。就像在 Azure 上,客户可以获得出色的 Postgress 服务,也可以获得优秀的 SQL Server 服务,可以选择 Linux 虚拟机,也可以选择 Windows 虚拟机。同理,在 AI 领域,我们希望提供丰富的模型选择,并围绕这些选择提供强大的工具支持。
四、Azure赋能开发者:打造AI时代的基础设施与工具链
Mark Zuckerberg: Azure 在支持开源方面的核心价值主张或角色是什么?特别是对刚起步的开发者,你们在哪些领域打造差异化,力争成为最佳选择?
Satya Nadella: AI 工作负载并非只在推理时涉及 AI 加速器和模型。任何 AI 工作负载的底层都离不开存储、其他计算资源及网络等核心基础设施。Azure 致力于构建世界级的计算、存储、网络及 AI 加速器整合的IaaS,为构建下一代 Agents 的开发者提供最好的基础平台。在此之上,我们通过 Foundry 构建应用服务器层。
在每次平台转型中,应用服务器都扮演了重要角色,它将所有必要服务——搜索、记忆、安全、模型评估 (Evals) 等打包起来,这些都是开发者构建应用时普遍需要处理的。将这些功能封装好,提供框架和工具,是核心价值所在。
此外,我们非常注重开发者工具链,GitHub Copilot 是重要代表,我们对其进展非常兴奋。将强大的工具、强大的应用服务器和强大的基础设施结合起来,是加速应用程序开发的关键。
五、AI Agent正在重塑软件开发与知识工作流
Mark Zuckerberg: 你提到了 Agents 和生产力提升,这是当前的热门主题。这一趋势在 Microsoft 内部是如何体现的?在外部开发者中,你观察到了哪些利用 Agents 提升生产力的有趣案例?
Satya Nadella: 观察软件开发领域的变化非常有帮助。GitHub Copilot 的演进值得注意:从代码补全,到加入聊天功能 (让开发者无需离开编辑器查询) ,再到 AI Agent 工作流 (直接分配任务) ,甚至现在有了 proto-Swee Agent (可分配更高级别指令或PR) 。
这三种甚至四种功能是并存互补的,都带来了生产力提升。我们得到的最大经验是, 必须将所有这些工具与现有的代码仓库和开发者工作流整合起来。 从零开始构建一个全新的“绿地”应用是一回事,但现实中很少有人能一直做全新的项目。开发者通常在庞大的代码库和复杂的工作流中工作,因此必须整合工具链,这是任何工程团队都需要完成的系统性工作。只有这样,才能真正实现生产力的提升。
这同样适用于其他知识工作。以我们在销售场景部署 Copilot 为例,准备客户会议的方式彻底改变了。过去需要有人写报告、邮件分发、提前阅读。现在,使用 Copilot 的研究功能,就能实时整合来自网络、公司内部及 CRM 系统中的所有相关信息。这不再需要专人准备材料,信息唾手可得。
但这要求人们改变工作方式、成果和流程,这种改变起初缓慢,随后会突然加速普及。这就像个人电脑时代,电子邮件和 Excel 普及之前,人们通过传真和内部备忘录来做预测。后来用电子邮件发送电子表格彻底改变了预测方式。我们现在正处于类似变革的起点,在客户服务、营销材料创作、内容创作等方面都能看到实实在在的进展和生产力提升。
六、未来工程师将更像带领AI Agent团队的技术负责人
Mark Zuckerberg: 关于 AI 改进编程效率,你了解目前在 Microsoft 内部,AI 编写的代码占总代码量的百分比大概是多少吗?
Satya Nadella: 我们主要追踪两个指标。一是追踪代码建议的接受率,大概在 30% 到 40% 之间,并持续增长,具体取决于编程语言 (如 C# 效果不错,Python 很好,C++ 支持也在改进) 。至于 AI Agent 生成代码的应用,目前仍处早期阶段,全新的“绿地”项目比例较高,但多数项目并非全新。另外, AI 在代码审查方面的应用比例非常高。 总的来说,估计目前在我们代码仓库的某些项目中,大约有 20%~30% 的代码可能是由 AI 编写的。你们 Meta 的情况呢?
Mark Zuckerberg: 我没有确切数字。目前统计数据多来自代码自动补全。我们有些团队在特定封闭领域 (如信息流排名、广告排名) 尝试让 AI 基于历史变更记录做修改。我们当前重点是构建能辅助甚至担当 AI/ML 工程师角色的 AI 系统,加速 Llama 模型自身的开发。预计接下来一年,可能一半开发工作由 AI 完成,且比例会持续上升。你们是否观察到类似趋势?
Satya Nadella: Swee Agent 是我们的初步尝试。我们关注 AI 能否在内核优化等任务上取得实质进展,可能性很大。至于提出全新模型架构变更,可能还不行,关键在于任务类型。
Mark Zuckerberg: 是的,像优化、安全改进这类任务,AI 的应用机会很大。我们解决问题的角度不同,你们服务大量开发者,我们更多是 把 AI 作为提升内部效率、改进 Llama 模型的工具。
Satya Nadella: 另一方面,Bill 创立 Microsoft 时就是一家工具公司。现在我们或许应该重新构想为 AI Agent 设计的工具和基础设施。即便是 Swee Agent 也需要工具,这些工具、基础设施、沙箱环境该是什么形态?我们未来要做的很多工作,本质上就是演进 GitHub 代码仓库结构,使之更适合 Swee Agent 使用。
Mark Zuckerberg: 这个想法非常有意思。我倾向于认为,未来每位工程师都会更像一个技术负责人,带领着一支由工程 AI Agent 组成的“小团队”协同工作。
七、AI将打破软件边界,实现从意图到动态成果的流畅转换,并融合不同工具
Mark Zuckerberg: 你个人使用 AI 的工作流程发生了哪些变化?另外,如果你今天作为开发者从零开始,会如何选择使用的工具?
Satya Nadella: Bill Gates 过去常探讨的是, 文档、应用程序和网站之间的界限到底在哪里? 现在,当你使用 Meta AI、ChatGPT、Copilot 等工具时,一个聊天会话和我们内部称为“页面”的东西之间的区别也变得模糊了。
例如,我可以进行聊天会话收集信息 (比如关于 Llama 4) ,然后整合保存到一个“页面”文档,甚至基于此生成应用。这种从高层级意图出发,最终生成动态、鲜活成果 (过去可能称为“应用程序”) 的理念,将对工作流程产生深远影响。我们正处在这个变革的起点。作为基础设施和工具的构建者及用户,我希望我们能超越因过去技术限制而产生的类别界限。
我们过去一直思考为何 Word、Excel、PowerPoint 要各自独立,多次尝试融合未果。但现在有了 AI,可以真正构想这种融合。你可以从核心内容出发,将数据可视化成表格,然后进行演示,所有这些都可作为统一数据结构存储。过去那种缺乏的可塑性,现在终于实现了。
八、AI是关键的新生产要素,但其经济影响的显现需要时间与系统性变革
Mark Zuckerberg: 当前围绕 AI 有很多炒作,你总能洞察其本质并理性投资。你曾提到 AI 若要带来生产力巨大提升,最终需反映在 GDP 增长上,但这需要数年时间。对此有何最新看法?我们应关注哪些迹象?未来三、五、七年,你预期它会发展到什么程度?
Satya Nadella: 对 Microsoft 而言,AI 是生存攸关的战略重点。世界确实需要一个新的生产要素来应对挑战。要实现发达国家 10% 的增长 (堪比工业革命鼎盛期) ,所有领域都必须提升生产力。AI 为此展现了潜力,但现在必须让它带来实质的生产力变革。
这不仅需要软件,还需要管理革新,人们必须学会用不同的方式与 AI 协作。就像电力出现 50 年后,人们才意识到必须彻底改造工厂才能有效利用它。我们现在处于某个中间阶段,希望不必耗时 50 年。 仅仅将 AI 视为替代旧工具的“无马的马车”,并不能带来真正的跨越。 技术本身需要进步,更要融入实际系统,才能交付新的工作方式、成果和流程。
九、“蒸馏工厂”:释放大小模型协同潜力
Mark Zuckerberg: 我们都在大力投资,期望不必等待 50 年。我们还没深入讨论“蒸馏工厂”的概念,以及你打算如何整合面向开源社区构建的众多 AI 模型,还有支持这一切所需的基础设施。
Satya Nadella: 这正是开源的核心价值之一:利用现有大模型 (如 Llama 系列) ,将其蒸馏成更小,甚至结构相同的模型,是一个关键应用场景。围绕此构建工具并作为服务提供,能有效降低使用门槛。部署和运行大模型需要庞大基础设施,不是人人必需。若将其云服务化并辅以工具,最终交付的就是蒸馏后的模型。
例如,Microsoft 365 的每个租户若能拥有一个经蒸馏的特定任务模型,作为 AI Agent 或工作流,便可从 Copilot 内部调用。这是一个突破性的场景。我们希望通过“蒸馏工厂”简化这个过程,实现一个大模型到多个蒸馏模型之间 “一对多,进而服务多” 的关系,这些蒸馏模型可与 GitHub Copilot 或 Copilot 内的其他工作流组合,通过 MCP 服务器调用其他 AI Agent。
Mark Zuckerberg: 我对此非常着迷。蒸馏是开源最强大的能力之一。考虑到我们的角色分工——我们训练 Llama 初始模型,但不自建大部分开发者基础设施——由 Microsoft 这样的公司构建复杂基础设施很有意义。我们研发中的 Behemoth 模型,除了蒸馏成更实用的形态,其直接用途尚不明朗。即使内部使用,我们也需构建大量基础设施进行后训练,无意直接在 Behemoth 上运行推理。
Satya Nadella: 你提到 Maverick 就是从它蒸馏出来的。
Mark Zuckerberg: Maverick 很大程度上是这样来的,其卓越性能也得益于此。它是领先的多模态模型,文本处理能力与顶尖纯文本模型相当,但体积更小,还具备图像和多模态处理能力。我们能做到这一点,是因为完成了 Behemoth 的预训练并正进行后训练。
蒸馏的过程本身就很神奇:能将规模大 20 倍的模型的 90%~95% 的智能,压缩到成本更低、效率更高的形态中。问题在于,如何让缺乏自建基础设施能力、技术不那么复杂的开发者也能使用?目前全球能进行此类蒸馏或运行同等规模模型的实验室还很少。当你的愿景实现时,全球多数开发者不仅能从单一模型蒸馏,还能随时间推移,自由混合匹配,汲取不同模型的优势能力。这将是未来最激动人心的进展之一。
Satya Nadella: 的确如此。随之而来的问题是,若从多个模型进行蒸馏,如何评估最终模型的质量和适用性?我们可以投入大量精力开发工具和建设基础设施,降低门槛,赋予人们这种灵活性。好在这一切已经开始,可行性已有实例证明。
关键在于能否显著降低构建门槛,以及跟上迭代的速度。当前的挑战之一是:基于某模型进行微调后,新版本很快发布,开发者需要快速迁移。我们必须提升这种适应能力,因为不能被过去的工作所束缚,世界变化太快。
Mark Zuckerberg: 开发者需要不同形态的模型。Llama 4 每个专家 170 亿参数的结构,是为 Meta 的 H100 设计的。一些开源模型虽智能,但推理效率不高。我们的模型是为服务器生产环境构建的。开源社区甚至需要更小的模型,最受欢迎的 Llama 3 是 8B 版本。我们也在研发更小版本 (Little Lama) 。关键在于能将大模型的智能通过蒸馏转换成所需形态,使其能在笔记本、手机等任意终端运行。
Satya Nadella: 很高兴看到你也在研究此方向。若能实现混合模型,例如结合专家混合模型 (MOEs) 与“思考模型”,并灵活获得理想的延迟或“思考时间”,那将是我们共同追求的目标。
Mark Zuckerberg: 纵观 AI 当前进展,未来几年,开发者的创造最让你乐观或期待的是什么?
Satya Nadella: 我常从 Bob Dylan 的歌词中汲取力量: “你要么忙于新生,要么忙于走向衰亡。” 活在当下,最好选择“忙于新生”。尤其在此变革时代,令我乐观的是,尽管存在限制,以 AI 为代表的新型软件仍是最具可塑性的资源,用以解决棘手难题。这也是我乐观的源泉,同时向各位发出行动号召:抓住机遇,积极投身,构建实际解决方案。无论是企业的 IT 积压,还是现实世界的难题,都需要新方法。这正是 AI 技术价值所在,最终实现有赖于开发者们勇于探索、无所畏惧的精神。
Mark Zuckerberg: 谢谢 Satya,也谢谢各位莅临。这是激动人心的一天,我对我们共同构建的未来充满期待。
关于本期对话:
访谈发布时间:2025年4月30日
原视频地址:https://www.youtube.com/live/FZ-RZ0dKO8o?si=SU4ojMgF-gzSmgzF
本文来自微信公众号: 数字开物 ,编译整理:数字开物团队