开源 AI 编辑器:第二个里程碑
2025 年 11 月 6 日,来自 VS Code 团队
在 五月,我们宣布了将 VS Code 打造成开源 AI 编辑器的初步计划,并在 六月 达到了第一个里程碑,开源了 GitHub Copilot Chat 扩展。
虽然聊天功能迈出了重要一步,但我们的 AI 功能中仍有一个重要部分:在你输入时出现的内联建议。今天,我们达到了旅程中的下一个里程碑:内联建议现已开源。

一个扩展,相同的用户体验
在过去几年中,VS Code 中的 GitHub Copilot 分为两个扩展:GitHub Copilot 扩展(用于幽灵文本建议)和 GitHub Copilot Chat 扩展(用于聊天和下一步编辑建议)。我们正在努力在单个 VS Code 扩展(Copilot Chat)中提供所有 Copilot 功能。
为了实现这一目标,我们现在正在测试禁用 Copilot 扩展,并从 Copilot Chat 提供所有内联建议。我们已经将绝大多数功能移植到聊天扩展中,因此单个扩展体验的渐进式推广对每个人来说都应该是连贯且透明的。
您的体验不应有任何改变。您将继续获得相同的智能代码建议,以及您已在使用的所有聊天和代理模式功能。如果您遇到任何问题,请报告问题或查看如何使用以前的体验(如果需要)。
作为此次重构的一部分,GitHub Copilot 扩展将在 2026 年初被弃用,这意味着它将从 VS Code Marketplace 中移除。
我们还简化了术语:我们现在使用内联建议来指代所有在您输入时出现的 AI 生成的代码建议(包括幽灵文本和下一步编辑建议)。我们继续努力统一实际的产品体验,包括不同类型建议的 UX 和时机。
探索和贡献
内联建议已在 vscode-copilot-chat 仓库中提供,您可以探索并贡献于其工作原理

- “按建议输入”检测 - 当您输入时,扩展首先检查您是否正在遵循之前的建议,并可以继续显示它而无需发出新的请求
- 缓存 - 如果不是按建议输入,扩展会检查是否可以重用缓存的建议以提高性能
- 重用正在进行的请求 - 如果没有可用的缓存建议,扩展会检查上一次按键是否有尚未完成流式传输的正在进行的 LLM 请求。由于这个正在进行的请求可能与当前请求相似,扩展会重用它而不是发出新的请求并取消正在进行的请求,这显著提高了性能
- 提示构造 - 如果没有可以重用的正在进行的请求,扩展会从当前文件、打开的文件和工作区收集相关上下文,然后将其格式化为发送给 LLM 的提示
- 模型推理 - 扩展从多个提供者请求内联建议:光标当前位置的幽灵文本建议,以及预测您下一步可能编辑的位置的下一步编辑建议。当光标处有幽灵文本建议时,会优先使用它们;否则,使用下一步编辑建议
- 后处理 - 对原始模型输出进行细化,以确保它们符合您的代码风格、缩进和语法
- 多行智能 - 扩展根据信心和上下文决定是显示单行还是多行
性能改进
除了合并为一个扩展之外,这次重构还带来了内联建议的技术改进
- 降低延迟 - 我们修复了网络问题以优化建议的交付方式,使聊天扩展能够更快地提供幽灵文本
- 质量验证 - 我们进行了广泛的实验,以确保延迟或建议质量没有退步
故障排除
与所有更改一样,尽管我们尽了最大的努力,但仍有可能有所遗漏!如果您在使用统一扩展体验时遇到任何问题,您可以通过取消选中统一设置来暂时恢复到以前的双扩展行为

下一步是什么?
我们 OSS 之旅的下一阶段是将 Copilot Chat 扩展中的一些 AI 功能和组件重构到 VS Code 核心中。我们很高兴能与社区一起继续这一旅程,并将开发未来塑造成一个开源 AI 编辑器。
我们将继续积极改进我们的内联建议体验——一如既往,您可以关注我们的迭代计划以获取最新信息

编程愉快!💙
VS Code 团队