开源 AI 编辑器:第二个里程碑

2025年11月6日,由 VS Code 团队发布

五月,我们宣布了将 VS Code 打造成开源 AI 编辑器的初步计划;并在六月,通过开源 GitHub Copilot Chat 扩展达成了第一个里程碑。

尽管 Chat 是向前迈出的重要一步,但我们 AI 功能的一个重要组成部分尚未开源:即您在输入时出现的“行内建议”(inline suggestions)。今天,我们达成了旅程中的下一个里程碑:行内建议现已开源

PR to OSS suggestions

一个扩展,统一的用户体验

过去几年里,VS Code 中的 GitHub Copilot 被拆分为两个扩展:GitHub Copilot 扩展(用于提供幽灵文本建议)和 GitHub Copilot Chat 扩展(用于聊天和下一次编辑建议)。我们正致力于在单一 VS Code 扩展中提供所有 Copilot 功能:Copilot Chat。

为了实现这一目标,我们目前正在测试禁用 Copilot 扩展,并将所有行内建议统一由 Copilot Chat 提供。我们已将绝大多数功能移植到了聊天扩展中,因此对于每个人来说,这种单一扩展体验的渐进式推广过程应该是连贯且无感的。

您的使用体验不会发生任何改变。 您将继续在输入时获得同样的智能代码建议,以及您已在使用的所有聊天和代理模式功能。如果您遇到任何问题,请提交反馈,或在必要时查看如何使用之前的体验

作为此次重构的一部分,GitHub Copilot 扩展将于 2026 年初弃用,这意味着它将从 VS Code Marketplace 中移除。

我们还简化了术语:我们现在使用行内建议来指代您在输入时出现的所有 AI 生成的代码建议(包括幽灵文本和下一次编辑建议)。我们也继续致力于统一实际的产品体验,包括不同类型建议的 UI/UX 和触发时机。

探索与贡献

随着行内建议在 vscode-copilot-chat 仓库中开放,您可以探索其工作原理并参与贡献:

Flow diagram displaying how inline suggestions work

  1. “按建议输入”检测 - 当您输入时,扩展会首先检查您是否正在采纳之前的建议,若是,则无需发出新请求即可继续显示该建议。
  2. 缓存 - 如果不是按建议输入,扩展会检查缓存的建议是否可以复用,以提升性能。
  3. 复用进行中的请求 - 如果没有可用的缓存建议,扩展会检查是否有来自上一次按键且尚未完成流式传输的 LLM 请求。由于该请求通常与当前请求相似,扩展会直接复用它,而不是发起新请求并取消旧请求,这显著提升了性能。
  4. 提示词构建 - 如果没有可复用的请求,扩展会从当前文件、打开的文件和工作区中收集相关上下文,并将其格式化为提示词发送给 LLM。
  5. 模型推理 - 扩展会向多个提供程序请求行内建议:当前光标位置的幽灵文本建议,以及预测您下一步编辑位置的下一次编辑建议。光标处的幽灵文本建议优先于下一次编辑建议显示。
  6. 后处理 - 模型输出的原始结果会经过优化,以确保符合您的代码风格、缩进和语法。
  7. 多行智能判断 - 扩展会根据置信度和上下文,决定是显示单行还是多行建议。

性能改进

除了合并为一个扩展外,此次重构还对行内建议进行了技术性优化:

  • 降低延迟 - 我们修复了网络问题并优化了建议交付方式,使聊天扩展能够更快地提供幽灵文本。
  • 质量验证 - 我们进行了大量的实验,以确保延迟或建议质量方面没有出现倒退。

故障排除

与所有变更一样,尽管我们竭尽全力,仍有可能出现遗漏。如果您在使用统一后的扩展体验时遇到任何问题,可以通过取消勾选统一化设置,暂时恢复到之前两个扩展并存的模式。

VS Code setting for extension unification

下一步是什么?

我们开源之旅的下一阶段,是将 Copilot Chat 扩展中的部分 AI 功能和组件重构到 VS Code 核心中。我们很高兴能与社区继续携手前行,共同塑造开源 AI 编辑器的开发未来。

我们将持续改进行内建议的使用体验——一如既往,您可以关注我们的迭代计划以获取最新动态。

Inline suggestions section of the October 2025 VS Code iteration plan

欢迎您提供反馈和贡献。随时欢迎提交 Pull Request报告问题

编码愉快! 💙

VS Code 团队

© . This site is unofficial and not affiliated with Microsoft.