开源 AI 编辑器:第二个里程碑
2025年11月6日,由 VS Code 团队发布
在五月,我们宣布了将 VS Code 打造成开源 AI 编辑器的初步计划;并在六月,通过开源 GitHub Copilot Chat 扩展达成了第一个里程碑。
尽管 Chat 是向前迈出的重要一步,但我们 AI 功能的一个重要组成部分尚未开源:即您在输入时出现的“行内建议”(inline suggestions)。今天,我们达成了旅程中的下一个里程碑:行内建议现已开源。

一个扩展,统一的用户体验
过去几年里,VS Code 中的 GitHub Copilot 被拆分为两个扩展:GitHub Copilot 扩展(用于提供幽灵文本建议)和 GitHub Copilot Chat 扩展(用于聊天和下一次编辑建议)。我们正致力于在单一 VS Code 扩展中提供所有 Copilot 功能:Copilot Chat。
为了实现这一目标,我们目前正在测试禁用 Copilot 扩展,并将所有行内建议统一由 Copilot Chat 提供。我们已将绝大多数功能移植到了聊天扩展中,因此对于每个人来说,这种单一扩展体验的渐进式推广过程应该是连贯且无感的。
您的使用体验不会发生任何改变。 您将继续在输入时获得同样的智能代码建议,以及您已在使用的所有聊天和代理模式功能。如果您遇到任何问题,请提交反馈,或在必要时查看如何使用之前的体验。
作为此次重构的一部分,GitHub Copilot 扩展将于 2026 年初弃用,这意味着它将从 VS Code Marketplace 中移除。
我们还简化了术语:我们现在使用行内建议来指代您在输入时出现的所有 AI 生成的代码建议(包括幽灵文本和下一次编辑建议)。我们也继续致力于统一实际的产品体验,包括不同类型建议的 UI/UX 和触发时机。
探索与贡献
随着行内建议在 vscode-copilot-chat 仓库中开放,您可以探索其工作原理并参与贡献:

- “按建议输入”检测 - 当您输入时,扩展会首先检查您是否正在采纳之前的建议,若是,则无需发出新请求即可继续显示该建议。
- 缓存 - 如果不是按建议输入,扩展会检查缓存的建议是否可以复用,以提升性能。
- 复用进行中的请求 - 如果没有可用的缓存建议,扩展会检查是否有来自上一次按键且尚未完成流式传输的 LLM 请求。由于该请求通常与当前请求相似,扩展会直接复用它,而不是发起新请求并取消旧请求,这显著提升了性能。
- 提示词构建 - 如果没有可复用的请求,扩展会从当前文件、打开的文件和工作区中收集相关上下文,并将其格式化为提示词发送给 LLM。
- 模型推理 - 扩展会向多个提供程序请求行内建议:当前光标位置的幽灵文本建议,以及预测您下一步编辑位置的下一次编辑建议。光标处的幽灵文本建议优先于下一次编辑建议显示。
- 后处理 - 模型输出的原始结果会经过优化,以确保符合您的代码风格、缩进和语法。
- 多行智能判断 - 扩展会根据置信度和上下文,决定是显示单行还是多行建议。
性能改进
除了合并为一个扩展外,此次重构还对行内建议进行了技术性优化:
- 降低延迟 - 我们修复了网络问题并优化了建议交付方式,使聊天扩展能够更快地提供幽灵文本。
- 质量验证 - 我们进行了大量的实验,以确保延迟或建议质量方面没有出现倒退。
故障排除
与所有变更一样,尽管我们竭尽全力,仍有可能出现遗漏。如果您在使用统一后的扩展体验时遇到任何问题,可以通过取消勾选统一化设置,暂时恢复到之前两个扩展并存的模式。

下一步是什么?
我们开源之旅的下一阶段,是将 Copilot Chat 扩展中的部分 AI 功能和组件重构到 VS Code 核心中。我们很高兴能与社区继续携手前行,共同塑造开源 AI 编辑器的开发未来。
我们将持续改进行内建议的使用体验——一如既往,您可以关注我们的迭代计划以获取最新动态。

欢迎您提供反馈和贡献。随时欢迎提交 Pull Request 和报告问题。
编码愉快! 💙
VS Code 团队