聊天扩展
Visual Studio Code 的 Copilot Chat 架构使扩展作者能够与 VS Code 中的聊天体验集成。聊天扩展是使用聊天扩展 API 的 VS Code 扩展,通过贡献一个聊天参与者。聊天参与者是领域专家,可以在特定领域内回答用户查询。
用户可以在聊天视图中通过使用 @
符号在提问模式下引用聊天参与者。
或者,你也可以向聊天体验贡献一个语言模型工具。语言模型工具执行特定任务,可以在代理模式下自动调用,或在提问模式或编辑模式下使用 #
手动引用。
概览
聊天参与者的目标是让用户能够使用自然语言提示扩展,并提供领域特定的答案作为回应。
当用户在聊天提示中明确提及 @participant
时,该提示将转发给贡献该特定聊天参与者的扩展。然后,参与者使用 ResponseStream
响应请求。为了提供流畅的用户体验,聊天 API 是基于流的。聊天响应可以包含丰富的内容,例如 Markdown、文件树、命令按钮等。获取有关支持的响应输出类型的更多信息。
聊天参与者可以使用不同的方法来处理用户查询
- 使用 AI 解释请求并生成响应,例如通过使用语言模型 API。
- 将用户请求转发到后端服务,该服务处理请求并返回响应。
- 使用程序逻辑和本地资源生成响应。
为了帮助用户进一步推进对话,参与者可以为每个响应提供后续操作。后续问题是聊天用户界面中显示的建议,可能会给用户一些关于聊天扩展功能方面的启发。
参与者还可以贡献命令,它们是常见用户意图的简写表示法,并由 /
符号表示。然后,扩展可以使用该命令相应地提示语言模型。例如,/explain
是 @workspace
参与者的一个命令,它对应于语言模型应该解释某些代码的意图。
使用语言模型
聊天参与者可以通过多种方式使用语言模型。一些参与者仅使用语言模型来获取自定义提示的答案,例如示例聊天参与者。其他参与者更高级,表现得像自主代理,在语言模型的帮助下调用多个工具。一个这样的高级参与者是内置的 @workspace
,它了解你的工作区并可以回答有关它的问题。在内部,@workspace
由多个工具提供支持:GitHub 的知识图谱,结合语义搜索、本地代码索引和 VS Code 的语言服务。
通过 GitHub Apps 扩展 GitHub Copilot
或者,可以通过创建 GitHub App 来扩展 GitHub Copilot,该 App 在聊天视图中贡献一个聊天参与者。GitHub App 由服务支持,并适用于所有 GitHub Copilot 界面,例如 github.com、Visual Studio 或 VS Code。另一方面,GitHub Apps 无法完全访问 VS Code API。要了解通过 GitHub App 扩展 GitHub Copilot 的更多信息,请参阅GitHub 文档。
链接
聊天用户体验的组成部分
以下屏幕截图显示了示例扩展在 Visual Studio Code 聊天体验中的不同聊天概念。
- 使用
@
语法调用@cat
聊天参与者 - 使用
/
语法调用/teach
命令 - 用户提供的查询,也称为用户提示
- 图标和参与者
fullName
,表示 Copilot 正在使用@cat
聊天参与者 - Markdown 响应,由
@cat
提供 - Markdown 响应中包含的代码片段
@cat
响应中包含的按钮,该按钮调用 VS Code 命令- 聊天参与者提供的建议后续问题
- 聊天输入字段,其中包含由聊天参与者的
description
属性提供的占位符文本
开发聊天扩展
聊天扩展是向聊天视图贡献聊天参与者的扩展。
实现聊天扩展所需的最基本功能是
- 注册聊天参与者,以便用户可以在 VS Code 聊天视图中使用
@
符号调用它。 - 定义一个请求处理程序,该处理程序解释用户的提问,并在聊天视图中返回响应。
你可以通过以下可选功能进一步扩展聊天扩展的功能
- 注册聊天命令,为用户提供常见问题的简写表示法
- 定义建议的后续问题,帮助用户继续对话
作为开发聊天扩展的起点,你可以参考我们的聊天扩展示例。此示例实现了一个简单的猫导师,可以使用猫的比喻来解释计算机科学主题。
注册聊天扩展
创建聊天扩展的第一步是在 package.json
中通过提供唯一的 id
、name
和 description
来注册它。
"contributes": {
"chatParticipants": [
{
"id": "chat-sample.cat",
"name": "cat",
"fullName": "Cat",
"description": "Meow! What can I teach you?",
"isSticky": true
}
]
}
然后,用户可以在聊天视图中使用 @
符号和你提供的 name
来引用聊天参与者。fullName
显示在你的参与者的响应标题区域。description
用作聊天输入字段中的占位符文本。
isSticky
属性控制聊天参与者是否持久,这意味着在用户开始与参与者交互后,参与者名称会自动添加到聊天输入字段的前面。
我们建议使用小写 name
并使用标题大小写 fullName
,以与现有聊天参与者保持一致。获取有关聊天参与者命名约定的更多信息。
某些参与者名称是保留的,如果你使用保留名称,VS Code 将显示你的参与者的完全限定名称(包括扩展 ID)。
需要提前在 package.json
中注册参与者和命令,以便 VS Code 可以在正确的时间激活你的扩展,而不是在需要之前激活。
注册后,你的扩展所要做的就是使用 vscode.chat.createChatParticipant
创建参与者。创建参与者时,你必须提供你在 package.json
中定义的 ID 和请求处理程序。
以下代码片段展示了如何创建 @cat
聊天参与者(在 package.json
中注册后)
export function activate(context: vscode.ExtensionContext) {
// Register the chat participant and its request handler
const cat = vscode.chat.createChatParticipant('chat-sample.cat', handler);
// Optionally, set some properties for @cat
cat.iconPath = vscode.Uri.joinPath(context.extensionUri, 'cat.jpeg');
// Add the chat request handler here
}
注册并创建聊天参与者后,你现在需要实现请求处理程序来处理用户的请求。
实现请求处理程序
请求处理程序负责处理 VS Code 聊天视图中的用户聊天请求。每次用户在聊天输入字段中输入提示时,都会调用聊天请求处理程序。以下是实现聊天请求处理程序的典型步骤
- 定义请求处理程序
- 确定用户请求的意图
- 执行逻辑以回答用户的提问
- 向用户返回响应
定义请求处理程序
你在扩展的 activate
函数中定义请求处理程序(vscode.ChatRequestHandler
)。
以下代码片段展示了如何定义请求处理程序
const handler: vscode.ChatRequestHandler = async (
request: vscode.ChatRequest,
context: vscode.ChatContext,
stream: vscode.ChatResponseStream,
token: vscode.CancellationToken
): Promise<ICatChatResult> => {
// Chat request handler implementation goes here
};
确定请求意图
为了确定用户请求的意图,你可以引用 vscode.ChatRequest
参数来访问用户的提示、命令和聊天位置。或者,你可以利用语言模型来确定用户的意图,而不是使用传统逻辑。作为 request
对象的一部分,你将获得用户在聊天模型下拉列表中选择的语言模型实例。了解如何在扩展中使用语言模型 API。
以下代码片段展示了首先使用命令,然后使用用户提示来确定用户意图的基本结构
const handler: vscode.ChatRequestHandler = async (
request: vscode.ChatRequest,
context: vscode.ChatContext,
stream: vscode.ChatResponseStream,
token: vscode.CancellationToken
): Promise<ICatChatResult> => {
// Test for the `teach` command
if (request.command == 'teach') {
// Add logic here to handle the teaching scenario
doTeaching(request.prompt, request.variables);
} else {
// Determine the user's intent
const intent = determineUserIntent(request.prompt, request.variables, request.model);
// Add logic here to handle other scenarios
}
};
处理请求
接下来,你需要实现处理用户请求的实际逻辑。通常,聊天扩展使用 request.model
语言模型实例来处理请求。在这种情况下,你可能需要调整语言模型提示以匹配用户的意图。或者,你可以通过调用后端服务、使用传统编程逻辑或组合所有这些选项来实现扩展逻辑。例如,你可以调用网络搜索来收集额外信息,然后将其作为上下文提供给语言模型。
在处理当前请求时,你可能希望引用以前的聊天消息。例如,如果以前的响应返回了一个 C# 代码片段,则用户当前的请求可能是“用 Python 提供代码”。了解如何使用聊天消息历史记录。
如果你希望根据聊天输入的 L.O.C.A.T.I.O.N 属性以不同方式处理请求,可以使用 vscode.ChatRequest
的 location
属性。例如,如果用户从终端内联聊天发送请求,你可能会查找 shell 命令。然而,如果用户使用聊天视图,你可能会返回更详细的响应。
返回聊天响应
处理完请求后,你必须在聊天视图中向用户返回响应。聊天扩展可以使用流式传输来响应用户查询。响应可以包含不同的内容类型:Markdown、图像、引用、进度、按钮和文件树。例如,要生成此响应
扩展可以通过以下方式使用响应流
stream.progress('Picking the right topic to teach...');
stream.markdown(`\`\`\`typescript
const myStack = new Stack();
myStack.push(1); // pushing a number on the stack (or let's say, adding a fish to the stack)
myStack.push(2); // adding another fish (number 2)
console.log(myStack.pop()); // eating the top fish, will output: 2
\`\`\`
So remember, Code Kitten, in a stack, the last fish in is the first fish out - which we tech cats call LIFO (Last In, First Out).`);
stream.button({
command: 'cat.meow',
title: vscode.l10n.t('Meow!'),
arguments: []
});
获取有关支持的聊天响应输出类型的更多信息。
实际上,扩展通常会向语言模型发送请求。一旦它们从语言模型获得响应,它们可能会进一步处理它,并决定是否应将任何内容流回给用户。VS Code 聊天 API 是基于流的,并且与流式语言模型 API 兼容。这允许扩展持续报告进度和结果,以实现流畅的用户体验。了解如何使用语言模型 API。
使用聊天消息历史记录
参与者可以访问当前聊天会话的消息历史记录。参与者只能访问提及它的消息。history
项是 ChatRequestTurn
或 ChatResponseTurn
。例如,使用以下代码片段检索用户在当前聊天会话中发送给你的参与者的所有先前请求
const previousMessages = context.history.filter(h => h instanceof vscode.ChatRequestTurn);
历史记录不会自动包含在提示中,由参与者决定是否在将消息传递给语言模型时将历史记录添加为附加上下文。
注册命令
聊天参与者可以贡献命令,这些命令是扩展提供的特定功能的快捷方式。用户可以使用 /
语法在聊天中引用命令,例如 /explain
。
回答问题时的任务之一是确定用户意图。例如,VS Code 可以推断 Create a new workspace with Node.js Express Pug TypeScript
意味着你想要一个新项目,但 @workspace /new Node.js Express Pug TypeScript
更明确、简洁,并节省了打字时间。如果你在聊天输入字段中输入 /
,VS Code 会提供一个已注册命令及其描述的列表。
聊天参与者可以通过在 package.json
中添加命令及其描述来贡献命令
"contributes": {
"chatParticipants": [
{
"id": "chat-sample.cat",
"name": "cat",
"fullName": "Cat",
"description": "Meow! What can I teach you?",
"isSticky": true,
"commands": [
{
"name": "teach",
"description": "Pick at random a computer science concept then explain it in purfect way of a cat"
},
{
"name": "play",
"description": "Do whatever you want, you are a cat after all"
}
]
}
]
}
获取有关斜杠命令命名约定的更多信息。
注册后续请求
在每个聊天请求之后,VS Code 会调用后续提供程序以获取建议的后续问题显示给用户。然后用户可以选择后续问题,并立即将其发送给聊天扩展。后续问题可以为用户提供启发,以进一步推进对话,或发现聊天扩展的更多功能。
以下代码片段展示了如何在聊天扩展中注册后续请求
cat.followupProvider = {
provideFollowups(result: ICatChatResult, context: vscode.ChatContext, token: vscode.CancellationToken) {
if (result.metadata.command === 'teach') {
return [{
prompt: 'let us play',
title: vscode.l10n.t('Play with the cat')
} satisfies vscode.ChatFollowup];
}
}
};
后续问题应以问题或指示的形式编写,而不仅仅是简洁的命令。
实现参与者检测
为了更容易地使用自然语言聊天参与者,你可以实现参与者检测。参与者检测是一种自动将用户问题路由到合适参与者的方式,而无需在提示中明确提及参与者。例如,如果用户提问“如何将登录页面添加到我的项目?”,该问题将自动路由到 @workspace
参与者,因为它可以回答有关用户项目的问题。
VS Code 使用聊天参与者描述和示例来确定将聊天提示路由到哪个参与者。你可以在扩展的 package.json
文件中的 disambiguation
属性中指定此信息。disambiguation
属性包含一个检测类别列表,每个类别都有描述和示例。
属性 | 描述 | 示例 |
---|---|---|
类别 |
检测类别。如果参与者有不同的目的,可以为每个目的设置一个类别。 |
|
描述 |
适合此参与者的问题类型的详细描述。 |
|
例子 |
代表性的示例问题列表。 |
|
你可以为整个聊天参与者、特定命令或两者的组合定义参与者检测。
以下代码片段展示了如何在参与者级别实现参与者检测。
"contributes": {
"chatParticipants": [
{
"id": "chat-sample.cat",
"fullName": "Cat",
"name": "cat",
"description": "Meow! What can I teach you?",
"disambiguation": [
{
"category": "cat",
"description": "The user wants to learn a specific computer science topic in an informal way.",
"examples": [
"Teach me C++ pointers using metaphors",
"Explain to me what is a linked list in a simple way",
"Can you explain to me what is a function in programming?"
]
}
]
}
]
}
同样,你也可以通过在 commands
属性中的一个或多个项上添加 disambiguation
属性来配置命令级别的参与者检测。
遵循以下准则以提高扩展的参与者检测准确性
- 具体化:描述和示例应尽可能具体,以避免与其他参与者发生冲突。避免在参与者和命令信息中使用通用术语。
- 使用示例:示例应具有代表性,能说明适合该参与者的问题类型。使用同义词和变体来涵盖广泛的用户查询。
- 使用自然语言:描述和示例应使用自然语言编写,就像你在向用户解释参与者一样。
- 测试检测:使用不同的示例问题测试参与者检测,并验证是否与内置聊天参与者没有冲突。
内置聊天参与者在参与者检测中具有优先权。例如,在工作区文件上操作的聊天参与者可能与内置的 @workspace
参与者发生冲突。
支持的聊天响应输出类型
要返回聊天请求的响应,请使用 ChatResponseStream
参数在 ChatRequestHandler
上。
以下列表提供了聊天视图中聊天响应的输出类型。聊天响应可以组合多种不同的输出类型。
-
Markdown
渲染 Markdown 文本片段(简单文本或图像)。你可以使用 CommonMark 规范中的任何 Markdown 语法。使用
ChatResponseStream.markdown
方法并提供 Markdown 文本。示例代码片段
// Render Markdown text stream.markdown('# This is a title \n'); stream.markdown('This is stylized text that uses _italics_ and **bold**. '); stream.markdown('This is a [link](https://vscode.js.cn).\n\n'); stream.markdown('');
-
代码块
渲染支持 IntelliSense、代码格式化和交互式控件的代码块,以将代码应用到活动编辑器。要显示代码块,请使用
ChatResponseStream.markdown
方法并应用代码块的 Markdown 语法(使用反引号)。示例代码片段
// Render a code block that enables users to interact with stream.markdown('```bash\n'); stream.markdown('```ls -l\n'); stream.markdown('```');
-
命令链接
在聊天响应中渲染一个内联链接,用户可以选择该链接来调用 VS Code 命令。要显示命令链接,请使用
ChatResponseStream.markdown
方法并使用链接的 Markdown 语法[链接文本](command:命令ID)
,其中在 URL 中提供命令 ID。例如,以下链接打开命令面板:[命令面板](command:workbench.action.showCommands)
。为了在从服务加载 Markdown 文本时防止命令注入,你必须使用一个
vscode.MarkdownString
对象,并将其isTrusted
属性设置为受信任的 VS Code 命令 ID 列表。此属性是使命令链接正常工作所必需的。如果未设置isTrusted
属性或未列出命令,则命令链接将无法工作。示例代码片段
// Use command URIs to link to commands from Markdown let markdownCommandString: vscode.MarkdownString = new vscode.MarkdownString( `[Use cat names](command:${CAT_NAMES_COMMAND_ID})` ); markdownCommandString.isTrusted = { enabledCommands: [CAT_NAMES_COMMAND_ID] }; stream.markdown(markdownCommandString);
如果命令接受参数,你需要首先对参数进行 JSON 编码,然后将 JSON 字符串编码为 URI 组件。然后将编码后的参数作为查询字符串附加到命令链接。
// Encode the command arguments const encodedArgs = encodeURIComponent(JSON.stringify(args)); // Use command URIs with arguments to link to commands from Markdown let markdownCommandString: vscode.MarkdownString = new vscode.MarkdownString( `[Use cat names](command:${CAT_NAMES_COMMAND_ID}?${encodedArgs})` ); markdownCommandString.isTrusted = { enabledCommands: [CAT_NAMES_COMMAND_ID] }; stream.markdown(markdownCommandString);
-
命令按钮
渲染一个调用 VS Code 命令的按钮。该命令可以是内置命令,也可以是你扩展中定义的命令。使用
ChatResponseStream.button
方法并提供按钮文本和命令 ID。示例代码片段
// Render a button to trigger a VS Code command stream.button({ command: 'my.command', title: vscode.l10n.t('Run my command') });
-
文件树
渲染一个文件树控件,允许用户预览单个文件。例如,在建议创建新工作区时显示工作区预览。使用
ChatResponseStream.filetree
方法并提供文件树元素数组和文件的基本位置(文件夹)。示例代码片段
// Create a file tree instance var tree: vscode.ChatResponseFileTree[] = [ { name: 'myworkspace', children: [{ name: 'README.md' }, { name: 'app.js' }, { name: 'package.json' }] } ]; // Render the file tree control at a base location stream.filetree(tree, baseLocation);
-
进度消息
在长时间运行的操作期间渲染进度消息,以向用户提供中间反馈。例如,报告多步操作中每个步骤的完成情况。使用
ChatResponseStream.progress
方法并提供消息。示例代码片段
// Render a progress message stream.progress('Connecting to the database.');
-
引用
在引用列表中添加外部 URL 或编辑器位置的引用,以指示你作为上下文使用的信息。使用
ChatResponseStream.reference
方法并提供引用位置。示例代码片段
const fileUri: vscode.Uri = vscode.Uri.file('/path/to/workspace/app.js'); // On Windows, the path should be in the format of 'c:\\path\\to\\workspace\\app.js' const fileRange: vscode.Range = new vscode.Range(0, 0, 3, 0); const externalUri: vscode.Uri = vscode.Uri.parse('https://vscode.js.cn'); // Add a reference to an entire file stream.reference(fileUri); // Add a reference to a specific selection within a file stream.reference(new vscode.Location(fileUri, fileRange)); // Add a reference to an external URL stream.reference(externalUri);
-
内联引用
添加对 URI 或编辑器位置的内联引用。使用
ChatResponseStream.anchor
方法并提供锚点位置和可选标题。要引用符号(例如,类或变量),你将使用编辑器中的位置。示例代码片段
const symbolLocation: vscode.Uri = vscode.Uri.parse('location-to-a-symbol'); // Render an inline anchor to a symbol in the workspace stream.anchor(symbolLocation, 'MySymbol');
重要:图像和链接仅在它们源自受信任域列表中的域时才可用。获取有关 VS Code 中的链接保护的更多信息。
实现工具调用
为了响应用户请求,聊天扩展可以调用语言模型工具。了解更多关于语言模型工具和工具调用流程的信息。
你可以通过两种方式实现工具调用
- 通过使用
@vscode/chat-extension-utils
库来简化聊天扩展中调用工具的过程。 - 通过自己实现工具调用,这让你对工具调用过程有更多的控制。例如,在将工具响应发送到 LLM 之前执行额外的验证或以特定方式处理工具响应。
使用聊天扩展库实现工具调用
你可以使用 @vscode/chat-extension-utils
库来简化聊天扩展中调用工具的过程。
在你的聊天参与者的 vscode.ChatRequestHandler
函数中实现工具调用。
-
确定当前聊天上下文的相关工具。你可以使用
vscode.lm.tools
访问所有可用工具。以下代码片段展示了如何过滤工具,使其仅包含具有特定标签的工具。
const tools = request.command === 'all' ? vscode.lm.tools : vscode.lm.tools.filter(tool => tool.tags.includes('chat-tools-sample'));
-
使用
sendChatParticipantRequest
将请求和工具定义发送到 LLM。const libResult = chatUtils.sendChatParticipantRequest( request, chatContext, { prompt: 'You are a cat! Answer as a cat.', responseStreamOptions: { stream, references: true, responseText: true }, tools }, token );
ChatHandlerOptions
对象具有以下属性prompt
:(可选)聊天参与者提示的说明。model
:(可选)用于请求的模型。如果未指定,则使用聊天上下文中的模型。tools
:(可选)要考虑用于请求的工具列表。requestJustification
:(可选)描述发出请求原因的字符串。responseStreamOptions
:(可选)启用sendChatParticipantRequest
将响应流回 VS Code。或者,你也可以启用引用和/或响应文本。
-
从 LLM 返回结果。这可能包含错误详细信息或工具调用元数据。
return await libResult.result;
此工具调用示例的完整源代码可在 VS Code 扩展示例存储库中找到。
自己实现工具调用
对于更高级的场景,你也可以自己实现工具调用。或者,你可以使用 @vscode/prompt-tsx
库来制作 LLM 提示。通过自己实现工具调用,你可以更好地控制工具调用过程。例如,在将工具响应发送到 LLM 之前执行额外的验证或以特定方式处理工具响应。
在 VS Code 扩展示例存储库中查看使用 prompt-tsx 实现工具调用的完整源代码。
衡量成功
我们建议你通过为“不满意”用户反馈事件和参与者处理的总请求数添加遥测日志来衡量参与者的成功。然后,可以将初始参与者成功指标定义为:不满意反馈计数 / 总请求数
。
const logger = vscode.env.createTelemetryLogger({
// telemetry logging implementation goes here
});
cat.onDidReceiveFeedback((feedback: vscode.ChatResultFeedback) => {
// Log chat result feedback to be able to compute the success metric of the participant
logger.logUsage('chatResultFeedback', {
kind: feedback.kind
});
});
用户与你的聊天响应的任何其他交互都应被视为积极指标(例如,用户选择聊天响应中生成的按钮)。在使用 AI 时,通过遥测衡量成功至关重要,因为它是一种非确定性技术。运行实验,衡量并迭代改进你的参与者,以确保良好的用户体验。
命名限制和约定
聊天参与者命名约定
属性 | 描述 | 命名指南 |
---|---|---|
ID |
聊天参与者的全局唯一标识符 |
|
名称 |
聊天参与者的名称,用户通过 @ 符号引用 |
|
全名 |
(可选)参与者的全名,显示为来自参与者的响应的标签 |
|
描述 |
(可选)聊天参与者功能的简短描述,显示为聊天输入字段中的占位符文本或参与者列表中的文本 |
|
在任何面向用户的元素中提及你的聊天参与者时,例如属性、聊天响应或聊天用户界面,建议不要使用“参与者”一词,因为它是 API 的名称。例如,@cat
扩展可以称为“GitHub Copilot 的猫扩展”。
斜杠命令命名约定
属性 | 描述 | 命名指南 |
---|---|---|
名称 |
斜杠命令的名称,用户通过 / 符号引用 |
|
描述 |
(可选)斜杠命令功能的简短描述,显示为聊天输入字段中的占位符文本或参与者和命令列表中的文本 |
|
指南
聊天参与者不应该仅仅是问答机器人。在构建聊天参与者时,发挥创意,使用现有的 VS Code API 在 VS Code 中创建丰富的集成。用户也喜欢丰富便捷的交互,例如响应中的按钮,将用户带到聊天的参与者菜单项。思考 AI 可以帮助用户的实际场景。
并非每个扩展都适合贡献聊天参与者。聊天中过多的参与者可能会导致糟糕的用户体验。当你想完全控制提示,包括对语言模型的指令时,聊天参与者是最佳选择。你可以重用精心设计的 Copilot 系统消息,并向其他参与者贡献上下文。
例如,语言扩展(如 C++ 扩展)可以通过多种其他方式贡献功能
- 贡献工具,将语言服务智能带到用户查询。例如,C++ 扩展可以将
#cpp
工具解析为工作区的 C++ 状态。这为 Copilot 语言模型提供了正确的 C++ 上下文,以提高 Copilot 对 C++ 答案的质量。 - 贡献智能操作,使用语言模型(可选地与传统语言服务知识结合)提供出色的用户体验。例如,C++ 可能已经提供了一个“提取到方法”智能操作,该操作使用语言模型为新方法生成一个合适的默认名称。
如果聊天扩展即将执行耗费资源的操作或即将编辑或删除无法撤销的内容,应明确征求用户同意。为了提供出色的用户体验,我们不鼓励扩展贡献多个聊天参与者。每个扩展最多一个聊天参与者是一种简单且在 UI 中扩展性良好的模型。
发布你的扩展
创建 AI 扩展后,可以将其发布到 Visual Studio Marketplace
- 在发布到 VS Marketplace 之前,我们建议你阅读Microsoft AI 工具和实践指南。这些指南提供了负责任地开发和使用 AI 技术的最佳实践。
- 通过发布到 VS Marketplace,你的扩展符合GitHub Copilot 扩展性可接受开发和使用政策。
- 按照发布扩展中的描述上传到 Marketplace。
- 如果你的扩展已经提供了聊天之外的功能,我们建议你不要在扩展清单中引入对 GitHub Copilot 的扩展依赖。这确保了不使用 GitHub Copilot 的扩展用户可以使用非聊天功能,而无需安装 GitHub Copilot。