在 AI Toolkit 中构建智能体和提示
智能体构建器以前被称为提示构建器。名称已更改,以更好地反映该功能的能力及其对构建智能体的关注。
AI Toolkit 中的智能体构建器简化了构建智能体的工程工作流,包括提示工程和与 MCP 服务器等工具的集成。它有助于完成常见的提示工程任务:
- 生成入门提示
- 在每次运行中迭代和完善
- 通过提示链和结构化输出分解复杂任务
- 提供易于访问的代码,以便通过 API 无缝集成大型语言模型 (LLM)
智能体构建器还通过工具使用增强了智能应用程序的功能
- 连接到现有 MCP 服务器
- 从脚手架构建新的 MCP 服务器并在智能体构建器中测试
创建、编辑和测试提示
要访问智能体构建器,请使用以下任一选项
- 在 AI Toolkit 视图中,选择 智能体(提示)构建器
- 从模型目录中的模型卡片中选择 在智能体(提示)构建器中尝试
要在智能体构建器中测试提示,请按照以下步骤操作
-
在 模型 中,从下拉列表中选择一个模型,或选择 浏览模型 从模型目录中添加另一个模型。
-
输入 用户提示,并可选择输入 系统提示。
用户提示 是您要发送到模型的输入。可选的系统提示 用于提供具有相关上下文的指令,以指导模型的响应。
提示您可以使用自然语言描述您的项目构想,让 AI 驱动的功能为您生成提示进行实验。
-
选择 运行 将提示发送到所选模型。
-
或者,选择 添加提示 向对话添加更多用户和助手提示,或选择 添加到提示 作为您发送给模型的历史记录和上下文,以进一步指导模型的行为。
-
通过观察模型响应并更改提示来重复上一步骤,以迭代您的提示。
使用 MCP 服务器
MCP 服务器是一种工具,允许您连接到外部 API 和服务,使您的智能体能够执行超出仅生成文本的操作。例如,您可以使用 MCP 服务器访问数据库、调用 Web 服务或与其他应用程序交互。
您可以使用智能体构建器发现和配置特色 MCP 服务器,连接到现有 MCP 服务器或从脚手架构建新的 MCP 服务器。
使用 MCP 服务器可能需要 Node 或 Python 环境。AI Toolkit 将验证您的环境以确保所需的依赖项已安装。安装后,请使用命令 npm install -g npx
安装 npx
。如果您更喜欢 Python,我们建议使用 uv
配置特色 MCP 服务器
AI Toolkit 提供了一个特色 MCP 服务器列表,您可以使用它连接到外部 API 和服务。
要从特色选择中配置 MCP 服务器,请按照以下步骤操作
- 在 工具 部分中,选择 + MCP 服务器,然后在快速选择中选择 + 添加服务器。
- 从下拉列表中选择 使用特色 MCP 服务器。
- 选择一个符合您需求的 MCP 服务器。
- 输入服务器名称。
- 选择您要使用的工具。
使用现有 MCP 服务器
有许多 MCP 服务器的注册表和市场。我们建议从这些参考服务器开始。
要使用现有 MCP 服务器,请按照以下步骤操作
- 在 工具 部分中,选择 + MCP 服务器,然后在快速选择中选择 + 添加服务器。
- 选择 连接到现有 MCP 服务器
- 从下拉列表中选择一个选项,以指定您要如何连接到 MCP 服务器
- 命令 (stdio):运行实现 MCP 协议的本地命令
- HTTP (server-sent events):连接到实现 MCP 协议的远程服务器
- 如果 MCP 服务器有多个工具可用,请选择工具。
- 输入您的提示并选择 运行 来测试连接。
以下是在 AI Toolkit 中配置 文件系统 服务器的示例
- 在 工具 部分中,选择 + MCP 服务器,然后在快速选择中选择 + 添加服务器。
- 选择 连接到现有 MCP 服务器
- 选择 命令 (stdio)注意
有些服务器使用 Python 运行时和
uvx
命令。此过程与使用npx
命令相同。 - 导航到服务器说明并找到
npx
部分。 - 将
command
和args
复制到 AI Toolkit 中的输入框中。对于文件系统服务器示例,它将是npx -y @modelcontextprotocol/server-filesystem /Users/<username>/.aitk/examples
- 输入服务器名称。
- 可选,输入额外的环境变量。某些服务器可能需要额外的环境变量,例如 API 密钥。在这种情况下,AI Toolkit 将在添加工具阶段失败,并会打开一个
mcp.json
文件,您可以在其中按照每个服务器提供的说明输入所需的服务器详细信息。配置完成后
- 返回到 工具 部分并选择 + MCP 服务器
- 从下拉列表中选择您刚刚配置的服务器
- 选择您要使用的工具。
- 选择您要使用的工具。
AI Toolkit 还提供了一个脚手架来帮助您构建新的 MCP 服务器。该脚手架包含 MCP 协议的基本实现,您可以根据需要进行自定义。
构建新的 MCP 服务器
要构建新的 MCP 服务器,请按照以下步骤操作
- 在 工具 部分中,选择 + MCP 服务器,然后在快速选择中选择 + 添加服务器。
- 选择 创建新 MCP 服务器
- 从下拉列表中选择一种编程语言:Python 或 TypeScript
- 选择一个文件夹来创建新的 MCP 服务器项目。
- 输入 MCP 服务器项目的名称。
创建 MCP 服务器项目后,您可以自定义实现以满足您的需求。该脚手架包含 MCP 协议的基本实现,您可以修改它来添加自己的功能。
您还可以使用智能体构建器来测试 MCP 服务器。智能体构建器会将提示发送到 MCP 服务器并显示响应。
请按照以下步骤测试 MCP 服务器
要在您的本地开发机上运行 MCP 服务器,您需要:机器上安装了 Node.js 或 Python。
- 打开 VS Code 调试面板。选择
在智能体构建器中调试
或按F5
开始调试 MCP 服务器。 - 使用 AI Toolkit 智能体构建器测试服务器,使用以下提示
- 系统提示:您是一位天气预报专家,可以根据给定位置提供天气信息。
- 服务器将自动连接到智能体构建器。
- 选择
运行
以使用提示测试服务器。
结构化输出
结构化输出支持可帮助您设计提示,以结构化、可预测的格式交付输出。
要在智能体构建器中使用结构化输出进行测试,请按照以下步骤操作
-
从左侧区域选择 结构化输出,然后选择 json_schema。
-
选择 准备架构,然后选择 选择本地文件 使用您自己的架构,或选择 使用示例 使用预定义架构。
如果您继续使用示例,可以从下拉列表中选择一个架构。
-
选择 运行 将提示发送到所选模型。
-
您还可以通过选择架构名称来编辑架构。
将提示工程集成到应用程序中
在模型和提示的实验结束后,您可以立即通过自动生成的 Python 代码开始编码。
要查看 Python 代码,请按照以下步骤操作
-
选择 查看代码。
-
对于 GitHub 上托管的模型,选择您要使用的推理 SDK。
AI Toolkit 使用提供商的客户端 SDK 为您选择的模型生成代码。对于 GitHub 托管的模型,您可以选择要使用的推理 SDK:Azure AI 推理 SDK 或模型提供商的 SDK,例如 OpenAI SDK 或 Mistral API。
-
生成的代码片段显示在一个新的编辑器中,您可以将其复制到您的应用程序中。
要与模型进行身份验证,您通常需要提供商的 API 密钥。要访问 GitHub 托管的模型,请在您的 GitHub 设置中生成个人访问令牌 (PAT)。
后续步骤
- 为流行的评估器运行评估作业