在 VS Code 中试用

AI 工具包常见问题

模型

如何查找我的远程模型终结点和身份验证标头?

以下是一些在常见 OpenAI 服务提供商中查找终结点和身份验证标头的示例。对于其他提供商,您可以查阅其关于聊天补全终结点和身份验证标头的文档。

示例 1:Azure OpenAI

  1. 转到 Azure OpenAI Studio 中的**部署**边栏选项卡,选择一个部署,例如 `gpt-4o`。如果您还没有部署,请查阅Azure OpenAI 文档以了解如何创建部署。

    Select model deployment

  2. 在**终结点**部分中的**目标 URI** 字段中检索您的聊天补全终结点

    Find model endpoint

  3. 从**终结点**部分中的**密钥**属性获取 API 密钥。

    复制 API 密钥后,将其以 `api-key: ` 的格式添加到 AI 工具包的身份验证标头中。请参阅Azure OpenAI 服务文档,了解有关身份验证标头的更多信息。

示例 2:OpenAI

  1. 目前,聊天补全终结点固定为 `https://api.openai.com/v1/chat/completions`。请参阅OpenAI 文档以了解更多信息。

  2. 转到OpenAI 文档,选择 `API Keys` 或 `Project API Keys` 来创建或检索您的 API 密钥。

    复制 API 密钥后,将其以 `Authorization: Bearer ` 的格式填充到 AI 工具包的身份验证标头中。有关更多信息,请参阅 OpenAI 文档。

    Find model access key

如何编辑终结点 URL 或身份验证标头?

如果您输入了错误的终结点或身份验证标头,可能会遇到推理错误。

  1. 打开 VS Code `setting.json` 文件

    • 在身份验证失败通知中选择 `Edit settings.json`

      Edit

    • 或者,在命令面板 (⇧⌘P (Windows, Linux Ctrl+Shift+P)) 中输入 `Open User Settings (JSON)`

  2. 搜索 `windowsaistudio.remoteInfereneEndpoints` 设置

  3. 编辑或删除现有终结点 URL 或身份验证标头。

    Edit endpoint in settings

    保存设置后,树视图或训练场中的模型列表将自动刷新。

如何加入 OpenAI o1-mini 或 OpenAI o1-preview 的候补名单?

OpenAI o1 系列模型专门设计用于解决推理和问题解决任务,具有更高的专注度和能力。这些模型花费更多时间处理和理解用户的请求,使其在科学、编码、数学和类似领域表现出色。例如,o1 可用于医疗保健研究人员注释细胞测序数据,物理学家生成量子光学所需的复杂数学公式,以及所有领域的开发人员构建和执行多步骤工作流。

重要

o1-preview 模型可供有限访问。要在训练场中试用该模型,需要注册,并且根据 Microsoft 的资格标准授予访问权限。

访问GitHub 模型市场,查找 OpenAI o1-mini 或 OpenAI o1-preview 并加入候补名单。

我可以使用自己的模型或 Hugging Face 的其他模型吗?

如果您的模型支持 OpenAI API 契约,您可以将其托管在云端,并将其作为自定义模型添加到 AI 工具包中。您需要提供关键信息,例如模型终结点 URL、访问密钥和模型名称。

微调

微调设置很多。我需要关注所有这些设置吗?

不,您可以使用默认设置和我们的示例数据集进行测试。您也可以选择自己的数据集,但需要调整一些设置。有关更多信息,请参阅微调教程

AI 工具包未搭建微调项目

安装扩展之前,请务必检查扩展的先决条件

我拥有 NVIDIA GPU 设备但先决条件检查失败

如果您有 NVIDIA GPU 设备,但先决条件检查失败并显示“未检测到 GPU”,请确保已安装最新驱动程序。您可以在NVIDIA 网站上检查和下载驱动程序。

此外,请确保它已安装在路径中。要验证,请从命令行运行 `nvidia-smi`。

我生成了项目但 Conda 激活失败未能找到环境

设置环境时可能出现问题。您可以通过在工作区内部使用 `bash /mnt/[PROJECT_PATH]/setup/first_time_setup.sh` 手动初始化环境。

使用 Hugging Face 数据集时,如何获取它?

在启动 `python finetuning/invoke_olive.py` 命令之前,请确保运行 `huggingface-cli login` 命令。这可确保数据集可以代表您下载。

环境

该扩展在 Linux 或其他系统上可用吗?

是的,AI 工具包可在 Windows、Mac 和 Linux 上运行。

如何禁用我的 WSL 中的 Conda 自动激活?

要在 WSL 中禁用 Conda 安装,请运行 `conda config --set auto_activate_base false`。这会禁用基础环境。

目前支持容器吗?

我们目前正在开发容器支持,并将在未来的版本中启用。

为什么需要 GitHub 和 Hugging Face 凭据?

我们将所有项目模板托管在 GitHub 中,基础模型托管在 Azure 或 Hugging Face 中。这些环境需要一个帐户才能从 API 访问它们。

我下载 Llama2 时出错

请确保通过Llama 2 注册页面请求访问 Llama。这是为了遵守 Meta 的贸易合规性要求。

无法在 WSL 实例内保存项目

由于 AI 工具包操作运行时目前不支持远程会话,因此在连接到 WSL 时无法保存项目。要关闭远程连接,请选择屏幕左下角的“WSL”并选择“关闭远程连接”。

错误:GitHub API 被禁止

我们将项目模板托管在 `microsoft/windows-ai-studio-templates` GitHub 仓库中,并且该扩展使用 GitHub API 加载仓库内容。如果您在 Microsoft,您可能需要授权 Microsoft 组织以避免此类禁止问题。

有关解决方法,请参阅此问题。详细步骤如下:

  1. 从 VS Code 中退出 GitHub 帐户

  2. 重新加载 VS Code 和 AI 工具包,系统将要求您再次登录 GitHub

  3. 重要提示:在浏览器的授权页面中,请务必授权该应用访问 Microsoft 组织

    Authorize Access

无法列出、加载或下载 ONNX 模型

检查 VS Code 输出面板中的 AI 工具包日志。如果看到“代理”错误或“未能获取已下载模型”,请关闭所有 VS Code 实例并重新打开 VS Code。

(此问题是由于底层 ONNX 代理意外关闭导致的,上述步骤用于重新启动代理。)