AI 工具包常见问题解答
模型
如何查找我的远程模型终结点和身份验证标头?
以下是有关如何在常见的 OpenAI 服务提供商中查找终结点和身份验证标头的一些示例。对于其他提供商,您可以查阅其有关聊天完成终结点和身份验证标头的文档。
示例 1:Azure OpenAI
-
转到 Azure OpenAI Studio 中的部署选项卡,然后选择一个部署,例如
gpt-4o。如果您还没有部署,请参阅Azure OpenAI 文档了解如何创建部署。
-
在终结点部分的目标 URI字段中检索您的聊天完成终结点

-
在终结点部分的密钥属性中获取 API 密钥。
复制 API 密钥后,将其以
api-key: <YOUR_API_KEY>的格式添加到 AI 工具包的身份验证标头中。请参阅Azure OpenAI 服务文档以了解有关身份验证标头的更多信息。
示例 2:OpenAI
-
目前,聊天完成终结点固定为
https://api.openai.com/v1/chat/completions。请参阅OpenAI 文档了解更多信息。 -
转到OpenAI 文档并选择API 密钥或项目 API 密钥以创建或检索您的 API 密钥。
复制 API 密钥后,将其以
Authorization: Bearer <YOUR_API_KEY>的格式填充到 AI 工具包的身份验证标头中。有关更多信息,请参阅 OpenAI 文档。
如何编辑终结点 URL 或身份验证标头?
如果输入了错误的终结点或身份验证标头,您可能会在推理过程中遇到错误。
-
打开 VS Code
setting.json文件-
在身份验证失败通知中选择编辑 settings.json

-
或者,在命令面板(⇧⌘P (Windows, Linux Ctrl+Shift+P))中输入打开用户设置(JSON)
-
-
搜索
windowsaistudio.remoteInfereneEndpoints设置 -
编辑或删除现有的终结点 URL 或身份验证标头。

保存设置后,树状视图或游乐场中的模型列表将自动刷新。
如何加入 OpenAI o1-mini 或 OpenAI o1-preview 的等待列表?
OpenAI o1 系列模型专门设计用于解决推理和问题解决任务,并更加专注于和增强能力。这些模型花费更多时间来处理和理解用户的请求,因此在科学、编码、数学和类似领域表现出色。例如,医疗保健研究人员可以使用 o1 来注释细胞测序数据,物理学家可以使用 o1 来生成量子光学所需的复杂数学公式,以及所有领域的开发人员都可以使用 o1 来构建和执行多步工作流程。
o1-preview 模型可供有限访问。要在游乐场中试用该模型,需要注册,并且访问权限根据微软的资格标准授予。
访问GitHub 模型市场以查找 OpenAI o1-mini 或 OpenAI o1-preview 并加入等待列表。
我可以使用自己的模型或来自 Hugging Face 的其他模型吗?
如果您的自有模型支持 OpenAI API 合同,您可以将其托管在云端并作为自定义模型添加到 AI 工具包。您需要提供关键信息,例如模型终结点 URL、访问密钥和模型名称。
微调
微调设置有很多。我需要担心所有这些设置吗?
不需要,您可以仅使用默认设置和我们的示例数据集进行测试。您也可以选择自己的数据集,但需要调整一些设置。有关更多信息,请参阅微调教程。
AI 工具包不生成微调项目脚手架
在安装扩展之前,请务必检查扩展先决条件。
我有 NVIDIA GPU 设备,但先决条件检查失败
如果您有 NVIDIA GPU 设备,但先决条件检查失败并显示“未检测到 GPU”,请确保安装了最新的驱动程序。您可以在NVIDIA 网站上检查并下载驱动程序。
另外,请确保它已安装在路径中。要验证,请从命令行运行 nvidia-smi。
我生成了项目,但 Conda 激活无法找到环境
设置环境时可能出现了问题。您可以通过在工作区内运行 bash /mnt/[PROJECT_PATH]/setup/first_time_setup.sh 来手动初始化环境。
使用 Hugging Face 数据集时,如何获取它?
在运行 python finetuning/invoke_olive.py 命令之前,请确保运行 huggingface-cli login 命令。这可以确保可以代表您下载数据集。
环境
扩展程序在 Linux 或其他系统上工作吗?
是的,AI 工具包可在 Windows、Mac 和 Linux 上运行。
如何在我的 WSL 中禁用 Conda 自动激活
要禁用 WSL 中的 Conda 安装,请运行 conda config --set auto_activate_base false。这将禁用基础环境。
您今天支持容器吗?
我们目前正在研究容器支持,它将在未来的版本中启用。
您为什么需要 GitHub 和 Hugging Face 凭据?
我们将所有项目模板托管在 GitHub 上,基础模型托管在 Azure 或 Hugging Face 上。这些环境需要一个帐户才能通过 API 访问它们。
我收到下载 Llama2 的错误
确保您已通过Llama 2 注册页面请求访问 Llama。这是遵守 Meta 贸易合规性所必需的。
我无法在 WSL 实例内保存项目
由于目前在运行 AI 工具包操作时不支持远程会话,因此在连接到 WSL 时无法保存项目。要关闭远程连接,请选择屏幕左下角的“WSL”,然后选择“关闭远程连接”。
错误:GitHub API 被禁止
我们将项目模板托管在 microsoft/windows-ai-studio-templates GitHub 存储库中,扩展程序使用 GitHub API 来加载存储库内容。如果您在 Microsoft 内部,则可能需要授权 Microsoft 组织以避免出现此类禁止问题。
有关解决方法,请参阅此问题。详细步骤如下
-
从 VS Code 登出 GitHub 帐户
-
重新加载 VS Code 和 AI 工具包,系统将提示您重新登录 GitHub
-
重要提示:在浏览器的授权页面上,请确保授权应用程序访问 Microsoft 组织

无法列出、加载或下载 ONNX 模型
检查 VS Code 输出面板中的 AI 工具包日志。如果看到代理错误或未能获取下载的模型,请关闭所有 VS Code 实例并重新打开 VS Code。
(此问题由底层 ONNX 代理意外关闭引起,上述步骤是重新启动代理。)