AI 工具包中的模型
AI 工具包支持广泛的生成式 AI 模型。小型语言模型 (SLM) 和大型语言模型 (LLM) 均受支持。
在模型目录中,您可以访问来自各种来源的模型
- GitHub 托管的模型(Llama3、Phi-3、Mistral 模型)
- 发布者托管的模型(OpenAI ChatGPT 模型、Anthropic Claude、Google Gemini)
- 本地下载的模型,例如来自 HuggingFace
- 本地运行的 Ollama 模型
- 连接到自带模型
查找模型
要在模型目录中查找模型
-
在活动栏中选择 AI 工具包视图
-
选择目录 > 模型以打开模型目录
在模型目录中选择模型卡片以查看所选模型的更多详细信息。
-
使用过滤器减少可用模型的列表
-
托管方:AI 工具包支持 GitHub、ONNX、OpenAI、Anthropic、Google 作为模型托管源。
-
发布者:AI 模型的发布者,例如 Microsoft、Meta、Google、OpenAI、Anthropic、Mistral AI 等。
-
任务:目前仅支持
文本生成
。 -
模型类型:筛选可在 CPU、GPU 或 NPU 上远程或本地运行的模型。此过滤器取决于本地可用性。
-
微调支持:显示可用于运行微调的模型。
-
要引用自托管模型或本地运行的 Ollama 模型
-
在模型目录中选择+ 添加模型
-
在模型快速选择中选择 Ollama 模型或自定义模型
-
提供详细信息以添加模型
许可证和登录
某些模型需要发布者或托管服务许可证和帐户才能登录。在这种情况下,在您可以在模型 Playground中运行模型之前,系统会提示您提供此信息。
选择用于测试的模型
AI 工具包使您能够在 Playground 中测试运行模型以进行聊天完成。您可以通过模型目录中模型卡片上的操作获得不同的选项。
- 在 Playground 中试用:加载所选模型以在 Playground 中进行测试,无需下载
- 下载:从 Hugging Face 等来源下载模型
- 在 Playground 中加载:将下载的模型加载到 Playground 中进行聊天
自带模型
AI 工具包的 Playground 也支持远程模型。如果您有可以从 Internet 访问的自托管或已部署模型,您可以将其添加到 AI 工具包并在 Playground 中使用它。
- 将鼠标悬停在树视图中的我的模型上,然后选择
+
图标以将远程模型添加到 AI 工具包。 - 填写请求的信息,例如模型名称、显示名称、模型托管 URL 和可选的身份验证字符串。
添加 Ollama 模型
Ollama 使许多流行的 genAI 模型能够通过 GGUF 量化在本地使用 CPU 运行。如果您在本地计算机上安装了 Ollama 并下载了 Ollama 模型,则可以将它们添加到 AI 工具包中以在模型 Playground 中使用。
先决条件
- AI 工具包 v0.6.2 或更高版本。
- Ollama(在 Ollama v0.4.1 上测试)
将本地 Ollama 添加到 AI 工具包中
-
将鼠标悬停在树视图中的我的模型上,然后选择“+”图标以添加模型
或者,在模型目录或 Playground 中选择 + 添加模型按钮。
-
选择添加 Ollama 模型
-
接下来,选择从 Ollama 库中选择模型
如果您在不同的端点启动 Ollama 运行时,请选择提供自定义 Ollama 端点以指定 Ollama 端点。
-
选择要添加到 AI 工具包的模型,然后选择确定
-
您现在应该在树视图中的模型列表中看到选定的 Ollama 模型。
注意Ollama 模型尚不支持附件。由于我们使用其 OpenAI 兼容端点连接到 Ollama,因此它尚不支持附件。