使用 Ollama+cline 打造自己的本地大模型
# 使用 Ollama+cline+VSCode 打造自己的本地大模型
在本教程中,我们将介绍如何使用 Ollama、cline 和 VSCode 来构建和配置自己的本地大模型。我们将涵盖从下载必要的软件到配置本地环境的每一个步骤。
# 一、下载和安装
# 1. 下载 Ollama
Ollama 是一个强大的工具,您可以从其官方网站下载最新版本。请访问以下链接进行下载:
下载完成后,按照安装向导进行安装。
# 2、Ollama常用命令
- 启动ollama服务:
ollama serve
1
- 列出所有模型:
ollama list
ollama ls
1
2
2
- 启动模型(如果没有模型就会直接下载):
ollama run <model>
1
- 停止模型:
ollama stop <model>
1
- 删除模型:
ollama delete <model>
1
- 获取模型信息:
ollama info <model>
1
# 3. Ollama 模型目录
Ollama 模型目录默认在 ~/.ollama 目录下,models目录下有模型文件,如果离线安装可直接复制此文件夹到离线电脑的对应目录
mac os:/Users/<username>/.ollama/models
windows:C:\Users\<username>\.ollama\models
# 4. 下载 VSCode
VSCode 是一款流行的代码编辑器,您可以通过以下链接下载:
下载完成后,按照安装向导进行安装。
# 5. 在 VSCode 中安装 cline
要在 VSCode 中安装 cline 插件,请按照以下步骤操作:
- 打开 VSCode。
- 点击左侧活动栏中的扩展图标,或者使用快捷键
Ctrl+Shift+X(Windows/Linux)或Cmd+Shift+X(macOS)。 - 在扩展市场的搜索栏中输入“cline”。
- 在搜索结果中找到 cline 插件,并点击“安装”按钮。
- 安装完成后,您可以在 VSCode 中使用 cline 提供的功能。
此外,您还可以选择安装 cline Chinese 插件,以获得更好的中文支持。安装方法与上述步骤相同,只需在搜索栏中输入“cline Chinese”即可。
安装成功后,您可以通过命令面板(Ctrl+Shift+P 或 Cmd+Shift+P)搜索 cline 的相关命令来使用该插件。
# 6. cline 插件使用方法
要在 cline 中配置 Ollama 的模型并进行聊天,请按照以下步骤操作:
- 配置 Ollama 模型:
- 打开 VSCode 并确保 cline 插件已安装。
- 在面板中选择 cline 插件。
- 在 cline 插件中,api 提供商选择
ollama,并输入您的 Ollama 服务器的地址(默认为http://localhost:11434)。 - 如本地安装了多个模型,Ollama 会识别到所有模型,并显示在列表中。选择您要使用的模型。
- 确保模型已在本地下载并可用。并点击完成
通过以上步骤,您可以在 cline 中轻松配置和使用 Ollama 模型进行聊天,享受智能对话和编码的乐趣。
# 6. 安装浏览器插件 Page Assist 本AI模型的 web Ui 界面
# 有网络的安装方式
- 打开您的浏览器,访问插件市场(如 Chrome 的 Chrome Web Store 或 Firefox 的 Add-ons)。
- 在搜索栏中输入“Page Assist”。
- 找到 Page Assist 插件后,点击“添加到浏览器”或“安装”按钮。
- 按照提示完成安装。
# 无网络的安装方式
- 在有网络的电脑上,访问插件市场并下载 Page Assist 插件的离线安装包(通常为
.crx或.xpi文件)。 - 将下载的安装包复制到无网络的电脑上。
- 打开浏览器,进入扩展管理页面(如 Chrome 的
chrome://extensions/或 Firefox 的about:addons)。 - 将离线安装包拖拽到扩展管理页面中进行安装。
- 按照提示完成安装。
通过以上步骤,您可以在有网络和无网络的环境中安装 Page Assist 插件,使用本地 AI 模型的 web UI 界面进行交互。
编辑此页 (opens new window)
上次更新: 2025/05/08, 17:50:04