DeepSeek本地部署教程-Mac

2025-01-31 162 0

写在前面

在人工智能领域,大型语言模型(LLM)的应用日益广泛,但许多用户希望能够在本地环境中进行部署和运行,以满足特定的数据隐私、定制化需求或离线使用场景。

DeepSeek-R1 是最近非常火爆的一个高性能的 AI 推理模型,专注于数学、代码和自然语言推理任务。

Ollama 作为一种强大的工具,能够轻松帮助用户在本地环境实现大型语言模型(如 DeepSeek-R1)的部署与管理。本文将详细介绍如何通过 Ollama 和 Open WebUI 在本地环境中实现 DeepSeek-R1 的部署与运行,同时为读者提供实际的操作指南和示例。

一.安装 Ollama

1.打开 Ollama 官网https://ollama.com/download,选择Mac 版本下载

2.打开下载好的安装包,按照默认设置安装即可

3.当右上角出现小羊驼时,即电脑上已成功安装并启动了 Ollama

二.安装模型

1.打开 Ollama 官网的模型库页面,选择打开 deepseek-r1

2.在 deepseek-r1 模型页面右上角选择要安装的版本,比如1.5B 或者 7B,这个还是要根据自身电脑的内存来选择

3.点击右侧的复制按钮

4.打开终端,粘贴上一步复制的内容,回车,即可完成模型安装。

5.安装完成后,即可在终端中和 DeepSeek R1 对话了。

接下来让我们来安装一个和ChatGPT 一样的可视化对话页面

三.安装 Docker

1.打开 Docker的官网https://www.docker.com/,根据自己电脑芯片类型选择下载对应的版本

2.下载后,点击安装包打开安装程序,按照默认设置安装 Docker

四.安装 Open WebUI

1.打开 Open WebUI 的 Github 页面https://github.com/open-webui/open-webui

2.我们之前已经安装了 Ollama,所以我们在 Github 页面中找到如下内容

2.点击右侧的复制按钮,复制对应的安装代码

3.打开终端,将刚才复制的代码粘贴,回车运行安装即可

4.安装好了,在 Docker 里面可以看到 Open WebUI 已安装

5.点击 Port 中的链接,打开Open WebUI

6.第一次打开 Open WebUI 会让输入邮箱和设置密码,这些信息都是存在本地的,用来登录使用的,设置成功后即可进入熟悉的 AI 对话页面

相关文章

Flux双截棍加速节点介绍和使用教程
Ollama 常用终端指令
Flux 4步模型Shutter Jaguar资源下载
Flux模型及版本介绍

发布评论