
第一步:http://ollama.com上下载macos版本

第二步:下载模型
打开终端,运行下面的命令,下载llama3模型权重。有8B和70B模型,需要用哪个就下载哪个。8B模型4.7GB,70B模型39GB。如果是自己日常使用,建议8B就可以了。
首先在mac中打开终端。(快捷键:Command + Space,输入 Terminal)

第三步输入ollama pull llama3
ollama pull llama3

第四步:安装docker和open webui
4.1安装 Docker
如果 Mac 上没有安装 Docker,可以前往Docker 官网(http://docker.com)下载适合 Mac 的版本进行安装。安装完成后,打开 Docker 程序并注册一个 Docker 账号。

4.2安装OPEN WEBUI
打开终端,输入以下命令

代码如下
docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always http://ghcr.io/open-webui/open-webui:main
这条命令将会拉取最新的 Open WebUI 镜像,并将其映射到主机的 3000 端口上,还设置了持久化存储路径以及自动重启策略。
安装完成后,在浏览器中访问http://localhost:3000
,首次访问时建议创建一个管理员账户,之后就可以根据具体需求选择相应的模型进行使用了

第五步安装DeepSeek R1
5.1下载 DeepSeek 模型
打开 Mac 终端,在终端中输入以下命令来下载 DeepSeek 模型(以下载 8b 版本为例):

代码:ollama pull deepseek-r1:8b
5.2运行 DeepSeek 模型
下载完成后,在终端中输入以下命令来运行 DeepSeek 模型:

运行 DeepSeek 模型
下载完成后,在终端中输入以下命令来运行 DeepSeek 模型:
ollama run deepseek-r1:8b
下图为下载和运行DeepSeek的图片

第六步:在 Open Web UI 中配置 DeepSeek
- 打开 Open Web UI 应用程序。
- 在 Open Web UI 的设置中,找到模型提供方的选项,选择 “Ollama”。
- 在模型列表中,选择已安装的 DeepSeek 模型(如 deepseek-r1:8b)。
