【树莓派5】本地部署 DeepSeek 大语言模型
本文介绍了树莓派 5 结合 Ollama 工具实现 DeepSeek 大语言模型的本地部署。
项目介绍
树莓派 5 部署 DeepSeek 大语言模型 (Large Language Model, LLM) 。
准备工作:硬件连接、系统安装、软件更新等;
Ollama部署:使用脚本安装 Ollama 平台,用以快速部署 LLM;
DeepSeek 模型:使用 Ollama 平台快速拉取 R1: 1.5b 轻量化 LLM 并运行实现终端对话;
Page Assist 插件:使用 page assist 浏览器插件,加载本地 LLM 实现聊天界面美化。
硬件连接
将装有 Raspberry Pi OS 系统的 Micro-SD 卡置入目标插槽;
使用 Mini-HDMI 数据线连接显示屏(也可使用 VNC 或 SSH 远程登录);
使用 USB 接口连接鼠标键盘;
使用 LAN 接口连接互联网(或使用 WiFi 连接无线网络);


上述连接检查无误后,使用 5V 3A 直流稳压电源供电;
Ollama
安装 Ollama 工具


终端执行指令
curl -fsSL https://ollama.com/install.sh | sh ollama --version
获取安装脚本,安装完成后查询 ollama 软件版本号;


DeepSeek
进入 Ollama 官网,网页上方的搜索栏中输入 deepseek,选择目标轻量化模型 R1: 1.5b,复制该模型名称


拉取 DeepSeek R1 1.5B 模型
ollama pull deepseek-r1:1.5b ollama list


查询已安装的模型列表


运行模型
ollama run deepseek-r1:1.5b
可在终端输入语句进行 AI 对话


Ctrl + D 即可退出对话模式。
Page Assist
为了美化对话界面,使用 Page Assist 网页插件实现本地模型对话。


终端执行 firefox 打开树莓派浏览器(这里以 Firefox 为例);
点击右上角的插件图标,进入扩展商店,搜索并加载 Page Assist 插件;


点击 Extensions 图标进入扩展选项,点击右上角 Page Assist 插件并打开主页;
标签栏选择 Ollama 已安装的模型,如 deepseek-r1:1.5b ;
底部对话框输入内容,即可对话,支持 emoji 表情和 LaTeX 公式显示;


聊天结束可直接关闭浏览器;
终端执行 ollama stop deepseek-r1:1.5b 结束进程。
总结
本文介绍了树莓派 5 结合 Ollama 工具实现 DeepSeek 大语言模型的本地部署,并使用 Page Assist 浏览器插件实现对话界面的美化,为树莓派相关产品在 LLM 领域的快速开发和应用设计提供了参考。
我要赚赏金
