这些小活动你都参加了吗?快来围观一下吧!>>
电子产品世界 » 论坛首页 » DIY与开源设计 » 开源硬件 » 【树莓派5】本地部署DeepSeek大语言模型

共1条 1/1 1 跳转至

【树莓派5】本地部署DeepSeek大语言模型

工程师
2025-12-16 18:20:38     打赏

【树莓派5】本地部署 DeepSeek 大语言模型

本文介绍了树莓派 5 结合 Ollama 工具实现 DeepSeek 大语言模型的本地部署。

项目介绍

树莓派 5 部署 DeepSeek 大语言模型 (Large Language Model, LLM) 。

  • 准备工作:硬件连接、系统安装、软件更新等;

  • Ollama部署:使用脚本安装 Ollama 平台,用以快速部署 LLM;

  • DeepSeek 模型:使用 Ollama 平台快速拉取 R1: 1.5b 轻量化 LLM 并运行实现终端对话;

  • Page Assist 插件:使用 page assist 浏览器插件,加载本地 LLM 实现聊天界面美化。

硬件连接

  • 将装有 Raspberry Pi OS 系统的 Micro-SD 卡置入目标插槽;

  • 使用 Mini-HDMI 数据线连接显示屏(也可使用 VNC 或 SSH 远程登录);

  • 使用 USB 接口连接鼠标键盘;

  • 使用 LAN 接口连接互联网(或使用 WiFi 连接无线网络);

hardware_connect.jpg

  • 上述连接检查无误后,使用 5V 3A 直流稳压电源供电;

Ollama

安装 Ollama 工具

ollama_cover.jpg


终端执行指令

 curl -fsSL https://ollama.com/install.sh | sh
 ollama --version

获取安装脚本,安装完成后查询 ollama 软件版本号;

ollama_install

ollama_install.jpg

DeepSeek

进入 Ollama 官网,网页上方的搜索栏中输入 deepseek,选择目标轻量化模型 R1: 1.5b,复制该模型名称

ollama_deepseek_model.jpg

  • 拉取 DeepSeek R1 1.5B 模型

 ollama pull deepseek-r1:1.5b
 ollama list

ollama_deepseek_model_pull.jpg

  • 查询已安装的模型列表

ollama_list.jpg

  • 运行模型

 ollama run deepseek-r1:1.5b

可在终端输入语句进行 AI 对话

deepseek_talk_cli.jpg

  • Ctrl + D 即可退出对话模式。

Page Assist

为了美化对话界面,使用 Page Assist 网页插件实现本地模型对话。

page_assist.jpg



终端执行 firefox 打开树莓派浏览器(这里以 Firefox 为例);

点击右上角的插件图标,进入扩展商店,搜索并加载 Page Assist 插件;

pageassist_extension.jpg

点击 Extensions 图标进入扩展选项,点击右上角 Page Assist 插件并打开主页;

标签栏选择 Ollama 已安装的模型,如 deepseek-r1:1.5b ;

底部对话框输入内容,即可对话,支持 emoji 表情和 LaTeX 公式显示;

pageassist_ollama_deepseek_talk.jpg

聊天结束可直接关闭浏览器;

终端执行 ollama stop deepseek-r1:1.5b 结束进程。

总结

本文介绍了树莓派 5 结合 Ollama 工具实现 DeepSeek 大语言模型的本地部署,并使用 Page Assist 浏览器插件实现对话界面的美化,为树莓派相关产品在 LLM 领域的快速开发和应用设计提供了参考。






关键词: 树莓派     DeepSeek     Ollama     LLM         

共1条 1/1 1 跳转至

回复

匿名不能发帖!请先 [ 登陆 注册 ]