这些小活动你都参加了吗?快来围观一下吧!>>
电子产品世界 » 论坛首页 » 活动中心 » 板卡试用 » 【树莓派5】使用Ollama部署AI大模型

共1条 1/1 1 跳转至

【树莓派5】使用Ollama部署AI大模型

助工
2025-06-18 00:43:01     打赏

Ollama 是一个轻量化的本地大模型运行框架,支持在消费级硬件(如树莓派)上部署LLM。其优势在于:

提供预优化模型(如Llama2、Mistral等)

简化安装流程(单命令部署)

支持CPU/GPU混合运算

DeepSeek 是深度求索公司研发的开源大语言模型,特点包括:

强大的中文理解能力

7B/67B等多种参数量版本

兼容GGUF量化格式(适合边缘设备)

树莓派5部署步骤环境准备

    系统要求:Raspberry Pi OS 64-bit(Bookworm版本)

    硬件建议:至少8GB内存 + 主动散热(模型运行时会高负载)

当然,收到的树莓派5 8G开发板足够使用,但是散热。。必须要主动散热,虽然现在不能运行,但是不妨碍安装环境啊。

那么开始。

先打开ollama官网https://ollama.com/  打开后点击

image.png

树莓派用的系统也是linux系统一种,那么继续:
image.png

然后复制命令行:
image.png

在终端中粘贴运行:
image.png
image.png

下载,看网速啦。。

下载完成,最好重启:sudo reboot

然后还是终端,拉取模型,在https://ollama.com/library 中搜索需要的模型,其中如果选https://ollama.com/library/deepseek-r1,那么打开页面后,

image.png

最小的数字,就是最小模型文件:
image.png

这里当然用最小的模型了。

再次点击:
image.png

页面中箭头指示就是运行模型,并自动下载,这里我们先下载模型,使用命令:

ollama pull deepseek-r1:1.5b

就会下载1.1G的文件,自动解压模型,然后就可以使用运行测试了。

终端命令:ollama run deepseek-r1:1.5b

具体内容和其他教程大同小异啦。


总结:

本次测试使用树莓派5,介绍了树莓派系统基本情况,开启SSH,VNC的方式,并更新系统,并介绍了如何安装ollama部署deepseek大模型,以及思考,寻找解决方案的过程,可以为相似问题提供参考解决思路。


共1条 1/1 1 跳转至

回复

匿名不能发帖!请先 [ 登陆 注册 ]