保姆级教程:在Ubuntu 22.04上用Snap一键安装Ollama GPU版(避坑NVIDIA驱动和CUDA)

张开发
2026/4/5 4:42:58 15 分钟阅读

分享文章

保姆级教程:在Ubuntu 22.04上用Snap一键安装Ollama GPU版(避坑NVIDIA驱动和CUDA)
保姆级教程在Ubuntu 22.04上用Snap一键安装Ollama GPU版避坑NVIDIA驱动和CUDA如果你正在寻找一种简单高效的方法在Ubuntu系统上快速部署Ollama并利用GPU加速大模型推理那么这篇教程就是为你准备的。我们将避开传统安装过程中的各种坑点通过Snap包管理器实现真正的一键式安装让你在10分钟内就能跑起Qwen或DeepSeek等热门大模型。1. 为什么选择Snap安装Ollama在Linux系统上安装软件尤其是涉及GPU加速的应用时传统方法往往需要手动处理驱动、依赖和环境配置这对新手来说简直是噩梦。而Snap方案则提供了几个显著优势完全自动化从驱动检测到服务配置全部自动完成版本隔离不会影响系统已有的Python或CUDA环境安全沙箱所有依赖都打包在独立环境中运行一键回滚如果出现问题可以瞬间恢复到上个版本对比手动安装Snap方式能避免90%的常见错误特别是那些令人头疼的明明按照教程做了却跑不起来的情况。2. 准备工作验证NVIDIA环境在开始之前我们需要确认你的Ubuntu 22.04系统已经正确配置了NVIDIA显卡驱动。打开终端依次执行以下命令# 检查NVIDIA驱动是否安装 nvidia-smi正常情况你会看到类似这样的输出----------------------------------------------------------------------------- | NVIDIA-SMI 535.86.05 Driver Version: 535.86.05 CUDA Version: 12.2 | |--------------------------------------------------------------------------- | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | | | | MIG M. | || | 0 NVIDIA GeForce RTX 4060 Off | 00000000:01:00.0 On | N/A | | 30% 38C P8 10W / 115W | 257MiB / 8192MiB | 0% Default | | | | N/A | ---------------------------------------------------------------------------如果看到类似输出说明驱动已经正确安装。如果没有你需要先安装NVIDIA驱动# 添加官方PPA源 sudo add-apt-repository ppa:graphics-drivers/ppa sudo apt update # 自动安装推荐驱动 sudo ubuntu-drivers autoinstall # 重启系统 sudo reboot提示对于RTX 40系列显卡建议使用535或更高版本的驱动以获得最佳兼容性。3. 一键安装Ollama Snap版现在来到最激动人心的部分 - 真正的一键安装。只需要在终端执行sudo snap install ollama --classic这个命令会自动完成以下工作下载最新稳定版的Ollama Snap包设置必要的系统权限创建服务单元文件配置环境变量安装完成后立即启动服务sudo systemctl start snap.ollama.ollama检查服务状态sudo systemctl status snap.ollama.ollama正常应该看到active (running)的状态提示。如果没有可以查看详细日志journalctl -u snap.ollama.ollama -b4. 配置与优化虽然Snap安装已经处理了大部分配置但我们还是可以做一些优化调整4.1 设置服务自启动sudo systemctl enable snap.ollama.ollama4.2 修改监听地址可选如果你想从局域网其他设备访问Ollamasudo snap set ollama ollama.host0.0.0.0 sudo systemctl restart snap.ollama.ollama4.3 分配更多资源默认情况下Ollama会使用所有可用GPU资源。如果需要限制可以设置环境变量sudo snap set ollama ollama.num_gpu1 # 限制使用1个GPU5. 下载和运行大模型现在可以开始下载并运行各种大模型了。以下是几个常用命令# 下载Qwen 7B模型 ollama pull qwen:7b # 运行模型交互式对话 ollama run qwen:7b # 后台运行服务 ollama serve 下载速度慢可以尝试使用国内镜像OLLAMA_ORIGINShttps://mirror.example.com ollama pull qwen:7b6. 验证GPU加速最后确认模型确实在使用GPU加速nvidia-smi在进程列表中应该能看到类似这样的条目| 0 N/A N/A 12345 C /snap/ollama/55/bin/ollama 1742MiB |这表明Ollama进程正在使用约1.7GB的GPU显存证明GPU加速已经正常工作。7. 常见问题解决即使使用Snap安装偶尔也会遇到一些小问题。以下是几个常见情况的解决方案7.1 下载模型中断如果模型下载中途失败可以尝试# 清理缓存后重试 ollama rm qwen:7b ollama pull qwen:7b7.2 显存不足对于8GB显存的显卡如RTX 4060运行7B模型可能比较紧张。可以尝试# 使用4bit量化版本 ollama pull qwen:7b-q4_07.3 服务无法启动检查端口是否被占用sudo lsof -i :11434如果有冲突可以修改监听端口sudo snap set ollama ollama.port11435 sudo systemctl restart snap.ollama.ollama8. 进阶使用技巧掌握了基础安装后这里分享几个提升使用体验的技巧多模型管理使用ollama list查看已下载模型自定义模型基于现有模型创建个性化版本API调用通过HTTP接口与模型交互系统监控结合Prometheus和Grafana监控资源使用情况例如要创建一个去除某些限制的Qwen变体ollama create my-qwen -f ./Modelfile其中Modelfile内容示例FROM qwen:7b PARAMETER temperature 0.7 PARAMETER top_k 50通过这套方案我在多台不同配置的Ubuntu机器上都成功部署了Ollama最顺利的情况下从零开始到运行第一个模型只用了不到5分钟。相比传统安装方式Snap方案确实省去了大量调试时间特别适合需要快速搭建测试环境的开发者。

更多文章