本视频详细分享在Ubuntu Linux系统上部署Ollama大语言模型框架的完整思路与实操经验。Ollama作为一款免费开源的大模型运行工具,不仅支持本地部署,还自带免费云端模型服务,非常适合日常学习、测试与小型项目开发,虽然免费额度存在一定限制,但足以满足个人与入门级使用需求。视频中针对常见的GitHub访问不稳定导致安装失败问题,提供了更稳妥的离线安装方案,全程围绕文件获取、环境配置、服务启动与验证展开,同时讲解了U盘在虚拟机中的识别设置、进程管理、服务状态检测等实用技巧。此外,还对比了不同调用方式的差异,解决常见报错问题,并实现Ollama服务局域网开放,让其他设备如OpenClaw等工具可远程调用,真正打通本地环境与云端大模型的连接通道,为AI爱好者与开发者提供一套稳定、可靠、低成本的大模型运行方案。
Show More Show Less View Video Transcript
0:00
大家好啊
0:00
这个视频我就来跟大家分享一下
0:03
如何在Ubuntu Linux上
0:04
安装Ollama大语言模型框架
0:07
Ollama是一个免费
0:08
开源的大语言模型运行框架
0:10
而且它还自带了一个免费套餐
0:12
可以直接(免费)使用
0:13
它提供的云端大语言模型服务
0:16
当然这个免费版会有一些限制
0:18
但是我觉得日常学习测试
0:20
做小项目就完全够用了
0:22
那接下来我就一步一步带大家来实操安装
0:27
第一步,我们先打开这个Ollama的网站
0:30
在右边有一个 Download 的这么一个按钮
0:32
我们点击一下
0:33
那有3个操作系统
0:35
中间是Linux
0:36
我们点击这个Linux
0:38
你看它安装
0:39
其实是在Linux上面运行一行命令
0:42
但是它这个命令运行的时候
0:43
其实也是会访问GitHub的
0:45
有时候这GitHub访问不了
0:47
它就会中断或者出现错误
0:50
那为了避免这个错误
0:51
我们就到GitHub上边
0:52
在GitHub好访问的时候
0:55
就把这个Ollama的Linux版给它下载下来
0:59
你看我现在这个页面就是到GitHub Ollama
1:02
它的发布页面
1:03
最新的版本是 V 0.20.6
1:06
到这个里边
1:07
我点击这个链接
1:08
ollama-linux-amd64.tar.zst 把它下载下来
1:12
下载下来之后
1:13
再在我们这个 Ubuntu Linux 上边
1:16
一步一步的来安装
1:17
那现在这个下载正在进行中
1:19
你看还差十几分钟
1:22
那把这下载下来安装的好处就是
1:24
你的GitHub如果突然访问不了
1:25
也不会出错
1:27
那现在我这个ollama linux压缩包文件
1:30
已经下载成功了
1:31
因为我是在Windows虚拟机里下载的
1:34
我先把它拷贝到
1:35
一个U盘里边
1:37
再通过U盘拷贝到 Ubuntu Linux 虚拟机里边
1:40
那拷贝的过程当中
1:41
大家注意一点
1:41
你看我右键单击我的Ubuntu Linux虚拟机
1:44
然后点击 Settings
1:46
你在拷贝的时候
1:47
把这个U盘插到计算机的USB接口上
1:50
那如果你要是发现
1:51
你的 Ubuntu Linux 访问不了这个U盘
1:53
或者是识别不了
1:55
就到VMware的虚拟机的设置窗口里边
1:57
有一个USB Controller这个属性
2:00
在这调一下这个选项
2:03
选成3.2
2:04
基本上就可以识别U盘里边内容
2:07
现在我们点击这个Ollama压缩包
2:10
右键点击它
2:12
点击复制
2:13
我们点击 主文件夹
2:15
那在这个文件夹我们新创建一个目录
2:18
叫 bin, 点击创建
2:20
然后我们进入到文件夹 bin
2:22
右键单击
2:23
点击粘贴
2:25
就把 ollama 这个压缩包给它复制过来了
2:28
在左下角
2:29
这显示正在复制
2:31
一会这显示复制好了
2:33
这个文件就复制完成了
2:35
文件复制完成之后
2:36
我们右键单击它
2:37
点击 提取到
2:39
点击 选择
2:40
因为这个文件比较大 1.9G
2:42
所以提取的也慢一点
2:43
那现在大家看到这个目录
2:45
就是提取之后的这个Ollama程序的目录
2:49
那这个目录下有一个bin目录
2:50
有一个lib目录
2:51
我们点击这个bin目录
2:53
那你看这里面有一个Ollama这个程序
2:56
那这个程序
2:57
就是Ollama大语言模型框架的应用程序
3:01
那现在我们就可以通过这个应用程序
3:03
来启动Ollama
3:04
这个大语言模型框架
3:06
我们把这个路径复制一下
3:09
点开一个终端
3:11
通过cd命令来到这个目录下
3:14
我们可以列表看一眼
3:16
这里边只有一个Ollama这个程序
3:18
那在开始启动之前
3:19
我们先来确认一下
3:21
我们运行命令 ps -ef | grep ollama
3:26
我们确认一下
3:27
现在没有ollama这个进程在运行
3:30
如果我们要启动ollama大语言模型
3:33
这个框架
3:33
我们只需要运行这个命令
3:35
./ollama
3:38
因为我们运行的这个命令
3:40
是在当前这个路径下
3:42
所以需要用 ./
3:44
然后给它传一个参数serve回车
3:47
那现在这个Ollama大语言模型框架
3:51
就开始运行了
3:52
那我们如何来检验
3:54
这个大语言模型框架
3:55
已经运行成功了呢
3:57
有一种方法是通过浏览器
4:00
通过访问网址来检验
4:02
我们打开Firefox
4:04
输入这个网址 http://127.0.0.1:11434
4:09
那回车之后
4:10
如果你看到这句话Ollama is running
4:13
那就证明
4:14
Ollama这个大模型框架已经运行成功了
4:17
现在我们再打开一个终端
4:19
再运行一下这个命令
4:20
ps -ef | grep ollama
4:24
你看这时候里边有两条记录了
4:26
那第一条记录 ./ollama serve
4:30
就是刚才
4:31
我们启动这个Ollama大语言框架的
4:33
这个命令
4:35
大语言模型框架Ollama启动起来之后
4:38
我们该如何使用里边的免费云端大语言模型呢
4:41
我们可以运行这行命令
4:43
./ollama launch
4:46
回车之后
4:47
就是这个让你选择的这些选项
4:50
那第一个就是chat with a model
4:52
让你和一个模型来聊天儿
4:55
那第二个是launch openclaw
4:58
第二个就是让你来安装这个openclaw
5:00
第三个是安装 claude code
5:02
等等等等
5:04
那我们就选择第一个回车
5:06
那到了这个界面
5:07
你就可以选择要使用的大语言模型
5:10
那凡是后边有 :cloud 的这个模型
5:14
都是云端模型
5:15
那我们选择这样的模型的好处就是
5:17
第一
5:18
这个模型是运行在Ollama这个服务器上
5:21
不是运行在你本机
5:23
节省你的硬件资源
5:24
第二它是免费的
5:26
有一定的免费额度
5:27
当然这个额度有一定的限制
5:29
但是我觉得基本上做个测试
5:32
或者做一些小项目是够用的
5:35
那假如说我们选择第一个 kimi-k2.5:cloud
5:38
选择之后 回车
5:40
他就会让你到这个网址
5:42
去进行一下登录
5:44
并且验证
5:45
那这个通常会自动的打开一个浏览器
5:48
比如说我这里边的Firefox
5:50
来到登录界面
5:52
那如果没有打开
5:53
你就把这个网址拷贝下来
5:56
打开Firefox
5:57
右键单击把这个网址拷贝进去
6:00
因为我们拷贝下来
6:02
它这个里边可能是有空格的
6:04
这个Firefox辨别出来了
6:06
你看这有一空格
6:07
这是不对的
6:08
如果你要是直接回车
6:09
他会报错
6:10
下边这个网址
6:11
是Firefox
6:12
把上边那个网址里边的空格去掉
6:14
之后的URL
6:16
直接点击下边这个网址就可以了
6:18
那就到了这个Ollama登录界面
6:20
那在这个里边输入你的邮箱地址
6:23
点击继续
6:24
再输入密码
6:25
点击登录
6:26
如果你没有Ollama这个账号
6:28
你可以注册一个
6:30
在最开始那个页面下边有一个sign up
6:33
也就是注册的这么链接
6:34
你可以注册一个
6:35
注册也比较简单的
6:37
到了这个页面
6:38
你点击connect
6:39
那你这个客户端就跟这Ollama服务器
6:41
相当于是注册上了
6:43
就可以使用 kimi-k2.5:cloud
6:46
这个大语言模型了
6:48
那现在
6:48
我给这个大语言模型发一个信息
6:51
比如说 '你使用的是什么大语言模型'
6:58
回车他这个速度还是挺快的
7:00
他把他的思考的过程也给打印出来了
7:05
他说他是Kimi
7:06
由人工智能
7:07
月之暗面科技股份公司开发
7:09
大语言模型属于Kimi K2.5系列模型
7:13
包括核心特点都给解释出来了
7:16
现在我们可以接着跟这个Kimi 2.5
7:20
K2.5对话那我们还是用这上下键
7:22
选择第一个chat with a model Kimi K2.5
7:26
回车之后
7:28
等于又进入到
7:29
跟这个模型说话的这个界面
7:31
我再问他一个问题
7:32
'你现在哪里运行'
7:35
他的回答也非常的好
7:37
我是运行在云端的AI助手
7:39
对我的意思就是想问
7:41
他是不是在云端运行
7:42
这样就好知道
7:43
他是运行在Ollama云端的服务器上
7:46
它是由 Anthropic 公司开发和维护
7:49
运行在分布式的云计算服务器上
7:53
我很怀疑这是不是Ollama
7:54
就是租的 Anthropic 这个服务器
7:56
我具体也不太清楚那
7:58
没关系这个我们先放在这
8:00
我们再打开一个终端
8:02
我们再运行
8:03
ps -ef | grep ollama
8:07
你看这个时候就多了一个
8:10
./ollama launch 这个进程
8:14
那等于说有两个进程
8:15
一个是 ollama serve
8:17
启动Ollama大语言框架这个进程
8:19
还有一个 ollama launch
8:21
就是使用这个大语言模型的
8:24
这个进程
8:26
那我们现在来看一下
8:27
刚才我们在跟这个Ollama
8:29
大语言云端模型通信的时候
8:31
每次都返回一个错误
8:32
error running model flag accessed but not defined verbose
8:37
那我查了一下
8:37
这个错误的原因是
8:38
因为我们跟这个大语言模型通信
8:41
使用的是launch这个参数
8:43
那这个 ollama 还有一个run的参数
8:45
我们这边运行一下 ./ollama run
8:48
run后边就得跟着这个大语言模型的名称
8:52
kimi-k2.5:cloud
8:54
回车, 连接上了
8:56
这个时候我们再问他一句话
8:58
比如说 '你好, 你在云端运行吗,
9:04
是租赁的哪个公司的服务器'
9:11
回车他说你好
9:13
是的
9:13
我运行在云端的分布式服务器上
9:16
关于具体的属于运营信息不能说
9:21
最后他就没有错误信息输出了
9:24
也就是如果你要是运行大语言模型
9:27
使用这个run参数
9:29
它就不会有那个错误
9:30
那我们刚才是使用的这个launch参数
9:33
在这里边选的大语言模型
9:35
它最后就出现了这个错误信息
9:37
那现在我们再打开一个终端
9:40
运行这个命令
9:41
ps -ef | grep ollama
9:44
那你看
9:44
这时候 ollama 这个进程又多了一个
9:47
也就是这个
9:48
./ollama run kimi-k2.5:cloud 这个进程
9:54
那我安装这个
9:55
Ollama大语言模型框架的目的
9:57
是为了让我在另外一个
9:59
Windows 虚拟机上的 OpenClaw
10:01
能够访问这个大语言模型
10:03
那我们现在先来看一下
10:06
这个大语言模型通过IP地址如何访问
10:09
那现在我们在浏览器里边输入
10:12
http://127.0.0.1:11434
10:18
这是可以访问的
10:19
Ollama is running对吧
10:20
但是如果我要在另一个机器上
10:23
来访问我这个Ollama服务
10:25
就需要把这个127.0.0.1这个地址
10:28
改成我这个机器的对外的IP地址
10:30
我们打开终端
10:31
运行一下ifconfig这个命令
10:33
回车他说找不到
10:35
因为我还没有安装
10:36
那所以我们先用命令
10:38
sudo apt install net-tools
10:42
我们先安装这个命令
10:43
很快就安装完了
10:44
现在安装好了
10:45
我们再运行ifconfig
10:47
你看这个命令
10:48
就显示出了它的IP地址是192.168.204.129
10:53
我们把这个 IP 地址拷贝下来
10:55
在这个Firefox浏览器里边
10:58
用它来替换127.0.0.1
11:00
回车
11:01
你看他说是Unable to connect
11:03
是连接不上的
11:05
也就是说我在另一个虚拟机上也好
11:07
物理机上也好
11:08
那个 OpenClaw 想连接这个Ollama服务
11:11
是连接不上的
11:12
那我们可以这样操作
11:13
我们在Ubuntu Linux终端里边运行这行命令
11:17
export OLLAMA_HOST=0.0.0.0:11434
11:23
回车之后
11:24
就等于把这个Ollama
11:26
向网络上的任何一台机器
11:28
开放了连接
11:29
我们下一步
11:30
就是要重启一下
11:31
我们安装的这个Ollama大语言模型框架
11:33
以及刚才运行的那几个大语言模型
11:36
来让这个设置生效
11:38
我们先运行命令
11:39
ps -ef | grep ollama
11:42
让你看到
11:42
有哪些 ollama 后台进程在运行
11:45
那我们现在看没有运行的
11:48
那所以我们可以现在再运行 ./ollama serve
11:51
来启动这个ollama大语言模型框架
11:54
然后我们再回到Firefox里边
11:56
刷新一下这个页面
11:58
现在显示Ollama is running
12:00
就证明
12:01
我们可以通过我们这台机器的
12:03
对外的IP地址
12:05
来访问Ollama这个服务了
12:07
那现在你就可以在你的 OpenClaw 上
12:09
使用这个免费的云端大语言模型服务了
12:13
最后感谢您的关注与支持
12:15
欢迎您在评论区里留言
12:16
谢谢您的观看
12:17
我们下一个视频再见
#Machine Learning & Artificial Intelligence
