OpenClaw 装免费AI大脑!Ollama 本地+云端模型一键部署
Mar 16, 2026
现在很多朋友都在玩 OpenClaw 自动化工具,但真正让它强大、能完成复杂操作的核心,其实是背后的大语言模型。不少人因为担心付费成本、数据上传泄露,一直不敢放心使用。这期视频就帮大家解决这个痛点,带你用完全免费的方式,给 OpenClaw 装上安全又好用的“AI大脑”。
我们选择的工具是 Ollama,它最大的优势就是支持本地部署,所有数据只在自己电脑里流转,从根源保护隐私,不用再担心敏感信息上传第三方。更贴心的是,就算你的电脑配置不高,也能通过它提供的免费云端模型服务,轻松调用强大AI能力,完美兼顾经济性与实用性。
视频里会完整带你从安装开始,体验本地模型与云端模型两种方案,不管是高配机追求隐私安全,还是低配机想低成本体验,都能找到适合自己的方式。学会这套方法,不仅能让 OpenClaw 更稳定、更智能,也为后续搭建完整自动化环境打下关键基础,非常适合想入门本地AI、自动化操作的朋友学习。
Show More Show Less View Video Transcript
0:00
大家好
0:00
今天我来跟大家分享一个技巧
0:03
如何给OpenClaw装上大脑
0:05
也就是大语言模型
0:07
我们都知道
0:07
OpenClaw之所以这么全能
0:10
能完成各种复杂操作
0:11
核心原因就是
0:12
它需要一个强大的大语言模型
0:15
来当指挥官
0:16
OpenClaw本身更像是一个大脑的手和脚
0:20
只负责执行指令
0:21
至于具体该怎么操作
0:23
每一步该怎么做
0:24
其实全靠大语言模型来决策和指挥
0:28
但是
0:28
我们不想用那些付费的大语言模型
0:31
既不划算
0:32
还可能面临敏感数据泄露的风险
0:35
所以我决定安装本地大语言模型
0:38
而我最终选定的工具就是Ollama
0:41
选择它的原因很简单
0:43
一
0:43
它不仅能让我们在本地部署大语言模型
0:46
所有的数据都只在自己的电脑上流转
0:49
全程不上传任何第三方服务器
0:52
从根源上保护我们的隐私安全
0:55
二如果你的本地机器的配置不够强大
0:58
你还可以使用Ollama提供的
0:59
完全免费的云端服务模型
1:02
不用花一分钱
1:03
低配电脑也能轻松调用
1:05
兼顾实用性和经济性
1:07
完美解决了新手不想付费
1:09
又想用上优质大模型的痛点
1:11
所以今天这个视频
1:12
我就专门给大家详细讲解
1:14
如何在Windows系统上安装Ollama
1:17
以及如何使用它的本地服务
1:19
和免费云端服务
1:20
把这个免费又安全的AI大脑搭建好
1:23
为我们后续安装OpenClaw
1:25
实现更流畅的自动化操作
1:27
做好充分的准备
1:28
首先我们打开浏览器
1:30
来到Ollama的主页
1:31
你可以在搜索引擎里面搜一下Ollama
1:34
然后在这
1:35
个主页的右上角有一个Download的按钮
1:37
我们点击一下
1:39
那就到了这个下载页面
1:41
在这里面有三个操作系统选择
1:43
我们选择Windows
1:44
点击一下
1:45
那你在Windows上安装有两个方法
1:48
一个是在Power Shell里边运行这个命令
1:50
一个是把这个安装程序下载下来
1:53
因为在Power Shell里边运行这个命令
1:55
有时候这个网络连接不好
1:56
它会断掉
1:57
所以我们就还是点击Download for Windows
2:00
这个按钮
2:00
开始下载了
2:01
下载好之后
2:02
我们只需要双击这个安装程序
2:05
它就开始安装了
2:06
点击Install
2:07
这个安装的过程得稍微等一会
2:09
我是在虚拟机里边操作的
2:11
Ollama本身对机器的要求不是特别的高
2:14
但是如果你要是想在里边去运行
2:18
大语言模型
2:18
这个可能对机器性能有一定要求
2:21
但是Ollama也提供了一个云端的
2:23
大模型的调用方法
2:25
这还是免费提供的
2:26
但是它有一些限制
2:27
我会在后边给大家详细说一下
2:29
它有哪些限制
2:31
但是对于我们试用OpenClaw
2:33
这个限制还是可以忽略不计的
2:36
因为我们现在只是想拿它
2:37
作为一个OpenClaw的大脑来运行
2:41
现在这个Ollama就已经安装好了
2:43
在右下角
2:44
有一个Select a model这个下拉列表
2:48
你看凡是后边有Cloud这个文字的
2:51
就是证明这个模型是云端的
2:53
你可以调用它
2:54
不是在你本地运行的
2:56
没有Cloud这些
2:57
就是需要把这些模型
2:58
下载到本地来运行的
3:00
那这个你就根据你的硬件情况来选择
3:04
有千问的
3:05
有Deep Seek
3:06
它都是这个开源模型
3:07
那你比如说我选择一个Deep Seek R1 8B的
3:11
我选择这个Deep Seek R1 8B这个模型之后
3:15
我给他发了一个问题是你好
3:17
你可以介绍一下自己吗
3:19
那发送过去之后
3:20
他第一步是先 Downloading Model
3:21
就是先把这个模型下载下来
3:23
因为我选择的是本地模型
3:25
这个可能需要一些时间
3:27
因为是第一次调用
3:28
所以他需要把这个模型下载下来
3:31
等下载下来之后以后你再调用
3:33
他就直接用本地下载好的这个模型
3:36
来回答你的问题了
3:38
我在虚拟机里运行
3:40
可能他这个就慢一点
3:42
所以调用这个本地模型
3:43
对你本地的机器的硬件
3:45
要求还是挺大的
3:47
现在已经下载完了
3:48
他开始用这个模型来考虑了
3:50
来思考
3:51
他是尽量的模拟人
3:53
其实像我们人说话
3:55
谁还这么思考啊
3:56
很直觉的就回答了
3:58
像一些简单问题
3:59
除非难的问题
4:00
会思考得仔细一些
4:01
感觉
4:02
你要是打开他这个Thinking这个功能
4:04
就让他展示一下他的思考过程
4:06
你感觉发的每一句话
4:08
他都在仔细的认真的思考
4:10
所以说他不会出错的是吧
4:11
因为人思考问题都很简单
4:13
有时候就随口就说了
4:15
他们没有这个问题
4:16
现在他把这个深思熟虑之后的结果
4:19
打了出来
4:20
因为我这个本地虚拟机
4:22
配置相对来说没那么高
4:24
所以他打的也比较慢
4:25
好现在这个就是他的回答
4:28
他是Deep Seek R1
4:29
有这个信息我们就可以看出来
4:31
他使用的的确是这个
4:32
我们选择的这个本地大模型
4:34
那大家现在肯定想知道
4:36
如何调用Ollama这个云端大模型
4:38
因为如果使用云端大模型
4:39
对我们本地的硬件的
4:42
机器的要求就没有那么高了
4:43
他都是在云端执行
4:45
然后再返回结果
4:47
那我们选择一个
4:49
比如这第一个 gpt-oss:120b-cloud
4:53
你选中这个
4:55
这儿有一个选择
4:56
是Low Medium还是High
4:58
那我们选择Medium
5:00
Cloud models require Ollama account也就是说
5:03
如果你要使用云端大模型的话
5:05
你需要在Ollama注册一个账号
5:08
注册账号之后点击Sign In才能够使用
5:11
我们点击Sign In这个按钮
5:13
它就打开了Ollama的网站
5:16
那如果你没有账号
5:17
你可以点击下边这个注册这个链接
5:20
就可以使用你的邮箱地址
5:22
来注册一个Ollama的账号
5:26
因为我已经注册过了
5:27
我就直接使用了
5:29
那我们点击登录链接
5:30
回到登录的页面
5:32
使用我已经注册过的邮箱账号
5:34
点击继续输入密码
5:36
点击登录
5:37
还得验证我是不是人
5:40
好现在全世界80亿人口
5:42
估计还得有100亿机器人
5:45
我说的不是马路上的机器人
5:47
就是这种软体机器人
5:50
密码输错了,再输一遍
5:53
现在登录进来了
5:54
在这个页面里边
5:55
最开始是告诉你如何去下载这个Ollama
5:58
包括用这个命令去下载或者手工下载
6:01
后边就是如何启动
6:03
那我们看那最后这块
6:04
就是关于这个Ollama
6:06
云端大语言模型的使用的一些介绍
6:08
包括你可以创建一个API Key
6:11
因为当你远端调用这个Ollama的
6:13
云端大语言模型的时候
6:15
是需要用到这个API Key的
6:16
后边
6:17
关于云端大语言模型的使用的一些限制
6:21
因为我们这是免费版本的
6:23
所以它有一些限制
6:24
不过
6:24
这些限制对我们在本地来试用OpenClaw
6:27
调用这个云端大语言模型的话
6:29
影响并不大
6:30
如果你想减少限制或者突破限制
6:33
你可以点这Upgrade这个链接
6:35
点Upgrade就到了他这个页面
6:37
这个页面就显示了三个版本
6:38
一个是免费版本
6:40
他有这些功能
6:41
以及刚刚我们看到那些限制
6:43
还有两个就是收费版本
6:45
这两个就是使用限制更少一些
6:47
那现在我们需要重启一下那Ollama
6:49
你把那Ollama的应用窗口关了
6:52
然后点击Windows的开始菜单
6:54
在这里边搜索Ollama
6:57
就是这个应用
6:58
我们刚才安装的
6:59
点击一下打开它
7:01
你在右边
7:01
就可以随便选择一个带Cloud的
7:04
这个云端大模型了
7:06
比如说我输一下
7:07
你好你使用的是什么大模型
7:12
发送过去
7:13
等待返回
7:14
现在他就返回结果了
7:15
我们再换一个云端大模型
7:17
比如第一个GPT
7:18
同样这个问题再问一遍
7:20
你好你使用的是什么大模型
7:22
发送一下
7:24
因为这个GPT
7:25
刚才我最开始用过一次了
7:26
所以回答就非常快
7:28
他这个都是在云端运行的
7:31
那我再问一个问题
7:32
如何使用Ollama在OpenClaw上面发送
7:35
它返回就非常快了
7:36
你看是吧
7:38
这显然不是本地系统能比的
7:41
那现在Ollama这个本地大模型
7:42
以及如何调用这Ollama的云端大模型
7:46
就算配置好了
7:47
下一个视频我会
7:48
给大家讲解一下
7:49
如何在 Ubuntu 上去安装OpenClaw
7:51
让OpenClaw去使用Ollama的云端大模型
7:54
来计算来实现本地自动化
7:57
这个视频就到这
7:58
谢谢您的观看
7:59
我们下一个视频再见
#Programming
#Scripting Languages
#Open Source
#Machine Learning & Artificial Intelligence
