这一轮AI浪潮里,OpenClaw成了最火的工具。GitHub上标星25万,有人靠帮别人安装几天就赚了二十多万。今天这篇教程就是让你不花一分钱,在30分钟内把这只“龙虾”养在自己的电脑上。
为什么本地部署能省钱
云端大模型按Token收费,一个复杂任务跑下来可能烧掉几十块。有人养了一天龙虾,几百块就没了。本地部署的好处是一次性投入时间,后续使用完全免费。只要有电脑就能跑,不需要高端显卡,也不需要编程基础。
本地运行的大模型完全免费。你把模型下载到自己的硬盘上,AI思考消耗的只是你电脑的电量。Ollama这个工具就像给你的电脑装上AI大脑,让它能在本地完成各种任务,不需要联网去调用付费的云端服务。
如果你的需求只是使用最新模型,而不是自己折腾部署环境,也可以直接使用api.
安装Ollama运行环境
第一步是安装Ollama,这是运行本地模型的工具。Windows用户双击安装包,一路点“下一步”就能完成。安装后按Win+R键,输入cmd打开命令提示符,输入ollama --version,看到版本号就说明成功了。
Mac用户需要双击安装包,把Ollama拖进Applications文件夹。安装完成后同样在终端输入命令验证。Ollama相当于一个模型管家,你告诉它要下载哪个模型,它就会自动拉取并帮你管理运行状态。
拉取免费的中文模型
推荐两个稳妥的本地模型。qwen2.5大约4.7GB,中文理解能力强,适合日常任务。glm4大约5.5GB,是智谱系的轻量模型,同样适合本地部署。打开命令提示符后输入ollama pull qwen2.5开始下载。
下载过程需要一些时间,具体取决于你的网速。完成后输入ollama run qwen2.5测试一下,你会看到模型开始和你对话。随便聊两句确认它能正常工作。如果你的电脑内存超过16GB,可以考虑更大的模型版本。
安装OpenClaw主程序
OpenClaw的安装方式有好几种。最简单的办法是在Releases页面找到最新版本,下载对应系统的安装包,双击后一路下一步。另外一种方式是用官方安装脚本,稳定性更好。
安装完成后打开程序,检查健康状态是否正常。如果看到状态正常的提示,就可以继续下一步配置了。官方推荐使用安装脚本的方式,因为这种方法的兼容性最好,能自动处理大部分依赖问题。
配置本地模型的关键步骤
打开OpenClaw的设置页面,找到模型配置选项。在模型名称栏填上qwen2.5,API地址填
配置完成后一定要重启OpenClaw。很多人第一次配置完没有重启,结果折腾半天发现根本没生效。重启后在聊天框输入一个简单任务,比如“列出当前目录下的所有文件”,如果能正常返回结果就说明配置成功了。
常见问题快速解决
如果本地模型效果不理想,可以尝试更大的模型版本,比如qwen2.5:14b。对于复杂任务,可以考虑混合架构。8GB内存可能有点紧张,建议关掉其他大软件。有条件的话升级到16GB会更流畅。
配置完不重启、模型名字写错、端口冲突是三个最容易踩的坑。模型名字要精确,qwen2.5不能写成Qwen2.5。硬盘空间也要注意检查,模型文件好几个GB,空间不足会导致下载失败。可以用ollama list查看已安装的模型。
本地部署完成后,OpenClaw就成了你电脑上完全免费的AI助手。日常任务、文件处理、数据整理都不再需要付费。AI工具正在从聊天玩具进化成生产力工具,而本地部署让这个工具真正变成了免费助手。
你有没有试过用本地模型跑过哪些有趣的任务?欢迎在评论区分享你的使用经验,也别忘了点赞和转发给需要的朋友





































