蛮子哥 蛮子哥
首页
  • linux
  • windows
  • 中间件
  • 监控
  • 网络
  • 存储
  • 安全
  • 防火墙
  • 数据库
  • 系统
  • docker
  • 运维工具
  • other
  • elk
  • K8S
  • ansible
  • Jenkins
  • GitLabCI_CD
  • 随笔
  • 面试
  • 工具
  • 收藏夹
  • Shell
  • python
  • golang
友链
  • 索引

    • 分类
    • 标签
    • 归档
    • 首页 (opens new window)
    • 关于我 (opens new window)
    • 图床 (opens new window)
    • 评论 (opens new window)
    • 导航栏 (opens new window)
周刊
GitHub (opens new window)

蛮子哥

业精于勤,荒于嬉
首页
  • linux
  • windows
  • 中间件
  • 监控
  • 网络
  • 存储
  • 安全
  • 防火墙
  • 数据库
  • 系统
  • docker
  • 运维工具
  • other
  • elk
  • K8S
  • ansible
  • Jenkins
  • GitLabCI_CD
  • 随笔
  • 面试
  • 工具
  • 收藏夹
  • Shell
  • python
  • golang
友链
  • 索引

    • 分类
    • 标签
    • 归档
    • 首页 (opens new window)
    • 关于我 (opens new window)
    • 图床 (opens new window)
    • 评论 (opens new window)
    • 导航栏 (opens new window)
周刊
GitHub (opens new window)
  • ansible系列文章

  • Kubernetes笔记

  • elk

  • jenkins

  • GitLabCI_CD

  • AI编程

    • OpenCode-CLI配置
    • ollama、openclaw本地化部署
      • 前期环境准备
      • 3、官方推荐的本地模型
        • 推荐型号
      • 4、安装最新版 OpenClaw
        • 重启后启动的命令:
    • 网络代理和环境变量设置操作
    • 常用的skill介绍
    • n8部署教程
    • OpenClaw skills安装与使用完全指南
    • claude code工作模式介绍
    • ai工具选择
    • n8n最佳实践案例
    • 提示词技巧
  • 提示词

  • 专题
  • AI编程
蛮子哥
2026-02-20
目录

ollama、openclaw本地化部署

# Ollama + OpenClaw 真正本地部署:完全免费、断网可用、多模型切换!

今天我们就来系统讲清楚一件很多人关心、但网上一直说不明白的事:如何通过本地模型部署 OpenClaw,实现真正 100% 本地运行的 AI 助手。整个过程无需付费、无需任何 API Key,并且在完全断网的情况下依然可以正常使用。更关键的是,OpenClaw 不仅支持部署,还支持自由切换不同的本地大模型——无论是 20B / 120B 的 GPT-OSS 开源模型,还是目前主流的 Qwen 3、GLM 4.7,甚至 Kimi 等模型,都可以在同一套环境中灵活使用。

接下来我们就 通过 Ollama + OpenClaw 本地 AI 实战:免费、断网可用、多模型切换!支持 GPT-OSS / Qwen 3 / GLM 4.7等主流大模型!

# 前期环境准备

1、安装Git ,以管理员身份打开Powershell,执行下方的安装命令,或者你可以直接去官网下载 (opens new window)安装包

winget install git.git
1

如果你执行命令后出现任何错误,可以通过下方的命令进行解决

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
1
2

2、安装最新版 Ollama 客户端

点击下载 (opens new window)

最新版 Ollama 已经完全适配运行OpenClaw

# 3、官方推荐的本地模型

# 推荐型号

OpenClaw 需要更大的上下文长度才能完成任务。建议使用至少 64k 个 token 的上下文长度。

以下是一些与 OpenClaw 兼容性良好的模型:

模型 描述
qwen3-coder (opens new window) 针对编码任务进行了优化
glm-4.7 (opens new window) 强大的通用模型
glm-4.7-flash (opens new window) 性能与速度兼顾
gpt-oss:20b (opens new window) 性能与速度兼顾
gpt-oss:120b (opens new window) 能力提升

模型下载命令:

ollama run gpt-oss:20b
1

# 4、安装最新版 OpenClaw

通用安装命令:

curl -fsSL https://openclaw.ai/install.sh | bash
1

windows版本安装命令

iwr -useb https://openclaw.ai/install.ps1 | iex
1

安装完成后,您可以使用 Ollama 直接启动 OpenClaw 来连接本地模型:

ollama launch openclaw
1

如果您想配置 OpenClaw 而不立即启动服务:

ollama launch openclaw --config
1
如果网关已经在运行,它将自动重新加载
1

五、对接 Telegarm 电报机器人

打开你的 Telegram,搜索 @BotFather,发送 /newbot,来创建一个新的机器人,按提示设置:

给 Bot 起个名字,比如我设置为 lingduopenclaw

设置用户名(必须以 bot 结尾,比如 lingduopenclawbot )

最后会给你一串 Token:8123121125:AAExamegv-0FQCfhfbazmp4405V0XAJCKfk

输入 token 进行对接,并进入到刚才创建的机器人里,第一次打开会显示还未正式对接,但是会在里面提供配对码,比如我的是 Pairing code: DLW7HQ69

现在只需重新打开一个新的 Powershell 窗口,然后在里面输入配对命令即可

openclaw pairing approve telegram 这里填写你的配对码
1

当你看到这个界面的话说明已经和Telegram配对成功了!

# 重启后启动的命令:

ollama launch openclaw
1

彻底卸载并删除OpenClaw

openclaw gateway stop
openclaw uninstall
npm uninstall -g openclaw
1
2
3
微信 支付宝
上次更新: 2026/02/20, 21:30:37

← OpenCode-CLI配置 网络代理和环境变量设置操作→

最近更新
01
认知
03-30
02
人生三观
03-30
03
牙齿记录
03-30
更多文章>
Theme by Vdoing | Copyright © 2019-2026 | 点击查看十年之约 | 鄂ICP备2024072800号
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式