
Google 最新开源模型Gemma 4 于2026 年4 月2 日正式发布,31B 版本目前在全球开源模型排行榜位居第三。搭配Ollama(本地推论引擎)和OpenClaw(开源AI agent 框架),你可以在笔电或桌机上建立一个完全私密、完全本地运行的AI agent——不需要API 金钥、没有月费、资料完全不外流。
你可以透过Telegram、WhatsApp、Discord、Slack 等通讯软体与它对话,让它帮你建立实际可用的工具,例如一个完整的SEO 计算器——只需一个prompt。本文将带你完成完整的设定流程,适用于macOS、Linux 和Windows。
为什么选择这个组合?
这个技术组合有几个独特优势:100% 本地运行代表零成本、零隐私风险;Apache 2.0 授权允许无限制商业使用,无MAU 上限;Gemma 4 原生支援function calling 和多模态,擅长工具调用和agentic 工作流程。
最令人印象深刻的是程式能力的大跃进:Codeforces ELO 从前代的110 跳升至2,150——这是竞技程式设计专家等级。而且即使是一般硬体的笔电也能使用适当的模型变体运行。
Gemma 4 模型规格与硬体需求
Gemma 4 有四种尺寸,针对不同硬体环境优化。 E2B(5.1B 总参数,2.3B 有效参数)只需5GB RAM,适合手机和IoT 装置。 E4B(9.4B 总参数,4B 有效参数)同样只需5GB RAM,适合笔电和轻量任务。
26B A4B 是Mixture-of-Experts 架构,总共26B 参数但推论时只启用3.8B,需要18GB RAM(4-bit 量化),是性价比最高的选择,特别推荐用于agent 任务。 31B Dense 则是完整的31B 参数,需要20GB RAM(4-bit),提供最高品质输出。
关于命名:「E」代表「effective parameters」(有效参数),使用Per-Layer Embeddings 技术;「A4B」代表「active parameters」(活跃参数),虽然总共26B 参数,但推论时只启用约4B,速度接近小模型。
Apple Silicon(M1/M2/M3/M4)透过MLX 加速表现优异,16GB 统一记忆体可顺畅运行26B MoE。 NVIDIA GPU 如RTX 3090/4090(24GB)可舒适运行26B MoE 搭配Q4 量化。纯CPU 也可以运行,但建议使用E2B 或E4B 变体。
第一步:安装Ollama
Ollama 是目前最简单的本地大型模型执行方式。前往ollama.com/download下载对应系统的安装档。 macOS 可用brew install ollama或直接下载app;Linux 执行curl -fsSL https://ollama.com/install.sh | sh;Windows 执行.exe 安装程式。
安装后启动Ollama:macOS 从应用程式或选单列开启Ollama app,Linux/Windows 执行ollama serve(或开机自动启动)。执行ollama --version验证安装成功。
第二步:下载Gemma 4
在终端机执行ollama pull gemma4,这会下载预设的E4B 变体——适合大多数笔电。如果你有更多资源,可以选择其他变体:ollama pull gemma4:e2b(最轻量)、ollama pull gemma4:26b(26B MoE,推荐用于agent 任务)、ollama pull gemma4:31b(最高品质)。
执行ollama run gemma4 "Hello, what model are you?"快速测试。 Apple Silicon 用户可设定export OLLAMA_KEEP_ALIVE="-1"让模型常驻记忆体,避免每次重新载入。将此行加入~/.zshrc 以在重开机后保持生效。
第三步:安装并设定OpenClaw
OpenClaw 是连接模型与通讯软体的agent runtime,让AI 具备真正的工具使用能力。最简单的方式是执行ollama launch openclaw,这个指令会自动侦测并安装OpenClaw(透过npm)、启动设定精灵、让你选择Ollama 作为provider、选择Gemma 4 模型、设定gateway daemon。
设定精灵中选择Ollama 作为Provider,模型选择gemma4 或gemma4:26b,可启用web search/fetch plugins(本地运作)。
进阶用户也可以手动编辑~/.openclaw/openclaw.json设定档,指定Ollama 的baseUrl(http://localhost:11434/v1)、API 格式(openai-completions)、模型ID 和context window 等参数。设定完成后执行openclaw start启动agent。
第四步:连接Telegram
执行openclaw configure --section channels,选择Telegram,与@BotFather 对话建立新bot(输入/newbot),取得token 后贴上bot token 和你的user ID,OpenClaw 会确认连线成功。现在你可以从任何地方(手机、另一台电脑)传讯息给你的bot——完全本地、完全私密。
测试:一个prompt 建立SEO 计算器
开启Telegram,传送以下讯息给你的bot:「Build me a complete working SEO calculator as a single HTML file with Tailwind. It should include keyword difficulty estimator, backlink value calculator, and traffic potential. Make it beautiful and fully functional with JavaScript. Save it as seo-calculator.html」
看着它生成、除错、并交付一个可直接使用的档案。没有API 费用,没有云端依赖。
进阶技巧
日常任务用gemma4(E4B),复杂程式任务用/model gemma4:26b切换。 OpenClaw 让你在~/.openclaw/skills/建立SKILL.md 档案来自订技能——agent 甚至可以自己撰写新skills。你也可以传送图片(收据、截图)给它,Gemma 4 原生支援图像理解。
混合模式也是一个选项:保持Gemma 4 作为主要模型,加入云端模型处理罕见的重型任务。
重要安全提醒
OpenClaw 是强大的工具,但也有风险需要注意。首先是Prompt Injection 攻击:OpenClaw 容易受到此类攻击,恶意指令可能被嵌入在agent 观察到的资料中。 Cisco 的AI 安全研究团队测试发现,某些第三方skill 会在用户不知情的情况下进行数据外泄。
其次是广泛的权限:因为OpenClaw 可以存取email、日历、通讯软体和其他敏感服务,设定不当或暴露的实例会带来安全和隐私风险。 OpenClaw 维护者曾警告:「如果你不理解如何运行命令列,这个专案对你来说太危险了。」
本地模型的性能可能不如云端frontier 模型,复杂任务可能需要调整参数才能达到预期效果。建议在隔离环境中运行OpenClaw、审核安装的第三方skills、并理解授予agent 的权限范围。
完成以上设定后,你就拥有一个完全本地、生产等级的AI agent——零成本、零资料外泄、24/7 运行。在Telegram 发送你的第一个prompt,见证魔法发生。想要更进一步?建立自订skills、连接更多应用程式、或在便宜的VPS 上运行它。
享受你的私人AI 超能力。没有订阅,没有妥协,纯粹的本地智慧。
本文链接地址:https://www.wwsww.cn/rgzn/38062.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。



