零API费用 | 完全本地化 | 大语言模型本地部署
基于Ollama的私有AI解决方案,保护您的隐私数据安全
使用本地大语言模型(LLM),无需支付任何API费用,一次购买永久使用,终身免费升级。比ChatGPT、文心一言更省钱。
所有数据本地处理,不上传云端,确保企业机密和个人隐私安全。您的AI对话数据完全由自己掌控。
自动检测硬件,智能推荐Ollama模型,一键安装配置,轻松上手本地AI部署。
无需网络也能运行私有AI助手,支持内网部署,安全可控,适合企业本地化需求。
支持 Windows、macOS 两大平台,Docker容器部署,满足不同用户需求。
支持 Ollama 全系列大语言模型,包括Llama、Qwen、Phi3等,可根据硬件配置选择最适合的模型。
了解 OpenClaw 最新动态和本地AI部署技巧
以下步骤适用于 Windows 10/11 系统。
https://github.com/death1818/openclaw-local-installer/releasesOpenClaw.Local.Installer_2.6.51_x64-setup.exe 文件(约 60MB)OpenClaw.Local.Installer_2.6.51_x64-setup.exe 文件(通常在下载文件夹)如果自动安装失败,可以手动安装:
OPENCLAW-XXXX-XXXX-XXXX)phi3.5(约 2GB)如果下载失败,可能是网络问题:
ollama pull phi3.5ollama pull qwen2.5:0.5bhttp://localhost:18789如果安装后无法打开:
如果打开 http://localhost:18789 是空白:
ollama serve如果被杀毒软件阻止:
ollama --versionollama listollama pull phi3.5ollama rm 模型名ollama ps以下步骤适用于 macOS 11 (Big Sur) 及以上版本,支持 Intel 和 Apple Silicon (M1/M2/M3/M4) 芯片。
-arm64.dmg 文件-x86_64.dmg 文件https://github.com/death1818/openclaw-local-installer/releasesOpenClaw.Local.Installer_2.6.51_universal.dmg.dmg 文件也可以右键点击应用程序中的 OpenClaw → 选择"打开" → 点击"打开"按钮
OPENCLAW-XXXX-XXXX-XXXX)phi3.5(约 2GB)http://localhost:18789如果提示"无法打开"或"已损坏":
qwen2.5:0.5b 或 phi3.5 模型ollama --versionollama listollama pull phi3.5ollama rm 模型名每个授权码可以在一台设备上使用。更换设备可联系客服重新激活。
Windows 10/11、macOS 11+(包括 Apple Silicon)。
最低:8GB 内存、4核 CPU。推荐:16GB+ 内存、NVIDIA 显卡(4GB+ 显存)。
安装完成后访问 http://localhost:18789 即可使用。
可以!支持模型管理,随时安装、查看、删除不同模型。
访问 GitHub 提交 Issue,或加入 Discord 社区,也可提交 工单 获取技术支持。
安装程序会自动检测 Ollama,如检测失败可手动安装:
Windows: ollama.exe --version
macOS: curl -fsSL https://ollama.com/install.sh | sh
或访问 ollama.com 下载安装。
模型下载需要网络连接,如果下载失败:
ollama pull phi3.5ollama pull qwen2.5:0.5b(体积较小)如果 Docker 容器无法启动:
docker psdocker logs openclawdocker rm openclaw 再重新部署如果是 Windows 系统首次安装后白屏:
ollama --versionollama serve授权码格式为 OPENCLAW-XXXX-XXXX-XXXX,请确保: