AutoGLM-GUI
| ⏰ 定时任务 Cron 调度系统 |
🐳 Docker 部署 7x24 运行 |
📚 对话历史 自动保存追溯 |
⚡ 立即打断 <1 秒响应 |
📱 多设备管理 支持模拟器 |
欢迎加入讨论交流群 English Documentation
🚀 生产力增强(v1.5 新增)
- ⏰ 定时任务调度 - Cron 风格的任务调度系统,自动执行重复操作(签到、检查、周期性任务)
- 📚 对话历史管理 - 自动保存所有对话记录,支持查看历史、追溯执行过程
- ⚡ 立即打断执行 - <1 秒中断正在执行的任务,精准控制 AI 行为
- 🐳 Docker 一键部署 - 支持多架构(x64/ARM64),部署到服务器 7x24 小时运行
- 📱 模拟器零配置 - 自动检测本地 Android 模拟器,一键连接无需配对
🤖 AI 自动化能力
- 分层代理模式 - 🆕 决策模型 + 视觉模型双层协作架构,支持复杂任务规划与精准执行分离
- 完全无线配对 - 🆕 支持 Android 11+ 二维码扫码配对,无需数据线即可连接设备
- 多设备并发控制 - 同时管理和控制多个 Android 设备,设备间状态完全隔离
- 对话式任务管理 - 通过聊天界面控制 Android 设备
- Workflow 工作流 - 🆕 预定义常用任务,一键快速执行,支持创建、编辑、删除和管理
💻 技术特性
- 实时屏幕预览 - 基于 scrcpy 的低延迟视频流,随时查看设备正在执行的操作
- 直接操控手机 - 在实时画面上直接点击、滑动操作,支持精准坐标转换和视觉反馈
- 零配置部署 - 支持任何 OpenAI 兼容的 LLM API
- MCP 协议支持 - 🆕 内置 MCP 服务器,可集成到 Claude Desktop、Cursor 等 AI 应用中
- ADB 深度集成 - 通过 Android Debug Bridge 直接控制设备(支持 USB 和 WiFi)
- 模块化界面 - 清晰的侧边栏 + 设备面板设计,功能分离明确
📥 快速下载
一键下载桌面版(免配置环境):
使用说明:
- Windows: 下载后直接双击
.exe文件运行,无需安装 - macOS: 下载后双击
.dmg文件,拖拽到应用程序文件夹。首次打开可能需要在「系统设置 → 隐私与安全性」中允许运行 - Linux:
- AppImage(推荐): 下载后添加可执行权限
chmod +x AutoGLM*.AppImage,然后直接运行 - deb: 适用于 Debian/Ubuntu 系统,使用
sudo dpkg -i autoglm*.deb安装 - tar.gz: 便携版,解压后运行
./AutoGLM\ GUI/autoglm-gui
- AppImage(推荐): 下载后添加可执行权限
💡 提示: 桌面版已内置所有依赖(Python、ADB 等),无需手动配置环境。首次运行时需配置模型服务 API。
自动更新:
AutoGLM GUI 桌面版支持自动更新功能:
- 🪟 Windows 安装版:启动时自动检测更新,下载完成后退出时自动安装
- 🍎 macOS DMG:启动时自动检测更新,下载完成后提示用户重启(未签名应用可能需要手动允许)
- 🐧 Linux AppImage:启动时自动检测更新(需配合 AppImageLauncher)
- 便携版(Windows EXE/Linux tar.gz):不支持自动更新,请手动下载新版本
或者使用 Python 包(需要 Python 环境):
# 通过 pip 安装(推荐)
pip install autoglm-gui
# 或使用 uvx 免安装运行(需先安装 uv)
uvx autoglm-gui
📸 界面预览
分层代理
分层代理(Layered Agent) 是更“严格”的两层结构:规划层专注任务拆解与多轮推理,执行层专注观察与操作。规划层会通过工具调用(可在界面中看到每次调用与结果)来驱动执行层完成一个个原子子任务,便于边执行边调整策略,适合需要多轮交互/推理的高级任务。
任务开始
任务执行完成
多设备控制
🚀 快速开始
前置要求
- Android 设备(Android 11+ 支持完全无线配对,无需数据线)
- 一个 OpenAI 兼容的 API 端点(支持智谱 BigModel、ModelScope 或自建服务)
关于设备连接:
- Android 11+:支持二维码扫码配对,完全无需数据线即可连接和控制设备
- Android 10 及更低版本:需要先通过 USB 数据线连接并开启无线调试,之后可拔掉数据线无线使用
方式一:Python 包安装(推荐)
无需手动准备环境,直接安装运行:
# 通过 pip 安装并启动
pip install autoglm-gui
autoglm-gui --base-url http://localhost:8080/v1
也可以使用 uvx 免安装启动,自动启动最新版(需已安装 uv,安装教程):
uvx autoglm-gui --base-url http://localhost:8080/v1
方式二:Docker 部署(推荐生产力场景)
AutoGLM-GUI 提供预构建的 Docker 镜像,支持 linux/amd64 和 linux/arm64 架构,适合部署到服务器 7x24 小时运行,配合定时任务功能实现自动化中枢。
核心优势:
- 🚀 一键部署:无需配置 Python 环境和依赖
- ⏰ 定时执行:配合内置定时任务系统,自动化执行周期性操作
- 🌐 远程控制:通过 Web 界面随时随地管理设备
- 📊 稳定运行:容器化隔离,适合长期运行
使用 docker-compose(推荐):
# 1. 下载 docker-compose.yml
curl -O https://raw.githubusercontent.com/suyiiyii/AutoGLM-GUI/main/docker-compose.yml
# 2. 启动服务
docker-compose up -d
# 3. 访问 http://localhost:8000,在 Web 界面中配置模型 API
或直接使用 docker run:
# 使用 host 网络模式运行(推荐)
docker run -d --network host \
-v autoglm_config:/root/.config/autoglm \
-v autoglm_logs:/app/logs \
ghcr.io/suyiiyii/autoglm-gui:main
# 访问 http://localhost:8000,在 Web 界面中配置模型 API
配置说明:
- 默认使用 host 网络模式(推荐,便于 ADB 设备发现和二维码配对)
- 模型 API 配置可以在 Web 界面的设置页面中完成,无需提前配置环境变量
- 如果需要在启动时预配置,可以编辑
docker-compose.yml取消注释environment部分
连接远程设备:
Docker 容器中连接 Android 设备推荐使用 WiFi 调试:
- 在 Android 设备上开启「开发者选项」→「无线调试」
- 记录设备的 IP 地址和端口号
- 在 Web 界面点击「添加无线设备」→ 输入 IP:端口 → 连接
⚠️ 注意:二维码配对功能依赖 mDNS 多播,在 Docker bridge 网络中可能受限。强烈建议使用
--network host模式以获得完整功能支持。
更多 Docker 配置选项,请参见下方的 Docker 部署详细说明。
启动后,在浏览器中打开 http://localhost:8000 即可开始使用!
🎯 模型服务配置
AutoGLM-GUI 只需要一个 OpenAI 兼容的模型服务。你可以:
- 使用官方已托管的第三方服务
- 智谱 BigModel:
--base-url https://open.bigmodel.cn/api/paas/v4,--model autoglm-phone,--apikey <你的 API Key> - ModelScope:
--base-url https://api-inference.modelscope.cn/v1,--model ZhipuAI/AutoGLM-Phone-9B,--apikey <你的 API Key>
- 智谱 BigModel:
- 或自建服务:参考上游项目的部署文档用 vLLM/SGLang 部署
zai-org/AutoGLM-Phone-9B,启动 OpenAI 兼容端口后将--base-url指向你的服务。
示例:
# 使用智谱 BigModel
pip install autoglm-gui
autoglm-gui \
--base-url https://open.bigmodel.cn/api/paas/v4 \
--model autoglm-phone \
--apikey sk-xxxxx
# 使用 ModelScope
pip install autoglm-gui
autoglm-gui \
--base-url https://api-inference.modelscope.cn/v1 \
--model ZhipuAI/AutoGLM-Phone-9B \
--apikey sk-xxxxx
# 指向你自建的 vLLM/SGLang 服务
pip install autoglm-gui
autoglm-gui --base-url http://localhost:8000/v1 --model autoglm-phone-9b
🔄 升级指南
检查当前版本
# 查看已安装的版本
pip show autoglm-gui
# 或使用命令行参数
autoglm-gui --version
升级到最新版本
使用 pip 升级:
# 升级到最新版本
pip install --upgrade autoglm-gui
📖 使用说明
多设备管理
AutoGLM-GUI 支持同时控制多个 Android 设备:
- 设备列表 - 左侧边栏自动显示所有已连接的 ADB 设备
- 设备选择 - 点击设备卡片切换到对应的控制面板
- 状态指示 - 清晰显示每个设备的在线状态和初始化状态
- 状态隔离 - 每个设备有独立的对话历史、配置和视频流
设备状态说明:
- 🟢 绿点:设备在线
- ⚪ 灰点:设备离线
- ✓ 标记:设备已初始化
📱 二维码无线配对(Android 11+ 推荐)
完全无需数据线,手机和电脑只需在同一 WiFi 网络即可:
手机端准备:
- 打开「设置」→「开发者选项」→ 开启「无线调试」
- 保持手机和电脑连接到同一个 WiFi 网络
电脑端操作:
- 点击界面左下角的 ➕ 「添加无线设备」按钮
- 切换到「配对设备」标签页
- 二维码自动生成,等待扫码
手机端扫码:
- 在「无线调试」页面,点击「使用二维码配对设备」
- 扫描电脑上显示的二维码
- 配对成功后,设备会自动出现在设备列表中
特点:
- ✅ 完全无需数据线
- ✅ 一键扫码即可配对
- ✅ 自动发现并连接设备
- ✅ 适用于 Android 11 及以上版本
AI 自动化模式
- 连接设备 - 使用上述任一方式连接设备(推荐 Android 11+ 的二维码配对)
- 选择设备 - 在左侧边栏选择要控制的设备
- 初始化 - 点击"初始化设备"按钮配置 Agent
- 对话 - 描述你想要做什么(例如:"去美团点一杯霸王茶姬的伯牙绝弦")
- 观察 - Agent 会逐步执行操作,每一步的思考过程和动作都会实时显示
🤖 选择 Agent 类型
在初始化设备时,可以选择不同的 Agent 类型(默认:GLM Agent):
- GLM Agent:基于 GLM 模型优化,成熟稳定,适合大多数任务
- MAI Agent:内部实现的 Mobile Agent,支持多张历史截图上下文,适合复杂任务
- 🆕 现已完全内部化:移除 ~1200 行第三方依赖,性能优化,中文适配
- 🔄 向后兼容:需要使用旧版本可选择
mai_legacy类型
MAI Agent 可配置参数:
history_n:历史截图数量(1-10,默认:3)
MAI Agent 增强特性(v1.5.0+):
- ✅ 流式思考输出(实时显示推理过程)
- ✅ 中文优化 Prompt(针对国内应用场景)
- ✅ 性能监控(LLM 耗时、动作执行统计)
- ✅ 详细的操作指南和错误避免提示
🌿 普通模式(单模型 / Open AutoGLM)
这是开源 AutoGLM-Phone 的“原生形态”:由一个视觉模型直接完成「理解任务 → 规划步骤 → 观察屏幕 → 执行动作」的完整闭环。
- 优点:配置最简单,上手最快
- 适用场景:目标明确、步骤较少的任务(例如打开应用、简单导航)
🧩 分层代理模式(Layered Agent,增强 / 实验性)
分层代理模式是更“严格”的两层结构:规划层专注拆解与推理,执行层专注观察与操作,二者通过工具调用协作完成任务。
- 工作方式:规划层(决策模型)会调用工具(如
list_devices()/chat(device_id, message))去驱动执行层;你能在界面里看到每次工具调用与返回结果 - 执行粒度:执行层每次只做一个“原子子任务”,并有步数上限(例如每次最多 5 步),便于规划层按反馈动态调整策略
- 适用场景:需要多轮推理、需要“边看边问边改计划”的复杂任务(例如浏览/筛选/对比、多轮表单填写等)
- 重要限制:执行层不负责"记笔记/保存中间信息/直接提取文本变量";规划层需要信息时必须通过提问让执行层把屏幕内容"念出来"
📖 深入了解:查看 Layered Agent 架构分析文档 了解技术原理、数据流和实现细节
🎭 两种工作模式对比
AutoGLM-GUI 提供了两种不同的代理工作模式,适用于不同的使用场景:
1️⃣ 经典模式(Classic Mode)
- 架构:单一
autoglm-phone视觉模型直接处理(即普通 Open AutoGLM 的体验) - 适用场景:简单、明确的任务
- 特点:配置简单,适合快速上手
2️⃣ 分层代理(Layered Agent)
- 架构:基于 Agent SDK 的分层任务执行系统
- 规划层:决策模型作为高级智能中枢,负责任务拆解和多轮推理
- 执行层:autoglm-phone 作为执行者,只负责观察和操作
- 适用场景:需要多轮交互和复杂推理的高级任务
- 特点:规划层通过工具调用驱动执行层,过程更透明、更便于调试与迭代策略
选择建议:
- 🚀 常规任务(订外卖、打车):经典模式
- 🏗️ 需要多轮推理的任务:分层代理模式
手动控制模式
除了 AI 自动化,你也可以直接在实时画面上操控手机:
- 实时画面 - 设备面板右侧显示手机屏幕的实时视频流(基于 scrcpy)
- 点击操作 - 直接点击画面中的任意位置,操作会立即发送到手机
- 滑动手势 - 按住鼠标拖动实现滑动操作(支持滚轮滚动)
- 视觉反馈 - 每次操作都会显示涟漪动画和成功/失败提示
- 精准转换 - 自动处理屏幕缩放和坐标转换,确保操作位置准确
- 显示模式 - 支持自动、视频流、截图三种显示模式切换
⏰ 定时任务调度(生产力核心功能)
AutoGLM-GUI 内置定时任务系统,让 AI 按照你的计划自动执行操作,打造 7x24 小时的自动化助手。
典型应用场景:
- 📅 每日签到:自动在指定时间完成 App 签到领取积分
- 🔔 定时检查:定期检查订单状态、物流信息、库存变化
- 📧 消息提醒:定时发送消息、提醒事项
- 🎮 游戏任务:自动完成每日任务、领取奖励
- 💰 价格监控:定期检查商品价格变化,自动下单
如何使用:
- 创建定时任务 - 在 Web 界面的"定时任务"页面创建新任务
- 设置 Cron 表达式 - 使用 Cron 语法指定执行时间(例如:
0 8 * * *表示每天早上 8 点) - 选择执行设备 - 指定要控制的 Android 设备
- 定义任务内容 - 描述要执行的操作(支持使用已保存的 Workflow)
- 启用任务 - 开启任务后,系统会在指定时间自动执行
Docker 部署推荐:
- 将 AutoGLM-GUI 部署到服务器上(VPS、NAS、闲置电脑)
- 通过 WiFi 连接 Android 设备
- 服务器 7x24 小时运行,确保定时任务按时执行
- 通过 Web 界面随时查看执行历史和日志
对话历史支持:
- 所有定时任务的执行记录自动保存
- 支持查看历史执行详情、追溯问题
- 失败任务自动记录错误信息
Workflow 工作流管理
将常用任务保存为 Workflow,实现一键快速执行:
创建和管理 Workflow
- 进入管理页面 - 点击左侧导航栏的 Workflows 图标(📋)
- 新建 Workflow - 点击右上角"新建 Workflow"按钮
- 填写信息:
- 名称:给 Workflow 起一个简短易记的名称(如:"订购霸王茶姬")
- 任务内容:详细描述要执行的任务(如:"去美团点一杯霸王茶姬的伯牙绝弦,要去冰,加珍珠")
- 保存 - 点击保存按钮即可
管理操作:
- 编辑 - 点击 Workflow 卡片上的"编辑"按钮修改内容
- 删除 - 点击"删除"按钮移除不需要的 Workflow
- 预览 - Workflow 卡片显示任务内容的前几行预览
快速执行 Workflow
在 Chat 界面执行已保存的 Workflow:
- 选择设备 - 确保已选择并初始化目标设备
- 打开 Workflow 选择器 - 点击输入框旁边的 Workflow 按钮(📋 图标)
- 选择要执行的任务 - 从列表中点击你想执行的 Workflow
- 自动填充 - 任务内容会自动填入输入框
- 发送执行 - 点击发送按钮开始执行
使用场景示例:
- 📱 日常任务:订外卖、打车、查快递
- 🎮 游戏操作:每日签到、领取奖励
- 📧 消息发送:固定内容的消息群发
- 🔄 重复操作:定期执行的维护任务
📚 对话历史管理(v1.5.0 新增)
所有对话和执行记录自动保存到本地数据库,支持随时查看和追溯:
核心功能:
- 💾 自动保存:所有对话内容、AI 思考过程、执行步骤完整记录
- 🔍 历史查看:在 Web 界面查看所有历史对话
- 📊 执行追溯:详细查看每次任务的执行过程,包括截图、操作、结果
- ⏰ 定时任务日志:定时任务的执行记录自动关联到对话历史
- 🐛 问题诊断:失败任务可查看完整日志,快速定位问题
使用场景:
- 回顾 AI 的决策过程,优化 Prompt 和任务描述
- 追溯定时任务的执行情况,确认是否按时完成
- 查找历史操作记录,复用成功的执行策略
- 问题排查时查看详细日志和截图
数据存储:
- 默认存储位置:
~/.config/autoglm/history.db(SQLite 数据库) - Docker 部署:挂载 volume 确保数据持久化
- 支持导出和备份
🎯 生产力场景示例
AutoGLM-GUI v1.5 已从单纯的"手机助手"升级为"AI 自动化中枢",以下是典型的生产力应用场景:
场景 1:服务器定时自动化
配置:
# 在 VPS/NAS 上部署 Docker
docker-compose up -d
# 通过 WiFi 连接 Android 设备
# 在 Web 界面配置定时任务
典型任务:
- ⏰ 每天早上 8:00 自动签到领积分
- ⏰ 每晚 22:00 检查订单状态并发送通知
- ⏰ 每小时检查特定商品价格变化
- ⏰ 每天中午 12:00 自动点外卖
价值:AI 助手 7x24 小时运行在服务器上,无需人工干预
场景 2:多设备批量管理
配置:
- 连接 3-5 台 Android 设备(USB 或 WiFi)
- 每台设备执行不同的自动化任务
典型任务:
- 设备 A:电商平台价格监控 + 自动比价
- 设备 B:社交媒体内容定时发布
- 设备 C:游戏挂机 + 每日任务
- 设备 D:物流信息监控 + 状态推送
价值:一个控制台管理多台设备,规模化自动化
场景 3:开发调试 + CI/CD
配置:
# 使用模拟器进行自动化测试
# 模拟器零配置,自动检测连接
典型任务:
- 🧪 自动化 UI 测试(回归测试)
- 📱 App 安装/卸载/升级测试
- 🔄 多版本兼容性验证
- 📊 性能测试数据采集
价值:结合 CI/CD 流程,实现移动端自动化测试
场景 4:个人效率提升
配置:
- 本地运行桌面版或 Python 包
- 定义常用 Workflow
典型任务:
- 📝 早会前自动整理昨日工作记录
- 💰 自动记录每日支出到记账 App
- 📧 定时发送固定格式的周报邮件
- 🏃 健身 App 自动打卡记录
价值:减少重复性工作,专注创造性任务
关键技术组合
| 功能组合 | 适用场景 |
|---|---|
| 定时任务 + Docker + WiFi 连接 | 服务器端 7x24 自动化 |
| 多设备 + Workflow + 对话历史 | 批量设备管理 + 操作追溯 |
| 分层代理 + 立即打断 + 实时预览 | 复杂任务调试与优化 |
| 模拟器直连 + CI/CD 集成 | 自动化测试流程 |
🛠️ 开发指南
源码安装
如果你需要从源码进行开发或定制,可以按照以下步骤:
# 1. 克隆仓库
git clone https://github.com/suyiiyii/AutoGLM-GUI.git
cd AutoGLM-GUI
# 2. 安装依赖
uv sync
# 3. 构建前端(必须)
uv run python scripts/build.py
# 4. 启动服务
uv run autoglm-gui --base-url http://localhost:8080/v1
快速开发
# 后端开发(自动重载)
uv run autoglm-gui --base-url http://localhost:8080/v1 --reload
# 前端开发服务器(热重载)
cd frontend && pnpm dev
构建和打包
# 仅构建前端
uv run python scripts/build.py
# 构建完整包
uv run python scripts/build.py --pack
🔌 MCP (Model Context Protocol) 集成
AutoGLM-GUI 内置了 MCP 服务器,可以作为一个工具集成为其他 AI 应用(如 Claude Desktop、Cline、Cursor 等)提供 Android 设备自动化能力。
什么是 MCP?
MCP (Model Context Protocol) 是一个开放协议,允许 AI 应用连接到外部数据源和工具。通过 MCP,你可以让 Claude、Cursor 等 AI 直接操作你的 Android 设备。
MCP Tools
AutoGLM-GUI 提供了两个 MCP 工具:
1. chat(device_id, message) - 执行手机任务
向指定设备发送自动化任务,AI 会控制手机完成操作。
参数:
device_id:设备标识符(如 "192.168.1.100:5555" 或设备序列号)message:自然语言任务描述(如 "打开微信"、"发送消息")
特点:
- ✅ 自动初始化设备(使用全局配置)
- ✅ Fail-Fast 策略:找不到元素立即报错,不猜测坐标
- ✅ 5 步限制:适合原子操作,避免无限循环
- ✅ 专用 Prompt:优化为快速执行模式
2. list_devices() - 列出已连接设备
获取所有已连接的 ADB 设备列表及其状态。
返回信息:
- 设备 ID、型号
- 连接类型(USB/WiFi)
- 在线状态
- Agent 初始化状态
使用场景
典型应用:
- 🤝 Claude Desktop:让 Claude 直接操作你的 Android 设备
- 💻 IDE 集成:在 Cursor、VS Code (Cline) 中调用手机自动化
- 🔄 工作流集成:作为 AI Agent 工具链的一环
- 🧪 自动化测试:结合 AI 进行移动端 UI 测试
示例:
用户:帮我在手机上打开微信,给张三发消息"下午三点开会"
AI:
1. 调用 list_devices() 找到设备
2. 调用 chat(device_id, "打开微信")
3. 调用 chat(device_id, "搜索联系人张三")
4. 调用 chat(device_id, "发送消息:下午三点开会")
配置 MCP 客户端
Claude Desktop 配置
- 启动 AutoGLM-GUI(确保 MCP 端点可访问):
# 使用默认 MCP 端点(挂载在 /mcp)
autoglm-gui --base-url http://localhost:8080/v1
- 编辑 Claude Desktop 配置文件:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json
添加以下配置:
{
"mcpServers": {
"autoglm-gui": {
"transport": {
"type": "http",
"url": "http://localhost:8000/mcp"
}
}
}
}
- 重启 Claude Desktop,即可在对话中使用 AutoGLM-GUI 工具。
Cline (VS Code) 配置
在 VS Code 设置中搜索 "cline",添加 MCP 服务器配置:
{
"cline.mcpServers": {
"autoglm-gui": {
"transport": {
"type": "http",
"url": "http://localhost:8000/mcp"
}
}
}
}
Cursor 配置
在 Cursor 设置中添加 MCP 服务器(设置 → MCP Servers):
{
"mcpServers": {
"autoglm-gui": "http://localhost:8000/mcp"
}
}
MCP 端点说明
AutoGLM-GUI 的 MCP 服务器通过 HTTP 端点暴露:
- Base URL:
http://localhost:8000/mcp - 传输协议:HTTP + SSE (Server-Sent Events)
- 端口:跟随主服务端口(默认 8000)
端点路径:
/mcp/sse- SSE 传输端点/mcp/messages- 消息端点
技术架构
实现方式:
- 基于 FastMCP 库构建
- MCP HTTP App 挂载到 FastAPI 的根路径
/ - 使用 ASGI 应用集成,与 FastAPI 生命周期合并
- 设备锁管理:使用
PhoneAgentManager.use_agent上下文管理器
专用 Prompt 特性:
- Fail-Fast:找不到元素立即报错,禁止猜测坐标
- Step Limit:5 步未完成自动中断
- 目标验证:执行前必须确认元素在屏幕上可见
- 错误规范:使用
ELEMENT_NOT_FOUND和STEP_LIMIT_EXCEEDED标准化错误
最佳实践
- 原子任务:MCP 的
chat工具设计用于执行原子操作(5 步内完成),复杂任务应拆分为多个子任务 - 设备管理:使用
list_devices()先确认设备在线,再执行操作 - 错误处理:AI 应捕获
ELEMENT_NOT_FOUND错误,调整策略后重试 - 性能优化:MCP 调用优先使用本地 API(如 vLLM/SGLang),减少网络延迟
示例对话
在 Claude Desktop 中:
用户:帮我查一下手机上有几台设备连接了
Claude:我调用 list_devices() 工具查看一下...
[MCP 工具调用] list_devices()
结果:发现 1 台设备
- 设备 ID: emulator-5554
- 型号: sdk_gphone64_x86_64
- 状态: 在线
用户:在模拟器上打开设置应用
Claude:我调用 chat 工具来操作设备...
[MCP 工具调用] chat("emulator-5554", "打开设置应用")
执行结果:✅ 已完成
步骤 1: Launch(app="设置")
步骤 2: 等待应用加载
步骤 3: 完成
设置应用已成功打开。
🐳 Docker 部署详细说明
💡 提示:Docker 部署已整合到 快速开始 部分,推荐直接查看上方的"方式二:Docker 部署"说明。
本节提供更多 Docker 配置选项和高级用法。
指定监听端口
如果使用 host 网络模式且需要修改默认端口(8000),可以通过 command 参数指定:
# 监听 9000 端口
docker run -d --network host \
-v autoglm_config:/root/.config/autoglm \
-v autoglm_logs:/app/logs \
ghcr.io/suyiiyii/autoglm-gui:main \
autoglm-gui --host 0.0.0.0 --port 9000 --no-browser
如果使用 bridge 网络模式,则使用 -p 参数映射端口:
# 映射主机 9000 端口到容器 8000 端口
docker run -d -p 9000:8000 \
-v autoglm_config:/root/.config/autoglm \
-v autoglm_logs:/app/logs \
ghcr.io/suyiiyii/autoglm-gui:main
镜像标签
| 标签 | 说明 |
|---|---|
main |
跟随 main 分支最新代码,推荐使用 |
<commit-sha> |
特定 commit 的镜像(如 abc1234),用于锁定版本 |
环境变量
| 变量 | 说明 | 默认值 |
|---|---|---|
AUTOGLM_BASE_URL |
模型 API 地址 | (必填) |
AUTOGLM_MODEL_NAME |
模型名称 | autoglm-phone |
AUTOGLM_API_KEY |
API 密钥 | (必填) |
健康检查
# 检查服务状态
curl http://localhost:8000/api/health
🤝 如何贡献
我们热烈欢迎社区贡献!无论是修复 bug、添加新功能、改进文档,还是分享使用经验,都对项目有重要价值。
🎯 快速开始贡献
- 查看置顶 Issue - 🎯 Start Here: 如何贡献 / 认领任务 / 本地跑起来
- 阅读贡献指南 - 详细步骤请参考 CONTRIBUTING.md
- 认领任务 - 在感兴趣的 Issue 下评论
/assign me
💡 贡献方式
- 🐛 修复 Bug - 查找标记为
bug的 Issue - ✨ 添加功能 - 实现标记为
enhancement的需求 - 📖 改进文档 - 修正错误、补充说明、添加示例
- 🧪 添加测试 - 提升代码质量和测试覆盖率
- 🌍 翻译文档 - 帮助更多语言的用户使用
🏷️ 新手友好任务
如果你是第一次贡献开源项目,可以从这些任务开始:
- 查找标记为
good first issue的 Issue - 改进文档(修正拼写错误、补充说明)
- 测试软件并报告使用体验
📚 参考资源
| 文档 | 说明 |
|---|---|
| CONTRIBUTING.md | 完整的贡献指南(环境配置、开发流程、PR 规范) |
| CLAUDE.md | 技术架构文档(代码结构、关键实现细节) |
| Issues | 查看和认领任务 |
💬 交流讨论
感谢每一位贡献者,你们让 AutoGLM-GUI 变得更好!🎉
📝 开源协议
Apache License 2.0
许可证说明
AutoGLM-GUI 打包了 ADB Keyboard APK (com.android.adbkeyboard),该组件使用 GPL-2.0 许可证。ADB Keyboard 组件作为独立工具使用,不影响 AutoGLM-GUI 本身的 Apache 2.0 许可。
详见:AutoGLM_GUI/resources/apks/ADBKeyBoard.LICENSE.txt
🙏 致谢
本项目基于 Open-AutoGLM 构建,感谢 zai-org 团队在 AutoGLM 上的卓越工作。
