将 Gemini CLI 包装成 OpenAI 兼容的 API 服务,让你能够通过 API 享受免费的 Gemini 2.5 Pro 模型!
- 🔌 OpenAI API 兼容:实现
/v1/chat/completions端点 - 🚀 快速安装:通过
uvx零配置运行 - ⚡ 高性能:基于 FastAPI + asyncio,支持并发请求
如果你想知道这个工具的原理,可以阅读我的博客文章。
由于 Gemini 需要访问 Google 服务,在某些网络环境下可能需要配置终端代理:
# 配置代理(根据你的代理服务器地址调整)
export https_proxy=http://127.0.0.1:7890
export http_proxy=http://127.0.0.1:7890
export all_proxy=socks5://127.0.0.1:7890安装 Gemini CLI
npm install -g @google/gemini-cli安装后,使用 gemini 命令运行 Gemini CLI。你需要首先启动一次,进行登录等初始化配置。
配置完成后,请确认你可以成功运行以下命令:
gemini -p "Hello, Gemini"方法一:直接启动运行
uvx gemini-cli-proxy方法二:克隆本仓库,然后运行:
uv run gemini-cli-proxyGemini CLI Proxy 默认监听 8765 端口,你可以通过 --port 参数自定义启动端口。
启动后,使用 curl 测试服务是否正常:
curl http://localhost:8765/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer dummy-key" \
-d '{
"model": "gemini-2.5-pro",
"messages": [{"role": "user", "content": "Hello!"}]
}'from openai import OpenAI
client = OpenAI(
base_url='http://localhost:8765/v1',
api_key='dummy-key' # 可填任意字符串
)
response = client.chat.completions.create(
model='gemini-2.5-pro',
messages=[
{'role': 'user', 'content': 'Hello!'}
],
)
print(response.choices[0].message.content)在 Cherry Studio 设置中添加 Model Provider:
- Provider Type 选择: OpenAI
- API Host 填写:
http://localhost:8765 - API Key 填写: 可填任意字符串
- Model Name 填写:
gemini-2.5-pro或gemini-2.5-flash
查看命令行参数:
gemini-cli-proxy --help可用选项:
--host: 服务器主机地址 (默认: 127.0.0.1)--port: 服务器端口 (默认: 8765)--rate-limit: 每分钟最大请求数 (默认: 60)--max-concurrency: 最大并发子进程数 (默认: 4)--timeout: Gemini CLI 命令超时时间,单位秒 (默认: 30.0)--debug: 启用调试模式 (启用调试日志和文件监控)
A: 这通常是网络连接问题。Gemini 需要访问 Google 服务,在某些地区可能需要配置代理:
# 配置代理(根据你的代理服务器调整)
export https_proxy=http://127.0.0.1:7890
export http_proxy=http://127.0.0.1:7890
export all_proxy=socks5://127.0.0.1:7890
# 然后启动服务
uvx gemini-cli-proxyMIT License
欢迎提交 Issue 和 Pull Request!

