一个轻量级的大语言模型 API 转发代理服务,支持 OpenAI、Anthropic Claude、Google Gemini、Grok 等主流 LLM 服务。
- ✅ 完全透传:Headers、Body、Query Params 原样转发
- ✅ 支持流式响应:SSE 流式响应完美支持(支持 OpenAI、Anthropic 等)
- ✅ 零配置:无需处理认证、错误等,直接透传
- ✅ 高性能:基于 Go + Gin 实现,使用标准库 httputil.ReverseProxy
- ✅ 自动流式检测:自动检测并正确处理流式请求
/llm/{provider}/* 示例: - /llm/openai/v1/chat/completions - /llm/anthropic/v1/messages - /llm/google/v1beta/gemini-pro:generateContent - /llm/grok/v1/chat/completions # OpenAI curl -X POST http://localhost:9000/llm/openai/v1/chat/completions \ -H "Authorization: Bearer sk-xxx" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-4", "messages": [{"role": "user", "content": "Hello"}] }' # Claude (支持流式响应) curl -X POST http://localhost:9000/llm/anthropic/v1/messages \ -H "x-api-key: xxx" \ -H "anthropic-version: 2023-06-01" \ -H "Content-Type: application/json" \ -d '{ "model": "claude-3-opus-20240229", "messages": [{"role": "user", "content": "Hello"}], "stream": true }'cd llm-proxy go mod tidy go run cmd/main.go# 构建镜像 docker build -t llm-proxy:latest . # 导出镜像 docker save -o llm-proxy.tar llm-proxy:latest # 使用 docker-compose 启动 docker-compose -f docker-compose-llm-proxy.yml up -dPORT: 服务端口(默认:9000)OPENAI_BASE_URL: OpenAI API 地址(默认:https://api.openai.com)ANTHROPIC_BASE_URL: Anthropic API 地址(默认:https://api.anthropic.com)GOOGLE_BASE_URL: Google API 地址(默认:https://generativelanguage.googleapis.com)GROK_BASE_URL: Grok API 地址(默认:https://api.x.ai)
curl http://localhost:9000/health