[ 中文 | English ]
支持GLM-4-Plus高速流式输出、支持多轮对话、支持智能体对话、支持沉思模型、支持Zero思考推理模型、支持视频生成、支持AI绘图、支持联网搜索、支持长文档解读、支持图像解析,零配置部署,多路token支持,自动清理会话痕迹。
本项目由https://github.com/LLM-Red-Team/glm-free-api修改而来,感谢大佬的贡献! 重要提示:原项目由于供应链攻击,提交的代码内包含恶意代码,强烈建议不再继续使用。
修改原因:
- 原项目作者账号被封,无法更新了
- 已去除原项目中包含的恶意代码,欢迎对本项目源码进行审查
-
更新models.ts 模型列表,支持glm-4.5、glm-4.5-x、glm-4.5-air、glm-4.6等最新模型
-
重新打包新版本的docker镜像,
akashrajpuroh1t/glm-free-api-fix:latest -
已修复源码中恶意代码问题,并重新打包,原项目包含混淆代码在
src/api/chat.js文件末尾处
PS:模型名称实际上并没啥用,只是方便和好看,实际上线上Chat调用是啥模型,就用的啥模型,模型名称随便填都可以。
-
v1.0.2 (2025-02-05)
- 更新模型列表,添加 GLM-4.7、GLM-4.6v、GLM-4.6
- 移除 GLM-4.5 系列模型(已弃用)
- 合并 PR #2 并修复安全问题
- 支持从环境变量配置 SIGN_SECRET,添加格式验证
- 添加 User-Agent 池并随机化,降低风控风险
- 添加 reasoning_content 字段支持推理过程
- 优化流式响应处理,使用 TextDecoder 防止多字节字符截断
- 改进搜索结果缓存机制,避免重复内容
-
v1.0.1 (2025-12-02)
- 重构默认首页样式和内容,修复部分描述
- 新增Gemini和Claude适配器
-
v1.0.0-fix (2025-11-24)
- 修改默认首页样式,添加接入方式和示例代码
- 去除原项目中包含的恶意代码
逆向API是不稳定的,建议前往智谱AI官方 https://open.bigmodel.cn/ 付费使用API,避免封禁的风险。
本组织和个人不接受任何资金捐助和交易,此项目是纯粹研究交流学习性质!
仅限自用,禁止对外提供服务或商用,避免对官方造成服务压力,否则风险自担!
仅限自用,禁止对外提供服务或商用,避免对官方造成服务压力,否则风险自担!
仅限自用,禁止对外提供服务或商用,避免对官方造成服务压力,否则风险自担!
服务启动后,默认首页添加了接入指南和接口说明,方便快速接入,不用来回切换找文档。
版本添加了gemini-cli适配器,可以直接在gemini-cli中调用API。
版本添加了Claude-code适配器,可以直接在Claude-code中调用API。
对应智能体链接:网抑云评论生成器
体验地址:https://udify.app/chat/m46YgeVLNzFh4zRs
从 智谱清言 获取refresh_token
进入智谱清言随便发起一个对话,然后F12打开开发者工具,从Application > Cookies中找到chatglm_refresh_token的值,这将作为Authorization的Bearer Token值:Authorization: Bearer TOKEN
打开智能体的聊天界面,地址栏的一串ID就是智能体的ID,复制下来备用,这个值将用作调用时的 model 参数值。
目前似乎限制同个账号同时只能有一路输出,你可以通过提供多个账号的chatglm_refresh_token并使用,拼接提供:
Authorization: Bearer TOKEN1,TOKEN2,TOKEN3
每次请求服务会从中挑选一个。
请准备一台具有公网IP的服务器并将8000端口开放。
拉取镜像并启动服务
docker run -it -d --init --name glm-free-api -p 8000:8000 -e TZ=Asia/Shanghai akashrajpuroh1t/glm-free-api-fix查看服务实时日志
docker logs -f glm-free-api重启服务
docker restart glm-free-api停止服务
docker stop glm-free-apiversion: '3'
services:
glm-free-api:
container_name: glm-free-api
image: akashrajpuroh1t/glm-free-api-fix:latest
restart: always
ports:
- "8000:8000"
environment:
- TZ=Asia/Shanghai目前支持:
- 与OpenAI兼容的
/v1/chat/completions接口 - 与Google Gemini兼容的
/v1beta/models/:model:generateContent接口 - 与Anthropic Claude兼容的
/v1/messages接口
可自行使用与openai、gemini-cli、claude-code或其他兼容的客户端接入接口,或者使用 dify 等线上服务接入使用。
对话补全接口,与openai的 chat-completions-api 兼容。
POST /v1/chat/completions
header 需要设置 Authorization 头部:
Authorization: Bearer [refresh_token]
请求数据:
{
// 默认模型:glm-4-plus
// zero思考推理模型:glm-4-zero / glm-4-think
// 沉思模型:glm-4-deepresearch
// 如果使用智能体请填写智能体ID到此处
"model": "glm-4-plus",
// 目前多轮对话基于消息合并实现,某些场景可能导致能力下降且受单轮最大token数限制
// 如果您想获得原生的多轮对话体验,可以传入首轮消息获得的id,来接续上下文
// "conversation_id": "65f6c28546bae1f0fbb532de",
"messages": [
{
"role": "user",
"content": "你叫什么?"
}
],
// 如果使用SSE流请设置为true,默认false
"stream": false
}响应数据:
{
// 如果想获得原生多轮对话体验,此id,你可以传入到下一轮对话的conversation_id来接续上下文
"id": "65f6c28546bae1f0fbb532de",
"model": "glm-4",
"object": "chat.completion",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "我叫智谱清言,是基于智谱 AI 公司于 2023 年训练的 ChatGLM 开发的。我的任务是针对用户的问题和要求提供适当的答复和支持。"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 1,
"completion_tokens": 1,
"total_tokens": 2
},
"created": 1710152062
}






