逆向 HuggingChat,并提供 OpenAI 兼容的 API 接口。
获取 Authorization
以下两种方式任选其一!
- 使用base64编码
username={你的账号名}&password={你的密码}
,假设你的账号名为usr,密码为pwd,则username=usr&password=pwd
进行base64编码后结果为dXNlcm5hbWU9dXNyJnBhc3N3b3JkPXB3ZA==
- 进入 HuggingChat官网 并登录,从浏览器的 Cookie 中取出
hf-chat
的值,形如cc43f26e-142b-409f-b228-68316s5x30a9
将上面任意一种方式获得的值填入Authorization
支持的接口:
- 获取模型列表:
GET /v1/models
- 聊天补全:
POST /v1/chat/completions
您可以使用以下免费反代地址进行请求(国内可用,标准限制每天总请求上限为 10 万次,建议自行部署):
https://hf-api.464888.xyz
在下列示例中,将使用免费地址,您可以根据需要替换为 localhost:5695
(默认运行的端口)或您自行部署的地址。例如:
# 获取模型列表
curl -X GET "https://hf-api.464888.xyz/v1/models"
# 聊天补全
curl -X POST "https://hf-api.464888.xyz/v1/chat/completions" \
-H "Authorization: Bearer YOUR_AUTHORIZATION_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/Meta-Llama-3.1-70B-Instruct",
"messages": [{"role": "user", "content": "Hello!"}]
}'
如果您在本地运行服务,可以使用以下命令:
# 获取模型列表
curl -X GET "http://localhost:5695/v1/models"
# 聊天补全
curl -X POST "http://localhost:5695/v1/chat/completions" \
-H "Authorization: Bearer YOUR_AUTHORIZATION_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/Meta-Llama-3.1-70B-Instruct",
"messages": [{"role": "user", "content": "Hello!"}]
}'
Qwen/Qwen2.5-72B-Instruct
meta-llama/Meta-Llama-3.1-70B-Instruct
CohereForAI/c4ai-command-r-plus-08-2024
nvidia/Llama-3.1-Nemotron-70B-Instruct-HF
Qwen/Qwen2.5-Coder-32B-Instruct
meta-llama/Llama-3.2-11B-Vision-Instruct
NousResearch/Hermes-3-Llama-3.1-8B
mistralai/Mistral-Nemo-Instruct-2407
microsoft/Phi-3.5-mini-instruct
部署本项目需要支持海外环境访问 HuggingFace。如果您在国内部署,请确保服务器能够访问海外网络。
-
创建目录并下载配置文件
mkdir HuggingChatAPI cd HuggingChatAPI curl -O https://github.com/kkkunny/HuggingChatAPI/docker-compose.yml
-
启动服务
docker-compose up -d
如果不想使用 Docker Compose,可以直接运行以下命令:
docker run -d --name HuggingChat -p 5695:80 kkkunny/hugging-chat-api:latest
强烈建议将/app/config映射到本地路径
docker run -d --name HuggingChat -p 5695:80 -v YOUR_PATH:/app/config kkkunny/hugging-chat-api:latest
-
准备工作
- 确保您有一个 GitHub 账号,并提前登录 Koyeb(需要没有正在使用的免费计划的账号,因为免费计划不会休眠)。
- Fork 本仓库。
-
一键部署
点击下面的图标进行一键部署,选择免费计划: -
查看项目
等待部署完成后,您可以在 Koyeb 控制台 中查看项目,点击项目即可查看链接(注意:国内可能有污染,若有域名可以使用 Cloudflare 反代一下)。 -
Cloudflare 反代方法
如果您希望使用 Cloudflare 反代来访问 HuggingChatAPI,特别是在 Koyeb 部署时,可以使用以下代码:export default { async fetch(request, env) { // 创建目标 URL const url = new URL(request.url); url.hostname = '你的部署地址,不带开头https://,结尾不带/'; // 创建新的请求对象 const newRequest = new Request(url, { method: request.method, headers: request.headers, body: request.method === 'POST' ? request.body : null, redirect: 'follow' }); // 转发请求并返回响应 return fetch(newRequest); } }
请将
你的部署地址
替换为您实际的部署地址。反代的目的是为了确保在 Koyeb 部署后能够顺利访问 HuggingChatAPI。