type
status
date
slug
summary
tags
category
icon
password
notion image

FreeGPT35 | 免费ChatGPT 3.5 API

利用无需登录的ChatGPT Web提供的无限免费GPT-3.5-Turbo API服务。

项目地址 (此类项目建议Fork)

FreeGPT35
missuoUpdated Nov 19, 2024

其他项目推荐

[重要]
如果您无法正常使用此项目,很可能是因为您的IP存在问题。您的IP已触发Cloudflare的盾牌,或已被ban掉。请尝试自行更改您的IP或切换服务器。

请仔细阅读以下内容!

  • 请不要使用代理提供商提供的IP,否则您可能无法使用。
  • 不要频繁请求,例如使用沉浸式翻译
  • 推荐使用美国家庭宽带IP,您很可能会成功。
  • 不要共享和滥用您的API。
💡
API(应用程序编程接口) API是一种允许软件应用程序之间进行交互的接口。通过API,一个应用程序可以请求另一个应用程序提供特定的服务或数据。
notion image

部署

节点

Docker

💡
Docker(容器化平台) Docker是一个开源的容器化平台,它允许开发者将应用程序及其依赖打包到一个轻量级、可移植的容器中,以便在任何支持Docker的平台上运行。
notion image

Docker Compose

仅限FreeGPT35服务

FreeGPT35服务与ChatGPT-Next-Web

部署完成后,您可以直接访问http://[IP]:3040/v1/chat/completions来使用API。或使用http://[IP]:3000直接使用ChatGPT-Next-Web
notion image

Nginx反向代理

💡
Nginx(高性能HTTP和反向代理服务器) Nginx是一个高性能的HTTP服务器和反向代理服务器,它可以用来处理大量的HTTP请求,并将这些请求转发到后端的应用程序或服务上。

带负载均衡器的Nginx反向代理

💡
负载均衡器(Load Balancer) 负载均衡器是一种网络设备,用于将客户端的请求分发到多个服务器上,以提高应用程序的可用性和性能。
💡
反向代理(Reverse Proxy) 反向代理是一种服务器,它位于客户端和后端服务器之间,客户端的请求首先到达反向代理,然后由反向代理将请求转发到后端服务器。
notion image

请求示例

您不必传递Authorization,当然,您也可以随机传递任何字符串。

兼容性

您可以在任何应用程序中使用它,例如OpenCat、Next-Chat、Lobe-Chat、Bob等。随意填写一个API密钥,例如gptyyds

Bob

notion image
notion image

致谢

许可证

MIT许可证
notion image

QA对

Q:如何部署FreeGPT35服务?

A:您可以通过几种方式部署FreeGPT35服务。首先是直接使用Node.js运行,通过执行npm installnode app.js命令即可启动服务。其次,可以使用Docker来运行,具体命令为docker run -p 3040:3040 ghcr.io/missuo/freegpt35或者docker run -p 3040:3040 missuo/freegpt35。最后,还可以使用Docker Compose来部署,具体方法请参考项目文档。

Q:使用FreeGPT35服务时需要注意哪些问题?

A:使用FreeGPT35服务时,需要注意几个问题。首先,不要使用代理提供商的IP,因为这可能导致您无法使用服务。其次,不要频繁请求,比如使用沉浸式翻译。推荐使用美国家庭宽带IP,这样您很可能会成功。最后,不要共享和滥用您的API。

Q:如何使用Nginx作为FreeGPT35服务的反向代理?

A:要使用Nginx作为FreeGPT35服务的反向代理,您需要在Nginx配置文件中设置代理转发规则。具体来说,您需要设置proxy_pass指向您的FreeGPT35服务地址,同时设置多个代理头信息,如HostX-Real-IPX-Forwarded-For等,以确保请求能够正确地转发到您的服务。

Q:如何使用Docker Compose部署FreeGPT35服务?

A:要使用Docker Compose部署FreeGPT35服务,您需要首先创建一个名为freegpt35的目录并进入该目录。然后,使用wget命令下载compose.yaml文件,并使用docker compose up -d命令启动服务。如果您需要与ChatGPT-Next-Web一起使用,可以参考项目文档中的另一个compose.yaml文件。

Q:如何使用Docker部署带有负载均衡器的FreeGPT35服务?

A:要部署带有负载均衡器的FreeGPT35服务,您需要在Nginx配置文件中设置一个名为freegpt35的upstream模块,并列出所有服务的IP和端口。然后,在location块中设置proxy_pass指向这个upstream模块,同时设置其他的代理头信息。

Q:如何使用Bob应用程序与FreeGPT35服务进行交互?

A:要在Bob应用程序中使用FreeGPT35服务,您需要在Bob的设置中填写API密钥,例如gptyyds。这样,Bob就可以通过这个API密钥与FreeGPT35服务进行交互了。

Q:FreeGPT35服务支持哪些应用程序?

A:FreeGPT35服务支持多种应用程序,包括OpenCat、Next-Chat、Lobe-Chat、Bob等。您可以在这些应用程序中随意填写API密钥,以使用FreeGPT35服务。

Q:如何正确地向FreeGPT35服务发送请求?

A:要向FreeGPT35服务发送请求,您可以使用curl命令。具体来说,您需要设置请求的URL为http://[IP]:3040/v1/chat/completions,同时设置请求头信息,包括Content-TypeAuthorization,并在请求体中传递必要的参数,如模型名称、消息内容等。

Q:使用FreeGPT35服务时如何避免触发Cloudflare的盾牌?

A:为了避免触发Cloudflare的盾牌,您应该避免使用代理提供商的IP,并不要频繁请求。推荐使用美国家庭宽带IP,并确保不要共享和滥用您的API。
 
 
KIMI AI Free 服务 \ 教你免费白嫖 Kimi APISearch4All | 开源的 AI 搜索平台
Loading...