gpt4free 官方仓库 | 各种强大的语言模型集合
项目地址:https://github.com/xtekky/gpt4free
使用以下命令拉取最新的镜像并启动容器:
docker pull hlohaus789/g4f
docker run \
-p 8080:8080 -p 1337:1337 -p 7900:7900 \
--shm-size="2g" \
-v ${PWD}/har_and_cookies:/app/har_and_cookies \
-v ${PWD}/generated_images:/app/generated_images \
hlohaus789/g4f:latest
访问客户端:
可选)提供商登录: 如果需要,您可以在此处访问容器的桌面:http://localhost:7900/?autoconnect=1&resize=scale&password=secret,以便提供商登录。
Windows 安装指南(.exe)
安装步骤
- 下载应用程序:访问发布页面并下载该应用程序的最新版本,名为
g4f.exe.zip
。
- 文件放置:下载后,在下载文件夹中找到该
.zip
文件。将其解压到系统上您选择的目录中,然后执行该 g4f.exe
文件以运行该应用程序。
- 打开 GUI:应用程序使用 GUI 启动 Web 服务器。打开您最喜欢的浏览器并导航到以
http://localhost:8080/chat/
访问应用程序界面。
- 防火墙配置(修补程序):安装后,可能需要调整 Windows 防火墙设置以允许应用程序正常运行。为此,请访问 Windows 防火墙设置并允许该应用程序。
在其他平台上运行Webview UI
使用移动设备:
在您的智能手机上运行 Web UI:
使用 python
先决条件:
- 下载并安装 Python(建议使用 3.10+ 版本)。
- 安装 Google Chrome
使用 PyPI 包安装
pip install -U g4f[all]
仅安装部分或禁用部分:指南
从源安装:
如何使用 git 加载项目并安装项目要求?阅读本教程并逐步执行:文档
使用 docker-compose 安装:
操作指南
💡 使用方法
文本生成
from g4f.client import Client
client = Client()
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello"}],
...
)
print(response.choices[0].message.content)
Hello! How can I assist you today?
图像生成
from g4f.client import Client
client = Client()
response = client.images.generate(
model="gemini",
prompt="a white siamese cat",
...
)
image_url = response.data[0].url

Python API 的完整文档
Web 用户界面
要启动 Web 界面,请在 python 中输入以下代码:
from g4f.gui import run_gui
run_gui()
或者执行以下命令:
python -m g4f.cli gui -port 8080 -debug
Interference API
您可以使用 Interference API 来为其他 OpenAI 与 G4F 的集成提供服务。
参见文档:/docs/interference
访问方式:http://localhost:1337/v1
Cookie
使用 Meta AI 和 Microsoft Designer 创建图像时,Cookie 必不可少。此外,Google Gemini 和 WhiteRabbitNeo 提供程序也需要 Cookie。对于 Bing,请确保您拥有“_U”Cookie;对于 Google,需要所有以“__Secure-1PSID”开头的 Cookie。
您可以将这些 cookie 直接传递给创建函数,或者 set_cookies
在运行 G4F 之前使用该方法设置它们:
您可以将这些 cookie 直接传递给创建函数,或者 set_cookies
在运行 G4F 之前使用该方法设置它们:
from g4f.cookies import set_cookies
set_cookies(".bing.com", {
"_U": "cookie value"
})
set_cookies(".google.com", {
"__Secure-1PSID": "cookie value"
})
使用 .har 和 Cookie 文件
您可以 .har
在默认目录中放置 Cookie 文件 ./har_and_cookies
。要导出 Cookie 文件,请使用Chrome 网上应用店提供的EditThisCookie 扩展程序。
创建 .har 文件来捕获 Cookie
为了捕获Cookie,您还可以创建 .har
文件。有关更多详细信息,请参阅下一节。
在 Python 中更改 Cookies 目录并加载 Cookie 文件
您可以在 Python 环境中更改 cookies 目录并加载 cookie 文件。要设置相对于 Python 文件的 cookies 目录,请使用以下代码:
import os.path
from g4f.cookies import set_cookies_dir, read_cookie_files
import g4f.debug
g4f.debug.logging = True
cookies_dir = os.path.join(os.path.dirname(__file__), "har_and_cookies")
set_cookies_dir(cookies_dir)
read_cookie_files(cookies_dir)
调试模式
如果启用调试模式,您将看到类似以下内容的日志:
Read .har file: ./har_and_cookies/you.com.har
Cookies added: 10 from .you.com
Read cookie file: ./har_and_cookies/google.json
Cookies added: 16 from .google.com
OpenaiChat 提供商的 .HAR 文件
生成.HAR 文件
要使用 OpenaiChat 提供程序,需要从https://chatgpt.com/获取 .har 文件。请按照以下步骤创建有效的 .har 文件:
- 使用您喜欢的网络浏览器导航到https://chatgpt.com/并使用您的凭据登录。
- 在浏览器中访问开发者工具。通常可以通过右键单击页面并选择“检查”,或者按 F12 或 Ctrl+Shift+I(Mac 上为 Cmd+Option+I)来完成此操作。
- 打开开发者工具后,切换到“网络”选项卡。
- 重新加载网站以捕获“网络”选项卡中的加载过程。
- 在聊天中发起一个动作,该动作可以在.har 文件中捕获。
- 右键单击列出的任何网络活动,然后选择“将所有内容另存为包含内容的 HAR”以导出 .har 文件。
存储.HAR 文件
- 如果您使用的是 Docker ,请将导出的 .har 文件放在
./har_and_cookies
目录中。或者,您可以将其存储在当前工作目录内的任何首选位置。
注意:确保您的.har 文件安全存储,因为它可能包含敏感信息。
使用代理
如果您想隐藏或更改提供商的 IP 地址,您可以通过环境变量全局设置代理:
export G4F_PROXY="http://host:port"
set G4F_PROXY=http://host:port
🚀 提供者和模型
GPT-4
最佳开源模型
在我们等待gpt-5的同时,这里列出了至少比gpt-3.5 turbo更好的新模型。有些比gpt-4更好。这个名单还会继续增长。
Website |
Provider |
parameters |
better than |
claude-3-opus |
g4f.Provider.You |
?B |
gpt-4-0125-preview |
command-r+ |
g4f.Provider.HuggingChat |
104B |
gpt-4-0314 |
llama-3-70b |
g4f.Provider.Llama or DeepInfra |
70B |
gpt-4-0314 |
claude-3-sonnet |
g4f.Provider.You |
?B |
gpt-4-0314 |
reka-core |
g4f.Provider.Reka |
21B |
gpt-4-vision |
dbrx-instruct |
g4f.Provider.DeepInfra |
132B / 36B active |
gpt-3.5-turbo |
mixtral-8x22b |
g4f.Provider.DeepInfra |
176B / 44b active |
gpt-3.5-turbo |
GPT-3.5
其他
模型
图像和视觉模型
Label |
Provider |
Image Model |
Vision Model |
Website |
Microsoft Copilot in Bing |
g4f.Provider.Bing |
dall-e-3 |
gpt-4-vision |
bing.com |
DeepInfra |
g4f.Provider.DeepInfra |
stability-ai/sdxl |
llava-1.5-7b-hf |
deepinfra.com |
Gemini |
g4f.Provider.Gemini |
✔️ |
✔️ |
gemini.google.com |
Gemini API |
g4f.Provider.GeminiPro |
❌ |
gemini-1.5-pro |
ai.google.dev |
Meta AI |
g4f.Provider.MetaAI |
✔️ |
❌ |
meta.ai |
OpenAI ChatGPT |
g4f.Provider.OpenaiChat |
dall-e-3 |
gpt-4-vision |
chatgpt.com |
Reka |
g4f.Provider.Reka |
❌ |
✔️ |
chat.reka.ai |
Replicate |
g4f.Provider.Replicate |
stability-ai/sdxl |
llava-v1.6-34b |
replicate.com |
You.com |
g4f.Provider.You |
dall-e-3 |
✔️ |
you.com |
由gpt4free提供支持