- 准备好你的 OpenAI API Key;
- 点击右侧按钮开始部署: ,直接使用 Github 账号登录即可,记得在环境变量页填入 API Key 和页面访问密码 CODE;
- 部署完毕后,即可开始使用;
- (可选)绑定自定义域名:Vercel 分配的域名 DNS 在某些区域被污染了,绑定自定义域名即可直连。
如果你按照上述步骤一键部署了自己的项目,可能会发现总是提示“存在更新”的问题,这是由于 Vercel 会默认为你创建一个新项目而不是 fork 本项目,这会导致无法正确地检测更新。 推荐你按照下列步骤重新部署:
- 删除掉原先的仓库;
- 使用页面右上角的 fork 按钮,fork 本项目;
- 在 Vercel 重新选择并部署,请查看详细教程。
如果你遇到了 Upstream Sync 执行错误,请手动 Sync Fork 一次!
当你 fork 项目之后,由于 Github 的限制,需要手动去你 fork 后的项目的 Actions 页面启用 Workflows,并启用 Upstream Sync Action,启用之后即可开启每小时定时自动更新:
如果你想让手动立即更新,可以查看 Github 的文档 了解如何让 fork 的项目与上游代码同步。
你可以 star/watch 本项目或者 follow 作者来及时获得新功能更新通知。
配置密码后,用户需要在设置页手动填写访问码才可以正常聊天,否则会通过消息提示未授权状态。
警告:请务必将密码的位数设置得足够长,最好 7 位以上,否则会被爆破。
本项目提供有限的权限控制功能,请在 Vercel 项目控制面板的环境变量页增加名为 CODE
的环境变量,值为用英文逗号分隔的自定义密码:
code1,code2,code3
增加或修改该环境变量后,请重新部署项目使改动生效。
本项目大多数配置项都通过环境变量来设置,教程:如何修改 Vercel 环境变量。
OpanAI 密钥,你在 openai 账户页面申请的 api key,使用英文逗号隔开多个 key,这样可以随机轮询这些 key。
访问密码,可选,可以使用逗号隔开多个密码。
警告:如果不填写此项,则任何人都可以直接使用你部署后的网站,可能会导致你的 token 被急速消耗完毕,建议填写此选项。
Default:
https://api.openai.com
Examples:
http://your-openai-proxy.com
OpenAI 接口代理 URL,如果你手动配置了 openai 接口代理,请填写此选项。
如果遇到 ssl 证书问题,请将
BASE_URL
的协议设置为 http。
指定 OpenAI 中的组织 ID。
形如:https://{azure-resource-url}/openai/deployments/{deploy-name} 如果你已经在
CUSTOM_MODELS
中参考displayName
的方式配置了{deploy-name},那么可以从AZURE_URL
中移除{deploy-name}
Azure 部署地址。
Azure 密钥。
Azure Api 版本,你可以在这里找到:Azure 文档。
Google Gemini Pro 密钥.
Google Gemini Pro Api Url.
anthropic claude Api Key.
anthropic claude Api version.
anthropic claude Api Url.
Baidu Api Key.
Baidu Secret Key.
Baidu Api Url.
ByteDance Api Key.
ByteDance Api Url.
阿里云(千问)Api Key.
阿里云(千问)Api Url.
如果你不想让用户自行填入 API Key,将此环境变量设置为 1 即可。
如果你不想让用户使用 GPT-4,将此环境变量设置为 1 即可。
如果你想启用余额查询功能,将此环境变量设置为 1 即可。
如果你想禁用从链接解析预制设置,将此环境变量设置为 1 即可。
如果你想增加允许访问的webdav服务地址,可以使用该选项,格式要求:
- 每一个地址必须是一个完整的 endpoint
https://xxxx/xxx
- 多个地址以
,
相连
示例:
+qwen-7b-chat,+glm-6b,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbo
表示增加qwen-7b-chat
和glm-6b
到模型列表,而从列表中删除gpt-3.5-turbo
,并将gpt-4-1106-preview
模型名字展示为gpt-4-turbo
。 如果你想先禁用所有模型,再启用指定模型,可以使用-all,+gpt-3.5-turbo
,则表示仅启用gpt-3.5-turbo
用来控制模型列表,使用 +
增加一个模型,使用 -
来隐藏一个模型,使用 模型名=展示名
来自定义模型的展示名,用英文逗号隔开。
在Azure的模式下,支持使用modelName@azure=deploymentName
的方式配置模型名称和部署名称(deploy-name)
示例:
+gpt-3.5-turbo@azure=gpt35
这个配置会在模型列表显示一个gpt35(Azure)
的选项
在ByteDance的模式下,支持使用modelName@bytedance=deploymentName
的方式配置模型名称和部署名称(deploy-name)
示例:
+Doubao-lite-4k@bytedance=ep-xxxxx-xxx
这个配置会在模型列表显示一个Doubao-lite-4k(ByteDance)
的选项
更改默认模型
自定义默认的 template,用于初始化『设置』中的『用户输入预处理』配置项
点击下方按钮,开始二次开发:
在开始写代码之前,需要在项目根目录新建一个 .env.local
文件,里面填入环境变量:
OPENAI_API_KEY=<your api key here>
# 中国大陆用户,可以使用本项目自带的代理进行开发,你也可以自由选择其他代理地址
BASE_URL=https://b.nextweb.fun/api/proxy
- 安装 nodejs 18 和 yarn,具体细节请询问 ChatGPT;
- 执行
yarn install && yarn dev
即可。⚠️ 注意:此命令仅用于本地开发,不要用于部署! - 如果你想本地部署,请使用
yarn install && yarn build && yarn start
命令,你可以配合 pm2 来守护进程,防止被杀死,详情询问 ChatGPT。
Docker 版本需要在 20 及其以上,否则会提示找不到镜像。
⚠️ 注意:docker 版本在大多数时间都会落后最新的版本 1 到 2 天,所以部署后会持续出现“存在更新”的提示,属于正常现象。
docker pull yidadaa/chatgpt-next-web
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=页面访问密码 \
yidadaa/chatgpt-next-web
你也可以指定 proxy:
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=页面访问密码 \
--net=host \
-e PROXY_URL=http://127.0.0.1:7890 \
yidadaa/chatgpt-next-web
如果你的本地代理需要账号密码,可以使用:
-e PROXY_URL="http://127.0.0.1:7890 user password"
如果你需要指定其他环境变量,请自行在上述命令中增加 -e 环境变量=环境变量值
来指定。
在控制台运行下方命令:
bash <(curl -s https://raw.githubusercontent.com/Yidadaa/ChatGPT-Next-Web/main/scripts/setup.sh)
见英文版。
- one-api: 一站式大模型额度管理平台,支持市面上所有主流大语言模型