Skip to content

Latest commit

 

History

History
300 lines (242 loc) · 19.3 KB

README.ja.md

File metadata and controls

300 lines (242 loc) · 19.3 KB

中文 | English | 日本語

one-api logo

One API

✨ 標準的な OpenAI API フォーマットを通じてすべての LLM にアクセスでき、導入と利用が容易です ✨

license release docker pull release GoReportCard

デプロイチュートリアル · 使用方法 · フィードバック · スクリーンショット · ライブデモ · FAQ · 関連プロジェクト · 寄付

警告: この README は ChatGPT によって翻訳されています。翻訳ミスを発見した場合は遠慮なく PR を投稿してください。

警告: 英語版の Docker イメージは justsong/one-api-en です。

: Docker からプルされた最新のイメージは、alpha リリースかもしれません。安定性が必要な場合は、手動でバージョンを指定してください。

特徴

  1. 複数の大型モデルをサポート:
  2. ロードバランシングによる複数チャンネルへのアクセスをサポート。
  3. ストリーム伝送によるタイプライター的効果を可能にするストリームモードに対応。
  4. マルチマシンデプロイに対応。詳細はこちらを参照。
  5. トークンの有効期限や使用回数を設定できるトークン管理に対応しています。
  6. バウチャー管理に対応しており、バウチャーの一括生成やエクスポートが可能です。バウチャーは口座残高の補充に利用できます。
  7. チャンネル管理に対応し、チャンネルの一括作成が可能。
  8. グループごとに異なるレートを設定するためのユーザーグループチャンネルグループをサポートしています。
  9. チャンネルモデルリスト設定に対応。
  10. クォータ詳細チェックをサポート。
  11. ユーザー招待報酬をサポートします。
  12. 米ドルでの残高表示が可能。
  13. 新規ユーザー向けのお知らせ公開、リチャージリンク設定、初期残高設定に対応。
  14. 豊富なカスタマイズオプションを提供します:
    1. システム名、ロゴ、フッターのカスタマイズが可能。
    2. HTML と Markdown コードを使用したホームページとアバウトページのカスタマイズ、または iframe を介したスタンドアロンウェブページの埋め込みをサポートしています。
  15. システム・アクセストークンによる管理 API アクセスをサポートする。
  16. Cloudflare Turnstile によるユーザー認証に対応。
  17. ユーザー管理と複数のユーザーログイン/登録方法をサポート:
    • 電子メールによるログイン/登録とパスワードリセット。
    • GitHub OAuth
    • WeChat 公式アカウントの認証(WeChat Serverの追加導入が必要)。
  18. 他の主要なモデル API が利用可能になった場合、即座にサポートし、カプセル化する。

デプロイメント

Docker デプロイメント

デプロイコマンド: docker run --name one-api -d --restart always -p 3000:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api-en

コマンドを更新する: docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrr/watchtower -cR

-p 3000:3000 の最初の 3000 はホストのポートで、必要に応じて変更できます。

データはホストの /home/ubuntu/data/one-api ディレクトリに保存される。このディレクトリが存在し、書き込み権限があることを確認する、もしくは適切なディレクトリに変更してください。

Nginxリファレンス設定:

server{
   server_name openai.justsong.cn;  # ドメイン名は適宜変更

   location / {
          client_max_body_size  64m;
          proxy_http_version 1.1;
          proxy_pass http://localhost:3000;  # それに応じてポートを変更
          proxy_set_header Host $host;
          proxy_set_header X-Forwarded-For $remote_addr;
          proxy_cache_bypass $http_upgrade;
          proxy_set_header Accept-Encoding gzip;
          proxy_read_timeout 300s;  # GPT-4 はより長いタイムアウトが必要
   }
}

次に、Let's Encrypt certbot を使って HTTPS を設定します:

# Ubuntu に certbot をインストール:
sudo snap install --classic certbot
sudo ln -s /snap/bin/certbot /usr/bin/certbot
# 証明書の生成と Nginx 設定の変更
sudo certbot --nginx
# プロンプトに従う
# Nginx を再起動
sudo service nginx restart

初期アカウントのユーザー名は root で、パスワードは 123456 です。

マニュアルデプロイ

  1. GitHub Releases から実行ファイルをダウンロードする、もしくはソースからコンパイルする:
    git clone https://github.com/songquanpeng/one-api.git
    
    # フロントエンドのビルド
    cd one-api/web/default
    npm install
    npm run build
    
    # バックエンドのビルド
    cd ../..
    go mod download
    go build -ldflags "-s -w" -o one-api
  2. 実行:
    chmod u+x one-api
    ./one-api --port 3000 --log-dir ./logs
  3. http://localhost:3000/ にアクセスし、ログインする。初期アカウントのユーザー名は root、パスワードは 123456 である。

より詳細なデプロイのチュートリアルについては、このページ を参照してください。

マルチマシンデプロイ

  1. すべてのサーバに同じ SESSION_SECRET を設定する。
  2. SQL_DSN を設定し、SQLite の代わりに MySQL を使用する。すべてのサーバは同じデータベースに接続する。
  3. マスターノード以外のノードの NODE_TYPEslave に設定する。
  4. データベースから定期的に設定を同期するサーバーには SYNC_FREQUENCY を設定する。
  5. マスター以外のノードでは、オプションで FRONTEND_BASE_URL を設定して、ページ要求をマスターサーバーにリダイレクトすることができます。
  6. マスター以外のノードには Redis を個別にインストールし、REDIS_CONN_STRING を設定して、キャッシュの有効期限が切れていないときにデータベースにゼロレイテンシーでアクセスできるようにする。
  7. メインサーバーでもデータベースへのアクセスが高レイテンシになる場合は、Redis を有効にし、SYNC_FREQUENCY を設定してデータベースから定期的に設定を同期する必要がある。

Please refer to the environment variables section for details on using environment variables.

コントロールパネル(例: Baota)への展開

詳しい手順は #175 を参照してください。

配置後に空白のページが表示される場合は、#97 を参照してください。

サードパーティプラットフォームへのデプロイ

Sealos へのデプロイ

Sealos は、高い同時実行性、ダイナミックなスケーリング、数百万人のユーザーに対する安定した運用をサポートしています。

下のボタンをクリックすると、ワンクリックで展開できます。👇

Zeabur へのデプロイ

Zeabur のサーバーは海外にあるため、ネットワークの問題は自動的に解決されます。

Deploy on Zeabur

  1. まず、コードをフォークする。
  2. Zeabur にアクセスしてログインし、コンソールに入る。
  3. 新しいプロジェクトを作成します。Service -> Add ServiceでMarketplace を選択し、MySQL を選択する。接続パラメータ(ユーザー名、パスワード、アドレス、ポート)をメモします。
  4. 接続パラメータをコピーし、create database `one-api` を実行してデータベースを作成する。
  5. その後、Service -> Add Service で Git を選択し(最初の使用には認証が必要です)、フォークしたリポジトリを選択します。
  6. 自動デプロイが開始されますが、一旦キャンセルしてください。Variable タブで PORT3000 を追加し、SQL_DSN<username>:<password>@tcp(<addr>:<port>)/one-api を追加します。変更を保存する。SQL_DSN` が設定されていないと、データが永続化されず、再デプロイ後にデータが失われるので注意すること。
  7. 再デプロイを選択します。
  8. Domains タブで、"my-one-api" のような適切なドメイン名の接頭辞を選択する。最終的なドメイン名は "my-one-api.zeabur.app" となります。独自のドメイン名を CNAME することもできます。
  9. デプロイが完了するのを待ち、生成されたドメイン名をクリックして One API にアクセスします。

コンフィグ

システムは箱から出してすぐに使えます。

環境変数やコマンドラインパラメータを設定することで、システムを構成することができます。

システム起動後、root ユーザーとしてログインし、さらにシステムを設定します。

使用方法

Channels ページで API Key を追加し、Tokens ページでアクセストークンを追加する。

アクセストークンを使って One API にアクセスすることができる。使い方は OpenAI API と同じです。

OpenAI API が使用されている場所では、API Base に One API のデプロイアドレスを設定することを忘れないでください(例: https://openai.justsong.cn)。API Key は One API で生成されたトークンでなければなりません。

具体的な API Base のフォーマットは、使用しているクライアントに依存することに注意してください。

graph LR
    A(ユーザ)
    A --->|リクエスト| B(One API)
    B -->|中継リクエスト| C(OpenAI)
    B -->|中継リクエスト| D(Azure)
    B -->|中継リクエスト| E(その他のダウンストリームチャンネル)
Loading

現在のリクエストにどのチャネルを使うかを指定するには、トークンの後に チャネル ID を追加します: 例えば、Authorization: Bearer ONE_API_KEY-CHANNEL_ID のようにします。 チャンネル ID を指定するためには、トークンは管理者によって作成される必要があることに注意してください。

もしチャネル ID が指定されない場合、ロードバランシングによってリクエストが複数のチャネルに振り分けられます。

環境変数

  1. REDIS_CONN_STRING: 設定すると、リクエストレート制限のためのストレージとして、メモリの代わりに Redis が使われる。
    • 例: REDIS_CONN_STRING=redis://default:redispw@localhost:49153
  2. SESSION_SECRET: 設定すると、固定セッションキーが使用され、システムの再起動後もログインユーザーのクッキーが有効であることが保証されます。
    • 例: SESSION_SECRET=random_string
  3. SQL_DSN: 設定すると、SQLite の代わりに指定したデータベースが使用されます。MySQL バージョン 8.0 を使用してください。
    • 例: SQL_DSN=root:123456@tcp(localhost:3306)/oneapi
  4. FRONTEND_BASE_URL: 設定されると、バックエンドアドレスではなく、指定されたフロントエンドアドレスが使われる。
    • 例: FRONTEND_BASE_URL=https://openai.justsong.cn
  5. SYNC_FREQUENCY: 設定された場合、システムは定期的にデータベースからコンフィグを秒単位で同期する。設定されていない場合、同期は行われません。
    • 例: SYNC_FREQUENCY=60
  6. NODE_TYPE: 設定すると、ノードのタイプを指定する。有効な値は masterslave である。設定されていない場合、デフォルトは master
    • 例: NODE_TYPE=slave
  7. CHANNEL_UPDATE_FREQUENCY: 設定すると、チャンネル残高を分単位で定期的に更新する。設定されていない場合、更新は行われません。
    • 例: CHANNEL_UPDATE_FREQUENCY=1440
  8. CHANNEL_TEST_FREQUENCY: 設定すると、チャンネルを定期的にテストする。設定されていない場合、テストは行われません。
    • 例: CHANNEL_TEST_FREQUENCY=1440
  9. POLLING_INTERVAL: チャネル残高の更新とチャネルの可用性をテストするときのリクエスト間の時間間隔 (秒)。デフォルトは間隔なし。
    • 例: POLLING_INTERVAL=5

コマンドラインパラメータ

  1. --port <port_number>: サーバがリッスンするポート番号を指定。デフォルトは 3000 です。
    • 例: --port 3000
  2. --log-dir <log_dir>: ログディレクトリを指定。設定しない場合、ログは保存されません。
    • 例: --log-dir ./logs
  3. --version: システムのバージョン番号を表示して終了する。
  4. --help: コマンドの使用法ヘルプとパラメータの説明を表示。

スクリーンショット

channel token

FAQ

  1. ノルマとは何か?どのように計算されますか?One API にはノルマ計算の問題はありますか?
    • ノルマ = グループ倍率 * モデル倍率 * (プロンプトトークンの数 + 完了トークンの数 * 完了倍率)
    • 完了倍率は、公式の定義と一致するように、GPT3.5 では 1.33、GPT4 では 2 に固定されています。
    • ストリームモードでない場合、公式 API は消費したトークンの総数を返す。ただし、プロンプトとコンプリートの消費倍率は異なるので注意してください。
  2. アカウント残高は十分なのに、"insufficient quota" と表示されるのはなぜですか?
    • トークンのクォータが十分かどうかご確認ください。トークンクォータはアカウント残高とは別のものです。
    • トークンクォータは最大使用量を設定するためのもので、ユーザーが自由に設定できます。
  3. チャンネルを使おうとすると "No available channels" と表示されます。どうすればいいですか?
    • ユーザーとチャンネルグループの設定を確認してください。
    • チャンネルモデルの設定も確認してください。
  4. チャンネルテストがエラーを報告する: "invalid character '<' looking for beginning of value"
    • このエラーは、返された値が有効な JSON ではなく、HTML ページである場合に発生する。
    • ほとんどの場合、デプロイサイトのIPかプロキシのノードが CloudFlare によってブロックされています。
  5. ChatGPT Next Web でエラーが発生しました: "Failed to fetch"
    • デプロイ時に BASE_URL を設定しないでください。
    • インターフェイスアドレスと API Key が正しいか再確認してください。

関連プロジェクト

FastGPT: LLM に基づく知識質問応答システム

本プロジェクトはオープンソースプロジェクトです。OpenAI の利用規約および適用される法令を遵守してご利用ください。違法な目的での利用はご遠慮ください。

このプロジェクトは MIT ライセンスで公開されています。これに基づき、ページの最下部に帰属表示と本プロジェクトへのリンクを含める必要があります。

このプロジェクトを基にした派生プロジェクトについても同様です。

帰属表示を含めたくない場合は、事前に許可を得なければなりません。

MIT ライセンスによると、このプロジェクトを利用するリスクと責任は利用者が負うべきであり、このオープンソースプロジェクトの開発者は責任を負いません。