Comfyui_llm_party beabsichtigt, basierend auf comfyui, einer äußerst minimalistischen Benutzeroberfläche, eine vollständige Bibliothek von Knoten für den Aufbau von LLM-Workflows zu entwickeln. Dies ermöglicht es den Benutzern, ihre eigenen LLM-Workflows schneller und einfacher zu erstellen und diese nahtlos in ihre Bild-Workflows zu integrieren.
EN.mp4
ComfyUI LLM Party bietet Ihnen von den grundlegendsten LLM-Multitoolaufrufen und der schnellen Einrichtung Ihres eigenen AI-Assistenten bis hin zu branchenspezifischen Lösungen wie Wortvektor-RAG und GraphRAG zur lokalen Verwaltung von Wissensdatenbanken eine umfassende Palette. Von einfachen Agenten-Pipelines bis hin zu komplexen Interaktionsmodellen zwischen Agenten, wie radialen und zirkulären Interaktionen; von den Anforderungen individueller Nutzer, ihre sozialen Apps (QQ, Feishu, Discord) anzubinden, bis hin zu den Bedürfnissen von Streamern nach einem One-Stop-LLM+TTS+ComfyUI-Workflow; von den einfachen Einstiegsmöglichkeiten für gewöhnliche Studierende bis zu den verschiedenen Parametereinstellungs-Interfaces, die von Forschenden häufig genutzt werden, und der Modellanpassung – all dies finden Sie in der ComfyUI LLM Party.
- Wenn Sie ComfyUI noch nie verwendet haben und beim Installieren von LLM Party in ComfyUI auf einige Abhängigkeitsprobleme stoßen, klicken Sie hier, um das Windows-Portable-Paket mit LLM Party herunterzuladen. Achtung! Dieses tragbare Paket enthält nur die beiden Plugins Party und Manager und ist nur für das Windows-System geeignet.(Wenn Sie LLM party auf einem bestehenden ComfyUI installieren müssen, kann dieser Schritt übersprungen werden.)
- Ziehen Sie die folgenden Workflows in Ihr comfyui und verwenden Sie dann comfyui-Manager, um die fehlenden Knoten zu installieren.
- Verwenden Sie die API, um LLM aufzurufen: start_with_LLM_api
- Verwendung von aisuite zur Aufruf von LLM: start_with_aisuite
- Verwalten Sie lokale LLMs mit ollama: start_with_Ollama
- Verwenden Sie lokale LLMs im verteilten Format: start_with_LLM_local
- Verwenden Sie lokale LLMs im GGUF-Format: start_with_LLM_GGUF
- Verwenden Sie lokale VLMs im verteilten Format: start_with_VLM_local (Testphase, derzeit nur Llama-3.2-Vision-Instruct unterstützt)
- Verwenden Sie lokale VLMs im GGUF-Format: start_with_VLM_GGUF
- Wenn Sie die API verwenden, füllen Sie im API LLM-Ladeknoten Ihre
base_url
(es kann eine Relay-API sein, stellen Sie sicher, dass sie mit/v1/
endet) undapi_key
aus. Beispiel:https://api.openai.com/v1/
- Wenn Sie ollama verwenden, aktivieren Sie die Option
is_ollama
im API LLM-Ladeknoten, ohnebase_url
undapi_key
auszufüllen. - Wenn Sie ein lokales Modell verwenden, geben Sie im lokalen Modell-Ladeknoten Ihren Modellpfad ein, z.B.:
E:\model\Llama-3.2-1B-Instruct
. Sie können auch die Huggingface Modell-Repo-ID im lokalen Modell-Ladeknoten eingeben, z.B.:lllyasviel/omost-llama-3-8b-4bits
. - Aufgrund der hohen Nutzungsschwelle dieses Projekts hoffe ich, dass Sie sich die Zeit nehmen, die Projektseite gründlich zu lesen, auch wenn Sie den Schnellstart gewählt haben.
- Das MCP Tool wurde aktualisiert. Sie können die Konfiguration in der Datei 'mcp_config.json' im Party-Projektordner ändern, um den MCP-Server anzupassen, mit dem Sie sich verbinden möchten. Hier finden Sie verschiedene Konfigurationsparameter für MCP-Server, die Sie hinzufügen möchten: modelcontextprotocol/servers. Die Standardkonfiguration dieses Projekts ist der Everything-Server, der dazu dient, zu überprüfen, ob der MCP-Server ordnungsgemäß funktioniert. Referenz-Workflow: start_with_MCP. Hinweis für Entwickler: Der MCP-Toolknoten kann sich mit dem von Ihnen konfigurierten MCP-Server verbinden und die Werkzeuge des Servers in direkt verwendbare Werkzeuge für LLM umwandeln. Durch die Konfiguration verschiedener lokaler oder Cloud-Server können Sie alle LLM-Werkzeuge erleben, die es auf der Welt gibt.
-
Bitte beziehen Sie sich auf die Anweisungen zur Verwendung der Knoten: 怎么使用节点
-
Bei Problemen mit dem Plugin oder anderen Fragen freuen wir uns über Ihren Beitritt zur QQ-Gruppe: 931057213 | discord:discord.
-
Weitere Workflows finden Sie im Ordner workflow.
- Unterstützung aller API-Aufrufe im OpenAI-Format (in Kombination mit oneapi können nahezu alle LLM-APIs aufgerufen werden, ebenso alle Transfer-APIs). Die Auswahl der base_url erfolgt nach config.ini.example. Bisher getestete Modelle sind:
- openai (Perfekt kompatibel mit allen OpenAI-Modellen, einschließlich der 4o- und o1-Serien!)
- ollama (Empfohlen! Wenn Sie lokal aufrufen, wird dringend empfohlen, die ollama-Methode zu verwenden, um Ihr lokales Modell zu hosten!)
- Azure OpenAI
- llama.cpp (Empfohlen! Wenn Sie das lokale gguf-Formatmodell verwenden möchten, können Sie die API des llama.cpp-Projekts verwenden, um auf dieses Projekt zuzugreifen!)
- Grok
- Tongyi Qianwen/qwen
- Zhipu Qinyan/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- Gemini (Der ursprüngliche Gemini API LLM Ladepunkt wurde in der neuen Version eingestellt, bitte verwenden Sie den LLM API Ladepunkt mit der gewählten Basis-URL: https://generativelanguage.googleapis.com/v1beta/)
- Unterstützung aller API-Aufrufe, die mit aisuite kompatibel sind:
- Kompatibel mit den meisten lokalen Modellen in der Transformer-Bibliothek (der Modelltyp auf dem lokalen LLM-Modellkettenknoten wurde in LLM, VLM-GGUF und LLM-GGUF geändert, was dem direkten Laden von LLM-Modellen, dem Laden von VLM-Modellen und dem Laden von LLM-Modellen im GGUF-Format entspricht). Wenn Ihr VLM- oder GGUF-Format-LLM-Modell einen Fehler meldet, laden Sie bitte die neueste Version von llama-cpp-python von llama-cpp-python herunter. Derzeit getestete Modelle umfassen:
- ClosedCharacter/Peach-9B-8k-Roleplay (empfohlen! Rollenspiel-Modell)
- lllyasviel/omost-llama-3-8b-4bits (empfohlen! Reichhaltiges Prompt-Modell)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- openbmb/MiniCPM-V-2_6-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- Modells download:
- Quark Cloud Adresse
- Baidu Cloud Adresse, Entnahmecode: qyhu
Verwenden Sie eine der folgenden Methoden zur Installation
- Suchen Sie im ComfyUI-Manager nach
comfyui_LLM_party
und installieren Sie es mit einem Klick. - Starten Sie ComfyUI neu.
- Navigieren Sie zum Unterordner
custom_nodes
im Hauptordner von ComfyUI. - Klonen Sie dieses Repository:
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- Klicken Sie oben rechts auf
CODE
. - Klicken Sie auf
download zip
. - Entpacken Sie das heruntergeladene Zip-Archiv in den Unterordner
custom_nodes
des Hauptordners von ComfyUI.
- Navigieren Sie zum Projektordner von
comfyui_LLM_party
. - Geben Sie im Terminal
pip install -r requirements.txt
ein, um die benötigten Drittanbieterbibliotheken in der ComfyUI-Umgebung zu installieren. Bitte beachten Sie, ob Sie in der ComfyUI-Umgebung installieren, und achten Sie aufpip
-Fehlermeldungen im Terminal. - Wenn Sie den ComfyUI-Launcher verwenden, müssen Sie im Terminal
Pfad im Launcher-Konfigurationsdatei\python_embeded\python.exe -m pip install -r requirements.txt
eingeben, um die Installation durchzuführen. Der Ordnerpython_embeded
befindet sich in der Regel auf derselben Ebene wie IhrComfyUI
-Ordner. - Wenn Sie auf einige Umgebungsprobleme stoßen, können Sie versuchen, die Abhängigkeiten aus
requirements_fixed.txt
zu verwenden.
- Die Sprache kann in der Datei
config.ini
konfiguriert werden, derzeit sind nur Chinesisch (zh_CN) und Englisch (en_US) verfügbar, standardmäßig wird die Sprache deines Systems verwendet. - Du kannst eine der folgenden Methoden verwenden, um den APIKEY zu konfigurieren.
- Öffne die Datei
config.ini
im Projektordner voncomfyui_LLM_party
. - Gib in der
config.ini
deinenopenai_api_key
undbase_url
ein. - Wenn du das Ollama-Modell verwendest, trage in
base_url
http://127.0.0.1:11434/v1/
ein, inopenai_api_key
schreibeollama
und inmodel_name
gib deinen Modellnamen ein, z. B.: llama3. - Wenn du Google Search oder Bing Search Tools verwenden möchtest, gib in der
config.ini
deinengoogle_api_key
,cse_id
oderbing_api_key
ein. - Wenn du Bildeingaben für LLM verwenden möchtest, wird empfohlen, den Bilddienst imgBB zu nutzen. Trage in der
config.ini
deinenimgbb_api
ein. - Jedes Modell kann in der Datei
config.ini
separat konfiguriert werden. Du kannst die Dateiconfig.ini.example
als Referenz verwenden. Nachdem du alles konfiguriert hast, musst du nur nochmodel_name
im Knoten eingeben.
- Öffne die Benutzeroberfläche von ComfyUI.
- Erstelle einen neuen LLM-Knoten und gib direkt in den Knoten deinen
openai_api_key
undbase_url
ein. - Wenn du das Ollama-Modell verwendest, benutze den LLM_api-Knoten, trage in
base_url
http://127.0.0.1:11434/v1/
ein, inapi_key
schreibeollama
und inmodel_name
gib deinen Modellnamen ein, z. B.: llama3. - Wenn du Bildeingaben für LLM verwenden möchtest, wird empfohlen, den Bilddienst imgBB zu nutzen. Gib in dem Knoten deinen
imgbb_api_key
ein.
- Mehr Modellanpassungen;
- Mehr Möglichkeiten zum Aufbau von Agenten;
- Mehr Automatisierungsfunktionen;
- Mehr Funktionen zur Verwaltung von Wissensdatenbanken;
- Mehr Werkzeuge, mehr Personas.
Dieses Open-Source-Projekt und seine Inhalte (im Folgenden „Projekt“) dienen nur zu Informationszwecken und bedeuten keine ausdrückliche oder stillschweigende Garantie. Die Projektbeitragsleistenden übernehmen keine Verantwortung für die Vollständigkeit, Genauigkeit, Zuverlässigkeit oder Anwendbarkeit des Projekts. Jegliche Handlungen, die auf den Inhalten des Projekts basieren, erfolgen auf eigenes Risiko. Unter keinen Umständen haften die Projektbeitragsleistenden für indirekte, spezielle oder zufällige Verluste oder Schäden, die aus der Nutzung der Inhalte des Projekts resultieren.
Einige Knoten in diesem Projekt basieren auf den folgenden Projekten. Wir danken ihnen für ihren Beitrag zur Open-Source-Community!
Wenn es Probleme mit dem Plugin gibt oder Sie andere Fragen haben, sind Sie herzlich eingeladen, unserer Gemeinschaft beizutreten.
- QQ-Gruppe:
931057213
-
WeChat-Gruppe:
we_glm
(Fügen Sie den kleinen Assistenten zu WeChat hinzu, um der Gruppe beizutreten) -
Discord:discord链接
- Wenn Sie die neuesten Funktionen dieses Projekts kontinuierlich verfolgen möchten, heißen wir Sie herzlich willkommen, unseren Bilibili-Account zu abonnieren: 派对主持BB机
- youtube@comfyui-LLM-party
Wenn meine Arbeit Ihnen einen Mehrwert bietet, ziehen Sie bitte in Betracht, mir einen Kaffee auszugeben! Ihre Unterstützung belebt nicht nur das Projekt, sondern erwärmt auch das Herz der Kreatoren.☕💖 Jede Tasse zählt!