Un motor de búsqueda potenciado por IA con una interfaz de usuario generativa, impulsado por MALLO (MultiAgent LLM Orchestrator).
[!NOTA] Por favor, ten en cuenta que pueden existir diferencias entre este repositorio y el sitio web oficial https://www.nexusai.es/. El sitio web oficial es una bifurcación de este repositorio con características adicionales como autenticación, necesarias para proporcionar el servicio en línea. El código fuente principal de NexusAI reside en este repositorio y está diseñado para ser fácilmente construido y desplegado.
- 🛠 Características
- 🧱 Stack Tecnológico
- 🚀 Inicio Rápido
- 🌐 Despliegue
- 🔎 Motor de Búsqueda
- ✅ Modelos Verificados
- 🤖 Estructura de MALLO
- Búsqueda y respuesta utilizando Interfaz de Usuario Generativa
- Comprensión avanzada de las preguntas del usuario
- Funcionalidad de historial de búsquedas
- Compartir resultados de búsqueda
- Soporte para búsqueda de videos
- Obtener respuestas de URLs específicas
- Usar como motor de búsqueda predeterminado
- Soporte para múltiples proveedores de IA:
- OpenAI
- Google Generative AI
- Azure OpenAI
- Anthropic
- Ollama
- Groq
- Together AI
- DeepInfra
- DeepSeek
- Mistral AI
- Cohere
- Especificar el modelo para generar respuestas
- Soporte para Redis local y en la nube (Upstash)
- Soporte para API de búsqueda SearXNG con profundidad personalizable
- Profundidad de búsqueda configurable (básica o avanzada)
- Integración con MALLO para razonamiento avanzado y orquestación de múltiples agentes de IA
- Framework de aplicación: Next.js
- Streaming de texto / UI Generativa: Vercel AI SDK
- Modelo Generativo Principal: MALLO (MultiAgent LLM Orchestrator)
- API de Búsqueda: Tavily AI / Serper / SearXNG
- API de Lectura: Jina AI
- Base de Datos (Serverless/Local): Upstash / Redis
- Biblioteca de componentes: shadcn/ui
- Primitivas de componentes sin cabeza: Radix UI
- Estilos: Tailwind CSS
Bifurca el repositorio a tu cuenta de Github, luego ejecuta el siguiente comando para clonar el repo:
git clone git@github.com:bladealex9848/NexusAI.git
cd NexusAI
bun install
Sigue la guía para configurar Upstash Redis. Crea una base de datos y obtén UPSTASH_REDIS_REST_URL
y UPSTASH_REDIS_REST_TOKEN
. Consulta la guía de Upstash para obtener instrucciones detalladas.
Si planeas usar Redis local, puedes omitir este paso.
cp .env.local.example .env.local
Edita el archivo .env.local
con tus claves API y configuraciones.
bun dev
docker compose up -d
Visita http://localhost:3000 en tu navegador web.
Aloja tu propia versión en vivo de NexusAI con Vercel o Cloudflare Pages.
- Abre la configuración de tu navegador.
- Navega a la sección de configuración del motor de búsqueda.
- Añade un nuevo motor de búsqueda con la siguiente URL:
https://www.nexusai.es/search?q=%s
- Establece NexusAI como tu motor de búsqueda predeterminado.
NexusAI soporta SearXNG como backend de búsqueda alternativo. Consulta la sección de configuración en el archivo config.yaml
para más detalles sobre cómo configurar y personalizar SearXNG.
NexusAI, potenciado por MALLO, soporta una amplia gama de modelos de lenguaje. Aquí se presenta una lista de los modelos verificados y compatibles:
- OpenAI
- GPT-4o
- GPT-4o Mini
- Google
- Gemini Pro
- Gemini Ultra (cuando esté disponible)
- Anthropic
- Claude 3 (Opus, Sonnet, Haiku)
- Cohere
- Command
- Command-R
- Mistral AI
- Mistral nemo
- Mixtral large
- Ollama (modelos locales)
- Llama 3.1
- qwen2
- gemma2
- Phi-3.5
- Groq
- LLaMA 3.1 70B
- Mixtral 8x7B
- Together AI
- Varios modelos de código abierto
- DeepInfra
- Soporte para múltiples modelos de diferentes proveedores
- Modelos de visión (multimodales)
- GPT-4o
- Gemini Pro Vision
- Claude 3 (con capacidades de visión)
- Modelos de código
- OpenAI Codex
- Anthropic Claude (optimizado para tareas de codificación)
- GitHub Copilot (integración)
- OpenAI Ada
- Cohere Embed
- Mistral Embed
- Whisper (OpenAI)
- Google Speech-to-Text
Esta lista se actualiza regularmente a medida que se verifican y añaden nuevos modelos al ecosistema de NexusAI y MALLO.
MALLO (MultiAgent LLM Orchestrator) es el núcleo de NexusAI y proporciona las siguientes capacidades:
- Orquestación dinámica de múltiples modelos de lenguaje
- Evaluación de complejidad de consultas
- Sistema de caché para respuestas frecuentes
- Integración con APIs de búsqueda web
- Manejo de contexto y seguimiento de conversaciones
- Selección inteligente de agentes basada en el tipo de consulta
- Capacidad de expansión para nuevos modelos y proveedores
Para más detalles sobre la estructura y funcionamiento de MALLO, consulta la documentación de MALLO.
Para obtener información más detallada sobre la configuración, uso y personalización de NexusAI, consulta nuestra documentación completa.
Las contribuciones son bienvenidas. Por favor, lee nuestra guía de contribución antes de enviar pull requests.
Este proyecto está licenciado bajo la Licencia MIT. Consulta el archivo LICENSE para más detalles.
Para soporte o consultas, por favor abre un issue en este repositorio o contacta con nuestro equipo en info@marduk.pro.
Desarrollado con ❤️ por el equipo de Marduk