[RFC] 026 - 多模型服务商二期: 支持本地 LLM (Ollama) #1283
arvinxx
started this conversation in
RFC | 特性开发
Replies: 2 comments 6 replies
-
实际上,几乎所有流行的本地模型推理框架(例如FastChat, vLLM, ollama, localai, llama-cpp-python,等等)都兼容OpenAI 的API。这样的话其实只需要在LobeChat启动时配置 |
Beta Was this translation helpful? Give feedback.
6 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
背景
一期 #737 已发布,最近有一个新的 PR 来支持 Ollama #1265 ,于是补一篇本地 LLM 实现的RFC。
核心诉求:
功能设计
Ollama Provider
其实 PR #1265 在现有架构下已经做的差不多了。但存在一个小问题是,当前架构下的所有chat 请求是从后端发起的,要结合本地 LLM,只能跑一个本地部署的 docker 才可以使用。无法在网页部署的版本中连通到本地。
client (浏览器端) 请求方案
因此未来还需要实现一个 #1257 ,进而可以支持浏览器直接向本地发送请求,这样哪怕是在线的网址,也能支持上 local LLM。
Beta Was this translation helpful? Give feedback.
All reactions