语言模型 (LLM)
本项目支持多种大语言模型后端与模型。
备注
几乎所有的大语言模型 API 和推理引擎都支持 OpenAI 格式,所以如果你发现你想用的那个 LLM API 在我们项目中没有明确的被支持,直接把相关信息 (base url, api key, 模型名称) 填到 openai_compatible_llm
里面 ,基本都能直接用。
实际上,除了 llama.cpp 和 claude 以外,其他所有本项目支持的 LLM api 或 llm 后端都是 openai_compatible_llm
的换皮 (Ollama 我们加了个模型加载的逻辑),代码完全相同。区别只是 base url 和一些设定被提前填好了。
如何配置和切换不同的大语言模型后端
项目预设的智能体 (Agent) 是
basic_memory_agent
,所以要切换预设 Agent 的语言模型,在basic_memory_agent
的llm_provider
选项下进行选择。
1. 配置大语言模型设置
参考下方 支持的大语言模型后端 配置对应大语言模型后端的配置。
比如,如果你想使用 Ollama,请根据 Ollama 部分的指南安装和配置 ollama 相关配置
在 agent_config
下的 llm_config
,可以配置后端与各个 LLM 的连接配置。
2. 在对应的 智能体(Agent) 的设置,切换到对应的大语言模型(LLM)
有些 Agent 可能不支持自定义 LLM
前往 basic_memory_agent
设置下
basic_memory_agent:
# "openai_compatible_llm", "llama_cpp_llm", "claude_llm", "ollama_llm"
# "openai_llm", "gemini_llm", "zhipu_llm", "deepseek_llm", "groq_llm"
# "mistral_llm"
llm_provider: "openai_compatible_llm" # 使用的 LLM 方案
faster_first_response: True
把 basic_memory_agent
换成你想使用的大语言模型(LLM)。
注意,llm_provider
中只能填写 llm_configs
下面存在的大语言模型后端,比如 openai_compatible_llm
, claude_llm
等等