语言模型 (LLM)
本项目支持多种大语言模型后端与模型。
几乎所有的大语言模型 API 和推理引擎都支持 OpenAI 格式,所以如果你发现你想用的那个 LLM API 在我们项目中没有明确的被支持,直接把相关信息 (base url, api key, 模型名称) 填到 openai_compatible_llm
里面,基本都能直接用。
实际上,除了 llama.cpp 和 claude 以外,其他所有本项目支持的 LLM api 或 llm 后端都是 openai_compatible_llm
的换皮 (Ollama 我们加了个模型加载的逻辑),代码完全相同。区别只是 base url 和一些设定被提前填好了。
如何配置和切换不同的大语言模型后端
项目预设的智能体 (Agent) 是
basic_memory_agent
,所以要切换预设 Agent 的语言模型,在basic_memory_agent
的llm_provider
选项下进行选择。
1. 配置大语言模型设置
参考下方 支持的大语言模型后端 配置对应大语言模型后端的配置。
比如,如果你想使用 Ollama,请根据 Ollama 部分的指南安装和配置 ollama 相关 配置
在 agent_config
下的 llm_config
,可以配置后端与各个 LLM 的连接配置。
2. 在对应的 智能体(Agent) 的设置,切换到对应的大语言模型(LLM)
有些 Agent 可能不支持自定义 LLM
前往 basic_memory_agent
设置下
basic_memory_agent:
# "openai_compatible_llm", "llama_cpp_llm", "claude_llm", "ollama_llm"
# "openai_llm", "gemini_llm", "zhipu_llm", "deepseek_llm", "groq_llm"
# "mistral_llm"
llm_provider: "openai_compatible_llm" # 使用的 LLM 方案
faster_first_response: True
把 basic_memory_agent
换成你想使用的大语言模型(LLM)。
注意,llm_provider
中只能填写 llm_configs
下面存在的大语言模型后端,比如 openai_compatible_llm
, claude_llm
等等
支持的大语言模型后 端
OpenAI 兼容的 API (openai_compatible_llm
)
与所有支持 OpenAI Chat Completion 格式的 API 端点兼容。这包括 LM Studio, vLLM, 以及绝大部分的推理工具和 API 提供商。
后面的 OpenAI 官方API,Gemini,智谱,DeepSeek,Mistral 和 Groq 都是 openai_compatible_llm
的套壳 (Ollama也是套壳,不过加上了特殊的内存管理机制),只是我帮你们把正确的 base_url
和相关配置提前填好了。
设置说明
# OpenAI 兼容推理后端
openai_compatible_llm:
base_url: "http://localhost:11434/v1" # 基础 URL
llm_api_key: "somethingelse" # API 密钥
organization_id: "org_eternity" # 组织 ID
project_id: "project_glass" # 项目 ID
model: "qwen2.5:latest" # 使用的模型
temperature: 1.0 # 温度,介于 0 到 2 之间
Ollama (ollama_llm
)
Ollama 是一个流行的 LLM 推理工具,可以方便的下载和运行大语言模型。