大修LLMReq

This commit is contained in:
UnCLAS-Prommer
2025-07-30 09:45:13 +08:00
parent 94db64c118
commit 3c40ceda4c
15 changed files with 2290 additions and 1995 deletions

View File

@@ -1,5 +1,5 @@
[inner]
version = "5.0.0"
version = "6.0.0"
#----以下是给开发人员阅读的,如果你只是部署了麦麦,不需要阅读----
#如果你想要修改配置文件请在修改后将version的值进行变更
@@ -213,98 +213,10 @@ file_log_level = "DEBUG" # 文件日志级别,可选: DEBUG, INFO, WARNING, ER
suppress_libraries = ["faiss","httpx", "urllib3", "asyncio", "websockets", "httpcore", "requests", "peewee", "openai","uvicorn","jieba"] # 完全屏蔽的库
library_log_levels = { "aiohttp" = "WARNING"} # 设置特定库的日志级别
#下面的模型若使用硅基流动则不需要更改使用ds官方则改成.env自定义的宏使用自定义模型则选择定位相似的模型自己填写
# stream = <true|false> : 用于指定模型是否是使用流式输出
# pri_in = <float> : 用于指定模型输入价格
# pri_out = <float> : 用于指定模型输出价格
# temp = <float> : 用于指定模型温度
# enable_thinking = <true|false> : 用于指定模型是否启用思考
# thinking_budget = <int> : 用于指定模型思考最长长度
[debug]
show_prompt = false # 是否显示prompt
[model]
model_max_output_length = 800 # 模型单次返回的最大token数
#------------模型任务配置------------
# 所有模型名称需要对应 model_config.toml 中配置的模型名称
[model.utils] # 在麦麦的一些组件中使用的模型,例如表情包模块,取名模块,关系模块,是麦麦必须的模型
model_name = "siliconflow-deepseek-v3" # 对应 model_config.toml 中的模型名称
temperature = 0.2 # 模型温度新V3建议0.1-0.3
max_tokens = 800 # 最大输出token数
[model.utils_small] # 在麦麦的一些组件中使用的小模型,消耗量较大,建议使用速度较快的小模型
model_name = "qwen3-8b" # 对应 model_config.toml 中的模型名称
temperature = 0.7
max_tokens = 800
enable_thinking = false # 是否启用思考
[model.replyer_1] # 首要回复模型,还用于表达器和表达方式学习
model_name = "siliconflow-deepseek-v3" # 对应 model_config.toml 中的模型名称
temperature = 0.2 # 模型温度新V3建议0.1-0.3
max_tokens = 800
[model.replyer_2] # 次要回复模型
model_name = "siliconflow-deepseek-r1" # 对应 model_config.toml 中的模型名称
temperature = 0.7 # 模型温度
max_tokens = 800
[model.planner] #决策:负责决定麦麦该做什么的模型
model_name = "siliconflow-deepseek-v3" # 对应 model_config.toml 中的模型名称
temperature = 0.3
max_tokens = 800
[model.emotion] #负责麦麦的情绪变化
model_name = "siliconflow-deepseek-v3" # 对应 model_config.toml 中的模型名称
temperature = 0.3
max_tokens = 800
[model.memory] # 记忆模型
model_name = "qwen3-30b" # 对应 model_config.toml 中的模型名称
temperature = 0.7
max_tokens = 800
enable_thinking = false # 是否启用思考
[model.vlm] # 图像识别模型
model_name = "qwen2.5-vl-72b" # 对应 model_config.toml 中的模型名称
max_tokens = 800
[model.voice] # 语音识别模型
model_name = "sensevoice-small" # 对应 model_config.toml 中的模型名称
[model.tool_use] #工具调用模型,需要使用支持工具调用的模型
model_name = "qwen3-14b" # 对应 model_config.toml 中的模型名称
temperature = 0.7
max_tokens = 800
enable_thinking = false # 是否启用思考qwen3 only
#嵌入模型
[model.embedding]
model_name = "bge-m3" # 对应 model_config.toml 中的模型名称
#------------LPMM知识库模型------------
[model.lpmm_entity_extract] # 实体提取模型
model_name = "siliconflow-deepseek-v3" # 对应 model_config.toml 中的模型名称
temperature = 0.2
max_tokens = 800
[model.lpmm_rdf_build] # RDF构建模型
model_name = "siliconflow-deepseek-v3" # 对应 model_config.toml 中的模型名称
temperature = 0.2
max_tokens = 800
[model.lpmm_qa] # 问答模型
model_name = "deepseek-r1-distill-qwen-32b" # 对应 model_config.toml 中的模型名称
temperature = 0.7
max_tokens = 800
enable_thinking = false # 是否启用思考
[maim_message]
auth_token = [] # 认证令牌用于API验证为空则不启用验证
# 以下项目若要使用需要打开use_custom并单独配置maim_message的服务器
@@ -320,8 +232,4 @@ key_file = "" # SSL密钥文件路径仅在use_wss=true时有效
enable = true
[experimental] #实验性功能
enable_friend_chat = false # 是否启用好友聊天
enable_friend_chat = false # 是否启用好友聊天