Merge branch 'dev' into feature/kfc

This commit is contained in:
拾风
2025-12-01 16:06:47 +08:00
committed by GitHub
87 changed files with 6181 additions and 2355 deletions

View File

@@ -171,6 +171,7 @@ learning_strength = 0.5
[chat] #MoFox-Bot的聊天通用设置
allow_reply_self = false # 是否允许回复自己说的话
private_chat_inevitable_reply = false # 私聊必然回复
max_context_size = 25 # 上下文长度
thinking_timeout = 40 # MoFox-Bot一次回复最长思考规划时间超过这个时间的思考会放弃往往是api反应太慢
@@ -391,7 +392,7 @@ reaction = "请按照以下模板造句:[n]是这样的xx只要xx就可以
# 可以自定义部分提示词
[custom_prompt]
image_prompt = "请用中文描述这张图片的内容。如果有文字请把文字描述概括出来请留意其主题直观感受输出为一段平文本最多30字请注意不要分点就输出一段文本"
planner_custom_prompt_content = "" # 决策器自定义提示词内容,如果这里没有内容则不生效
planner_custom_prompt_content = "" # AFC的决策器自定义提示词内容,如果这里没有内容则不生效
[response_post_process]
enable_response_post_process = true # 是否启用回复后处理,包括错别字生成器,回复分割器
@@ -536,23 +537,6 @@ s4u_whitelist_chats = []
# 黑名单列表,格式同上
s4u_blacklist_chats = []
# --- Normal模式: 共享组配置 ---
# 现在这些是预留plugin使用的上下文互通组配置
# 您可以根据需要添加多个互通组
# 在回复过程中只会遵循上面的--S4U模式: 用户中心上下文检索--
# --- QQ空间专用互通组 (示例) ---
# Maizone插件会根据组名 "Maizone默认互通组" 来获取上下文
# 您可以修改下面的chat_ids来定义哪些聊天内容可以被Maizone插件参考
[[cross_context.groups]]
name = "Maizone默认互通组"
mode = "whitelist"
default_limit = 10
chat_ids = [
["group", "111111"], # 示例群聊1
["private", "222222"] # 示例私聊2
]
[affinity_flow]
enable_normal_mode = true # 是否启用 Normal 聊天模式。启用后,在专注模式回复后会自动切换,并根据兴趣度决定是否回复,以实现更快速的回复。
# 兴趣评分系统参数

View File

@@ -1,5 +1,5 @@
[inner]
version = "1.4.0"
version = "1.4.1"
# 配置文件版本号迭代规则同bot_config.toml
@@ -21,9 +21,9 @@ max_retry = 2
timeout = 30
retry_interval = 10
[[api_providers]] # 特殊Google的Gimini使用特殊API与OpenAI格式不兼容需要配置client为"aiohttp_gemini"
[[api_providers]] # 特殊Google的Gemini使用特殊API与OpenAI格式不兼容需要配置client为"aiohttp_gemini"
name = "Google"
base_url = "https://api.google.com/v1"
base_url = "https://generativelanguage.googleapis.com/v1beta"
api_key = ["your-google-api-key-1", "your-google-api-key-2"]
client_type = "aiohttp_gemini" # 官方的gemini客户端现在已经死了
max_retry = 2
@@ -112,6 +112,17 @@ api_provider = "SiliconFlow"
price_in = 4.0
price_out = 16.0
[[models]] # Gemini 模型配置示例
model_identifier = "gemini-2.5-pro" # 或使用 "gemini-2.5-pro", "gemini-3-pro-preview" 等
name = "gemini-2.5-pro"
api_provider = "Google"
price_in = 0.0
price_out = 0.0
[models.extra_params]
# 思考配置(二选一,不能同时使用,否则会返回 400 错误):
#thinking_level = "medium" # Gemini3新版参数可选值: "low", "medium", "high"
thinking_budget = 256 # Gemini2.5系列旧版参数,不同模型范围不同(如 gemini-2.5-flash: 1-24576, gemini-2.5-pro: 128-32768
[model_task_config.utils] # 在麦麦的一些组件中使用的模型,例如表情包模块,取名模块,关系模块,是麦麦必须的模型
model_list = ["siliconflow-deepseek-ai/DeepSeek-V3.2-Exp"] # 使用的模型列表,每个子项对应上面的模型名称(name)
temperature = 0.2 # 模型温度新V3建议0.1-0.3