Merge branch 'dev' of github.com:MaiM-with-u/MaiBot into dev

This commit is contained in:
UnCLAS-Prommer
2025-07-25 14:07:36 +08:00
3 changed files with 8 additions and 8 deletions

View File

@@ -124,7 +124,7 @@ class HeartFCMessageReceiver:
picid_pattern = r"\[picid:([^\]]+)\]" picid_pattern = r"\[picid:([^\]]+)\]"
processed_plain_text = re.sub(picid_pattern, "[图片]", message.processed_plain_text) processed_plain_text = re.sub(picid_pattern, "[图片]", message.processed_plain_text)
logger.info(f"[{mes_name}]{userinfo.user_nickname}:{processed_plain_text}") # type: ignore logger.info(f"[{mes_name}]{userinfo.user_nickname}:{processed_plain_text}[兴趣度:{interested_rate:.2f}]") # type: ignore
logger.debug(f"[{mes_name}][当前时段回复频率: {current_talk_frequency}]") logger.debug(f"[{mes_name}][当前时段回复频率: {current_talk_frequency}]")

View File

@@ -390,7 +390,7 @@ MODULE_COLORS = {
"tts_action": "\033[38;5;58m", # 深黄色 "tts_action": "\033[38;5;58m", # 深黄色
"doubao_pic_plugin": "\033[38;5;64m", # 深绿色 "doubao_pic_plugin": "\033[38;5;64m", # 深绿色
# Action组件 # Action组件
"no_reply_action": "\033[38;5;196m", # 亮色,显眼 "no_reply_action": "\033[38;5;214m", # 亮色,显眼但不像警告
"reply_action": "\033[38;5;46m", # 亮绿色 "reply_action": "\033[38;5;46m", # 亮绿色
"base_action": "\033[38;5;250m", # 浅灰色 "base_action": "\033[38;5;250m", # 浅灰色
# 数据库和消息 # 数据库和消息

View File

@@ -148,7 +148,7 @@ class LLMRequest:
self.max_tokens = model.get("max_tokens", global_config.model.model_max_output_length) self.max_tokens = model.get("max_tokens", global_config.model.model_max_output_length)
# print(f"max_tokens: {self.max_tokens}") # print(f"max_tokens: {self.max_tokens}")
logger.debug(f"🔍 [模型初始化] 模型参数设置完成:") logger.debug("🔍 [模型初始化] 模型参数设置完成:")
logger.debug(f" - model_name: {self.model_name}") logger.debug(f" - model_name: {self.model_name}")
logger.debug(f" - has_enable_thinking: {self.has_enable_thinking}") logger.debug(f" - has_enable_thinking: {self.has_enable_thinking}")
logger.debug(f" - enable_thinking: {self.enable_thinking}") logger.debug(f" - enable_thinking: {self.enable_thinking}")
@@ -537,7 +537,7 @@ class LLMRequest:
logger.error(f"🔍 [调试信息] 模型 {self.model_name} 参数错误 (400) - 开始详细诊断") logger.error(f"🔍 [调试信息] 模型 {self.model_name} 参数错误 (400) - 开始详细诊断")
logger.error(f"🔍 [调试信息] 模型名称: {self.model_name}") logger.error(f"🔍 [调试信息] 模型名称: {self.model_name}")
logger.error(f"🔍 [调试信息] API地址: {self.base_url}") logger.error(f"🔍 [调试信息] API地址: {self.base_url}")
logger.error(f"🔍 [调试信息] 模型配置参数:") logger.error("🔍 [调试信息] 模型配置参数:")
logger.error(f" - enable_thinking: {self.enable_thinking}") logger.error(f" - enable_thinking: {self.enable_thinking}")
logger.error(f" - temp: {self.temp}") logger.error(f" - temp: {self.temp}")
logger.error(f" - thinking_budget: {self.thinking_budget}") logger.error(f" - thinking_budget: {self.thinking_budget}")
@@ -556,7 +556,7 @@ class LLMRequest:
error_json = json.loads(error_text) error_json = json.loads(error_text)
logger.error(f"🔍 [调试信息] 解析后的错误JSON: {json.dumps(error_json, indent=2, ensure_ascii=False)}") logger.error(f"🔍 [调试信息] 解析后的错误JSON: {json.dumps(error_json, indent=2, ensure_ascii=False)}")
except json.JSONDecodeError: except json.JSONDecodeError:
logger.error(f"🔍 [调试信息] 错误响应不是有效的JSON格式") logger.error("🔍 [调试信息] 错误响应不是有效的JSON格式")
except Exception as e: except Exception as e:
logger.error(f"🔍 [调试信息] 无法读取错误响应内容: {str(e)}") logger.error(f"🔍 [调试信息] 无法读取错误响应内容: {str(e)}")
@@ -583,7 +583,7 @@ class LLMRequest:
# 如果是400错误额外输出请求体信息用于调试 # 如果是400错误额外输出请求体信息用于调试
if response.status == 400: if response.status == 400:
logger.error(f"🔍 [异常调试] 400错误 - 请求体调试信息:") logger.error("🔍 [异常调试] 400错误 - 请求体调试信息:")
try: try:
safe_payload = await _safely_record(request_content, payload) safe_payload = await _safely_record(request_content, payload)
logger.error(f"🔍 [异常调试] 发送的请求体: {json.dumps(safe_payload, indent=2, ensure_ascii=False)}") logger.error(f"🔍 [异常调试] 发送的请求体: {json.dumps(safe_payload, indent=2, ensure_ascii=False)}")
@@ -743,7 +743,7 @@ class LLMRequest:
logger.debug(f"🔍 [参数转换] CoT模型列表: {self.MODELS_NEEDING_TRANSFORMATION}") logger.debug(f"🔍 [参数转换] CoT模型列表: {self.MODELS_NEEDING_TRANSFORMATION}")
if self.model_name.lower() in self.MODELS_NEEDING_TRANSFORMATION: if self.model_name.lower() in self.MODELS_NEEDING_TRANSFORMATION:
logger.debug(f"🔍 [参数转换] 检测到CoT模型开始参数转换") logger.debug("🔍 [参数转换] 检测到CoT模型开始参数转换")
# 删除 'temperature' 参数如果存在但避免删除我们在_build_payload中添加的自定义温度 # 删除 'temperature' 参数如果存在但避免删除我们在_build_payload中添加的自定义温度
if "temperature" in new_params and new_params["temperature"] == 0.7: if "temperature" in new_params and new_params["temperature"] == 0.7:
removed_temp = new_params.pop("temperature") removed_temp = new_params.pop("temperature")
@@ -754,7 +754,7 @@ class LLMRequest:
new_params["max_completion_tokens"] = new_params.pop("max_tokens") new_params["max_completion_tokens"] = new_params.pop("max_tokens")
logger.debug(f"🔍 [参数转换] 参数重命名: max_tokens({old_value}) -> max_completion_tokens({new_params['max_completion_tokens']})") logger.debug(f"🔍 [参数转换] 参数重命名: max_tokens({old_value}) -> max_completion_tokens({new_params['max_completion_tokens']})")
else: else:
logger.debug(f"🔍 [参数转换] 非CoT模型无需参数转换") logger.debug("🔍 [参数转换] 非CoT模型无需参数转换")
logger.debug(f"🔍 [参数转换] 转换前参数: {params}") logger.debug(f"🔍 [参数转换] 转换前参数: {params}")
logger.debug(f"🔍 [参数转换] 转换后参数: {new_params}") logger.debug(f"🔍 [参数转换] 转换后参数: {new_params}")