Merge branch 'dev' of github.com:MaiM-with-u/MaiBot into dev
This commit is contained in:
@@ -124,7 +124,7 @@ class HeartFCMessageReceiver:
|
||||
picid_pattern = r"\[picid:([^\]]+)\]"
|
||||
processed_plain_text = re.sub(picid_pattern, "[图片]", message.processed_plain_text)
|
||||
|
||||
logger.info(f"[{mes_name}]{userinfo.user_nickname}:{processed_plain_text}") # type: ignore
|
||||
logger.info(f"[{mes_name}]{userinfo.user_nickname}:{processed_plain_text}[兴趣度:{interested_rate:.2f}]") # type: ignore
|
||||
|
||||
logger.debug(f"[{mes_name}][当前时段回复频率: {current_talk_frequency}]")
|
||||
|
||||
|
||||
@@ -390,7 +390,7 @@ MODULE_COLORS = {
|
||||
"tts_action": "\033[38;5;58m", # 深黄色
|
||||
"doubao_pic_plugin": "\033[38;5;64m", # 深绿色
|
||||
# Action组件
|
||||
"no_reply_action": "\033[38;5;196m", # 亮红色,更显眼
|
||||
"no_reply_action": "\033[38;5;214m", # 亮橙色,显眼但不像警告
|
||||
"reply_action": "\033[38;5;46m", # 亮绿色
|
||||
"base_action": "\033[38;5;250m", # 浅灰色
|
||||
# 数据库和消息
|
||||
|
||||
@@ -148,7 +148,7 @@ class LLMRequest:
|
||||
self.max_tokens = model.get("max_tokens", global_config.model.model_max_output_length)
|
||||
# print(f"max_tokens: {self.max_tokens}")
|
||||
|
||||
logger.debug(f"🔍 [模型初始化] 模型参数设置完成:")
|
||||
logger.debug("🔍 [模型初始化] 模型参数设置完成:")
|
||||
logger.debug(f" - model_name: {self.model_name}")
|
||||
logger.debug(f" - has_enable_thinking: {self.has_enable_thinking}")
|
||||
logger.debug(f" - enable_thinking: {self.enable_thinking}")
|
||||
@@ -537,7 +537,7 @@ class LLMRequest:
|
||||
logger.error(f"🔍 [调试信息] 模型 {self.model_name} 参数错误 (400) - 开始详细诊断")
|
||||
logger.error(f"🔍 [调试信息] 模型名称: {self.model_name}")
|
||||
logger.error(f"🔍 [调试信息] API地址: {self.base_url}")
|
||||
logger.error(f"🔍 [调试信息] 模型配置参数:")
|
||||
logger.error("🔍 [调试信息] 模型配置参数:")
|
||||
logger.error(f" - enable_thinking: {self.enable_thinking}")
|
||||
logger.error(f" - temp: {self.temp}")
|
||||
logger.error(f" - thinking_budget: {self.thinking_budget}")
|
||||
@@ -556,7 +556,7 @@ class LLMRequest:
|
||||
error_json = json.loads(error_text)
|
||||
logger.error(f"🔍 [调试信息] 解析后的错误JSON: {json.dumps(error_json, indent=2, ensure_ascii=False)}")
|
||||
except json.JSONDecodeError:
|
||||
logger.error(f"🔍 [调试信息] 错误响应不是有效的JSON格式")
|
||||
logger.error("🔍 [调试信息] 错误响应不是有效的JSON格式")
|
||||
except Exception as e:
|
||||
logger.error(f"🔍 [调试信息] 无法读取错误响应内容: {str(e)}")
|
||||
|
||||
@@ -583,7 +583,7 @@ class LLMRequest:
|
||||
|
||||
# 如果是400错误,额外输出请求体信息用于调试
|
||||
if response.status == 400:
|
||||
logger.error(f"🔍 [异常调试] 400错误 - 请求体调试信息:")
|
||||
logger.error("🔍 [异常调试] 400错误 - 请求体调试信息:")
|
||||
try:
|
||||
safe_payload = await _safely_record(request_content, payload)
|
||||
logger.error(f"🔍 [异常调试] 发送的请求体: {json.dumps(safe_payload, indent=2, ensure_ascii=False)}")
|
||||
@@ -743,7 +743,7 @@ class LLMRequest:
|
||||
logger.debug(f"🔍 [参数转换] CoT模型列表: {self.MODELS_NEEDING_TRANSFORMATION}")
|
||||
|
||||
if self.model_name.lower() in self.MODELS_NEEDING_TRANSFORMATION:
|
||||
logger.debug(f"🔍 [参数转换] 检测到CoT模型,开始参数转换")
|
||||
logger.debug("🔍 [参数转换] 检测到CoT模型,开始参数转换")
|
||||
# 删除 'temperature' 参数(如果存在),但避免删除我们在_build_payload中添加的自定义温度
|
||||
if "temperature" in new_params and new_params["temperature"] == 0.7:
|
||||
removed_temp = new_params.pop("temperature")
|
||||
@@ -754,7 +754,7 @@ class LLMRequest:
|
||||
new_params["max_completion_tokens"] = new_params.pop("max_tokens")
|
||||
logger.debug(f"🔍 [参数转换] 参数重命名: max_tokens({old_value}) -> max_completion_tokens({new_params['max_completion_tokens']})")
|
||||
else:
|
||||
logger.debug(f"🔍 [参数转换] 非CoT模型,无需参数转换")
|
||||
logger.debug("🔍 [参数转换] 非CoT模型,无需参数转换")
|
||||
|
||||
logger.debug(f"🔍 [参数转换] 转换前参数: {params}")
|
||||
logger.debug(f"🔍 [参数转换] 转换后参数: {new_params}")
|
||||
|
||||
Reference in New Issue
Block a user