diff --git a/src/chat/replyer/default_generator.py b/src/chat/replyer/default_generator.py index 9d75671c6..bb2aa34e3 100644 --- a/src/chat/replyer/default_generator.py +++ b/src/chat/replyer/default_generator.py @@ -213,8 +213,10 @@ class DefaultReplyer: with Timer("LLM生成", {}): # 内部计时器,可选保留 # 加权随机选择一个模型配置 selected_model_config = self._select_weighted_model_config() + # 兼容新旧格式的模型名称获取 + model_display_name = selected_model_config.get('model_name', selected_model_config.get('name', 'N/A')) logger.info( - f"使用模型生成回复: {selected_model_config.get('name', 'N/A')} (选中概率: {selected_model_config.get('weight', 1.0)})" + f"使用模型生成回复: {model_display_name} (选中概率: {selected_model_config.get('weight', 1.0)})" ) express_model = LLMRequest( @@ -277,8 +279,10 @@ class DefaultReplyer: with Timer("LLM生成", {}): # 内部计时器,可选保留 # 加权随机选择一个模型配置 selected_model_config = self._select_weighted_model_config() + # 兼容新旧格式的模型名称获取 + model_display_name = selected_model_config.get('model_name', selected_model_config.get('name', 'N/A')) logger.info( - f"使用模型重写回复: {selected_model_config.get('name', 'N/A')} (选中概率: {selected_model_config.get('weight', 1.0)})" + f"使用模型重写回复: {model_display_name} (选中概率: {selected_model_config.get('weight', 1.0)})" ) express_model = LLMRequest( diff --git a/src/llm_models/utils_model.py b/src/llm_models/utils_model.py index 461d4a890..0e79b63b1 100644 --- a/src/llm_models/utils_model.py +++ b/src/llm_models/utils_model.py @@ -126,7 +126,8 @@ class LLMRequest: # 兼容新旧模型配置格式 # 新格式使用 model_name,旧格式使用 name self.model_name: str = model.get("model_name", model.get("name", "")) - self.provider = model.get("provider", "") + # 在新架构中,provider信息从model_config.toml自动获取,不需要在这里设置 + self.provider = model.get("provider", "") # 保留兼容性,但在新架构中不使用 # 从全局配置中获取任务配置 self.request_type = kwargs.pop("request_type", "default")