fix:修复llm爆炸小问题

This commit is contained in:
SengokuCola
2025-04-26 15:40:12 +08:00
parent c69c4b4ebc
commit e52959d838
3 changed files with 38 additions and 42 deletions

View File

@@ -81,10 +81,10 @@ class BackgroundTaskManager:
),
(
self._hf_judge_state_update_task,
lambda: self._run_hf_judge_state_update_cycle(300),
lambda: self._run_hf_judge_state_update_cycle(60),
"hf_judge_state_update",
"debug",
f"状态评估任务已启动 间隔:{300}s",
f"状态评估任务已启动 间隔:{60}s",
"_hf_judge_state_update_task",
),
(

View File

@@ -12,12 +12,14 @@ from src.plugins.chat.chat_stream import chat_manager
# 导入心流相关类
from src.heart_flow.sub_heartflow import SubHeartflow, ChatState
from src.heart_flow.mai_state_manager import MaiStateInfo
from .observation import ChattingObservation, Observation
from .observation import ChattingObservation
# 导入LLM请求工具
from src.plugins.models.utils_model import LLMRequest
from src.config.config import global_config
import traceback
# 初始化日志记录器
subheartflow_manager_log_config = LogConfig(
@@ -44,7 +46,7 @@ class SubHeartflowManager:
model=global_config.llm_heartflow, # 与 Heartflow 一致
temperature=0.6, # 与 Heartflow 一致
max_tokens=1000, # 与 Heartflow 一致 (虽然可能不需要这么多)
request_type="subheartflow_state_eval" # 保留特定的请求类型
request_type="subheartflow_state_eval", # 保留特定的请求类型
)
def get_all_subheartflows(self) -> List["SubHeartflow"]:
@@ -87,7 +89,7 @@ class SubHeartflowManager:
# 注册子心流
self.subheartflows[subheartflow_id] = new_subflow
heartflow_name = chat_manager.get_stream_name(subheartflow_id) or subheartflow_id
logger.info(f"[{heartflow_name}] 开始消息")
logger.info(f"[{heartflow_name}] 开始接收消息")
# 启动后台任务
asyncio.create_task(new_subflow.subheartflow_start_working())
@@ -180,7 +182,6 @@ class SubHeartflowManager:
else:
logger.debug(f"[限制] 无需停止, 当前总数:{len(self.subheartflows)}")
async def deactivate_all_subflows(self):
"""将所有子心流的状态更改为 ABSENT (例如主状态变为OFFLINE时调用)"""
# logger.info("[停用] 开始将所有子心流状态设置为 ABSENT")
@@ -343,7 +344,6 @@ class SubHeartflowManager:
else:
logger.debug(f"{log_prefix_manager} 随机停用周期结束, 未停用任何子心流。")
async def evaluate_and_transition_subflows_by_llm(self):
"""
使用LLM评估每个子心流的状态并根据LLM的判断执行状态转换ABSENT <-> CHAT
@@ -375,7 +375,7 @@ class SubHeartflowManager:
# --- 获取观察内容 ---
# 从 sub_hf.observations 获取 ChattingObservation 并提取信息
observation_summary = "没有可用的观察信息。" # 默认值
_observation_summary = "没有可用的观察信息。" # 默认值
try:
# 检查 observations 列表是否存在且不为空
@@ -388,13 +388,11 @@ class SubHeartflowManager:
else:
logger.warning(f"{log_prefix} [{stream_name}] 第一个观察者不是 ChattingObservation 类型。")
except Exception as e:
logger.warning(f"{log_prefix} [{stream_name}] 获取观察信息失败: {e}", exc_info=True)
# 保留默认值或错误信息
combined_summary = f"获取观察信息时出错: {e}"
# --- 获取麦麦状态 ---
mai_state_description = f"麦麦当前状态: {current_mai_state.value}"
@@ -417,7 +415,9 @@ class SubHeartflowManager:
if should_activate:
# 检查CHAT限额
if current_chat_count < chat_limit:
logger.info(f"{log_prefix} [{stream_name}] LLM建议激活到CHAT状态且未达上限({current_chat_count}/{chat_limit})。正在尝试转换...")
logger.info(
f"{log_prefix} [{stream_name}] LLM建议激活到CHAT状态且未达上限({current_chat_count}/{chat_limit})。正在尝试转换..."
)
await sub_hf.change_chat_state(ChatState.CHAT)
if sub_hf.chat_state.chat_status == ChatState.CHAT:
transitioned_to_chat += 1
@@ -425,10 +425,13 @@ class SubHeartflowManager:
else:
logger.warning(f"{log_prefix} [{stream_name}] 尝试激活到CHAT失败。")
else:
logger.info(f"{log_prefix} [{stream_name}] LLM建议激活到CHAT状态但已达到上限({current_chat_count}/{chat_limit})。跳过转换。")
logger.info(
f"{log_prefix} [{stream_name}] LLM建议激活到CHAT状态但已达到上限({current_chat_count}/{chat_limit})。跳过转换。"
)
except Exception as e:
logger.error(f"{log_prefix} [{stream_name}] LLM评估或状态转换(ABSENT->CHAT)时出错: {e}", exc_info=True)
logger.error(
f"{log_prefix} [{stream_name}] LLM评估或状态转换(ABSENT->CHAT)时出错: {e}", exc_info=True
)
# --- 针对 CHAT 状态 ---
elif current_subflow_state == ChatState.CHAT:
@@ -455,7 +458,9 @@ class SubHeartflowManager:
else:
logger.warning(f"{log_prefix} [{stream_name}] 尝试转换为ABSENT失败。")
except Exception as e:
logger.error(f"{log_prefix} [{stream_name}] LLM评估或状态转换(CHAT->ABSENT)时出错: {e}", exc_info=True)
logger.error(
f"{log_prefix} [{stream_name}] LLM评估或状态转换(CHAT->ABSENT)时出错: {e}", exc_info=True
)
# 可以选择性地为 FOCUSED 状态添加评估逻辑,例如判断是否降级回 CHAT 或 ABSENT
@@ -465,7 +470,6 @@ class SubHeartflowManager:
f" 成功转换到ABSENT: {transitioned_to_absent}."
)
async def _llm_evaluate_state_transition(self, prompt: str) -> bool:
"""
使用 LLM 评估是否应进行状态转换。
@@ -479,8 +483,8 @@ class SubHeartflowManager:
log_prefix = "[LLM状态评估]"
try:
# --- 真实的 LLM 调用 ---
response_text, _, model_name = await self.llm_state_evaluator.generate_response_async(prompt)
logger.debug(f"{log_prefix} 使用模型 {model_name} 评估,原始响应: {response_text}")
response_text, _ = await self.llm_state_evaluator.generate_response_async(prompt)
logger.debug(f"{log_prefix} 使用模型 {self.llm_state_evaluator.model_name} 评估,原始响应: {response_text}")
# 解析响应 - 这里需要根据你的LLM的确切输出来调整逻辑
# 假设 LLM 会明确回答 "是" 或 "否"
if response_text and "" in response_text.strip():
@@ -493,19 +497,11 @@ class SubHeartflowManager:
logger.warning(f"{log_prefix} LLM 未明确回答 '''',响应: {response_text}")
# 可以设定一个默认行为,例如默认不转换
return False
# --- 真实的 LLM 调用结束 ---
# # --- 占位符逻辑:随机返回 True/False ---
# # 请在接入真实 LLM 后移除此部分
# await asyncio.sleep(0.1) # 模拟LLM调用延迟
# result = random.choice([True, False])
# logger.debug(f"{log_prefix} (占位符) LLM评估结果: {'建议转换' if result else '建议不转换'}")
# return result
# # --- 占位符逻辑结束 ---
except Exception as e:
logger.error(f"{log_prefix} 调用 LLM 进行状态评估时出错: {e}", exc_info=True)
traceback.print_exc()
return False
def count_subflows_by_state(self, state: ChatState) -> int:
"""统计指定状态的子心流数量"""

View File

@@ -404,7 +404,7 @@ class Hippocampus:
# logger.info("没有找到有效的关键词节点")
return []
logger.info(f"有效的关键词: {', '.join(valid_keywords)}")
logger.debug(f"有效的关键词: {', '.join(valid_keywords)}")
# 从每个关键词获取记忆
all_memories = []
@@ -576,7 +576,7 @@ class Hippocampus:
# logger.info("没有找到有效的关键词节点")
return []
logger.info(f"有效的关键词: {', '.join(valid_keywords)}")
logger.debug(f"有效的关键词: {', '.join(valid_keywords)}")
# 从每个关键词获取记忆
all_memories = []
@@ -761,7 +761,7 @@ class Hippocampus:
# logger.info("没有找到有效的关键词节点")
return 0
logger.info(f"有效的关键词: {', '.join(valid_keywords)}")
logger.debug(f"有效的关键词: {', '.join(valid_keywords)}")
# 从每个关键词获取记忆
activate_map = {} # 存储每个词的累计激活值