feat(memory): 添加智能查询优化,移除瞬时记忆处理

重大改进:
- 在 MemoryManager 中添加 optimize_search_query 方法
- 使用小模型优化搜索查询,提高检索精确度
- search_memories 新增 optimize_query 和 context 参数
- 移除瞬时记忆处理(由其他系统负责)

技术实现:
- 使用 utils_small 模型优化查询语句
- 自动提取查询核心意图和关键信息
- 支持上下文感知(聊天历史、发言人)
- 失败时自动降级到原始查询

查询优化流程:
1. 提取聊天历史和发言人信息
2. 构建查询上下文
3. 调用小模型生成优化查询
4. 使用优化查询进行语义搜索
5. 返回相关记忆

default_generator.py 调整:
- 移除瞬时记忆处理逻辑
- 调用 manager.search_memories 时传入 context
- 启用 optimize_query 参数
This commit is contained in:
Windpicker-owo
2025-11-05 19:31:07 +08:00
parent cd15c51e6b
commit c3ca811e46
2 changed files with 96 additions and 44 deletions

View File

@@ -553,9 +553,7 @@ class DefaultReplyer:
if not global_config.memory.enable_memory:
return ""
instant_memory = None
# 使用新的记忆图系统检索记忆
# 使用新的记忆图系统检索记忆(带智能查询优化)
all_memories = []
try:
from src.memory_graph.manager_singleton import get_memory_manager, is_initialized
@@ -563,12 +561,26 @@ class DefaultReplyer:
if is_initialized():
manager = get_memory_manager()
if manager:
# 搜索相关记忆
# 构建查询上下文
stream = self.chat_stream
user_info_obj = getattr(stream, "user_info", None)
sender_name = ""
if user_info_obj:
sender_name = getattr(user_info_obj, "user_nickname", "") or getattr(user_info_obj, "user_cardname", "")
query_context = {
"chat_history": chat_history if chat_history else "",
"sender": sender_name,
}
# 使用记忆管理器的智能检索(自动优化查询)
memories = await manager.search_memories(
query=target,
top_k=10, # 增加检索数量
min_importance=0.3, # 降低最低重要性阈值,获取更多记忆
include_forgotten=False
top_k=10,
min_importance=0.3,
include_forgotten=False,
optimize_query=True,
context=query_context,
)
if memories:
@@ -581,14 +593,9 @@ class DefaultReplyer:
"content": topic,
"memory_type": mem_type,
"importance": memory.importance,
"relevance": 0.7, # 默认相关度
"relevance": 0.7,
"source": "memory_graph",
})
# 提取最重要的记忆作为瞬时记忆
if all_memories:
top_memory = max(all_memories, key=lambda m: m.get("importance", 0))
instant_memory = top_memory.get("content", "")
else:
logger.debug("[记忆图] 未找到相关记忆")
except Exception as e:
@@ -637,13 +644,7 @@ class DefaultReplyer:
has_any_memory = True
logger.debug(f"[记忆构建] 成功构建记忆字符串,包含 {len(memory_parts) - 2} 条记忆")
# 添加瞬时记忆
if instant_memory:
if not any(rm["content"] == instant_memory for rm in all_memories):
if not memory_str:
memory_str = "以下是当前在聊天中,你回忆起的记忆:\n"
memory_str += f"- 最相关记忆:{instant_memory}\n"
has_any_memory = True
# 瞬时记忆由另一套系统处理,这里不再添加
# 只有当完全没有任何记忆时才返回空字符串
return memory_str if has_any_memory else ""
@@ -1029,29 +1030,6 @@ class DefaultReplyer:
return read_history_prompt, unread_history_prompt
async def _get_interest_scores_for_messages(self, messages: list[dict]) -> dict[str, float]:
"""为消息获取兴趣度评分(使用预计算的兴趣值)"""
interest_scores = {}
try:
# 直接使用消息中的预计算兴趣值
for msg_dict in messages:
message_id = msg_dict.get("message_id", "")
interest_value = msg_dict.get("interest_value")
if interest_value is not None:
interest_scores[message_id] = float(interest_value)
logger.debug(f"使用预计算兴趣度 - 消息 {message_id}: {interest_value:.3f}")
else:
interest_scores[message_id] = 0.5 # 默认值
logger.debug(f"消息 {message_id} 无预计算兴趣值,使用默认值 0.5")
except Exception as e:
logger.warning(f"处理预计算兴趣值失败: {e}")
return interest_scores
async def build_prompt_reply_context(
self,
reply_to: str,

View File

@@ -306,6 +306,71 @@ class MemoryManager:
# ==================== 记忆检索操作 ====================
async def optimize_search_query(
self,
query: str,
context: Optional[Dict[str, Any]] = None,
) -> str:
"""
使用小模型优化搜索查询
Args:
query: 原始查询
context: 上下文信息(聊天历史、发言人等)
Returns:
优化后的查询字符串
"""
if not context:
return query
try:
from src.llm_models.utils_model import LLMRequest
from src.config.config import model_config
# 使用小模型优化查询
llm = LLMRequest(
model_set=model_config.model_task_config.utils_small,
request_type="memory.query_optimizer"
)
# 构建优化提示
chat_history = context.get("chat_history", "")
sender = context.get("sender", "")
prompt = f"""你是一个记忆检索查询优化助手。请将用户的查询转换为更适合语义搜索的表述。
要求:
1. 提取查询的核心意图和关键信息
2. 使用更具体、描述性的语言
3. 如果查询涉及人物,明确指出是谁
4. 保持简洁,只输出优化后的查询文本
当前查询: {query}
{f"发言人: {sender}" if sender else ""}
{f"最近对话: {chat_history[-200:]}" if chat_history else ""}
优化后的查询:"""
optimized_query, _ = await llm.generate_response_async(
prompt,
temperature=0.3,
max_tokens=100
)
# 清理输出
optimized_query = optimized_query.strip()
if optimized_query and len(optimized_query) > 5:
logger.debug(f"[查询优化] '{query}' -> '{optimized_query}'")
return optimized_query
return query
except Exception as e:
logger.warning(f"查询优化失败,使用原始查询: {e}")
return query
async def search_memories(
self,
query: str,
@@ -314,6 +379,8 @@ class MemoryManager:
time_range: Optional[Tuple[datetime, datetime]] = None,
min_importance: float = 0.0,
include_forgotten: bool = False,
optimize_query: bool = True,
context: Optional[Dict[str, Any]] = None,
) -> List[Memory]:
"""
搜索记忆
@@ -325,6 +392,8 @@ class MemoryManager:
time_range: 时间范围过滤 (start, end)
min_importance: 最小重要性
include_forgotten: 是否包含已遗忘的记忆
optimize_query: 是否使用小模型优化查询
context: 查询上下文(用于优化)
Returns:
记忆列表
@@ -333,8 +402,13 @@ class MemoryManager:
await self.initialize()
try:
# 查询优化
search_query = query
if optimize_query and context:
search_query = await self.optimize_search_query(query, context)
params = {
"query": query,
"query": search_query,
"top_k": top_k,
}