feat:新的表情包系统,表情包成为类,且含义更丰富,发送更快
This commit is contained in:
284
scripts/tool_call_benchmark.py
Normal file
284
scripts/tool_call_benchmark.py
Normal file
@@ -0,0 +1,284 @@
|
||||
import asyncio
|
||||
import time
|
||||
from src.plugins.models.utils_model import LLMRequest
|
||||
from src.config.config import global_config
|
||||
from src.do_tool.tool_use import ToolUser
|
||||
import statistics
|
||||
import json
|
||||
|
||||
|
||||
async def run_test(test_name, test_function, iterations=5):
|
||||
"""
|
||||
运行指定次数的测试并计算平均响应时间
|
||||
|
||||
参数:
|
||||
test_name: 测试名称
|
||||
test_function: 要执行的测试函数
|
||||
iterations: 测试迭代次数
|
||||
|
||||
返回:
|
||||
测试结果统计
|
||||
"""
|
||||
print(f"开始 {test_name} 测试({iterations}次迭代)...")
|
||||
times = []
|
||||
responses = []
|
||||
|
||||
for i in range(iterations):
|
||||
print(f" 运行第 {i + 1}/{iterations} 次测试...")
|
||||
start_time = time.time()
|
||||
response = await test_function()
|
||||
end_time = time.time()
|
||||
elapsed = end_time - start_time
|
||||
times.append(elapsed)
|
||||
responses.append(response)
|
||||
print(f" - 耗时: {elapsed:.2f}秒")
|
||||
|
||||
results = {
|
||||
"平均耗时": statistics.mean(times),
|
||||
"最短耗时": min(times),
|
||||
"最长耗时": max(times),
|
||||
"标准差": statistics.stdev(times) if len(times) > 1 else 0,
|
||||
"所有耗时": times,
|
||||
"响应结果": responses,
|
||||
}
|
||||
|
||||
return results
|
||||
|
||||
|
||||
async def test_with_tool_calls():
|
||||
"""使用工具调用的LLM请求测试"""
|
||||
# 创建LLM模型实例
|
||||
llm_model = LLMRequest(
|
||||
model=global_config.llm_sub_heartflow,
|
||||
# model = global_config.llm_tool_use,
|
||||
# temperature=global_config.llm_sub_heartflow["temp"],
|
||||
max_tokens=800,
|
||||
request_type="benchmark_test",
|
||||
)
|
||||
|
||||
# 创建工具实例
|
||||
tool_instance = ToolUser()
|
||||
tools = tool_instance._define_tools()
|
||||
|
||||
# 简单的测试提示词
|
||||
prompt = "请分析当前天气情况,并查询今日历史上的重要事件。并且3.9和3.11谁比较大?请使用适当的工具来获取这些信息。"
|
||||
prompt = """
|
||||
你的名字是麦麦,你包容开放,情绪敏感,有时候有些搞怪幽默, 是一个学习心理学和脑科学的女大学生,现在在读大二,你会刷贴吧,有时候会想瑟瑟,喜欢刷小红书
|
||||
-----------------------------------
|
||||
现在是2025-04-24 12:37:00,你正在上网,和qq群里的网友们聊天,群里正在聊的话题是:
|
||||
2025-04-24 12:33:00既文横 说:这条调试消息是napcat控制台输出的,还是麦麦log输出的;
|
||||
2025-04-24 12:33:23麦麦(你) 说:应该是napcat吧;
|
||||
2025-04-24 12:33:24麦麦(你) 说:[表达了:害羞、害羞。];
|
||||
2025-04-24 12:33:25兔伽兔伽 说:就打开麦麦的那个终端发的呀;
|
||||
2025-04-24 12:33:45既文横 说:那应该不是napcat输出的,是麦麦输出的消息,怀疑版本问题;
|
||||
2025-04-24 12:34:02兔伽兔伽 说:版本05.15;
|
||||
2025-04-24 12:34:07麦麦(你) 说:话说你们最近刷贴吧看到那个猫猫头表情包了吗;
|
||||
2025-04-24 12:34:07麦麦(你) 说:笑死;
|
||||
2025-04-24 12:34:08麦麦(你) 说:[表达了:惊讶、搞笑。];
|
||||
2025-04-24 12:34:14兔伽兔伽 说:只开一个终端;
|
||||
2025-04-24 12:35:45兔伽兔伽 说:回复既文横的消息(怀疑版本问题),说:因为之前你连模型的那个我用的了;
|
||||
2025-04-24 12:35:56麦麦(你) 说:那个猫猫头真的魔性;
|
||||
2025-04-24 12:35:56麦麦(你) 说:我存了一堆;
|
||||
2025-04-24 12:35:56麦麦(你) 说:[表达了:温馨、宠爱];
|
||||
2025-04-24 12:36:03小千石 说:麦麦3.8和3.11谁大;
|
||||
|
||||
--- 以上消息已读 (标记时间: 2025-04-24 12:36:43) ---
|
||||
--- 请关注你上次思考之后以下的新消息---
|
||||
2025-04-24 12:36:53墨墨 说:[表情包:开心、满足。];
|
||||
|
||||
你现在当前心情:平静。
|
||||
现在请你根据刚刚的想法继续思考,思考时可以想想如何对群聊内容进行回复,要不要对群里的话题进行回复,关注新话题,可以适当转换话题,大家正在说的话才是聊天的主题。
|
||||
回复的要求是:平淡一些,简短一些,说中文,如果你要回复,最好只回复一个人的一个话题
|
||||
请注意不要输出多余内容(包括前后缀,冒号和引号,括号, 表情,等),不要带有括号和动作描写。不要回复自己的发言,尽量不要说你说过的话。
|
||||
现在请你继续生成你在这个聊天中的想法,在原来想法的基础上继续思考,不要分点输出,生成内心想法,文字不要浮夸
|
||||
在输出完想法后,请你思考应该使用什么工具,如果你需要做某件事,来对消息和你的回复进行处理,请使用工具。"""
|
||||
|
||||
# 发送带有工具调用的请求
|
||||
response = await llm_model.generate_response_tool_async(prompt=prompt, tools=tools)
|
||||
|
||||
result_info = {}
|
||||
|
||||
# 简单处理工具调用结果
|
||||
if len(response) == 3:
|
||||
content, reasoning_content, tool_calls = response
|
||||
tool_calls_count = len(tool_calls) if tool_calls else 0
|
||||
print(f" 工具调用请求生成了 {tool_calls_count} 个工具调用")
|
||||
|
||||
# 输出内容和工具调用详情
|
||||
print("\n 生成的内容:")
|
||||
print(f" {content[:200]}..." if len(content) > 200 else f" {content}")
|
||||
|
||||
if tool_calls:
|
||||
print("\n 工具调用详情:")
|
||||
for i, tool_call in enumerate(tool_calls):
|
||||
tool_name = tool_call["function"]["name"]
|
||||
tool_params = tool_call["function"].get("arguments", {})
|
||||
print(f" - 工具 {i + 1}: {tool_name}")
|
||||
print(
|
||||
f" 参数: {json.dumps(tool_params, ensure_ascii=False)[:100]}..."
|
||||
if len(json.dumps(tool_params, ensure_ascii=False)) > 100
|
||||
else f" 参数: {json.dumps(tool_params, ensure_ascii=False)}"
|
||||
)
|
||||
|
||||
result_info = {"内容": content, "推理内容": reasoning_content, "工具调用": tool_calls}
|
||||
else:
|
||||
content, reasoning_content = response
|
||||
print(" 工具调用请求未生成任何工具调用")
|
||||
print("\n 生成的内容:")
|
||||
print(f" {content[:200]}..." if len(content) > 200 else f" {content}")
|
||||
|
||||
result_info = {"内容": content, "推理内容": reasoning_content, "工具调用": []}
|
||||
|
||||
return result_info
|
||||
|
||||
|
||||
async def test_without_tool_calls():
|
||||
"""不使用工具调用的LLM请求测试"""
|
||||
# 创建LLM模型实例
|
||||
llm_model = LLMRequest(
|
||||
model=global_config.llm_sub_heartflow,
|
||||
temperature=global_config.llm_sub_heartflow["temp"],
|
||||
max_tokens=800,
|
||||
request_type="benchmark_test",
|
||||
)
|
||||
|
||||
# 简单的测试提示词(与工具调用相同,以便公平比较)
|
||||
prompt = """
|
||||
你的名字是麦麦,你包容开放,情绪敏感,有时候有些搞怪幽默, 是一个学习心理学和脑科学的女大学生,现在在读大二,你会刷贴吧,有时候会想瑟瑟,喜欢刷小红书
|
||||
刚刚你的想法是:
|
||||
我是麦麦,我想,('小千石问3.8和3.11谁大,已经简单回答了3.11大,现在可以继续聊猫猫头表情包,毕竟大家好像对版本问题兴趣不大,而且猫猫头的话题更轻松有趣。', '')
|
||||
-----------------------------------
|
||||
现在是2025-04-24 12:37:00,你正在上网,和qq群里的网友们聊天,群里正在聊的话题是:
|
||||
2025-04-24 12:33:00既文横 说:这条调试消息是napcat控制台输出的,还是麦麦log输出的;
|
||||
2025-04-24 12:33:23麦麦(你) 说:应该是napcat吧;
|
||||
2025-04-24 12:33:24麦麦(你) 说:[表达了:害羞、害羞。];
|
||||
2025-04-24 12:33:25兔伽兔伽 说:就打开麦麦的那个终端发的呀;
|
||||
2025-04-24 12:33:45既文横 说:那应该不是napcat输出的,是麦麦输出的消息,怀疑版本问题;
|
||||
2025-04-24 12:34:02兔伽兔伽 说:版本05.15;
|
||||
2025-04-24 12:34:07麦麦(你) 说:话说你们最近刷贴吧看到那个猫猫头表情包了吗;
|
||||
2025-04-24 12:34:07麦麦(你) 说:笑死;
|
||||
2025-04-24 12:34:08麦麦(你) 说:[表达了:惊讶、搞笑。];
|
||||
2025-04-24 12:34:14兔伽兔伽 说:只开一个终端;
|
||||
2025-04-24 12:35:45兔伽兔伽 说:回复既文横的消息(怀疑版本问题),说:因为之前你连模型的那个我用的了;
|
||||
2025-04-24 12:35:56麦麦(你) 说:那个猫猫头真的魔性;
|
||||
2025-04-24 12:35:56麦麦(你) 说:我存了一堆;
|
||||
2025-04-24 12:35:56麦麦(你) 说:[表达了:温馨、宠爱];
|
||||
2025-04-24 12:36:03小千石 说:麦麦3.8和3.11谁大;
|
||||
2025-04-24 12:36:22麦麦(你) 说:真的魔性那个猫猫头;
|
||||
2025-04-24 12:36:22麦麦(你) 说:[表达了:害羞、可爱];
|
||||
2025-04-24 12:36:43麦麦(你) 说:3.11大啦;
|
||||
2025-04-24 12:36:43麦麦(你) 说:[表达了:害羞、可爱];
|
||||
|
||||
--- 以上消息已读 (标记时间: 2025-04-24 12:36:43) ---
|
||||
--- 请关注你上次思考之后以下的新消息---
|
||||
2025-04-24 12:36:53墨墨 说:[表情包:开心、满足。];
|
||||
|
||||
你现在当前心情:平静。
|
||||
现在请你根据刚刚的想法继续思考,思考时可以想想如何对群聊内容进行回复,要不要对群里的话题进行回复,关注新话题,可以适当转换话题,大家正在说的话才是聊天的主题。
|
||||
回复的要求是:平淡一些,简短一些,说中文,如果你要回复,最好只回复一个人的一个话题
|
||||
请注意不要输出多余内容(包括前后缀,冒号和引号,括号, 表情,等),不要带有括号和动作描写。不要回复自己的发言,尽量不要说你说过的话。
|
||||
现在请你继续生成你在这个聊天中的想法,在原来想法的基础上继续思考,不要分点输出,生成内心想法,文字不要浮夸
|
||||
在输出完想法后,请你思考应该使用什么工具,如果你需要做某件事,来对消息和你的回复进行处理,请使用工具。"""
|
||||
|
||||
# 发送不带工具调用的请求
|
||||
response, reasoning_content = await llm_model.generate_response_async(prompt)
|
||||
|
||||
# 输出生成的内容
|
||||
print("\n 生成的内容:")
|
||||
print(f" {response[:200]}..." if len(response) > 200 else f" {response}")
|
||||
|
||||
result_info = {"内容": response, "推理内容": reasoning_content, "工具调用": []}
|
||||
|
||||
return result_info
|
||||
|
||||
|
||||
async def main():
|
||||
"""主测试函数"""
|
||||
print("=" * 50)
|
||||
print("LLM工具调用与普通请求性能比较测试")
|
||||
print("=" * 50)
|
||||
|
||||
# 设置测试迭代次数
|
||||
iterations = 3
|
||||
|
||||
# 测试不使用工具调用
|
||||
results_without_tools = await run_test("不使用工具调用", test_without_tool_calls, iterations)
|
||||
|
||||
print("\n" + "-" * 50 + "\n")
|
||||
|
||||
# 测试使用工具调用
|
||||
results_with_tools = await run_test("使用工具调用", test_with_tool_calls, iterations)
|
||||
|
||||
# 显示结果比较
|
||||
print("\n" + "=" * 50)
|
||||
print("测试结果比较")
|
||||
print("=" * 50)
|
||||
|
||||
print("\n不使用工具调用:")
|
||||
for key, value in results_without_tools.items():
|
||||
if key == "所有耗时":
|
||||
print(f" {key}: {[f'{t:.2f}秒' for t in value]}")
|
||||
elif key == "响应结果":
|
||||
print(f" {key}: [内容已省略,详见结果文件]")
|
||||
else:
|
||||
print(f" {key}: {value:.2f}秒")
|
||||
|
||||
print("\n使用工具调用:")
|
||||
for key, value in results_with_tools.items():
|
||||
if key == "所有耗时":
|
||||
print(f" {key}: {[f'{t:.2f}秒' for t in value]}")
|
||||
elif key == "响应结果":
|
||||
tool_calls_counts = [len(res.get("工具调用", [])) for res in value]
|
||||
print(f" {key}: [内容已省略,详见结果文件]")
|
||||
print(f" 工具调用数量: {tool_calls_counts}")
|
||||
else:
|
||||
print(f" {key}: {value:.2f}秒")
|
||||
|
||||
# 计算差异百分比
|
||||
diff_percent = ((results_with_tools["平均耗时"] / results_without_tools["平均耗时"]) - 1) * 100
|
||||
print(f"\n工具调用比普通请求平均耗时相差: {diff_percent:.2f}%")
|
||||
|
||||
# 保存结果到JSON文件
|
||||
results = {
|
||||
"测试时间": time.strftime("%Y-%m-%d %H:%M:%S"),
|
||||
"测试迭代次数": iterations,
|
||||
"不使用工具调用": {
|
||||
k: (v if k != "所有耗时" else [float(f"{t:.2f}") for t in v])
|
||||
for k, v in results_without_tools.items()
|
||||
if k != "响应结果"
|
||||
},
|
||||
"不使用工具调用_详细响应": [
|
||||
{
|
||||
"内容摘要": resp["内容"][:200] + "..." if len(resp["内容"]) > 200 else resp["内容"],
|
||||
"推理内容摘要": resp["推理内容"][:200] + "..." if len(resp["推理内容"]) > 200 else resp["推理内容"],
|
||||
}
|
||||
for resp in results_without_tools["响应结果"]
|
||||
],
|
||||
"使用工具调用": {
|
||||
k: (v if k != "所有耗时" else [float(f"{t:.2f}") for t in v])
|
||||
for k, v in results_with_tools.items()
|
||||
if k != "响应结果"
|
||||
},
|
||||
"使用工具调用_详细响应": [
|
||||
{
|
||||
"内容摘要": resp["内容"][:200] + "..." if len(resp["内容"]) > 200 else resp["内容"],
|
||||
"推理内容摘要": resp["推理内容"][:200] + "..." if len(resp["推理内容"]) > 200 else resp["推理内容"],
|
||||
"工具调用数量": len(resp["工具调用"]),
|
||||
"工具调用详情": [
|
||||
{"工具名称": tool["function"]["name"], "参数": tool["function"].get("arguments", {})}
|
||||
for tool in resp["工具调用"]
|
||||
],
|
||||
}
|
||||
for resp in results_with_tools["响应结果"]
|
||||
],
|
||||
"差异百分比": float(f"{diff_percent:.2f}"),
|
||||
}
|
||||
|
||||
with open("llm_tool_benchmark_results.json", "w", encoding="utf-8") as f:
|
||||
json.dump(results, f, ensure_ascii=False, indent=2)
|
||||
|
||||
print("\n测试结果已保存到 llm_tool_benchmark_results.json")
|
||||
|
||||
|
||||
if __name__ == "__main__":
|
||||
asyncio.run(main())
|
||||
Reference in New Issue
Block a user