feat(config): 为表情包识别添加独立的VLM模型配置
为表情包识别功能(emoji_vlm)引入了专门的模型任务配置,使其与通用的视觉语言模型(VLM)配置分离。这提高了配置的灵活性和模块化程度。 - 在 `api_ada_configs.py` 中新增 `emoji_vlm` 任务配置。 - 更新 `emoji_manager.py` 以使用新的 `emoji_vlm` 配置。 - 在 `model_config_template.toml` 中添加了相应的配置模板。
This commit is contained in:
@@ -1,5 +1,5 @@
|
||||
[inner]
|
||||
version = "1.2.2"
|
||||
version = "1.2.3"
|
||||
|
||||
# 配置文件版本号迭代规则同bot_config.toml
|
||||
|
||||
@@ -149,6 +149,11 @@ max_tokens = 800
|
||||
model_list = ["qwen2.5-vl-72b"]
|
||||
max_tokens = 800
|
||||
|
||||
[model_task_config.emoji_vlm] # 专用表情包识别模型
|
||||
model_list = ["qwen2.5-vl-72b"]
|
||||
max_tokens = 800
|
||||
|
||||
|
||||
[model_task_config.utils_video] # 专用视频分析模型
|
||||
model_list = ["qwen2.5-vl-72b"]
|
||||
temperature = 0.3
|
||||
|
||||
Reference in New Issue
Block a user