feat(config): 为表情包识别添加独立的VLM模型配置
为表情包识别功能(emoji_vlm)引入了专门的模型任务配置,使其与通用的视觉语言模型(VLM)配置分离。这提高了配置的灵活性和模块化程度。 - 在 `api_ada_configs.py` 中新增 `emoji_vlm` 任务配置。 - 更新 `emoji_manager.py` 以使用新的 `emoji_vlm` 配置。 - 在 `model_config_template.toml` 中添加了相应的配置模板。
This commit is contained in:
committed by
Windpicker-owo
parent
793c6e3817
commit
176a6b9c2e
@@ -148,6 +148,12 @@ class ModelTaskConfig(ConfigBase):
|
||||
))
|
||||
"""视频分析模型配置"""
|
||||
|
||||
emoji_vlm: TaskConfig = field(default_factory=lambda: TaskConfig(
|
||||
model_list=["qwen2.5-vl-72b"],
|
||||
max_tokens=800
|
||||
))
|
||||
"""表情包识别模型配置"""
|
||||
|
||||
def get_task(self, task_name: str) -> TaskConfig:
|
||||
"""获取指定任务的配置"""
|
||||
if hasattr(self, task_name):
|
||||
|
||||
Reference in New Issue
Block a user