api文档更新,注释更新

This commit is contained in:
UnCLAS-Prommer
2025-07-31 15:01:31 +08:00
parent 3e780c4417
commit 84216a4df7
8 changed files with 104 additions and 31 deletions

View File

@@ -14,26 +14,26 @@ from src.plugin_system import llm_api
### 1. 查询可用模型
```python
def get_available_models() -> Dict[str, Any]:
def get_available_models() -> Dict[str, TaskConfig]:
```
获取所有可用的模型配置。
**Return**
- `Dict[str, Any]`模型配置字典key为模型名称value为模型配置。
- `Dict[str, TaskConfig]`模型配置字典key为模型名称value为模型配置对象
### 2. 使用模型生成内容
```python
async def generate_with_model(
prompt: str, model_config: Dict[str, Any], request_type: str = "plugin.generate", **kwargs
) -> Tuple[bool, str]:
prompt: str, model_config: TaskConfig, request_type: str = "plugin.generate", **kwargs
) -> Tuple[bool, str, str, str]:
```
使用指定模型生成内容。
**Args:**
- `prompt`:提示词。
- `model_config`:模型配置(从 `get_available_models` 获取)。
- `model_config`:模型配置对象(从 `get_available_models` 获取)。
- `request_type`:请求类型标识,默认为 `"plugin.generate"`
- `**kwargs`:其他模型特定参数,如 `temperature``max_tokens` 等。
**Return**
- `Tuple[bool, str]`:返回一个元组,第一个元素表示是否成功,第二个元素为生成的内容或错误信息
- `Tuple[bool, str, str, str]`:返回一个元组,包含(是否成功, 生成的内容, 推理过程, 模型名称)