超腾开源平台AI模块
AI 模块提供提示词管理、大模型管理、大模型提供商、MCP 工具、智能体、IDE 账号、Cursor API 等 AI 功能。
目录
AI 提示词
提示词模块提供 AI 提示词的创建、管理、版本控制等功能。
提示词 CRUD
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/prompts/detail |
GET | 获取提示词详情 |
/api/ai/prompts/list |
GET | 获取提示词列表 |
/api/ai/prompts/page |
GET | 获取提示词分页 |
/api/ai/prompts/create |
POST | 创建提示词 |
/api/ai/prompts/update |
POST | 更新提示词 |
/api/ai/prompts/delete |
POST | 删除提示词 |
创建提示词
接口地址: POST /api/ai/prompts/create
需要认证: 是
请求体:
{
"name": "代码审查提示词",
"description": "用于代码审查的提示词",
"content": "请审查以下代码,并给出改进建议...",
"category": "programming",
"tags": ["代码", "审查"],
"is_public": false
}
提示词使用
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/prompts/use |
POST | 使用提示词 |
/api/ai/prompts/{prompt_id}/versions |
GET | 获取提示词版本列表 |
/api/ai/prompts/usage-logs/page |
GET | 获取提示词使用记录分页 |
我的提示词
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/prompts/my/list |
GET | 获取我的提示词列表 |
/api/ai/prompts/my/page |
GET | 获取我的提示词分页 |
公开提示词
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/prompts/public/list |
GET | 获取公开提示词列表 |
/api/ai/prompts/public/page |
GET | 获取公开提示词分页 |
AI 大模型提供商
大模型提供商模块提供各种 AI 服务提供商的管理功能。
大模型提供商 CRUD
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/llm-providers/detail |
GET | 获取大模型提供商详情 |
/api/ai/llm-providers/list |
GET | 获取大模型提供商列表 |
/api/ai/llm-providers/page |
GET | 获取大模型提供商分页 |
/api/ai/llm-providers/create |
POST | 创建大模型提供商 |
/api/ai/llm-providers/update |
POST | 更新大模型提供商 |
/api/ai/llm-providers/delete |
POST | 删除大模型提供商 |
创建大模型提供商
接口地址: POST /api/ai/llm-providers/create
需要认证: 是
请求体:
{
"name": "OpenAI",
"type": "openai",
"api_key": "sk-xxxxx",
"base_url": "https://api.openai.com/v1",
"description": "OpenAI 官方 API",
"is_active": true
}
大模型提供商测试
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/llm-providers/test |
POST | 测试大模型提供商连接 |
测试连接
接口地址: POST /api/ai/llm-providers/test
需要认证: 是
请求体:
{
"provider_id": "1",
"test_prompt": "Hello"
}
我的大模型提供商
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/llm-providers/my/list |
GET | 获取我的大模型提供商列表 |
/api/ai/llm-providers/my/page |
GET | 获取我的大模型提供商分页 |
可用大模型提供商
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/llm-providers/available/list |
GET | 获取可用大模型提供商列表 |
/api/ai/llm-providers/default |
GET | 获取默认大模型提供商 |
AI 大模型
大模型模块提供大模型的创建、管理、测试、使用等功能。
大模型 CRUD
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/llm-models/detail |
GET | 获取大模型详情 |
/api/ai/llm-models/list |
GET | 获取大模型列表 |
/api/ai/llm-models/page |
GET | 获取大模型分页 |
/api/ai/llm-models/create |
POST | 创建大模型 |
/api/ai/llm-models/update |
POST | 更新大模型 |
/api/ai/llm-models/delete |
POST | 删除大模型 |
创建大模型
接口地址: POST /api/ai/llm-models/create
需要认证: 是
请求体:
{
"provider_id": "1",
"name": "GPT-4",
"model_id": "gpt-4",
"description": "GPT-4 模型",
"context_length": 8192,
"is_default": true
}
大模型测试与使用
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/llm-models/test |
POST | 测试大模型 |
/api/ai/llm-models/use |
POST | 使用大模型 |
/api/ai/llm-models/usage-logs/page |
GET | 获取大模型使用记录分页 |
/api/ai/llm-models/chat/stream |
POST | 流式聊天 |
使用大模型
接口地址: POST /api/ai/llm-models/use
需要认证: 是
请求体:
{
"model_id": "1",
"messages": [{ "role": "user", "content": "你好" }],
"temperature": 0.7,
"max_tokens": 1000
}
响应示例:
{
"success": true,
"code": 200,
"msg": "操作成功",
"data": {
"content": "你好!有什么可以帮助你的吗?",
"usage": {
"prompt_tokens": 10,
"completion_tokens": 15,
"total_tokens": 25
}
}
}
流式聊天
接口地址: POST /api/ai/llm-models/chat/stream
需要认证: 是
说明: 返回 Server-Sent Events (SSE) 流式数据。
我的大模型
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/llm-models/my/list |
GET | 获取我的大模型列表 |
/api/ai/llm-models/my/page |
GET | 获取我的大模型分页 |
可用大模型
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/llm-models/available/list |
GET | 获取可用大模型列表 |
/api/ai/llm-models/default |
GET | 获取默认大模型 |
MCP 工具
MCP (Model Context Protocol) 工具模块提供 MCP 工具的管理功能。
MCP 工具 CRUD
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/mcp-tools/detail |
GET | 获取 MCP 工具详情 |
/api/ai/mcp-tools/list |
GET | 获取 MCP 工具列表 |
/api/ai/mcp-tools/page |
GET | 获取 MCP 工具分页 |
/api/ai/mcp-tools/create |
POST | 创建 MCP 工具 |
/api/ai/mcp-tools/update |
POST | 更新 MCP 工具 |
/api/ai/mcp-tools/delete |
POST | 删除 MCP 工具 |
MCP 工具测试与执行
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/mcp-tools/test |
POST | 测试 MCP 工具 |
/api/ai/mcp-tools/execute |
POST | 执行 MCP 工具 |
执行 MCP 工具
接口地址: POST /api/ai/mcp-tools/execute
需要认证: 是
请求体:
{
"tool_id": "1",
"parameters": {
"url": "https://example.com",
"method": "GET"
}
}
AI 智能体
智能体模块提供 AI 智能体的创建、配置、执行等功能。
智能体 CRUD
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/agents/detail |
GET | 获取智能体详情 |
/api/ai/agents/list |
GET | 获取智能体列表 |
/api/ai/agents/page |
GET | 获取智能体分页 |
/api/ai/agents/create |
POST | 创建智能体 |
/api/ai/agents/update |
POST | 更新智能体 |
/api/ai/agents/delete |
POST | 删除智能体 |
创建智能体
接口地址: POST /api/ai/agents/create
需要认证: 是
请求体:
{
"name": "代码助手",
"description": "帮助编写和审查代码的智能体",
"model_id": "1",
"system_prompt": "你是一个代码助手,请帮助用户编写和审查代码。",
"tools": ["code-execution", "file-read"],
"temperature": 0.7,
"max_tokens": 2000
}
智能体执行与测试
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/agents/execute |
POST | 执行智能体 |
/api/ai/agents/test |
POST | 测试智能体 |
/api/ai/agents/usage-logs/page |
GET | 获取智能体使用记录分页 |
执行智能体
接口地址: POST /api/ai/agents/execute
需要认证: 是
请求体:
{
"agent_id": "1",
"message": "请帮我写一个Python函数计算斐波那契数列"
}
AI IDE 账号
IDE 账号模块提供 AI IDE(如 Cursor、Copilot 等)账号的管理功能。
IDE 账号 CRUD
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/ide-accounts/detail |
GET | 获取 IDE 账号详情 |
/api/ai/ide-accounts/list |
GET | 获取 IDE 账号列表 |
/api/ai/ide-accounts/page |
GET | 获取 IDE 账号分页 |
/api/ai/ide-accounts/create |
POST | 创建 IDE 账号 |
/api/ai/ide-accounts/update |
POST | 更新 IDE 账号 |
/api/ai/ide-accounts/delete |
POST | 删除 IDE 账号 |
Cursor API
Cursor API 模块提供 Cursor IDE 的 API 管理功能。
Cursor API CRUD
| 接口地址 | 方法 | 说明 |
|---|---|---|
/api/ai/cursor-api/detail |
GET | 获取 Cursor API 详情 |
/api/ai/cursor-api/list |
GET | 获取 Cursor API 列表 |
/api/ai/cursor-api/page |
GET | 获取 Cursor API 分页 |
/api/ai/cursor-api/create |
POST | 创建 Cursor API |
/api/ai/cursor-api/update |
POST | 更新 Cursor API |
/api/ai/cursor-api/delete |
POST | 删除 Cursor API |
枚举类型说明
大模型提供商类型 (LLMProviderType)
| 值 | 说明 |
|---|---|
| openai | OpenAI |
| anthropic | Anthropic |
| azure | Azure OpenAI |
| deepseek | DeepSeek |
| zhipu | 智谱 AI |
| moonshot | 月之暗面 |
| custom | 自定义 |
提示词分类 (PromptCategory)
| 值 | 说明 |
|---|---|
| programming | 编程 |
| writing | 写作 |
| analysis | 分析 |
| translation | 翻译 |
| creative | 创意 |
| other | 其他 |
智能体工具 (AgentTool)
| 值 | 说明 |
|---|---|
| code-execution | 代码执行 |
| file-read | 文件读取 |
| file-write | 文件写入 |
| web-search | 网络搜索 |
| calculator | 计算器 |
使用示例
Python 示例
import requests
base_url = 'http://localhost:8000/api/ai'
token = 'your_access_token'
headers = {'Authorization': f'Bearer {token}'}
# 创建提示词
response = requests.post(
f'{base_url}/prompts/create',
headers=headers,
json={
'name': '代码审查提示词',
'content': '请审查以下代码...',
'category': 'programming'
}
)
print(response.json())
# 使用大模型
response = requests.post(
f'{base_url}/llm-models/use',
headers=headers,
json={
'model_id': '1',
'messages': [{'role': 'user', 'content': '你好'}]
}
)
print(response.json())
# 执行智能体
response = requests.post(
f'{base_url}/agents/execute',
headers=headers,
json={
'agent_id': '1',
'message': '请帮我写一个Python函数'
}
)
print(response.json())
JavaScript 示例
// 使用大模型
async function useLLM(token, modelId, messages) {
const response = await fetch("http://localhost:8000/api/ai/llm-models/use", {
method: "POST",
headers: {
Authorization: `Bearer ${token}`,
"Content-Type": "application/json",
},
body: JSON.stringify({ model_id: modelId, messages }),
});
return await response.json();
}
// 流式聊天
async function chatStream(token, modelId, messages, onChunk) {
const response = await fetch(
"http://localhost:8000/api/ai/llm-models/chat/stream",
{
method: "POST",
headers: {
Authorization: `Bearer ${token}`,
"Content-Type": "application/json",
},
body: JSON.stringify({ model_id: modelId, messages }),
}
);
const reader = response.body.getReader();
const decoder = new TextDecoder();
while (true) {
const { done, value } = await reader.read();
if (done) break;
const chunk = decoder.decode(value);
onChunk(chunk);
}
}
注意事项
- API 密钥安全: 大模型提供商的 API 密钥会加密存储,不会在响应中返回完整密钥。
- 流式响应: 流式聊天接口使用 Server-Sent Events (SSE) 格式返回数据。
- Token 限制: 大模型有上下文长度限制,超出部分会被截断。
- 使用记录: 所有大模型调用都会记录使用次数和 token 消耗。
- 工具执行: MCP 工具执行需要在配置的环境中进行,注意安全性。
- 智能体配置: 智能体的系统提示词会影响其行为,需要谨慎设置。
相关文档
推荐阅读
评论 (0)
发表评论
暂无评论,快来发表第一条评论吧!