Qwen3-Max
千问旗舰模型,能力最强,适合复杂多步骤推理、高质量写作和专业分析任务。
Qwen3.6-Plus
效果/速度/成本均衡的推荐模型,支持文本+图片+视频输入,适用于大多数通用场景。
Qwen3.6-Flash
速度最快、成本极低的模型,适合简单任务、大批量处理和对延迟敏感的场景。
Qwen-Turbo
经济型模型,性价比高。建议新项目优先使用 Qwen3.6-Flash 替代。
Qwen-Long
支持 10M token 超长上下文,可通过 file-id 上传文档(TXT/DOCX/PDF/EPUB/MD),适合超长文档分析和多文件理解。
QwQ-Plus
专为深度推理设计的模型,在数学、代码和逻辑推理方面表现出色。默认思考模式,temperature=0.6。
Qwen3-Coder-Plus
代码专用优化模型,适合代码生成、理解、补全和调试任务。
Qwen-Math-Plus
数学专用模型,擅长数学推理和解题。上下文较短(4K),适合单轮数学问答。
DeepSeek-V3.2
DeepSeek 最新一代旗舰模型,综合能力强,性价比高。
DeepSeek-R1
DeepSeek 推理模型,擅长复杂推理任务。注意:不支持设置 temperature/top_p/repetition_penalty。
Kimi-K2.5
月之暗面旗舰模型,多轮 Function Calling 时需保留 reasoning_content 字段。
GLM-5
智谱 AI 旗舰模型,支持超长输出(131K tokens),上下文窗口 200K。
MiniMax-M2.5
MiniMax 旗舰模型,综合能力均衡。
Qwen3-VL-Plus
高性能视觉语言模型,支持图片和视频输入,适合通用视觉理解任务。
Qwen-VL-Max
千问视觉旗舰模型,视觉理解能力最强。
QVQ-Max
视觉推理模型,具备深度思考能力。注意:不建议修改默认 temperature/top_p/seed 参数。
Qwen-VL-OCR
专为文字提取优化的模型,适合文档数字化、表格识别和手写体识别。
Qwen3.5-Omni-Plus
全模态模型,支持文本/图片/音频/视频输入,以及文本和语音输出。必须使用流式输出 stream=True。
Qwen3.5-Omni-Flash
全模态轻量版本,成本更低。同样必须使用流式输出。
Qwen-Image-2.0-Pro
高质量文本到图像生成模型,支持多种分辨率,最高 2688x1536。
Wan2.6 文生图
万相最新文生图模型,使用 messages 协议调用(而非传统 prompt 方式)。
Wanx2.0 文生图-Turbo
极低成本的文生图模型,0.04 元/张,适合大批量图片生成。
CosyVoice-v3.5-Plus
高质量语音合成模型,支持多音色、多语言和细粒度的语音控制。
Paraformer-V2
推荐使用的语音识别模型。支持批量处理(100+文件)、单文件最大 2GB/12小时、说话人分离。免费额度 10 小时。
SenseVoice-V1
已停用支持 50+ 语言的语音识别模型,成本更低。注意:计划停用,建议新项目使用 Paraformer-V2。
Text-Embedding-V4 (Qwen3)
最新的向量化模型(Qwen3-Embedding),支持 100+ 语言,可自定义向量维度和输出稀疏向量。
Text-Embedding-V3
支持 50+ 语言的向量化模型,可自定义维度和输出稀疏向量。
Text-Embedding-V1
早期向量化模型,固定 1536 维度输出。建议新项目使用 v4。
Qwen3-VL-Embedding
多模态向量化模型,支持文本、图片和视频输入。适合跨模态检索场景。
Qwen3-Rerank
文本重排序模型,可对检索结果按相关性重新排序。单次最多处理 500 个文档。
Qwen3-VL-Rerank
多模态重排序模型,支持文本、图片和视频内容的重排序。适合多模态 RAG 场景。
GTE-Rerank-V2
高吞吐重排序模型,单次最多处理 30,000 个文档,适合大规模检索场景。
Wan2.7 文生视频
最新的文生视频模型,支持 720P/1080P 分辨率,2-15 秒时长,多镜头叙事和音频同步。仅支持异步调用。
Wan2.7 图生视频
图像到视频生成模型,支持首帧/首尾帧输入、视频续写和音频驱动。