适配模型列表

我们为您聚合了全球顶尖的大语言模型,无论您的需求是极致性能、成本效益还是特定场景,都能在此找到最佳的模型调用方案。

gpt-4.1-nano-2025-04-14

OpenAI

一款专为高效率和低延迟场景设计的轻量级模型。它在保持强大推理能力的同时,大幅降低了资源消耗,是移动端应用和实时交互任务的理想选择。

上下文窗口: 32K Tokens
模型类型: 对话 & 推理

gpt-4o-mini-2024-07-18

OpenAI

GPT-4o的紧凑版本,拥有原生多模态能力,可流畅处理文本、音频和图像。它在速度和成本上进行了极致优化,是构建高性价比多模态应用的领先选择。

上下文窗口: 128K Tokens
核心特性: 多模态 & 高性价比

gpt-5-nano-2025-08-07

OpenAI

下一代超高效能模型,在紧凑的体积内实现了前所未有的逻辑推理与代码生成能力。专为处理复杂任务链和端侧AI应用而生,代表了未来智能的新基准。

上下文窗口: 64K Tokens
核心特性: 尖端推理 & 端侧优化

gpt-oss-20b

Open Source

一款200亿参数规模的顶级开源模型,具备出色的通用能力。完全开放的权重使其成为企业进行私有化部署、深度定制和领域微调的绝佳基座模型。

上下文窗口: 16K Tokens
核心特性: 开放权重 & 可定制

grok-3-mini

xAI

以实时信息获取和独特幽默感著称的模型。能够接入最新网络数据进行回答,并以更具个性化的风格进行交互,非常适合构建动态问答和信息流应用。

上下文窗口: 128K Tokens
核心特性: 实时联网 & 个性化

glm-4.5-flash

Zhipu AI

智谱AI推出的新一代高速模型,专为需要极快响应速度的场景设计。在保持GLM-4强大中文能力的基础上,实现了推理速度的飞跃,适用于高并发API调用。

上下文窗口: 128K Tokens
核心特性: 极致高速 & 强大中文

glm-4-long

Zhipu AI

智谱AI推出的超长输入文本模型,提供了更强大的问答和文本生成能力,专为处理超长文本和记忆型任务设计,上下文支持1M,最大输出4K

上下文窗口: 128K Tokens
核心特性: 极致高速 & 强大中文

llama-3-sonar-large-32k-chat

Meta

Meta推出的Llama-3系列增强版模型,拥有强大的通用对话和推理能力。32K的上下文窗口使其能处理更长的文档和对话历史,是构建复杂应用的坚实基础。

上下文窗口: 32K Tokens
核心特性: 通用强大 & 开源生态

phi-4

Microsoft

微软推出的突破性小型语言模型(SLM),以“小体积,大智慧”著称。它在代码、数学和逻辑推理方面表现出超越其参数规模的惊人能力,重新定义了效率与性能的平衡。

上下文窗口: 128K Tokens
核心特性: 小而强大 & 卓越推理

doubao-seed-1-6-flash-250615

ByteDance

来自字节跳动的豆包大模型系列,Flash版本专注于提供极具成本效益的高速推理服务。它在保持良好对话效果的同时,将调用成本降至冰点,是大规模应用的理想之选。

上下文窗口: 32K Tokens
核心特性: 超高性价比 & 极速响应

ERNIE-Speed-128K

Baidu

百度文心大模型的高性能版本,拥有128K的超长上下文处理能力和出色的推理速度。特别适合长文本摘要、文档问答和需要长对话历史的复杂场景。

上下文窗口: 128K Tokens
核心特性: 超长文本 & 高速推理

qwen-plus-2025-04-28

Alibaba

阿里通义千问的旗舰增强模型,在代码、数学、多语言和创作方面均有卓越表现。作为一款能力均衡的“六边形战士”,它能可靠地胜任各类复杂和专业的任务。

上下文窗口: 32K Tokens
核心特性: 旗舰性能 & 能力均衡

qwen2.5-7b-instruct

Alibaba

通义千问2.5代70亿参数指令微调模型,响应迅速、指令遵循能力强。作为一款轻快而精准的模型,它非常适合用于任务拆解、意图识别和格式化输出等场景。

上下文窗口: 64K Tokens
核心特性: 指令遵循 & 轻快精准

gemini-2.5-flash-lite-preview-06-17

Google

谷歌下一代Gemini模型的轻量预览版,专为需要高吞吐和低成本的场景打造。它继承了Gemini强大的多模态基因,是探索前沿AI能力的高性价比入口。

上下文窗口: 128K Tokens
核心特性: 前沿预览 & 多模态

gemini-2.0-flash

Google

谷歌成熟的Gemini 2.0系列高速模型。它在速度、质量和成本之间取得了卓越的平衡,支持长达100万Token的上下文,是处理大规模、长文本任务的强大工具。

上下文窗口: 1M Tokens
核心特性: 百万上下文 & 成熟稳定