最近更新时间:2025-11-28 13:24:15
生成与管理 API Key:用户可在控制台创建、管理 API Key,用于调用模型服务,支持启用/禁用操作,保障安全性。
权限控制:API Key 可关联特定模型或所属项目,确保不同业务使用不同的权限范围。
在模型在线试用界面,您可以Chat形式试用模型广场中的文本模型并对某些参数进行便捷调整,评估模型性能,找到最适合业务场景的模型。在请求完成后您可查看调用的TTFT、TPOT等参数,评估模型效果。
模型浏览:展示所有模型API服务已支持模型、分类标签、简介、版本的更新时间。
模型详情:展示对应模型所有可使用的API Key,并支持一键生成RestAPI及OpenAI SDK调用代码。
模型厂商 | 模型名称 | 简介 | 最大上下文长度 |
千问 | qwen3-coder-480b-a35b-instruct | Qwen3-Coder-480B-A35B-Instruct 是 Qwen 团队推出的编码专用模型。可处理仓库规模的代码理解任务,尤其在代理式编码、工具调用场景中表现出色。 | 256k |
智谱AI | glm-4.6 | GLM-4.6 是智谱的旗舰模型,其总参数量 355B,激活参数 32B,上下文提升至 200K,8 项基准全面提升。在编程、推理、搜索、写作、智能体应用等核心能力均完成对 GLM-4.5 的超越。 | 200k |
OpenAI | gpt-oss-120b | OpenAI 推出的开源权重模型,专为强大的推理能力、代理任务以及多样化的开发者场景而设计。 | 128k |
DeepSeek | deepseek-r1-0528 | DeepSeek Reasoner,专注逻辑推理、数学与编码任务,采用Dense架构和强化学习优化,参数规模约 671 B,支持高精推理输出。 | 128k |
deepseek-v3-0324 | DeepSeek Chat,作为更通用的一代模型,在对话、创意生成与指令遵循方面表现优异。使用 MoE 架构提高效率,参数与推理特性侧重全面性与部署效率。 | 128k | |
deepseek-v3.1 | 延续 DeepSeek-V3 架构风格,扩展上下文长度,支持混合推理架构,提供了更高的思考效率以及更强的Agent能力。 | 128k | |
deepseek-v3.2-exp | 作为迈向新一代架构的中间步骤,deepseek-v3.2-exp 在 v3.1-terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。 | 128k | |
月之暗面 | kimi-k2-0905-preview | Kimi-K2-0905-Preview 激活参数约 32B,总参数 1T,支持 256K Token 的长上下文输入,是对先前 128K 上下文的升级。它在代码生成 、Agent 工具调用等任务上性能进一步提升,尤其在 SWE-Bench、LiveCodeBench 等基准上表现优异。 | 256k |
kimi-k2-turbo-preview | Kimi-K2-Turbo-Preview 是基于 Kimi K2 的高速版本,主要面向对响应速度和交互体验要求高的场景。该版本在保持 MoE 架构和大模型能力的同时,将输出速度提升了数倍 ,并在调用成本上做出优化,以降低用户使用门槛。 | 256k | |
kimi-k2-turbo-enterprise | kimi-k2-turbo-enterprise是kimi-k2-turbo-preview模型的企业版接口版本,在价格、限流上做出区别。 | 256k | |
kimi-k2-thinking | 月之暗面提供的具有通用 Agentic 能力和推理能力的思考模型,它擅长深度推理,并可通过多步工具调用,帮助解决各类难题。 | 256k | |
kimi-k2-thinking-turbo | 是 kimi-k2-thinking 模型的高速版,适用于需要深度推理和追求高速的场景。 | 256k |
模型厂商 | 模型名称 | 简介 |
可灵AI | kling-v2-1-master | 快手 Kling AI 推出的高端视频生成模型,支持文字或图像生成短视频,在时空注意力、镜头稳定性和角色动态建模上显著提升,能更精准还原提示内容。 |
kling-v2-5-turbo | 快手 Kling AI 推出的旗舰视频生成模型,支持文字或图像生成高清短视频,具备更高的提示理解力、更流畅的镜头运动和更稳定的画面风格。 |
批量推理功能支持您上传大量无需即时响应的请求,平台在有空闲资源时会对您的请求进行处理。
免费额度查看及管理:可查看免费额度以及对免费额度进行管理,可开启“免费额度用尽自动禁用”功能。
模型开通:可进行模型的批量开通,模型进行开通后才可进行调用。
支持查询账号及模型维度消耗Token数量,评估成本与效果。
模型API服务在模型自身能力基础之上,提供进一步的输入输出敏感词拦截,当检测到输入或输出包含敏感词时,将进行拦截以保障生成的内容安全。
联网搜索服务对主账号维度默认限流为5QPS,如您希望修改限额,请提出工单申请联系售后工程师。
纯净模式
