Documentation Index
Fetch the complete documentation index at: https://platform.stepfun.com/docs/llms.txt
Use this file to discover all available pages before exploring further.
step-3.5-flash 是阶跃星辰的旗舰语言推理模型。具备顶尖推理能力与快速可靠的执行能力,能够完成复杂任务的分解与计划,可快速可靠地调用工具执行任务,胜任逻辑推理、数学、软件工程、深度研究等各种复杂任务。基于 196B 总参数 / 11B 激活参数的稀疏 MoE 架构。
关键信息
模型类型
稀疏 MoE 架构
196B 总参数 / 11B 激活参数
196B 总参数 / 11B 激活参数
上下文长度
256K tokens
场景定位
高速推理 + 工具调用
智能体与代码任务优化
智能体与代码任务优化
核心能力
🚀 高速推理
稀疏 MoE 架构带来高吞吐与低延迟,适合实时智能体工作流与高频调用场景。
🛠️ 工具调用
可靠的
tools / tool_choice 调用能力,支持多步任务分解与计划执行。🧠 复杂推理
胜任逻辑推理、数学、软件工程、深度研究等复杂任务,是 Agent 长链路推理的稳定底座。
模型变体
step-3.5-flash
基础版本:通用推理与工具调用,适合多数 Agent 与复杂任务场景。
step-3.5-flash-2603
Agent 优化版:基于 step-3.5-flash 针对高频 Agent 场景优化,Token 效率提升、推理速度更快,可切换至低推理模式大幅降低 Token 消耗,对 Coding 与 Agent 框架兼容性也做了专项优化。支持
reasoning_effort 字段(low / high)。API 端点
Chat Completion
POST /v1/chat/completionsOpenAI 协议兼容,支持流式与工具调用。
Messages
POST /v1/messagesAnthropic 协议兼容,可直接复用 Anthropic SDK。
定价
| 计费项 | 单价(每百万 tokens) |
|---|---|
| 输入(缓存命中) | ¥0.14 |
| 输入(缓存未命中) | ¥0.7 |
| 输出 | ¥2.1 |
快速上手
- curl
- Python (OpenAI SDK)
相关阅读
推理模型开发指南
了解推理模型在复杂任务、工具调用和长上下文中的推荐用法。
Step Router V1 智能路由
step-router-v1 在判定任务为高频或确定性场景时会路由到 step-3.5-flash 执行。