定价

每个许可证都包含每月的请求配额。达到月度上限后,你仍然可以继续使用 Cursor 的 Auto 模型选择,不会产生额外的按量计费。如果你已达到月度上限但想指定使用某个特定模型,可以开启按量计费。

Normal

按模型/消息计的请求数适合日常编码任务,推荐大多数用户使用。

Max

每 1M tokens(MTok)对应的请求数适用于复杂推理、疑难 bug 和具备代理能力的任务。

请求

一个请求表示向大多数模型发送的一条消息,其中包括你的消息、代码库中的相关上下文以及模型的回复。Thinking 模型计作两个请求。MAX 模式的费用按 token 计费,详见下文。

Normal 模式

在 Normal 模式下,每条消息的成本只取决于你使用的模型,与上下文无关。我们会优化上下文管理,同时不影响你的请求计数。 例如,来看一段使用 Claude Sonnet 4 的对话:
角色消息每条消息成本
用户为此更改创建一个计划(使用更昂贵的模型)0
Cursor我来分析需求并给出详细的实现方案……1
用户用 TypeScript 实现这些更改并加上错误处理0
Cursor(Thinking)下面是带有类型安全和错误处理的实现……2
总计3 次请求

Auto 请求

当你达到月度请求上限后,可以启用 Auto 继续使用 Cursor,不会产生额外费用。Auto 会根据可用容量自动选择优质模型。 Auto 请求不支持开启 MAX 模式。

按量计费

达到月度请求上限后,你可以在控制台设置中启用按量计费。任何额外用量(Normal 或 MAX 模式)按 API 价格加 20% 计费。

API 价格参考

以下是各模型提供商的官方 API 定价页面,供参考:

Max 模式

在 MAX 模式下,定价按 token 计费,并在模型提供商的 API 价格基础上加收 20%。这包括你消息、代码文件、文件夹、工具调用以及提供给模型的任何其他上下文中的所有 token。 我们使用与模型提供商相同的 tokenizer(例如 GPT 模型使用 OpenAI 的 tokenizer,Claude 模型使用 Anthropic 的 tokenizer),以确保准确的 token 计数。你可以参考 OpenAI 的 tokenizer 演示。 以下是 MAX 模式下计费方式的示例:
角色消息Tokens每条消息成本
用户为此更改创建一个计划(使用更昂贵的模型)193k2.7 次请求
Cursor我来分析需求并给出详细的实现方案……62k1.23 次请求
用户用 TypeScript 实现这些更改并加上错误处理193k2.7 次请求
Cursor下面是带有类型安全和错误处理的实现……62k1.23 次请求
总计434k7.86 次请求

模型

Models 页面查看所有模型的属性。