Preços

Cada licença vem com uma cota mensal de solicitações. Quando você atingir seu limite mensal, pode continuar usando a seleção automática de modelos do Cursor sem incorrer em custos adicionais baseados em uso. Se você tiver atingido seu limite mensal e quiser trabalhar especificamente com um modelo da sua escolha, dá pra fazer isso por meio de precificação baseada em uso.

Normal

Solicitações por modelo/mensagemIdeal para tarefas diárias de código, recomendada para a maioria dos usuários.

Max

Solicitações por 1M tokens (MTok)Melhor para raciocínio complexo, bugs difíceis e tarefas com agentes.

Solicitação

Uma solicitação é uma única mensagem enviada para a maioria dos modelos, que inclui tua mensagem, qualquer contexto relevante do teu codebase e a resposta do modelo. Modelos “Thinking” contam como duas solicitações. Os custos do MAX Mode são calculados com base em tokens, conforme explicado abaixo.

Modo normal

No modo normal, cada mensagem custa um número fixo de solicitações com base apenas no modelo que você está usando, independentemente do contexto. A gente otimiza o gerenciamento de contexto sem isso afetar tua contagem de solicitações. Por exemplo, vamos analisar uma conversa usando Claude Sonnet 4:
FunçãoMensagemCusto por mensagem
UsuárioCria um plano para essa mudança (usando um modelo mais caro)0
CursorVou analisar os requisitos e criar um plano de implementação detalhado…1
UsuárioImplementa as mudanças com TypeScript e adiciona tratamento de erros0
Cursor (Thinking)Aqui está a implementação com segurança de tipos e tratamento de erros…2
Total3 solicitações

Solicitações Auto

Quando você atingir seu limite mensal de solicitações, pode continuar usando o Cursor ativando o Auto sem incorrer em custo adicional. O Auto configura o Cursor para selecionar modelos de ponta com base na capacidade disponível. O MAX Mode não está disponível para solicitações Auto.

Precificação baseada em uso

Quando você atingir seu limite mensal de solicitações, pode ativar a precificação baseada em uso nas configurações do teu dashboard. Qualquer uso adicional (normal ou MAX Mode) fica disponível às tarifas de API mais 20%.

Referências de preços da API

Para referência, aqui estão as páginas oficiais de preços de API de cada provedor de modelo:

Max Mode

No MAX Mode, a precificação é calculada com base em tokens, com um acréscimo de 20% sobre o preço de API do provedor do modelo. Isso inclui todos os tokens das tuas mensagens, arquivos de código, pastas, chamadas de ferramentas e qualquer outro contexto fornecido ao modelo. A gente usa os mesmos tokenizers dos provedores de modelo (por exemplo, o tokenizer da OpenAI para modelos GPT e o da Anthropic para modelos Claude) para garantir uma contagem de tokens precisa. Você pode ver um exemplo usando a demo do tokenizer da OpenAI. Aqui está um exemplo de como a precificação funciona no MAX Mode:
FunçãoMensagemTokensCusto por mensagem
UsuárioCria um plano para essa mudança (usando um modelo mais caro)193k2,7 solicitações
CursorVou analisar os requisitos e criar um plano de implementação detalhado…62k1,23 solicitações
UsuárioImplementa as mudanças com TypeScript e adiciona tratamento de erros193k2,7 solicitações
CursorAqui está a implementação com segurança de tipos e tratamento de erros…62k1,23 solicitações
Total434k7,86 solicitações

Modelos

Confere todos os atributos dos modelos na página Models.