Pular para o conteúdo principal
O Cursor é compatível com todos os modelos de ponta para programação, de todos os principais provedores.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Preços dos modelos

Os planos do Cursor incluem uso conforme as tarifas da API dos modelos. Por exemplo, os US$ 20 de uso incluído no plano Pro serão consumidos de acordo com o modelo que você escolher e o preço dele. Os limites de uso aparecem no editor com base no seu consumo atual. Para ver todos os preços da API dos modelos, confira a documentação dos provedores:

Auto

Ativar o Auto deixa o Cursor escolher o modelo premium mais adequado pra tarefa do momento, com a maior confiabilidade conforme a demanda atual. Esse recurso detecta queda de performance no output e troca de modelo automaticamente pra corrigir.

Janelas de contexto

Uma janela de contexto é o intervalo máximo de tokens (texto e código) que um LLM consegue considerar de uma vez, incluindo tanto o prompt de entrada quanto a saída gerada pelo modelo. Cada chat no Cursor mantém sua própria janela de contexto. Quanto mais prompts, arquivos anexados e respostas tiverem em uma sessão, maior a janela de contexto fica. Saiba mais sobre como trabalhar com contexto no Cursor.

Modo Max

Normalmente, o Cursor usa uma janela de contexto de 200k tokens (~15.000 linhas de código). O Modo Max amplia a janela de contexto até o máximo disponível para alguns modelos. Isso vai ficar um pouco mais lento e mais caro. É mais relevante para o Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 e Grok 4, que têm janelas de contexto maiores que 200k.

FAQ

Os modelos são hospedados em infraestrutura nos EUA pelo provedor do modelo, por um parceiro confiável ou diretamente pelo Cursor.Quando o Modo de Privacidade está ativado, nem o Cursor nem os provedores de modelos armazenam teus dados. Todos os dados são apagados após cada requisição. Para mais detalhes, confere nossas páginas de Privacidade, Política de Privacidade e Segurança.