O Cursor é compatível com todos os modelos de ponta para codificação, de todos os principais provedores.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Preços dos modelos

Os planos do Cursor incluem uso conforme as tarifas da API dos modelos. Por exemplo, os US$ 20 de uso incluídos no plano Pro serão consumidos de acordo com o modelo que você escolher e o preço dele. Os limites de uso são exibidos no editor com base no seu consumo atual. Para ver todos os preços das APIs dos modelos, consulte a documentação dos provedores:

Auto

Ativar o Auto permite que o Cursor selecione o modelo premium mais adequado para a tarefa imediata, com a maior confiabilidade com base na demanda atual. Esse recurso detecta degradação de desempenho na saída e alterna automaticamente de modelo para resolver o problema.

Janelas de contexto

Uma janela de contexto é o intervalo máximo de tokens (texto e código) que um LLM consegue considerar de uma só vez, incluindo tanto o prompt de entrada quanto a saída gerada pelo modelo. Cada chat no Cursor mantém sua própria janela de contexto. Quanto mais prompts, arquivos anexados e respostas são incluídos em uma sessão, maior a janela de contexto fica. Saiba mais sobre como trabalhar com contexto no Cursor.

Modo Máximo

Normalmente, o Cursor usa uma janela de contexto de 200k tokens (~15.000 linhas de código). O Modo Máximo amplia a janela de contexto ao máximo disponível para alguns modelos. Isso vai ficar um pouco mais lento e mais caro. É mais relevante para o Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 e Grok 4, que têm janelas de contexto maiores que 200k.

FAQ