O Cursor suporta todos os modelos de codificação de ponta de todos os principais provedores de modelos.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Janelas de contexto

Uma janela de contexto é o alcance máximo de tokens (texto e código) que um LLM pode considerar de uma vez, incluindo tanto o prompt de entrada quanto a saída gerada pelo modelo. Cada chat no Cursor mantém sua própria janela de contexto. Quanto mais prompts, arquivos anexados e respostas incluídos em uma sessão, maior a janela de contexto se torna. Saiba mais sobre trabalhar com contexto no Cursor.

Modo Max

Normalmente, o Cursor usa uma janela de contexto de 200k tokens (~15.000 linhas de código). O Modo Max estende a janela de contexto para o máximo disponível para cada modelo. Isso será um pouco mais lento e mais caro. É mais relevante para Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 e Grok 4, que têm janelas de contexto maiores que 200k.

Auto

Habilitar o Auto configura o Cursor para selecionar o modelo premium mais adequado para a tarefa imediata e com a maior confiabilidade baseada na demanda atual. Este recurso pode detectar desempenho de saída degradado e automaticamente alternar modelos para resolvê-lo.

FAQ