Uma janela de contexto é o alcance máximo de tokens (texto e código) que um LLM pode considerar de uma vez, incluindo tanto o prompt de entrada quanto a saída gerada pelo modelo.Cada chat no Cursor mantém sua própria janela de contexto. Quanto mais prompts, arquivos anexados e respostas incluídos em uma sessão, maior a janela de contexto se torna.Saiba mais sobre trabalhar com contexto no Cursor.
Normalmente, o Cursor usa uma janela de contexto de 200k tokens (~15.000 linhas de código). O Modo Max estende a janela de contexto para o máximo disponível para cada modelo. Isso será um pouco mais lento e mais caro. É mais relevante para Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 e Grok 4, que têm janelas de contexto maiores que 200k.
Habilitar o Auto configura o Cursor para selecionar o modelo premium mais adequado para a tarefa imediata e com a maior confiabilidade baseada na demanda atual. Este recurso pode detectar desempenho de saída degradado e automaticamente alternar modelos para resolvê-lo.
Os modelos são hospedados em infraestrutura baseada nos EUA pelo provedor do modelo, um parceiro confiável, ou diretamente pelo Cursor.Quando o Modo de Privacidade está habilitado, nem o Cursor nem os provedores de modelos armazenam seus dados. Todos os dados são excluídos após cada solicitação. Para detalhes, consulte nossas páginas de Privacidade, Política de Privacidade e Segurança.