Cursor soporta todos los modelos de codificación de vanguardia de los principales proveedores de modelos.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Ventanas de contexto

Una ventana de contexto es el alcance máximo de tokens (texto y código) que un LLM puede considerar a la vez, incluyendo tanto el prompt de entrada como la salida generada por el modelo. Cada chat en Cursor mantiene su propia ventana de contexto. Cuantos más prompts, archivos adjuntos y respuestas se incluyan en una sesión, más grande se vuelve la ventana de contexto. Aprende más sobre trabajar con contexto en Cursor.

Modo Max

Normalmente, Cursor utiliza una ventana de contexto de 200k tokens (~15,000 líneas de código). El Modo Max extiende la ventana de contexto al máximo disponible para cada modelo. Esto será un poco más lento y más costoso. Es más relevante para Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1, y Grok 4, que tienen ventanas de contexto más grandes que 200k.

Auto

Habilitar Auto configura Cursor para seleccionar el modelo premium más adecuado para la tarea inmediata y con la mayor confiabilidad basándose en la demanda actual. Esta función puede detectar un rendimiento de salida degradado y cambiar automáticamente de modelo para resolverlo.

Preguntas Frecuentes