Una ventana de contexto es el alcance máximo de tokens (texto y código) que un LLM puede considerar a la vez, incluyendo tanto el prompt de entrada como la salida generada por el modelo.Cada chat en Cursor mantiene su propia ventana de contexto. Cuantos más prompts, archivos adjuntos y respuestas se incluyan en una sesión, más grande se vuelve la ventana de contexto.Aprende más sobre trabajar con contexto en Cursor.
Normalmente, Cursor utiliza una ventana de contexto de 200k tokens (~15,000 líneas de código). El Modo Max extiende la ventana de contexto al máximo disponible para cada modelo. Esto será un poco más lento y más costoso. Es más relevante para Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1, y Grok 4, que tienen ventanas de contexto más grandes que 200k.
Habilitar Auto configura Cursor para seleccionar el modelo premium más adecuado para la tarea inmediata y con la mayor confiabilidad basándose en la demanda actual. Esta función puede detectar un rendimiento de salida degradado y cambiar automáticamente de modelo para resolverlo.
Los modelos se alojan en infraestructura con base en Estados Unidos por el proveedor del modelo, un socio de confianza, o directamente por Cursor.Cuando el Modo de Privacidad está habilitado, ni Cursor ni los proveedores de modelos almacenan tus datos. Todos los datos se eliminan después de cada solicitud. Para más detalles consulta nuestras páginas de Privacidad, Política de Privacidad y Seguridad.