Cursor es compatible con todos los modelos de vanguardia para programación de todos los principales proveedores.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Precios de modelos

Los planes de Cursor incluyen uso a las tarifas del API de modelos. Por ejemplo, los $20 de uso incluido en el plan Pro se consumirán según el modelo que elijas y su precio. En el editor se muestran los límites de uso según tu consumo actual. Para ver todas las tarifas del API de modelos, consulta la documentación del proveedor:

Auto

Al activar Auto, Cursor elige el modelo premium más adecuado para la tarea en curso y con la mayor confiabilidad según la demanda actual. Esta función puede detectar una caída en el rendimiento de salida y cambiar de modelo automáticamente para solucionarlo.

Ventanas de contexto

Una ventana de contexto es el máximo rango de tokens (texto y código) que un LLM puede considerar a la vez, incluyendo tanto el prompt de entrada como la salida generada por el modelo. Cada chat en Cursor mantiene su propia ventana de contexto. Cuantos más prompts, archivos adjuntos y respuestas se incluyan en una sesión, más grande se vuelve la ventana de contexto. Aprende más sobre cómo trabajar con el contexto en Cursor.

Max Mode

Normalmente, Cursor usa una ventana de contexto de 200k tokens (~15.000 líneas de código). Max Mode amplía la ventana de contexto al máximo disponible para unos cuantos modelos. Esto será un poco más lento y más costoso. Es especialmente relevante para Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 y Grok 4, que tienen ventanas de contexto superiores a 200k.

Preguntas frecuentes

Los modelos se alojan en infraestructura ubicada en EE. UU. por el proveedor del modelo, un socio de confianza o directamente por Cursor.Cuando el Modo de privacidad está activado, ni Cursor ni los proveedores de modelos almacenan tus datos. Todos los datos se eliminan después de cada solicitud. Para más detalles, consulta nuestras páginas de Privacidad, Política de privacidad y Seguridad.