Cursor es compatible con todos los modelos de última generación para programación de los principales proveedores.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Precios de los modelos

Los planes de Cursor incluyen uso a las tarifas del API de los modelos. Por ejemplo, los $20 de uso incluido en el plan Pro se consumirán según el modelo que elijas y su precio. Los límites de uso se muestran en el editor según tu consumo actual. Para ver todos los precios del API de los modelos, consulta la documentación del proveedor:

Auto

Al activar Auto, Cursor elige el modelo premium que mejor se ajuste a la tarea inmediata y el más fiable según la demanda actual. Esta función puede detectar una degradación en el rendimiento de salida y cambiar de modelo automáticamente para solucionarlo.

Ventanas de contexto

Una ventana de contexto es el intervalo máximo de tokens (texto y código) que un LLM puede considerar a la vez, incluyendo tanto el prompt de entrada como la salida generada por el modelo. Cada chat en Cursor mantiene su propia ventana de contexto. Cuantos más prompts, archivos adjuntos y respuestas se incluyan en una sesión, más grande se vuelve la ventana de contexto. Aprende más sobre cómo trabajar con el contexto en Cursor.

Modo Max

Normalmente, Cursor usa una ventana de contexto de 200k tokens (~15,000 líneas de código). El Modo Max amplía la ventana de contexto hasta el máximo disponible para algunos modelos. Esto será un poco más lento y más costoso. Es especialmente relevante para Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 y Grok 4, que tienen ventanas de contexto mayores a 200k.

Preguntas frecuentes