Los planes de Cursor incluyen uso a las tarifas del API de los modelos. Por ejemplo, los $20 de uso incluido en el plan Pro se consumirán según el modelo que elijas y su precio.Los límites de uso se muestran en el editor según tu consumo actual. Para ver todos los precios del API de los modelos, consulta la documentación del proveedor:
Al activar Auto, Cursor elige el modelo premium que mejor se ajuste a la tarea inmediata y el más fiable según la demanda actual. Esta función puede detectar una degradación en el rendimiento de salida y cambiar de modelo automáticamente para solucionarlo.
Una ventana de contexto es el intervalo máximo de tokens (texto y código) que un LLM puede considerar a la vez, incluyendo tanto el prompt de entrada como la salida generada por el modelo.Cada chat en Cursor mantiene su propia ventana de contexto. Cuantos más prompts, archivos adjuntos y respuestas se incluyan en una sesión, más grande se vuelve la ventana de contexto.Aprende más sobre cómo trabajar con el contexto en Cursor.
Normalmente, Cursor usa una ventana de contexto de 200k tokens (~15,000 líneas de código). El Modo Max amplía la ventana de contexto hasta el máximo disponible para algunos modelos. Esto será un poco más lento y más costoso. Es especialmente relevante para Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 y Grok 4, que tienen ventanas de contexto mayores a 200k.
Los modelos se alojan en infraestructura ubicada en EE. UU. por el proveedor del modelo, un socio de confianza o directamente por Cursor.Cuando el Modo de privacidad está activado, ni Cursor ni los proveedores de modelos almacenan tus datos. Todos los datos se eliminan después de cada solicitud. Para más detalles, consulta nuestras páginas de Privacidad, Política de privacidad y Seguridad.