Cada licencia incluye una cuota mensual de solicitudes. Una vez que alcances tu límite mensual, puedes seguir usando la selección automática de modelos de Cursor sin costos adicionales por uso. Si ya alcanzaste tu límite mensual y quieres trabajar específicamente con un modelo de tu elección, puedes hacerlo mediante precios por uso.
Normal
Solicitudes por modelo/mensajeIdeal para tareas de programación diarias, recomendado para la mayoría de usuarios.
Una solicitud representa un mensaje individual enviado a la mayoría de modelos, que incluye tu mensaje, cualquier contexto relevante de tu código base y la respuesta del modelo. Los modelos de razonamiento representan dos solicitudes. Los costos del modo MAX se calculan en base a tokens, como se explica más adelante.
En modo normal, cada mensaje tiene un costo fijo de solicitudes basado únicamente en el modelo que uses, sin importar el contexto. Optimizamos la gestión de contexto sin que afecte tu conteo de solicitudes.Por ejemplo, veamos una conversación usando Claude Sonnet 4:
| Rol | Mensaje | Costo por mensaje | |:--------|:--------|:---------| | Usuario
| Crea un plan para este cambio (usando un modelo más caro) | 0 | | Cursor
| Analizaré los requisitos y crearé un plan de implementación detallado… |
1 | | Usuario | Implementa los cambios con TypeScript y añade manejo de errores | 0
| | Cursor (Pensando) | Aquí tienes la implementación con seguridad de tipos y manejo de
errores… | 2 | | Total | | 3 solicitudes |
Una vez que alcances tu límite mensual de solicitudes, puedes seguir usando Cursor habilitando Auto sin costo adicional. Auto configura Cursor para seleccionar modelos premium según la capacidad disponible.El modo MAX no está disponible para solicitudes Auto.
Una vez que alcances tu límite mensual de solicitudes, puedes habilitar precios por uso en la configuración de tu panel. Cualquier uso adicional (modo normal o MAX) está disponible a tarifas de API más 20%.
En modo MAX, los precios se calculan en base a tokens, con un margen del 20% sobre el precio de API del proveedor del modelo. Esto incluye todos los tokens de tus mensajes, archivos de código, carpetas, llamadas de herramientas y cualquier otro contexto proporcionado al modelo.Usamos los mismos tokenizadores que los proveedores de modelos (ej. el tokenizador de OpenAI para modelos GPT, el de Anthropic para modelos Claude) para garantizar un conteo preciso de tokens. Puedes ver un ejemplo usando la demo del tokenizador de OpenAI.Aquí tienes un ejemplo de cómo funcionan los precios en modo MAX:
| Rol | Mensaje | Tokens | Costo por mensaje |
|:--------|:--------|:--------|:---------| | Usuario | Crea un plan para este
cambio (usando un modelo más caro) | 193k | 2.7 solicitudes | | Cursor | Analizaré
los requisitos y crearé un plan de implementación detallado… | 62k |
1.23 solicitudes | | Usuario | Implementa los cambios con TypeScript y añade manejo de
errores | 193k | 2.7 solicitudes | | Cursor | Aquí tienes la implementación con
seguridad de tipos y manejo de errores… | 62k | 1.23 solicitudes | | Total | |
434k | 7.86 solicitudes |