Cursor prend en charge tous les modèles de code de pointe proposés par les principaux fournisseurs.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Tarification des modèles

Les offres de Cursor incluent une utilisation facturée aux tarifs des API de modèles. Par exemple, les 20 $ d’utilisation inclus dans l’offre Pro seront consommés en fonction du modèle que tu sélectionnes et de son prix. Les limites d’utilisation s’affichent dans l’éditeur en fonction de ta consommation actuelle. Pour voir l’ensemble des tarifs des API de modèles, consulte la documentation des fournisseurs :

Auto

Activer Auto permet à Cursor de choisir le modèle premium le mieux adapté à la tâche du moment, avec la meilleure fiabilité selon la demande actuelle. Cette fonctionnalité peut détecter une dégradation des performances et changer automatiquement de modèle pour y remédier.

Fenêtres de contexte

Une fenêtre de contexte est la plage maximale de jetons (texte et code) qu’un LLM peut prendre en compte à la fois, incluant à la fois le prompt d’entrée et la sortie générée par le modèle. Chaque chat dans Cursor possède sa propre fenêtre de contexte. Plus tu ajoutes de prompts, de fichiers joints et de réponses dans une session, plus la fenêtre de contexte s’agrandit. Découvre-en plus sur l’utilisation du contexte dans Cursor.

Mode Max

Normalement, Cursor utilise une fenêtre de contexte de 200 k tokens (~15 000 lignes de code). Le Mode Max étend la fenêtre de contexte au maximum disponible pour quelques modèles. Ce sera un peu plus lent et plus coûteux. C’est surtout pertinent pour Gemini 2.5 Flash, Gemini 2.5 Pro, GPT‑4.1 et Grok 4, qui ont des fenêtres de contexte supérieures à 200 k.

FAQ