Les offres de Cursor incluent une utilisation facturée aux tarifs des API de modèles. Par exemple, les 20 $ d’utilisation inclus dans l’offre Pro seront consommés en fonction du modèle que tu sélectionnes et de son prix.Les limites d’utilisation s’affichent dans l’éditeur en fonction de ta consommation actuelle. Pour voir l’ensemble des tarifs des API de modèles, consulte la documentation des fournisseurs :
Activer Auto permet à Cursor de choisir le modèle premium le mieux adapté à la tâche du moment, avec la meilleure fiabilité selon la demande actuelle. Cette fonctionnalité peut détecter une dégradation des performances et changer automatiquement de modèle pour y remédier.
Une fenêtre de contexte est la plage maximale de jetons (texte et code) qu’un LLM peut prendre en compte à la fois, incluant à la fois le prompt d’entrée et la sortie générée par le modèle.Chaque chat dans Cursor possède sa propre fenêtre de contexte. Plus tu ajoutes de prompts, de fichiers joints et de réponses dans une session, plus la fenêtre de contexte s’agrandit.Découvre-en plus sur l’utilisation du contexte dans Cursor.
Normalement, Cursor utilise une fenêtre de contexte de 200 k tokens (~15 000 lignes de code). Le Mode Max étend la fenêtre de contexte au maximum disponible pour quelques modèles. Ce sera un peu plus lent et plus coûteux. C’est surtout pertinent pour Gemini 2.5 Flash, Gemini 2.5 Pro, GPT‑4.1 et Grok 4, qui ont des fenêtres de contexte supérieures à 200 k.
Les modèles sont hébergés sur une infrastructure située aux États-Unis par le fournisseur du modèle, un partenaire de confiance, ou directement par Cursor.Quand le mode Confidentialité est activé, ni Cursor ni les fournisseurs de modèles ne conservent tes données. Toutes les données sont supprimées après chaque requête. Pour plus de détails, consulte nos pages Confidentialité, Politique de confidentialité et Sécurité.