Une fenêtre de contexte est la portée maximale de tokens (texte et code) qu’un LLM peut considérer à la fois, incluant à la fois l’invite d’entrée et la sortie générée par le modèle.Chaque chat dans Cursor maintient sa propre fenêtre de contexte. Plus il y a d’invites, de fichiers attachés et de réponses inclus dans une session, plus la fenêtre de contexte grandit.Apprenez-en plus sur travailler avec le contexte dans Cursor.
Normalement, Cursor utilise une fenêtre de contexte de 200k tokens (~15 000 lignes de code). Le Mode Max étend la fenêtre de contexte au maximum disponible pour chaque modèle. Ce sera un peu plus lent et plus coûteux. Il est particulièrement pertinent pour Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1, et Grok 4, qui ont des fenêtres de contexte supérieures à 200k.
L’activation d’Auto configure Cursor pour sélectionner le modèle premium le mieux adapté à la tâche immédiate et avec la plus haute fiabilité basée sur la demande actuelle. Cette fonctionnalité peut détecter une dégradation des performances de sortie et changer automatiquement de modèle pour la résoudre.
Les modèles sont hébergés sur une infrastructure basée aux États-Unis par le fournisseur du modèle, un partenaire de confiance, ou directement par Cursor.Lorsque le Mode Privé est activé, ni Cursor ni les fournisseurs de modèles ne stockent vos données. Toutes les données sont supprimées après chaque requête. Pour plus de détails, consultez nos pages Confidentialité, Politique de confidentialité et Sécurité.