Cursor prend en charge tous les modèles de codage de pointe de tous les principaux fournisseurs de modèles.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Fenêtres de contexte

Une fenêtre de contexte est la portée maximale de tokens (texte et code) qu’un LLM peut considérer à la fois, incluant à la fois l’invite d’entrée et la sortie générée par le modèle. Chaque chat dans Cursor maintient sa propre fenêtre de contexte. Plus il y a d’invites, de fichiers attachés et de réponses inclus dans une session, plus la fenêtre de contexte grandit. Apprenez-en plus sur travailler avec le contexte dans Cursor.

Mode Max

Normalement, Cursor utilise une fenêtre de contexte de 200k tokens (~15 000 lignes de code). Le Mode Max étend la fenêtre de contexte au maximum disponible pour chaque modèle. Ce sera un peu plus lent et plus coûteux. Il est particulièrement pertinent pour Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1, et Grok 4, qui ont des fenêtres de contexte supérieures à 200k.

Auto

L’activation d’Auto configure Cursor pour sélectionner le modèle premium le mieux adapté à la tâche immédiate et avec la plus haute fiabilité basée sur la demande actuelle. Cette fonctionnalité peut détecter une dégradation des performances de sortie et changer automatiquement de modèle pour la résoudre.

FAQ