Cursor unterstützt alle führenden Coding-Modelle von allen großen Modellanbietern.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Kontextfenster

Ein Kontextfenster ist die maximale Spanne von Tokens (Text und Code), die ein LLM gleichzeitig berücksichtigen kann, einschließlich sowohl der Eingabeaufforderung als auch der vom Modell generierten Ausgabe. Jeder Chat in Cursor behält sein eigenes Kontextfenster bei. Je mehr Eingabeaufforderungen, angehängte Dateien und Antworten in einer Sitzung enthalten sind, desto größer wird das Kontextfenster. Erfahren Sie mehr über die Arbeit mit Kontext in Cursor.

Max Mode

Normalerweise verwendet Cursor ein Kontextfenster von 200k Token (~15.000 Codezeilen). Max Mode erweitert das Kontextfenster auf das für jedes Modell verfügbare Maximum. Dies wird etwas langsamer und teurer sein. Es ist am relevantesten für Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 und Grok 4, die Kontextfenster größer als 200k haben.

Auto

Die Aktivierung von Auto konfiguriert Cursor so, dass das Premium-Modell ausgewählt wird, das am besten für die unmittelbare Aufgabe geeignet ist und die höchste Zuverlässigkeit basierend auf der aktuellen Nachfrage bietet. Diese Funktion kann eine verschlechterte Ausgabeleistung erkennen und automatisch zwischen Modellen wechseln, um das Problem zu beheben.

FAQ