Ein Kontextfenster ist die maximale Spanne von Tokens (Text und Code), die ein LLM gleichzeitig berücksichtigen kann, einschließlich sowohl der Eingabeaufforderung als auch der vom Modell generierten Ausgabe.Jeder Chat in Cursor behält sein eigenes Kontextfenster bei. Je mehr Eingabeaufforderungen, angehängte Dateien und Antworten in einer Sitzung enthalten sind, desto größer wird das Kontextfenster.Erfahren Sie mehr über die Arbeit mit Kontext in Cursor.
Normalerweise verwendet Cursor ein Kontextfenster von 200k Token (~15.000 Codezeilen). Max Mode erweitert das Kontextfenster auf das für jedes Modell verfügbare Maximum. Dies wird etwas langsamer und teurer sein. Es ist am relevantesten für Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 und Grok 4, die Kontextfenster größer als 200k haben.
Die Aktivierung von Auto konfiguriert Cursor so, dass das Premium-Modell ausgewählt wird, das am besten für die unmittelbare Aufgabe geeignet ist und die höchste Zuverlässigkeit basierend auf der aktuellen Nachfrage bietet. Diese Funktion kann eine verschlechterte Ausgabeleistung erkennen und automatisch zwischen Modellen wechseln, um das Problem zu beheben.
Modelle werden auf US-amerikanischer Infrastruktur vom Anbieter des Modells, einem vertrauenswürdigen Partner oder direkt von Cursor gehostet.Wenn der Datenschutzmodus aktiviert ist, speichern weder Cursor noch die Modellanbieter Ihre Daten. Alle Daten werden nach jeder Anfrage gelöscht. Weitere Details finden Sie auf unseren Seiten zu Datenschutz, Datenschutzrichtlinie und Sicherheit.