Die Cursor-Tarife beinhalten Nutzung zu den API-Preisen der jeweiligen Modelle. Zum Beispiel werden die 20 $ an inkludierter Nutzung im Pro-Tarif je nach deiner Modellauswahl und dem jeweiligen Preis verbraucht.Nutzungslimits werden im Editor basierend auf deinem aktuellen Verbrauch angezeigt. Um alle Modell-API-Preise zu sehen, schau in die Anbieter-Dokumentation:
Wenn du Auto aktivierst, kann Cursor basierend auf der aktuellen Auslastung das Premium‑Modell auswählen, das am besten zur jeweiligen Aufgabe passt und die höchste Zuverlässigkeit bietet. Dieses Feature kann eine nachlassende Ausgabequalität erkennen und automatisch das Modell wechseln, um das Problem zu beheben.
Ein Kontextfenster ist die maximale Anzahl von Tokens (Text und Code), die ein LLM auf einmal berücksichtigen kann – einschließlich sowohl des Eingabe‑Prompts als auch der vom Modell generierten Ausgabe.Jeder Chat in Cursor hat sein eigenes Kontextfenster. Je mehr Prompts, angehängte Dateien und Antworten in einer Session enthalten sind, desto größer wird das Kontextfenster.Erfahre mehr über das Arbeiten mit Kontext in Cursor.
Normalerweise nutzt Cursor ein Kontextfenster von 200k Tokens (~15.000 Codezeilen). Der Max-Modus erweitert das Kontextfenster bei einigen wenigen Modellen auf das maximal Verfügbare. Das ist etwas langsamer und teurer. Am relevantesten ist das für Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 und Grok 4, die Kontextfenster größer als 200k haben.
Die Modelle werden auf US‑basierter Infrastruktur gehostet – entweder vom jeweiligen Anbieter, einem vertrauenswürdigen Partner oder direkt von Cursor.Wenn der Privacy Mode aktiviert ist, speichern weder Cursor noch die Modellanbieter deine Daten. Alle Daten werden nach jeder Anfrage gelöscht. Details findest du auf unseren Seiten zu Privacy, Privacy Policy und Security.