Preise

Jede Lizenz enthält ein monatliches Kontingent an Requests. Sobald du dein monatliches Limit erreicht hast, kannst du Cursors automatische Modellauswahl weiter nutzen, ohne zusätzliche nutzungsbasierte Gebühren. Wenn du dein monatliches Limit erreicht hast und gezielt mit einem Modell deiner Wahl arbeiten willst, kannst du das über nutzungsbasische Abrechnung tun.

Normal

Requests pro Modell/NachrichtIdeal für alltägliche Coding-Aufgaben, empfohlen für die meisten Nutzer.

Max

Requests pro 1M Tokens (MTok)Am besten für komplexes Reasoning, schwierige Bugs und agentische Aufgaben.

Request

Ein Request entspricht einer einzelnen Nachricht an die meisten Modelle. Er umfasst deine Nachricht, relevanten Kontext aus deinem Codebase und die Antwort des Modells. Thinking-Modelle zählen als zwei Requests. Kosten im MAX Mode werden anhand von Tokens berechnet, weiter unten erklärt.

Normaler Modus

Im normalen Modus kostet jede Nachricht eine feste Anzahl von Requests, die ausschließlich vom verwendeten Modell abhängt, unabhängig vom Kontext. Wir optimieren das Kontext-Management, ohne dass sich das auf deine Request-Anzahl auswirkt. Zum Beispiel eine Unterhaltung mit Claude Sonnet 4:
RolleNachrichtKosten pro Nachricht
UserCreate a plan for this change (using a more expensive model)0
CursorI’ll analyze the requirements and create a detailed implementation plan…1
UserImplement the changes with TypeScript and add error handling0
Cursor (Thinking)Here’s the implementation with type safety and error handling…2
Summe3 Requests

Auto-Requests

Sobald du dein monatliches Request-Limit erreicht hast, kannst du Cursor weiterhin nutzen, indem du Auto aktivierst, ohne zusätzliche Kosten. Auto konfiguriert Cursor so, dass es Top-Modelle basierend auf freier Kapazität auswählt. MAX Mode kann für Auto-Requests nicht aktiviert werden.

Nutzungsbasische Abrechnung

Sobald du dein monatliches Request-Limit erreicht hast, kannst du in deinen Dashboard-Einstellungen nutzungsbasische Abrechnung aktivieren. Jede zusätzliche Nutzung (normal oder MAX Mode) wird zu API-Preisen plus 20 % abgerechnet.

API-Preisreferenzen

Zur Referenz findest du hier die offiziellen API-Preisseiten der jeweiligen Modellanbieter:

Max Mode

Im MAX Mode werden die Preise auf Basis von Tokens berechnet, mit einem Aufschlag von 20 % auf den API-Preis des Modellanbieters. Das umfasst alle Tokens aus deinen Nachrichten, Code-Dateien, Ordnern, Toolaufrufen und jeglichem weiteren Kontext, der dem Modell bereitgestellt wird. Wir verwenden dieselben Tokenizer wie die Modellanbieter (z. B. OpenAIs Tokenizer für GPT-Modelle, Anthropics für Claude-Modelle), um eine genaue Token-Zählung sicherzustellen. Ein Beispiel findest du in OpenAIs Tokenizer-Demo. So funktioniert die Preisberechnung im MAX Mode:
RolleNachrichtTokensKosten pro Nachricht
UserCreate a plan for this change (using a more expensive model)193k2,7 Requests
CursorI’ll analyze the requirements and create a detailed implementation plan…62k1,23 Requests
UserImplement the changes with TypeScript and add error handling193k2,7 Requests
CursorHere’s the implementation with type safety and error handling…62k1,23 Requests
Summe434k7,86 Requests

Modelle

Schau dir alle Modellattribute auf der Seite Models an.