Verwenden Sie Ihre eigenen API-Schlüssel, um unbegrenzt KI-Nachrichten auf eigene Kosten zu senden. Wenn konfiguriert, verwendet Cursor Ihre API-Schlüssel, um LLM-Anbieter direkt aufzurufen.Um Ihren API-Schlüssel zu verwenden, gehen Sie zu Cursor Settings > Models und geben Sie Ihre API-Schlüssel ein. Klicken Sie auf Verify. Sobald validiert, ist Ihr API-Schlüssel aktiviert.
Benutzerdefinierte API-Schlüssel funktionieren nur mit Standard-Chat-Modellen. Funktionen, die spezialisierte Modelle erfordern (wie Tab Completion), verwenden weiterhin Cursors integrierte Modelle.
OpenAI - Nur Standard-GPT-Modelle. Reasoning-Modelle (o1, o1-mini, o3-mini) werden nicht unterstützt.
Anthropic - Alle Claude-Modelle, die über die Anthropic API verfügbar sind.
Google - Gemini-Modelle, die über die Google AI API verfügbar sind.
Azure OpenAI - Modelle, die in Ihrer Azure OpenAI Service-Instanz bereitgestellt sind.
AWS Bedrock - Verwenden Sie AWS-Zugriffsschlüssel, geheime Schlüssel oder IAM-Rollen. Funktioniert mit Modellen, die in Ihrer Bedrock-Konfiguration verfügbar sind.
Eine eindeutige externe ID wird nach der Validierung Ihrer Bedrock IAM-Rolle generiert, die zu Ihrer IAM-Rollen-Vertrauensrichtlinie für zusätzliche Sicherheit hinzugefügt werden kann.
Wird mein API-Schlüssel gespeichert oder verlässt er mein Gerät?
Ihr API-Schlüssel wird nicht gespeichert, aber mit jeder Anfrage an unseren Server gesendet. Alle Anfragen werden über unser Backend für die finale Prompt-Erstellung geleitet.