Usa tus propias claves API para enviar mensajes de IA ilimitados a tu propio costo. Cuando esté configurado, Cursor usará tus claves API para llamar a los proveedores de LLM directamente.Para usar tu clave API, ve a Cursor Settings > Models e ingresa tus claves API. Haz clic en Verify. Una vez validada, tu clave API estará habilitada.
Las claves API personalizadas solo funcionan con modelos de chat estándar. Las funciones que requieren modelos especializados (como Tab Completion) continuarán usando los modelos integrados de Cursor.
OpenAI - Solo modelos GPT estándar. Los modelos de razonamiento (o1, o1-mini, o3-mini) no son compatibles.
Anthropic - Todos los modelos Claude disponibles a través de la API de Anthropic.
Google - Modelos Gemini disponibles a través de la API de Google AI.
Azure OpenAI - Modelos desplegados en tu instancia de Azure OpenAI Service.
AWS Bedrock - Utiliza claves de acceso de AWS, claves secretas o roles IAM. Funciona con modelos disponibles en tu configuración de Bedrock.
Se genera un ID externo único después de validar tu rol IAM de Bedrock, que puede agregarse a la política de confianza de tu rol IAM para mayor seguridad.
¿Se almacenará mi clave API o saldrá de mi dispositivo?
Tu clave API no se almacenará, pero se envía a nuestro servidor con cada solicitud. Todas las solicitudes se enrutan a través de nuestro backend para la construcción final del prompt.