Use suas próprias chaves de API para enviar mensagens de IA ilimitadas por sua conta. Quando configurado, o Cursor usará suas chaves de API para chamar provedores de LLM diretamente.Para usar sua chave de API, vá em Configurações do Cursor > Modelos e insira suas chaves de API. Clique em Verificar. Uma vez validada, sua chave de API estará habilitada.
Chaves de API personalizadas funcionam apenas com modelos de chat padrão. Recursos que exigem modelos especializados (como Completar Aba) continuarão usando os modelos integrados do Cursor.
OpenAI - Apenas modelos GPT padrão. Modelos de raciocínio (o1, o1-mini, o3-mini) não são suportados.
Anthropic - Todos os modelos Claude disponíveis através da API da Anthropic.
Google - Modelos Gemini disponíveis através da API do Google AI.
Azure OpenAI - Modelos deployados na sua instância do Azure OpenAI Service.
AWS Bedrock - Use chaves de acesso AWS, chaves secretas ou roles IAM. Funciona com modelos disponíveis na sua configuração do Bedrock.
Um ID externo único é gerado após validar sua role IAM do Bedrock, que pode ser adicionado à política de confiança da sua role IAM para segurança adicional.
Minha chave de API será armazenada ou deixará meu dispositivo?
Sua chave de API não será armazenada, mas é enviada para nosso servidor a cada requisição. Todas as requisições são roteadas através do nosso backend para a construção final do prompt.