Use suas próprias chaves de API para enviar mensagens de IA ilimitadas por sua própria conta. Quando configurado, o Cursor usará suas chaves de API para chamar provedores de LLM diretamente.Para usar sua chave de API, vá para Cursor Settings > Models e insira suas chaves de API. Clique em Verify. Uma vez validada, sua chave de API estará habilitada.
Chaves de API personalizadas funcionam apenas com modelos de chat padrão. Recursos que requerem modelos especializados (como Tab Completion) continuarão usando os modelos integrados do Cursor.
OpenAI - Apenas modelos GPT padrão. Modelos de raciocínio (o1, o1-mini, o3-mini) não são suportados.
Anthropic - Todos os modelos Claude disponíveis através da API da Anthropic.
Google - Modelos Gemini disponíveis através da API do Google AI.
Azure OpenAI - Modelos implantados na sua instância do Azure OpenAI Service.
AWS Bedrock - Use chaves de acesso AWS, chaves secretas ou funções IAM. Funciona com modelos disponíveis na sua configuração do Bedrock.
Um ID externo único é gerado após validar sua função IAM do Bedrock, que pode ser adicionado à política de confiança da sua função IAM para segurança adicional.
Minha chave de API será armazenada ou sairá do meu dispositivo?
Sua chave de API não será armazenada, mas é enviada para nosso servidor a cada solicitação. Todas as solicitações são roteadas através do nosso backend para a construção final do prompt.