Cursor поддерживает все передовые модели для программирования от всех основных поставщиков моделей.
OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

Контекстные окна

Контекстное окно — это максимальный объем токенов (текста и кода), который LLM может рассматривать одновременно, включая как входной запрос, так и выходные данные, генерируемые моделью. Каждый чат в Cursor поддерживает свое собственное контекстное окно. Чем больше запросов, прикрепленных файлов и ответов включено в сессию, тем больше становится контекстное окно. Узнайте больше о работе с контекстом в Cursor.

Режим Max

Обычно Cursor использует контекстное окно в 200 тысяч токенов (~15 000 строк кода). Режим Max расширяет контекстное окно до максимально доступного для каждой модели. Это будет немного медленнее и дороже. Наиболее актуально для Gemini 2.5 Flash, Gemini 2.5 Pro, GPT 4.1 и Grok 4, которые имеют контекстные окна больше 200 тысяч токенов.

Auto

Включение Auto настраивает Cursor на выбор премиум-модели, наиболее подходящей для текущей задачи и обладающей наивысшей надежностью на основе текущего спроса. Эта функция может обнаруживать снижение качества вывода и автоматически переключать модели для его устранения.

Часто задаваемые вопросы