Что такое g sync


Что такое G-Sync как включить и правильно ее настроить

У вас есть монитор с поддержкой G-SYNC и видеокарта NVIDIA? Рассмотрим, что такое G-SYNC как ее включить и правильно настроить, чтобы в полной мере использовать потенциал и возможности этой технологии. Имейте в виду, что само ее включение это еще не все.

Технологии синхронизации

Каждому геймеру известно, что такое вертикальная синхронизация (V-Sync). Эта функция синхронизирует кадры изображения таким образом, чтобы исключить эффект разрыва экрана. Если отключить вертикальную синхронизацию на обычном мониторе, то уменьшиться input lag (задержка) при этом заметите, что игра станет лучше реагировать на ваши команды, но тем самым кадры не будут соответствующим образом синхронизированы и дойдет до разрыва экрана (англ. screen tearing).

V-Sync устраняет разрывы экрана, но вызывает одновременно увеличение задержки вывода картинки относительно управления, так что играть становиться менее комфортно. Каждый раз, когда перемещаете мышь появляется впечатление, что эффект движения происходит с небольшой задержкой. И здесь в помощь приходит функция G-SYNC, которая позволяет устранить эти оба недостатка.

Что собой представляет G-SYNC?

Довольно дорогим, но эффективным решением для видеокарт NVIDIA GeForce является использование технологии G-SYNC, которая устраняет разрывы экрана без использования дополнительной задержки (input lag). Но для ее реализации нужен монитор, который включает модуль G-SYNC. Модуль подстраивает частоту обновления экрана к количеству кадров в секунду, благодаря чему не возникает дополнительная задержка и исключается эффект разрыва экрана.

Многие пользователи после покупки такого монитора только включают поддержку NVIDIA G-SYNC в настройках панели управления NVIDIA с убеждением, что это все, что должны сделать. Теоретически да, потому что G-SYNC будет работать, но если хотите полностью максимизировать использование этой технологии, то нужно задействовать ряд дополнительных функций, связанных с соответствующей настройкой классической вертикальной синхронизации и ограничением FPS в играх до числа меньшего на несколько кадров, чем максимальная частота обновления монитора. Почему? Все это узнаете из следующих рекомендаций.

Включение G-SYNC на панели управления NVIDIA

Начнем с простейшего базового решения, то есть с момента включения модуля G-SYNC. Это можно сделать с помощью панели управления NVIDIA. Кликните правой кнопкой мыши на рабочем столе и выберите NVIDIA Control Panel (Панель управления NVIDIA).

Затем перейдите на вкладку Дисплей – Настройка G-SYNC. Здесь сможете включить технологию с помощью поля «Enable G-SYNC». Отметьте его.

Затем сможете указать, будет ли работать только в полноэкранном режиме, или может также активировать в играх, запущенных в оконном режиме или полноэкранного окна (без границ).

Если выберите опцию «Enable G-SYNC for full screen mode», то функция будет работать только в играх, которые имеют установленный режим на весь экран (эту опцию можно изменить в настройках конкретных игр). Игры в оконном режиме или полноэкранного окна не будут использовать эту технологию.

Если хотите, чтобы «оконные» игры также использовали технологию G-SYNC, то включите опцию «Enable G-SYNC for windowed and full screen mode». Когда выбран этот параметр, функция перехватывает текущее активное окно и накладывает на него свое действие, активируя в нем поддержку измененного обновления экрана. Для активации этой опции возможно потребуется перезагрузка компьютера.

Как проверить, что эта технология включена. Для этого откройте меню Display в верхней части окна и отметьте в нем поле «G-SYNC Indicator». Благодаря этому вы будете проинформированы о том, что G-SYNC включен при запуске игры.

Затем перейдите на вкладку «Manage 3D Settings» (Управление параметрами 3D) в боковом меню. В разделе «Global settings» (Общие настройки) найдите поле «Preferred refresh rate» (Предпочтительная частота обновления экрана).

Установите здесь значение «Highest available» (Максимальное возможное). Некоторые игры могут навязывать себе свою частоту обновления, это может привести к тому, что G-SYNC не будет полностью задействован. Благодаря этому параметру все настройки игры будут проигнорированы и всегда будет включена возможность использования максимальной частоты обновления монитора, которая в устройствах с G-SYNC чаще всего составляет 144Гц.

В общем, это базовая настройка, которую нужно выполнить, чтобы включить G-SYNC. Но, если вы хотите в полной мере использовать потенциал своего оборудования, то следует ознакомиться с дальнейшими инструкциями.

Что делать с V-SYNC, если у меня G-SYNC? Оставить включенным или отключить его?

Это самая распространенная дилемма владельцев мониторов с G-SYNC. Принято думать, что эта технология полностью заменяет классическую V-SYNC, которую можно полностью отключить в панели управления NVIDIA или просто проигнорировать.

Сначала нужно понять разницу между ними. Задача обеих функций теоретически та же – преодоление эффекта разрыва экрана. Но способ действия существенно отличается.

V-SYNC синхронизирует кадры, подстраивая их к постоянной частоте обновления монитора. Следовательно, функция действует в качестве посредника, захватывая картинку и, соответственно, отображение кадра, так чтобы адаптировать их к постоянной частоте кадров, тем самым предотвратить разрывы изображения. В итоге это может привести к возникновению input lag (задержки), потому что V-SYNC сначала должен «захватить и упорядочить» изображение, а только потом его вывести на экран.

G-SYNC работает в точности наоборот. Подстраивает не изображение, а частоту обновления монитора к количеству кадров, отображаемых на экране. Все делается аппаратно с помощью модуля G-SYNC, встроенного в монитор, поэтому не возникает дополнительная задержка отображения картинки, как это имеет место в случае с вертикальной синхронизацией. В этом ее основное преимущество.

Вся проблема заключается в том, что работает G-SYNC хорошо только в случае, когда FPS находится в поддерживаемом диапазоне частот обновления. Этот диапазон захватывает частоты от 30 Гц до того значения, сколько максимально поддерживает монитор (60Гц или 144Гц). То есть эта технология работает в полную меру, когда FPS не падает ниже 30 и не превышает 60 или 144 кадров в секунду в зависимости от максимально поддерживаемой частоты обновления. Выглядит очень хорошо, приведенная ниже инфографика, созданная сервисом BlurBusters.

Что произойдет, если частота кадров в секунду выйдет за пределы этого диапазона? G-SYNC не сможет настроить обновление экрана, поэтому что за пределами диапазона не работает. Вы обнаружите точно такие же проблемы как на обычном мониторе без G-SYNC и работать будет классическая вертикальная синхронизация. Если она будет выключена, то возникнуть разрывы экрана. Если будет включена, то эффекта разрыва не увидите, но появится iput lag (задержка).

Поэтому в ваших интересах оставаться в диапазоне обновления G-SYNC, который составляет минимум 30 Гц и максимум от того, сколько максимально поддерживает монитор (чаще всего 144 Гц, но и есть дисплеи 60 Гц). Как это сделать? С помощью соответствующих параметров вертикальной синхронизации, а также через ограничение максимального количества FPS.

Какой, следовательно, из этого вывод? В ситуации, когда количество кадров в секунду падает ниже 30 FPS нужно оставить по-прежнему включенную вертикальную синхронизацию. Это редкие случаи, но если до них дойдет, то V-SYNC гарантирует, что не возникнет эффект разрыва картинки. Если превышен верхний предел, то здесь все просто – нужно ограничить максимальное количество кадров в секунду, чтобы не приближаться к верхней границе, при пересечении которой включается V-SYNC, тем самым обеспечивая непрерывную работу G-SYNC.

Следовательно, если у вас монитор 144 Гц нужно включить ограничение FPS на уровне 142, чтобы не приближаться к верхнему пределу. Если монитор 60 Гц – установите предел 58. Если даже компьютер находится в состоянии сделать больше FPS, то он этого не сделает. Тогда не включится V-SYNC и будет активен только G-SYNC.

Включение вертикальной синхронизации в настройках NVIDIA

Откройте панель управления NVIDIA и перейдите на вкладку «Manage 3D Settings» ” (Управление параметрами 3D). В разделе Global Setting найдите опцию Vertical Sync (Вертикальная синхронизация) и установите опцию «On» (Включено).

Благодаря этому, вертикальная синхронизация будет всегда готова включится, если FPS упадет ниже 30 FPS, и монитор с технологией G-SYNC с этим бы не справился.

Ограничение FPS до меньшего значения, чем максимальная частота обновления экрана

Лучшим способом ограничения кадров в секунду является использование программы RTSS (RivaTuner Statistics Server). Безусловно, лучшим решением является использование ограничителя, встроенного в игру, но не у всех он имеется.

Скачайте и запустите программу, затем в списке игр по левой стороне отметьте поле Global. Здесь можно установить общий ограничитель для всех приложений. С правой стороны найдите поле «Framerate limit». Установите здесь лимит для мониторов 144Гц – 142 FPS, соответственно, для устройств 60Гц -58 FPS.

Когда установлен лимит, то не будет возникать задержка с активацией классической вертикальной синхронизацией и играть станет намного более комфортно.

instcomputer.ru

Обзор технологии NVIDIA G-Sync и монитора ASUS ROG SWIFT PG278Q / Мониторы и проекторы

Герой нашего обзора, ASUS ROG SWIFT PG278Q, — один из первых мониторов, в которых реализована новая технология G-Sync, созданная компанией NVIDIA. Кроме того, это первый и пока единственный монитор c разрешением WQHD (2560х1440), поддерживающий частоту обновления 144 Гц, а следовательно, способный выводить стереоскопическое изображение при помощи затворных очков.

⇡#G-Sync: зачем это нужно

Главное, что нас интересует в ASUS PG278Q, — это, конечно же, G-Sync. Но перед тем как приступить к ее описанию, вспомним, какие именно задачи данная технология должна решать и какие средства для этого уже появились ранее.

Если вкратце, то у мониторов есть две проблемы, которые каждый легко может заметить в 3D-играх. Во-первых, это разрывы кадра, выглядящие как сдвиг части изображения по горизонтали. Во-вторых, «фризы» — кратковременные провалы частоты смены кадров, которые практически неизбежно возникают при включении вертикальной синхронизации — технологии, устраняющей разрывы. Таким образом, в зависимости от того, готовы ли мы пользоваться V-Sync, мы сталкиваемся либо с одной, либо с другой проблемой, но, чтобы устранить их одновременно, нужно совершенно новое решение. Это и есть G-Sync.

Читателям, которые не удовлетворились столь поверхностным описанием, предлагаем разобраться в вопросе более подробно. Благо здесь все довольно просто. Начнем с пресловутых разрывов. Несмотря на то, сколь четко выглядит разрыв, существует он только на экране монитора — в памяти видеокарты кадры целые. Дело в том, что графические адаптеры с довольно давних времен используют два кадровых буфера — адресных пространства, в которых формируется изображение. В то время как монитор получает содержимое одного буфера (называемого front buffer), видеоадаптер создает следующий кадр во втором буфере (back buffer). Когда кадр готов, буферы меняются местами таким образом, что бывший back buffer становится front buffer — и наоборот.

Без вертикальной синхронизации буферы меняются местами сразу после того, как финализируется новый кадр, а это может занять совершенно различное время в зависимости от того, насколько сложна вычислительная задача. В то же время монитор обновляет изображение с регулярным периодом (типичное значение для ЖК-панелей — 50/60 Гц), да вдобавок обновление происходит не мгновенно, потому что содержимое нового кадра выводится на экран строка за строкой — сверху вниз. Поскольку без V-Sync частота смены кадров в графическом адаптере не привязана к циклу обновления монитора, буферы могут поменяться местами в процессе очередного обновления, и, если содержимое кадров, которые в них находятся, различается, возникает видимый невооруженным глазом разрыв. Или даже множественные разрывы — если производительность настолько велика, что буферы успели поменяться несколько раз в течение одного цикла обновления.

Вертикальная синхронизация, как следует из названия, синхронизирует смену кадровых буферов с циклом обновления экрана. Видеоадаптер по-прежнему занимается подготовкой очередного кадра в back buffer в то время, когда монитор считывает и выводит на экран содержимое предыдущего кадра из front buffer, но перемена произойдет только перед началом следующего цикла обновления — получается, что видеокарта ждет, пока монитор будет готов. Таким образом V-Sync полностью устраняет одну проблему — разрывы, но вызывает новую — «фризы». Пока система обладает достаточной производительностью, чтобы время подготовки кадра в back buffer не превышало период обновления экрана, у нас все хорошо. Но если следующий кадр задерживается к моменту нового цикла обновления, смены буферов не происходит — и на экран повторно выводится старый кадр. В динамике это воспринимается как кратковременное застревание картинки — «фриз». И хотя средняя частота смены кадров может быть очень высокой, для появления «фриза» достаточно, чтобы отдельно взятый кадр хоть немного запоздал — время его подготовки к выводу на экран удвоится.

Частота обновления 120 Гц и более компенсирует эту проблему (равно как и разрывы в некоторой степени). Кадры, запаздывающие к циклу обновления при частоте 60 Гц, получают 17 мс задержки, а при частоте 120 или 144 Гц минимальный штраф снижается до 8 и 7 мс соответственно.

Другой негативный аспект V-Sync — увеличение времени реакции. Пока монитор считывает изображение из front buffer, видеоадаптер может создать только один новый кадр в back buffer. Без V-Sync — если производительность позволяет — буферы могут поменяться несколько раз в течение одного цикла обновления. В результате следующий цикл начнется с вывода наиболее современной информации. С V-Sync время реакции не может быть меньше периода обновления экрана (который при частоте 60 Гц составляет около 17 мс).

В принципе, последняя проблема также решается повышением частоты обновления до 120 или 144 Гц. Другой вариант — так называемая тройная буферизация (Triple Buffering). В отличие от стандартной логики с двумя буферами — front buffer и back buffer, при тройной буферизации с V-Sync видеоадаптер может создавать сколько угодно кадров в двух чередующихся back buffers, пока монитор обновляет кадр из зафиксированного front buffer. А когда наступает очередной цикл обновления, на экран попадает информация из того back buffer, который содержит наиболее свежий полностью сформированный кадр. Впрочем, по неким причинам это не очень популярная технология. Соответствующая опция есть далеко не во всех играх, и драйверы GPU позволяют ее форсировать только для OpenGL-, но не DirectX-игр. Разве что есть утилита D3DOverrider для NVIDIA, которая может это сделать. Корректной работы никто не гарантирует, но мы, по крайней мере, советуем испытать ее на собственном опыте.

Приступая к G-Sync, напомним, что для NVIDIA это не первая подобная инициатива. Ранее GPU с архитектурами Kepler и Maxwell получили технологию под названием Adaptive V-Sync. Судя по тому поверхностному описанию, которое предоставила NVIDIA, при Adaptive V-Sync вертикальная синхронизация активна, если частота смены кадров превышает 60 FPS, и отключается при падении частоты ниже этой отметки, дабы предотвратить «фризы» (пусть и ценой разрывов). В публичном доступе нет описания работы Adaptive V-Sync на уровне отдельных кадров, но нетрудно предположить, как это может быть сделано. А именно: если в то время, как монитор выводит содержимое кадра из front buffer, в back buffer сформировался новый кадр, смена буферов не происходит вплоть до начала следующего цикла обновления. Но если кадр в back buffer опоздал к этому времени, то смена буферов выполняется в ходе начавшегося нового цикла, вызывая разрыв.

Adaptive V-Sync от NVIDIA

⇡#G-Sync: как это работает

Резюмируем: лучший компромисс между проблемами разрывов и «фризов» дает простое увеличение частоты обновления экрана до 120 или 144 Гц. Для 60-герцевых мониторов требуются более изощренные технологии — тройная буферизация и Adaptive V-Sync, лучше — одновременно (если последняя это допускает). Убрать «фризы» полностью можно только путем вмешательства в аппаратные средства на стороне монитора, которое устранило бы сам источник сложностей — необходимость синхронизировать переменную частоту смены кадров с фиксированной частотой обновления экрана. LCD-мониторы, в отличие от электронно-лучевых трубок, дают такую возможность. Люминофор на CRT-экране угасает настолько быстро, что в отдельный момент времени светится только участок изображения. Как следствие, обновление уже на 60 Гц вызывает заметное невооруженным глазом мерцание, не говоря о меньших частотах. Пиксели LCD-матрицы, напротив, светятся непрерывно. Стало быть, время между циклами обновления можно варьировать, подстраивая его под время смены кадровых буферов. Проще говоря, экран можно обновлять сразу после того, как финализируется очередной кадр. Таким образом, проблемы разрывов, «фризов», а также задержки ввода при активном V-Sync устраняются в корне, как если бы частота обновления экрана была бесконечно высокой. Именно таким образом работает G-Sync.

Протоколы DisplayPort, DVI и HDMI в текущих версиях не допускают манипуляций временем обновления, поэтому G-Sync представляет собой проприетарное решение, которое требует замены контроллера дисплея фирменной платой. Время между циклами обновления варьируется за счет интервала VBLANK, который изначально применялся в ЭЛТ-мониторах для того, чтобы выключить и позиционировать луч в начало изображения после отрисовки кадра. К счастью для нас, хотя VBLANK является рудиментарным для LCD-панелей, он поддерживается микросхемами TCON (Timing Controller) в современных мониторах, что позволяет не трогать этот компонент, адаптируя монитор под G-Sync. В текущей реализации G-Sync допускается увеличение VBLANK вплоть до 33,3 мс (30 Гц). Нижний предел ограничен только минимальным интервалом между обновлениями, который для лучших матриц с частотой обновления 144 Гц составляет около 7 мс.

ASUS SWIFT PG278Q — первый монитор, обладающий модулем G-Sync в штатной поставке. Ранее для того, чтобы приобщиться к этой технологии, требовалось купить модуль отдельно и установить его в единственную совместимую модель — ASUS VG248QE (либо купить монитор у немногих поставщиков, которые делали это сами). Но, по-видимому, в этих моделях используется одна и та же плата G-Sync. Модуль, извлеченный нами из ASUS PG278Q, построен на базе FPGA-чипа Altera Arria V GX, обладающего интегрированным интерфейсом LVDS для сообщения с чипом TCON монитора. Интересно, что NVIDIA использовала здесь FPGA, а не ASIC (то есть выбрала программируемую микросхему вместо чипа, выполняющего специфические функции), но это вполне понятно, если принять во внимание мелкие (по крайней мере пока) масштабы производства. Видимо, из-за этого также пришлось пожертвовать аппаратным масштабированием изображения из «неродных» разрешений. Эта задача, впрочем, без проблем выполняется на стороне GPU. В текущей реализации G-Sync также лишен возможности принимать звук по интерфейсу DisplayPort.

Помимо чипа Altera, на плате обнаруживаются три микросхемы SK hynix H5TC2G63FFR типа DDR3L объемом по 256 Мбайт. Такая конфигурация отчасти продиктована требованиями не к объему, а к совокупной пропускной способности памяти. Поскольку модуль обладает интерфейсом DisplayPort 1.2, поддерживаются разрешения вплоть до UHD (3840x2160) при частоте 60 Гц.

С G-Sync, разумеется, совместимы только видеокарты на GPU NVIDIA. Поддерживаются модели с графическим процессором архитектуры Kepler — не менее мощным, чем GK104 (то есть GeForce GTX 650 Ti BOOST и выше), или Maxwell, среди которых пока представлены только GTX 750 и GTX 750 Ti.

⇡#Adaptive Sync — альтернатива G-Sync

Между тем оказалось, что произвольное время обновления не является чем-то абсолютно новым для индустрии и уже давно присутствует в стандарте eDP — DisplayPort, адаптированном для соединения GPU с интегрированными панелями в мобильных устройствах. Многие ноутбуки обладают всем необходимым для работы этой функции на аппаратном уровне. Не хватает только поддержки со стороны драйверов, что, кстати, удивительно во времена кампании по снижению энергопотребления всех компонентов ПК, которую развернула Intel с выпуском процессоров архитектуры Haswell. Обновление экрана, как известно, расходует энергию, и снижение частоты потенциально должно положительно отразиться на времени автономной работы.

Стараниями AMD такая функциональность под названием Adaptive Sync (не путать с Adaptive V-Sync от NVIDIA) была включена как опция в свежие спецификации DisplayPort версии 1.2a. Интересно, что Adaptive Sync позволяет манипулировать частотой обновления в более широких пределах, начиная с 9 Гц, в то время как нижний предел для G-Sync составляет 30 Гц.

Демонстрация AMD FreeSync на Computex-2014

AMD будет продвигать ее под именем FreeSync для APU и GPU с архитектурой GCN 1.1. Поскольку Adaptive Sync входит в общий стандарт, требуется только поддержка со стороны производителей ASIC контроллеров дисплея. Заявлено, что готовые мониторы появятся на рынке самое ранее уже в этом году. NVIDIA пока не подтвердила, что будет поддерживать Adaptive Sync на своем оборудовании, и вообще воздерживается от пространных комментариев на этот счет. В конце концов, ситуация симметрична той, что сложилась с API Mantle. Одна сторона представляет проприетарное решение, другая вскоре выступает с поддержкой общедоступного стандарта, который решает те же задачи. Но если реалистично смотреть на сроки, то в этом году G-Sync останется единственной доступной технологией в своем роде.

⇡#ULMB (Ultra-Low Motion Blur)

В мониторах с модулем G-Sync представлена еще одна функция, не связанная с его основным назначением. При активации ULMB подсветка матрицы мерцает синхронно с обновлением кадров так, что большую часть времени предъявления на экране кадр затемнен и становится виден лишь в течение краткого импульса. Точно такую технологию мы обнаружили в мониторе EIZO Foris FG2421 и не можем описать ее назначение лучше, чем процитировав тот обзор.

Необходимость в такой странной — на первый взгляд — технологии связана со следующим фундаментальным недостатком LCD-дисплеев (по сравнению с ЭЛТ). Даже при бесконечно малом времени отклика движущиеся объекты на жидкокристаллическом экране выглядят размытыми для человеческого глаза. Причина этого явления в том, что движение на экране представлено как последовательность статических положений объекта, каждое из которых непрерывно занимает определенное время — 1/60 или 1/120 секунды (sample-and-hold-экран). В то же время направление взора, следящего за объектом, перемещается непрерывно, предвосхищая его следующее положение, как если бы перед человеком была реальная вещь. Как следствие, пока изображение остаётся неизменным в течение 1/60 или 1/120 с, глаз успевает сместиться — и размытый шлейф возникает уже не на экране, а на самой сетчатке глаза. Убедиться в этом явлении воочию позволит простой браузерный тест.

ЭЛТ-мониторы лишены такого недостатка. Поскольку изображение формируется построчно сканирующим лучом, и люминофор отдельных пикселов быстро угасает, отдельно взятый участок экрана предъявляется наблюдателю на краткое время. Движение объекта представлено отдельными, разнесёнными во времени импульсами, между которыми изображение залито чёрным. Перемещаясь по чёрному полю вслед за воспринимаемой линией движения, взгляд не вызывает размытия ретинального образа.

Иллюстрация из обзора EIZO Foris FG2421 применима к ULMB с поправкой на то, что в ASUS ROG SWIFT PG278Q подсветка не мерцает на частоте 120 Гц

Благодаря мерцанию подсветки синхронно с обновлением экрана предъявляемые кадры превращаются в отделённые моментами черноты импульсы — аналогично ЭЛТ, в конечном счете избавляя зрителя от размытия движущихся объектов. С функцией G-Sync в текущем варианте ULMB не совместим.

Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

3dnews.ru

Нужен ли G Sync? Все, что вам нужно знать о технологии Nvidia

Нужен ли G Sync? Все, что вам нужно знать о технологии Nvidia

G Sync — все говорят об этом, все хотят этого, но все ли знают, что это на самом деле? Не секретное оружие Nvidias в гонке игровых вооружений теперь дешевле, чем это было пару лет назад, поэтому сейчас самое время немного подумать и спросить, стоит ли его наконец то купить. Нужен ли G Sync? Все, что вам нужно знать о технологии Nvidia

Здесь есть все, что вам нужно знать.

Как работает G-Sync

Для Чтобы понять G-Sync, мы должны сначала понять V-sync и его ограничения.

Вы, вероятно, знакомы с чем-то, что называется V-sync. (Мы написали об этом целую статью.) Это ограничивает частоту кадров в игре частотой обновления вашего монитора. Так что если у вас монитор 60, 75 или 120 Гц, частота кадров в игре будет максимальной.

Это крайне важно для предотвращения прерывистых разрывов экрана, которые появляются на экране во время игр, когда графический процессор воспроизводит кадры с другой скоростью, чем монитор, буферизующий их.

Но есть компромисс для V-синхронизации. В наши дни компьютеры выстраивают изображения для отправки на монитор, используя двойную и тройную буферизацию, по существу, подготавливая один или два кадра, пока другой отображается на экране.

Чтобы предотвратить разрыв экрана, v-sync вызывает крошечные задержки в процессе буферизации, чтобы убедиться, что монитор готов к следующему кадру, что может вызвать задержку ввода.

Кроме того, если вы используете только двойную буферизацию (как в большинстве игр), то вы можете наблюдать большие падения FPS. (Это проблема, только если ваша видеокарта не способна выводить видео с постоянной высокой частотой кадров в данной игре.)

Итак, G-Sync

Что ж, это была длинная преамбула , но это делает объяснение G-Sync намного быстрее.

Монитор с поддержкой G-Sync способен выводить VRR (переменную частоту обновления), постоянно адаптируясь к частоте рендеринга кадров ваших видеокарт Nvidia (G-Sync является Технология Nvidia, поэтому она эксклюзивна для видеокарт Nvidia).

Это полностью исключает разрыв экрана, поскольку частота рендеринга кадров графического процессора никогда не превышает частоту обновления монитора, сводит на нет резкие падения FPS, которые вы видите с помощью vsync, и уменьшает задержку ввода, поскольку монитор больше не удерживает буферизацию.

Стоит ли того G-Sync?

Во-первых, это зависит от того, насколько вы хардкорный игрок и какие игры вы делаете. G-Sync создает идеальное сочетание низкой задержки ввода и более стабильной производительности без разрывов, но, возможно, в любом случае вы действительно не страдаете от этих проблем.

Если у вас топовая видеокарта с обычным vsync Если вы включите, то вы получите желаемую производительность и стабильную частоту кадров даже на мониторе без G-Sync.

Вы можете страдать от увеличения входной задержки / задержки, но степень этого зависит от вашего монитора.Производители, как правило, не сообщают о задержке ввода для своих дисплеев, но этот удобный веб-сайт может помочь вам определить задержку на вашем мониторе.

G-Sync теперь совместим с мониторами FreeSync

Nvidia недавно сделала приветственный шаг, чтобы сделать G-sync более доступным для геймеров. В январе 2019 года Nvidia объявила, что выпустит обновление драйвера, которое позволит его графическим процессорам работать с монитором FreeSync. FreeSync в основном эквивалентен AMD G-sync, но теперь, когда этот патч вышел, вам не нужно будет использовать AMD GPU, чтобы воспользоваться преимуществами монитора, содержащего технологию адаптивной частоты обновления FreeSync.

Для бизнеса это делает Nvidia имеет смысл сделать это, поскольку потребители не будут направлены на покупку графических процессоров AMD для своих мониторов FreeSync. Но это также хорошая новость для потребителей, потому что мониторы FreeSync, как правило, намного дешевле, чем мониторы G-Sync, поэтому точка входа, чтобы настроить себя с помощью G-Sync, становится дешевле.

Nvidias объявила только 12 существующих FreeSync пока что мониторы официально совместимы с G-Sync, но это число должно очень быстро возрасти. Следите за лейблом G-Sync, совместимым с этого момента.

Заключение

Доступность G-Sync значительно возросла за последний год или около того.Даже недорогие низкоуровневые графические процессоры Nvidia (если это GeForce GTX 650 Ti или более поздняя версия с G-Sync) способны к G-Sync, и тот факт, что все больше и больше мониторов FreeSync становятся совместимыми с G-Sync. Что делает его отличное время, чтобы следить за рынком.

Если у вас высокопроизводительный графический процессор, способный стабильно максимизировать частоту обновления вашего монитора, то вы в окружении людей, которые меньше всего заметят разницу при обновлении до G-Sync.

Если, однако, у вас есть графический процессор с поддержкой G-Sync и вы все равно хотите обновить свой монитор, то монитор G-Sync (или FreeSync) абсолютно не представляет сложности.

Вопрос о том, является ли G- Sync (или его двоюродный брат AMD, FreeSync) стоит того, чтобы стать спорным для геймеров через пару лет. Все новые графические процессоры производства Nvidia теперь имеют встроенную технологию. И мониторы, использующие эту технологию, становятся все дешевле и дешевле.

Если вы преданный игрок, владелец графического процессора Nvidia и хотите улучшить это качество. жизненные проблемы, такие как разрыв экрана и задержка ввода, а затем самое подходящее время для прыжка на борт.

Стоит ли G Sync? Все, что вам нужно знать о технологии Nvidias

Facebook

Twitter

Вконтакте

Одноклассники

Pinterest

Просмотров сегодня: 821

www.doctorrouter.ru

NVIDIA G-Sync - эта революционная технология, обеспечивающая самый быстрый и плавный игровой процесс

NVIDIA G-Sync - эта революционная технология, обеспечивающая самый быстрый и плавный игровой процесс
  1. Главная
  2. Технологии
  3. Технология G-Sync

ТЕХНОЛОГИЯ G-Sync

NVIDIA G-Sync - эта революционная технология для мониторов, которая обеспечивает самый быстрый и плавный игровой процесс в истории. Революционная производительность G-SYNC достигается за счет синхронизации скорости регенерации изображения дисплея с GeForce GTX GPU, установленным в вашем ПК или ноутбуке. Это устраняет разрывы и минимизирует дрожание и задержки изображения. В результате сцены появляются мгновенно, объекты выглядят четче, а геймплей становится суперплавным, обеспечивая потрясающие визуальные впечатления и серьезное преимущество над соперниками.

КАК РАБОТАЕТ NVIDIA G-SYNC?

Взгляните на игры по-новому с революционной технологией для мониторов NVIDIA® G-SYNC™. Синхронизируя частоту обновления дисплея и скорость рендеринга GPU, G-SYNC устраняет проблему разрыва кадров и минимизирует дрожание и задержки изображения, обеспечивая самый плавный игровой процесс без артефактов. Когда важен каждый кадр, необходима феноменальная производительность изображения, которую может обеспечить только NVIDIA G-SYNC. Сцены появляются мгновенно, объекты выглядят более четкими и яркими. Геймплей приобретает динамику и отзывчивость, что обеспечивает быстроту реакции и серьезное конкурентное преимущество в процессе игры. Любая игра приобретает такую картинку, скорость воспроизведения и атмосферу, как и задумывалось разработчиком игры.

ПРОБЛЕМА: СТАРЫЕ ТЕХНОЛОГИИ

Когда телевизоры были изобретены, в них использовались катодно-лучевые трубки, которые работали методом сканирования потока электронов на поверхности трубки с фосфорным покрытием. Этот луч заставлял пиксель мерцать, и когда достаточное число пикселей довольно быстро активировались, катодно-лучевая трубка создавала ощущение видео с полноценным движением. Хотите – верьте, хотите - нет, эти первые телевизоры работали со скоростью обновления данных 60 Гц, так как промышленная частота переменного тока в США равна 60 Гц. Совпадение скорости обновления данных телевизора с промышленной частотой переменного тока облегчало создание первой электроники и сокращало помехи на экране. К моменту изобретения персональных компьютеров в начале 80-х годов, технология катодно-лучевых телевизоров прочно заняла свое место и была самой простой и рентабельной технологией для создания компьютерных мониторов. 60 Гц и фиксированная частота обновления стали стандартом, а сборщики систем научились извлекать максимум возможностей из более чем неидеальной ситуации. За последние три десятилетия несмотря на то что технология катодно-лучевых телевизоров эволюционировала в технологию LCD и LED телевизоров, ни одна крупная компания не осмелилась бросить вызов этому стереотипу, и синхронизация GPU со скоростью обновления монитора остается стандартной практикой в отрасли и по сей день. Проблематично то, что видеокарты не осуществляют рендеринг изображения с постоянной частотой. В действительности, частота смены кадров на GPU будет значительно отличаться даже в одной сцене в одной и той же игре в зависимости от текущей нагрузки GPU. А если мониторы имеют фиксированную частоту обновления, то как же передать изображения с GPU на экран? Первый способ – это просто игнорировать частоту обновления монитора и обновлять изображение в середине цикла. Nvidia называем это отключенным режимом VSync, именно так по умолчанию играют большинство геймеров. Недостаток заключается в том, что когда один цикл обновления монитора включает два изображения, появляется очень заметная «линия разрыва», которую обычно называют разрывом экрана. Хороший известный способ борьбы с разрывом экрана заключается в том, чтобы включить технологию VSync, которая заставляет GPU отложить обновление экрана до начала нового цикла обновления монитора. Это приводит к дрожанию изображения, когда частота смены кадров на GPU ниже частоты обновления дисплея. Это также увеличивает время ожидания, которое приводит к задержке ввода - заметной задержке между нажатием клавиши и появлением результата на экране. Что еще хуже, многие игроки страдают от чрезмерного напряжения глаз из-за дрожания изображения, у других развиваются головные боли и мигрени. Это заставило Nvidia разработать технологию Adaptive VSync, эффективное решение, которое было хорошо принято критиками. Несмотря на создание этой технологии, проблема с задержкой ввода все еще остается, а это неприемлемо для многих геймеров-энтузиастов и совершенно не подходит для профессиональных геймеров (киберспортсменов), которые самостоятельно настраивают свои видеокарты, мониторы, клавиатуры и мыши, чтобы минимизировать досадные задержки между действием и реакцией.

РЕШЕНИЕ: NVIDIA G-SYNC

Встречайте технологию NVIDIA G-SYNC, которая устраняет разрывы экрана, минимизируя задержку ввода и дрожание изображения. G-SYNC обеспечивает такие революционные возможности, синхронизируя монитор с частотой обработки кадров на GPU, а не наоборот, что приводит к более скоростному и плавному изображению без разрывов, которое поднимает игры на качественно новый уровень. Гуру отрасли Джон Кармак (John Carmack), Тим Суини (Tim Sweeney), Джохан Андерсон (Johan Andersson) и Марк Рейн (Mark Rein) были впечатлены технологией NVIDIA G-SYNC. Киберспортсмены и лиги киберспорта выстраиваются в очередь, чтобы использовать технологию NVIDIA G-SYNC, которая раскроет их настоящее мастерство, требующее еще более быстрой реакции, благодаря незаметной задержке между действиями на экране и командами клавиатуры. Во время внутренних тестирований заядлые игроки проводили обеденное время за онлайн матчами по локальной сети, используя мониторы с поддержкой G-SYNC, чтобы одержать победу. Если вы, как и киберспортсмены, хотите получить самый четкий, плавный и отзывчивый игровой процесс, то мониторы с поддержкой NVIDIA G-SYNC – это совершенный прорыв, подобного которому больше нигде не найти. Настоящая инновация в эру доработок, NVIDIA G-SYNC кардинально изменит ваш взгляд на игры.

digital-razor.ru

проверяем на мониторе Asus VG278Q

Наверх
  • Рейтинги
  • Обзоры
    • Смартфоны и планшеты
    • Компьютеры и ноутбуки
    • Комплектующие
    • Периферия
    • Фото и видео
    • Аксессуары
    • ТВ и аудио
    • Техника для дома
    • Программы и приложения
  • Новости
  • Советы
    • Покупка
    • Эксплуатация
    • Ремонт
  • Подборки
    • Смартфоны и планшеты
    • Компьютеры
    • Аксессуары
    • ТВ и аудио
    • Фото и видео
    • Программы и приложения
    • Техника для дома
  • Гейминг
    • Игры
    • Железо
  • Еще

ichip.ru

Что такое G-SYNC-совместимый монитор? | GEFORCE-GTX.com

В свежем драйвере Game Ready появилась поддержка адаптивной синхронизации для мониторов, которые до этого не поддерживали функцию G-SYNC. И в этой статье мы расскажем, какие мониторы теперь совместимы с технологией G-SYNC, какие существуют категории и чем они отличаются.

G-SYNC Compatible
После тестов 400 дисплеев на предмет соответствия базовым стандартам качества технологии G-SYNC, были определены 12 моделей, которые и получили статус G-SYNC Compatible.

Совместимые с G-Sync мониторы

Для всех перечисленных мониторов на изображении выше, функция G-SYNC включается автоматически после подключения дисплея.

Напомним, что адаптивная синхронизация в G-SYNC мониторах покадрово подстраивает частоту обновления экрана под частоту вывода изображений в игре, благодаря чему устраняются разрывы изображения и достигается максимально плавный видеоряд.

Все сертифицированные G-SYNC мониторы поддерживают необходимый диапазон частот адаптивной синхронизации, а также прошли наши тесты на отсутствие артефактов изображения и мерцания подсветки.

Validated ExperiencePremium ExperienceUltimate HDR
G-SYNC UltimateДаДаДа
G-SYNCДаДаНет
G-SYNC CompatibleДаНетНет

G-SYNC
G-SYNC мониторы классом выше прошли свыше 300 тестов на качество изображения, и могут предложить расширенный диапазон частот адаптивной синхронизации, более высокий уровень изображения без размытия в движении, заводскую калибровку, и функцию «Variable Overdrive», которая нивелирует остаточные следы. А также технологию компенсации низкой частоты кадров, которая позволяет применять адаптивную синхронизацию на всём диапазоне частот монитора.

G-SYNC Ultimate
Если вы ищите лучшее, то смотрите сразу в сторону G-SYNC Ultimate. В этих мониторах есть поддержка HDR с яркостью 1000+ нит, и они обеспечивают наиболее высокое разрешение, частоту обновления, самый широкий диапазон адаптивной синхронизации, а также имеют цветовой охват по стандарту DCI-P3 и множество зон индивидуально контролируемой подсветки.

С полным списком G-Sync мониторов можно ознакомиться по этой ссылке.

Если ваш монитор не оказался в списке G-SYNC-совместимых решений, но поддерживает адаптивную синхронизацию VESA через DisplayPort, вы всё ещё можете включить функцию G-SYNC самостоятельно, но при этом не гарантируется 100% стабильность работы.

Для включения потребуется:

  • Подключите монитор при помощи кабеля DisplayPort к видеокарте серии GeForce GTX 10, либо GeForce RTX;
  • Активируйте адаптивную синхронизацию в настройках монитора;
  • Откройте контрольную панель NVIDIA, выберите раздел «Дисплей»;
  • Выберите «Настройка G-Sync»;
  • Поставьте галочку в пункте «Включить G-Sync»;
  • Поставьте галочку в пункте «Включить настройку для выбранной модели дисплея»;
  • Подтвердите выбор, нажав кнопку «Применить» в правом нижнем углу окна контрольной панели.

geforce-gtx.com

Технологии видеокарт Freesync или G-sync что лучше

G-Sync – это объективно лучшая из двух технологий, так как она предлагает некоторые дополнительные функции, помимо адаптивной синхронизации. С другой стороны, FreeSync, как правило, гораздо доступнее, что делает его лучшим выбором для геймеров с ограниченным бюджетом. И G-Sync, и FreeSync совместимы только с графическими процессорами Nvidia и AMD соответственно.

Если вы когда-либо покупали мониторы с высокой частотой обновления, скажем 144 Гц или 240 Гц, вы, несомненно, заметили, что эти мониторы всегда поставляются с одной из двух технологий: FreeSync или G-Sync.

Итак, что же это за технологии? Чем они отличаются? И самое главное, что в конечном счете лучше для ваших нужд? Мы рассмотрим все это в данной статье.

Что такое FreeSync и G-Sync?

FreeSync и G-Sync – это технологии, разработанные AMD и Nvidia соответственно, и они являются альтернативой V-Sync, которая просто необходима для мониторов с высокой частотой обновления.

  • Частота обновления монитора (измеренная в герцах) показывает, сколько кадров монитор может отображать каждую секунду. Таким образом, максимальная частота FPS, которая может отображаться монитором, определяется частотой обновления.
  • Когда частота кадров в секунду (FPS) не синхронизируется с частотой обновления монитора, это приводит к тому, что мы называем разрывом экрана.
  • Чтобы этого не произошло, V-Sync накладывает ограничение на количество кадров, отображаемых каждую секунду.

Теперь понятно, почему V-Sync является жизнеспособным решением для мониторов с частотой 60 Гц. Если ваш GPU постоянно выдает более 60 FPS, вы просто ограничиваете частоту вращения до 60 FPS, так как монитор не может отображать больше. Если система не может управлять стабильной частотой вращения 60 кадров в секунду, установите ограничение до 30.

Однако с высокой частотой обновления и высокой частотой смены кадров все не так просто. Общие проблемы с V-Sync включают зависания картинки и задержки ввода, и это определенно то, что вам не нужно, если вы вложились в монитор на 144 Гц или 240 Гц.

Как упоминалось выше, V-Sync, по сути, “подгоняет” ваш GPU, чтобы он не терял синхронизацию с частотой обновления. Адаптивная синхронизация регулирует частоту обновления в соответствии с частотой FPS, и таким образом она обеспечивает синхронизацию двух сигналов.

Так, например, если GPU поддерживает примерно 70-90 кадров в секунду, V-Sync ограничит это значение до 60 кадров в секунду. Адаптивная синхронизация, с другой стороны, гарантирует, что монитор будет обновляться при частоте 70-90 Гц при колебаниях частоты вращения FPS, обеспечивая тем самым постоянную синхронизацию.

FreeSync vs G-Sync – чем они отличаются?

К счастью, два ведущих производителя видеокарт придумали собственные адаптивные решения для синхронизации. И FreeSync, и G-Sync являются адаптивными технологиями, поэтому они в принципе очень похожи, хотя между ними есть некоторые различия.

Но, конечно, существуют и ограничения, налагаемые самим монитором. В частности, для правильной работы мониторы G-Sync и FreeSync используют модули масштабирования. Как вы, возможно, догадались, у Nvidia и AMD другой подход в этом отношении.

В частности, Nvidia требует от производителей использовать собственные масштабирующие устройства при производстве мониторов G-Sync. Это основная причина, по которой мониторы G-Sync стоят намного дороже своих аналогов FreeSync – производителям приходится покупать дорогостоящие модули масштабирования непосредственно у Nvidia, а также лицензировать эту технологию.

В отличие от этого, AMD применяет более открытый подход: производители не должны ничего им платить и могут использовать любые модули масштабирования, которые захотят использовать. В результате мониторы FreeSync в конечном итоге становятся более доступным и экономичным решением.

FreeSync vs G-Sync – за и против

Учитывая вышесказанное, становится ясно, что основное преимущество AMD в том, что они обычно дешевле и предлагают лучшее соотношение цены и качества, чем их коллеги из Nvidia.

Тем не менее есть некоторые проблемы с FreeSync, с которыми вы можете столкнуться. Например, FreeSync обычно поддерживает определенный диапазон частоты кадров. Это означает, что FreeSync будет работать только в указанном производителем диапазоне частот кадров. Это в основном связано с тем, что AMD не обеспечивает строгого контроля качества, как Nvidia, поэтому если вы думаете о покупке монитора FreeSync, лучше проверьте указанные диапазоны частоты смены кадров заранее.

Когда речь заходит о G-Sync, строгий контроль качества Nvidia гарантирует, что технология реализована правильно и работает так, как и положено, без ограничений по частоте смены кадров. Кроме того, функция G-Sync выходит за рамки простой адаптивной синхронизации, поскольку она также обеспечивает снижение размытости изображения, устраняет блики и облегчает разгон монитора. Конечно, само качество и дополнительные функции стоят дорого.

Заключение

Основным преимуществом FreeSync является то, что он доступен в мониторах практически во всех ценовых диапазонах, что те, у кого ограничен бюджет, обязательно оценят. И как уже упоминалось, видеокарты AMD, как правило, предлагают лучшее соотношение цены и качества в низких и средних ценах, поэтому графический процессор Radeon и монитор FreeSync 144 Гц являются отличным выбором для геймеров, которые находятся в условиях ограниченного бюджета.

Суть в том, что FreeSync более доступна по цене, но G-Sync работает лучше и имеет множество дополнительных функций. Если деньги не являются проблемой, то вы определенно оцените наличие высококачественного монитора G-Sync.

netclo.ru

Новые мониторы G-SYNC и компактные ноутбуки с графикой NVIDIA на CES 2020 / Аналитика

⇡#Мониторы с частотой обновления 360 Гц — теория и практика

Экраны с частотой обновления выше стандартных 60 Гц давно перестали быть чем-то из ряда вон выходящим, а в киберспорте и даже среди казуальных игроков в соревновательные игры преимущество 144- или даже 240-герцевых экранов не подвергается сомнению. Однако и это, как выяснилось, не предел совершенству. NVIDIA в сотрудничестве с ASUS продемонстрировала на CES первый геймерский монитор, под названием ROG Swift 360Hz, с громадной частотой обновления — 360 Гц, который поступит в широкую продажу в следующие месяцы 2020 года.

Новинка по всем внешним признакам напоминает предыдущую высокоскоростную модель ASUS — ROG Swift PG258Q, характеризующуюся максимальной частотой обновления 240 Гц, и также построена на базе жидкокристаллической панели производства AU Optronics c разрешением 1920 × 1080. Увы, для того, чтобы столь высокая частота обновления не оставалась на бумаге и была заметна в оптических характеристиках экрана, по-прежнему приходится использовать матрицы типа TN+Film вместо IPS, предпочтительных с точки зрения качества изображения. Кроме того, остается открытым вопрос, какой именно среди продуктов AUO — разогнанную версию одной из панелей популярной серии Q250 или нечто совершенно новое — на этот раз применяет ASUS.

С одной стороны, скачку частоты обновления сразу на 50 % подобает совершенно новая технологическая база, а с другой — ROG Swift 360Hz относится к когорте мониторов с «истинным» G-SYNC, то есть в нем распаян чип NVIDIA взамен стандартного TCON. Кстати, NVIDIA подтвердила, что это по-прежнему FPGA, а не ASIC — не зря многие такие устройства не обходятся без активного охлаждения внутренних компонентов. В данном случае специализированный контроллер таймингов важен не только и не столько для полной валидации в рамках G-SYNC, но и для того, чтобы тонкой настройкой overdrive гарантировать время полного обновления изображения в пределах 2,78 мс, соответствующее параметру 360 Гц. В конце концов, передовые IPS-панели уже могут похвастаться скоростью переключения в 1 мс grey-to-grey, но это еще не делает их пригодными для столь высокой частоты. Быть может, совместное достижение ASUS и NVIDIA стало возможным исключительно за счет алгоритмов overdrive, а жидкие кристаллы остались прежними. Как бы то ни было, этого мы не выясним, пока ROG Swift 360Hz не поступит в розничную продажу. Подробные характеристики монитора тоже остаются в тайне и наверняка еще изменятся по дороге к магазинным полкам, но если отталкиваться от ROG Swift PG258Q, да и наших личных впечатлений, то с контрастностью и запасом яркости у новинки полный порядок. В конце концов, TN+Film уже не так страшна, как раньше, а ради особенно точной цветопередачи в статике подобные мониторы никто не покупает.

 

Злободневный вопрос в том, отрабатывает ли 360-герцевый экран повышенную сразу на 50 % частоту обновления и, главное, несет ли это ощутимое преимущество в соревновательных дисциплинах? Первый пункт мы готовы подтвердить лично: NVIDIA поместила движущуюся по горизонтали картинку (а именно, какую-то MOBA-игру, увы, незнакомую автору) на стоящие бок о бок экраны — один 240, а другой 360 Гц, и разницу в четкости между ними было невозможно проигнорировать. Что касается киберспорта, то за авторством сотрудников компании не так давно было опубликовано исследование, выполненное по всем правилам психофизического эксперимента, с привлечением профессиональных игроков в CS:GO и Overwatch в качестве выборки испытуемых. В результате была продемонстрирована статистически достоверная связь между точностью стрельбы, с одной стороны, и частотой обновления экрана, а главное, полной латентностью ввода, с другой.

Здесь кроется важная и неочевидная на первый взгляд деталь. Кажется, будто преимущество 360-герцевой матрицы в пиковой латентности изображения перед экранами 240 Гц сводится к мизерным 1,39 мс, но ключевой величиной в данном контексте является именно полная задержка между нажатием на клавишу и изменением яркости пиксела. В таком случае если быстродействие системы позволяет удерживать частоту смены кадров на уровне частоты обновления экрана, то и полная латентность изменяется пропорционально. Так, вероятно ссылаясь на другое исследование, NVIDIA получила оценку латентности 34,5 мс при игре в Overwatch в условиях 240 FPS и 240 Гц, а переход к 360 Гц с соответствующим фреймрейтом сократил лаг до 20 мс. В свою очередь, меткость профессиональных игроков удалось повысить на вполне внушительные 12 % при выполнении т. н. flick shots. Тому, кто играет в шутеры, не нужно рассказывать, что это такое, но для читателей, далеких от киберспорта, поясним, что flick не подразумевает «ведение» противника и делается мгновенным перемещением прицела в нужную точку с последующим выстрелом (без каких-либо попыток скорректировать движение в процессе).

Впрочем, вполне понятен и возможный скепсис относительно научных изысканий NVIDIA. Компания является в них ангажированной стороной и преследует очевидный коммерческий интерес. Но, повторимся, разница между 240 и 360 Гц заметна даже нетренированному глазу, и если продукт ASUS, а также его аналоги, которые неизбежно появятся на рынке, получит привлекательную цену, то почему бы геймерам, изначально настроенным на покупку быстрого игрового монитора (и, разумеется, при наличии достаточно мощного ПК), сразу не выбрать новейшую модель. А уж если сравнивать с типичными 60-герцевыми экранами, то позитивные впечатления, а то и прорыв в игровых победах гарантированы. В этом нас убедил тест-драйв, который NVIDIA провела в своем павильоне на CES.

Посетителям предложили выполнить два изолированных задания в CS:GO, созданных при помощи Steam Workshop. В одном из тестов целью было совершить как можно больше хедшотов по перемещающимся мишеням за ограниченный промежуток времени. И действительно, у автора статьи получилось соотношение успешных выстрелов 13 к 20 при частоте экрана 60 и 360 Гц соответственно, а точность стрельбы возросла на 5 %. Последнее вполне себе существенно, когда залогом успеха является непрерывное ведение мишени (активные игроки в Quake согласятся с тем, как сложно поднять на 5 % свое владение Lightning Gun).

Другой тест оказался еще более наглядным. Любители Counter-Strike легко узнают на фото выстрел из винтовки между дверцами ворот на карте Dust. Прелесть этого задания в том, что здесь не требовалось активно отслеживать противников и вообще перемещать прицел, и нужно было только подстрелить бота, который пробегал через узкую щель в случайный промежуток времени. Так вот, при 60 Гц я ни разу не попал в цель, а при 360 Гц смог сделать несколько удачных выстрелов за десять попыток. Причем, в отличие от первого теста, здесь трудно определить, с какой частотой обновления ты вообще играешь, по практически неподвижному большую часть времени изображению. Просто все само собой стало получаться лучше. К слову, даже профессиональный игрок, с которым участники теста вели заочное соревнование, при частоте 60 Гц набрал лишь два фрага из десяти.

Конечно, ваш покорный слуга совсем не киберспортсмен, хотя и имеет определенный опыт сначала в Quake III Arena, а затем в Quake Live. Мне бы наверняка пошел на пользу даже экран с частотой обновления 120 Гц, не говоря уже о 240 Гц. Но опять-таки если даже 120 Гц способны принести какое-то соревновательное преимущество, а цена ASUS ROG Swift 360Hz не будет обескураживающе высокой, то даже для таких казуалов, как я, есть смысл в подобных игровых мониторах.

Единственный эксперимент, свидетелями которого нам еще хотелось бы стать, — это сравнение игровых плоскопанельных мониторов со старыми добрыми CRT. Да, LCD уже опередили электронно-лучевые трубки по доступной частоте обновления, однако люминофоры в качественных CRT по-прежнему обладают эталонной кривой изменения яркости, которая запросто может уложиться в 0,5 мс, и, соответственно, чрезвычайно коротким отрезком послесвечения. Частота вертикальной развертки вплоть до 160 Гц тоже является вполне типичной характеристикой, хоть и при подобающе низких разрешениях. Мы передали эту идею сотрудникам NVIDIA и надеемся, что она когда-нибудь будет реализована на практике.

⇡#32-дюймовые мониторы G-SYNC Ultimate с 1152 зонами подсветки Mini-LED

Частота обновления 360 Гц символизирует большой шаг вперед для жидкокристаллических панелей, но все же нельзя закрыть глаза на тот факт, что в ASUS ROG Swift 360Hz используется TN-матрица. Да, это уже не та TN+Film, что раньше, — она предлагает приличную контрастность и, надеемся, не самую худшую цветопередачу. Тем не менее TN+Film все так же плохо подходит для крупноформатных решений в силу ограниченных углов обзора. К тому же производителям совсем не интересно собирать на основе этой технологии модели с увеличенным цветовым охватом и широким динамическим диапазоном, о которых пойдет речь далее.

NVIDIA относит дисплеи с высококонтрастными градациями HDR (и прочими регалиями — см. таблицу в конце статьи) к отдельной категории G-SYNC Ultimate, а свежее пополнение в их рядах — игровые мониторы Acer X32 и ASUS ROG Swift PG32UQX — во всех аспектах представляет самую настоящую элиту устройств вывода изображения. Оба монитора укомплектованы 32-дюймовыми панелями с разрешением 4К (не исключено, что идентичными) и зональной подсветкой при помощи Mini-LED. Напомним, что еще на прошлогодней Computex те же производители анонсировали две аналогичные модели с диагональю экрана 27 дюймов и 576 зонами подсветки, однако за полгода был установлен новый рекорд точности локальной регулировки яркости. Acer X32 и ASUS ROG Swift PG32UQX получили 1152 зоны Mini-LED, распределенные под поверхностью IPS-матрицы, что, если следовать маркетинговому новоязу, обеспечивает так называемый Full Array Local Dimming (FALD). Да, сами матрицы крупнее по сравнению с прошлым поколением, но благодаря тому, что общее число светодиодов удвоилось, плотность подсветки возросла на 42 %. А соответственно, и яркость теперь достигает 1400 кд/м2 .

Новые мониторы развивают частоту обновления 144 Гц в нативном разрешении, а это значит, что для приема сигнала по интерфейсу DisplayPort 1.4 им требуется либо цветовая субдискретизация 4:2:2, либо компрессия по стандарту Display Stream Compression, обеспечивающая существенно лучшее качество изображения. Но, к сожалению, о поддержке DSC в официальном описании новинок речи не идет, хотя та же ASUS является одним из главных апологетов этой технологии. Да и полные спецификации производители пока не раскрывают. Известно лишь, что благодаря квантовым точкам оба монитора имеют широкий цветовой охват. У ROG Swift PG32UQX он превышает 90 % DCI-P3. В свою очередь, Acer сообщает о 99-процентном покрытии Adobe RGB и 89,5-процентном Rec. 2020. Кроме того, Predator X32 проходит фабричную калибровку с точностью цветопередачи Delta E < 1.

Acer Predator X32 и ASUS ROG Swift PG32UQX

Ни один из двух производителей, уже по традиции, не сообщает, когда устройства поступят в розничную продажу и, главное, за какие суммы. К тому же мы до сих пор ждем 27-дюймовые модели с Mini-LED (ASUS ROG Swift PG27UQX и аналогичный Acer), анонсированные полгода тому назад на Computex. Если ASUS и Acer на этот раз поспешат с запуском массового производства, то мониторы предыдущего поколения вполне могут появиться на рынке в одно время с новыми, которые располагают заведомо более высокими характеристиками яркости, контрастности и точности локальной подсветки. С уверенностью можно говорить лишь о том, что подобная техника не стоит дешево, и в долларовых ценниках будут фигурировать четырехзначные числа.

⇡#Новые G-SYNC-совместимые телевизоры LG

Экосистема G-SYNC сегодня включает не только мониторы, оборудованные микросхемой NVIDIA, но и устройства со стандартной функциональностью VRR (Variable Refresh Rate) в рамках интерфейса DisplayPort или HDMI. Последние NVIDIA обозначает термином G-SYNC Compatible при условии, что экран удовлетворяет базовым рабочим критериям. Так, от него требуется достаточно широкий диапазон частоты обновления — как минимум в соотношении 2,4 к 1 (к примеру, от 60 до 144 Гц), а VRR в настройках должен быть активирован по умолчанию. Вдобавок к этому проводится тестирование на грубые дефекты изображения, но, как видите, в категории G-SYNC Compatible довольно-таки либеральные условия сертификации (по сравнению с «простым» G-SYNC или G-SYNC Ultimate), которые со временем стали проходить не только мониторы, но и телевизоры.

В терминологии NVIDIA последние называют BFGD (Big Format Gaming Displays), а первыми G-SYNC-совместимыми телевизорами стали устройства LG — компании, по сути, доминирующей на рынке игровых ТВ в силу признанного качества их OLED-панелей. Продукция корейцев отличается высокой частотой обновления и впечатляющими показателями контрастности в режиме HDR, которых удалось добиться благодаря индивидуальной адресации субпикселов. В ходе CES партнер NVIDIA представил дюжину OLED-телевизоров с диагональю матрицы от 48 до 88 дюймов. Все новинки без исключения несут маркировку G-SYNC Compatible. Самый крупный, 88-дюймовый экран нам, к сожалению, не удалось увидеть своими глазами, но даже телевизор формата 77 дюймов с разрешением 4К и частотой обновления 120 Гц, который вы видите на фото, — это совсем не шутки как по размеру, так и по характеристикам изображения.

Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

3dnews.ru

NVIDIA G-Sync Compatible — что это такое?

NVIDIA G-Sync Compatible — означает что монитор сначала не поддерживал технологию G-Sync, но потом NVIDIA протестировала монитор и сделала вывод — поддержка возможна. Такие мониторы часто еще поддерживают AMD FreeSync.

Список моделей, которые NVIDIA протестировала и которые теперь совместимы с G-Sync можно посмотреть здесь.

Слово Compatible означает совместимый.

Разница? Разница простая — мониторы с G-Sync Compatible просто стоят дешевле чем те, которые эту технологию поддерживали изначально. Но, к сожалению, кроме дешевле, такие мониторы еще могут выдавать немного хуже качество картинки. Потому что такие мониторы хоть и совместимы с G-Sync, но не проходили полный цикл тестирования с этой технологией.

Вот например некоторые модели моников, которые совместимы с G-Sync:

Здесь мы видим, что G-Sync Compatible это поддержка технологии, но без расширенного тестирования (+300 tests for Image Quality):

NVIDIA G-Sync — что это такое вообще?

Да, теперь поговорим вообще о том что за технология это.

G-Sync — адаптивная технология синхронизации от NVIDIA, направлена на устранение разрывов экрана/эффекта торможения/мерцание экрана, в результате картинка становится более плавной. Благодаря технологии видеокарта отправляет новый кадр только после того как монитор сообщил, что он отрисовал предыдущий. Разумеется все это работает, если монитор тоже поддерживает G-Sync.

Вот еще полезная информация по поводу того зачем нужна технология:

Интересно вот еще, чтобы устройство работало с технологией, в устройстве должен быть модуль G-Sync от NVIDIA, имеется ввиду примерно такая плата:

На этой плате есть чип и буферная память, через которую идет обмен данными с видеокартой. Чип G-Sync считывает кадры с видеокарты и автоматически изменяет частоту обновления экрана монитора в соответствии с текущей скоростью игры, чтобы те совпадали друг с другом. При этом частота обновления экрана может динамически варьироваться в диапазоне от 0 до 240 Гц в режиме реального времени. Результат – полное отсутствие в играх всевозможных визуальных артефактов, таких как разрыв кадра, притормаживание, мерцание экрана.

Технологию можно также включить в панели NVIDIA:

Надеюсь информация была полезна)) Удачи и добра, до новых встреч господа!

На главную! 21.02.2020

virtmachine.ru


Смотрите также



© 2010- GutenBlog.ru Карта сайта, XML.