Графический ускоритель для ноутбука


Какая видеокарта лучше для ноутбука? Разбираемся и выбираем

Наверх
  • Рейтинги
  • Обзоры
    • Смартфоны и планшеты
    • Компьютеры и ноутбуки
    • Комплектующие
    • Периферия
    • Фото и видео
    • Аксессуары
    • ТВ и аудио
    • Техника для дома
    • Программы и приложения
  • Новости
  • Советы
    • Покупка
    • Эксплуатация
    • Ремонт
  • Подборки
    • Смартфоны и планшеты
    • Компьютеры

ichip.ru

Обзор внешних видеокарт для ноутбуков / Habr

Введение

Мобильные компьютеры с начала своего существования всегда были ограничены в возможностях аппаратного апгрейда в отличии от персональных компьютеров. Только в позднее время стандартными компонентами стали люки, открывающие простой доступ к накопителям и оперативной памяти. Графическая же составляющая ноутбуков до сих пор чаще всего остаётся неизменной.

Компания NVIDIA пыталась эту досадную несправдливость, предложив стандарт MXM — Mobile PCI Express Module, Мобильный модуль на шине PCI Express. Инженеры компании отмечали тот, что на материнской плате ноутбука достаточно легко можно разместить горизонтально расположенный к плате слот PCI Express x16 для подключения видеокарт. Компактность решения заключалась в том, что плата MXM-видеокарты ограничивалась линейными размерами слота PCI-E и не превышала в последних версиях размеры 82х100 мм.
Увы, сейчас на рынке есть весьма небольшое количество ноутбуков с видеокартой реализованной в MXM-формате и производители, которые первыми начали его использовать, как например Fujitsu-Siemens, уже начали от него отказываться. Большую роль также играет завышенная цена и редкость MXM-видеокарт.

Но прогресс не стоит на месте. Неспешно, но уверенно на рынке появляются и иногда даже остаются на продолжительное время проекты внешних видеокарт от различных производителей. О них этот обзор.

ASUS XG Station

В январе 2007 года на выставке «Consumer Electronics Show» в Лас-Вегасе компания ASUS представила свой новый продукт XG Station.

Это устройство было разработано для обеспечения ноутбуков вычислительной мощью внешних видеокарт. К ноутбуку внешняя видеокарта подключалась посредством специального ExpressSlot-адаптера. Также имелся экран, на котором отображались частоты ядра и видеопамяти, скорость вращения системы охлаждения, температура, уровень звука и частота кадров.
В принципе, разобрав «станцию» можно было бы самостоятельно установить однослотовую видеокарту по своему желанию. Только вот, из-за шины ExpressSlot пропускная способность была ограничена на уровне PCI-E x1 версии 1.1.

Начать поставки устройства планировалось во втором квартале 2007 года. В базовую поставку планировалось включать видеокарту EN7900GS, а также различные аксессуары и ПО от компании ASUS. Увы, только на бумаге. В январе 2008 года, появилось сообщение, что выпуск продукта отодвигается на май того же года. Реально же, небольшая партия ASUS XG Station появилась в первой половине 2008 года и только в Австралии. На борту имелась видеокарта NVIDIA GeForce 8600GT с 256 мегабайтами DDR3-памяти и стоило это удовольствие 375 австралийских долларов. В середине 2009 «станцию» сняли с продаж.

ATI XGP

4 июня 2008 года на выставке Computex в Тайбэе, представляя мобильную платформу «Puma», основой которой являлся чипсет RS780, компания AMD представила аппаратный эксперимент — технологию ATI eXternal Graphics Platform.

Слухи о проекте «Lasso», так на этапе разработки называлась ATI XGP, курсировали достаточно давно, как минимум, за год до выставки. Сайт HEXUS.net писал, что проект появился как сопутствующая разработка видеокарт семейства R600 и подразумевает соединение ноутбука с настольной дискретной видеокартой двумя кабелями, в соответствии со спецификацией внешней кабельной системы PCI-E 1.0.

В итоге, ATI XGP представил собой внешний интерфейс PCI Express, позволяющий объединить ноутбук (а в перспективе и компактный ПК) с мощной дискретной видеокартой по технологии переключаемой графики ATI PowerXPress. На тот момент флагманской была видеокарта Radeon HD 3870 — вот именно с ней и предлагалось соединять ноутбук.

Увы, возможно, из-за недостаточного продвижения продукта или из-за сырой поддержки в драйверах и ПО продуктов с этой технологией на рынке появилось крайне мало:

Fujitsu-Siemens AMILO Notebook Sa 3650 и AMILO GraphicBooster

Первый ноутбук, штатно комплектующийся портом XGP. Чипсет M780G, Процессор AMD Turion X2 Ultra Mobile ZM-86 2,4 Гигагерца — в общем, платформа Puma как она и была представлена.

В комплекте поставки помимо самого ноутбука поставлялась и внешнее устройство AMILO Graphics Booster, с ATI Mobility Radeon HD 3870 внутри. Видеокарта несла на борту 512 Мегабайт видеопамяти GDDR3. Замена видеокарты не подразумевалась.

Acer Ferrari One 200 и DynaVivid

В начале 2009 года компания Acer, к тому времени уже наладившая производство нетбуков весьма успешной серии Aspire One, выпустила свой вариант ноутбука на немного обновлённой платформе «Puma» (использовался 1,2 гигагерцовый процессор AMD Athlon X2 L310) с штатным портом XGP. Увы, в отличии от «коллеги» ноутбук поставлялся без внешней видеокарты.

Что характерно, ноутбук был брендирован маркой Ferrari и внешне весьма убедительно выполнен под спортивную машину соответствующей марки, даже резиновые ножки были выполнены в виде покрышек.

Увы, внешний графический док от Acer появился чуть более чем через год после выпуска Ferrari One. Acer DynaVivid Graphics Dock нёс на борту мобильное графическое ядро Radeon HD 4670, HDMI и VGA и 6 USB-портов. В Европе устройство предлагалось по цене в 199 евро. Также планировался выпуск DynaVivid c Radeon HD 5830, но этого, к сожалению, не случилось.

Shuttle I-Power GXT Mini

В марте 2010 года на выставке CeBIT в саксонском Ганновере всемирно известный производитель компактных ПК, компания Shuttle представила свою новую разработку.

Устройство с мудрённым названием Shuttle I-Power GXT Mini представляло собой небольшую коробочку с обычной однослотовой видеокартой Radeon HD 4650. Подключаемая через USB-порт к нетбуку компании Shuttle, внешняя видеокарта должна была поднять производительность неспешного атома в 3DMark06 с 500 до 5000 «попугаев», то есть в 10 раз. Новинка комплектовалась блоком питания на 90 ватт, что, в принципе, позволило бы установить и более мощную видеокарту, например, Radeon HD 5750. Также, по словам производителя, в I-Power GXT Mini можно было установить не только видеокарту, но и, например, ТВ-тюнер.

Увы, на следующей выставке CeBIT, уже в этом году компания объявила о прекращении работ над проектом. Основной причиной представители Shuttle называют необходимость снижения расходов, а не отсутствие спроса у потенциальной аудитории и сложности технической реализации, как можно было бы подумать.

MSI Graphics Upgrade Solution

В том же 2010 году на выставке Computex в Тайбэе, компания MSI представила свой вариант внешней видеокарты. Этот GUS представляет собой довольно объёмную коробку с хорошей вентиляцией, способную вместить двухслотовую видеокарту.

Вроде бы, отличное решение, но есть и минусы. Во-первых, используется достаточно медленный интерфейс ExpressCard для подключения к ноутбуку. В будущем MSI обещает сделать версию, поддерживающую подключение через USB3.

Во-вторых, GUS не имеет дополнительного питания для видеокарт и производитель не рекомендует установку видеокарт с TDP более 84 ватт, то есть Radeon HD 5670 пока что его теоретический потолок.
К счастью, в отличии от прошлых устройств, GUS всё ещё продаётся по цене 229 долларов в комплектации с Radeon HD 5670 (1 гигабайт видеопамяти) и 100 долларов без онной.

Village Instruments ViDock

Наиболее закрепившееся на рынке решение. Устройство поддерживает установку двухслотовых видеокарт, но при этом предоставляется дополнительное питание (6+2 и 6). Увы интерфейс подключения к ноутбук — ExpressCard, со всеми вытекающими отсюда проблемами.

Первая версия устройства появилась ещё в 2008 году и компания продолжает его постоянно дорабатывать, выпуская обновлённые версии. Последний на данный момент ViDock носит гордую версию четыре с плюсом (4+) и поддерживает видеокарты мощностью до 225 ватт.

Купить коробку можно по цене от 200 долларов за третью версию до 280 за 4+.

DIY — Do It Yourself — Сделай сам

При наличии головы на плечах и прямых рук док для внешней видеокарты сейчас возможно собрать и самостоятельно. Процесс уже был в описан в соответствующей статье на хабре — habrahabr.ru/blogs/DIY/110726.

Благодарности и источники

Спасибо человеку, который прислал мне инвайт.
Спасибо ресурсам 3DNews, iXBT Labs, Anandtech и BIT-Tech за использование соттветсвующих фотографий для обзора.
При написании статьи косвенно использовались материалы с вышеозначенных сайтов, а также английская и русская версии википедии.

habr.com

на что способен Omen by HP Accelerator

Наверх
  • Рейтинги
  • Обзоры
    • Смартфоны и планшеты
    • Компьютеры и ноутбуки
    • Комплектующие
    • Периферия
    • Фото и видео
    • Аксессуары
    • ТВ и аудио
    • Техника для дома
    • Программы и приложения
  • Новости
  • Советы
    • Покупка
    • Эксплуатация
    • Ремонт
  • Подборки
    • Смартфоны и планшеты
    • Компьютеры
    • Аксессуары
    • ТВ и аудио
    • Фото и видео
    • Программы и приложения
    • Техника для дома
  • Гейминг
    • Игры
    • Железо
  • Еще

ichip.ru

Какие видеокарты для ноутбуков лучше: ‌советы ‌2020‌ ‌года‌ ‌

 

Видеокарта — один из центральных элементов ноутбука и вообще любого компьютера. Без неё система просто не будет работать. О том, какие видеокарты для ноутбуков лучше, мы сейчас и расскажем.

Что такое видеокарта и зачем она нужна

Наравне с процессором, постоянной и оперативной памятью видеокарта входит в число обязательных компонентов компьютера. Задача графической карты в составе компьютера заключается в выводе на дисплей графической информации. Неважно, смотрите ли вы кино, играете или работаете: всё, что вы видите перед собой — работа видеокарты. Не работает видеочип - нет и картинки на экране.

Интегрированные и дискретные видеокарты

Различных оснований классификации видеокарт просто море разливанное. Нас же интересует одно, но самое главное: степень интеграции видеокарты с центральным процессором. По этому признаку выделяют видеокарты интегрированные и дискретные.

Интегрированное графическое решение — это, собственно, даже не отдельная карта. Она объединена с процессором в единое целое — интегрирована в него — и даже не имеет собственной видеопамяти. Вместо последней такой видеочип использует оперативную память компьютера. Не нужно быть компьютерным инженером, чтобы представить себе недостатки такого решения. Интегрированные видеокарты работают довольно медленно, да ещё и воруют память у других систем, замедляя работу всего компьютера. Тем не менее, у такого решения немало преимуществ.

Плюсы интегрированных видеокарт:

  • низкая цена — они лишены быстрой видеопамяти, системы охлаждения и других дорогостоящих компонентов;
  • низкое тепловыделение — маломощные графические процессоры почти не греются и не требуют дополнительного охлаждения: им вполне хватает системы охлаждения процессора;
  • низкий (скорее, просто отсутствующий) шум — как следствие предыдущего пункта, ведь никаких дополнительных вентиляторов здесь не нужно;
  • низкое энергопотребление — интегрированные графические чипы предъявляют низкие требования к системе питания, а также расходуют заряд батареи ноутбука очень экономно.

Минус у интегрированных графических решений всего один, но его с лихвой хватает, чтобы перекрыть вышеуказанные плюсы. Минус этот — крайне низкая производительность. Интегрированная видеокарта справится с интернет-браузером, фильмом или пасьянсом, но большего от неё ждать никак нельзя. Для всего остального есть дискретные видеокарты.

Дискретные графические адаптеры — это отдельные и самостоятельные элементы ПК. Они оснащены собственной быстрой видеопамятью, отдельными системами питания и охлаждения. Разумеется, у всех этих преимуществ есть свои подводные камни.

Минусы дискретных видеокарт — полная противоположность плюсов интегрированных графических решений:

  • они дорогие — цена топовых видеопроцессоров может доходить до нескольких тысяч долларов, а средненькая по всем параметрам игровая модель обойдётся вам долларов в 500. Хотя, конечно, даже относительно бюджетная дискретная видеокарта будет куда производительнее интегрированных аналогов;
  • они горячие — дискретные видеокарты много думают, а значит, много греются. Зачастую это самый горячий компонент ПК даже с учётом центрального процессора;
  • они шумные — лишнее тепло нужно как-то разгонять, поэтому без свистящих вентиляторов здесь не обойтись. Существуют довольно мощные дискретные видеоадаптеры с пассивным охлаждением, но в ноутбуках такие не встречаются;
  • они очень энергозатратные — в стационарном ПК это означает, что к дискретной видеокарте нужно покупать мощный блок питания, который может её прокормить. В случае с ноутбуком нужно быть готовыми к тому, что такой графический процессор будет вдвое сокращать время работы машины от аккумулятора.

К счастью, все указанные минусы, как волны о камень, разбиваются об огромный железобетонный плюс — высокую графическую производительность. Для дискретной графики отрисовывать странички в браузере или кино в Full HD — это так, семечки. Хорошие дискретные видеокарты способны и на тяжёлые трёхмерные игры, и на работу с графикой, и на монтаж видео, и на отрисовку виртуальной реальности, и на сотни других задач, о которых интегрированным видеочипам только мечтать.

Типы интегрированных видеокарт для ноутбуков

Даже самые слабые процессоры начального уровня сегодня оснащают интегрированными графическими адаптерами. Интегрированными видеокартами занимаются компании, которые производят центральные процессоры. Речь идёт, разумеется, об Intel и AMD.

«Синие» Intel поддерживают три основных линейки (в порядке возрастания производительности): Intel HD, UHD и Iris plus. «Красные» AMD работают над графическими ускорителями из серии Radeon Vega.

Стоит отметить, что старшие модели обеих компаний способны поспорить по производительности с дискретными видеокартами начального уровня вроде nVidia GeForce GT 1030. Возможно, через несколько лет интегрированная графика станет наконец-то достойным конкурентом дискретных видеокарт.

Типы дискретных видеокарт для ноутбуков

А вот на рынке ноутбучных графических адаптеров бал уже много лет правит nVidia. У конкурентов почти нет решений, способных поспорить с топовыми решениями из линейки GeForce: RTX 2080, RTX 2070 и GTX 2060. Собственного говоря, у моделей с числовыми индексами 1080, 1070, 1060, 1050, 1650 и 1660 аналогов тоже не слишком много.

Intel пока только демонстрирует изображения своих будущих видеокарт (да и то речь идёт о сегменте традиционных ПК, а не ноутбуков). У AMD же можно назвать лишь пару интересных дискретных видеокарт для ноутбуков: Radeon RX 560X и Vega 56. Это действительно мощные решения, достойные внимания даже требовательных геймеров. Но это капля в море, и конкурировать с «зелёными» на равных пока не может никто.

Так что же лучше: интегрированная или дискретная видеокарта?

Ответ зависит от того, какие задачи должен решать ваш ноутбук. Если вы планируете работать на нём с текстом и таблицами, сёрфить в сети, показывать презентации и раскладывать «Косынку» — вам с головой хватит интегрированной графики. Для всего остального нужна дискретная видеокарта.

Лучший вариант — переключаемое видео, которым оснащают большинство современных ноутбуков. В таком варианте с простыми задачами тихонько, без шума и пыли справляется интегрированный видеочип, а в сложные моменты ему на помощь приходит старший брат — дискретный видеоадаптер.

Существует ещё такой вариант, как внешние видеокарты для ноутбуков, но они до сих пор довольно дорогие и редкие, да и не слишком удобные.

Популярные вопросы

Подойдут ли встроенные видеокарты для работы с видео и графикой?
Скорее всего, нет. Смотреть кино и картинки на них можно, а вот монтировать видео и работать в профессиональных графических редакторах не стоит.

Какие модели дискретных видеочипов наиболее удачны для игр?
Лучше всего для игр подходят старшие модели nVidia: RTX 2080, RTX 2070, RTX 2060 (хотя и предыдущее поколение 1060, 1070 и 1080 до сих пор отлично служат, а стоят куда дешевле). Очень хорошо показывают себя новые недорогие карты GTX 1660. В принципе, для нетребовательных игр хватит и модели с индексом 1050 — худо-бедно она потянет почти всё, пусть и на средне-низких настройках. А вот у AMD успехи на поприще дискретных видеокарт куда скромнее. Если вы фанат красной команды, можете обратить внимание Vega 56 и RX 560X — это чуть ли не единственные приемлемые для требовательных игр решения «не от nVidia».

Выводы

Подытожим. Видеокарта — необходимый элемент любого ПК, включая ноутбуки. Видеочипы могут быть интегрированными и дискретными. Первые — медленные, но бюджетные, холодные, тихие и экономичные, вторые — гораздо более мощные, зато дорогие, шумные, склонные к перегреву и с высокими запросами в плане питания. Если вам нужен ноутбук для работы с документами, серфинга в сети и просмотра кино — берите аппарат с интегрированным графическим ядром. Для работы с графикой, монтажа видео и трёхмерных игр необходима дискретная карта. Надеемся, мы помогли вам разобраться и решить для себя, какая же видеокарта для ноутбука лучше. Приятных покупок!

 

gadgets-reviews.com

разгон видеокарты ноутбука с помощью вольтмода

Предупреждение: модификации, о которых рассказывается в этой статье, могут привести к необратимому выходу ноутбука из строя и дальнейшему дорогостоящему ремонту! Любые модификации, описанные в настоящем материале, производятся пользователями на свой страх и риск.

Если вы не уверены в своих действиях или не очень хорошо знакомы с устройствами, описанными в статье, не стоит прибегать к описанным методам разгона!

Напомним, что на нашем сайте уже публиковались материалы по экстремальному разгону ноутбука.

Экстремальный разгон ноутбука, часть первая: аппаратное изменение параметров работы процессора и памяти

Экстремальный разгон ноутбука, часть вторая: разгон путем изменения параметров работы тактового генератора

Рекомендуем ознакомиться также с ними.

Введение

Самым слабым местом ноутбука обычно является видеокарта. Мощный графический ускоритель зачастую составляет половину цены девайса, потребляет много энергии и выделяет много тепла. От последних двух факторов страдает мобильность — одно из самых важных свойств ноутбука, ради которого его большинство и покупает. Поэтому долгоиграющие ноутбуки комплектуются либо ускорителем графики, интегрированным в чипсетпроцессор, либо двумя ускорителями сразу — мощным дискретным и экономичным интегрированным. Производительность интегрированных видеокарт пока что оставляет желать лучшего, и разгонять их особого смысла нет. А вот дискретные решения часто разгоняются существенно. Далее речь пойдет именно о них.

Дискретные ноутбучные видеокарты, так же, как и видеокарты для настольных ПК, можно классифицировать по уровню производительности. Если не вдаваться в детали и не учитывать множество подклассов, то условно мобильные видеокарты можно разделить на три сегмента: дискретная графика «для галочки», средний сегмент и топовый сегмент. Первая категория интереса для нас не представляет, т.к. уровень производительности таких видеокарт ненамного выше интегрированных. Разгон, конечно, даст некоторое увеличение производительности, но вряд ли его можно будет где-то почувствовать. Обычно их ставят, чтобы не тормозил «Аэро» и можно было поиграть в казуальные игрушки (еще одна весомая причина — организация выхода HDMI, чего встроенная графика не умеет — С.К.). Эти видеокарты набирают в тесте Futuremark 3Dmark 06 меньше 3000 баллов. Конечно, этот тест на данный момент уже прилично устарел, и по-хорошему надо бы сравнивать видеокарточки в тесте 3Dmark Vantage с поддержкой DX10, однако уровень производительности мобильных видеокарт таков, что с комфортом поиграть  в игры с DX10 при высокой детализации удастся едва ли. Поэтому результаты теста с DX9 в данном случае можно считать актуальными.

 Топовые видеокарты дорогие, прожорливые и очень горячие. Их система охлаждения часто занимает добрую четверть внутрикорпусного пространства ноутбука, если производитель подходил с умом к этому вопросу. Редко можно встретить ноутбук с диагональю меньше 17 с топовой графикой. Эти видеокарты позволяют играть почти во все современные игры на максимальном разрешении с максимальными настройками графики, но цена на укомплектованные ими ноутбуки начинается с цифры в 2000 вечнозеленых. А учитывая, что ноутбук с таким размером и весом особо не потаскаешь, да и от батареи он будет жить очень недолго, разумнее купить за те же деньги настольный ПК, который будет превосходить его в производительности в несколько раз. К тому же, нынешние топовые ускорители плохо разгоняются. Производители повышают производительность увеличивая  количество ядер, а не рабочие частоты, из-за чего разгонный потенциал сильно снижается: производительность редко когда повышается больше, чем на 10%. Такие видеокарты набирают в тесте Futuremark 3Dmark 06 больше 8000 баллов.

Самым интересным для нас является средний сегмент, так как относительно небольшое количество ядер в видеочипе позволяет существенно поднимать частоты. При этом на таких видеокартах можно играть во все современные игры, в некоторые с красивостями, в некоторые без, но можно — это факт. Такие видеокарты набирают в тесте Futuremark 3Dmark 06 от 3000 до 7000 баллов, а ноутбук с такой картой сможет прожить от батареи полтора часа, что достаточно неплохо. Это компромиссный вариант между мощью и мобильностью, да и цена на них составляет от 30 до 50 тысяч деревянных, что вполне адекватно за машинку, которую можно и носить с собой, и использовать в трехмерных играх.

Разгон видеокарты —  пожалуй, самое простое и безопасное из всех действий, связанных с разгоном ноутбука. Видеокарта, в отличие от процессора и оперативной памяти, не влияет на общую производительность системы, ее разгон можно оценить только в графических приложениях и играх. Так что разгон можно включать только при работе этих приложений, а все остальное время экономить электричество. Разгон видеокарты прост: фактически, весь процесс сводится к перемещению ручки трэкбара и тестированию стабильности новой частоты. И безопасен: если при переразгоне произойдет сбой, то видеокарта автоматически перезапустится на настройках по умолчанию — данные не пропадут, компоненты из строя не выйдут.

Главная проблема при разгоне — рост температуры, которая в ноутбуках и так близка к предельной. Поэтому за температурой всегда стоит следить, хотя современные видеочипы — устройства умные и сжечь их не так уж и просто. Для мобильного видеочипа абсолютно нормально работать при 100 градусах по Цельсию. Хотя цифра может показаться шокирующей для неподготовленного человека, на самом деле некоторые полупроводниковые приборы могут работать при гораздо бОльших температурах. Например, северный мост Intel P45 настольной материнской платы начинает бить тревогу только когда температура переваливает далеко за сотню. Наконец, перегревшийся видеочип подаст сигнал системе, и она отключит ноутбук и не даст его включить, пока чип не остынет. Впрочем, хотя чип почти невозможно спалить, постоянно заставлять его работать близко к предельной температуре все же не стоит. Во-первых, чип нагревает все вокруг себя, и даже если не сгорит сам, вполне может сжечь окружающие компоненты, например, чипы видеопамяти, у которых критическая температура находится около 80-90 градусов. Во-вторых, производители экономят на всем, и часто процессор и видеокарта  висят на одной тепловой трубке, соответственно, видеокарта будет подогревать процессор, который при 90-95 градусах уже начинает уходить в тротлинг. К тому же, чем больше температура, тем ниже стабильная частота при разгоне. Т.е. если при 60 градусах максимальная стабильная частота шейдерного домена была 1500МГц, то при 90 она, вероятнее всего, будет уже 1400МГц, а то и меньше. Поэтому крайне не рекомендуется, чтобы видеокарта при работе уходила за 90 градусов. Если у вас она и без разгона греется до этой температуры, о разгоне можете смело забыть.

Процесс разгона

Существует множество программ для разгона и настройки видеокарт. Для видеокарт NVIDIA самой лучшей, на мой взгляд, является RivaTuner. Эта программа, в отличие от многих других, к тому же обладает правильным мониторингом частот. Дело в том, что частоты ядра изменяются не плавно, а с определенном шагом в несколько мегагерц, однако программы для разгона дают выставить любую частоту с шагом 1МГц, а видеокарта округляет задаваемую программой частоту. Т.е.  выставляем 1423, а в реальности имеем, например, 1400, если частота изменяется с шагом 50МГц. А выставив 1440,  в реальности получаем 1450. RivaTuner показывает реальные частоты, а не те, что выставлены ползунком в программе.

Для видеокарт ATI RivaTuner, к сожалению, особо не применишь, разве что мониторинг будет работать, остальные функции увы не будут доступны. Однако отчаиваться не стоит, программы для разгона видеокарт были, есть и будут. Например, из известных мне: ATItool, GPU tool и другие.

Существует определённая методика разгона видеокарт, не только мобильных. Разгон видеокарты подразумевает увеличение частоты видеочипа и видеопамяти. С чего начинать разницы нет, но я рекомендую с видеочипа. Выше я уже писал, что видеочип под нагрузкой сильно греется и нагревает текстолит материнской платы вокруг себя вместе со всеми остальными элементами на нем. Почти всегда сюда попадает и видеопамять, т.к. ее ставят рядом с видеочипом. У нее, как и у видеочипа, с ростом температуры уменьшается максимальная стабильная частота. И если первой гнать память, а потом видеочип, то может так получиться, что память, подогретая разогнанным чипом, начнет сбоить на тех частотах, которые раньше держала спокойно. Поэтому начинать лучше с ядра. Впрочем, если система охлаждения у Вас производительная и чип холодный, то можно и с памяти.

Методика довольно проста. Сначала поднимаем частоту на некоторое небольшое число МГц, например 10-50, и тестируем видеокарту на артефакты и нагрев. Артефакты — это искажения изображения, появляющиеся в результате перегрева или переразгона (или перегрева в результате переразгона J). Обычно они представляют собой жёлтые точки или черточки, либо целые полосы. Если артефактов и перегрева нет, то гоним дальше. И так пока не появятся артефакты. Как только они появились, откатываемся назад на последнюю частоту, при которой их не было. Затем уменьшаем шаг до минимально возможного и снова увеличиваем частоту. Когда появились артефакты, откатываемся на последнюю стабильную частоту и начинаем глобальное тестирование продолжительностью не менее получаса. Если в течение этого времени артефактов замечено не было, то Вы нашли максимальную стабильную частоту вашего экземпляра. Здесь нужно учитывать, что каждый чип (будь то видеочип или чип видеопамяти) имеет свой разгонный потенциал, поэтом увидев где-то цифры максимальных стабильных частот для такой же видеокарты, как у вас, не спешите их ставить. Вполне возможно, что Ваш экземпляр не сможет на них стабильно работать, или наоборот, способен на большее.

Тестирование на артефакты удобно проводить мохнатым кубом в ATItool. А нагревать лучше программой FurMark либо аналогичными программами, например, встроенный тест есть в GPUtool и в OCCT GPU. Мониторить температуру и частоту с помощью RivaTuner (в случае с видеокартами NVIDIA разгонять тоже лучше ей или NVIDIA System tools, т.к. бывает, что RivaTuner не успевает за выходом новых видеокарт и некорректно меняет частоты, например в 9600М частоты 3D не выставляются вообще).

После того, как максимальные стабильные частоты найдены, можно сохранить эти настройки в профиль и поставить в автозагрузку, либо создать правило, при котором этот профиль будет автоматически загружаться, например, при запуске игры. Все современные видеокарты обычно сами сбрасывают частоты в режим экономичного 3D либо в 2D, если на них нет нагрузки, так что в простое видеокарта не будет разогнана, соответственно, не будет кушать электричество и сильно греться.

Если достигнутого Вам мало, а температура видеокарты еще не приближается к 90 градусам, то можно прибегнуть к вольтмоду, т.е. поднятию напряжения питания ядра и памяти для достижения более высоких частот.

Вольтмод видеоядра

В отличие от вольтмода настольных видеокарт, где пользователь может спокойно сменить стоковую систему охлаждения на высокопроизводительную СО ценой в пол видеокарты, налепить радиаторов на подсистему питания видеокарты и купить мощный БП, вольтмод мобильных видеокарт проводится скорее для галочки, нежели ради серьезной прибавки в производительности. Даже если опустить проблему нехватки мощности подсистемы питания, все равно остается проблема сильного нагрева, связанного с повышением напряжения. И если от повышения частоты тепловыделение возрастает не сильно, то даже при небольшом повышении вольтажа она практически сразу подскакивает вверх до предела. Поэтому вольтмод мобильной видеокарты я рекомендую проводить, только если у вас

  • топовая видеокарта с большим количеством процессоров и, как следствие, плохим разгонным потенциалом. При этом обязательно наличие грамотной мощной системы охлаждения, т.к. небольшое повышение напряжения в данном случае эффекта почти не даст.
  • урезанная по частотам версия видеокарты. Обычно, если кристалл по определенным причинам не вписался в TDP (тепловой пакет), отведенный для старшей версии видеокарты (к примеру GT), то в нем либо отключают некоторое количество процессоров, либо снижают рабочие частоты, либо и то и другое (и получается версия GS, GTS и т.п. например). Так вот, камень с пониженными частотами (но не с отключенными процессорами) имеет просто немного сниженные максимальные частоты работы, но такое же напряжение питания, что и у старшей версии. Если напряжение немного повысить, то младшая модель сможет работать на частотах старшей, но при этом будет немного (или много, зависит от удачности экземпляра) больше греться.

Во всех остальных случаях вольтмод особого результата не приносит. Вольтмод видеопамяти в ноутбуке делать опасно — часто производители экономят на охлаждении, и память вообще ничем не охлаждается. Повышение напряжения может просто вывести чипы из строя, так как в них нет термодатчиков, соответственно, при перегреве система не отключится.  Однако если охлаждение позволяет, то никто не мешает Вам завольтмодить память, тем более, что у видеокарт с 128 (и менее) битной шиной памяти одноименная подсистема является самым узким местом. Далее речь пойдет о вольтмоде моей видеокарты.

Подопытный ноутбук собран из двух моделей, Samsung R70 и Samsung R560. От R560 ему достались материнская плата и оперативная память, всё остальное от R70. DVD-дисковод и память приобретались отдельно, т.к. в 560-м используется привод с интерфейсом SATA и память DDR3, а в R70 интерфейс IDE и память DDR2. На момент вольтмода видеокарты конфигурация выглядела следующим образом (заводские параметры):

  • Процессор: Intel Core 2 Duo T7300 (200*10) 4МБ кэш L2;
  • Видеокарта: NVIDIA GeForce 9600M GS (4301075800 ядрошейдерыпамять) 256МБ (64*4) GDDR3 128 bit;
  • Оперативная память: 2+1 GB DDR3 800МГц 6-6-6-15;
  • Чипсет: Intel PM45 + ICH9M;
  • Жёсткий диск: Samsung HM500LI 500GB 5400rpm;

Остальные устройства на производительность системы в целом не влияют, поэтому указывать их не будем.

После замены материнской платы в Samsung R70 на плату от R560 первым делом был произведен разгон видеокарты, чтобы определить степень «удачности» экземпляра. Напомню, что в R560 устанавливают распаянную на материнской плате дискретную видеокарту GeForce 9600M GSGT с 256512MB GDDR3 памяти. Частоты у всех модификаций стандартные. У GT — 5001250800 , у GS — 4301075800 для ядрашейдеровпамяти соответственно. Максимальные стабильные частоты у подопытного экземпляра оказались 6451500950. Неплохой разгон по памяти, но далеко не лучший результат по ядру и шйдерам. Конечно, в процентах разгон выглядит внушительно, особенно удачно удалось поднять частоту шейдерного домена — на целых 39.5%. Однако учитывая то, что частоты видеокарты хорошо занижены (GS версия), процент этот эффектно только выглядит. При взгляде на температуру видеокарты под нагрузкой первая мысль, которая пришла мне в голову — вольтмод… Однако в то время я не очень ясно представлял себе, как его делать даже на обычных настольных картах, не то что ноутбучных. К тому же, тогда эта затея казалась мне пустой тратой времени, как и Вам сейчас. Однако сейчас, когда уже полноутбука переделано и перепаяно, очередь дошла и до вольтмода видеокарты.

Теория

Если кто-то ещё не понял, то следующим шагом я собираюсь поднимать напряжение на видеочипе. Существует множество материалов о вольтмоде, его видах и способах реализации. Все это добро в одну статью не уместится, поэтому кратко опишу самый распространённый вольтмод обычного стабилизатора питания, без дополнительных сложностей. Перед тем, как решиться делать что-то со своим ноутбуком, советую все же прочитать про вольтмод соответствующие статьи.

Для описываемого вольтмода стоит сказать, что каждая микросхема стабилизации питания имеет вывод обратной связи, по которому микросхема определяет уровень подаваемого напряжения. Если напряжение проседает ниже заданного уровня, то микросхема автоматически его повышает, и наоборот. Микросхема универсальная, а напряжение в каждой схеме нужно разное, поэтому для подстройки выходного напряжения вывод обратной связи заземляют через сопротивления различных номиналов. Другими словами, изменяя номинал сопротивления, можно подстраивать выходное напряжение. Только тут стоит помнить, что номиналы всех элементов, составляющих «обвязку» самой микросхемы, рассчитываются исходя из целевого напряжения. Т.е. в идеале при изменении регулировочного сопротивления нужно пересчитывать всю «обвязку», если этого не делать, то компоненты будут испытывать нагрузку, отличную от номинальной. Очевидно, что перепаивать всю обвязку мы не будем, поэтому напряжение изменять нужно в разумных пределах. В случае с ноутбуком беспокоиться об этой проблеме вряд ли придётся из-за слабой системы охлаждения, она попросту не даст сильно поднять напряжение.

Для того чтобы увеличить выходное напряжение, нужно заставить стабилизатор думать что оно просело, и он его подкорректирует. Для этого нужно уменьшать номинал резистора соединяющего вывод обратной связи с землёй. Существует два способа это сделать:

  • впаять вместо штатного резистора свой подстроечный. Тут образовывается ряд неудобств. Во-первых, чтобы знать номинал впаиваемого резистора, нужно сначала отпаять исходный и замерить его сопротивление, т.к. в схеме его сопротивление будет показываться неверно. Во-вторых, с 99% вероятностью нужный резистор выполнен в SMD форм-факторе, т.е. размером с крупную песчинку, и если Вы все-таки его отпаяли, то в случае чего впаять его обратно будет очень сложно.
  • подпаять в параллель к исходному резистору резистор номиналом большим на порядок, и таким образом уменьшить общее сопротивление участка цепи. Плюсы очевидны — не надо ничего выпаивать, достаточно замерить сопротивление прямо в схеме и, основываясь на полученных данных, подобрать подстроечный резистор.

Понятно, что второй вариант проще, однако не во всех случаях он реализуем, например при вольтмоде памяти подойдет только первый вариант. Вообще, то, какой вариант выбрать, зависит от самой микросхемы и схемы ее подключения.

В первую очередь нужно найти на плате сам стабилизатор, ответственный за напряжение видеочипа. Ранее мне в руки попал сервис-мануал от Samsung R560 со схемами, поэтому метод «научного тыка» использовать  не пришлось — достаточно было открыть мануал и найти микросхему ответственную за питание GPU:

Даташит на неё на всякий случай был найден, но не пригодился, потому как все подключения указаны в мануале на ноутбук. Это оказался обычный импульсный стабилизатор без каких-либо наворотов, которые могли бы создать осложнения. И весь вольтмод заключается в уменьшении сопротивления между выводом обратной связи FB (Feedback) и землей. Есть и другие варианты, о них можно прочитать в статьях про сам вольтмод, но самым простым (хоть и не самым безопасным) является этот. На схеме в мануале видно, что нужно уменьшить сопротивление резистора R773 номиналом 10 кОм. Его-то и надо искать на плате, и затем, подпаивая к нему параллельное сопротивление, уменьшать общее сопротивление, тем самым увеличивая напряжение видеочипа.

Имея мануал на ноутбук, я уже знаю название микросхемы и её номер, т.е. мне её даже искать не надо. Если мануала на ноутбук нет, то выбрать нужный стабилизатор на плате ноутбука (если видеокарта распаяна на плате) задача не из простых, таких стабилизаторов там может оказаться не меньше десятка. Но при правильном подходе вычислить нужный можно довольно быстро. В первую очередь нужно выписать названия всех микросхем в радиусе ~10см от видеочипа с обеих сторон платы. Затем вбивать в Google данные каждой по очереди, выясняя, какие из них являются стабилизаторамипреобразователями питания. Когда ненужные отброшены, включаем ноутбук в разобранном состоянии и измеряем напряжение на конденсаторах (обычно маленькие светло-коричневые прямоугольники) которые соединены с выводом Vout отобранных микросхем. А намерить нужно стандартное для Вашей видеокарты напряжение питания ядра. Например, для моей 9600M GS это 0.9-1.1В. Если после этого у нас всё ещё осталось несколько кандидатов, то можно использовать такую особенность мобильных видеокарт как энергосберегающий режим — сначала измерить выходное напряжение на выводе Vout (либо на примыкающих к нему конденсаторах) каждого стабилизатора в полноценном 3D, а затем включить энергосбережение и измерить снова. Нужный стабилизатор тот, на котором напряжение уменьшится. Если планируется подпаивать свое сопротивление в параллель, то резистор искать не нужно, — дополнительный резистор просто паяется между выводом обратной связи и массой. А если резистор планируется паять вместо исходного, то выручит даташит на стабилизатор, в нем обычно указана типовая схема подключения и резисторы, номинал которых нужно изменять для регулировки уровня выходного напряжения.

Практика

Хочу напомнить, что любые манипуляции со своей материнской платой и иными компонентами вы делаете на свой страх и риск. Ноутбук в результате таких манипуляций может выйти из строя. Я заранее отказываюсь от ответственности за любой вред, моральный или материальный, который может быть нанесен в результате этой статьи, все действия со своим железом вы производите на свой страх и риск.

В моём случае микросхема выглядит так:

Вот увеличенный фрагмент платы:

В мануале указано, что вывод FB — это девятый пин микросхемы, а выходное напряжение Vout — десятый. Зелёными стрелками показаны точки замера напряжения, которое обязательно нужно замерить до вольтмода, чтобы знать, с чем сравнивать. Красной стрелкой показан резистор, с одной стороны подсоединённый напрямую к микросхеме, с другой на землю (т.е. тот, сопротивление которого надо уменьшить). Зелёным прямоугольником показано удобное место для пайки одного из выводов подпаиваемого в параллель резистора, куда я и паял собственно. Второй вывод резистора припаивается на землю в любом удобном месте. Во избежание наводок и помех не стоит делать провода сильно длинными.

Теперь подробнее об этом резисторе. Искать его нужно для замера точного сопротивления, чтобы знать, какого номинала брать подпаиваемое сопротивление. Как видно на фото, резисторы у меня на плате не подписаны, мануалом воспользоваться не удалось. Заранее зная, что его номинал 10 кОм (из мануала), я стал мерить все резисторы, находящиеся рядом. Зря, 10 кОм резистор я не нашел. Объясняется это тем, что резистор включен в схему так что замеряя сопротивление на его концах, замеряешь сопротивление всего, что с ним  включено в параллель. Сервис-мануала, как правило, нет, но без даташита на микросхему не обойтись в любом случае — чтобы найти злополучный резистор, нужно знать номер ноги FB. Зная её номер, этот резистор легко найти с помощью тестера. Конечно, можно попробовать найти его методом «научного тыка», но если таких резисторов окажется несколько, есть риск вывести из строя что-нибудь.

Итак, резистор найден, сопротивление замерено и равно 1653 Ом. А получить нужно немного меньше. Под рукой оказался переменный резистор только на 20 кОм, его-то я и припаивал параллельно, т.е. одним концом на вывод микросхемы, а вторым на землю. Вообще советую использовать многооборотный подстроечный резистор для более точной настройки сопротивления, следовательно, и напряжения тоже. Номинал брать в 10-20 раз больше, чем исходное сопротивление. При 20 кОм, припаянных параллельно, результирующее сопротивление равнялось 1525 Ом, что вполне приемлемо для стартовой цифры. Уменьшая подпаянное сопротивление, уменьшаем результирующее, следовательно, напряжение растёт. Вот так это выглядит (пайку просьба не хаять, детали очень мелкие):

Красной стрелкой показано место пайки к дорожке, соединённой с выводом микросхемы, зелёной — место, где я взял массу.

Тесты

Температура видеокарты и так близка к предельной, поэтому я решил, понемногу поднимая напряжение, выяснить, насколько поднимется планка разгона, и будет ли это целесообразным. Для нагрева и проверки на артефакты я использовал AtiTool 0.27b4.

В таблице ниже приведены результаты экспериментов:

Volt, ВЧастота (ядрошейдеры), МГцt, °CRобщ, Ом
1,2 (default)6451500~751653
1,2686851600~811525
1,3076851600~871450
1,3326851600~901405
1,3577001650~931365

В таблице видно, что поднятие напряжение до 1,268 В  повысило потолок разгона при небольшом увеличении нагрева. На этом всё хорошее закончилось. Эта видеокарта позволяет изменять частоту с шагом 15 и 50 МГц для ядра и шейдеров соответственно. Поэтому дальнейшее повышение напряжения потолок разгона не поднимало, вплоть до 1,357, но при таком напряжении видеокарта перегревается. В итоге результат таков:

GPU-Z до вольтмода

и после:

3Dmark 06 довольтмода:

3Dmark 06 после вольтмода:

Заключение

Многие скажут, что +200 баллов в тесте — это несерьезно, мол, зря только 6 градусов температуры потеряно. И я, наверное, с этим соглашусь. Однако подопытный ноутбук имеет небольшой корпус и сильно греется, так что на нем просто невозможно существенно поднять производительность. Если бы система охлаждения была раздельной для процессора и видеокарты, то результат мог бы быть лучше. С другой стороны, какой-никакой, а прирост. Поэтому я считаю, что работа проделана не зря, и она поможет людям, желающим выжать из своего портативного железа максимум.

www.ixbt.com

3 способа как разогнать видеокарту на ноутбуке – ОнлиНоутбук.РУ

Пожалуй, каждый человек желает получить максимальную производительность от своего ноутбука. Это может пригодиться, например, в современных играх, системные требования для которых с каждым разом становятся все выше и выше. Зачастую устройство, еще недавно справлявшееся абсолютно с любым продуктом гейминга, просит понизить настройки графики или вовсе не рекомендует игру для данного ноутбука. Поэтому, сегодня я расскажу про 3 способа как правильно разогнать видеокарту на ноутбуке, без её вреда.

«Подводные камни» разгона видеокарты

Данный процесс не является сложным, однако нельзя обойти вниманием все «плюсы» и «минусы». При разгоне видеокарты важно обратить внимание на ее температуру. Лучше не испытывать судьбу, если этот показатель превышает 90 градусов по Цельсию. Впрочем, некоторые видеокарты способны работать и при температуре в 100 градусов. Главной проблемой здесь является то, что при повышенной температуре видеочип начинает понижать тактовую частоту, из-за чего производительность застывает на одном уровне.

Насколько увеличится мощность после разгона?

Ответить на этот вопрос точно, сложно, так как всё индивидуально, но если говорить усреднёно то это от 5 до 15% производительности. Поэтому следует просто учитывать несколько моментов, влияющих на потенциальный разгон видеокарты и не думайте что вы со своего “старичка” сделаете “мощного зверя”.

  • Видеокарты малоизвестных производителей разгоняются намного менее охотно. Максимальный прирост в таком случае не превышает 10%;
  • Флагманские модели видеокарт на данный момент вроде Nvidia GeForce GTX 2080 также не способны продемонстрировать существенный прирост. Пользователь сможет добиться увеличения производительности лишь на 5-15% и то далеко не всегда;
  • Лучше всего разгоняются видеокарты из среднего ценового сегмента и выпущенные несколько лет назад. Тут показатель прироста может достигать и 30%, но это редкость, так как нужно будет менять систему охлаждения и термопасту.

Что нужно сделать перед разгоном?

Перед тем, как пытаться увеличить производительность видеокарты, нужно произвести несколько действий, оптимизирующих работу ноутбука.

  1. Удалите лишние файлы из памяти устройства;
  2. Выключите программы, которыми не пользуетесь в данный момент;
  3. Обновите все драйвера, особенно ПО видеокарты до последней версии;
  4. Произведите проверку ноутбука на наличие вирусов и удалите их при необходимости.

Если Вы произвели все обозначенные действия, то смело можете переходить непосредственно к разгону видеокарты.

Разгон видеокарты при помощи возможностей Windows

Этот способ наиболее простой и безопасный, однако его продуктивность не всегда способна полностью удовлетворить пользователя. Оно и понятно, ведь здесь производительность видеокарты увеличивается при помощи предустановленных средств системы. Однако мимо него проходить нельзя, и стоит рассматривать его как основной.

  1. Откройте меню «Пуск»;
  2. Перейдите в раздел «Система»;
  3. Нажмите на «Питание и спящий режим»;
  4. Выберете «Дополнительные параметры питания»;
  5. Разверните меню «Показать дополнительные схемы»;
  6. В появившемся окне включите режим «Высокая производительность», поставив напротив него маркер.

Так Вы увеличите производительность своего ноутбука, а также мощность видеокарты. Теперь она должна работать на «полную катушку».

Разгон видеокарты через BIOS

Если рассмотренный выше способ не смог существенно увеличить производительность видеокарты, то стоит перейти к иным вариантам. Основным является разгон через меню BIOS, но сразу скажу во многих ноутбуках такой возможности просто нет. Она отключена производителем от неумелых рук и тех инструкций которые ниже может просто не быть в вашем БИОСе.

  1. Во время включения ноутбука нажмите и удерживайте кнопку Esc, F2, F6, F8, F12, Delete зависимости от производителя ноутбука, чтобы войти в BIOS;
  2. Откройте вкладку «Advanced»;

  1. В «CPU Settings» нажмите на «Overclocking Mode»;
  2. Далее будет предложено несколько вариантов разгона в процентном соотношении или в виде множителя. Выберете необходимый показатель;
  3. Сохраните изменения, нажав кнопку F10;
  4. Перезагрузите ноутбук.

Разгон видеокарты с помощью MSI Afterburner

Если предыдущие два варианта показались сложными, или просто первый не принес должного результата, а второй кажется сложным, то можно воспользоваться программами, которые скачиваются из интернета. Их существует большое количество, а мы рассмотрим вариант разгона при помощи утилиты MSI Afterburner. Её поддерживает подавляющее большинство пользователей, знакомых с темой материала, а сама программа положительно влияет на производительность практически всех видеокарт. Необходимо лишь четко следовать наших инструкции или посмотреть видео.

  1. Скачайте и установите программу;
  2. После запуска утилиты можете поменять язык на русский. Для этого в разделе «Settings» выберете вкладку «User Interface» и активируйте родной язык;
  3. В меню «Настройки» укажите название видеокарты, которую желаете разогнать в графе «Выбор ведущего графического процессора». Если ноутбук обладает двумя видеокартами (дискретной и встроенной), то поставьте галочку напротив опции «Синхронизировать настройки одинаковых ГП»;
  4. Во вкладке «Основные» поставьте галочку напротив «Разблокировать мониторинг напряжения»;
  5. Далее активируйте пункт «Включить программный пользовательский авторежим» во вкладке «Кулер»;
  6. Выставите скорость работы вентилятора на 85-90%;
  7. Закройте настройки и обратите внимание на основное меню программы;
  8. Увеличьте параметры ядра на 10-20 МГц в пункте «Core Clock», передвинув вправо ползунок, и нажмите кнопку «Применить»;
  9. Передвиньте ползунок в пункте «Memory Clock» также на 10-20 МГц и примените настройки;
  10. Закройте программу и проверьте производительность видеокарты какой-нибудь мощной игре. Если температура не поднимается выше нормы, то можете еще на несколько пунктов увеличить показатели тактовой частоты.

Заключение

Разгон видеокарты хоть и не является очень сложным процессом, но к нему необходимо подходить с должной ответственностью. Если Вы решите принудительно увеличить производительность видеокарты, то обязательно следите за ее температурой. Слишком высокий показатель способен вывести ее из строя на короткий промежуток времени или навсегда. Поэтому взвесьте все «за» и «против», после чего решите, стоит ли игра свеч.

Источник: onlynotebook.ru

onlynotebook.ru

для игр, увеличить память и мощность

Современные компьютерные игры и приложения настолько требовательны к характеристикам видеокарты, что далеко не каждый ПК может их «потянуть». Что уж говорить про ноутбуки. Ведь графические адаптеры большинства лэптопов заметно уступают в производительности видеочипам, которые устанавливаются на ПК. В результате чего даже на относительно недавно купленном ноутбуке зачастую не получается запустить свежие игры либо комфортно играть в них из-за лагов, подвисаний и пр. Что же делать? Постоянно обновлять железо? Нет, так как это довольно затратно. Как вариант, можно попробовать разогнать видеокарту на ноутбуке.

Как лучше всего разогнать видеокарту на ноутбуке?

Что же понимается под разгоном видеокарты? Всё просто. Это процедура повышения её производительности. Как правило, она включает увеличение частот, на которых работает графическое ядро и память. При этом для разгона видеокарт рекомендуется использовать специальные утилиты. В настоящий момент самыми популярными являются:

  • GPU Tweak
  • Afterburner
  • ThunderMaster
  • PowerStrip и пр.

При этом не забудьте заранее подготовить видеокарту для оверклока. Что именно нужно сделать?

  • Проверьте систему охлаждения, а также убедитесь в достаточной мощности блока питания.
  • Обновите BIOS материнки до последней версии.
  • Загрузите свежий софт для видеокарты. Желательно, чтобы это была последняя стабильная версия драйверов и DirectX.

Для справки! Учтите, что разгон интегрированной видеокарты (к примеру, той же Intel HD Graphics) не всегда эффективен. Зачастую система просто не принимает новые параметры чипа. Также нередко у встроенного адаптера настолько низкая производительность, что разгон не приносит никаких положительных результатов.

Разгон видеокарты ноутбука при помощи MSI Afterburner

Многие опытные пользователи рекомендуют прогу под названием Afterburner. С её помощью можно легко и просто разогнать видеокарты от MSI, AMD, Nvidia и пр. Стоит лишь придерживаться следующей схемы действий:

  1. Загружаем саму утилиту Afterburner. Можно с официального сайта разработчика либо со стороннего ресурса. Как вам удобнее.
  2. Устанавливаем и запускаем программу.
  3. Для удобства меняем язык интерфейса. Для этого открываем подраздел «Settings» (в зависимости от версии кнопка перехода может быть либо подписана, либо иметь значок шестерёнки) и заходим во вкладку «User Interface». Выбираем наш родной язык. Если меню русифицировано, то этот пункт пропускаем.
  4. В «Настройках» в графе «Выбор ведущего графического процессора» указываем видеокарту для разгона. При этом не забывайте, что многие современные ноутбуки (hp, acer, asus, lenovo, samsung и пр.) оснащаются сразу двумя адаптерами – встроенным и дискретным. Поэтому если на вашем устройстве две видюхи, то активируйте опцию «Синхронизировать настройки одинаковых ГП», поставив галочку.
  5. Здесь во вкладке «Основные» выставляем галочку напротив «Разблокировать мониторинг напряжения». Переходим во вкладку «Кулер» в верхней части окна и активируем «Включить программный пользовательский авторежим». Это нужно для того, чтобы самостоятельно выставить нужную скорость кулера при определённой температуре видеокарты. Для этого используем специальный график, где просто передвигаем точки. Только не выставляйте скорость вентилятора на 100% – он может выйти из строя. Достаточно 85-90%.
  6. Закрываем «Настройки». Обращаемся к специальным «ползункам» в основном меню приложения. Не трогаем пункт Fan Speed и оставляем значение на Auto. А вот параметр Core Clock (частота ядра) увеличиваем на 10-20 МГц. После чего жмём «Применить». Это кнопка в виде значка-галочки. В каких-то версиях Afterburner она может называться «Apply».
  7. Теперь нужно увеличить частоту памяти видеокарты. Так что передвигаем и ползунок Memory Clock на 10-20 МГц. Кликаем «Применить».

Естественно, нужно проверить, удалось ли разогнать видеокарты. Можно зайти в мощную игрушку и «поюзать» её 1-1,5 часа. При этом периодически обращая внимание на температуру графического адаптера. Если она держится в пределах нормы, не наблюдается никаких искажений (цветные мельтешения), аномалий в виде полос и точек на экране, то снова передвигаем ползунки на 10-20 МГц.

И так повторяем процедуру. До тех пор, пока не доведёте видеокарту до предела своих возможностей. Затем необходимо вернуться в Afterburner и снизить все значения, которые вы изменяли, на 10 МГц, сохраниться и выйти.

При этом внимательно следите за температурой видеочипа! Если она превысила 90 градусов, то дальше разгонять графический адаптер нельзя! Даже если не наблюдается никаких признаков троттлинга.

Проверить способность видеокарты работать при заданной частоте можно не только через «юзание» мощных игр, но и через запуск утилит MSI Kombustor, 3DMark06 или FurMark. На наш взгляд, проще всего пользоваться 3DMark06. Всё что нужно:

  1. Запускаем прогу.
  2. Жмём на кнопку Run 3DMark. Ожидаем окончания тестирования.
  3. Если в это время дисплей ноутбука выдал синий экран, завис или отключился либо появлялись различные дефекты графики (линии, квадратики, полосы и др.), то частоты следует понизить.
  4. Тестирование прошло без искажений и зависаний? Тогда снова с помощью программы Afterburner повышаем частоты видеокарты (ядра и графической памяти) на 10-20 МГц.
  5. После чего опять проводим стресс-тест через Run 3DMark. И так пока не «нащупаете» предел производительности видеокарты.

На что стоит обратить внимание?

Опасен ли разгон (некоторые называют его «оверклокинг») видеокарты? Скажем так, эта процедура действительно ответственная, в меру сложная. Однако если всё делать правильно, то можно не переживать, что видеочип сгорит или выйдет из строя. Главное следить за температурой видеокарты. Ведь в ноутбуках она часто и так близка к предельно допустимой.

Оптимально, чтобы этот показатель не превышал 90 градусов. При этом у ряда современных игровых видеокарт рабочая температура может и вовсе составлять 100 градусов. Это нормально. Только если у вас видеоадаптер и без нагрузок нагревается до такого состояния, то о разгоне лучше забыть вовсе!

Кроме того, особенно внимательными нужно быть с интегрированными чипами. Они в основном имеют пассивную систему охлаждению. То есть оснащаются единой с процессором на ноутбуке тепловой трубкой. Либо охлаждаются одним вентилятором. В итоге при разгоне такая видеокарта подогревает сам CPU, который при температуре в 90-95 °С начинает уходить в троттлинг, сбрасывая рабочие частоты. Естественно, в таком случае страдает производительность устройства.

Насколько эффективен разгон видеокарты на ноутбуке?

Какой прирост в мощности можно получить при разгоне видеокарты лэптопа? Точно сказать сложно. Многое зависит от самого видеочипа и его системы охлаждения:

  • Хуже всего «разгоняются» видюхи от малоизвестных китайских производителей. Если удастся получить прирост в 10%, то это уже хорошо.
  • Также практически невозможно добиться улучшений на флагманских моделях в линейки. Например, Nvidia GeForce GTX 1080, Radeon R9 Fury X и пр. В среднем при разгоне таких карт можно выйти максимум на 5-10% прироста частот.
  • Лучше всего разгоняются младшие и средние модели видеокарт в линейке (AMD FX-8300, AMD FX-8350, Intel Core i5-6400 и т. д.). Потенциал для повышения частот у них неплохой. Так что многие умельцы улучшают их производительность на 40-50 %.

Что касается встроенных видеокарт, то улучшить их производительность можно другим путём. Например, увеличив объём оперативной памяти. Дополнительная планка ОЗУ позволит избежать перераспределения памяти между процессором и видеокартой в ущерб последней.

Также если на устройстве интегрированная видеокарта, то можно попробовать разогнать её через настройки BIOS материнской платы. Это несложно. Трудности могут возникнуть лишь из-за того, что на разных ноутбуках отличаются своим интерфейсом меню биоса. Поэтому не всегда удаётся с первого раза найти необходимый раздел.

Кроме того, разогнать можно не только видеокарту. Но и остальные важные комплектующие ноутбука. Тот же процессор. Делается это по-разному. Например, чтобы разогнать ноутбук hp (многие устройства этого производителя «славятся» своей медлительностью):

  1. Заходим в меню биоса.
  2. Во вкладке «Advanced» находим пункт под названием «Overclocking Mode» (в CPU Settings).
  3. Обращаем внимание на доступные варианты разгона. Обычно они отражаются в процентном соотношении или множителе (4х, 5х). Выбираем один из них.
  4. Сохраняем и перезагружаем устройство.

www.orgtech.info

Графический ускоритель Alienware

Подробности

Часто задаваемые вопросы по ГРАФИЧЕСКОМУ УСКОРИТЕЛЮ ALIENWARE Общая информация
Что представляет собой графический ускоритель Alienware? Как правило, пользователи ноутбуков вынуждены ограничиваться встроенной графической платой, которую непросто модернизировать. В новой серии тонких игровых ноутбуков Alienware появился теперь новый порт для графического ускорителя Alienware. Этот порт подключается к внешнему устройству и дает пользователю ноутбука Alienware 13, 15 или 17 возможность добавить новую стандартную промышленную графическую плату мощностью до 375 Вт.
Каковы функции графического ускорителя Alienware? При подключении к новому ноутбуку Alienware 13, 15 или 17 графическая плата, устанавливаемая пользователем в графический ускоритель Alienware, становится главным графическим процессором, используемым ноутбуком. Эта внешняя плата обеспечивает работу ЖК-дисплея и подключается к портам Mini Display и HDMI точно так же, как если бы она была физически установлена на материнской плате ноутбука. Кроме того, пользователи могут подсоединять дисплеи непосредственно к графической карте, установленной в ускорителе. Хотя эти новые ноутбуки уже оснащены последним поколением высокопроизводительных мобильных графических плат AMD и NVIDIA, графический ускоритель Alienware дает клиентам, которые приобрели новый ноутбук Alienware, возможность пользоваться системой обработкой графики, производительность которой находится на уровне настоящего настольного компьютера. Такое приобретение готово к модернизации, так как позволяет им в будущем добавлять графические платы нового поколения для настольных ПК.
Что такое порт для графического ускорителя Alienware? Порт для графического ускорителя Alienware задействует немультиплексные фильтруемые каналы PCI Express третьего поколения X4 для необрабатываемых данных при подключении к ноутбукам Alienware 15 и 17, то есть, прямое подключение PCI Express к графической плате настольного ПК. Этот тип подключения — тот же, что и у настольных ПК: прямое подключение PCI Express. Почему не применяется Thunderbolt? Клиенты Alienware ожидают максимально возможной производительности от любого продукта с логотипом Alienware. Порт графического ускорителя Alienware обеспечивает самую высокую производительность среди имеющихся вариантов подключения внешней видеокарты. Технология Intel Thunderbolt дает множество преимуществ, а поддерживающие ее внешние устройства образуют растущую экосистему. При этом все они имеют одинаковую пропускную способность.
NVIDIA SLI, AMD Crossfire и 4K
Поддерживает ли ноутбук Alienware в сочетании с графическим ускорителем Alienware интерфейс NVIDIA SLI, в том числе графический адаптер NVIDIA?
Нет. При использовании графического ускорителя Alienware внутренний графический процессор отключен. Тем не менее, технология NVIDIA Optimus продолжает работать во встроенной графической плате Intel и в графическом процессоре настольного ПК в составе графического ускорителя.
Можно ли играть в игры с разрешением 4K и частотой 60 Гц на моем ноутбуке Alienware? Да. Для этого может потребоваться графический ускоритель Alienware (графическая плата высшего класса с поддержкой игр в формате 4K при частоте 60 Гц) и дисплей с поддержкой разрешения 4K при 60 Гц. Ваш дисплей с поддержкой 4K должен быть подключен непосредственно к графическому ускорителю Alienware.
Каково максимальное разрешение графического ускорителя Alienware? Это определяется графической платой, устанавливаемой в графическом усилителе Alienware.
Будет ли поддерживать графический ускоритель Alienware графические платы нового поколения NVIDIA и AMD? Да.
Сколько дисплеев можно использовать, когда к моему ноутбуку подключен графический ускоритель Alienware? Их общее число зависит от графической карты графического ускорителя Alienware. Оно представляет собой сумму количества дисплеев, поддерживаемых графической картой усилителя, и трех дисплеев, исходно поддерживаемых вашим ноутбуком Alienware.
Могут ли на ноутбуке Alienware в сочетании с графическим ускорителем Alienware работать функции NVIDIA Surround и AMD Eyefinity? Эти функциональные возможности включены, если графическая плата в графическом ускорителе Alienware их поддерживает. Если они поддерживаются, то подходящие дисплеи подключаются напрямую к графическому ускорителю Alienware. Ознакомьтесь с рекомендациями NVIDIA или AMD по этим технологиям в конфигурациях с одним графическим процессором. . Какие графические процессоры для настольных компьютеров поддерживаются графическим ускорителем Alienware? В таблице ниже содержится список плат, поддерживаемых графическим ускорителем Alienware (с 8 апреля 2015 г). Также будут поддерживаться все новые отдельные графические платы, мощность которых не превышает 375 Вт, а длина — 10,5 дюйма, занимающие не более двух разъемов. Устаревшие графические платы, которые не перечислены в этом списке, не поддерживаются.

Где можно найти драйверы для графической платы, которые я планирую установить в своем графическом ускорителе Alienware? Вы можете загрузить драйверы для карт, перечисленных на этой странице, и для будущих поколений карт, с веб-сайта Dell.com или с веб-сайта поставщика графической карты (NVIDIA.com или AMD.com).
Пользователи AMD должны применять версию драйвера Omega для графического ускорителя Alienware. http://support.amd.com/en-us/kb-articles/Pages/GPU-5003.aspx (на английском языке)
Пользователи NVIDIA должны применять версию 344.60 или более позднюю версию драйвера для мобильных ПК. Можно рассмотреть два сценария.
1. У пользователя не установлен драйвер NVIDIA для настольных ПК.

А. Просто обновите драйвер NVIDIA для мобильных ПК при появлении запроса, установив последнюю версию драйвера NVIDIA для мобильных ПК.

2. Пользователь установил драйвер NVIDIA для настольных ПК.
А. Выключите питание ноутбука Alienware и отключите графический ускоритель Alienware.

Б. Загрузите ноутбук Alienware без подключения графического ускорителя Alienware и удалите все драйверы NVIDIA.

В. Загрузите и установите последнюю версию драйвера NVIDIA для продаваемых в розницу ноутбуков. Драйвер графической платы NVIDIA для ноутбуков, имеющихся в розничной продаже, подходит для всех плат GTX660 и более поздних версий, которые предназначены для настольных ПК и могут поддерживаться графическим ускорителем Alienware.
В настоящее время можно подключать и использовать графический ускоритель Alienware без переустановки каких-либо драйверов для настольного компьютера, имея все функциональные возможности вашей платы NVIDIA для настольных ПК. Дискретные графические карты NVIDIA, установленные в ускорителе, должны использовать тот же драйвер для мобильных ПК, что установлен в ноутбуке Alienware. Этого драйвера должно быть достаточно для использования обоих графических процессоров NVIDIA без каких-либо проблем.

dellbox.ru

Как разогнать видеокарту на ПК и ноутбуке: примеры, тесты

В наше время персональные игровые компьютеры пользуются огромной популярностью среди геймеров со всего мира. Основными компонентами ПК, которые должны соответствовать системным требованиям той или иной игры, являются — процессор, видеокарта и оперативная память. Главным же компонентом для игрового приложения является видеокарта, так как от нее зависят графические настройки игры.

Из года в год разработчики выпускают новые игры, у которых системные требования становятся все выше и выше. К примеру, возьмем новый DOOM, который является уже четвертой игрой серии. Если сравнивать новый DOOM с третей частью серии, то можно увидеть ощутимую разницу. В DOOM 3 требовались такие древние видеокарты, как ATI RADEON 9800 и NVIDIA GeForce 6800, память которых не превышала 256 мегабайт. Для нового же DOOM разработчики сделали требования, в которых графическими адаптерами для игры на минимальных настройках графики являются такие видеокарты, как NVIDIA GTX 670 и AMD Radeon HD 7870.

Если у вас видеокарта предыдущего поколения и она не подпадает под минимальные системные требования для новой игры, то выходом из этой ситуации может быть замена старой видеокарты на новую или же разгон старой.

Множество геймеров продлевают жизненный цикл своей видеокарты путем разгона. Поэтому в этом материале мы рассмотрим разгон различных видеокарт от компаний AMD и NVIDIA. После знакомства с материалом наши читатели поймут, как можно легко осуществить разгон графического ускорителя, тем самым обеспечив комфортный уровень производительности в современных играх.

Выбираем утилиту для разгона видеокарт от AMD и NVIDIA

Для разгона видеокарт производители используют свои фирменные утилиты. Покупая видеокарту в комплекте с ней, вы можете обнаружить диск с драйверами и утилитой для разгона. Лучше всего использовать новые драйвера и утилиты для разгона своей видеокарты, которые вы можете найти на сайте производителя. Используя новые утилиты для разгона и драйвер, вы сможете добиться лучшего результата разгона и оптимальной производительности в играх. На данный момент основными производителями видеокарт AMD и NVIDIA используются такие утилиты для разгона:

  • ASUS — Утилита GPU Tweak;
  • GIGABYTE — Утилита OC GURU II;
  • MSI — Утилита MSI Afterburner;
  • Palit — Утилита ThunderMaster;
  • Sapphire — Утилита TriXX.

Особенно интересной утилитой из списка выше является Afterburner от компании MSI. С помощью Afterburner можно легко разогнать видеокарты как от MSI, так и от других производителей, а также узнать их характеристики. Столь высокая совместимость утилиты с различными видеоадаптерами объясняется тем, что она создана на базе программы для разгона RivaTuner. Исходя из такого функционала MSI Afterburner, в следующей главе мы опишем процесс разгона для видеокарт начального, среднего и верхнего уровня.

Разгон с помощью Afterburner видеокарт различного уровня

Для этих примеров мы рассмотрим такие видеокарты:

  • GeForce 9500 GT;
  • GeForce 210;
  • GeForce GT 220;
  • GeForce GT 430;
  • GeForce GTS 450;
  • GeForce GTX 550 Ti;
  • AMD Radeon R9 Fury.

Первым делом для разгона видеокарт нам нужно загрузить утилиту MSI Afterburner. Скачать эту программу можно на ее официальном сайте https://gaming.msi.com. Установка программы довольно проста и сводится к нескольким нажатиям кнопки Next. В первом примере рассмотрим графический адаптер NVIDIA GeForce 9500 GT от компании GIGABYTE. На рисунке ниже изображено окно утилиты MSI Afterburner, в котором показаны частота графического процессора NVIDIA GeForce 9500 GT и его памяти.

Из изображения видно, что базовая частота графического чипа GF 9500 GT в графе Core Clock составляет 550 МГц и частота памяти в графе Memory Clock составляет 333 МГц.  Теперь передвинем ползунки в блоках Core Clock и Memory Clock на 680 МГц и 429 МГц.

После этих действий мы для разгона GF 9500 GT нажмем кнопку Apply. После нажатия кнопки, GeForce 9500 GT будет разогнанной. Теперь осталось проверить GF 9500 GT на стабильность при работе частоты GPU и памяти на выбранной нами частоте. Для этого можно воспользоваться стресс тестом, встроенным в программный пакет SiSoftware Sandra. Также можно воспользоваться другими утилитами для стресса теста GF 9500 GT.

Если при стресс тесте GF 9500 GT будет выдавать артефакты на экране монитора или драйвер перестанет отвечать — это означает, что выбранная частота не подходит для вашей GF 9500 GT.

В нашем случае работа видеокарты была стабильна, и мы протестировали ее в Crysis, где она выдала стабильные 30 fps при средних настройках качества. Результат 30 fps для этой видеокарты в Crysis довольно хорош, так как без разгона игра работает при 20 fps в среднем.

Чтобы ваш видеоадаптер функционировал правильно, всегда проводите тест на его стабильность.

Следующим графическим ускорителем мы рассмотрим GeForce 210. Видеокарта GF 210 является одним из самых бюджетных решений от компании NVIDIA. С помощью GeForce 210 вам не удастся поиграть нормально даже в игрушки 2009 года. GF 210 предназначен для просмотра видео в высоком разрешении с помощью аппаратного ускорения, а также для запуска нетребовательных новых игр или старых хитов типа Call of Duty 2. Сердцем GeForce 210 является графический процессор GT218. Интересным моментом является то, что этот 40-нм чип позволяет разогнать видеокарту вплоть до 20 процентов. В нашем случае, рассмотренная ASUS GeForce 210 разогналась с родной частоты 589 МГц до 625 МГц.

Также из рисунков видно, что частоту памяти GF 210 удалось разогнать до 645 МГц. Такой результат разгона GeForce 210 набрал в Futuremark 3DMark Vantage 1340 бала в отличие от результата в 1130 балов на стандартной частоте.

Рассмотрев GeForce 210, теперь мы рассмотрим ее старшего брата GeForce GT 220. Видеоадаптер GeForce GT 220 построен на графическом 40-нм ядре GT216, которое в некоторых моделях вполне неплохо разгоняется. Для примера возьмем видеокарту Palit GeForce GT 220 Sonic. На компьютере, с установленной Palit GeForce GT 220 Sonic, запустим Afterburner и увидим, что стоковые частоты составляют 625 МГц для ядра.

Теперь попробуем разогнать Palit GeForce GT 220 Sonic. Для этого на Palit GeForce GT 220 Sonic поднимем частоту ядра до 699 МГц и сохраним наш результат. Видеокарта Palit GeForce GT 220 Sonic выдержала стресс тест на выбранной нами частоте в программе FurMark. После разгона Palit GeForce GT 220 Sonic набрала в Futuremark 3DMark Vantage 3905 балов. Это является неплохим результатом, так как Palit GeForce GT 220 Sonic на не разогнанном ядре набирает 3300 балов. Такой результат составил прирост в 17 процентов, что довольно неплохо.

Следующей графической картой мы рассмотрим GeForce GT 430. Видеокарта GF GT 430 является бюджетным вариантом, который довольно хорошо разгоняется. Для примера возьмем Palit GeForce GT 430, у которой стоковая частота ядра составляет 700 МГц. Для разгона Palit GeForce GT 430 запустим нашу утилиту на компьютере с этим ГПУ.

Теперь повысим частоту графического ядра Palit GeForce GT 430 до 850 МГц и сохраним результат.

На частоте 850 МГц Palit GeForce GT 430 нормально функционировала и прошла стресс тест в FurMark. Разгон Palit GeForce GT 430 позволил набрать 1250 балов в Futuremark 3DMark 11. В неразогнанном состоянии Palit GeForce GT 430 набирает 1005 балов. Такой разгон повысил производительность Palit GeForce GT 430 на 30 процентов, что позволит поиграть в современные игры на минимальных настройках качества.

Теперь рассмотрим видеокарту среднего уровня GeForce GTS 450. Видеокарта GF GTS 450 построена на графическом процессоре GF106, который весьма плохо разгоняется. Это обусловлено тем, что графический чип GeForce GTS 450 сильно урезан. Для нашего примера возьмем видеокарту GIGABYTE GeForce GTS 450, базовая частота которой составляет 783 МГц. В нашем случае нам удалось разогнать GeForce GTS 450 до 830 МГц, что является довольно средним результатом.

Но даже такой результат позволил повысить производительность GeForce GTS 450 на 10 процентов. В Futuremark 3DMark 11 GF GTS 450 набрала 2310 балов. На не разогнанной GeForce GTS 450 мы набрали 2550 балов. Такой прирост в GeForce GTS 450, конечно, будет практически незаметен, но прибавит несколько fps в новых играх.

Приемником GeForce GTS 450 является видеоадаптер GeForce GTX 550 Ti. Эта видеокарта GF GTX 550 Ti построена на графическом процессоре GF116. Для нашего примера возьмем видеокарту Palit GeForce GTX 550 Ti. Базовая частота ядра в Palit GeForce GTX 550 Ti составляет 900 МГц, а памяти 4100 МГц. В нашем случае нам удалось разогнать эту видеокарту до 1010 МГц, а память до 4505 МГц. Такой результат дал прирост Palit GeForce GTX 550 Ti в 10 процентов. Этот результат хоть и не сильно повысит производительность Palit GeForce GTX 550 Ti в играх, но добавит им несколько fps. Например, не разогнанная Palit GeForce GTX 550 Ti в игре Aliens vs. Predator на максимальных настройках с разрешением 1920×1080 выдает 32 fps, а с разогнанным ядром Palit GeForce GTX 550 Ti выдает 36 fps.

Пришло время рассмотреть топовую видеокарту с противоположного лагеря AMD Radeon R9 Fury. Производительность этой видеокарты сопоставима с топовой видеокартой от NVIDIA GeForce GTX 980 Ti.

Такую видеокарту, как AMD Radeon R9 Fury не имеет смысла сейчас разгонять, так как она справляется со всеми новыми играми на высоких настройках.

Также можно отметить, что AMD Radeon R9 Fury довольно плохо разгоняется, как и ее память. Стоковая частота ядра AMD Radeon R9 Fury составляет 1050 МГц, а разогнать ее можно только до 1100 МГц, чтобы она стабильно функционировала. Также после такого разгона вы практически не заметите повышения частоты кадров, из чего следует, что AMD Radeon R9 Fury не имеет смысла разгонять.

Разгон видеокарты NVIDIA такой же, как и у Radeon, поэтому сложностей с разгоном видеокарт Radeon у наших читателей не должно быть. Также стоит отметить, что при тестировании всех видеокарт от NVIDIA мы использовали топовый процессор Intel Core i7-980X Extreme Edition. Если, к примеру, вы будете использовать какой-нибудь бюджетный процессор Intel Celeron, то вы не сможете в полной мере раскрыть весь потенциал своей видеокарты. Поэтому мы рекомендуем использовать процессоры среднего или более высокого уровня для игрового компьютера.

Ниже приведен список процессоров, которые способны раскрыть весь потенциал видеокарты среднего и высокого уровня быстродействия:

  • Intel Core i7-6700;
  • Intel Core i5-6600K;
  • Intel Core i5-6400;
  • Intel Core i5-6500;
  • AMD FX-8300;
  • AMD FX-8350;
  • AMD FX-6350;
  • AMD FX-6300.

Еще одним моментом, который мы не упоминали, является поднятие напряжения на ядре видеокарты. Мы специально не описали этот процесс, так как он может привести к поломке вашей видеокарты или она не будет правильно функционировать. Если вы все же захотите поднять напряжение на ядре GPU, то делайте это на свой страх и риск.

Как ускорить видеокарту на ноутбуке

Принцип разгона видеокарты на ноутбуке ничем не отличается от разгона на стационарном ПК. Единственное, на что следует обратить внимание, является система охлаждения ноутбука.

От хорошей системы охлаждения ноутбука будет зависеть нормальный разгон видеокарты.

Если система охлаждения не будет справляться с нагревом GPU, то это приведет к нестабильной работе ноутбука. Для примера возьмем ноутбук Acer V3-571G. В этом ноутбуке установлен процессор Intel Core i5-3210m и видеоадаптер GF GT 630M. Видеокарта GFGT 630M является аналогом видеокарты Geforce GT 630 для стационарных ПК. Для разгона Geforce GT 630M запустим Afterburner и в блоках Core Clock и Memory Clock поставим значения +100 и +55.

Поставив эти значения, мы повысим частоту ядра видеокарты Geforce GT 630M на 100 МГц и частоту ее памяти на 55 МГц.

Проделав такие манипуляции над GF GT 630M в Afterburner, мы получим такие значения в GPU-Z.

Из рисунка видно, что частота ядра Geforce GT 630M стала 760 МГц. Такой разгон GF GT 630M позволит поиграть в новые игры на средних настройках. Также стоит отметить, что версия Geforce GT 630 для стационарных компьютеров также имеет хороший потенциал для разгона. Поэтому если у вас видеоадаптер Geforce GT 630 в стационарном ПК, то смело разгоняйте его.

Разгоняем ядро GPU, встроенных в процессор через БИОС

Сейчас существуют множество процессоров от AMD и Intel с встроенным графическим ядром. Разогнать такие GPU с помощью Afterburner не удастся. Встроенные в процессор GPU можно разогнать только через БИОС.

Рассмотрим пример разгона через БИОС видеокарты Radeon HD 7540D, встроенной в процессор AMD A6-5400K. Для этого зайдем в БИОС материнской платы, в которую установлен AMD A6-5400K. В БИОСе найдем меню «OC», отвечающее за разгон процессора и GPU.

В этом меню в графе «Adjust GPU Engine Frequency» мы выставим частоту графического процессора 844 МГц, после чего сохраним настройки БИОСа и перезагрузим компьютер. В нашем случае нам удалось заставить работать видеокарту Radeon HD 7540D через БИОС стабильно на частоте 844 Мгц.

Из примера видно, как легко разогнать GPU через БИОС.

Подводим итог

Надеемся, наш материал поможет вам ответить на вопрос, как разогнать видеокарту. К тому же после прочтения нашего материала многие пользователи ПК получат ответ на вопрос, зачем разгонять видеокарту и как узнать ее характеристики.

Еще хотим напомнить, чтобы вы не забывали проверять видеоадаптер на стабильность, чтобы он правильно работал. А мы в свою очередь надеемся, что нашим читателям удастся разогнать свою видеокарту и насладиться новинками игровой индустрии.

Также стоит дать пару советов тем, кто собрался приобрести новую видеокарту. Мы советуем не спешить с покупкой, так как в ближайшее время AMD и NVIDIA выпустят новые видеокарты на новых архитектурах Polaris и Pascal.

Видео по теме

ustanovkaos.ru

Как разогнать видеокарту на ноутбуке

Если вы — любитель поиграть в современные игры с красивой графикой и плавным геймплеем — то первое о чем нужно задуматься, это как разогнать видеокарту на ноутбуке. В зависимости от мощности видеокарты и системы охлаждения можно получить прирост FPS от 20 до 70% и даже выше. Но не стоит тут же мчаться скачивать утилиты для разгона. Проводить подобные манипуляции с видеокартой стоит предельно аккуратно, чтобы попросту её не спалить.

Зачем разгонять

Данная инструкция рассчитана для начинающих пользователей. Опытные юзеры, которые давно разгоняют свои карты вряд ли узнают здесь что-то для себя новое. Для начала нужно понять зачем, вообще, разгонять видеокарту?

Например, при запуске какой-нибудь игры она выдаёт в среднем 10-12 FPS при минимальных настройках графики. Если вы думаете, что после разгона видеокарта будет выдавать 30 FPS, то хотим вас огорчить — такое возможно при условии соблюдения многих нюансов: достаточной мощности блока питания, хорошего охлаждения, а также стабильности камня и памяти самой видеокарты.

С ноутбуками всё сложнее — рост производительности составит от 40 до 50%, в идеальном случае. И обязательным условием будет охлаждающая подставка.

Разгонять бюджетные видеокарты на компьютере или ноутбуке нет смысла, вы не получите никакого результата. Ускорить слабую видеокарту от AMD не получится, но вы легко можете спалить устройство.

Что необходимо сделать перед разгоном

Перед тем как разгонять видеокарту необходимо выполнить следующие действия:

  • Обновить драйверы устройства
  • Настроить энергопотребление системы windows
  • Позаботиться о качественном охлаждении ноутбука.
  • Провести стресс тест видеокарты

Обновление драйверов

Первым делом необходимо определить марку видеокарты и обновить драйверы.

  • Откройте диспетчер устройств на своем ноутбуке.
  • В Windows 10 нажмите правой клавишей мыши по кнопке «Пуск» и выберите в контекстном меню «Диспетчер устройств».
  • В В Windows 8/7/XP выполните правый клик мыши на ярлыке «Мой компьютер» и выберите «Управление». Затем в левой колонке откройте «Диспетчер устройств».
  • В разделе «Видеоадаптеры» находится драйвер вашей видеокарты. Выполните на нем правый клик мыши. Выберите «Свойства».

  • Откройте раздел «Сведения» и скопируйте название драйвера комбинацией горячих клавиш Ctrl+C. (Копирование через контекстное меню здесь не работает.)

  • Вставьте скопированную маркировку видеокарты в поисковую строку браузера и скачайте его последнюю версию.

Для поиска драйвера в данном случае использован поисковый запрос: Catalyst Control Center AMD Radeon HD 7600M Series.

Обратите внимание! Драйвер от AMD скачивается как отдельная программа (Catalyst Control Center) и устанавливается на ПК обычным способом.

Настройки системы

Откройте батарею/Энергопотребление — затем параметры энергопитания в настройках Windows, и переключите маркер на «Высокую производительность». Сохраните настройки и перезагрузите ноутбук.

Путь к настройкам: Пуск — Панель управления — Электропитание

Также нелишним будет почистить мусор — запустите утилиту «Выполнить» (Win+R) в диалоговом окне напишите %temp% — нажмите «Ок».

Удалите всё, что хранится в этой папке «Temp». Это всё мусор, который мешает нормальной работе системы.

Отслеживание температуры: охлаждение — наше всё

Самым очевидным риском при разгоне видеокарты является перегрев. Поэтому в процессе разгона вы должны следить за температурой графического процессора. При превышении критических значений ноутбук начнёт сильно виснуть или, вообще, выключится.

Следить за температурными показателями будем при помощи утилиты FurMark. Посмотрите в сети критические значение температуры для вашей видеокарты и следите, чтобы в процессе разгона эти значения не были превышены. В нашем случае для видеокарты AMD Radeon HD 7600M Series критическая температура не должна превышать 90 градусов.

Производить мониторинг температурных показателей графического процессора в реальном времени также можно с помощью программы GPU-Z, Aida64 или Speed Fan.

Естественно, главное условие для разгона — это охлаждение. Охлаждающая подставка под ноутбук, это закон. Необязательно дорогая, какая-нибудь из Китая вполне подойдёт. Также стоит почистить ноутбук от пыли, при необходимости заменить термопасту или термопрокладку.

Рекомендации по изменению рабочих частот

Увеличивать частоту графического процессора нужно небольшими шагами. Первое увеличение частоты можно сделать на 50 единиц, потом по 10–15.

Совет. Когда вы подберете оптимальные значения, при которых все отлично работает, температура держится в пределах нормы, не вылетает драйвер, и на экране не отображаются артефакты — снизите значения частоты и памяти на 2 единицы, и сохраните результат.

Проведение стресс теста

Прежде чем разгонять видеокарту проверьте её температуру под нагрузкой с помощью программы FurMark. Если температура во время стресс-теста резко «убежала» до 70 градусов. А после, в течение 15 минут поднялась до 80 градусов, то разгонять такую карту не рекомендуется. Если температура при нагрузке держится в районе до 70 градусов, то можно пробовать её разгонять.

При достижении критической температуры 90 градусов FurMark подаст звуковой сигнал тревоги. Для настройки сигнала необходимо зайти в настройки Setting и задать значение температуры. (см. скриншот ниже)

При тестированиии необходимо следить за показателями температуры, а также смотреть не появляются ли артефакты. Среднее время теста, если всё хорошо, должно быть не меньше 10 минут. Оптимальное время теста — около одного часа. Карта должна прогреться до максимально допустимой температуры, только тогда можно выявить какие-то артефакты.

Если во время теста температура достигла 90 градусов и прозвучал звуковой сигнал необходимо прекратить тест. В случае, если ваш компьютер завис воспользуйтесь кнопкой холодного перезапуска (reset).

Переходим к разгону видеокарты AMD Radeon

Хотел-бы заострить ваше внимание на том, как будем проводить разгон видеокарты.

Во-первых, сам процесс разгона мы делаем с помощью встроенного инструмента AMD: Catalyst Control Center или утилиты MSI Afterburner.

Во-вторых, контролировать процесс разгона будем при помощи утилиты FurMark или GPU-Z. Поэтому, кроме программы Catalyst Control Center вам потребуются следующие утилиты для разгона:

  • MSI Afterburner
  • FurMark
  • GPU-Z

Разгон встроенным инструментом видеокарты AMD

  • Кликните в свободном месте рабочего стола правой кнопкой мыши и выберите пункт «Свойства графики».

  • Далее в настройках параметров установите «Стандартное представление».

Далее переходим в раздел «Игры».

В разделе «Игры» делаем настройки во вкладках: Производительность в играх и Качество изображения.

В разделе Производительность в играх заходим в Стандартные параметры 3D (Высокопроизводительная графика). Снимаем ползунок возле «Применять пользовательские настройки» и перемещаем ползунок влево для увеличения производительности. Переместив ползунок вправо увеличим качество изображения.

То есть, при увеличении производительности (скорости) качество изображения снижается и наоборот, при уменьшении скорости качество графики возрастает.

Пререходим к настройкам качества изображения.

В окне настроек Сглаживание (Энергосберегающие графические адаптеры) делаем следующие настройки. Убираем галочки с пунктов: использовать настройки приложения и морфологическая фильтрация. Включаем фильтр Box. Сдвигаем ползунок на 2X.

Далее переходим на вкладку: Метод сглаживания (Энергосберегающие графические адаптеры). Здесь просто перемещаем ползунок в сторону пункта «Производительность».

Далее нам нужно настроить такой параметр, как анизотропная фильтрация. Этот параметр может существенно влиять на FPS в играх. Для его настройки переходим пошагово на вкладку: Начать/Игры/Качество изображения/Анизотропная фильтрация (Энергосберегающие графические адаптеры).

Снимаем флажек возле пункта «Использовать настройки приложения» и постепенно увеличиваем «Попиксельные выборки». Настраивая анизотропную фильтрацию вы можете визуально наблюдать как будеть отображаться картинка в игре.

Важно! Если у вас старенький комп лучше оставить ползунок в крайнем левом положении, чтобы избежать перегрева и выхода из строя видеокарты.

Необходимо продвигать ползунок вправо небольшими отрезками по 2x — 4x — 8x — 16x. Не стоит выставлять сразу значения на максимум. Если «отвалится» драйвер или появятся какие-то артефакты вы не сможете понять при каких значениях они появились, и какие значения допустимы для вашей видеокарты.
После каждого изменения параметров нажимайте кнопку «Применить» и запускайте стресс-тест утилитой FurMark.

И так, до тех пор пока не появятся артефакты (полосы, точки, изменения цвета и так далее) или вылетит драйвер. Вы увидите соответствующее сообщение о прекращении работы графического драйвера или картинка намертво зависнет.

При появлении нежелательных эффектов верните настройки до последних удачных значений.
Далее ступенчато увеличивайте параметры теста — примените изменения, затем проверьте стресс-тестом.

После того как подобрали оптимальные частоты нужно сохранить настройки, применить их и сохранить в Установках. (см. скриншот ниже)

Далее жмем «Добавить установку» заполняем необходимые данные и сохраняем набор сделанных настроек.

Сохраненные установки появятся в виде пунктов меню в разделе Установки.

Не стоит оставлять работать видеокарту с такими настройками. Включайте этот профиль только для игр. Если вы просто выйдете из программы видеокарта всё равно будет работать с заданными настройками профиля. Отключать профиль с разогнанной видеокартой нужно вручную.

Разгон с помощью MSI Afterburner

Запустите утилиту MSI Afterburner для разгона видеокарты АМД

Интерфейс программы MSI Afterburner пресыщен графическими элементами и жутко неудобен, по этому первым делом мы сменим скин утилиты на более простой и понятный.

  • Откройте настройки (в центре окна иконка кнопки с изображением шестерёнки).
  • Вкладка «Интерфейс».
  • Откройте список скинов пользовательского интерфейса.
  • Нам нужен скин Default MSI Afterburner v 3 skin, выберите его и нажмите «Ок»

Далее заходим в основные настройки (жмём кнопку Settings).

Здесь нужно отметить галочками пункты «Разблокировать управление напряжением» и «Разблокировать мониторинг напряжения». Первые 4 галочки в свойствах совместимости также должны быть включены.

Параллельно запустите утилиту FurMark (в народе именуемую волосатый бублик). В процессе разгона необходимо будет часто запускать стресс-тест.

Возвращаемся к утилите MSI Afterburner и совершаем следующие действия.

  • Увеличиваем значение мощности (Power Limit) до максимума.
  • Дальше показатели частоты (Core Clock) и памяти (Memory Clock) необходимо по очереди увеличивать небольшими отрезками. Применить изменения — нажать Apply, после чего запустить стресс-тест FurMark.

  • Продолжайте до тех пор, пока не подберете идеальные значения частот, когда видеокарта работает на максимуме своих возможностей и при этом стабильна.
  • Чтобы отменить изменения нажмите Reset.

  • Важно не спешить. Здесь потребуется усидчивость.

Важно! Первый показатель нельзя трогать ни в коем случае. Запомните золотое правило, изменили значения Core voltage (mV) — спалили карту.

Настройка профиля

Вы можете настроить до 5 профилей пользователя в MSI Afterburner для разных игр и включать их под каждую игру отдельно. Нажмите Save в нижней части экрана. Кнопки начнут мигать, выберите одну из кнопок, чтобы сохранить ваш Preset.

Проверка результатов

После разгона с помощью FurMark запустите тест бенчмарк (проверка производительности) и сравните результаты, если вы всё сделали правильно — прирост производительности будет в пределах 40–50%, в среднем. FPS увеличится, и при минимальных настройках высокопроизводительных игр картинка будет намного лучше. Не будут появляться артефакты, подтормаживания.

Лучшим тестом, конечно, будет, это поиграть в какую-нибудь прожорливую игру, но играть нужно не меньше часа. Только при такой нагрузке можно выявить проблемы с видеокартой.

Вывод

Изначально производитель видеокарт устанавливает оптимальные настройки производительности оставляя небольшой запас для разгона. В погоне за лучшей картинкой в игре геймеры хотят выжать из железа максимум возможностей. Запас для разгона, конечно, есть, но помните, все манипуляции с видеокартой вы проводите на свой страх и риск.

compforlife.ru

автоматическое переключение графики в ноутбуках — а так ли хорошо, как кажется? Часть 1

Сегодня попробуем поговорить о столь интересной и актуальной новинке, как технология NVIDIA Optimus. Фанфары уже отгремели, время трезво взглянуть: а что это такое, нужно ли оно нам вообще? Последний вопрос прилип ко мне во время тестирования SSD, и я теперь примеряю его ко всем попадающим ко мне ноутбукам и гаджетам. От покупки стольких вещей пришлось отказаться — ужас просто!

Впрочем, любое новшество имеет как плюсы, так и минусы. Поэтому, помимо традиционных описаний и размышлений, я попробую также критически проанализировать — а нужна ли эта технология, насколько она поможет пользователям. Эти комментарии я решил выделить курсивом — те читатели, которых не интересует личное мнение, могут пропустить соответствующие куски.

С одной стороны, полезность Optimus нельзя отрицать. Эта технология упрощает жизнь пользователя, и в этом ее основной и существеннейший плюс. Даже при существующих ограничениях в реализации, эта технология представляет собой огромный шаг вперед именно с эксплуатационной точки зрения.

Дело в том, что с ее приходом ноутбуки с переключаемой графикой научились переключаться между видеоадаптерами в полностью автоматическом режиме, ориентируясь на то, какой уровень производительности необходим системе, и не требуя вмешательства пользователя. Поэтому теоретически ноутбук станет работать более эффективно и не будет отвлекать пользователя от его дел, самостоятельно реагируя на изменившиеся требования к производительности.

С другой стороны, для меня Optimus выглядит во многом не как технологическая, а как маркетинговая новинка. На мой взгляд, это типичное развитие ситуации с продвижением всего вообще, когда идея «давайте дадим им то, что они хотят» перерастает в идею «давайте дадим им то, что, как мы заставим их думать, они хотят». Т. е. сначала рождается спрос на что-то, потом производители пытаются этот спрос удовлетворить, понимают, что у них что-то не клеится, и пытаются переформировать спрос под себя: не создать технологию, подходящую под желания пользователей, а заставить пользователей думать, что они хотели именно то, что им предложено. В результате с технологической, технической и эксплуатационной точки зрения станет хуже, повысится лишь комфорт для тех пользователей, которые не хотят разбираться в деталях (а таких подавляющее большинство) и которые готовы пожертвовать эффективностью ради видимого комфорта.

Развитие идеи переключаемой графики

Сначала абсолютно все ноутбуки имели встроенную графику и в 3D не умели ничего. Впрочем, этого от них и не требовали: ноутбук считался очень нишевым продуктом для профессионалов с весьма специфическими требованиями к производительности. Однако постепенно 3D завоевывал мир (при активнейшем участии NVIDIA), а потом и ноутбуки стали становиться все более массовым и, что немаловажно, универсальным товаром. Соответственно, использоваться они стали в самом широком кругу задач, в том числе мультимедийных, и пользователей очень быстро перестала удовлетворять производительность (а точнее ее полное отсутствие) графики. Отвечая на возникший спрос, производители стали усиливать графическую подсистему ноутбуков, появились даже игровые ноутбуки и профессиональные мобильные графические станции. Они, правда, отставали по производительности от настольных систем, но уже могли справиться с большинством задач обычных пользователей.

И тут наметился раскол: ноутбук был либо мощным, но большим, тяжелым и с позорно малым временем работы от батарей, либо маленьким, легким, с хорошим временем работы от батарей, но с позорной производительностью, особенно в 3D.

Встроенное ядро должно занимать мало места, потреблять совсем мало энергии и не греться. Поэтому оно работает на низких частотах, имеет минимально необходимое количество блоков и небольшой размер, не имеет собственной видеопамяти, обходясь обычной оперативкой (это тоже экономия энергии). Совсем другое дело, если стоит выделенный графический чип: несмотря на то, что он тоже должен мало потреблять и не греться, от него еще требуется более-менее адекватная производительность в 2D и 3D, умение работать с цифровым видео и т. д. Как правило, мобильные чипы представляют собой сильно урезанную версию настольных, работающую к тому же на более низких частотах. Так что, хотя это и компромиссные варианты, по эксплуатационным характеристикам, в первую очередь энергопотреблению и нагреву, они существенно проигрывают интегрированным решениям.

Между моделями с интегрированной и выделенной графикой явно образовался провал. И производители стали старательно думать, как бы совместить мощную графику и низкое энергопотребление, тем самым значительно повысив универсальность ноутбуков.

Теоретически, можно создать видеочип, который умел бы управлять частотами в зависимости от нагрузки (впрочем, это просто и уже реализовано), динамически отключал бы ненужные блоки процессора и память, уменьшая потребление в простое (впрочем, и это уже в той или иной степени реализовано). Но это трудный и долгий путь, и не факт, что реализуемый — что было можно, уже внедрили в современные чипы. Однако есть и более простое решение — иметь в системе и тот, и другой графический чип, переключаясь между ними.

Одним из оригинальных и интересных решений стала практически уже неживая технология XGP от ATI/AMD (сразу скажу о ней, ибо идея мне очень понравилась, но… увы). Внутри ноутбука стоит интегрированный чип, а мощный выносится во внешнюю коробку и подключается к ноутбуку по быстрому интерфейсу PCI-E x16 (а не х1). Огромное преимущество такого решения в том, что дома вы получаете мощную рабочую станцию, а в дороге — долгоиграющий ноутбук. А еще — отличный выход на внешний монитор и удобную док-станцию… В общем, плюсов у технологии было много, но ее надо было развивать и популяризировать. Однако AMD, славная своими традициями убивать куриц, несущих золотые яйца, выступила в своем репертуаре: закрыла ее патентом и, имея мизерную долю на рынке ноутбуков, решила гордо продвигать  XGP самостоятельно «в пику Intel». Результаты мы видим… точнее, не видим. А жаль, идея, повторюсь, была отличнейшая.

Более аккуратная NVIDIA еще с древних времен борьбы с 3Dfx усвоила истину, что производительность, качество и пр. — ничто перед общественным мнением. Этот правильный подход позволяет компании занимать лидирующие позиции на рынке вне зависимости от производительности и качества выпускаемых на рынок мобильных решений (за настольные не скажу).

Так вот, NVIDIA пошла сама и подпихнула ATI на направление создания переключающейся графики. Суть ее состоит в том, что в ноутбуке разведено сразу два чипа (это снимает конкуренцию между Intel и NVIDIA как производителями графических решений для ноутбуков), между которыми можно переключаться, когда это нужно. В теории все просто: если на повестке дня стоит мощная задача, требующая высокой производительности, используется мощный внешний графический процессор, когда же ничего особенного не происходит — он отключается, а в работу включается интегрированный адаптер, который, конечно, слабее, но при этом потребляет значительно меньше энергии.

В первом поколении было реализовано «ручное переключение». Например, у меня был один из первых Sony серии  Z, и там это выполнено с помощью большого переключателя на корпусе. Сдвигая ползунок в разные стороны, можно включить либо графику от NVIDIA, либо встроенный чип Intel. Дергаешь его — и драйвер предлагает закрыть все приложения перед тем, как переключить графический чип, т. к. иначе ноутбук может зависнуть (и действительно зависал, теряя данные из открытых приложений). Очень весело работать, особенно когда открыто тридцать приложений, и закрыть их не представляется возможным — дешевле на работу не ходить. При этом польза от переключения была сомнительной: в ноутбуке установлен Geforce 9400, трехмерные способности которого очень скромны, разве что HDMI только через него работает. И это, кстати говоря, была уже не самая первая реализация платформы, та вообще требовала перезагрузки системы. Но это, в общем, старые и уже ненужные решения. А что было дальше?

Современная переключаемая графика и NVIDIA Optimus

Сейчас у меня на тесте два ноутбука ASUS, один — с технологией NVIDIA Optimus, второй — без нее. При это они оба с переключаемой графикой, более того — с автоматически переключаемой! Так в чем же между ними разница?

Сначала про «более старую» технологию. На современных ноутбуках ASUS нет кнопки переключения между графическими чипами, все реализовано «автоматически». Как? Через схемы питания. Для каждой из них прописано, в каких условиях какой адаптер использовать. Т. е., например, ставишь «высокая производительность» — и у тебя и от сети, и от батарей работает высокопроизводительный (ну, если можно так назвать G210M) чип NVIDIA. Ставишь «сбалансированно» — и при работе от сети у тебя будет работать производительный чип, а как перейдешь на батареи — система переключится на встроенную графику Intel. Ставишь «экономия энергии» — и всегда будет работать встроенная графика. Таким образом, переключение графического чипа зависит от двух параметров: выставленная схема управления питанием и работа от сети или батареи.

Однако в жизни с переключением не все так гладко, как описано выше. Частенько графика не переключается, мотивируя это тем, что ей мешают те или иные запущенные приложения, и их надо закрыть. Но это не всегда удобно, например, если переключению мешает рабочее приложение или система просит выключить фильм, который вы смотрите. В результате весь смысл переключаемой графики теряется.  Кроме того, у «ручного» переключения есть и ряд других недостатков.

Впрочем, даже если бы с технической стороны все работало бы безупречно, остается много других моментов, в силу которых ноутбук будет работать неоптимально. Например, отнюдь не всегда при работе от сети требуется высокая производительность и наоборот. Причем этот недостаток будет проявляться как у неискушенного пользователя (который просто не знает, как переключение работает), так и у продвинутого: ему придется постоянно переключаться в ручном режиме, через схемы питания, а о необходимости переключения очень легко забыть. Кстати говоря, даже те пользователи, которые разбираются в этих схемах работы и готовы иногда вручную контролировать параметры работы ноутбука, все равно хотели бы иметь внятный автоматический режим. Он просто удобнее и позволяет освободить голову для рабочих задач. При ручном управлении можно элементарно забыть переключиться и быстро высадить батарейку.

Так и появилась  «более новая технология», т. е. тот самый Optimus. Миллионы хомячков… т. е., простите, казуальных геймеров на ноутбуках (звучит страшно, но их действительно много) не хотят разбираться в таких тонкостях, как схемы питания или даже наличие внутри ноутбука того или иного видеоадаптера, считая, что главный показатель скорости ноутбука — наклейка на клавиатуре. Поэтому им не всегда удается задействовать в играх нужный чип, вот и случаются жалобы в техподдержку, что купил типа игровой ноутбук, а графика (бедный встроенный Intel) не тянет. Опять же, даже грамотные пользователи не всегда готовы возиться с капризами процесса переключения. Я, например, увидев просьбу о закрытии нужных приложений, просто не перехожу на другой адаптер. А это плохо сказывается либо на скорости, либо на времени автономной работы.

 Поэтому была разработана технология, позволяющая зайти с другого конца: драйвер при переключении смотрит не на схему питания, а на запускаемые приложения. Запустил Word? Тебе вполне хватит и интегрированного Intel. Запустил современную игрушку — вот тебе внешняя производительная графика. Закрыл игрушку, вернулся в Word? Все опять переключилось обратно, причем без каких-либо действий с твоей стороны. Казалось бы, очень удобно и казуально, и к тому же весьма продвинуто с технологической точки зрения.

И провозившись всего-то минут десять, я сумел настроить одно приложение…

Тонкое место технологии в том, что Optimus реагирует на исполняемый файл программы. Т. е. сделал настройку на pcmark.exe — и графика переключится, стоит запустить этот файл. Однако если запустить файл pcmark-2.exe — то умный компьютер не переключится, ибо не получал такой команды.

Поэтому очевидно, что эта система требует пусть разовой, но гораздо более серьезной настройки, чем предыдущая версия. И мало кто из казуалов (а речь идет в первую очередь о них) будет с ней возиться. Так вот, предчувствуя, что пользователи не будут мучиться (или вообще хоть что-то делать) с созданием профилей в панели управления, NVIDIA делает упреждающий шаг и предлагает онлайн-настройки: т. е. набирается база данных приложений с прописанными под каждое графическими настройками, после чего эта база закачивается в ноутбук (с разрешения пользователя, разумеется). Таким образом, утилита управления Optimus уже «знает» большое количество приложений и может определить, какой чип и с какими графическими настройками использовать в соответствии с рекомендациями «сверху».

Хотя в драйвере реализован механизм, задействующий видеокарту NVIDIA, если приложение делает вызов Direct3D или DXVA (ускорение воспроизведения видео). Т. е. зависимость от приложений не абсолютна.

Так что, технология NVIDIA Optimus — просто программная нашлепка над технологически старым аппаратным решением?

Разумеется, я лукавлю. Потому что на аппаратном уровне тоже много чего поменялось: теперь встроенная и внешняя графика работают не отдельно («работать может только один из нас!»), а сотрудничают, динамически переключаясь между собой, при этом внешний чип использует некоторые функции интегрированного (кадровый буфер), а в минуты простоя полностью отключается, но изображение на экране остается за счет встроенной графики. Удобно? Да! Экономично? Да! Эргономично? Еще как да!

Аппаратная реализация технологии NVIDIA Optimus

Взглянем подробнее на то, как технология реализована с аппаратной точки зрения.

Вот как дело обстояло до ее внедрения:

В системе устанавливалось два независимых видеоадаптера. При переключении с одного адаптера на другой система фактически останавливалась, и отключающийся адаптер начинал «сдавать дела» — освобождал свою память. Далее он отключался и включался новый (отсюда мигание экрана) и еще некоторое время система «приходила в себя» — новый адаптер устанавливал взаимодействие с системой. При этом схема взаимодействия Intel — NVIDIA такова, что не всегда данные можно безболезненно перекинуть с одного адаптера на другой — как минимум, не совпадают архитектуры. Cоответственно, при использовании трехмерных приложений или приложений, использующих оверлей (возможно, и других типов — тут я не уверен) переключить графику невозможно, их придется закрыть. Помимо этого, в системе приходилось ставить дополнительный чип — мультиплексор (на схеме назван Muxes), который перенаправляет данные с выбранной видеокарты на устройство вывода изображения.Такой мультиплексор должен быть для каждого устройства вывода (внутренний монитор, внешний монитор и т. д.).

Еще один аспект — ранее система допускала наличие только одного видеодрайвера в системе, соответственно, приходилось делать еще и программные нашлепки, которые бы позволяли запускать разные драйвера для встроенной и интегрированной графики), но сейчас эта проблема решена на уровне ОС.

Как видите, на схеме указан Display Driver Interposer. Это программа, которая управляет переключением графического чипа в системе, делая видимым для ОС тот или иной драйвер. Соответственно, для работы необходим этот уровень плюс программный слой между интерпозером и вторым чипом, ну и надо договориться с производителем. Кстати, если я правильно понял, Windows 7 допускает наличие в системе двух активных видеоадаптеров с разными драйверами, так что эта проблема более-менее разрешена с помощью Microsoft.

Как мы помним, в новом поколении платформ Intel очень сильно изменил схему взаимодействия компонентов. В частности, добрая половина графического чипа переехала в общий корпус с процессором, а «снаружи» осталась только часть, отвечающая непосредственно на вывод изображения.

В том числе и на этом основана новая схема взаимодействия. Чип NVIDIA теперь подключается не параллельно и независимо, а включается в общую работу с IGP через шину PCI Express. Разводка платы в этом случае проще, отпала нужда в мультиплексорах, а внешний чип подключается через общую шину. Однако у системы появилось много других особенностей, о которых поговорим ниже. Посмотрим, как работает платформа, в которой реализован Optimus.

Если вы не используете приложения, требующие мощной выделенной графики, у вас подключено интегрированное ядро. В этом случае выводом изображения на экран занимается встроенный чип, внешний чип NVIDIA полностью отключен и вообще не потребляет энергии.

При запуске приложения, требующего внешнюю видеокарту, этот чип включается.

Однако Optimus реализован так, что выводом изображения на экран занимается по-прежнему интегрированный видеоадаптер. Т. е. в этом случае у нас работают сразу два графических контроллера: один готовит картинку, второй выводит ее на экран. Благодаря этому переключение происходит мгновенно и незаметно для пользователя.

И тут возникает следующее узкое место, которое надо преодолеть. Помните, когда в традиционной схеме происходило переключение, чип «сгружал» данные? Так вот, внешняя карта NVIDIA после формирования кадра должна передать его в оперативную память, откуда его заберет интегрированная видеокарта и выведет на экран.

Но при этом сам чип начнет выгружать данные из кадрового буфера в системную память и будет заниматься только этим, а не своими прямыми обязанностями — расчетом следующего кадра. Соответственно, производительность будет крайне невысокой.

Для решения этой проблемы компания разработала технологию Optimus Copy Engine.

Это самостоятельный механизм копирования, который занимается исключительно тем, что выводит данные в системную память, не отвлекая на это ресурсы основного чипа. Таким образом, технически Copy engine представляет собой отдельный (это важно) механизм, который забирает из локальной памяти адаптера NVIDIA сформированный кадр и отправляет его в оперативную память, откуда его должен забрать интегрированный контроллер и вывести на экран. Остается вопрос — а какие будут накладные расходы?

Программная часть NVIDIA Optimus

C программной точки зрения все достаточно просто: у нас есть та же утилита, которую может видеть любой владелец ноутбука с адаптером NVIDIA. Просто там теперь появилась еще одна закладка, где прописываются данные для приложений.

Обратите внимание, что можно выбрать, какая из видеокарт используется по умолчанию.

А мы перейдем ко второй закладке, на которой, собственно, и указаны профили для разных приложений. Как уже упоминалось, драйвер переключает графический чип в двух ситуациях.

Первый вариант — это когда приложение отправляет запрос на использование специальной функции. Сюда относится DXVA (аппаратное ускорение видео с помощью DirectX), собственно DirectX и вроде бы CUDA. В случае, если приложение хочет воспользоваться одной из этих функций, то драйвер сразу переключит его на более производительный адаптер NVIDIA.

Второй вариант — профиль приложения. Для каждого приложения (а оно идентифицируется по исполняемому файлу) составляется свой профиль, в т. ч. — какой графический адаптер и какие настройки оно должно использовать. Если драйвер видит, что запущено это приложение, он переключает настройки графики в соответствии с указанными в профиле, в том числе выбирает видеоадаптер.

На словах все просто. В реальности бывают шероховатости: например, до переустановки у меня активировалась карта NVIDIA при включении DXVA, а после — уже нет. Хотя плеер по-прежнему писал, что DXVA используется. После чистовой переустановки системы мы проверим еще раз, переключается ли видеокарта или нет.

Маркетинг, маркетинг…

Ну что же, теперь, когда мы уже примерно представляем себе теоретические аспекты, но до того, как посмотрим на практические, я хотел бы обратить внимание вот на что.

Технически говоря, NVIDIA Optimus не привносит ничего нового, она лишь позволяет более грамотно использовать имеющиеся ресурсы. Можно представить себе шкалу, на одном конце которой производительность, на другой — энергопотребление. Optimus позволяет динамически двигать баланс. Раньше ноутбук был либо мощный, либо экономичный. Сейчас ничего не изменилось кроме того, что ноутбук научился чуть лучше сам подбирать оптимальное положение на этой шкале.

Однако из маркетинговых материалов можно сделать вывод, что ноутбук стал и производительным, и экономичным, т. е. обе чаши весов поднялись вверх.

Как видите, из слайда следует, что улучшатся оба параметра одновременно, да еще и до уровня, который не достигали системы без переключаемой графики. Понятно, что на самом деле так не получится.

На этой мажорной ноте запустим полученные на тест ноутбуки и посмотрим, как обстоит дело в реальности.

Практическая реализация

Компания NVIDIA была столь любезна, что предоставила для тестирования целых два ноутбука: один из них просто с автоматически переключаемой графикой, второй — с технологией Optimus. Должен сказать, что, как это очень часто бывает, ноутбуки пришли на тест с загаженной и плохо работающей системой. После первых тестов я попытался обновить драйвера, но это не принесло желаемого эффекта. Тесты на чистой системе с новым драйвером будут описаны во второй части нашего обзора.

Тем не менее, нам удалось прогнать основные тесты.

PCMark VantageASUS UL50Vt
Non-optimus
ASUS UL50Vf
Optimus
NVIDIAIntelNVIDIAIntel
PCMark Score3870385331283019
Memories Score2659209822461810
TV and Movies Score2612258214872202
Gaming Score2941189317631689
Music Score4099407520433352
Communications Score3592369516832870
Productivity Score3116326614372589
HDD Score3340332531673306

Результаты, мягко говоря, обескураживающие. Если результаты системы без Optimus достаточно адекватны и показывают, что графическая система ноутбука влияет на один тест (еще есть разница в тесте подсистемы памяти, но непонятно почему) из всех, то результаты ноутбука на Optimus представляют собой кашу. Даже если предположить, что я перепутал колонки (а это не так), то все равно, очень сложно объяснить, почему производительность этого ноутбука в Gaming одинакова, а в других тестах — в режиме работы с Intel результаты выше.

Пришлось переустанавливать систему и драйвера, в т. ч. установить новый драйвер для NVIDIA Optimus от производителя (версия 189.42). Вроде бы обновление прошло успешно, хотя после переустановки Optimus отказывался сохранять настройки, отличные от дефолтных. Пришлось химичить, впрочем, это не должно было сказываться на результатах тестов.

Итак, посмотрим, что произошло после чистки системы и установки новой системы на платформу Optimus.

PCMark VantageNon-optimusOptimus
новыестарыеновыестарые
PCMark Score3740387028903128
Memories Score2496265922472246
TV and Movies Score2529261213721487
Gaming Score2899294124431763
Music Score3982409932742043
Communications Score3495359229331683
Productivity Score3232311626281437
HDD Score3258334032153167

Результаты немного улучшились и стабилизировались, однако нельзя не отметить, что новая система отстает везде, во всех тестах, и это отставание нельзя списать на погрешность измерений (хотя погрешность там будь здоров, стоит хотя бы сравнить новые и старые данные по системе без Optimus, где драйвера НЕ менялись, просто проведено повторное тестирование через неделю). Поскольку непонятно, какие из аппаратных характеристик как влияют на тест, фантазировать можно долго. Не будем этого делать и попробуем перепроверить данные. Посмотрим, что скажет сама установленная система.

PCMark VantageNon-optimusOptimus
NVIDIAIntelNVIDIA/Intel
Процессор4.94.94.1
Память5.45.55.0
Графика4.93.93.9
Графика для игр5.83.45.4
Жесткий диск5.65.75.6

Системе с Optimus было позволено переключать графику в автоматическом режиме (собственно, иного выхода с плохо работающим драйвером не было), поэтому результат для нее единый.

Что интересно, данные рейтинга Windows 7 в общем и целом подтверждают выводы, сделанные выше. Во-первых, судя по результатам теста ноутубка с обычной переключаемой графикой можно примерно увидеть, какую разницу в рейтинге имеет интегрированный Intel и внешняя NVIDIA G210M. А во-вторых — что система Optimus стабильно отстает даже в тестах ОС, максимально изолированных от ситуации с драйверами и ПО.

Причем результаты, как обычно, иначе как странными не назовешь. Во-первых, непонятно серьезное отставание процессора. В ноутбуках есть технология ASUS Turbo 33, но она отключена (судя по показаниям переключателя на десктопе). Вряд ли в одном ноутбуке она активировалась, а в другом нет. Причем расхождение очень существенное.

Серьезно отличаются результаты графической системы, но по ним можно сделать вывод, что при анализе параметра «графика» система работала на встроенной видеокарте, а «графика для игр» — перешла на внешнюю. Во время тестов было видно, когда ноутбук переключил адаптер — это произошло во время теста возможностей в Direct3D (т. е. в этом случае автоматическое переключение сработало).

Таким образом, на данном этапе с предоставленным семплом и предоставленной операционной системой (приходится делать много оговорок) производительность системы на NVIDIA Optimus не дотягивает до такого же ноутбука, но оснащенного обычной переключаемой графикой. Хочу еще раз обратить внимание, что процессоры, объем оперативной памяти и видеоподсистема у тестируемых ноутбуков одинаковые. Исходя из этого, во второй части материала мы еще раз протестируем ноутбуки на чистой системе.

Время работы от батарей

Улучшенное время работы от батарей — одно из основных заявленных преимуществ технологии NVIDIA Optimus. Давайте посмотрим, может быть здесь новая технология более эффективна?

Емкость батарей примерно одинакова 79114 мВт·ч и 80514 мВт·ч у Optimus и Non-Optimus соответственно. На практике такая разница почти не влияет на результаты. Традиционно система работала на адаптивной схеме питания с установками по умолчанию.

 Non-optimusOptimus
NVIDIAIntelNVIDIAIntel
Reader8 ч. 20 мин.9 ч. 08 мин.7 ч. 02 мин.8 ч. 15 мин.
Video4 ч. 04 мин.6 ч. 40 мин.3 ч. 07 мин.4 ч. 57 мин.

Первое, что хотелось бы отметить по результату тестирования — внушительное абсолютное время работы и очень хорошая оптимизация энергопотребления (она тем лучше, чем больше разница между временем работы вхолостую и под нагрузкой).

Второе — интересная разница в работе в зависимости от используемого адаптера. Как видите, при работе в простое использование чипа NVIDIA отнимает где-то час автономной работы. Однако при работе под нагрузкой (причем нагрузкой специфической — воспроизведение видео) эта разница становится не меньше, а больше. Таким образом, при не очень сильной нагрузке все равно стоит использовать встроенный адаптер, а преимуществ в автономной работе с адаптером NVIDIA вы вообще вряд ли добьетесь.

Наконец, третий и самый интересный для нас вывод: при любых условиях использования ноутбук на NVIDIA Optimus проигрывает обычному ноутбуку около одного часа плюс-минус 10 минут.

После чистки драйверов я еще раз провел тест, чтобы посмотреть, что получится. Обычная система показала 9 ч. 18 мин., система на Optimus (с переставленной ОС и новым драйвером) — 7 ч. 55 мин.

Таким образом, выигрыша во времени работы от батарей тоже нет. Больше всего меня смущает проигрыш системы на Optimus в режиме чтения и с графической системой Intel. Мне кажется чрезвычайно странным столь стабильный проигрыш на один час (или даже чуть больше) автономной работы.

Вывод

Исходя из вышеприведенных тестов было решено установить чистые системы на оба ноутбука, поставить на них драйвера и уже на чистых системах провести объективное тестирование. Оно будет изложено в обзоре, посвященном новым ноутбукам ASUS линейки UL50V. Хотя полностью объективным оно все равно не будет, т. к. ноутбук на Optimus у нас находится в статусе семпла.

Пока же, если абстрагироваться от результатов тестов, то Optimus предлагает неплохой вариант решения для тех, кто не хочет управлять системой вручную. В конце концов, и поклонников ручной коробки передач в автомобилях становится все меньше, большинство предпочитает «автоматы» за их комфорт, и ради этого готовы мириться с их недостатками.

Между прочим, это хорошая аналогия. У автоматической коробки передач много недостатков и ограничений: она сложнее, более нежная в эксплуатации, в ней больше потери при передаче момента (хуже экономичность), она не всегда адекватно переключает передачи. Но при этом она дает большой прирост в комфорте: не надо забивать голову переключением передач и делать много лишних движений.

То же можно сказать и про Optimus. Он не всегда адекватно переключается, у него есть свои ограничения, у него ниже эффективность. Но при этом Optimus дарит вам комфорт — не нужно лазить в настройки, оно как бы все «само» происходит. Поэтому для тех пользователей, кто и раньше не умел пользоваться переключаемой графикой (не умеет пользоваться ручным переключением передач в автомобиле), Optimus — однозначный плюс. Теперь они смогут с большей эффективностью пользоваться компьютером (смогут ездить). Для тех, кто знаком с переключением графики, но ленится лазить по настройкам, это тоже плюс — проще подстроиться под особенности и ограничения Optimus (как проще подстроиться под тормознутость и алгоритм переключения автомата), чем постоянно переключать графику в ручном режиме. Остаются лишь привыкшие полностью контролировать каждый чих компьютера, но и для них в Optimus можно найти преимущества: быстрое переключение графики и отсутствие зависимости от включенных приложений (как езда на автомате в ручном режиме).

Плата за это — производительность и время автономной работы (хотя это все-таки нуждается в уточнении).

Если посмотреть «с плохой стороны», то Optimus — набор костылей, который вроде бы создает у пользователя впечатление, что «все здорово», но какими внутренними средствами это достигнуто! Причем, если присмотреться, то костыли тут везде: в аппаратной части один чип подключили к другому вместо прямого вывода. Сформированный кадр выдергивает из памяти одного чипа и суют в другой, что повлекло за собой даже необходимость создания отдельной линии копирования данных из видеопамяти в системную память и обратно. Программно система основана на мощнейшем костыле — имени исполняемого файла. В древние времена от названия экзешника тестового пакета в драйверах включались «оптимизации», позволявшие получить результат «получше» выйти вперед при отсутствии реального преимущества, сейчас сделали еще шаг дальше: теперь для этого включается целый внешний чип. Правда, есть и прогрессивный режим переключения при задействовании Direct3D и DXVA, но если в фильме ноутбук переключится на внешнюю графику — это минус час автономной работы, т. е. можно банально не успеть досмотреть фильм. Нужно ли такое «ускорение»? А поскольку очевидно, что целевая аудитория с настройками возиться не станет, то из интернета будет подаваться набор универсальных рецептов: как пользователю сделать лучше по мнению производителя.

Это мнение подтверждают и результаты производительности — если они не улучшатся и на чистой системе, то мнение лишь укрепится. Optimus не предлагает ни роста производительности, ни роста времени работы от батарей. Все, что он предлагает — это повышение удобства для не любящих настраивать собственную систему пользователей и возможность для производителей не делать кнопку переключения графики на корпусе — за счет падения и производительности, и автономности. А следующим шагом, очевидно, будет очередной рост вычислительных ресурсов — чтобы скрыть их падение в результате «повышения удобства».

www.ixbt.com


Смотрите также



© 2010- GutenBlog.ru Карта сайта, XML.