Pmonline.ru

Пром Онлайн
1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Как узнать, умирает ли ваша видеокарта? 5 знаков здесь! Новости MiniTool

Как узнать, умирает ли ваша видеокарта? 5 знаков здесь! [Новости MiniTool]

как узнать, умирает ли ваша видеокарта

Возможно, вы используете свой компьютер, но случайно изображение на экране компьютера искажается. Затем вы можете спросить: «Моя видеокарта умирает». Собственно, такое искажение или вспышка обычно свидетельствует о неработающей видеокарте. Кроме того, есть много других симптомов и вот MiniTool покажет вам, как определить, что ваша видеокарта умирает.

Графическая карта является незаменимым компонентом любого компьютера, так как она используется для отображения данных вашего компьютера на мониторе. При необходимости вы можете установить мощную графическую карту (также известную как графический процессор — GPU), чтобы предложить больше возможностей для различных программ, как и многие владельцы малого бизнеса.

Однако сбой видеокарты может вызвать визуальные искажения или сделать ваш компьютер непригодным для использования. Но перед покупкой новой видеокарты необходимо выяснить, действительно ли графический процессор вызывает у вас проблемы. В следующих частях мы покажем вам, как проверить, не работает ли видеокарта.

Признаки смерти видеокарты

Опалубка

Опалубка — один из распространенных признаков неисправной видеокарты. Если вы столкнулись с этим случаем, не спешите с выводами, поскольку умирающий жесткий диск или плохая RAM также может вызвать такое же поведение.

эскиз симптомов плохого баранаКак узнать, плохая ли оперативная память? 8 симптомов плохой оперативной памяти для вас!

В этом посте показаны 8 распространенных симптомов плохой оперативной памяти, как проверить, что оперативная память плохая, как исправить проблемы с оперативной памятью и некоторая сопутствующая информация.

Но если вы получаете опалубку вместе с предупреждающими знаками, вполне вероятно, что видеокарта выйдет из строя. Во время игры обычно заметно заикание и обычно происходит резкое падение частоты кадров.

Глюки экрана

Этот симптом обычно возникает, когда вы смотрите фильм или играете в игру. Вы можете внезапно увидеть странные формы или цвета, появляющиеся на экране компьютера. Если вы перезагрузите компьютер, иногда экран может вернуться в нормальное состояние. Но если GPU выходит из строя, та же проблема скоро вернется.

желтый экран смерти эскизПолные исправления для желтого экрана смерти на компьютерах с Windows 10

Экран вашего компьютера с Windows 10 становится желтым? Как исправить желтый экран? Этот пост даст вам несколько возможных решений.

Странные артефакты

Это еще один частый симптом мертвой видеокарты, похожий на глюки экрана. Иногда артефакты начинаются с маленьких цветных точек на экране, заканчивая странными линиями и затем узорами. Обычно странные артефакты появляются, когда графический процессор находится под нагрузкой. Если компьютер простаивает, вы их не увидите, но вскоре графический процессор перейдет под нагрузку, и они тоже появятся.

Шум вентилятора

Шум вентилятора не имеет прямого отношения к умирающему графическому процессору, но может быть причиной неисправной видеокарты. Но учтите, что шум вентилятора громче обычного. Если вентилятор на видеокарте выходит из строя, это означает, что графический процессор может быть более горячим, чем должен.

Синий экран смерти

Возможно, вы знакомы с синий экран смерти ошибки, которые всегда возникают по ряду причин. Вы не знаете, проблемы с жесткими дисками, оперативной памятью, видеокартами или другими деталями. Но если вы выполняете некоторые задачи с интенсивным использованием графики, например, играете в игры или смотрите фильмы, возможно, синий экран указывает на то, что ваш графический процессор умирает.

синий экран смерти

Узнав так много, вы знаете, как определить, умирает ли ваша видеокарта. Если вы столкнулись с одним из этих признаков, возможно, ваш графический процессор вышел из строя. Но это не значит, что видеокарта скоро исчезнет. Итак, перед покупкой новой видеокарты можно кое-что исправить.

Как устранить неполадки

1. Обновите или откатите драйвер видеокарты.

Если драйвер графического процессора старый, при игре в игры могут возникнуть проблемы. Если видеокарта старая, более новый драйвер может нанести ущерб стабильности системы. Итак, обновите устаревший драйвер. Или откатите драйвер до более ранней даты или установите более старый драйвер, если вы недавно обновляли драйвер.

2. Охладите графический процессор

Как упоминалось выше, видеокарта может выйти из строя из-за перегрева. Если проблема возникает только после рендеринга 3D-графики в течение некоторого времени или вентилятор графического процессора становится громким во время рендеринга, вы можете проверить температуру карты.

Читайте так же:
Гугл карта саранска с улицами и домами

уменьшенное изображение компьютерного теплаБеспокоитесь о перегреве компьютера? Вы должны это знать

Вас беспокоит нагрев компьютера? Хотите избавиться от перегрева процессора или видеокарты? Вот несколько вещей, о которых вам следует знать.

Или выньте карту и используйте сжатый воздух для очистки от пыли, чтобы избежать перегрева. Или используйте некоторые инструменты, такие как MSI Afterburner, для регулировки вентилятора и графического вывода.

3. Проверьте видеокабель.

Если кабель, который используется для соединения вашей видеокарты и компьютера, выходит из строя, могут появиться странные визуальные эффекты. Итак, убедитесь, что кабель правильно подключен с обеих сторон, или вы можете заменить кабель, чтобы попробовать.

4. Убедитесь, что карта установлена ​​правильно.

Чтобы видеокарта работала эффективно, ее необходимо вставить в разъемы PCI. Если нужны дополнительные вилки питания, убедитесь, что они подключены без места для маневра. В противном случае возникнут проблемы с GPU.

5. Замените видеокарту.

После диагностики видеокарты, если она действительно мертвая, вам необходимо приобрести новую и заменить неисправный графический процессор.

Конец

Как узнать, умирает ли ваша видеокарта? Прочитав этот пост, вы точно узнаете, не работает ли графический процессор, проанализировав симптом и диагностировав карту.

Руководство по устранению ошибок: видеокарта не распознается?

Руководство по устранению ошибок: видеокарта не распознается?

В этом посте мы объясним возможные причины того, почему ваша видеокарта может не распознаваться операционной сисястой, манерами NiceHash Miner или другими.

Существует три уровня распознавания.

  • Первый уровень распознавания — системой,
  • Второй уровень распознавания — Windows,
  • Третий уровень распознавания — майнер NiceHash Miner или любой другой

Если один из уровней распознавания не выполнен, следующий уровень также не сможет распознать оборудование.

Также существует 3 возможных этапа возникновения ошибки успешного распознавания видеокарты:

  1. Видеокарта не распознается системой
  2. Видеокарта не распознается Windows
  3. Видеокарта не распознается NiceHash Miner или любым другим

Мы объясним, почему случаются некоторые ошибки и как их решить ниже. Обратите внимание, что это общая инструкция по устранению ошибок, ваша проблема может быть совершенно другой. Всегда думайте нестандартно при решении проблем. Приглашаем вас присоединиться к нашему серверу Discord, где другие майнеры помогают друг другу.

Видеокарта не распознается системой

После загрузки рига, система инициализирует целую кучу процессов. Одним из них будет инициализация дискретных видеокарт.

Общие симптомы нераспознавания видеокарты системой следующие:

  • Неисправная видеокарта
  • Плохие райзеры
  • Неправильное подключение видеокарты
  • Отключенное декодирование 4G в BIOS

Простейшим способом убедиться, что видеокарта распознается системой является подключение к ней монитора и ожидание экрана загрузки BIOS. Если вы его видите, видеокарта работает.

Вы можете легко проверить, работает ли USB-райзер видеокарты, посмотрев на вентиляторы видеокарты. Если они совсем не крутятся при загрузке, вероятнее всего, USB-райзер неисправен.

Если вы используете 4 видеокарты или более, но распознаются менее 4 видеокарт, а при подключении более 4 видеокарт, они не распознаются, проблема может быть связана с отключенной настройкой декодирования 4G в BIOS.

Видеокарта не распознается Windows (ОС)

После загрузки системы и распознавания видеокарты системой, настает черед операционной системы. В нашем случае это будет Windows.

Когда Windows загружается, он также загружает драйверы видеокарты, если они установлены. Если нет, Windows установит DCH-драйверы по умолчанию, если интернет подключен. С этими драйверами все в порядке, но все же мы рекомендуем воспользоваться этим руководством для правильной установки драйверов видеокарты.

Вы можете проверить, распознается ли видеокарта Windows, с помощью этих шагов:

  1. Нажмите правой кнопки мыши на кнопке «Пуск» вWindows, которая находится в левом нижнем углу
  2. Нажмите на «Диспетчер устройств»
  3. Найдите Видеоадаптеры

Если вы видите, что ваша видеокарта отображается, как это показано на изображении ниже, видеокарта работает правильно.

Видеокарта не распознается Windows (ОС)

Если вы видите значок “!” (Код 43) возле названия видеокарты, это означает проблему с драйверами видеокарты или с USB-райзером.

Первым делом, переустановите драйвер видеокарты с помощью этого руководства. Если это не поможет, попробуйте заменить USB-райзер.

Видеокарта не распознается майнерами

Этот тип проблемы возникает при использовании старых моделей видеокарт, например, NVIDIA GT 630. Минимальная версия CUDA, требуемая для работы видеокарт NVIDIA — 3.0. Эта проблема также может возникнуть при использовании видеокарт, которые не являются дискретными. Мобильные видеокарты (видеокарты на ноутбуках) не поддерживаются.

Читайте так же:
Материнская плата asrock h61m vg4

Замечание: ваша видеокарта должна иметь как минимум 3 Гб видеопамяти (VRAM), в противном случае майнинг на ней не будет возможен.

Общим симптомом нераспознавания видеокарты NiceHash Miner является то, что видеокарта отображается как нормально работающая в Диспетчере устройств > Видеоадаптеры, но не отображается в NiceHash Miner.

Убедитесь, что ваша видеокарта поддерживает версию CUDA 3.0 или выше (только для видеокарт NVIDIA). Вы можете сделать это, выполнив эти шаги:

Как принудительно запустить приложение/игру на дискретном графическом процессоре или встроенной видеокарте

Это руководство покажет вам, как переключаться между выделенным графическим процессором или интегрированной графикой для любого приложения или игры в Windows 10. Вы также можете использовать это руководство, чтобы заставить любое приложение работать на интегрированной графике вместо выделенного графического процессора.

Содержание

Выбираем встроенный или дискретный графический процессор на ноутбуке

Этот метод работает в основном только на портативных компьютерах. Для настольного ПК перейдите к следующему способу. Вы все еще можете попробовать этот метод на своем настольном ПК. Это будет работать при условии, что оба графических процессора можно увидеть в параметрах, которые мы покажем ниже.

В Windows 10 есть функция, о которой многие люди не знают, которая чрезвычайно полезна, если у вас есть дискретный графический процессор и встроенная видеокарта на вашем ноутбуке. Если вы хотите заставить Chrome, Firefox или буквально любое другое приложение, даже игру использовать определенный графический процессор (например, Nvidia или AMD) вместо встроенного графического адаптера (или наоборот), это можно сделать в настройках Windows 10. Приведем пример, если Вы в дороге работаете на ноутбуке с документами, то лучше выбрать встроенную видеокарту, так как разряд аккумулятора ноутбука будет ниже, что позволит ноутбуку проработать больше. Для игры, каждый игрок знает, нужна высокая производительность, поэтому Вы сможете указать дискретную видеокарту, ниже мы расскажем как выполнить данные настройки.

    Щелкните правой кнопкой мыши в любом месте рабочего стола и выберите Параметры экрана.

Запускаем игру или приложение на встроенной или дискретной видеокарте на ПК

Еще один способ запустить приложение или игру на определенной видеокарте — это выбрать необходимую видеокарту для нужного приложения в Панели управления NVIDIA.

  1. Запустите Панель управления NVIDIA и откройте пункт Управление параметрами 3D.
  2. Перейдите на закладку Программные настройки ниже нажмите кнопку Добавить и выберите исполняемый файл необходимой программой.
  3. Далее выберите нужный графический процессор для выбранной программы, также в окне настроек укажите необходимую конфигурацию для запуска этой программы, либо оставьте настройки по умолчанию.

Внимание! Рекомендуем на вкладке Глобальные параметры проверить в разделе Предпочитаемый графический процессор установлено ли значение Автовыбор

В Панели управления NVIDIA нет выбора графического процессора — что делать?

Если нет возможности добавить в контекстное меню запуск с определенным графическим процессором ни в Панели управления Nvidia, ни в настройках дисплея, вполне вероятно, что ваш чипсет GPU не поддерживает технологию Nvidia Optimus. Технология Optimus позволяет графическому процессору Nvidia задействоваться в определенный момент, когда это необходимо. Чтобы проверить, поддерживает ли ваша графическая карта NVIDIA эту технологию, перейдите по этой ссылке. Там представлен список всех графических процессоров, поддерживающих технологию Optimus.

Кроме того, убедитесь, что у Вас установлен последний драйвер для видеокарты. Старые драйверы и устаревшие версии панели управления Nvidia могут не иметь такой возможности.

12 мифов о видеокартах, про которые пора забыть

ЕгорЕгор Морозов | 8 Декабря, 2018 — 15:52

Безымянный.jpg

В предыдущих статьях мы поговорили про мифы о процессорах, оперативной памяти и материнских платах, теперь же перейдем к видеокартам, которые уже давно стали обязательной частью любого компьютера.

Первый миф. Чем больше видеопамяти — тем быстрее видеокарта

Казалось бы, это логично — в более мощные видеокарты ставится больше памяти: так, GTX 1070 с 8 ГБ памяти быстрее, чем GTX 1060 с 6 ГБ, а GTX 1080 Ti с 11 ГБ быстрее GTX 1080 с 8 ГБ. Однако следует понимать, что видеопамять, конечно, важна, но зачастую различное ПО не использует всю имеющуюся у видеокарты память: так, в большинстве случаев GTX 1060 с 3 ГБ медленнее версии с 6 ГБ всего на 5-10%, и разница в основном идет из-за различного числа CUDA-ядер.

Читайте так же:
Мой компьютер на рабочем столе вин 10

Но есть производители видеокарт, которые решили воспользоваться этим мифом в свою пользу: так, например, на рынке можно найти GT 740 с 4 ГБ GDDR5 памяти. Казалось бы — да у GTX 780 Ti, топовой видеокарты того поколения, всего 3 ГБ памяти — то есть GT 740, получается, лучше? Разумеется нет — на тех настройках графики, где используется столько памяти, эта видеокарта выдает слайд-шоу. Ну а если снизить уровень графики для повышения «играбельности», то окажется, что использовано от силы 1-2 ГБ памяти. Причем такие видеокарты встречаются и в текущих линейках — так, у AMD есть RX 550 с теми же 4 ГБ GDDR5 — с учетом того, что видеокарта выступает приблизительно на уровне GT 1030, очевидно, что использовать столько памяти она сможет в очень немногих задачах:

Так что не стоит судить о производительности видеокарты, опираясь только на объем видеопамяти.

Второй миф. Если видеокарте не хватит видеопамяти в игре, то обязательно будут фризы, вылеты и тому подобное

Опять же, это кажется логичным: если видеокарте памяти не хватило, взять ее больше неоткуда — значит, программы корректно работать не смогут. Однако на деле это, разумеется, не так — любая видеокарта имеет доступ к оперативной памяти, которой обычно куда больше, чем видеопамяти. Конечно, ОЗУ в разы медленнее, а время доступа к ней больше — это может вызвать проблемы с плавностью картинки, но только лишь в том случае, если собственной памяти видеокарте не хватает сильно: например, у нее 2-3 ГБ памяти, а игра требует 4-5 ГБ. Но если не хватает нескольких сотен мегабайт, то обычно это проблем не вызывает: GPU умеют динамически использовать доступные им ресурсы, и в ОЗУ они стараются хранить ту информацию, которая нужна редко или не требует мгновенного отклика.

Третий миф. От разгона видеокарты сгорают

При этом различные производители продают разогнанные с завода версии видеокарт. Разумеется, при разгоне видеокарта может повредиться — но только в том случае, если вы измените «физические» параметры, такие как напряжение. Изменение программных параметров, таких как частоты, никак на «железо» не влияет, так что максимум, что вы получите, это вылет видеодрайвера или BSOD от выставления слишком высокой частоты.

Четвертый миф. SLI/Crossfire увеличивают производительность и объем видеопамяти во столько раз, сколько видеокарт подключено

Насчет производительности это, скорее, не миф, а теоретический результат. Увы — на практике, хотя тому же SLI 20 лет, а Nvidia его использует больше 10 лет, в большинстве игр прирост или околонулевой, или вообще отрицательный. Лишь в единичных проектах можно получить прирост хотя бы 20-30% в сравнении с одной видеокартой, что, конечно, смешно, с учетом двукратного увеличения стоимости и серьезных требований к блоку питания. Что касается вычислительных задач, то тут все сложнее: так, профессиональный софт вполне может использовать несколько GPU эффективно, но это уже не домашнее применение.

Что касается видеопамяти, то тут все просто: при использовании DirectX 11 или ниже в видеопамять каждого используемого GPU записывается одинаковая информация, то есть у связки видеокарт будет по сути тот же объем памяти, что и у одиночной карты. А вот в API DirectX 12 есть возможность более эффективно использовать Split Frame Rendering, когда каждая видеокарта готовит свою часть кадра. В таком случае объемы видеопамяти суммируются — пусть и с оговорками.

Пятый миф. Профессиональные видеокарты лучше игровых

Миф идет от того, что профессиональные видеокарты (такие как Nvidia Quadro или AMD FirePro) стоят обычно сильно дороже пользовательских «игровых» видеокарт — а раз дороже, значит лучше. На практике вопрос только в том — в какой области лучше? С физической точки зрения большая часть профессиональных видеокарт имеют тот же GPU и тот же объем памяти, что и обычные игровые видеокарты, а разница идет только из-за других драйверов, которые больше заточены под профессиональное применение:

Читайте так же:
Материнская плата asrock q1900b itx

С учетом того, что эти драйвера под игры никто специально не адаптирует, то профессиональные видеокарты в играх зачастую будут несколько хуже аналогичных по производительности игровых GPU. С другой стороны, если мы будем сравнивать эти же видеокарты в различных CAD-ах или 3ds Max — перевес будет на стороне профессиональной графики, причем зачастую очень существенный. Так что ответ на миф таков: сравнивать эти видеокарты в лоб не имеет смысла, они «играют» и в разных ценовых сегментах, и в разных сценариях использования.

Шестой миф. Если видеокарта не раскрывается процессором — это плохо

Пожалуй, самый популярный миф, который гласит о том, что если видеокарта не занята на 100% — это плохо. С одной стороны, это кажется логичным: нагрузка ниже 100% означает, что видеокарта частично простаивает и вы недополучаете часть производительности. С другой стороны, многие забывают, что нагрузить GPU на 100% можно практически при любом процессоре. Как так? Очень просто: каждый процессор в каждой игре может подготовить для видеокарты лишь определенное количество кадров в секунду, и чем процессор мощнее — тем больше кадров он может подготовить. Соответственно, чтобы видеокарта была занята на 100%, она должна иметь возможность отрисовать меньше кадров в секунду, чем может дать ей процессор. Как это сделать? Да очень просто: поднять разрешение, поставить более высокие настройки графики, включить тяжелое сглаживание — и вуаля, GTX 1080 Ti в 5К на ультра-настройках графики «пыхтит», выдавая 15-20 кадров в секунду, а поставленный ей в пару двухядерный Intel Pentium едва ли нагружен на половину.

Легко можно получить и обратную ситуацию: взять ту же самую GTX 1080 Ti и запустить на ней игру в HD-разрешении с минимальными настройками графики — и тут даже Core i9-9900K не сможет подготовить для ней столько кадров в секунду, чтобы она была занята на 100%.

Так что тут можно сделать два вывода: во-первых, если видеокарта недогружена несильно, а итоговый fps вас устраивает — всегда можно еще немного увеличить настройки графики, чтобы получить 100% нагрузку на видеокарту с лучшей картинкой и при той же производительности. Во-вторых, собирайте сбалансированные сборки, дабы не было такого, что процессор занят на 100%, а fps в игре 20 кадров.

Седьмой миф. Чем уже шина памяти — тем ниже производительность видеокарты

Очень часто на различных форумах можно встретить посты типа «вот, 8 лет назад у GTX 480 шина памяти была 384 бита, а сейчас у GTX 1080 всего 256, Nvidia экономит». Опять кажется, что это логично — чем шире шина, тем больше данных по ней можно «гонять». Но тут следует помнить две вещи: во-первых, не шиной единой: частоты памяти с того времени выросли в разы, во-вторых — производители GPU постоянно улучшают алгоритмы передачи данных по шине, что позволяет использовать ее более эффективно. Все это приводит к тому, что ширину шины можно безболезненно урезать: так, MX150 (она же GT 1030), имея шину всего в 64 бита (как один канал ОЗУ), способна при этом выдавать производительность уровня GTX 950M со 128-битной шиной, которая еще пару-тройку лет назад считалась среднеуровневой мобильной игровой видеокартой:

Восьмой миф. Если видеокарта не перегревается, то она работает на максимально возможной для нее частоте в рамках ее теплопакета

Увы — аналогия с процессорами тут не работает: если те действительно удерживают максимальные частоты в рамках TDP вплоть до температуры, с которой начинается троттлинг из-за перегрева, то видеокарты работают хитрее: так, у Nvidia есть технология GPU Boost, которая, с одной стороны, является аналогом Turbo Boost для процессоров — позволяет поднимать частоту выше базовой — а с другой стороны имеет больше ограничений.

Возьмем, для примера, GTX 1080 Ti. Она имеет родную частоту в 1480 МГц, а Boost — 1580. Но стоит нагрузить видеокарту, как частота может подскочить до 1800-1850 МГц — то есть выше Boost: это и есть работа технологии GPU Boost. Дальше — интереснее: критические температуры у видеокарт поколения Pascal составляют порядка 95 градусов — но уже при 85 можно заметить, что частоты снижаются ближе к уровню Boost. Почему так? Потому что Nvidia ввела еще одну опорную температуру, которую называет целевой: при ее достижении видеокарта старается ее не превышать, а для этого сбрасывает частоты. Так что если у вас мощная видеокарта, да и еще с референсным турбинным охлаждением — внимательно следите за температурами, ибо от них в прямом смысле зависит производительность.

Читайте так же:
Материнская плата asrock g41m vgs3

Девятый миф. Видеокарты без дополнительного питания хуже аналогов с ним

В продаже можно встретить видеокарты уровня GTX 1050, 1050 Ti и AMD RX 550 без дополнительного питания — то есть, как в старые добрые времена, достаточно поставить их в слот PCIe и они готовы к работе. При этом также есть версии 1050 и 1050 Ti с дополнительным питанием 6 pin, из-за чего некоторые пользователи делают вывод, что раз дополнительное питание есть — значит с ним видеокарты будут работать лучше.

На деле это не совсем так: слот PCIe способен дать видеокарте до 75 Вт, и этого вполне хватает, чтобы даже 1050 Ti работала на указанных на официальном сайте Nvidia частотах. Но если вы нацелены на разгон — да, тут питания от PCIe видеокарте может уже не хватить, так что дополнительные 6 pin от блока питания позволят достичь больших частот, однако разница в любом случае не превысит 10%.

Десятый миф. Не стоит ставить современные PCIe 3.0 видеокарты на старые платы со слотами PCIe 2.0 или 1.0

Все опять же логично — так, пропускная способность PCIe 2.0 x16 вдвое ниже, чем у 3.0 x16, а, значит, современные видеокарты через более старую шину PCIe будут работать медленнее. На деле это опять же не так — пропускная способность PCI Express 3.0 x16 даже для топовых современных видеокарт оказывается избыточной:

Похожее изображение

Хорошо видно, что разница между 3.0 x16 и 2.0 x16 составляет всего 1%, то есть погрешность, и даже если спуститься до PCIe 1.1 — то есть к материнским платам почти десятилетней давности — падение производительности оказывается всего лишь 6%. Так что вердикт тут прост — версия PCIe практически не влияет на производительность видеокарты, соответственно можно смело к Xeon с PCI Express 2.0 брать GTX 1080.

Одиннадцатый миф. Разгон видеопамяти не имеет смысла

Конечно, наибольший прирост дает разгон ядра видеокарты — тут прирост производительности близок к линейному (то есть увеличили частоту на 10% — получили прирост производительности на 10%). Однако не стоит сбрасывать со счетов видеопамять, особенно в слабых видеокартах: зачастую в них ставят те же чипы памяти, что и в более мощные решения, но при этом сильно снижают частоту. Это дает возможность ее достаточно сильно разогнать, зачастую на 20-40%, что может прибавить к общей производительности графики еще 10-15% — для слабых видеокарт это лишним, разумеется, не будет:

Двенадцатый миф. С выходом каждой новой линейки видеокарт производители урезают производительность старой

Достаточно популярный миф, основанный обычно на том, что на одних (обычно более старых) версиях драйверов видеокарта работает лучше, чем на других (обычно более новых). Разумеется, никакого реального основания он не имеет: если бы Nvidia и AMD на самом деле хотели заставить пользователей обновить видеокарты, они бы прекращали их поддержку как производители смартфонов на Android, через пару лет после выхода. Однако на деле даже решения 600-ой линейки от Nvidia, вышедшей более 6 лет назад, до сих пор получают новые драйвера наравне с более новыми видеокартами, причем со всеми программными «плюшками» типа DirectX 12.

Но почему тогда есть разница в производительности между драйверами? Потому что ничто в нашем мире не идеально, и какие-то драйвера, улучшая производительность в новых играх, могут испортить производительность в более старых или привести к различным ошибкам. Обычно через некоторые время выходят исправленные драйвера, и все возвращается на круги своя.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector