Список-таблица видеокарт Nvidia GeForce
Список-таблица видеокарт Nvidia GeForce
Перед Вами подробная список-таблица Видеокарт Nvidia Geforce. Вверху списка перечислены наиболее новые модели, внизу старые.
Список таблица видеокарт серии Nvidia GeForce(GF) RTX3000 Series
Видеокарты Nvidia GeForce RTX3000 построены на 8ми нанометровой архитектуре Ampere.
GeForce | GPU Name | Speed (Turbo) | Memory | PCIe | Bits | CUDA Cores | FP32 | TWD |
RTX3090 | GA102-300 | 1395Mhz 1695Mhz | 24Gb GDDR6X | 4.0 | 384 | 10496 | 35,6 TFLOPs | 350 |
RTX3080Ti | GA102-225 | 1365Mhz 1665Mhz | 12Gb GDDR6X | 4.0 | 384 | 10240 | 34,1 TFLOPs | 350 |
RTX3080 | GA102-200 | 1440Mhz 1710Mhz | 10Gb GDDR6X | 4.0 | 320 | 8704 | 29,8 TFLOPs | 320 |
RTX3070Ti | GA104-400 | 1575Mhz 1770Mhz | 8Gb GDDR6X | 4.0 | 256 | 6144 | 21,75 TFLOPs | 290 |
RTX3070 | GA104-300 | 1500Mhz 1725Mhz | 8Gb GDDR6 | 4.0 | 256 | 5888 | 20,3 TFLOPs | 220 |
RTX3060Ti | GA104-200 | 1410Mhz 1665Mhz | 8Gb GDDR6 | 4.0 | 256 | 4864 | 16,2 TFLOPs | 200 |
RTX3060 | GA106-300 | 1320Mhz 1777Mhz | 8Gb GDDR6 | 4.0 | 192 | 3584 | 12,7 TFLOPs | 170 |
Список таблица видеокарт серии Nvidia GeForce(GF) RTX2000 Series
Видеокарты Nvidia GeForce RTX2000 построены на 12ти нанометровой архитектуре Turing.
GeForce | GPU Name | Speed (Turbo) | Memory | PCIe | Bits | CUDA Cores | FP32 | TWD |
RTX2080Ti | TU102-300 | 1350Mhz 1545Mhz | 11Gb GDDR6 | 3.0 | 352 | 4352 | 13,4 TFLOPs | 250 |
RTX2080 Super | TU104-450 | 1350Mhz 1545Mhz | 8Gb GDDR6 | 3.0 | 256 | 3072 | 11,1 TFLOPs | 250 |
RTX2080 | TU104-400 | 1515Mhz 1710Mhz | 8Gb GDDR6 | 3.0 | 256 | 2944 | 10,1 TFLOPs | 215 |
RTX2070 Super | TU104-410 | 1605Mhz 1770Mhz | 8Gb GDDR6 | 3.0 | 256 | 2560 | 9,1 TFLOPs | 215 |
RTX2070 | TU106-400 | 1410Mhz 1620Mhz | 8Gb GDDR6 | 3.0 | 256 | 2304 | 7,5 TFLOPs | 175 |
RTX2060 Super | TU106-410 | 1410Mhz 1620Mhz | 8Gb GDDR6 | 3.0 | 256 | 2176 | 7,2 TFLOPs | 175 |
RTX2060 | TU106-300 | 1365Mhz 1680Mhz | 6Gb GDDR6 | 3.0 | 192 | 1920 | 6,5 TFLOPs | 160 |
Список таблица видеокарт серии Nvidia GeForce(GF) GTX1600 Series
Видеокарты Nvidia GeForce GTX1600 построены на 12ти нанометровой архитектуре Turing.
GeForce | GPU Name | Speed (Turbo) | Memory | PCIe | Bits | CUDA Cores | FP32 | TWD |
GTX1660Ti | TU116-400 | 1500Mhz 1770Mhz | 6Gb GDDR6 | 3.0 | 192 | 1536 | 5,4 TFLOPs | 120 |
GTX1660 Super | TU116-300 | 1530Mhz 1785Mhz | 6Gb GDDR6 | 3.0 | 192 | 1408 | 5,1 TFLOPs | 125 |
GTX1660 | TU116-300 | 1530Mhz 1785Mhz | 6Gb GDDR6 | 3.0 | 192 | 1408 | 5,0 TFLOPs | 120 |
GTX1650 Super | TU116-250 | 1530Mhz 1725Mhz | 4Gb GDDR6 | 3.0 | 128 | 1280 | 4,4 TFLOPs | 100 |
GTX1650 | TU117-300 | 1485Mhz 1665Mhz | 4Gb GDDR6 | 3.0 | 128 | 896 | 3,0 TFLOPs | 75 |
Список таблица видеокарт серии Nvidia GeForce(GF) GTX1000 Series
Видеокарты Nvidia GeForce GTX1000 построены на 16ти нанометровой архитектуре Pascal.
GeForce | GPU Name | Speed (Turbo) | Memory | PCIe | Bits | CUDA Cores | FP32 | TWD |
GTX1080Ti | GP102-350 | 1480Mhz 1582Mhz | 11Gb GDDR5X | 3.0 | 352 | 3584 | 11,3 TFLOPs | 250 |
GTX1080 | GP104-400 | 1607Mhz 1733Mhz | 8Gb GDDR5X | 3.0 | 256 | 2560 | 8,9 TFLOPs | 180 |
GTX1070Ti | GP104-300 | 1607Mhz 1683Mhz | 8Gb GDDR5 | 3.0 | 256 | 2432 | 8,2 TFLOPs | 180 |
GTX1070 | GP104-200 | 1506Mhz 1683Mhz | 8Gb GDDR5 | 3.0 | 256 | 1920 | 6,5 TFLOPs | 150 |
GTX1060 6Gb_Video | GP106-400 | 1506Mhz 1708Mhz | 6Gb GDDR5 | 3.0 | 192 | 1280 | 4,4 TFLOPs | 120 |
GTX1060 5Gb_Video | PG410 | 1506Mhz 1708Mhz | 5Gb GDDR5 | 3.0 | 160 | 1280 | 4,3 TFLOPs | 120 |
GTX1060 3Gb_Video | GP106-300 | 1506Mhz 1708Mhz | 3Gb GDDR5 | 3.0 | 192 | 1152 | 3,9 TFLOPs | 120 |
GTX1050Ti | GP107-400 | 1291Mhz 1392Mhz | 4Gb GDDR5 | 3.0 | 128 | 768 | 2,1 TFLOPs | 75 |
GTX1050 3Gb_Video | PG210 | 1392Mhz 1518Mhz | 3Gb GDDR5 | 3.0 | 128 | 768 | 2,3 TFLOPs | 75 |
GTX1050 | GP107-300 | 1354Mhz 1455Mhz | 2Gb GDDR5 | 3.0 | 128 | 640 | 1,9 TFLOPs | 75 |
GTX1030 | GP108-300 | 1227Mhz 1468Mhz | 2Gb GDDR5 | 3.0 | 64 | 384 | 1,1 TFLOPs | 30 |
Список таблица видеокарт серии Nvidia GeForce(GF) GTX900 Series
Видеокарты Nvidia GeForce GTX900 построены на 28ми нанометровой архитектуре Maxwell.
GeForce | GPU Name | Speed (Turbo) | Memory | PCIe | Bits | CUDA Cores | FP32 | TWD |
GTX980Ti | GM200-310 | 1000Mhz 1076Mhz | 6Gb GDDR5 | 3.0 | 384 | 2816 | 6,1 TFLOPs | 250 |
GTX980 | GM204-400 | 1126Mhz 1216Mhz | 4Gb GDDR5 | 3.0 | 256 | 2048 | 5,0 TFLOPs | 165 |
GTX970 | GM204-200 | 1051Mhz 1178Mhz | 3,5Gb GDDR5 | 3.0 | 224 | 1664 | 3,9 TFLOPs | 145 |
GTX960 | GM206-300 | 1127Mhz 1178Mhz | 2Gb GDDR5 | 3.0 | 128 | 1024 | 2,4 TFLOPs | 120 |
GTX950 | GM206-250 | 1024Mhz 1188Mhz | 2Gb GDDR5 | 3.0 | 128 | 768 | 1,8 TFLOPs | 90 |
Список таблица видеокарт серии Nvidia GeForce(GF) GTX700 Series
Видеокарты Nvidia GeForce GTX700 построены на 28ми нанометровой архитектуре Kepler.
GeForce | GPU Name | Speed (Turbo) | Memory | PCIe | Bits | CUDA Cores | FP32 | TWD |
GTX780Ti | GK110-425 | 875Mhz 928Mhz | 3Gb GDDR5 | 3.0 | 384 | 2880 | 5,4 TFLOPs | 250 |
GTX780 | GK110-300 | 863Mhz 900Mhz | 3Gb GDDR5 | 3.0 | 384 | 2304 | 4,2 TFLOPs | 250 |
GTX770 | GK104-425 | 1046Mhz 1084Mhz | 2Gb GDDR5 | 3.0 | 256 | 1536 | 3,3 TFLOPs | 230 |
GTX760Ti | GK104-325 | 915Mhz 980Mhz | 2Gb GDDR5 | 3.0 | 256 | 1344 | 2,6 TFLOPs | 170 |
GTX760 | GK104-225 | 980Mhz 1033Mhz | 2Gb GDDR5 | 3.0 | 256 | 1152 | 2,4 TFLOPs | 170 |
GTX750Ti | GM107-400 | 1020Mhz 1085Mhz | 2Gb GDDR5 | 3.0 | 128 | 640 | 1,4 TFLOPs | 60 |
GTX750 | GM107-300 | 1020Mhz 1085Mhz | 1Gb GDDR5 | 3.0 | 128 | 512 | 1,1 TFLOPs | 55 |
GT740 | GK107-425 | 993Mhz | 1Gb GDDR5 | 3.0 | 128 | 384 | 0,8 TFLOPs | 65 |
GT730 | GF108-400 | 700Mhz | 1Gb GDDR3 | 2.0 | 128 | 96:16:4 | 0,1 TFLOPs | 50 |
GT720 | GK208 | 797Mhz | 1Gb GDDR3 | 2.0 | 64 | 192 | 0,3 TFLOPs | 20 |
Список таблица видеокарт серии Nvidia GeForce(GF) GTX600 Series
Видеокарты Nvidia GeForce GTX600 построены на 28ми нанометровой архитектуре Kepler.
GeForce | GPU Name | Speed (Turbo) | Memory | PCIe | Bits | CUDA Cores | FP32 | TWD |
GTX690 | 2*GK104-400 | 915Mhz 1019Mhz | 4Gb GDDR5 | 3.0 | 512 | 3072 | 6,3 TFLOPs | 300 |
GTX680 | GK104-400 | 1006Mhz 1058Mhz | 2Gb GDDR5 | 3.0 | 256 | 1536 | 3,3 TFLOPs | 195 |
GTX670 | GK104-325 | 915Mhz 980Mhz | 2Gb GDDR5 | 3.0 | 256 | 1344 | 2,7 TFLOPs | 170 |
GTX660Ti | GK104-300 | 915Mhz 980Mhz | 2Gb GDDR5 | 3.0 | 192 | 1344 | 2,6 TFLOPs | 150 |
GTX660 | GK106-400 | 980Mhz 1033Mhz | 2Gb GDDR5 | 3.0 | 192 | 960 | 2,0 TFLOPs | 140 |
GTX650Ti | GK106-220 | 928Mhz | 1Gb GDDR5 | 3.0 | 128 | 768 | 1,4 TFLOPs | 110 |
GTX650 | GK107-450 | 1058Mhz | 1Gb GDDR5 | 3.0 | 128 | 384 | 0,8 TFLOPs | 64 |
GT640 | GK107-300 | 900Mhz | 2Gb GDDR3 | 3.0 | 128 | 384 | 0,7 TFLOPs | 65 |
GT630 | GF108-400 | 810Mhz | 1Gb GDDR3 | 2.0 | 128 | 96 | 0,2 TFLOPs | 65 |
GT620 | GF108-100 | 700Mhz | 1Gb GDDR3 | 2.0 | 64 | 96 | 0,13 TFLOPs | 49 |
GT610 | GF119-300 | 810Mhz | 1Gb GDDR3 | 2.0 | 64 | 48 | 0,08 TFLOPs | 29 |
Список таблица видеокарт серии Nvidia GeForce(GF) GTX500 Series
Видеокарты Nvidia GeForce GTX500 построены на 40 нанометровой архитектуре Fermi 2.0.
GeForce | GPU Name | Speed (Turbo) | Memory | PCIe | Bits | CUDA Cores | FP32 | TWD |
GTX590 | 2*GF110 | 612Mhz | 3Gb GDDR5 | 2.0 | 768 | 1024 | 2,5 TFLOPs | 365 |
GTX580 | GF110 | 782Mhz | 1,5/3Gb GDDR5 | 2.0 | 384 | 512 | 1,6 TFLOPs | 244 |
GTX570 | GF110 | 742Mhz | 1/2,5Gb GDDR5 | 2.0 | 320 | 480 | 1,4 TFLOPs | 219 |
GTX560Ti | GF114 | 900Mhz | 1/2Gb GDDR5 | 2.0 | 256 | 384 | 1,3 TFLOPs | 170 |
GTX560 | GF114 | 810Mhz | 1/2Gb GDDR5 | 2.0 | 256 | 336 | 1,2 TFLOPs | 150 |
GTX550Ti | GF116 | 910Mhz | 1Gb GDDR5 | 2.0 | 192 | 192 | 0,7 TFLOPs | 116 |
GT530 | GF119 | 700Mhz | 1/2Gb GDDR3 | 2.0 | 128 | 96 | 0,3 TFLOPs | 50 |
GT520 | GF119 | 810Mhz | 1/2Gb GDDR3 | 2.0 | 64 | 48 | 0,2 TFLOPs | 29 |
GT510 | GF119 | 523Mhz | 1/2Gb GDDR3 | 2.0 | 64 | 48 | 0,1 TFLOPs | 25 |
Список таблица видеокарт серии Nvidia GeForce(GF) GTX400 Series
Видеокарты Nvidia GeForce GTX400 построены на 40 нанометровой архитектуре Fermi.
Актуальная таблица с хешрейтом видеокарт на 2021 год
Начало 2021 года отметилось очередным повышением интереса к майнингу криптовалют, но как и предыдущие 5 лет основное внимание майнеров занимают только две криптовалюты: Ethereum и Bitcoin. Ethereum как и прежде майнеры добывают с помощью видеокарт, а Bitcoin все так же под ASIC майнерами. Если с майнингом Bitcoin все стабильно и прогнозируемо в плане подбора оборудования, т.к. производители ASIC майнеров SHA-256 уже давно не устраивали революций и каждое новое поколение ASIC чуть лучше другого. То ситуация с майнингом на видеокартах постоянно меняется, т.к. за прошедший год поступили в продажу видекоарты AMD и Nvidia нового поколения, которые могут предложить намного большую энергоэффективность, чем видеокарты выпущенные всего год назад. Кроме этого можно наблюдать все более сильное разделение майнеров на две касты. Тех кто может добывать эфириум на своем оборудовании и тех кто нет. И этот «водораздел» проходит на границе 5Gb видеопамяти, т.к. для майнинга Ethereum на начало 2021 года нужно именно столько видеобуфера.
И под это ограничение появляются новые проекты криптовалют, майнинг которых ориентирован на видеокарты с большим количеством видеопамяти (8Gb и больше), например, Octopus, GRIN, Cortex. Но есть проекты, которые наоборот готовы бороться за внимание владельцев видеокарт с 4Gb видеопамяти и меньше. Наиболее яркий пример это переход Ethereum Classic с алгоритма майнинга Ethash на ETCHash, что бы майнинг этой криптовалюты стал вновь доступен на видеокартах с 3Gb и 4Gb видеопамяти. Сюда же можно отнести и недавний хардфорк старенькой криптовалюты VertCoin, с новым алгоритмом майнинга Verthash.
Кроме исключения из майнинга Ethereum всех видеокарт с 4Gb видеопамяти еще одним неприятным сюрпризом 2020 года стало постепенное снижение хешрейта на алгоритме Ethash видеокарт Nvidia Geforce GTX 1000 серии. Если еще в начале года топовая видеокарта этой серии GTX 1080Ti выдавала 55MH/s на стандартной частоте GPU, то сейчас эта же видеокарта выдает 50MH/s, но при этом необходимо так же поднимать частоту GPU до максимально возможных значений. И эта тенденция уменьшения хешрейта продолжится и в 2021 году с ростом эпохи (увеличением DAG файла) у криптовалюты Ethereum. Аналогичная ситуация складывается так же и у видеокарт GTX 1080, GTX 1070, GTX 1060.
Что бы владельцы майнинг ригов на видеокартах не расслаблялись и постоянно держали себя в тонусе, масла в огонь подкидывают еще разработчики программ для майнинга, постоянно внедряя новые возможности и оптимизируя код как под старые, так и под новые алгоритмы. Одним из таких откровений стал TeamRedMiner 0.8.0, который значительно улучшил характеристики видеокарт AMD в майнинге Ethereum, чего в принципе никто не ожидал, т.к. алгоритм майнинга ETHash (dagger-hashimoto) известен с 2015 года и казалось, что кардинально нового здесь уже ничего не будет.
Ознакомиться с таблицей хешрейтов видеокарт за прошлый 2020 год можно по этой ссылке
Уникальный Ethereum майнинг пул с возможностью торговли, вывода на банковску карту и получения дохода
2021 год в майнинге, мы уверены, будет не менее насыщенным на новые модели видеокарт, новые версии майнеров и новые криптовалюты. Поэтому будем держать Вас в курсе всех основных изменений, которые будут в этом году.
Как разогнать видеокарту NVIDIA GeForce и увеличить FPS в играх (самый простой способ)
Доброго времени.
Сегодняшняя заметка будет посвящена разгону* видеокарт от nVidia для увеличения производительности (FPS в играх). Способ, приведенный ниже, крайне простой и доступен даже начинающему пользователю.
* Примечание : под разгоном понимается увеличение штатных частот, на которых работает видеокарта. В среднем, за счет этого, удается повысить производительность на 5-10%.
Но прежде хочу сделать несколько предупреждений:
- во-первых, перед разгоном рекомендую попробовать увеличить производительность за счет тонких настроек видеокарты (вдруг этого будет достаточно?) ;
- во-вторых, разгон — штука не безопасная, и в некоторых случаях может привести к выходу из строя карты (хотя происходит это редко, и как правило, из-за неуёмных экспериментов пользователя) . Тем не менее: делаете всё на свой страх и риск!
- в-третьих, если вы ожидаете повысить производительность в 2-3 раза — то это невозможно (по крайней мере, я не знаю, что для этого нужно сделать 👀) . Как уже сказал, если удастся «выжать» еще 10% — уже не плохо!
- в-четвертых, некоторые занимаются разгоном, чтобы увеличить какие-то циферки в тестах. Я считаю, что это «неправильно», и разгонять видеокарту стоит только при реальной задаче: например, тормозит игра (низкое количество FPS) и вам нужно поднять FPS до комфортного уровня.
Теперь к сути, рассмотрим задачу на реальном примере. 👇
👉 Важно!
Кстати, если ваша видеокарта на тянет какую-то игру — возможно есть смысл попробовать сервис GFN и запустить ее в облаке?! Производительность вырастает в разы!
Разгон видеокарты от nVidia (по шагам)
ШАГ 1: загрузка утилиты
Вообще, для разгона видеокарты нам понадобиться увеличить частоты у ее:
- памяти (Memory Clock);
- шейдерных блоков (Shader Clock);
- графического ядра (видео-чипа / GPU Clock). Обычно, его частота указывается в описании карты (например, 954 МГц у GeForce GT 710).
Описание типовой видеокарты
👉 Увеличить частоты можно с помощью разных утилит, но наиболее просто это делается в nVidia Inspector. Она предназначена только для видеокарт от nVidia! В установке не нуждается, загруженный архив достаточно просто извлечь и запустить файл nvidiaInspector.exe .
ШАГ 2: настройка nVidia Inspector
После запуска утилиты nVidia Inspector пред вами предстанет окно с параметрами вашей видеокарты. Это уже неплохо, значит утилита «видит» и распознает карту и можно идти дальше.
👉 Рассмотрим весь процесс разгона в nVidia Inspector по шагам:
- для начала запустите нужную вам игру и утилиту для просмотра FPS (Fraps, например). Это позволит воочию «увидеть» что даст нам разгон (в своем примере взял игру Civilization 4). После, посмотрев FPS, сверните игру (Alt+Tab) ;
- далее в правом нижнем углу окна nVidia Inspector нажмите кнопку «Show Overclocking» (стрелка-1 на скриншоте ниже) ;
- должно появиться доп. окно справа. В нем есть три заветные ползунка: GPU Clock, Memory Clock, Shader Clock (частота видеочипа, памяти, шейдеров соответственно) ;
- теперь сдвиньте ползунки Memory Clock и Shader Clock вправо на 5-10% (Memory: было 800 — стало 880 MHz; Shader: было — 1560, стало — 1700 MHz) ;
- нажмите кнопку «Apply Clock» (стрелка-4 на скрине ниже) .
NVIDIA Inspector — увеличиваем частоты
Примечание: GPU Clock увеличивается автоматически при изменении Shader Clock. Увеличивать частоты более чем на 15% — как правило, нет смысла.
👉 В помощь! Как правильно считать проценты.
Собственно, всё! Частоты мы подняли и видеокарта теперь должна работать пошустрее. В моем тесте получилось выжать из GeForce GT 440 еще около 12% к FPS (было 107, стало 120). Разумеется, значения эти примерные, и в каждой игре производительность может сильно меняться (т.е. в одной FPS вырастет на 5%, в другой — на 25%)!
До разгона — 107 кадров (скриншот из игры Civilization IV)
После разгона 120 кадров (скриншот из игры Civilization IV)
Кстати, после перезагрузки компьютера — утилита NVIDIA Inspector запущена не будет, а значит частоты будут сброшены на дефолтные. Чтобы при каждой загрузке Windows — утилита запускалась автоматически и разгоняла видеокарту — необходимо добавить ее в автозагрузку. См. ссылку ниже.
ШАГ 3: тесты и до-настройка
Разумеется, частоты у видеокарты повышать можно не до бесконечности (в среднем 5-15%). У каждой видеокарты — своя граница (определяется экспериментально ☝) , после которой она начинает работать не стабильно: в игре могут появиться искажения в графике (артефакты), ошибки, подвисания. В общем-то, это сразу заметно!
Важно! При разгоне, обычно, требуется несколько итераций, чтобы подобрать наиболее высокие и безопасные частоты. Кстати, обратите внимание на один момент: при повышении частот — будут повышаться и температуры, и видеокарта может начать перегреваться!
Вообще, чтобы протестировать стабильность работы видеокарты — рекомендую воспользоваться утилитой FurMark. Она за 5-10 мин. хорошо нагрузит карту и позволит одновременно наблюдать и за температурой, и за FPS, и за частотами.
FurMark — стресс-тест в действии (крутится бублик)
👉 Дополнение!
Температура видеокарты: как ее узнать, допустимые и критические значения t-ры — https://ocomp.info/temperatura-videokartyi-normal.html
ШАГ 4: за счет чего еще можно увеличить FPS в играх
Вообще, многие пользователи ошибочно считают, что только за счет разгона можно существенно ускорить игру и поднять FPS. На самом деле есть еще пару важных моментов (которые могут дать куда больший результат)!
👉 1) Настройки драйвера видеокарты
От драйвера и настроек зависит очень многое. Поэтому, во-первых, порекомендовал бы проверить обновлен ли он у вас, и все ли необходимые игровые компоненты установлены в Windows (сделать это проще всего с помощью утилиты Driver Booster).
Обновить всё — игровые компоненты, звуковые и игровые устройства и пр. / Driver Booster
Во-вторых, обратите внимание, что в панели управления видеодрайвером (не только у nVidia) в параметрах 3D можно выставить приоритет для карты: на производительность или качество изображения. Если ползунок полностью выкрутить на производительность — удается добавить еще 5-15% FPS (причем, на глаз разница в качестве изображения может быть и незаметна!).
Панель управления NVIDIA
Ну и, в-третьих, есть ряд параметров, изменив которые в ручном режиме можно «снизить» качество изображения (выдаваемое видеокартой), зато выиграть еще несколько процентов. См. ссылку ниже.
В помощь! Как повысить производительность видеокарты NVIDIA в играх: настройка видеодрайвера — https://ocomp.info/kak-povyisit-proizvoditelnost-videokart-nvidia.html
👉 2) Настройки игры
Кроме настроек видеокарты обратите также внимание на параметры игры. Изменив ряд настроек — можно существенно ускорить ее. Я порекомендовал бы «поиграться» в первую очередь с:
- разрешением игры (чем меньше — тем больше FPS и плавнее картинка) ;
- качеством текстур;
- тенями, детализацией воды, тумана, дальностью горизонта;
- детализацией ландшафта;
- вертикальной синхронизацией (в некоторых играх лучше отключить) .
Настройки графики для WOW Legion
Часто бывает, что, отключив тени и изменив дальность горизонта — количество FPS удваивается (без всякого разгона!). Конечно, у каждой игры свои особенности, которые лучше искать на специализированных форумах.
Таблица энергопотребления видеокарт NVIDIA GeForce GTX и RTX
Энергопотребление – одна из основных характеристик любой видеокарты. Дело в том, что видеокарты, как и центральные процессоры, являются одним из основных потребителей энергии в компьютере. Современные модели среднего уровня обычно требуют от 150 до 250 Вт электроэнергии, а флагманские модели могут требовать до 300 Вт.
Естественно, эти запросы должны удовлетворяться блоком питания. Иначе компьютер может работать не стабильно, возможны синие экраны, внезапные перезагрузки, а также другие проблемы. Поэтому при сборке компьютера крайне важно учесть энергопотребление и подобрать блок питания, который сможет справляться с такой нагрузкой.
В данной статье мы приводим таблицу энергопотребления видеокарт NVIDIA GeForce GTX и RTX, начиная от GTX 400 Series, которые вышли в 2010-м году, и заканчивая RTX 2080 Ti и TITAN RTX, которые появились в 2019-м.
- Таблица энергопотребления видеокарт
- Энергопотребление видеокарт NVIDIA TITAN
- Энергопотребление видеокарт NVIDIA Quadro
- Энергопотребление видеокарт RTX 3090, 3080, 3070
- Энергопотребление видеокарт RTX 2060, 2070, 2080 (Super)
- Энергопотребление видеокарт GTX 1650, 1660 (Super, Ti)
- Энергопотребление видеокарт GTX 1050, 1060, 1070, 1080 (Ti)
- Энергопотребление видеокарт GTX 950, 960, 970, 980 (Ti)
- Энергопотребление видеокарт GTX 750, 760, 770, 780 (Ti)
- Энергопотребление видеокарт GTX 650, 660, 670, 680, 690 (Ti, Ti Boost)
- Энергопотребление видеокарт GTX 550, 560, 570, 580, 590 (Ti)
- Энергопотребление видеокарт GTX 450, 460, 465, 470, 480
Таблица энергопотребления видеокарт
В таблице приведено два значения, « Энергопотребление » и « Рекомендуемая мощность БП ».
- Энергопотребление – это потребляемая мощность видеокарты, которая будет затребована с блока питания, этот параметр можно использовать для оценки общего энергопотребления всего компьютера.
- Рекомендуемая мощность БП – это мощность блока питания для компьютера с данной видеокартой по рекомендации NVIDIA. Рекомендуемая мощность блока питания рассчитывается с учетом типичных комплектующих и в большинстве случаев является достаточной для стабильной работы компьютера.
Для большинства рабочих и игровых компьютеров с процессорами среднего уровня и без разгона вполне будет достаточно блока питания с мощностью, которую рекомендует NVIDIA. Но, если вы используете флагманский процессор, планируете разгон комплектующих или апгрейд системы, то необходимо подобрать более мощный БП. Обычно в таких случаях 100-150 Вт свыше рекомендуемого значения будет более чем достаточно.