Pmonline.ru

Пром Онлайн
2 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

У кого windows 10 и geforce gt 520m или другая карта 500 серии. у вас directx 12 показывает

У кого windows 10 и geforce gt 520m или другая карта 500 серии.у вас directx 12 показывает?

У кого windows 10 и geforce gt 520m или другая карта 500 серии.у вас directx 12 показывает?

Да и потом полноценная поддержка dx 10 есть только у 9хх серии.

Показывает что? Кукиш? 500 серия будет поддерживать dx12, но только частично, и только на 10 винде.

Зачем тебе? Если ты собрался играть в игру на dx 10 на своей видяхе. то я хочу тебя огорчить.

твоя видуха все равно не поддерживает ДХ12.

У меня GTX 550 Ti и вин 10, показывает dx11, карта не поддерживает dx12. Есть ноут с GT 740m? и вин 10 показывает dx12.

вы лучше скажите есть ли прирост в этом вашем директикс12?

Разрешение экрана в Win 10 после последнего обновления

Вчера наш незабвенный и любимый Microsoft подложил многим своим пользователям большую свинью в виде отключения поддержки в Win 10 очень многих видеокарт старого образца. В связи с этим, у всех пользователей со старыми видюхами слетело разрешение экрана. Похоже всё это на заговор корпораций, или нет, судить не мне, хотя, конечно, сегодня половина юзеров побежали в магазин менять свои видюхи на более новые, что сыграло на руку, как производителям видеокарт, так и продавцам комплектующих. Ну, браво! Что сказать. Только, как известно, «против лома нет приёма, если нет другого лома». Я справилась с этой проблемой, чего и вам, друзья советую. Надеюсь, мой опыт пригодится. Вот инструкция, как это сделать:

Разрешение экрана в Win 10 после последнего обновления Windows 10, Разрешение экрана, Видеокарта, Длиннопост

Пробуем применить откат последних обновлений для драйвера дисплея.

Разрешение экрана в Win 10 после последнего обновления Windows 10, Разрешение экрана, Видеокарта, Длиннопост

Разрешение экрана в Win 10 после последнего обновления Windows 10, Разрешение экрана, Видеокарта, Длиннопост

Hide updates — скрыть обновления. Отключает установку выбранных вами обновлений.

Show hidden updates — позволяет заново включить установку скрытых ранее обновлений.

Если помогло сразу – радуйтесь. Но, помогает не всем.

Если не помогло:

2. Качаем отсюда прогу DDU

3. Качаем драйвер для своей видеокарты для win7-8 официального сайта производителя видюхи. (Если не знаете, какая у вас видеокарта, щелкните правой кнопкой мыши по «этот компьютер» в проводнике, выбирайте пункт «Управление», там найдите «Диспетчер устройств» и щелкните на «видеоадаптер», там будет название видеокарты и её модель). У меня старенький ATI Radeon, поэтому я просто скачала Catalyst для win7-8-vista.

4. Качаем программу O&O, запускаем, включаем пункт «Запретить Windows Update автоматическое обновление драйверов»

Разрешение экрана в Win 10 после последнего обновления Windows 10, Разрешение экрана, Видеокарта, Длиннопост

Далее нужно ввести эту программу в автозагрузку. Если не знаете, как это сделать, качайте Starter и добавляйте программу через «Новый элемент».

5. Перезапускаем комп в безопасном режиме: Инструкция по входу в БР

6. Запускаем программу DDU, удаляем драйвер от Microsoft с перезапуском.

7. После перегрузки компа в обычный режим, сразу ставим драйвер от производителя видеокарты, который скачали для win7-8. Видюха сама перестроит разрешение. Перегружаем комп для проверки. Имеем счастье.

В Windows 10 Fall Creators Update появится контроль производительности графических адаптеров

Сегодня Microsoft выпускает очередной крупный апдейт для Windows 10, получивший название Fall Creators Update и добавляющий в операционную систему массу новых функций и возможностей.

Наряду с другими нововведениями не обошли стороной программисты редмондского гиганта и старый добрый диспетчер задач Windows, в который давно напрашивалась вкладка с актуальными показаниями потребления ресурсов графической подсистемы компьютера. Теперь такой инструмент есть — и с его помощью можно в режиме реального времени отслеживать, как операционная система и запущенные приложения распоряжаются графическим процессором (GPU), памятью и прочими вычислительными ресурсами видеоускорителя. Отличная штука для тех, кто привык контролировать запущенные в системе процессы и держать руку на пульсе всего и вся. Свершилось.

GeForce 500 series

A refresh of the Fermi based GeForce 400 series, the GeForce 500 series is a series of graphics processing units developed by Nvidia, first released on November 9, 2010 with the GeForce GTX 580.

Contents

Overview [ edit ]

The Nvidia Geforce 500 series graphics cards are significantly modified versions of the GeForce 400 series graphics cards, in terms of performance and power management. Like the Nvidia GeForce 400 series graphics cards, the Nvidia Geforce 500 series supports DirectX 11.0,OpenGL 4.6, and OpenCL 1.1.

Читайте так же:
Моргает монитор и не включается компьютер

The refreshed Fermi chip includes 512 stream processors, grouped in 16 stream multiprocessors clusters (each with 32 CUDA cores), and is manufactured by TSMC in a 40 nm process.

The Nvidia GeForce GTX 580 graphics card is the first in the Nvidia GeForce 500 series to use a fully enabled chip based on the refreshed Fermi architecture, with all 16 stream multiprocessors clusters and all six 64-bit memory controllers active. The new GF110 GPU was enhanced with full speed FP16 filtering (the previous generation GF100 GPU could only do half-speed FP16 filtering) and improved z-culling units.

On January 25, 2011, Nvidia launched the GeForce GTX 560 Ti, to target the «sweet spot» segment where price/performance ratio is considered important. With its more than 30% improvement over the GTX 460, and performance in between the Radeon HD 6870 and 6950 1GB, the GTX 560 Ti directly replaced the GeForce GTX 470.

On February 17, 2011, it was reported that the GeForce GTX 550 Ti would be launching on March 15, 2011. Although the GTX 550 Ti is a GF116 mainstream chip, Nvidia chose to name its new card the GTX 550 Ti, and not the GTS 550. Performance was shown to be at least comparable and up to 12% faster than the current Radeon HD 5770. Price-wise, the new card trod into the range occupied by the GeForce GTX 460 (768 MB) and the Radeon HD 6790. [2]

On March 24, 2011, the GTX 590 was launched as the flagship graphics card for Nvidia. The GTX 590 is a dual-GPU card, similar to past releases such as the GTX 295, and boasted the potential to handle Nvidia’s 3D Vision technology by itself. [3]

On April 13, 2011, the GT 520 was launched as the bottom-end card in the range, with lower performance than the equivalent number cards in the two previous generations, the GT 220 and the GT 420. [ citation needed ] However, it supported DirectX 11 and was more powerful than the GeForce 210, the GeForce 310, and the integrated graphics options on Intel CPUs.

On May 17, 2011, Nvidia launched a less expensive (non-Ti) version of the GeForce GTX 560 to strengthen Nvidia’s price-performance in the $200 range. Like the faster GTX 560 Ti that came before it, this video card was also faster than the GeForce GTX 460. Standard versions of this card performed comparably to the AMD Radeon HD 6870, and would eventually replace the GeForce GTX 460. Premium versions of this card operate at higher speed (factory overclocked), and are slightly faster than the Radeon 6870, approaching the performance of basic versions of the Radeon HD 6950 and the GeForce GTX 560 Ti.

On November 28, 2011, Nvidia launched the «GTX560Ti With 448 Cores». [4] However, it does not use the silicon of the GTX560 series: it is a GF110 chip with two shader blocks disabled. The most powerful version of the 560 series, this card was widely known to be a «limited production» card and was used as a marketing tool making use of the popularity of the GTX560 brand for the 2011 Holiday season. The performance of the card resides between the regular 560Ti and 570.

Counterfeit usage [ edit ]

The cards of this generation, particularly the smaller length 550 Ti model, are common cards of choice by counterfeit re-sellers, who take the cards and edit their BIOS chips to have them report as more modern cards such as the GTX 1060 and 1050 Ti models. These cards are then sold via eBay, Taobao, Aliexpress and Wish.Com by the scammer. They may have a minimum of functionality to ensure at a first glance they appear legitimate, but defects caused by the fake BIOS, manufacturing and software issues will almost always cause crashes in modern games & applications, and if not, the performance will still be extremely poor. [5]

Читайте так же:
Материнская плата asus h170 pro gaming

Products [ edit ]

GeForce 500 (5xx) series [ edit ]

  • 1 Unified shaders: Texture mapping units: Render output units
  • 2 Each Streaming Multiprocessor (SM) in the GPU of GF110 architecture contains 32 SPs and 4 SFUs. Each Streaming Multiprocessor (SM) in the GPU of GF114/116/118 architecture contains 48 SPs and 8 SFUs. Each SP can fulfil up to two single precision operations FMA per clock. Each SFU can fulfil up to four operations SF per clock. The approximate ratio of operations FMA to operations SF is equal 4:1. The theoretical shader performance in single-precision floating point operations (FMA)[FLOPSsp, GFLOPS] of the graphics card with shader count [n] and shader frequency [f, GHz], is estimated by the following: FLOPSsp ˜ f × n × 2. Alternative formula: FLOPS sp ˜ f × m × (32 SPs × 2(FMA)). [m] – SM count. Total Processing Power: FLOPSsp ˜ f × m × (32 SPs × 2(FMA) + 4 × 4 SFUs) or FLOPSsp ˜ f × n × 2.5.
  • 3 Each SM in the GF110 contains 4 texture filtering units for every texture address unit. The complete GF110 die contains 64 texture address units and 256 texture filtering units. [6] Each SM in the GF114/116/118 architecture contains 8 texture filtering units for every texture address unit but has doubled both addressing and filtering units.

All products are produced using a 40 nm fabrication process. All products support DirectX 12.0, OpenGL 4.6 and OpenCL 1.1.

ModelLaunchCode nameTransistors (Million)Die size (mm 2 )Bus interfaceSM countCore config 1,3Clock rateFillrateMemory ConfigurationCompute capabilityGFLOPs (FMA) 2TDP (watts)Launch Price
Core (MHz)Shader (MHz)Memory (MHz)Pixel (GP/s)Texture (GT/s)Size (MB)Bandwidth (GB/s)DRAM typeBus width (bit)USDGBP
GeForce 510September 29, 2011GF11929279PCIe 2.0 x16148:8:4523104617962.094.181024
2048
14.0DDR3642.1100.425OEMOEM
GeForce GT 520April 12, 2011GF11929279PCIe 2.0 x16148:8:4810162018003.246.51024
2048
14.1DDR3642.1155.529$59£45
GeForce GT 530May 14, 2011GF108585116PCIe 2.0 x16296:16:8700140018005.611.21024
2048
28.8DDR31282.1268.850OEMOEM
GeForce GT 545 DDR3May 14, 2011GF1161170238PCIe 2.0 x163144:24:247201440180017.2817.281536
3072
43DDR31922.1417.770$109?
GeForce GT 545 GDDR5May 14, 2011GF1161170238PCIe 2.0 x163144:24:168701740399613.9220.88102462.4GDDR51282.1501.1105OEMOEM
GeForce GTX 550 TiMarch 15, 2011GF1161170238PCIe 2.0 x164192:32:249001800410421.628.81024
2048
98.5GDDR51922.1691.2116$149?
GeForce GTX 555May 14, 2011GF1141950332PCIe 2.0 x166288:48:24736147238288.835.3102491.9GDDR51922.1847.9150OEMOEM
GeForce GTX 560 SEMarch 2012GF1141950360PCIe 2.0 x166288:48:247361472382817.735.3102492GDDR51922.1847.9150?£100
GeForce GTX 560May 17, 2011GF1141950360PCIe 2.0 x167336:56:32810-9501620-19004004-448825.945.4-49.81024
2048 [7]
128GDDR52562.11088.6-1276.8
1075 [8]
150$199?
GeForce GTX 560 TiJanuary 25, 2011GF1141950360PCIe 2.0 x168384:64:328221645400826.352.611024
2048
128.27GDDR52562.11263.4170$249?
GeForce GTX 560 Ti 448 CoreNovember 28, 2011GF1103000520PCIe 2.0 x1614448:56:407321464380029.28411280152GDDR53202.01311.7210$289£239.99
GeForce GTX 570December 7, 2010GF1103000520PCIe 2.0 x1615480:60:407321464380029.2843.921280
2560
152GDDR53202.01405.4219$349?
GeForce GTX 580November 9, 2010GF1103000 [9]520 [9]PCIe 2.0 x1616512:64:487721544400837.0649.411536
3072
192.4GDDR53842.01581.1244 [10]$499£399
GeForce GTX 590March 24, 20112× GF1102× 30002× 520PCIe 2.0 x1632 [11]1024:128:96 [12]60712153414 [12]58.75 [12]77.72× 1536 [11]327.7GDDR52×3842.02488.3365$699£570 [11]
Читайте так же:
Можно ли поставить ноутбук на таймер выключения

GeForce 500M (5xxM) series [ edit ]

The GeForce 500M series for notebook architecture.

  • 1 Unified shaders: Texture mapping units: Render output units

Chipset table [ edit ]

Discontinued support [ edit ]

Nvidia announced that after Release 390 drivers, it will no longer release 32-bit drivers for 32-bit operating systems. [14]

Nvidia announced in April 2018 that Fermi will transition to legacy driver support status and be maintained until January 2019. [15]

Видеокарта gt520 1024m ddr3 64b

Видеокарта для ноутбуков NVIDIA GeForce GT 820M относится к продуктам бюджетной категории и предназначена для использования в недорогих лэптопах. Основу этой видеокарты составляет графический чип GF117 (модифицированная версияFermi), выпускаемый по нормам 28 н.м, который работает на частоте 719 — 954 MГц. Чип предлагает 96 шейдеров, 16 блоков TMU и 4 блока ROP. Каждое шейдерное ядро работает на частоте в два раза быстрее, чем остальная часть графического чипа, благодаря наличию технологии, известной как hot clocking (горячий разгон). Кроме того, GF117 не поддерживает специальные графические порты, поэтому может использоваться только в сочетании с Optimus. Ширина шины памяти у этой видеокарты составляет 64 бит, при этом существуют только одна версия видеокарты, с видеопамяти DDR3, объем которой может составлять 1024-2048 ГБ. Для видеокарты 820M характерно наличие технологии GPU Boost 2.0, которая может автоматически разгонять карту, если система охлаждения ноутбука позволяет это. Собственно, данная функция доступна на любом ноутбуке с видеокартой серии 800M.

К числу приводимых характеристик новинки под названием GeForce 820M относится поддержка современных программных интерфейсов OpenGL 4.4, OpenCL 1.1 и DirectX 11.2, а производительность этого адаптера, как сказано, в два с половиной раза превосходит показатели Intel HD 4400. Энергопотребление GeForce GT 7505M составляет 15 Вт TDP.

Особенности

Технология NVIDIA Optimus предназначена для сочетания производительности ноутбука и долгого времени его автономной работы. Технология Optimus работает таким образом: в случае необходимости аппаратного ускорения, например тяжелые компьютерные игры, система автоматически переключается на дискретную графику. Во всех других случаях, например работа с офиcными приложениями, ноутбук работает от встроенного в процессор графического ядра. Переключение происходит буквально за секунду. У NVIDIA есть специальный индикатор, который показывает, когда работает дискретная графика, а когда — нет.

Технология NVIDIA CUDA— программно-аппаратная архитектура параллельных вычислений, которая позволяет существенно увеличить вычислительную производительность благодаря использованию графических процессоров компании NVIDIA CUDA. SDK позволяет программистам реализовывать на специальном упрощённом диалекте языка программирования Си алгоритмы, выполнимые на графических процессорах NVIDIA, и включать специальные функции в текст программы на Cи. Архитектура CUDA даёт разработчику возможность по своему усмотрению организовывать доступ к набору инструкций графического ускорителя и управлять его памятью.

Технология PhysX — кроссплатформенный физический движок для симуляции ряда физических явлений, а также комплект средств разработки (SDK) на его основе. Первоначально разрабатывался компанией Ageia для своегофизического процессора PhysX. После того, как Ageia была приобретена nVidia, движок перешел в собственность компании nVidia, которая продолжает его дальнейшую разработку. nVidia адаптировала движок для ускорения физических расчетов на своих графических чипах с архитектурой CUDA. PhysX может также производить вычисления с использованием обычного процессора. Технология NVIDIA PhysX дарит играм потрясающий реализм, в виде динамических эффектов, включая взрывы с огнем, интерактивные развалины и мусор, реалистичную воду и правдоподобных персонажей.

Читайте так же:
Вставьте диск в устройство юсб накопитель

Технология NVIDIA FXAA — сглаживание выравнивает зубчатые границы изображения, но может быть очень требовательным к частоте смены кадров. FXAA – это новая технология сглаживания, которая обеспечивает прекрасные плавные линии при минимальном влиянии на производительность. Благодаря GPU на базе архитектуры Kepler ты можешь включить FXAA в сотнях играх через Панель управления NVIDIA. Второй режим, TXAA, является внутри игровой опцией, которая объединяет MSAA, временную фильтрацию и постобработку для еще более высокой точности изображения.

Технология NVIDIA GPU Boost 2 на программном уровне контролирует температуру графического процессора, и при допустимой температуре позволяет увеличивать его производительность. Простыми словами — «разгоняет» видеокарту. Новая версия 2.0 содержит все известные функции 1-й версии, но при этом также позволяет выставить более высокое напряжение, а, соответственно, и более высокую тактовую частоту.

Технические характеристики

GeForce GT 820М
Производитель
NVIDIA
Серия
GeForce GT 800 М
Код процессора
GF117(N15V-GM)
Потоки
шейдеры 96
Тактовая частота ядра
980 МГц
Частота шейдеров
1500-1900 МГц
Частота памяти
2000 МГц
Разрядность шины памяти
64Бит
Тип памяти
DDR3
Количество памяти
1024-42048 Мбайт
DirectX
DirectX 11, Shader 5.0
Технология
28 н.м.

Синтетические тесты

  • 3DMark 11 (Производительность GPU ): 1253
  • 3DMark (2013) — Fire Strike Standard Graphics : 871

Игровое тестирование

Battlefield 4 . Разрешение 1366х768 пикселей, настройки графики в игре (Medium) средний показатель FPS был равен 26. При повышении настроек графики в игре до уровня (High) количество FPS в среднем составило 18.

Выделение памяти под встроенную видеокарту: как увеличить видеопамять у интегрированных IntelHD, Intel Iris Xe и AMD Ryzen Vega (UMA Frame Buffer Size)

uvelichivaem-videopamyatДоброго времени!

В последнее время снискали большую популярность интегрированные (их еще называют встроенными ) видеокарты IntelHD, Intel Iris Xe, и AMD Ryzen Vega. Последних версий уже с лихвой хватает для многих не слишком требовательных игр (что, конечно, радует — т.к. получается хорошая такая экономия на покупке внешней видеокарты)!

Однако, есть один нюанс : видеопамять для этих карт выделяется из ОЗУ (RAM). По умолчанию эта операция «выделения» происходит автоматически (без вашего участия), что не во всех случаях оптимально (например, вы можете столкнуться с ошибками во время запуска игр. ).

Разумеется, было бы не плохо вручную отрегулировать выделение памяти под интегрированную карту (в большинстве случаев стоит вопрос ее увеличения ).

И так, перейдем ближе к теме.

👉 Рекомендую!

Можно ли разогнать встроенные видеокарты Intel HD и AMD Radeon? За счет чего поднять их производительность

ускорение ПК

Как увеличить видеопамять: по шагам

ШАГ 1: зачем это нужно

Вообще, если у вас все корректно работает, нет притормаживаний, ничего не зависает и не вылетает с ошибками — то вам, скорее всего, это и не нужно.

Однако, есть ситуации, когда без этого никак:

  1. низкая производительность видеокарты в играх: обратите внимание на скрин ниже (👇). Vega 11 при видеопамяти в 512 МБ работает раза в 2-3 медленнее, чем при 1024 МБ! (3D Mark). Кстати, если увеличить видеопамять с 1024 МБ до 2048 МБ — прирост в производительности будет уже далеко не такой большой, всего 2-3%;
  2. при ошибках во время запуска игр : некоторые приложения проверяют размер доступной видеопамяти, и если ее не хватает — вылетают с ошибкой (даже в том случае, когда интегрированная карта смогла бы потянуть игру);
  3. если у вас мало ОЗУ и видеокарта «оттяпала» слишком много памяти (в этом случае требуется вручную уменьшить кол-во выделяемой памяти, т.е. сделать обратную операцию).

3DMark Sky Driver (8GB Ram, dual) — производительность в зависимости от выделенной памяти для интегрированной видеокарты AMD Ryzen Vega 11 (Ryzen 5 2400G)

3DMark Sky Driver (8GB Ram, dual) — производительность в зависимости от выделенной памяти для интегрированной видеокарты AMD Ryzen Vega 11 (Ryzen 5 2400G)

Читайте так же:
Мощная очистка компьютера бесплатно на русском

Примечание!

👉 Если у вас количество ОЗУ 8 ГБ (и более) — то большинство современных материнских плат по умолчанию устанавливают для встроенной видеокарты номинальные 1024 МБ (которых пока достаточно для норм. работы).

👉 Не могу не отметить, что если у вас на борту меньше 6 ГБ ОЗУ — то выставлять для интегрированной карты больше 1 ГБ памяти крайне не рекомендуется! Это отрицательно сказывается на общей производительности ПК/ноутбука.

ШАГ 2: как узнать текущий объем видеопамяти

👉 Вариант 1

Это универсальный вариант, работающий во всех популярных версиях Windows 7/8/10.

Сначала необходимо нажать сочетание кнопок Win+R — в окне «Выполнить» ввести команду dxdiag и кликнуть по OK.

Win+R - dxdiag

Далее откроется средство диагностики DirectX — во вкладке «Экран» среди прочих характеристик устройства вы найдете размер видеопамяти (👇).

Видеопамять 1009 МБ

Видеопамять 1009 МБ

👉 Вариант 2

Нажать сочетание Win+i — откроется окно с параметрами Windows. Необходимо перейти в раздел «Система / дисплей» и открыть вкладку «Дополнительные параметры дисплея» .

Доп. параметры дисплея

Доп. параметры дисплея

В ней будет заветная ссылка — «Свойства видеоадаптера» .

Свойства видеоадаптера

Во вкладке «Адаптер» представлена строка «Используется видеопамяти» (в моем примере ниже — 1024 МБ).

Используется видеопамяти

👉 Вариант 3

Этот вариант также актуален для ОС Windows 10.

Достаточно открыть диспетчер задач (Ctrl+Alt+Del) и перейти во вкладку «Производительность» . В ней можно будет просмотреть часть свойств и характеристик видеокарты (👇).

Диспетчер задач - Windows 10

Диспетчер задач — Windows 10

ШАГ 3: как вручную установить размер выделения памяти под встроенную видеокарту

Через BIOS/UEFI

Только через настройки BIOS (в принципе) и можно изменить размер выделяемой памяти для интегрированной карты (в редких случаях можно попытаться «обмануть» игры через реестр).

Здесь универсальных инструкций со стрелками дать нельзя, т.к. у каждого производителя — «свой» BIOS. Но несколько характерных примеров я приведу (по ним можно будет сориентироваться!).

И так, сначала необходимо 👉 войти в BIOS (ссылка на инструкцию в помощь).

Далее нужно перейти в раздел «Configuration» (в некоторых BIOS за это отвечает раздел «Advanced» ).

Linovo Setup Utility - главное окно

Lenovo Setup Utility — главное окно

Затем нам нужно найти один из следующих параметров (прим.: в разных версиях BIOS он называется по-своему) :

  1. UMA Frame Buffer Size;
  2. iGPU Configuration;
  3. DVMT (Fixed Memory);
  4. Share Memory Size;
  5. Video Memory Size;
  6. On-Chip Frame Buffer Size.

На скриншоте ниже приведен параметр «iGPU Configuration» — необходимо отключить авто-режим!

Отключаем Auto режим

Отключаем Auto режим

А после вручную задать параметр «UMA Frame Buffer Size» — это и есть размер выделяемой видеопамяти (в моем примере можно выбрать от 256 МБ до 2 ГБ 👇).

UMA Frame Buffer Size — ставим 2 GB

UMA Frame Buffer Size — ставим 2 GB

Кстати, в версии BIOS от American Megatrends для изменения выделяемой памяти — нужно во вкладке «Advanced» изменить параметр «DVMT» .

Advanced / настройки BIOS

Advanced / настройки BIOS / American Megatrends

DVMT ставим на Maximum

DVMT ставим на Maximum

Еще один пример для более старой версии American Megatrends см. ниже. 👇

Share Memory Size - выделение памяти видеосистеме

Share Memory Size — выделение памяти видеосистеме

Разумеется, после выставления размера выделяемой памяти — не забудьте сохранить настройки (в большинстве версий BIOS — используется клавиша F10 / Save and Exit) и перезагрузить компьютер/ноутбук.

Через настройки реестра (опционально для IntelHD)

Этот способ поможет только «перехитрить» некоторые игры, которые могут вылетать с ошибками после запуска (т.к. у вас якобы недостаточно видеопамяти). Т.е. игра будет «считать», что размер памяти видеокарты у вас больше, чем есть на самом деле.

Причем, хочу отметить, что срабатывает он не всегда (но всё же, вдруг. ).

И так, для начала нужно 👉 открыть редактор реестра — нажать Win+R, и использовать команду regedit.

regedit — открыть редактор реестра

regedit — открыть редактор реестра

Далее в редакторе нужно создать раздел «GMM» в нижеприведенной ветке:

Создать раздел GMM

Создать раздел GMM

После, в разделе «GMM» создать строковый параметр с именем «DedicatedSegmentSize» (без кавычек).

Создать строковый параметр

Создать строковый параметр

Далее открыть его и задать значение выделяемой памяти (судя по тестам, способ актуален и работает для значений от 0 до 512).

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector