Nvidia g
Съдържание:
- Всичко за технологията Nvidia G-Sync HDR
- Трудностите при внедряването на G-Sync HDR и високата му цена
- Nvidia G-Sync HDR подобрява игралното изживяване
Технологиите на 4K, G-Sync и HDR направиха революция в начина, по който играем с нашите компютри, въпреки че ние, потребителите, имаха трън в доста дълго време, тъй като не беше възможно да се намери монитор, който да комбинира всички тези технологии в един продукт. Нещо, което най-накрая се промени в ръцете на G-Sync HDR и Nvidia технологията, това е най-новата технология за монитор от гиганта на графичните карти, което поставя игровата работа на нивото, за което винаги сме мечтали.
Индекс на съдържанието
Всичко за технологията Nvidia G-Sync HDR
До пристигането на G-Sync HDR, потребителите трябваше да се сблъскат с тежко решение при закупуване на нов монитор, за да играят, тъй като не беше възможно да се сдобият с единица, която има висококачествен панел при 4K резолюция и голяма течливост. игра, осигурена от G-Sync. G-Sync HDR се роди, за да сложи край на този проблем, защото за първи път можем да придобием монитор с 4K панел с най-добро качество, поддръжка на HDR и с G-Sync технология.
Nvidia G-Sync се роди с цел да реши един от големите проблеми на компютърните игри, неспособността на графичните карти да поддържат няколко изображения в секунда, което съвпада със скоростта на опресняване на монитора. Този проблем води до синхронизиране на графичната карта и монитора, което води до дефекти на изображението, известни като Stutter (микро заеквания) и rearing (рязане на изображението).
Препоръчваме да прочетете нашата публикация на тема Как да изберем геймърски монитор?
G-Sync е технология, която отговаря за регулирането на скоростта на опресняване на монитора спрямо броя изображения в секунда, които графичната карта го изпраща, като по този начин се постига перфектна синхронизация. Това води до много гладко игрово изживяване, без заекване или намаляване на изображения. Следващата стъпка беше да добавите HDR, за да получите най-доброто изживяване.
Трудностите при внедряването на G-Sync HDR и високата му цена
Не беше лесно да се създаде тази G-Sync HDR технология, защото за да се направи възможно, беше необходимо да се прибегне до Intel и един от неговите FPGA. По-специално се използва Intel Altera Arria 10 GX 480, високо напреднал и силно програмируем процесор, който може да бъде кодиран за широк спектър приложения. Тази Intel Altera Arria 10 GX 480 е придружена от 3 GB DDR4 2400MHz памет, произведена от Micron, компонент, който в момента е много скъп. Всичко това означава, че внедряването на G-Sync HDR изобщо не е евтино, тъй като се изчислява, че добавя приблизително допълнителни разходи от 500 долара към същия монитор, но без тази технология.
Друга трудност при внедряването на G-Sync HDR е свързана с ограничението на честотната лента на спецификациите DisplayPort 1.4 и HDMI 2.0b. 4K 144 Hz изображение с HDR и G-Sync генерира обем информация, който надвишава капацитета на тези стандарти и те са най-напредналите в съществуването. За да се реши това, беше необходимо да се намали подсилирането на Chroma от 4: 4: 4 на 4: 2: 2. Това се изразява в лека загуба на вярност на цветовете, въпреки че производителите уверяват, че тя е минимална и ползите далеч надвишават този малък недостатък. Ако не искаме да понесем тази загуба на Chroma sub-sample, трябва да се задоволим със скорост на опресняване от 120 Hz.
Nvidia G-Sync HDR подобрява игралното изживяване
Nvidia работи усилено с основните производители на монитори, за да оптимизира максимално тази технология, с това ще имаме гаранцията, че качеството на изображението, което ни се предлага е максимално възможно при настоящата технология. Тази загуба на Chroma суб-извадка ще бъде елиминирана, когато разполагаме с новите спецификации на HDMI 2.1 и DisplayPort 5.
Препоръчваме да прочетете нашата публикация за преглед на Asus ROG Swift PG27UQ на испански (пълен анализ)
Друг голям недостатък е силата, която е необходима за преместване на водещите игри на 4K и 144 Hz, просто няма графична карта, която да го направи. Това създава ситуация, в която е необходимо да се прибегне до конфигурации на SLI, тоест да се поставят няколко карти заедно на един и същи компютър. Конфигурациите на SLI са скъпи, особено ако разчитаме на най-мощните графични карти като Nvidia GeForce GTX 1080 Ti, чиято цена е почти 800 евро. Другият проблем за сглобяването на две карти е голямото количество топлина, която се генерира, което налага да има голяма охладителна система в компютъра. Вече имаме представа колко скъпо ще бъде използването на G-Sync HDR.
Другата основна трудност беше в прилагането на HDR на тези монитори, обикновено максимум 32 инча. Тук говорим за истинско HDR преживяване, което изисква яркост от поне 1000 нита, за което е необходимо да се инсталират 384 светлинни зони на монитора, което осигурява изключително висок контраст на ANSI. Прилагането на толкова много осветителни зони на 32-инчов екран не е лесно, когато искате да постигнете най-добрия възможен резултат.
Тук приключва нашата публикация за G-Sync HDR: Какво представлява и за какво е. Ако имате въпроси, можете да ни оставите коментар по-долу или трябва да знаете мнението и опита на много добра хардуерна общност, можете да се регистрирате безплатно в нашия специализиран хардуерен форум. Искаме да знаем вашето мнение!
Nvidia jetson tx1, nvidia се присъединява към изкуствен интелект
Nvidia се присъединява към сектора на изкуствения интелект и представя своя борд Nvidia Jetson TX1 с големи възможности в рамките на роботиката
▷ Nvidia gtx срещу nvidia quadro срещу nvidia rtx
Не знаете коя графична карта да изберете. Сравнявайки Nvidia GTX с Nvidia Quadro срещу Nvidia RTX ✅ ще имате подробности, характеристики и приложения
Nvidia rtx 2060 срещу nvidia gtx 1060 срещу nvidia gtx 1070 срещу gtx 1080
Направихме първото сравнение на Nvidia RTX 2060 срещу Nvidia GTX 1060 срещу Nvidia GTX 1070 срещу GTX 1080, производителност, цена и характеристики