андроид

Nvidia 【цялата информация】

Съдържание:

Anonim

Nvidia Corporation, по-известна като Nvidia, е американска технологична компания, регистрирана в Делауеър и базирана в Санта Клара, Калифорния. Nvidia проектира графични процесорни единици за видеоигри и професионални пазари, както и система за чип (SoC) за пазара на автомобилни и мобилни компютри. Основната продуктова линия GeForce е в пряка конкуренция с продуктите на AMD Radeon.

Препоръчваме ви да прочетете нашите най-добрите ръководства за хардуер и компоненти за компютър:

В допълнение към производството на графични процесори, Nvidia предоставя възможности за успоредно обработване в световен мащаб на изследователи и учени, което им позволява ефективно да изпълняват високоефективни приложения. Съвсем наскоро тя се премести на пазара на мобилни компютри, където произвежда мобилни процесори Tegra за конзоли, таблети и автономни навигационни и развлекателни системи за превозни средства. Това доведе до Nvidia да се превърне в компания, фокусирана върху четири пазара от 2014 г. насам : игри, професионална визуализация, центрове за данни и изкуствен интелект и автомобили.

Индекс на съдържанието

История на Nvidia

Nvidia е основана през 1993 г. от Джен-Хсун Хуанг, Крис Малаховски и Къртис Прием. Тримата съоснователи на компанията предположиха, че правилната посока за изчисляване ще премине през графично ускорена обработка, вярвайки, че този изчислителен модел може да реши проблеми, които изчисленията с общо предназначение не могат да решат. Те също така отбелязаха, че видеоигрите са едни от най-трудните за изчисляване проблеми и че имат невероятно голям обем продажби.

От малка компания за видео игри до гигант с изкуствен интелект

Компанията е родена с първоначален капитал от 40 000 долара, първоначално нямаше име, а съоснователите посочиха всичките си NV файлове, както в „следващото издание“. Необходимостта от включване на компанията накара съоснователите да прегледат всички думи с тези две букви, което ги доведе до „invidia“, латинската дума, която означава „завист“.

Стартирането на RIVA TNT през 1998 г. затвърди репутацията на Nvidia в разработването на графични адаптери. В края на 1999 г. Nvidia пусна GeForce 256 (NV10), който най-вече въведе трансформация и осветление на потребителско ниво (T&L) в 3D хардуера. Работейки на 120 MHz и включва четири линии пиксели, той реализира разширено видео ускорение, компенсация на движението и хардуерно смесване на под-изображение. GeForce превъзхожда съществуващите продукти с голям марж.

Поради успеха на своите продукти, Nvidia спечели договора за разработване на графичен хардуер за игровата конзола на Xbox на Microsoft, като спечели Nvidia аванс в размер на 200 милиона долара. Проектът обаче взе много от най-добрите си инженери от други проекти. В краткосрочен план това няма значение и GeForce2 GTS беше доставен през лятото на 2000 г. През декември 2000 г. Nvidia постигна споразумение за придобиване на интелектуалните активи на единствения си конкурент 3dfx, пионер в 3D графичната технология за потребителя. който ръководи полето от средата на 90-те до 2000 г. Процесът на придобиване приключи през април 2002 г.

През юли 2002 г. Nvidia придоби Exluna за неразкрита сума пари. Exluna отговаря за създаването на различни инструменти за изобразяване на софтуер. По-късно, през август 2003 г., Nvidia придоби MediaQ за приблизително 70 милиона долара. И също така се сдоби с iReady, доставчик на високоефективни решения за разтоварване на TCP / IP и iSCSI на 22 април 2004 г.

Толкова голям беше успехът на Nvidia на пазара на видеоигри, че през декември 2004 г. бе обявено, че ще помогне на Sony при дизайна на RSX графичния процесор на PlayStation 3, конзолата за видеоигри от ново поколение от японската фирма, която тя имаше трудната задача да повтори успеха на своя предшественик, най-продаваният в историята.

През декември 2006 г. Nvidia получи цитати от Министерството на правосъдието на САЩ. По отношение на евентуални нарушения на антитръстовите правила в индустрията за графични карти. По това време AMD се превърна в негов голям конкурент, след закупуването на ATI от последния. Оттогава AMD и Nvidia са единствените производители на графични карти за видеоигри, не забравяйки интегрираните чипове на Intel.

Forbes обяви Nvidia за най-добрата компания на годината за 2007 г., позовавайки се на постиженията, постигнати през последните пет години. На 5 януари 2007 г. Nvidia обяви, че е завършила придобиването на PortalPlayer, Inc, а през февруари 2008 г. Nvidia придобива Ageia, разработчик на модула за физика на PhysX и процесор за обработка на физика, управляващ този двигател. Nvidia обяви, че планира да интегрира технологията PhysX в своите бъдещи GeForce GPU продукти.

Nvidia се сблъска с големи трудности през юли 2008 г., когато получи намаление на приходите с приблизително 200 милиона долара, след като беше съобщено, че определени мобилни чипсети и мобилни графични процесори, произведени от компанията, имат необичайни степени на отказ поради производствени дефекти. През септември 2008 г. Nvidia стана обект на съдебен процес на засегнатите, като се твърди, че дефектните графични процесори са били включени в определени модели преносими компютри, произведени от Apple, Dell и HP. Сапунената опера приключи през септември 2010 г., когато Nvidia постигна споразумение, че собствениците на засегнатите лаптопи ще бъдат възстановени за разходите за ремонт или в някои случаи за подмяна на продукта.

През ноември 2011 г. Nvidia пусна своята чипа ARG Tegra 3 за мобилни устройства, след като първоначално беше представена на Mobile World Congress. Nvidia твърди, че чипът е с първия четириядрен мобилен процесор. През януари 2013 г. Nvidia представи Tegra 4, както и Nvidia Shield, портативна игрална конзола, базирана на Android, задвижвана от новия процесор.

На 6 май 2016 г. Nvidia представи графични карти GeForce GTX 1080 и 1070, първата на базата на новата микроархитектура на Паскал. Nvidia твърди, че и двата модела превъзхождат своя модел Titan X, базиран на Maxwell. Тези карти включват съответно GDDR5X и GDDR5 памет и използват 16nm производствен процес. Архитектурата на Pascal също поддържа нова хардуерна функция, известна като едновременна множествена проекция (SMP), която е предназначена да подобри качеството на изобразяването на много монитори и виртуална реалност. Pascal даде възможност за производство на лаптопи, които отговарят на Max-Q стандарта на Nvidia за дизайн.

През май 2017 г. Nvidia обяви партньорство с Toyota Motor Corp, при което последният ще използва платформата за изкуствен интелект на Nvidia Drive X за своите автономни превозни средства. През юли 2017 г. Nvidia и китайският гигант за търсене Baidu, Inc. обявиха мощно AI партньорство, което включва облачни изчисления, автономно шофиране, потребителски устройства и AI рамка на Baidu, PaddlePaddle.

Nvidia GeForce и Nvidia Pascal, доминиращи игри

GeForce е търговската марка за графични карти, базирани на графични процесорни единици (GPU), създадени от Nvidia от 1999 г. Към днешна дата серията GeForce познава шестнадесет поколения от създаването си. Версиите, фокусирани върху професионалните потребители на тези карти, идват под името Quadro и включват някои отличаващи се функции на ниво драйвер. Пряката конкуренция на GeForce е AMD със своите Radeon карти.

Pascal е кодовото име за най-новата микроархитектура на GPU, разработена от Nvidia, която навлезе на пазара на видеоигри, като наследник на предишната архитектура Maxwell. Архитектурата на Pascal е представена за първи път през април 2016 г. с пускането на Tesla P100 за сървъри на 5 април 2016 г. В момента Pascal се използва предимно в серията GeForce 10, като GeForce GTX 1080 и GTX са Първите 1070 карти за видеоигри бяха пуснати с тази архитектура съответно на 17 май 2016 г. и 10 юни 2016 г. Pascal се произвежда по 16-нм FinFET процеса на TSMC, което му позволява да предлага далеч по-висока енергийна ефективност и производителност в сравнение с Maxwell, който е произведен на 28 nm FinFET.

Архитектурата на Паскал е организирана вътрешно в това, което е известно като поточен многопроцесорен ( SM), функционални единици, съставени от 64 CUDA ядра, които от своя страна са разделени на два обработващи блока от 32 CUDA ядра всеки от тях и придружени от буфер за инструкции, основна програма, 2 единици за картографиране на текстурата и 2 изпращащи единици. Тези SM дискове са еквивалент на CU на AMD.

Pascal архитектурата на Nvidia е проектирана да бъде най-ефективната и напреднала в света на игрите. Инженерният екип на Nvidia положи много усилия за създаването на GPU архитектура, която е способна на много високи тактови скорости, като същевременно поддържа ниска консумация на енергия. За да се постигне това, е избран много внимателен и оптимизиран дизайн във всичките му вериги, в резултат на което Паскал може да достигне честота с 40% по-висока от Maxwell, цифра много по-висока от тази, която би позволила при 16 nm без всички оптимизации на ниво проектиране.

Паметта е ключов елемент при представянето на графична карта, технологията GDDR5 беше анонсирана през 2009 г., така че тя вече е остаряла за най-мощните графични карти днес. Ето защо Pascal поддържа GDDR5X памет, която беше най-бързият и най-модерният стандарт за интерфейс на паметта в историята по време на пускането на тези графични карти, достигайки скорост на пренос до 10 Gbps или почти 100 пикосекунди между битовете. на данни. Паметта GDDR5X също така позволява на графичната карта да консумира по-малко енергия в сравнение с GDDR5, тъй като работното напрежение е 1, 35 V, в сравнение с 1, 5 V или дори повече, от което се нуждаят по-бързите GDDR5 чипове. Това намаление на напрежението се превръща в 43% по-висока работна честота със същата консумация на енергия.

Друга важна иновация на Pascal идва от техниките за компресиране на паметта без загуба на производителност, което намалява търсенето на честотна лента от GPU. Pascal включва четвъртото поколение на делта технологията за компресиране на цветовете. С делта цветово компресиране, GPU анализира сцени, за да изчисли пикселите, чиято информация може да бъде компресирана, без да се жертва качеството на сцената. Докато архитектурата на Maxwell не беше в състояние да компресира данни, свързани с някои елементи, като растителност и части от автомобила в играта Project Cars, Pascal е в състояние да компресира по-голямата част от информацията за тези елементи, като по този начин е много по-ефективен от Максуел. В резултат Pascal е в състояние значително да намали броя на байтовете, които трябва да бъдат извлечени от паметта. Това намаление на байтове се превръща в допълнителни 20% от ефективната честотна лента, което води до увеличаване на 1, 7 пъти честотната лента с използването на GDDR5X памет в сравнение с GDDR5 и Maxwell архитектурата.

Pascal също предлага важни подобрения във връзка с асинхронното изчисляване, нещо много важно, тъй като в момента натоварването е много сложно. Благодарение на тези подобрения архитектурата на Pascal е по-ефективна при разпределението на натоварването между всичките му SM единици, което означава, че почти няма неизползвани CUDA ядра. Това позволява оптимизацията на графичния процесор да бъде много по-голяма, като използва по-добре всички ресурси, с които разполага.

Следващата таблица обобщава най-важните характеристики на всички GeForce карти, базирани на Pascal.

ПАСКАЛНИ ГРАФИЧНИ КАРТИ NVIDIA GEFORCE

CUDA Cores Честоти (MHz) памет Интерфейс на паметта Ширина на лентата на паметта (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 бита 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 бита 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 бита 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3GB GDDR5 192 бита 192 120
NVIDIA GeForce GTX1060 6GB 1280 1506/1708 6 GB GDDR5 192 бита 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8GB GDDR5 256 бита 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8GB GDDR5 256 бита 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 бита 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 11 GB GDDR5X 352 бита 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 GB GDDR5X 384 бит 547 250

Изкуствен интелект и архитектура на Волта

Графичните процесори на Nvidia се използват широко в областта на задълбоченото обучение, изкуствения интелект и ускорения анализ на големи количества данни. Компанията разработи дълбоко обучение, базирано на GPU технология, за да използва изкуствен интелект за справяне с проблеми като откриване на рак, прогнозиране на времето и автономни шофиращи превозни средства, като известната Tesla.

Целта на Nvidia е да помогне на мрежите да се научат да „мислят “. Графичните процесори на Nvidia работят изключително добре за задачи за задълбочено обучение, тъй като те са проектирани за паралелни изчисления и работят добре, за да се справят с векторните и матричните операции, които преобладават при дълбокото обучение. Графичните процесори на компанията се използват от изследователи, лаборатории, технологични компании и бизнес предприятия. През 2009 г. Nvidia участва в големия взрив за задълбочено обучение, тъй като невронните мрежи за обучение се комбинират с графичните звена за обработка на компанията. Същата година Google Brain използва графичните процесори на Nvidia, за да създаде дълбоки невронни мрежи, способни да машинно обучение, където Andrew Ng реши, че могат да увеличат скоростта на системите за дълбоко обучение 100 пъти.

През април 2016 г. Nvidia представи 8-GPU базиран суперкомпютър DGX-1, за да подобри способността на потребителите да използват дълбоко обучение чрез комбиниране на графични процесори със специално разработен софтуер. Nvidia също разработи базирани на GPU виртуални машини Nvidia Tesla K80 и P100, достъпни чрез Google Cloud, които Google инсталира през ноември 2016 г. Microsoft добави сървъри, базирани на GPU технологията на Nvidia, при предварителен преглед на своята N серия, базиран на картата на Tesla K80. Nvidia също си партнира с IBM за създаване на софтуерен комплект, който увеличава AI възможностите на неговите графични процесори. През 2017 г. графичните процесори на Nvidia също бяха представени онлайн в центъра на RIKEN за Проекта за напреднали разузнавания за Fujitsu.

През май 2018 г. изследователи от отдела за изкуствен интелект на Nvidi a осъзнаха възможността робот да се научи да върши работа, като просто наблюдава наблюдателя, който върши същата работа. За да постигнат това, те създадоха система, която след кратък преглед и тест вече може да се използва за контрол на универсални роботи от ново поколение.

Volta е кодовото име за най-модерната микроархитектура на GPU, разработена от Nvidia, тя е наследник на Паскал и беше обявена като част от бъдещата амбиция на пътната карта през март 2013 г. Архитектурата е кръстена на Алесандро Волта, физикът, химикът и изобретателят на електрическата батерия. Архитектурата на Volta не е достигнала до игровия сектор, въпреки че го е направила с графичната карта Nvidia Titan V, фокусирана върху потребителския сектор и която може да се използва и в игралното оборудване.

Тази Nvidia Titan V е основна GV100 графична карта и три стека HBM2 памет, всички в един пакет. Картата има общо 12 GB HBM2 памет, която работи чрез 3072-битов интерфейс на паметта. Неговият графичен процесор съдържа над 21 милиона транзистора, 5120 CUDA ядра и 640 ядра на Tensor за постигане на 110 TeraFLOPS производителност при задълбочено обучение. Работните му честоти са 1200 MHz база и 1455 MHz в турбо режим, докато паметта работи на 850 MHz, предлагайки честотна лента от 652, 8 GB / s. Наскоро бе обявена версия на CEO Edition, която увеличава паметта до 32 GB.

Първата графична карта, произведена от Nvidia с архитектурата Volta, беше Tesla V100, която е част от системата Nvidia DGX-1. Tesla V100 използва ядрото GV100, което беше пуснато на пазара на 21 юни 2017 г. Графичният процесор Volta GV100 е вграден в 12nm FinFET производствен процес , с 32 GB HBM2 памет, способна да предоставя до 900 GB / s честотна лента.

Volta също така оживява най- новата Nvidia Tegra SoC, наречена Xavier, която беше обявена на 28 септември 2016 г. Xavier Съдържа 7 милиарда транзистори и 8 потребителски ядра ARMv8, заедно с графичен процесор Volta с 512 CUDA ядра и TPU от отворен код (Tensor Processing Unit), наречен DLA (Deep Learning Accelerator). Xavier може да кодира и декодира видео в 8K Ultra HD резолюция (7680 × 4320 пиксела) в реално време, всички с TDP от 20-30 вата и размер на матрица, изчислени на около 300 mm2 благодарение на 12 производствения процес. nm FinFET.

Архитектурата на Volta се характеризира с това, че първото включва Tensor Core, ядра, специално проектирани да предлагат много по-добри резултати при задачите за задълбочено обучение в сравнение с обикновените CUDA ядра. A Tensor Core е единица, която умножава две FP16 4 × 4 матрици и след това добавя трета FP16 или FP32 матрица към резултата, като използва обединени операции за добавяне и умножение, получавайки FP32 резултат, който по желание може да бъде понижен до FP16 резултат. Ядрата на тензора са предназначени да ускорят обучението на невронната мрежа.

Volta се откроява и с това, че включва усъвършенствания собствен интерфейс NVLink, който е телекомуникационен протокол за комуникация с полупроводникови комуникации на къси разстояния, разработен от Nvidia, който може да се използва за пренос на кодове на данни и управление в процесорни системи на база CPU и GPU и тези, базирани единствено на GPU. NVLink указва връзка от точка до точка със скорости на данни от 20 и 25 Gb / s за лентата на данни и за адрес в първата и втората си версия. Общите скорости на данни в реалните системи са 160 и 300 GB / s за общата сума на входящите и изходните потоци от данни. Представените досега NVLink продукти се фокусират върху пространството за приложения с висока производителност. NVLINK беше обявена за първи път през март 2014 г. и използва собствена високоскоростна сигнална връзка, разработена и разработена от Nvidia.

Следващата таблица обобщава най-важните характеристики на базирани на Volta карти:

ГРАФИЧНИ КАРТИ NVIDIA VOLTA

CUDA Cores Основен тензор Честоти (MHz) памет Интерфейс на паметта Ширина на лентата на паметта (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4, 996 бита 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3, 072 бита 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 GB HBM2 4, 996 бита 900 250

Бъдещето на Nvidia минава през Тюринг и Ампер

Двете бъдещи архитектури на Nvidia ще бъдат Тюринг и Ампер според всички слухове, появили се до момента, възможно е, когато прочетете този пост, една от тях вече е официално обявена. Засега нищо не се знае със сигурност за тези две архитектури, въпреки че се казва, че Тюринг би бил опростена версия на Volta за игралния пазар, всъщност се очаква той да пристигне със същия производствен процес в 12 nm.

Ампер звучи като наследник на архитектурата на Тюринг, въпреки че може да бъде и наследник на Волта в сектора на изкуствения интелект. Абсолютно нищо не се знае за това, въпреки че изглежда логично да се очаква, че той ще бъде произведен в 7 nm. Слуховете предполагат, че Nvidia ще обяви новите си GeForce карти в Gamecom през следващия месец август, само тогава ще оставим съмнения какво ще бъде Търинг или Ампер, ако наистина се появят.

NVIDIA G-Sync, прекратяване на проблеми със синхронизирането на изображения

G-Sync е собствена адаптивна технология за адаптивна синхронизация, разработена от Nvidia, основната цел на която е да премахне разкъсването на екрана и нуждата от алтернативи под формата на софтуер като Vsync. G-Sync елиминира разкъсването на екрана, като го принуждава да се адаптира към рамката на изходното устройство, графичната карта, а не изходното устройство да се адаптира към екрана, което води до разкъсване на изображението екрана.

За да бъде монитор съвместим с G-Sync, той трябва да съдържа хардуерен модул, продаван от Nvidia. AMD (Advanced Micro Devices) пусна подобна технология за дисплеи, наречена FreeSync, която има същата функция като G-Sync, но не изисква конкретен хардуер.

Nvidia създаде специална функция, за да избегне възможността нов кадър да е готов, докато рисува дубликат на екрана, нещо, което може да генерира забавяне и / или заекване, модулът предвижда актуализацията и чака следващият кадър да бъде завършен. Претоварването на пиксели също става подвеждащо при нефиксиран сценарий на актуализиране и решенията предвиждат кога ще се извърши следващата актуализация, следователно стойността на overdrive трябва да бъде приложена и коригирана за всеки панел, за да се избегне призрака.

Модулът е базиран на FPGA семейство FPGA от Altera Arria V GX с 156K логически елементи, 396 DSP блока и 67 LVDS канала. Произвежда се в процеса на TSMC 28LP и се комбинира с три чипа за общо 768 MB DDR3L DRAM, за да се постигне определена честотна лента. Използваната FPGA също разполага с LVDS интерфейс за управление на панела на монитора. Този модул е ​​предназначен да замени обикновените катерачи и да бъде лесно интегриран от производителите на монитори, които трябва само да се грижат за електрическата платка и входните връзки.

G-Sync се сблъска с известна критика поради собствения си характер и факта, че все още се популяризира, когато съществуват безплатни алтернативи, като стандарт VESA Adaptive-Sync, който е незадължителна характеристика на DisplayPort 1.2a. Докато FreeSync на AMD е базиран на DisplayPort 1.2a, G-Sync изисква модул, създаден от Nvidia, вместо обичайния екранен скалер за графичните карти на Nvidia GeForce, за да работи правилно, като е съвместим с Kepler, Maxwell, Pascal и микроархитектури. Волта.

Следващата стъпка е направена с технологията G-Sync HDR, която както подсказва името й, добавя HDR възможности за значително подобряване на качеството на изображението на монитора. За да стане това възможно, трябваше да се направи значителен скок в хардуера. Тази нова версия G-Sync HDR използва Intel Altera Arria 10 GX 480 FPGA, високо напреднал и силно програмируем процесор, който може да бъде кодиран за широк спектър от приложения, който е придружен от 3 GB DDR4 памет от 2400MHz DDR4, произведена от Micron, Това прави цената на тези монитори по-скъпа.

Тук приключва нашата публикация за всичко, което трябва да знаете за Nvidia. Не забравяйте, че можете да го споделяте в социалните мрежи, така че да достигне до повече потребители. Можете също да оставите коментар, ако имате някакво предложение или нещо, което да добавите.

андроид

Избор на редакторите

Back to top button