Wij kopen gebruikte IT-apparatuur!

GPU-technologie: GPU-geschiedenis en GPU-prijzen in de loop der tijd

Nvidia Headquarters - Data Center GPU
Leestijd: 12 minuten

Als u grafische kaarten verkopen volg nu die link en vul een formulier in voor een gratis offerte.

In dit artikel bespreken we de rijke geschiedenis van GPU's en hoe grafische verwerkingseenheden zich in de loop der tijd hebben ontwikkeld tot aan de recente dagen van snelle groei van Nvidia-datacenters. We gaan specifiek in op het begin van de GPU, de explosie van ATI (toen AMD) en de groei van de GPU van nvidia. We overlopen de geschiedenis van nvidia met de tijdlijn van de nvidia GPU en de tijdlijn van de AMD GPU. Daarna bespreken we de komst van de moderne datacenter GPU met de recente Nvidia datacenter GPU-aanbiedingen en AMD datacenter GPU-aanbiedingen. Tot slot bespreken we de geschiedenis van de GPU-prijzen met een lijst van GPU-prijzen door de tijd heen.

Verkoop je grafische kaart snel en gemakkelijk!

Vroege GPU-geschiedenis: 1949-1985

De "Geometrie-verwerkingseenheid 

De allereerste elektronica die in staat was om code in realtime te verwerken om afbeeldingen weer te geven, was waarschijnlijk ook de vader van alle moderne computers: MIT's wervelwind vluchtsimulator ontwikkeld voor de US Navy. Het was de eerste computer die parallel verwerkte in tegenstelling tot eenvoudige lineaire batch computing. De technische formulering zou bit-parallel zijn in tegenstelling tot single-bit. Hoewel hij pas in 1951 af was, kon de machine in 1949 al worden gebruikt als het allereerste interactieve grafische computerspel. 

Het tweede systeem dat graphics op een digitale manier verwerkte, was waarschijnlijk de vluchtsimulator die in 1954 werd ontwikkeld door Curtis-Wright, zoals hieronder afgebeeld. 3D graphics en andere gpu-technologie die zijn tijd ver vooruit was, was in feite al beschikbaar in de jaren 60, maar het was zeer geheimzinnig en exclusief voor de overheid, universiteitslaboratoria, luchtvaartbedrijven en autobedrijven. 

Toen bedacht James Clark van Stanford in 1980 het eerste gebruik van een "VLSI geometrieprocessor voor grafische toepassingen", misschien wel de eerste term die ooit werd gebruikt en die ongeveer overeenkomt met een grafische verwerkingseenheid. Hij draaide met ongeveer 4 miljoen drijvende-kommabewerkingen per seconde, of FLOPS, wat veel leuker is om te zeggen. Dat komt neer op 900 polygonen per 30ste van een seconde. Dit lijkt de eerste grafische chip te zijn die in staat was tot massale parallellisatie en die ruwweg de basisfuncties van moderne GPU's uitvoerde, hoewel hij zeker niet was gebouwd met dezelfde basisarchitectuur en een groot aantal mogelijkheden miste.

GPU-geschiedenis: Het Arcade-tijdperk ('70-'80)

De eerste consumententoepassingen van een grafische eenheid waren in retro arcadegames en hadden zeer beperkte mogelijkheden. Ze droegen in wezen alleen grafische informatie over van de processor naar het beeldscherm. In die jaren ging de GPU-technologie erg langzaam. 

De graphics waren erg primitief, als je je sommige van de originele arcadegames kunt herinneren. BIJV. 

Na die eerste arcadespellen, in 1976, maakte RCA zijn videochip, de pixie, maar die ondersteunde alleen monotoon, en dan ook nog in een piepkleine resolutie van 62×128. 

In 1979 werd de eerste grafische gebruikersinterface ontwikkeld door Xerox in het Palo Alto Research Center als een groot samenwerkingsproject. Het had vensters, pictogrammen, vervolgkeuzemenu's en veel andere bekende functies. Steve Jobs maakte uiteindelijk een rondleiding door hun faciliteiten,

Drie jaar later zorgde Namco Galaxian voor geavanceerde grafische chips die kleur ondersteunden, namelijk sprites met meerdere kleuren en tilemaps op de achtergrond. Dat was net voor 1980. 

IBM maakte wat je de eerste videokaart zou kunnen noemen met de IBM Monochrome Display Adapter

https://youtu.be/qM2TV7RrwHY
Grafische mogelijkheden van de IBM Monochrome Display Adapter (720×350)

Toen bracht IBM in 1983 hun 8-kleuren ondersteunende kaart uit, de ISBX 270, die in die tijd innovatief was, maar met $1000 vrij duur. Ter referentie, in dollars van vandaag zou dat $2633 zijn.

Sony gebruikte vervolgens GPU als verwijzing naar hun PlayStation in 1984 (hoewel het was ontworpen door Toshiba).

ATI, wat een titaan van de gpu-geschiedenis werd, werd in 1985 opgericht door de gebroeders Lau en Kwok Yuen Ho, immigranten uit Hong Kong die in Canada woonden. ATI werd uiteindelijk opgekocht door AMD. Daarover later meer.

In 1986 brachten ze de eerste van hun Wonder-serie GPU's uit. Deze kaarten waren destijds dominant omdat ze veel monitoren en grafische standaarden ondersteunden op één kaart, terwijl anderen dat niet deden.

In 1987 werd de video graphics array connector, of VGA, uitgebracht. VGA werd de dominante standaard voor grafische toepassingen.

Om het gebrek aan standaardisatie in de grafische industrie te verhelpen, werd in 1989 de Visual Electronics Standards Association opgericht door ATI en zeven andere bedrijven. Vandaag de dag zijn meer dan 300 bedrijven lid.

In 1991 introduceerde S3 Graphics hun S3 911. Het werd om de een of andere reden vernoemd naar de Porsche en was redelijk dominant. S3 werd echt een leider in de ruimte na de release van hun Trio-lijn, die enige tijd aan de leiding ging.

De ontwikkeling van grafische technologie werd enorm ondersteund door het uitbrengen van twee opmerkelijke API's. OpenGL, waarschijnlijk de meest alomtegenwoordige API voor grafische rendering, werd uitgebracht in juni 1992. Veel concurrenten kwamen en gingen, maar OpenGL blijft vandaag de dag de overgebleven winnaar.

De andere, Direct3d, werd uitgebracht in 1996 en is nog steeds een standaard in de industrie (hoewel het duidelijk fracties van een milliseconde langzamer is dan OpenGL, voor wat dat waard is).

De S3 Virge chipset, gelanceerd in 1995, was eigenlijk de snelste DRAM versneller van dat tijdperk op Windows. OEM's kochten de Virge in grote hoeveelheden voor zijn waarde en 2D-prestaties, maar hij was zeker niet aantrekkelijk voor zijn 3D-prestaties.

S3 verkocht later zijn grafische divisie.

De 3dfx Voodoo add-on kaart was razend populair en stimuleerde de ontwikkeling van 3D-technologie, vooral voor games.

De voodoo-lijn bleef een dominante speler op de markt totdat ze later werden overgenomen door Nvidia.

Mogelijk werd het acroniem GPU voor het eerst formeel gebruikt door TriTech in 1996, met hun Geometry Processor Unit.

Het was een van de vele soortgelijke projecten die nooit echt van de grond kwamen, hoewel het interessante functies had zoals speciale bump mapping hardware en verplaatsingsmapping mogelijkheden.

Microsoft nam het een paar jaar later in licentie van TriTech.

Moderne GPU-geschiedenis - de oorlogen tussen AMD en Nvidia ('90 tot nu)

Grappig genoeg hadden zowel Nvidia als ATI een moeilijke start in de jaren '90. Nvidia's NV1 werd gehinderd door de release van DirectX 1.0 kort na de release, waar het niet compatibel mee was.

ATI's Rage 1 had ook moeite met de compatibiliteit met DirectX 1.0, maar presteerde wel goed in 2D.

Hoewel ATI jaren eerder al enig succes had geboekt, kwam Nvidia pas echt op de voorgrond met de release van de Riva in 1997, waarvan binnen slechts vier maanden een miljoen exemplaren werden verkocht. De populariteit was voor een groot deel te danken aan het feit dat het apparaat vrij algemeen inzetbaar was. Hij ondersteunde 2D, 3D en video-versnelling en dat waren geen 'placeholder'-functies, zoals bij veel GPU-fabrikanten het geval was.

Dat gezegd hebbende, werd het succes belemmerd door het gebrek aan ondersteuning voor stuurprogramma's.

 

De Nvidia Riva 128

Hun heerschappij begon pas echt met de Riva TNT 2. De 3dfx API, Glide, verloor het van DirectX en OpenGL, wat hun ondergang inluidde. GeForce maakte het compleet.

In 1999 werd de term GPU algemeen gebruikt met "de eerste GPU ter wereld", de GeForce 256. Het was natuurlijk niet echt de eerste GPU. Het was natuurlijk niet echt de eerste GPU. Vanaf het Clark-tijdperk werd GPU door academici gebruikt om te verwijzen naar geometrieverwerking.

De waardepropositie van de GeForce 256 was gebaseerd op de opname van transformator- en belichtingshardware (of T&L) op de grafische chip zelf in plaats van te vertrouwen op de CPU. Het resultaat was dat met een snelle CPU die T&L naar tevredenheid kon afhandelen, de waardepropositie te verwaarlozen was. Het circuit was ook behoorlijk bekritiseerd. Dat, naast het hoge prijskaartje, betekende dat het niet zo populair was als latere kaarten, hoewel het wel zijn niche had met spellen als Quake.

Hij presteerde ook slechter dan de 3dfx Voodoo als de kaarten werden gekoppeld aan een snelle CPU (niet dat dit echter een heel gebruikelijk scenario was).

Desalniettemin zorgde de DRAM-versie voor veel opwinding en dus verpletterden ze 3dfx tot een faillissement/overname.

Een mooie infografiek van de eerste jaren hieronder werd gemaakt door Jon Peddie in zijn baanbrekende tekst, "the history of visual magic in computers", waarin hij zo gedetailleerd is als in een boek mogelijk is.

Tijdlijn Nvidia/AMD: Hun heerschappij begint

Nvidia bevond zich rond de millenniumwisseling in een zeer unieke positie. Terwijl bedrijven als 3D Labs multi-chips maakten voor de werkstationmarkt, zoals de Glint, bleef Nvidia profiteren van de snelgroeiende markt voor videogames, die een veel grotere groep kopers kreeg.

Het resultaat was dat Nvidia zich niet alleen op de gamingmarkt bevond, maar ook in de positie om de markt voor werkstations/ondernemingen te domineren, omdat de gamingmarkt de inkomsten opstuwde en het bedrijf een enorm O&O-budget overhield.

De PlayStation 3, World of Warcraft en de Xbox waren enkele van de opvallende gamereleases waar ze uit voortkwamen.

Nvidia bracht de tweede generatie GeForce uit in 2000, die het erg goed deed ondanks de trage 166 Mhz DDR, omdat het nog steeds de snelste kaart was totdat ATI hun Radeon 7200 uitbracht.

(Terzijde: Nvidia bracht hun eerste geïntegreerde grafische product uit in 2001 met nForce. )

De Radeon 7200 had een betere geheugensnelheid, een nieuwe technologie voor bandbreedteoptimalisatie genaamd HyperZ en de meest complete bump mapping-technologie tot nu toe. De indrukwekkende mogelijkheden werden getoond in de volgende Ark-demo:

https://youtu.be/xSQcpVa7paM
(demo's kunnen worden gedownload op Nvidia's technische demopagina.

Nvidia antwoordde met hun GeForce 2 GTS die bijna een half procent verbetering bood en de OpenGL gaming niche won en zeker 16 bit in Direct3D. De dominantie werd eigenlijk alleen gehinderd door de slechte geheugenbandbreedte optimalisatie.

Rond deze tijd begon Nvidia te profiteren van het werkstationsegment met de quadro, die in wezen gewoon de GeForce 2-architectuur was met een grotere nadruk op precisie en betrouwbaarheid (door het gebruik van ECC-geheugen). Door de GeForce opnieuw te verpakken met meer toeters en bellen en functies alleen te segmenteren als dat nodig was tussen de kaarten, kon Nvidia een premie vragen voor de Quadro, concurrerend blijven met de prijzen van gamingkaarten en toch voorkomen dat werkstations de goedkopere GeForce zouden gebruiken.

Hoewel de Radeon problemen met geheugenbandbreedte aanpakte met onder andere HyperZ, deed hij het nog steeds niet erg goed ten opzichte van de Voodoo 5 5500 of de GeForce 2 GTS, hoewel hij het goed genoeg deed in 32 bit kleur en nog steeds redelijk goed verkocht.

Nvidia zette hun voorsprong voort met de GeForce 3:

https://youtu.be/4tTWW2BRQGo

Zoals je kunt zien, hebben ze het renderproces enorm verbeterd met de nieuwe verbeterde architectuur.

Toen antwoordde ATI met hun Radeon 9700 Pro. Deze ondersteunde 64 en 128 bit kleuren, DirectX 9, AGP 8X en had indrukwekkende chip specificaties van .15 micron.

https://youtu.be/Xu-A0jqMPd8
Radeon 9700 Pro-demo

Nvidia had niet echt een concurrent tot 2004, met hun GeForce 6800.

https://youtu.be/ntNBctHHPo4

In 2006 brak het moderne tijdperk van GPU's aan met de 8e generatie GeForce-kaarten, de GeForce 8800. Deze was razend populair en we begonnen rendering, mapping, shading, belichting, rigging, post processing, enz. te zien die van dezelfde kwaliteit waren als de kaarten van het afgelopen decennium. Het kon bijvoorbeeld Bethesda's Skyrim spelen, wat vandaag de dag nog steeds een populair spel is.

Rond dezelfde tijd werd Nvidia de enige onafhankelijke fabrikant van grafische chips die nog actief was na de overname van ATI door AMD.

Ze ontwikkelden de Tesla-architectuur die unified shaders ondersteunde en de vaste pijplijn-microarchitecturen afschafte. Deze architectuur werd gebruikt tot aan de 40nm-diesels. Dit was extreem belangrijk voor de overgang naar de GPU voor algemene doeleinden.

In plaats van een heleboel aparte eenheden, zoals vertex/pixel shaders, had je de meer universele stream processors. Ze waren efficiënter in een groot aantal gebruikssituaties en omdat ze eenvoudig waren, konden kloksnelheden worden verhoogd.

In 2007 brengt Nvidia Cuda uit, waarmee softwareontwikkelaars/engineers de parallelle verwerkingsmogelijkheden van hun GPU's kunnen gebruiken voor meer algemene bewerkingen.

https://youtu.be/nXeq2_P_O50
De concurrentie gaat vandaag verder (de komende drie jaar van GPU's)

De GPU voor algemene doeleinden (of, de opkomst van de datacentergPU)

Vandaag de dag is de naam GPU een foutief overblijfsel uit het verleden, aangezien GPU-technologie zich de afgelopen tien jaar enorm heeft losgekoppeld van gaming.

Het zijn nu systemen op chips, of SoC's zoals ze meestal genoemd worden. Ze hebben alle schakelingen en functionaliteiten die je zou verwachten van een reeks afzonderlijke componenten, maar dan als één verenigd systeem. Concreet heb je een processor met veel parallelle verwerking, naast een neuraal net versnellingsmotor, digitale signaalprocessors om analoge beeldinput en audio te vertalen, een rasterizer, enz.

GPU's worden tegenwoordig gebruikt voor de versnelling van technische toepassingen, natuurkundige modellering, rakettechniek, financiële analyse en handel, medische beeldvorming, klinisch onderzoek en machinaal leren, om er maar een paar te noemen.  

Zo wordt de GPU, misschien wel de meest frontale toepassing, op grote schaal gebruikt als AI-instrument in telefoons en voertuigen.

 

Nvidia Drive, het brein dat aanzette tot de groei van autonome voertuigmogelijkheden

Hoewel het niet echt AI is, worden GPU's nog steeds aangeduid als "artificial intelligence inferencing engines", wat eigenlijk gewoon een mooie manier is om te zeggen dat het "conclusies" of inzichten trekt uit bestaande gegevens. Als je bijvoorbeeld Google Foto's of een andere cloudfototoepassing hebt, kun je zien dat deze andere foto's identificeert met dezelfde persoon erop en deze vervolgens groepeert. Dit wordt door GPU's grotendeels bereikt door "training", waarbij Google je kan vragen "is dit dezelfde persoon?".

De reden dat GPU's zich lenen voor deze taak is dat voor het trainen van zo'n machine learning-instantie een enorme hoeveelheid ruwe kwantitatieve verwerkingscapaciteit nodig is, waarbij terabytes aan afbeeldingen één voor één moeten worden gescand. De enorme schaalbaarheid van stream processors leent zich uitstekend voor dit soort taken.

Een ander voorbeeld van recente GPU-technologie is het 3D-scannen van lichamen, zoals bij Magnetic Resonance Imaging, of MRI, dat Nvidia ook grotendeels heeft geïnnoveerd.

Als je het nieuws op de voet hebt gevolgd, heb je misschien het fenomeen "vouwen in eigen huis" gezien, waarbij supercomputers en crowdsourced computing onderzoekers in staat stelden om de eiwitmechanica van Sars-Cov-2, of Covid-19, beter te begrijpen. exIT Technologies was in feite een van de grootste bijdragers aan de rekenkracht van dat project, en we hebben dit grotendeels bereikt door het gebruik van veel GPU's die parallel werden gebruikt.

 

Een van de systemen die we thuis gebruikten voor het vouwen

Waar zo'n project in voorgaande jaren maanden in beslag zou hebben genomen, is de GPU-technologie in de loop der tijd zo gegroeid dat we inzichten zoals de moleculaire koppelingsmechanismen van het spike-eiwit van Covid-19 in enkele dagen kunnen verzamelen.

In een meer universele betekenis versnellen GPU's voor algemene doeleinden processen aanzienlijk om de tijd te verminderen die ingenieurs, onderzoekers, softwareontwikkelaars, enz. nodig hebben om problemen op te lossen, nieuwe ontwerpen te maken en enorme gegevenssets te analyseren. Vandaar de term applicatieversnelling.

Niet alleen dat, maar de antwoorden die we krijgen zijn preciezer en betrouwbaarder; wanneer je gegevens moet verkleinen om snel een antwoord te vinden, lever je veel nauwkeurigheid en precisie in.

Dit jaar heeft Nvidia met de A100-processor en de tweede generatie DGX-systemen een sprong voorwaarts gemaakt ten opzichte van elk ander bedrijf ter wereld op het gebied van ruwe kwantitatieve rekenkracht.

Er passen 54 miljard transistors in slechts een paar honderd millimeter. Al die ruwe rekenkracht kan worden onderverdeeld in 7 afzonderlijke GPU's die onafhankelijk van elkaar werken, oftewel multi instance GPU (MIG).

De 3e generatie NVlink verdubbelde de verbindingssnelheid tussen de processors en ze bouwden sparsity in de hardware zelf in.

Samen met de 3e generatie tensor cores betekent dit dat een enkele A100 GPU-server 5 turfflops aan uitvoer levert. Het bood 7x betere inferenties en 6x betere trainingsprestaties. In feite bood de A100 de grootste sprong in één generatie van alle Nvidia-releases.

 

De Nvidia Ampere-architectuur

In feite heeft Nvidia in één klap een enkel systeem in staat gesteld om te doen wat voorheen alleen mogelijk was met een monster datacenter. Een enkele DGX SuperPOD van A100-servers concurreert met de snelste supercomputers ter wereld.

Waar het in het verleden maanden tot jaren duurde om een enorm supercomputerproject te voltooien, had Nvidia slechts weken nodig om de titel voor de snelste supercomputer ter wereld te veroveren.

Het zal interessant zijn om te zien hoe de concurrentie reageert.

 

Nvidia GPU Tijdlijn (Modern)

Opmerking: we kopen alle volgende GPU's. Ontvang een gratis aanbieding als je onderdelen hebt die je wilt verkopen.

Tesla GPU's

Tesla GPU'sVerschijningsdatum
TESLA M60Augustus 2015
TESLA P100Juni 2016
TESLA M10Juni 2016
TESLA P4September 2016
TESLA P40September 2016
TESLA P6Maart 2017
Titan XpApril 2017
TESLA V100Mei 2017
Titan VDecember 2017
TESLA T4September 2018
TESLA V100SNov 2019
TESLA A100Mei 2020
Tesla GPU's
Quadro GPU'sVerschijningsdatum
Quadro P5000Oktober 2016
P6000Oktober 2016
Quadro P2000Februari 2017
Quadro P1000Februari 2017
Quadro P620Februari 2017
Quadro P600Februari 2017
Quadro P400Februari 2017
Quadro P4000Februari 2017
Quadro GV100Maart 2018
Quadro RTX 8000Augustus 2018
Quadro RTX 6000Augustus 2018
RTX 5000Augustus 2018
Quadro RTX 4000November 2018
Quadro P2200Juni 2019
Quadro GPU's
GeForce RTX GPU'sVerschijningsdatum
GEFORCE RTX 2080 TiSeptember 2018
GEFORCE RTX 2080September 2018
GEFORCE RTX 2070Oktober 2018
TITAN RTXdecember 2018
GEFORCE RTX 2060jan 2019
GEFORCE GTX 1650 TiFebruari 2019
GEFORCE GTX 1660Maart 2019
GEFORCE GTX 1660 TiApril 2019
GEFORCE RTX 2080 SUPERJuli 2019
GEFORCE RTX 2070 SUPERJuli 2019
GEFORCE RTX 2060 SUPERJuli 2019
GEFORCE GTX 1660 SUPEROktober 2019
GEFORCE GTX 1650 SUPERNovember 2019
GEFORCE GTX 1650Juni 2020
GeForce RTX GPU's

AMD GPU Tijdlijn (Modern)

Opmerking: we kopen alle volgende GPU's. Ontvang een gratis aanbieding als je onderdelen hebt die je wilt verkopen.

Radeon Instinct GPU'sVerschijningsdatum
Radeon Instinct MI25 versnellerDecember 2016
Radeon Instinct MI8 versnellerDecember 2016
Radeon Instinct MI6 versnellerDecember 2016
Radeon Instinct MI50 versneller (32GB)November 2018
Radeon Instinct MI50 versneller (16GB)November 2018
Radeon Instinct GPU's
Radeon Pro GPU'sVerschijningsdatum
Radeon Pro SSGJuli 2016
Radeon Pro WX 5100Juli 2016
Radeon Pro WX 4100Juli 2016
Radeon Pro WX 4150Maart 2017
Radeon Pro WX 7100Maart 2017
Radeon Pro WX 4170Maart 2017
Radeon Pro WX 2100Juni 2017
Radeon Pro WX 3100Juni 2017
Radeon Pro WX 9100September 2017
Radeon Pro WX 8200Augustus 2018
Radeon Pro WX 3200Juli 2019
Radeon Pro WX 3200 (Mobiel)Juli 2019
Radeon Pro W5700November 2019
Radeon Pro W5500Februari 2020
Radeon Pro GPU's
Radeon RX GPU'sVerschijningsdatum
Radeon RX 540April 2017
Radeon RX 580April 2017
Radeon RX 550April 2017
Radeon RX 570April 2017
Radeon RX 560Mei 2017
Radeon Vega Frontier EditieJuni 2017
AMD Radeon VIIFebruari 2019
Radeon RX 5700 XTJuni 2019
Radeon RX 5500 XTDecember 2019
Radeon RX 590November 2019
Radeon RX 5600 XTJanuari 2020
Radeon RX GPU's

Prijzen voor gebruikte GPU's

[gs_faq cat="4428″]

Andere GPU FAQ's

nl_NLDutch