Vi köper begagnad IT-utrustning!

GPU-teknik: GPU-historia och GPU-priser över tid

Nvidia Headquarters - Data Center GPU
Lästid: 12 Protokoll

Om du behöver sälja grafikkort följ nu länken och fyll i ett formulär för en kostnadsfri offert.

I den här artikeln går vi igenom GPU:ns rika historia och hur grafikprocessorenheter har utvecklats över tid fram till de senaste dagarna med snabb tillväxt i Nvidias datacenter. Specifikt kommer vi att täcka början av GPU, sedan explosionen av ATI (sedan AMD) och nvidia GPU-tillväxt. Vi går igenom Nvidias historia med Nvidia GPU-tidslinjen och AMD GPU-tidslinjen. Sedan diskuterar vi tillkomsten av den moderna datacenter-GPU: n med de senaste Nvidia-datacenter-GPU-erbjudandena och AMD-datacenter-GPU-erbjudanden. Slutligen går vi igenom GPU-prishistoriken med en lista över GPU-priser över tiden.

Sälj ditt grafikkort snabbt och enkelt!

GPU:s tidiga historia: 1949-1985

Den "geometriska bearbetningsenheten" 

Den allra första elektroniken som kunde bearbeta kod i realtid för att visa grafik råkade också vara det som sannolikt är fadern till alla moderna datorer: MIT:s flygsimulator Whirlwind som utvecklades för den amerikanska flottan. Det var den första datorn som bearbetade parallellt i motsats till enkel linjär batch-beräkning. Den tekniska formuleringen skulle vara bitparallell i motsats till enkelbit. Även om den inte var färdig förrän 1951 kunde maskinen redan 1949 användas som det allra första interaktiva grafiska datorspelet. 

Det andra systemet som bearbetade grafik på ett digitalt sätt kan mycket väl ha varit den flygsimulator som utvecklades av Curtis-Wright 1954 och som visas nedan. 3D-grafik och annan gpu-teknik som var före sin tid fanns i själva verket tillgänglig redan på 60-talet, men den var mycket hemlig och exklusiv för regeringen, universitetslaboratorier, flygbolag och bilföretag. 

James Clark på Stanford myntade 1980 den första användningen av en "VLSI geometry processor for graphics", vilket kan vara den första termen som någonsin använts och som ungefär motsvarar en grafikprocessor. Den kördes med cirka 4 miljoner flyttalsoperationer per sekund, eller FLOPS, vilket är mycket roligare att säga. Det motsvarade 900 polygoner varje 30:e sekund. Det här verkar vara det första grafikchipet som kunde hantera massiv parallellism och som i stort sett utförde de grundläggande funktionerna hos moderna GPU:er, även om det verkligen inte byggdes med samma grundläggande arkitektur och saknade ett stort antal funktioner.

GPU-historia: Arkadepoken ('70- till 80-talet)

Sedan var de första konsumenttillämpningarna av en grafikenhet i retroarkadspel och hade mycket begränsade möjligheter. De transporterade i princip bara grafikinformation från processorn till bildskärmen. Under dessa år gick GPU-tekniken mycket långsamt framåt. 

Grafiken var mycket primitiv, om man kommer ihåg några av de ursprungliga arkadspelen. SOM T.EX. 

Efter de första arkadspelen, 1976, lanserade RCA sitt videochip, pixie, men det hade bara stöd för monoton och dessutom i en pytteliten upplösning på 62×128. 

År 1979 utvecklades det första grafiska användargränssnittet av Xerox på Palo Alto Research Center som ett stort samarbetsprojekt. Det hade fönster, ikoner, rullgardinsmenyer och många andra välbekanta funktioner. Steve Jobs besökte så småningom deras anläggningar,

Tre år senare utvecklade Namco Galaxian grafikchip med stöd för färg - det vill säga sprites med flera färger och tilemaps i bakgrunden. Det var strax före 1980. 

IBM tillverkade vad som kan kallas det första grafikkortet med IBM Monochrome Display Adapter

https://youtu.be/qM2TV7RrwHY
Grafikkapacitet för IBM Monochrome Display Adapter (720×350)

Sedan släppte IBM sitt 8-färgs stödkort 1983, ISBX 270, som var innovativt på den tiden, om än ganska dyrt på $1000. För referens, i dagens dollar, skulle det vara $2633.

Sony myntade sedan GPU med hänvisning till sin PlayStation 1984 (även om den var designad av Toshiba).

Sedan, vad som blev en titan i gpu-historien, ATI grundades 1985 av bröderna Lau och Kwok Yuen Ho, Hong Kong-invandrare som bodde i Kanada. ATI blev så småningom uppköpt av AMD. Mer om det senare.

År 1986 släppte de den första GPU:n i sin Wonder-serie. Dessa kort var dominerande på den tiden eftersom de stödde många bildskärmar och grafikstandarder i ett kort, medan andra inte gjorde det.

År 1987 lanserades VGA-anslutningen (Video Graphics Array Connector). VGA blev den dominerande standarden inom grafik.

För att råda bot på bristen på standardisering inom datorgrafikbranschen grundades 1989 Visual Electronics Standards Association av ATI och sju andra företag. Idag är mer än 300 företag medlemmar.

År 1991 introducerade S3 Graphics sin S3 911. Den var av någon anledning uppkallad efter Porsche och var ganska dominerande. S3 blev verkligen en ledare i rymden efter lanseringen av deras Trio-linje, som ledde förpackningen under en tid.

Utvecklingen av grafiktekniken fick stort stöd genom lanseringen av två viktiga API:er. OpenGL, som förmodligen är det mest använda API:et för grafikrendering, lanserades i juni 1992. Många konkurrenter kom och gick, men OpenGL är fortfarande den överlevande segraren idag.

Den andra, Direct3d, släpptes 1996 och är fortfarande en standard i branschen (även om den uppenbarligen är bråkdelar av en millisekund långsammare än OpenGL, för vad det är värt).

S3 Virge-chipsetet, som lanserades 1995, var faktiskt den snabbaste DRAM-acceleratorn på den tiden i Windows. OEM-tillverkare köpte Virge i stora mängder för dess värde och 2D-prestanda, men den var verkligen inte övertygande för sin 3D-prestanda.

S3 sålde senare av sin grafikdivision.

Tilläggskortet 3dfx Voodoo blev mycket populärt och bidrog till en ökad utveckling av 3D-teknik, särskilt för spel.

Voodoo-linjen fortsatte att vara en dominerande aktör på marknaden tills Nvidia förvärvade dem senare.

Den första formella användningen av akronymen GPU gjordes av TriTech 1996, med deras Geometry Processor Unit.

Det var ett av många liknande projekt som aldrig riktigt tog fart, även om det hade intressanta funktioner som dedikerad hårdvara för bumpmappning och funktioner för mappning av förskjutningar.

Microsoft licensierade det från TriTech ett par år senare.

Modern GPU-historia - AMD Vs Nvidia-krigen ('90-talet till idag)

Lustigt nog fick både Nvidia och ATI en tuff start på 90-talet. Nvidias NV1 hindrades av lanseringen av DirectX 1.0 kort efter lanseringen, som det inte var kompatibelt med.

ATI:s Rage 1 hade också problem med DirectX 1.0-kompatibiliteten, även om det presterade bra i 2D.

ATI hade redan haft vissa framgångar flera år tidigare, men Nvidia blev först riktigt kända när de lanserade Riva 1997, som såldes i en miljon exemplar på bara fyra månader. Dess popularitet berodde till stor del på det faktum att den var ganska, vågar jag säga, generell. Den hade stöd för 2D-, 3D- och videoacceleration, och det var inte heller platshållarfunktioner, vilket kan ha varit fallet med många GPU-tillverkare.

Med detta sagt hämmades dess framgång av dess brist på drivrutinsstöd.

 

Nvidia Riva 128

Deras regeringstid började på allvar med Riva TNT 2. 3dfx API, Glide, förlorade mot DirectX och OpenGL, vilket inledde deras nedgång. GeForce cementerade det.

År 1999 gjorde de termen GPU allmänt använd med "världens första GPU", GeForce 256. Det var förstås inte riktigt den första GPU:n. Från Clark-eran fortsatte GPU att användas av akademiker för att hänvisa till geometribearbetning.

Värdeerbjudandet för GeForce 256 baserades på att det innehöll transformations- och belysningshårdvara (eller T&L) på själva grafikchipet istället för att förlita sig på processorn. Med en snabb CPU för att hantera T&L på ett tillfredsställande sätt var dess värdeproposition därför försumbar. Dess kretsar var också ganska kritiserade. Det, tillsammans med den höga prislappen, gjorde att det inte blev lika populärt som senare kort, även om det hade sin nisch med spel som Quake.

Det presterade också faktiskt sämre än 3dfx Voodoo om korten kopplades ihop med en snabb CPU (inte för att detta var ett väldigt vanligt scenario, dock).

Trots detta väckte DRAM-versionen en hel del spänning och så krossade de 3dfx i konkurs/förvärv.

En fin infografik över de första åren nedan gjordes av Jon Peddie i hans banbrytande text, "the history of visual magic in computers", där han går in på den detaljnivå som en bok kan tillåta.

Nvidia Tidslinje/AMD Tidslinje: Deras regeringstid börjar

Nvidia befann sig i en mycket unik position vid millennieskiftet. Medan företag som 3D Labs tillverkade multichip-enheter avsedda för arbetsstationsmarknaden, som t ex Glint, fortsatte Nvidia att dra nytta av den snabbt växande marknaden för videospel, som fick en mycket större demografisk kundkrets.

Som ett resultat av detta befann sig Nvidia inte bara på spelmarknaden, utan också i en position där man kunde dominera marknaden för arbetsstationer och företag, eftersom spelmarknaden drev upp intäkterna och gav företaget en enorm FoU-budget.

Några av de spelutgåvor de växte fram ur var PlayStation 3, World of Warcraft och Xbox.

Nvidia släppte sin andra generation GeForce år 2000, som gick mycket bra trots sin långsamma 166 Mhz DDR, eftersom det fortfarande var det snabbaste kortet tills ATI släppte sitt Radeon 7200.

(Som en parentes kan nämnas att Nvidia släppte sin första integrerade grafikprodukt 2001 med nForce. )

Radeon 7200 hade bättre minneshastighet, en ny teknik för bandbreddsoptimering kallad HyperZ och den mest kompletta tekniken för bump mapping hittills. Dess imponerande kapacitet visades upp med följande Ark-demo:

https://youtu.be/xSQcpVa7paM
(demos kan laddas ner på Nvidias webbplats teknisk demo-sida.

Nvidia svarade med sitt GeForce 2 GTS som erbjöd nästan en halv procents förbättring och vann OpenGL-spelnischen och definitivt 16 bit i Direct3D. Dess dominans hindrades egentligen bara av dess dåliga minnesbandbreddsoptimering.

Ungefär vid den här tiden började Nvidia kapitalisera på arbetsstationssegmentet med Quadro, som i princip bara var GeForce 2-arkitekturen med större betoning på precision och tillförlitlighet (genom användning av ECC-minne). Genom att paketera om GeForce-kortet med fler funktioner och bara dela upp funktionerna mellan korten efter behov kunde Nvidia ta ut ett högre pris för Quadro, fortsätta konkurrera med priserna på spelkort och samtidigt hindra arbetsstationer från att använda det billigare GeForce-kortet.

Även om Radeon löste problemen med minnesbandbredden med HyperZ bland andra funktioner, var det fortfarande inte särskilt bra jämfört med Voodoo 5 5500 eller GeForce 2 GTS, även om det klarade sig tillräckligt bra i 32 bitars färg och fortfarande sålde ganska bra.

Nvidia fortsatte sin ledning med GeForce 3:

https://youtu.be/4tTWW2BRQGo

Som du kan se har de förbättrat renderingsprocessen avsevärt med den nya förbättrade arkitekturen.

Då svarade ATI med sitt Radeon 9700 Pro. Det hade stöd för 64 och 128 bitars färg, DirectX 9, AGP 8X och imponerande chipspecifikationer på .15 mikron.

https://youtu.be/Xu-A0jqMPd8
Radeon 9700 Pro Demo

Nvidia hade egentligen ingen konkurrent förrän 2004, med sin GeForce 6800.

https://youtu.be/ntNBctHHPo4

År 2006 gick vi in i den moderna eran av GPU:er med den 8:e generationen av GeForce-kort, GeForce 8800. Det var oerhört populärt och vi började se rendering, mappning, skuggning, belysning, riggning, efterbehandling etc. som var i samma kvalitetsklass som korten från det senaste decenniet. Till exempel kunde den spela Bethesdas Skyrim, som fortfarande är ett populärt spel idag.

Ungefär samtidigt blev Nvidia den enda oberoende tillverkaren av grafikchip som fortfarande var verksam efter AMD:s förvärv av ATI.

De utvecklade Tesla-arkitekturen som stödde unified shaders och avskaffade de fasta pipeline-mikroarkitekturerna. Den användes ända fram till 40nm-dieslar. Detta var oerhört viktigt för övergången till GPU:er för allmänna ändamål.

Istället för att ha en massa separata enheter, som vertex/pixel shaders, hade man de mer universella stream processorerna. De var effektivare i många olika användningsområden, och eftersom de var enkla kunde klockhastigheterna ökas.

2007 lanserade Nvidia Cuda, som gjorde det möjligt för mjukvaruutvecklare/ingenjörer att utnyttja GPU:ernas parallella bearbetningsförmåga för mer allmänna ändamål.

https://youtu.be/nXeq2_P_O50
Tävlingen fortsätter idag (de kommande tre åren för GPU:er)

GPU:n för allmänt ändamål (eller uppkomsten av GPU:n för datacenter)

Idag är GPU-namnet en felaktig kvarleva från det förflutna, eftersom GPU-tekniken har förgrenat sig massivt från spel under det senaste decenniet.

De är nu system på chip, eller SoC som de vanligen kallas. De har alla de kretsar och funktioner som du kan förvänta dig av en rad separata komponenter, men som ett enhetligt system. Specifikt har du en processor med en hel del parallellbearbetning, tillsammans med en accelerationsmotor för neurala nät, digitala signalprocessorer för att översätta analoga bildingångar och ljud, en rasterizer etc.

GPU:er används idag för acceleration av ingenjörsapplikationer, fysikmodellering, raketforskning, finansiell analys och handel, medicinsk bildbehandling, klinisk forskning och maskininlärning, för att nämna några exempel.  

GPU:n, som kanske är den mest frontinriktade tillämpningen, används till exempel ofta som ett AI-inferensverktyg i telefoner och fordon.

 

Nvidia Drive, hjärnan som satte fart på den växande kapaciteten hos autonoma fordon

Även om det inte riktigt är AI kallas GPU:er fortfarande för "inferensmotorer för artificiell intelligens", vilket egentligen bara är ett fint sätt att säga att den drar "slutsatser" eller insikter från befintliga data. Om du till exempel har Google Photos eller en annan molnbildsapplikation kan du märka att den identifierar andra bilder med samma person på och sedan grupperar dem tillsammans. Detta åstadkoms av GPU:er till stor del genom "träning" där Google kanske frågar dig "är det här samma person?"

Anledningen till att GPU:er lämpar sig för denna uppgift är att det krävs en enorm mängd rå kvantitativ bearbetningsförmåga för att träna en sådan maskininlärningsinstans, där terabyte bilder måste skannas en efter en. Den massiva skalbarheten hos strömprocessorer lämpar sig mycket bra för den här typen av uppgifter.

Ett annat exempel på ny GPU-teknik skulle kunna vara 3D-skanning av kroppar, som med Magnetic Resonance Imaging, eller MRI, som Nvidia också till stor del innoverade.

Om du har följt nyheterna noga kanske du har sett fenomenet "folding at home", där superdatorer och crowdsourced computing gjorde det möjligt för forskare att bättre förstå proteinmekaniken i Sars-Cov-2, eller Covid-19. exIT Technologies var faktiskt en av de främsta bidragsgivarna till projektets processorkraft, och vi åstadkom det till stor del genom att använda många GPU:er som användes parallellt.

 

Ett av de system som vi använde för att vika hemma

Där ett sådant projekt skulle ha tagit månader under tidigare år, har GPU-tekniken med tiden utvecklats tillräckligt för att vi ska kunna få insikter som de molekylära dockningsmekanismerna för Covid-19:s spikprotein på några dagar.

I en mer universell bemärkelse accelererar GPU:er för allmänt bruk processer kraftigt för att minska den tid det tar för ingenjörer, forskare, programvaruutvecklare etc. att lösa problem, skapa nya konstruktioner och analysera massiva datamängder. Därav termen applikationsacceleration.

Dessutom blir svaren mer exakta och tillförlitliga. När man måste reducera data för att snabbt hitta ett svar offrar man en stor del av noggrannheten och precisionen.

I år tog Nvidia ett kliv före alla andra företag i världen när det gäller rå kvantitativ processorkraft med sin A100-processor och andra generationens DGX-system.

Den rymmer 54 miljarder transistorer på bara några hundra millimeter. All denna råa datorkraft kan delas upp i 7 separata GPU:er som arbetar oberoende av varandra, eller MIG (Multi Instance GPU).

Tredje generationens NVlink fördubblade anslutningshastigheten mellan processorerna, och de byggde in sparsamhet i själva hårdvaran.

Detta, tillsammans med 3:e generationens tensor-kärnor, innebär att en enda A100 GPU-server ger 5 peat flops utdata. Den erbjöd 7x bättre inferens och 6x bättre träningsprestanda. Faktum är att A100 gav det största språnget i en generation av alla Nvidia-lanseringar.

 

Nvidias Ampere-arkitektur

I själva verket har Nvidia i ett enda slag gjort det möjligt för ett enda system att göra det som tidigare bara var möjligt med ett monsterdatacenter. En enda DGX SuperPOD bestående av A100-servrar konkurrerar med de snabbaste superdatorerna i världen.

Där det tidigare tog månader eller år att slutföra ett stort superdatorprojekt, tog det bara några veckor för Nvidia att ta hem titeln som världens snabbaste superdator.

Det ska bli intressant att se hur konkurrenterna svarar.

 

Tidslinje för Nvidia GPU (modern)

Obs: vi köper alla följande GPU:er. Få ett kostnadsfritt erbjudande om du har reservdelar som du vill sälja.

Tesla GPU:er

Tesla GPU:erUtgivningsdatum
TESLA M60augusti 2015
TESLA P100juni 2016
TESLA M10juni 2016
TESLA P4september 2016
TESLA P40september 2016
TESLA P6mars 2017
Titan Xpapril 2017
TESLA V100maj 2017
Titan Vdecember 2017
TESLA T4september 2018
TESLA V100Snovember 2019
TESLA A100maj 2020
Tesla GPU:er
Quadro GPU:erUtgivningsdatum
Quadro P5000Oktober 2016
P6000Oktober 2016
Quadro P2000Februari 2017
Quadro P1000Februari 2017
Quadro P620Februari 2017
Quadro P600Februari 2017
Quadro P400Februari 2017
Quadro P4000Februari 2017
Quadro GV100mars 2018
Quadro RTX 8000Augusti 2018
Quadro RTX 6000Augusti 2018
RTX 5000Augusti 2018
Quadro RTX 4000November 2018
Quadro P2200juni 2019
Quadro GPU:er
GeForce RTX GPU:erUtgivningsdatum
GEFORCE RTX 2080 Tiseptember 2018
GEFORCE RTX 2080september 2018
GEFORCE RTX 2070Oktober 2018
TITAN RTXdecember 2018
GEFORCE RTX 2060Januari 2019
GEFORCE GTX 1650 TiFebruari 2019
GEFORCE GTX 1660mars 2019
GEFORCE GTX 1660 Tiapril 2019
GEFORCE RTX 2080 SUPERjuli 2019
GEFORCE RTX 2070 SUPERjuli 2019
GEFORCE RTX 2060 SUPERjuli 2019
GEFORCE GTX 1660 SUPEROktober 2019
GEFORCE GTX 1650 SUPERnovember 2019
GEFORCE GTX 1650juni 2020
GeForce RTX GPU:er

Tidslinje för AMD GPU (modern)

Obs: vi köper alla följande GPU:er. Få ett kostnadsfritt erbjudande om du har reservdelar som du vill sälja.

Radeon Instinct GPU:erUtgivningsdatum
Radeon Instinct MI25 Acceleratordecember 2016
Radeon Instinct MI8 Acceleratordecember 2016
Radeon Instinct MI6 Acceleratordecember 2016
Radeon Instinct MI50 Accelerator (32 GB)November 2018
Radeon Instinct MI50 Accelerator (16 GB)November 2018
Radeon Instinct GPU:er
Radeon Pro GPU:erUtgivningsdatum
Radeon Pro SSGjuli 2016
Radeon Pro WX 5100juli 2016
Radeon Pro WX 4100juli 2016
Radeon Pro WX 4150mars 2017
Radeon Pro WX 7100mars 2017
Radeon Pro WX 4170mars 2017
Radeon Pro WX 2100juni 2017
Radeon Pro WX 3100juni 2017
Radeon Pro WX 9100september 2017
Radeon Pro WX 8200Augusti 2018
Radeon Pro WX 3200juli 2019
Radeon Pro WX 3200 (Mobil)juli 2019
Radeon Pro W5700november 2019
Radeon Pro W5500Februari 2020
Radeon Pro GPU:er
Radeon RX GPU:erUtgivningsdatum
Radeon RX 540april 2017
Radeon RX 580april 2017
Radeon RX 550april 2017
Radeon RX 570april 2017
Radeon RX 560maj 2017
Radeon Vega Frontier Editionjuni 2017
AMD Radeon VIIFebruari 2019
Radeon RX 5700 XTjuni 2019
Radeon RX 5500 XTdecember 2019
Radeon RX 590november 2019
Radeon RX 5600 XTJanuari 2020
Radeon RX GPU:er

Priser för begagnade GPU:er

[gs_faq cat="4428″]

Andra vanliga frågor om GPU

Relaterat Blogg

sv_SESwedish