Om du behöver sälja grafikkort följ nu länken och fyll i ett formulär för en kostnadsfri offert.
I den här artikeln går vi igenom GPU:ns rika historia och hur grafikprocessorenheter har utvecklats över tid fram till de senaste dagarna med snabb tillväxt i Nvidias datacenter. Specifikt kommer vi att täcka början av GPU, sedan explosionen av ATI (sedan AMD) och nvidia GPU-tillväxt. Vi går igenom Nvidias historia med Nvidia GPU-tidslinjen och AMD GPU-tidslinjen. Sedan diskuterar vi tillkomsten av den moderna datacenter-GPU: n med de senaste Nvidia-datacenter-GPU-erbjudandena och AMD-datacenter-GPU-erbjudanden. Slutligen går vi igenom GPU-prishistoriken med en lista över GPU-priser över tiden.
Sälj ditt grafikkort snabbt och enkelt!
GPU:s tidiga historia: 1949-1985
Den "geometriska bearbetningsenheten"
Den allra första elektroniken som kunde bearbeta kod i realtid för att visa grafik råkade också vara det som sannolikt är fadern till alla moderna datorer: MIT:s flygsimulator Whirlwind som utvecklades för den amerikanska flottan. Det var den första datorn som bearbetade parallellt i motsats till enkel linjär batch-beräkning. Den tekniska formuleringen skulle vara bitparallell i motsats till enkelbit. Även om den inte var färdig förrän 1951 kunde maskinen redan 1949 användas som det allra första interaktiva grafiska datorspelet.
Det andra systemet som bearbetade grafik på ett digitalt sätt kan mycket väl ha varit den flygsimulator som utvecklades av Curtis-Wright 1954 och som visas nedan. 3D-grafik och annan gpu-teknik som var före sin tid fanns i själva verket tillgänglig redan på 60-talet, men den var mycket hemlig och exklusiv för regeringen, universitetslaboratorier, flygbolag och bilföretag.
James Clark på Stanford myntade 1980 den första användningen av en "VLSI geometry processor for graphics", vilket kan vara den första termen som någonsin använts och som ungefär motsvarar en grafikprocessor. Den kördes med cirka 4 miljoner flyttalsoperationer per sekund, eller FLOPS, vilket är mycket roligare att säga. Det motsvarade 900 polygoner varje 30:e sekund. Det här verkar vara det första grafikchipet som kunde hantera massiv parallellism och som i stort sett utförde de grundläggande funktionerna hos moderna GPU:er, även om det verkligen inte byggdes med samma grundläggande arkitektur och saknade ett stort antal funktioner.
GPU-historia: Arkadepoken ('70- till 80-talet)
Sedan var de första konsumenttillämpningarna av en grafikenhet i retroarkadspel och hade mycket begränsade möjligheter. De transporterade i princip bara grafikinformation från processorn till bildskärmen. Under dessa år gick GPU-tekniken mycket långsamt framåt.
Grafiken var mycket primitiv, om man kommer ihåg några av de ursprungliga arkadspelen. SOM T.EX.
Efter de första arkadspelen, 1976, lanserade RCA sitt videochip, pixie, men det hade bara stöd för monoton och dessutom i en pytteliten upplösning på 62×128.
År 1979 utvecklades det första grafiska användargränssnittet av Xerox på Palo Alto Research Center som ett stort samarbetsprojekt. Det hade fönster, ikoner, rullgardinsmenyer och många andra välbekanta funktioner. Steve Jobs besökte så småningom deras anläggningar,
Tre år senare utvecklade Namco Galaxian grafikchip med stöd för färg - det vill säga sprites med flera färger och tilemaps i bakgrunden. Det var strax före 1980.
IBM tillverkade vad som kan kallas det första grafikkortet med IBM Monochrome Display Adapter
Sedan släppte IBM sitt 8-färgs stödkort 1983, ISBX 270, som var innovativt på den tiden, om än ganska dyrt på $1000. För referens, i dagens dollar, skulle det vara $2633.
Sony myntade sedan GPU med hänvisning till sin PlayStation 1984 (även om den var designad av Toshiba).
Sedan, vad som blev en titan i gpu-historien, ATI grundades 1985 av bröderna Lau och Kwok Yuen Ho, Hong Kong-invandrare som bodde i Kanada. ATI blev så småningom uppköpt av AMD. Mer om det senare.
År 1986 släppte de den första GPU:n i sin Wonder-serie. Dessa kort var dominerande på den tiden eftersom de stödde många bildskärmar och grafikstandarder i ett kort, medan andra inte gjorde det.
År 1987 lanserades VGA-anslutningen (Video Graphics Array Connector). VGA blev den dominerande standarden inom grafik.
För att råda bot på bristen på standardisering inom datorgrafikbranschen grundades 1989 Visual Electronics Standards Association av ATI och sju andra företag. Idag är mer än 300 företag medlemmar.
År 1991 introducerade S3 Graphics sin S3 911. Den var av någon anledning uppkallad efter Porsche och var ganska dominerande. S3 blev verkligen en ledare i rymden efter lanseringen av deras Trio-linje, som ledde förpackningen under en tid.
Utvecklingen av grafiktekniken fick stort stöd genom lanseringen av två viktiga API:er. OpenGL, som förmodligen är det mest använda API:et för grafikrendering, lanserades i juni 1992. Många konkurrenter kom och gick, men OpenGL är fortfarande den överlevande segraren idag.
Den andra, Direct3d, släpptes 1996 och är fortfarande en standard i branschen (även om den uppenbarligen är bråkdelar av en millisekund långsammare än OpenGL, för vad det är värt).
S3 Virge-chipsetet, som lanserades 1995, var faktiskt den snabbaste DRAM-acceleratorn på den tiden i Windows. OEM-tillverkare köpte Virge i stora mängder för dess värde och 2D-prestanda, men den var verkligen inte övertygande för sin 3D-prestanda.
S3 sålde senare av sin grafikdivision.
Tilläggskortet 3dfx Voodoo blev mycket populärt och bidrog till en ökad utveckling av 3D-teknik, särskilt för spel.
Voodoo-linjen fortsatte att vara en dominerande aktör på marknaden tills Nvidia förvärvade dem senare.
Den första formella användningen av akronymen GPU gjordes av TriTech 1996, med deras Geometry Processor Unit.
Det var ett av många liknande projekt som aldrig riktigt tog fart, även om det hade intressanta funktioner som dedikerad hårdvara för bumpmappning och funktioner för mappning av förskjutningar.
Microsoft licensierade det från TriTech ett par år senare.
Modern GPU-historia - AMD Vs Nvidia-krigen ('90-talet till idag)
Lustigt nog fick både Nvidia och ATI en tuff start på 90-talet. Nvidias NV1 hindrades av lanseringen av DirectX 1.0 kort efter lanseringen, som det inte var kompatibelt med.
ATI:s Rage 1 hade också problem med DirectX 1.0-kompatibiliteten, även om det presterade bra i 2D.
ATI hade redan haft vissa framgångar flera år tidigare, men Nvidia blev först riktigt kända när de lanserade Riva 1997, som såldes i en miljon exemplar på bara fyra månader. Dess popularitet berodde till stor del på det faktum att den var ganska, vågar jag säga, generell. Den hade stöd för 2D-, 3D- och videoacceleration, och det var inte heller platshållarfunktioner, vilket kan ha varit fallet med många GPU-tillverkare.
Med detta sagt hämmades dess framgång av dess brist på drivrutinsstöd.
Deras regeringstid började på allvar med Riva TNT 2. 3dfx API, Glide, förlorade mot DirectX och OpenGL, vilket inledde deras nedgång. GeForce cementerade det.
År 1999 gjorde de termen GPU allmänt använd med "världens första GPU", GeForce 256. Det var förstås inte riktigt den första GPU:n. Från Clark-eran fortsatte GPU att användas av akademiker för att hänvisa till geometribearbetning.
Värdeerbjudandet för GeForce 256 baserades på att det innehöll transformations- och belysningshårdvara (eller T&L) på själva grafikchipet istället för att förlita sig på processorn. Med en snabb CPU för att hantera T&L på ett tillfredsställande sätt var dess värdeproposition därför försumbar. Dess kretsar var också ganska kritiserade. Det, tillsammans med den höga prislappen, gjorde att det inte blev lika populärt som senare kort, även om det hade sin nisch med spel som Quake.
Det presterade också faktiskt sämre än 3dfx Voodoo om korten kopplades ihop med en snabb CPU (inte för att detta var ett väldigt vanligt scenario, dock).
Trots detta väckte DRAM-versionen en hel del spänning och så krossade de 3dfx i konkurs/förvärv.
En fin infografik över de första åren nedan gjordes av Jon Peddie i hans banbrytande text, "the history of visual magic in computers", där han går in på den detaljnivå som en bok kan tillåta.
Nvidia Tidslinje/AMD Tidslinje: Deras regeringstid börjar
Nvidia befann sig i en mycket unik position vid millennieskiftet. Medan företag som 3D Labs tillverkade multichip-enheter avsedda för arbetsstationsmarknaden, som t ex Glint, fortsatte Nvidia att dra nytta av den snabbt växande marknaden för videospel, som fick en mycket större demografisk kundkrets.
Som ett resultat av detta befann sig Nvidia inte bara på spelmarknaden, utan också i en position där man kunde dominera marknaden för arbetsstationer och företag, eftersom spelmarknaden drev upp intäkterna och gav företaget en enorm FoU-budget.
Några av de spelutgåvor de växte fram ur var PlayStation 3, World of Warcraft och Xbox.
Nvidia släppte sin andra generation GeForce år 2000, som gick mycket bra trots sin långsamma 166 Mhz DDR, eftersom det fortfarande var det snabbaste kortet tills ATI släppte sitt Radeon 7200.
(Som en parentes kan nämnas att Nvidia släppte sin första integrerade grafikprodukt 2001 med nForce. )
Radeon 7200 hade bättre minneshastighet, en ny teknik för bandbreddsoptimering kallad HyperZ och den mest kompletta tekniken för bump mapping hittills. Dess imponerande kapacitet visades upp med följande Ark-demo:
Nvidia svarade med sitt GeForce 2 GTS som erbjöd nästan en halv procents förbättring och vann OpenGL-spelnischen och definitivt 16 bit i Direct3D. Dess dominans hindrades egentligen bara av dess dåliga minnesbandbreddsoptimering.
Ungefär vid den här tiden började Nvidia kapitalisera på arbetsstationssegmentet med Quadro, som i princip bara var GeForce 2-arkitekturen med större betoning på precision och tillförlitlighet (genom användning av ECC-minne). Genom att paketera om GeForce-kortet med fler funktioner och bara dela upp funktionerna mellan korten efter behov kunde Nvidia ta ut ett högre pris för Quadro, fortsätta konkurrera med priserna på spelkort och samtidigt hindra arbetsstationer från att använda det billigare GeForce-kortet.
Även om Radeon löste problemen med minnesbandbredden med HyperZ bland andra funktioner, var det fortfarande inte särskilt bra jämfört med Voodoo 5 5500 eller GeForce 2 GTS, även om det klarade sig tillräckligt bra i 32 bitars färg och fortfarande sålde ganska bra.
Nvidia fortsatte sin ledning med GeForce 3:
Som du kan se har de förbättrat renderingsprocessen avsevärt med den nya förbättrade arkitekturen.
Då svarade ATI med sitt Radeon 9700 Pro. Det hade stöd för 64 och 128 bitars färg, DirectX 9, AGP 8X och imponerande chipspecifikationer på .15 mikron.
Nvidia hade egentligen ingen konkurrent förrän 2004, med sin GeForce 6800.
År 2006 gick vi in i den moderna eran av GPU:er med den 8:e generationen av GeForce-kort, GeForce 8800. Det var oerhört populärt och vi började se rendering, mappning, skuggning, belysning, riggning, efterbehandling etc. som var i samma kvalitetsklass som korten från det senaste decenniet. Till exempel kunde den spela Bethesdas Skyrim, som fortfarande är ett populärt spel idag.
Ungefär samtidigt blev Nvidia den enda oberoende tillverkaren av grafikchip som fortfarande var verksam efter AMD:s förvärv av ATI.
De utvecklade Tesla-arkitekturen som stödde unified shaders och avskaffade de fasta pipeline-mikroarkitekturerna. Den användes ända fram till 40nm-dieslar. Detta var oerhört viktigt för övergången till GPU:er för allmänna ändamål.
Istället för att ha en massa separata enheter, som vertex/pixel shaders, hade man de mer universella stream processorerna. De var effektivare i många olika användningsområden, och eftersom de var enkla kunde klockhastigheterna ökas.
2007 lanserade Nvidia Cuda, som gjorde det möjligt för mjukvaruutvecklare/ingenjörer att utnyttja GPU:ernas parallella bearbetningsförmåga för mer allmänna ändamål.
GPU:n för allmänt ändamål (eller uppkomsten av GPU:n för datacenter)
Idag är GPU-namnet en felaktig kvarleva från det förflutna, eftersom GPU-tekniken har förgrenat sig massivt från spel under det senaste decenniet.
De är nu system på chip, eller SoC som de vanligen kallas. De har alla de kretsar och funktioner som du kan förvänta dig av en rad separata komponenter, men som ett enhetligt system. Specifikt har du en processor med en hel del parallellbearbetning, tillsammans med en accelerationsmotor för neurala nät, digitala signalprocessorer för att översätta analoga bildingångar och ljud, en rasterizer etc.
GPU:er används idag för acceleration av ingenjörsapplikationer, fysikmodellering, raketforskning, finansiell analys och handel, medicinsk bildbehandling, klinisk forskning och maskininlärning, för att nämna några exempel.
GPU:n, som kanske är den mest frontinriktade tillämpningen, används till exempel ofta som ett AI-inferensverktyg i telefoner och fordon.
Även om det inte riktigt är AI kallas GPU:er fortfarande för "inferensmotorer för artificiell intelligens", vilket egentligen bara är ett fint sätt att säga att den drar "slutsatser" eller insikter från befintliga data. Om du till exempel har Google Photos eller en annan molnbildsapplikation kan du märka att den identifierar andra bilder med samma person på och sedan grupperar dem tillsammans. Detta åstadkoms av GPU:er till stor del genom "träning" där Google kanske frågar dig "är det här samma person?"
Anledningen till att GPU:er lämpar sig för denna uppgift är att det krävs en enorm mängd rå kvantitativ bearbetningsförmåga för att träna en sådan maskininlärningsinstans, där terabyte bilder måste skannas en efter en. Den massiva skalbarheten hos strömprocessorer lämpar sig mycket bra för den här typen av uppgifter.
Ett annat exempel på ny GPU-teknik skulle kunna vara 3D-skanning av kroppar, som med Magnetic Resonance Imaging, eller MRI, som Nvidia också till stor del innoverade.
Om du har följt nyheterna noga kanske du har sett fenomenet "folding at home", där superdatorer och crowdsourced computing gjorde det möjligt för forskare att bättre förstå proteinmekaniken i Sars-Cov-2, eller Covid-19. exIT Technologies var faktiskt en av de främsta bidragsgivarna till projektets processorkraft, och vi åstadkom det till stor del genom att använda många GPU:er som användes parallellt.
Där ett sådant projekt skulle ha tagit månader under tidigare år, har GPU-tekniken med tiden utvecklats tillräckligt för att vi ska kunna få insikter som de molekylära dockningsmekanismerna för Covid-19:s spikprotein på några dagar.
I en mer universell bemärkelse accelererar GPU:er för allmänt bruk processer kraftigt för att minska den tid det tar för ingenjörer, forskare, programvaruutvecklare etc. att lösa problem, skapa nya konstruktioner och analysera massiva datamängder. Därav termen applikationsacceleration.
Dessutom blir svaren mer exakta och tillförlitliga. När man måste reducera data för att snabbt hitta ett svar offrar man en stor del av noggrannheten och precisionen.
I år tog Nvidia ett kliv före alla andra företag i världen när det gäller rå kvantitativ processorkraft med sin A100-processor och andra generationens DGX-system.
Den rymmer 54 miljarder transistorer på bara några hundra millimeter. All denna råa datorkraft kan delas upp i 7 separata GPU:er som arbetar oberoende av varandra, eller MIG (Multi Instance GPU).
Tredje generationens NVlink fördubblade anslutningshastigheten mellan processorerna, och de byggde in sparsamhet i själva hårdvaran.
Detta, tillsammans med 3:e generationens tensor-kärnor, innebär att en enda A100 GPU-server ger 5 peat flops utdata. Den erbjöd 7x bättre inferens och 6x bättre träningsprestanda. Faktum är att A100 gav det största språnget i en generation av alla Nvidia-lanseringar.
I själva verket har Nvidia i ett enda slag gjort det möjligt för ett enda system att göra det som tidigare bara var möjligt med ett monsterdatacenter. En enda DGX SuperPOD bestående av A100-servrar konkurrerar med de snabbaste superdatorerna i världen.
Där det tidigare tog månader eller år att slutföra ett stort superdatorprojekt, tog det bara några veckor för Nvidia att ta hem titeln som världens snabbaste superdator.
Det ska bli intressant att se hur konkurrenterna svarar.
Tidslinje för Nvidia GPU (modern)
Obs: vi köper alla följande GPU:er. Få ett kostnadsfritt erbjudande om du har reservdelar som du vill sälja.
Tesla GPU:er
Tesla GPU:er | Utgivningsdatum |
---|---|
TESLA M60 | augusti 2015 |
TESLA P100 | juni 2016 |
TESLA M10 | juni 2016 |
TESLA P4 | september 2016 |
TESLA P40 | september 2016 |
TESLA P6 | mars 2017 |
Titan Xp | april 2017 |
TESLA V100 | maj 2017 |
Titan V | december 2017 |
TESLA T4 | september 2018 |
TESLA V100S | november 2019 |
TESLA A100 | maj 2020 |
Quadro GPU:er | Utgivningsdatum |
---|---|
Quadro P5000 | Oktober 2016 |
P6000 | Oktober 2016 |
Quadro P2000 | Februari 2017 |
Quadro P1000 | Februari 2017 |
Quadro P620 | Februari 2017 |
Quadro P600 | Februari 2017 |
Quadro P400 | Februari 2017 |
Quadro P4000 | Februari 2017 |
Quadro GV100 | mars 2018 |
Quadro RTX 8000 | Augusti 2018 |
Quadro RTX 6000 | Augusti 2018 |
RTX 5000 | Augusti 2018 |
Quadro RTX 4000 | November 2018 |
Quadro P2200 | juni 2019 |
GeForce RTX GPU:er | Utgivningsdatum |
---|---|
GEFORCE RTX 2080 Ti | september 2018 |
GEFORCE RTX 2080 | september 2018 |
GEFORCE RTX 2070 | Oktober 2018 |
TITAN RTX | december 2018 |
GEFORCE RTX 2060 | Januari 2019 |
GEFORCE GTX 1650 Ti | Februari 2019 |
GEFORCE GTX 1660 | mars 2019 |
GEFORCE GTX 1660 Ti | april 2019 |
GEFORCE RTX 2080 SUPER | juli 2019 |
GEFORCE RTX 2070 SUPER | juli 2019 |
GEFORCE RTX 2060 SUPER | juli 2019 |
GEFORCE GTX 1660 SUPER | Oktober 2019 |
GEFORCE GTX 1650 SUPER | november 2019 |
GEFORCE GTX 1650 | juni 2020 |
Tidslinje för AMD GPU (modern)
Obs: vi köper alla följande GPU:er. Få ett kostnadsfritt erbjudande om du har reservdelar som du vill sälja.
Radeon Instinct GPU:er | Utgivningsdatum |
---|---|
Radeon Instinct MI25 Accelerator | december 2016 |
Radeon Instinct MI8 Accelerator | december 2016 |
Radeon Instinct MI6 Accelerator | december 2016 |
Radeon Instinct MI50 Accelerator (32 GB) | November 2018 |
Radeon Instinct MI50 Accelerator (16 GB) | November 2018 |
Radeon Pro GPU:er | Utgivningsdatum |
---|---|
Radeon Pro SSG | juli 2016 |
Radeon Pro WX 5100 | juli 2016 |
Radeon Pro WX 4100 | juli 2016 |
Radeon Pro WX 4150 | mars 2017 |
Radeon Pro WX 7100 | mars 2017 |
Radeon Pro WX 4170 | mars 2017 |
Radeon Pro WX 2100 | juni 2017 |
Radeon Pro WX 3100 | juni 2017 |
Radeon Pro WX 9100 | september 2017 |
Radeon Pro WX 8200 | Augusti 2018 |
Radeon Pro WX 3200 | juli 2019 |
Radeon Pro WX 3200 (Mobil) | juli 2019 |
Radeon Pro W5700 | november 2019 |
Radeon Pro W5500 | Februari 2020 |
Radeon RX GPU:er | Utgivningsdatum |
---|---|
Radeon RX 540 | april 2017 |
Radeon RX 580 | april 2017 |
Radeon RX 550 | april 2017 |
Radeon RX 570 | april 2017 |
Radeon RX 560 | maj 2017 |
Radeon Vega Frontier Edition | juni 2017 |
AMD Radeon VII | Februari 2019 |
Radeon RX 5700 XT | juni 2019 |
Radeon RX 5500 XT | december 2019 |
Radeon RX 590 | november 2019 |
Radeon RX 5600 XT | Januari 2020 |
Priser för begagnade GPU:er
[gs_faq cat="4428″]
Andra vanliga frågor om GPU