Om du behöver sälja grafikkort nu, följ länken och fyll i ett formulär för en kostnadsfri offert.
I den här artikeln går vi igenom den rika GPU-historien och hur grafikprocessorerna har utvecklats över tiden fram till de senaste dagarnas snabba tillväxt i Nvidias datacenter. Specifikt kommer vi att täcka GPU: s början, sedan explosionen av ATI (sedan AMD) och nvidia GPU-tillväxt. Vi kommer att gå igenom Nvidias historia med tidslinjen för Nvidia GPU och tidslinjen för AMD GPU. Sedan kommer vi att diskutera tillkomsten av den moderna datacenter GPU med de senaste Nvidia datacenter GPU-erbjudanden och AMD datacenter GPU-erbjudanden. Slutligen kommer vi att gå igenom GPU-prishistorik med en lista över GPU-priser över tid.
Sälj ditt grafikkort snabbt och enkelt!
Tidig GPU-historia: 1949-1985
"Geometribearbetningsenhet"
Den allra första elektroniken som kunde bearbeta kod i realtid för att visa grafik råkade också vara det som sannolikt är fadern till alla moderna datorer: MIT:s flygsimulator Whirlwind som utvecklats för den amerikanska flottan. Det var den första datorn som processade parallellt i motsats till enkel linjär batchberäkning. Den tekniska formuleringen skulle vara bitparallell i motsats till enbits. Maskinen var inte färdig förrän 1951, men redan 1949 kunde den användas som det allra första interaktiva grafiska datorspelet.
Det andra systemet som bearbetade grafik på ett digitalt sätt kan mycket väl ha varit den flygsimulator som utvecklades av Curtis-Wright 1954 och som avbildas nedan. 3D-grafik och annan gpu-teknik som var före sin tid fanns faktiskt tillgänglig redan på 60-talet, men den var mycket hemlig och exklusiv för regeringen, universitetslaboratorier, flygbolag och bilföretag.
Sedan myntade James Clark vid Stanford 1980 den första användningen av en "VLSI geometry processor for graphics", vilket kan vara den första termen som någonsin använts som ungefär motsvarar en grafikprocessor. Den kördes med cirka 4 miljoner flyttalsoperationer per sekund, eller FLOPS, vilket är mycket roligare att säga. Det motsvarar 900 polygoner var 30:e sekund. Detta verkar vara det första grafikchipet som kunde hantera massiv parallellism och som i stort sett utförde de grundläggande funktionerna hos moderna GPU:er, även om det verkligen inte var byggt med samma grundläggande arkitektur och saknade ett stort antal funktioner.
GPU-historia: Arkadepoken (70- till 80-talet)
De första konsumenttillämpningarna av en grafikenhet var i retro-arkadspel och hade mycket begränsad kapacitet. De överförde i princip bara grafikinformation från processorn till bildskärmen. Under dessa år utvecklades GPU-tekniken mycket långsamt.
Grafiken var mycket primitiv, om man minns några av de ursprungliga arkadspelen. E.G.
Efter de första arkadspelen, 1976, tillverkade RCA sitt videochip, pixie, men det stödde bara monotona toner, och det i en liten upplösning på 62×128 pixlar.
1979 utvecklades det första grafiska användargränssnittet av Xerox på Palo Alto Research Center som ett stort samarbetsprojekt. Det hade fönster, ikoner, rullgardinsmenyer och många andra välbekanta funktioner. Steve Jobs besökte så småningom deras anläggningar,
Tre år senare utvecklade Namco Galaxian grafikchips för att stödja färg - nämligen sprites med flera färger och tilemaps i bakgrunden. Det var strax före 1980.
IBM tillverkade vad som skulle kunna kallas det första grafikkortet med IBM Monochrome Display Adapter
Sedan lanserade IBM sitt 8-färgskort 1983, ISBX 270, som var innovativt på den tiden, men ganska dyrt ($1000). Som referens kan nämnas att det i dagens penningvärde skulle motsvara $2633.
Sony myntade sedan GPU som referens till sin PlayStation 1984 (även om den designades av Toshiba).
ATI grundades 1985 av bröderna Lau och Kwok Yuen Ho, immigranter från Hong Kong som bodde i Kanada och som kom att bli en titan i gpu-historien. ATI köptes så småningom upp av AMD. Mer om det senare.
1986 släppte de den första i sin Wonder-serie av GPU:er. Dessa kort var dominerande på den tiden eftersom de stödde många bildskärmar och grafikstandarder i ett kort, medan andra inte gjorde det.
1987 lanserades VGA-anslutningen (Video Graphics Array). VGA blev den dominerande standarden inom grafik.
För att råda bot på bristen på standardisering inom den datorgrafiska industrin grundades 1989 Visual Electronics Standards Association av ATI och sju andra företag. Idag är mer än 300 företag medlemmar.
1991 introducerade S3 Graphics sin S3 911. Den var av någon anledning döpt efter Porsche och var ganska dominerande. S3 blev verkligen en ledare på området efter lanseringen av Trio-serien, som var ledande under en längre tid.
Utvecklingen av grafiktekniken fick stort stöd av lanseringen av två anmärkningsvärda API:er. I juni 1992 lanserades OpenGL, det API för grafikrendering som förmodligen har fått störst spridning. Många konkurrenter kom och gick, men OpenGL är än idag den överlevande segraren.
Den andra, Direct3d, lanserades 1996 och är fortfarande en standard i branschen (även om den uppenbarligen är bråkdelar av en millisekund långsammare än OpenGL, för vad det är värt).
S3 Virge-chipset, som lanserades 1995, var faktiskt den snabbaste DRAM-acceleratorn på den tiden i Windows. OEM-tillverkare köpte Virge i stora kvantiteter för dess prisvärdhet och 2D-prestanda, men den var verkligen inte övertygande för sin 3D-prestanda.
S3 sålde senare av sin grafikdivision.
Tilläggskortet 3dfx Voodoo blev mycket populärt och drev på utvecklingen av 3D-teknik, särskilt för spel.
Voodoo Line fortsatte att vara en dominerande aktör på marknaden tills Nvidia förvärvade dem senare.
Den kanske första formella användningen av akronymen GPU gjordes av TriTech 1996, med deras Geometry Processor Unit.
Det var ett av många liknande projekt som aldrig riktigt tog fart, även om det hade intressanta funktioner som dedikerad bumpmappningshårdvara och funktioner för förskjutningsmappning.
Microsoft licensierade det från TriTech ett par år senare.
Modern GPU-historia - AMD Vs Nvidia-kriget ('90-talet till idag)
Lustigt nog fick både Nvidia och ATI en tuff start på 90-talet. Nvidias NV1 hindrades av lanseringen av DirectX 1.0 kort efter lanseringen, som den inte var kompatibel med.
ATI:s Rage 1 kämpade också på grund av DirectX 1.0-kompatibilitet, även om det var en bra 2D-spelare.
ATI hade redan haft vissa framgångar flera år tidigare, men Nvidia blev först riktigt känt i och med lanseringen av Riva 1997, som såldes i en miljon exemplar på bara fyra månader. Dess popularitet berodde till stor del på att den var ganska, vågar jag säga, generell. Den stödde 2D-, 3D- och videoacceleration, och det var inte heller några platshållarfunktioner, vilket kan ha varit fallet med många GPU-tillverkare.
Med detta sagt hämmades dess framgång av dess brist på förarstöd.
Deras regeringstid började verkligen med Riva TNT 2. 3dfx API, Glide, förlorade mot DirectX och OpenGL, vilket inledde deras nedgång. GeForce cementerade det.
År 1999 gjorde de termen GPU allmänt använd med "världens första GPU", GeForce 256. Det var naturligtvis inte den första GPU:n. Från Clark-eran fortsatte GPU att användas av akademiker för att hänvisa till geometribearbetning.
GeForce 256:s mervärde baserades på att den inkluderade hårdvara för transform och belysning (eller T&L) på själva grafikchipet istället för att förlita sig på CPU:n. Som ett resultat, med en snabb CPU för att hantera T&L på ett tillfredsställande sätt, var dess mervärde försumbart. Dess kretsar var också ganska kritiserade. Detta, i tillägg till den höga prislappen, innebar att det inte var lika populärt som senare kort, även om det hade sin nisch med spel som Quake.
Det presterade faktiskt också sämre än 3dfx Voodoo om korten parades ihop med en snabb CPU (inte för att detta var ett särskilt vanligt scenario, dock).
DRAM-versionen väckte dock stor entusiasm och därför krossade de 3dfx till konkurs/förvärv.
En fin infografik över de första åren nedan gjordes av Jon Peddie i hans banbrytande text, "the history of visual magic in computers", där han går in på den detaljnivå som en bok kan tillåta.
Nvidias tidslinje/AMD:s tidslinje: Deras regeringstid börjar
Nvidia befann sig i en mycket unik position vid millennieskiftet. Medan företag som 3D Labs tillverkade flerchipsenheter avsedda för arbetsstationsmarknaden, som Glint, fortsatte Nvidia att kapitalisera på den snabbt växande marknaden för videospel, som fick en mycket större demografisk grupp av köpare.
Resultatet blev att Nvidia inte bara befann sig på spelmarknaden, utan även på marknaden för arbetsstationer och företag, eftersom spelmarknaden drev upp intäkterna och gav företaget en enorm FoU-budget.
Några av de anmärkningsvärda spelversioner som de växte upp från var PlayStation 3, World of Warcraft och Xbox.
Nvidia släppte sin andra generation GeForce år 2000, vilket gick mycket bra trots sitt långsamma 166 Mhz DDR, eftersom det fortfarande var det snabbaste kortet tills ATI släppte sitt Radeon 7200.
(Nvidia lanserade sin första integrerade grafikprodukt 2001 med nForce. )
Radeon 7200 hade bättre minneshastighet, en ny teknik för bandbreddsoptimering kallad HyperZ och den mest kompletta bumpmapping-tekniken hittills. Dess imponerande kapacitet visades upp med följande Ark-demo:
Nvidia svarade med sitt GeForce 2 GTS som erbjöd nästan en halv procents förbättring, och vann OpenGL-spelnischen och säkert 16 bit i Direct3D. Dess dominans hindrades egentligen bara av dess dåliga optimering av minnesbandbredden.
Vid den här tiden började Nvidia satsa på arbetsstationssegmentet med Quadro, som i princip bara var GeForce 2-arkitekturen med större tonvikt på precision och tillförlitlighet (genom användning av ECC-minne). Genom att paketera om GeForce med fler finesser och bara dela upp funktionerna mellan korten efter behov kunde Nvidia ta ut en högre avgift för Quadro, fortsätta konkurrera med spelkortspriserna men ändå hindra arbetsstationer från att använda det billigare GeForce.
Även om Radeon löste problemen med minnesbandbredd med HyperZ bland andra funktioner, jämfördes den fortfarande inte särskilt gynnsamt med Voodoo 5 5500 eller GeForce 2 GTS, även om den klarade sig tillräckligt bra i 32-bitars färg och fortfarande sålde ganska bra.
Nvidia fortsatte sin ledning med GeForce 3:
Som du kan se har de förbättrat renderingsprocessen avsevärt med den nyligen förbättrade arkitekturen.
Sedan svarade ATI med sitt Radeon 9700 Pro. Det stödde 64 och 128 bitars färg, DirectX 9, AGP 8X och hade imponerande .15 micron-chipspecifikationer.
Nvidia hade ingen riktig konkurrent förrän 2004, med sitt GeForce 6800.
År 2006 inledde vi den moderna GPU-eran med den 8:e generationen av GeForce-kort, GeForce 8800. Det var oerhört populärt och vi började se rendering, mappning, skuggning, belysning, riggning, efterbearbetning etc. som var i samma kvalitetsklass som korten från det senaste decenniet. Den kunde till exempel spela Bethesdas Skyrim, som fortfarande är ett populärt spel idag.
Ungefär samtidigt blev Nvidia den enda oberoende tillverkaren av grafikchip som fortfarande var verksam efter AMD:s förvärv av ATI.
De utvecklade Tesla-arkitekturen som stödde unified shaders och avskaffade de fasta pipeline-mikroarkitekturerna. Den användes hela vägen fram till 40 nm-tillverkningen. Detta var extremt viktigt för övergången till GPU för allmänt bruk.
Istället för att ha en massa separata enheter, som vertex/pixel shaders, hade man de mer universella stream-processorerna. De var mer effektiva i en mängd olika användningsområden, och eftersom de var enkla kunde klockhastigheterna ökas.
2007 lanserade Nvidia Cuda, som gjorde det möjligt för programutvecklare/ingenjörer att använda GPU:ernas parallella processorkapacitet för mer allmänna ändamål.
GPU:n för allmänt bruk (eller uppkomsten av GPU:n för datacenter)
Idag är GPU-namnet en felaktig kvarleva från det förflutna, eftersom GPU-tekniken under det senaste årtiondet har utvecklats kraftigt bort från spel.
De är nu system på chip, eller SoC som de ofta kallas. De har alla de kretsar och funktioner som man kan förvänta sig av en rad separata komponenter, men som ett enhetligt system. Mer specifikt har du en processor med mycket parallell bearbetning, tillsammans med en accelerationsmotor för neurala nät, digitala signalprocessorer för att översätta analoga bildinmatningar och ljud, en rasterizer osv.
GPU:er används idag för acceleration av tekniska applikationer, fysikmodellering, raketer, finansiell analys och handel, medicinsk bildbehandling, klinisk forskning och maskininlärning, för att nämna några exempel.
GPU:n, som kanske är den mest frontinriktade tillämpningen, används till exempel ofta som ett AI-inferensverktyg i telefoner och fordon.
Även om det egentligen inte är AI så kallas GPU:er fortfarande för "artificial intelligence inferencing engines", vilket egentligen bara är ett fint sätt att säga att de drar "slutsatser" eller insikter från befintliga data. Om du t.ex. har Google Photos eller någon annan molnbildsapplikation kanske du märker att den identifierar andra bilder med samma person på och sedan grupperar dem tillsammans. Detta åstadkoms av GPU:er till stor del genom "träning" där Google kan fråga dig "är det här samma person?"
Anledningen till att GPU:er lämpar sig för den här uppgiften är att det krävs en enorm mängd rå kvantitativ bearbetningsförmåga, där terabyte av bilder måste skannas en efter en, för att träna en sådan maskininlärningsinstans. Den enorma skalbarheten hos strömprocessorer lämpar sig mycket väl för den här typen av uppgifter.
Ett annat exempel på ny GPU-teknik är 3D-skanning av kroppar, t.ex. magnetresonanstomografi (MRT), som Nvidia också har varit en stor innovatör inom.
Om du har följt nyheterna noga kanske du har sett fenomenet "folding at home", där superdatorer och crowdsourced computing gjorde det möjligt för forskare att bättre förstå proteinmekaniken i Sars-Cov-2, eller Covid-19. exIT Technologies var faktiskt en av de främsta bidragsgivarna till projektets processorkraft, och vi åstadkom det till stor del genom att använda många GPU:er som användes parallellt.
Där ett sådant projekt skulle ha tagit månader under tidigare år har GPU-tekniken med tiden utvecklats tillräckligt för att vi ska kunna få insikter som de molekylära dockningsmekanismerna för Covid-19:s spikprotein på några dagar.
I en mer universell mening accelererar generella GPU-processorer processer för att minska den tid det tar för ingenjörer, forskare, programutvecklare etc. att lösa problem, skapa nya konstruktioner och analysera massiva datamängder. Därav termen applikationsacceleration.
Inte bara det, de svar vi får är också mer exakta och tillförlitliga; när man behöver reducera data för att snabbt hitta ett svar offrar man en stor del av noggrannheten och precisionen.
I år har Nvidia tagit ett stort steg före alla andra företag i världen när det gäller rå kvantitativ processorkraft med sin A100-processor och andra generationens DGX-system.
Den rymmer 54 miljarder transistorer på bara några hundra millimeter. All denna råa datorkraft kan delas upp i 7 separata GPU:er som arbetar oberoende av varandra, eller multiinstans-GPU (MIG).
Den tredje generationens NVlink fördubblade anslutningshastigheten mellan processorerna, och de byggde in sparsity i själva hårdvaran.
Detta, tillsammans med 3:e generationens tensor-kärnor, innebär att en enda A100 GPU-server ger 5 peat flops i utdata. Den erbjöd 7 gånger bättre inferens och 6 gånger bättre träningsprestanda. Faktum är att A100 gav det största språnget i en generation av alla Nvidia-lanseringar.
Faktum är att Nvidia i ett enda slag gjorde det möjligt för ett enda system att göra det som tidigare bara var möjligt med ett monsterdatacenter. En enda DGX SuperPOD med A100-servrar konkurrerar med de snabbaste superdatorerna i världen.
Där det tidigare tog månader eller år att slutföra ett massivt superdatorprojekt, tog det bara några veckor för Nvidia att ta titeln som världens snabbaste superdator.
Det kommer att bli intressant att se hur konkurrenterna svarar.
Nvidia GPU tidslinje (modern)
Obs: vi köper alla följande GPU:er. Få ett kostnadsfritt erbjudande om du har reservdelar som du vill sälja.
Tesla GPU:er
Tesla GPU:er | Utgivningsdatum |
---|---|
TESLA M60 | Augusti 2015 |
TESLA P100 | juni 2016 |
TESLA M10 | juni 2016 |
TESLA P4 | September 2016 |
TESLA P40 | September 2016 |
TESLA P6 | Mars 2017 |
Titan Xp | April 2017 |
TESLA V100 | maj 2017 |
Titan V | december 2017 |
TESLA T4 | September 2018 |
TESLA V100S | Nov 2019 |
TESLA A100 | maj 2020 |
Quadro GPU:er | Utgivningsdatum |
---|---|
Quadro P5000 | Oktober 2016 |
P6000 | Oktober 2016 |
Quadro P2000 | Februari 2017 |
Quadro P1000 | Februari 2017 |
Quadro P620 | Februari 2017 |
Quadro P600 | Februari 2017 |
Quadro P400 | Februari 2017 |
Quadro P4000 | Februari 2017 |
Quadro GV100 | Mars 2018 |
Quadro RTX 8000 | Augusti 2018 |
Quadro RTX 6000 | Augusti 2018 |
RTX 5000 | Augusti 2018 |
Quadro RTX 4000 | November 2018 |
Quadro P2200 | juni 2019 |
GeForce RTX GPU:er | Utgivningsdatum |
---|---|
GEFORCE RTX 2080 Ti | September 2018 |
GEFORCE RTX 2080 | September 2018 |
GEFORCE RTX 2070 | Oktober 2018 |
TITAN RTX | december 2018 |
GEFORCE RTX 2060 | Januari 2019 |
GEFORCE GTX 1650 Ti | Februari 2019 |
GEFORCE GTX 1660 | Mars 2019 |
GEFORCE GTX 1660 Ti | April 2019 |
GEFORCE RTX 2080 SUPER | juli 2019 |
GEFORCE RTX 2070 SUPER | juli 2019 |
GEFORCE RTX 2060 SUPER | juli 2019 |
GEFORCE GTX 1660 SUPER | Oktober 2019 |
GEFORCE GTX 1650 SUPER | November 2019 |
GEFORCE GTX 1650 | juni 2020 |
AMD GPU tidslinje (modern)
Obs: vi köper alla följande GPU:er. Få ett kostnadsfritt erbjudande om du har reservdelar som du vill sälja.
Radeon Instinct GPU:er | Utgivningsdatum |
---|---|
Radeon Instinct MI25 Accelerator | December 2016 |
Radeon Instinct MI8 Accelerator | December 2016 |
Radeon Instinct MI6 Accelerator | December 2016 |
Radeon Instinct MI50 Accelerator (32 GB) | November 2018 |
Radeon Instinct MI50 Accelerator (16 GB) | November 2018 |
Radeon Pro GPU:er | Utgivningsdatum |
---|---|
Radeon Pro SSG | juli 2016 |
Radeon Pro WX 5100 | juli 2016 |
Radeon Pro WX 4100 | juli 2016 |
Radeon Pro WX 4150 | Mars 2017 |
Radeon Pro WX 7100 | Mars 2017 |
Radeon Pro WX 4170 | Mars 2017 |
Radeon Pro WX 2100 | juni 2017 |
Radeon Pro WX 3100 | juni 2017 |
Radeon Pro WX 9100 | September 2017 |
Radeon Pro WX 8200 | Augusti 2018 |
Radeon Pro WX 3200 | juli 2019 |
Radeon Pro WX 3200 (Mobil) | juli 2019 |
Radeon Pro W5700 | November 2019 |
Radeon Pro W5500 | Februari 2020 |
Radeon RX GPU:er | Utgivningsdatum |
---|---|
Radeon RX 540 | April 2017 |
Radeon RX 580 | April 2017 |
Radeon RX 550 | April 2017 |
Radeon RX 570 | April 2017 |
Radeon RX 560 | maj 2017 |
Radeon Vega Frontier Edition | juni 2017 |
AMD Radeon VII | Februari 2019 |
Radeon RX 5700 XT | juni 2019 |
Radeon RX 5500 XT | December 2019 |
Radeon RX 590 | November 2019 |
Radeon RX 5600 XT | Januari 2020 |
Priser på begagnade GPU:er
Nvidia V100 Pris
Den Nvidia V100 kostar någonstans i intervallet $8000 från och med augusti 2020 för en ny GPU, medan ett begagnat kort kan kosta nära det eller så lågt som några tusen dollar mindre, beroende på skick.
Tesla P100 Price
Tesla P100 GPU går upp till $3000 detaljhandel, men begagnade GPU:er och GPU:er som köps i bulk kommer att kosta mindre än den siffran.
Tesla P40 Pris
Tesla P40 kostar cirka $3500 begagnad, enligt sålda annonser på eBay i skrivande stund 8-3-2020, men bulkbeställningar och beställningar med varierande skick kommer att ha olika kostnader.
Tesla M10 Pris
Tesla M10 går för allt från $1000-$1500 begagnade per sålda eBay-enheter, men bulkbeställningar eller beställningar med sämre skick kommer att gå för mindre per enhet.
Tesla M60 Pris
Tesla M60 går för allt från $1000-$1500 begagnade per sålda eBay-enheter, men bulkbeställningar eller beställningar med sämre skick kommer att gå för mindre per enhet.
Quadro RTX 8000 Pris
Nvidia Quadro RTX 8000 kostar allt från $3000 till upp till $5000 begagnat, baserat på sålda annonser på eBay. Bulkförsäljning och kort med lägre skick kommer dock att gå för mindre per enhet.
TITAN RTX Pris
Från och med augusti 2020 säljs Titan RTX för cirka $2000 för en enhet, men mindre i grossistledet.
RTX 2080 TI Pris
Nvidia RTX 2080 TI säljs för närvarande begagnad för cirka $1500; enheter som köps i bulk kommer naturligtvis att säljas för mindre.
Nvidia Titan V Pris
Titan V säljs begagnad för allt från $1300 hela vägen upp till $5000, för närvarande. Marknaden kommer sannolikt att stabiliseras i den nedre änden snart.
Nvidia Titan XP Pris
Titan XP säljs för närvarande begagnad för cirka $600 till $1500 i den övre änden.
Nvidia Tesla T4 Pris
Tesla T4 säljs för närvarande begagnad för cirka $1300, men mindre för bulktransaktioner.
Quadro RTX 6000 Pris
För närvarande säljs Quadro RTX 6000 för cirka $3000 begagnad. Priset är naturligtvis lägre för bulkförsäljning.
Tesla P4 Pris
Tesla P4 säljs för närvarande för cirka $1000 till $1200 begagnad. Nya enheter kommer att säljas för mer, medan bulkförsäljning kommer att vara mindre per enhet.
Quadro RTX 5000 Pris
Nvidia Quadro RTX 5000 säljs för cirka $1300 till $1800 begagnad. Nya enheter säljs för mer, medan bulkförsäljning är ett lägre pris per enhet.
Nvidia Quadro RTX 4000 Pris
Quadro RTX 4000 säljs för närvarande för cirka $600 till $1000, beroende på skick. Bulkförsäljning kommer dock att prissättas lägre per enhet.
Quadro GV100 Pris
Nvidia Quadro GV100 GPU säljs för mellan $3000 och $5000, där $5000 är den övre gränsen för en enskild enhet i perfekt skick, och $3000 är den nedre gränsen. Bulkförsäljning är naturligtvis föremål för lägre prissättning.
Nvidia Quadro P6000 Pris
Quadro P6000 säljs för cirka $1500 som begagnad i perfekt skick, med nyare enheter värda något mer, och bulkförsäljning till rabatterade priser.
Nvidia Quadro P5000 Pris
Nvidia Quadro P5000 är värd cirka $800-$900, med helt nya enheter som säljs för något mer, och enheter som säljs i bulk till ett måttligt lägre pris per enhet.
Quadro P4000 Price
Nvidia Quadro P4000 säljs för ungefär $500 beroende på kvantitet och skick.
GeForce RTX 2080 Super Price
GeForce RTX 2080 Super säljs för cirka $600 till $800 dollar, beroende på skick och kvantitet. Bulkförsäljning kommer att gå för lägre.
Andra vanliga frågor om GPU
Har du något att tillägga? Låt oss veta vad du tycker i kommentarer nedan!