Wir kaufen gebrauchte IT-Ausrüstung!

GPU-Technologie: GPU-Geschichte und GPU-Preise im Zeitverlauf

Nvidia Headquarters - Data Center GPU
Lesezeit: 12 Minuten

Wenn Sie Folgendes benötigen Grafikkarten verkaufen folgen Sie diesem Link und füllen Sie ein Formular für ein kostenloses Angebot aus.

In diesem Artikel befassen wir uns mit der reichhaltigen Geschichte der GPUs sowie mit der Entwicklung der Grafikprozessoren bis hin zum rasanten Wachstum der Nvidia-Rechenzentren in den letzten Tagen. Insbesondere behandeln wir die Anfänge der GPU, dann die Explosion von ATI (dann AMD) und das Wachstum der Nvidia-GPUs. Wir werden die Geschichte von Nvidia anhand der Zeitleiste für Nvidia-GPUs und der Zeitleiste für AMD-GPUs durchgehen. Dann besprechen wir das Aufkommen der modernen Rechenzentrums-GPUs mit den jüngsten Nvidia-GPU-Angeboten für Rechenzentren und den AMD-GPU-Angeboten für Rechenzentren. Abschließend werden wir die GPU-Preise mit einer Liste der GPU-Preise im Laufe der Zeit auflisten.

Verkaufen Sie Ihre Grafikkarte schnell und einfach!

Frühe GPU-Geschichte: 1949-1985

Die "Geometrieverarbeitungseinheit" 

Die allererste Elektronik, die in der Lage war, Code in Echtzeit zu verarbeiten und Grafiken darzustellen, war gleichzeitig der Vater aller modernen Computer: Der Whirlwind-Flugsimulator des MIT, der für die US-Marine entwickelt wurde. Es war der erste Computer, der im Gegensatz zu einfachen linearen Stapelverarbeitungen parallel arbeitete. Der technische Ausdruck dafür wäre bitparallel im Gegensatz zu single-bit. Obwohl er erst 1951 fertiggestellt wurde, konnte die Maschine bereits 1949 als erstes interaktives grafisches Computerspiel betrieben werden. 

Das zweite System, das Grafiken auf digitale Weise verarbeitete, war möglicherweise der unten abgebildete Flugsimulator, der 1954 von Curtis-Wright entwickelt wurde. 3D-Grafik und andere, ihrer Zeit vorausgehende Grafikprozessortechnologien waren zwar schon in den 60er Jahren verfügbar, aber sie waren streng geheim und ausschließlich der Regierung, Universitätslabors, Luftfahrt- und Automobilunternehmen vorbehalten. 

Dann prägte James Clark in Stanford 1980 die erste Verwendung eines "VLSI-Geometrieprozessors für Grafik", was vielleicht der erste Begriff ist, der jemals verwendet wurde und in etwa mit einer Grafikverarbeitungseinheit gleichzusetzen ist. Er lief mit etwa 4 Millionen Gleitkommaoperationen pro Sekunde, oder FLOPS, was viel lustiger zu sagen ist. Das entsprach 900 Polygonen pro 30stel Sekunde. Dies scheint der erste Grafikchip gewesen zu sein, der zu massiver Parallelität fähig war und in etwa die grundlegenden Funktionen moderner Grafikprozessoren erfüllte, auch wenn er sicherlich nicht auf der gleichen Grundarchitektur basierte und ihm eine große Anzahl von Fähigkeiten fehlte.

GPU-Geschichte: Die Arcade-Ära ('70er bis 80er Jahre)

Die ersten Anwendungen einer Grafikeinheit für Verbraucher waren Retro-Arcade-Spiele und hatten nur sehr begrenzte Möglichkeiten. Sie übertrugen im Wesentlichen nur Grafikdaten vom Prozessor zum Bildschirm. In jenen Jahren entwickelte sich die GPU-Technologie nur sehr langsam. 

Die Grafik war sehr primitiv, wenn Sie sich an einige der ursprünglichen Arcade-Spiele erinnern können. Z.B.. 

Nach diesen ersten Arcade-Spielen stellte RCA 1976 seinen Videochip, den Pixie, her, der aber nur Monoton unterstützte, und das auch nur in einer winzigen Auflösung von 62×128. 

1979 wurde die erste grafische Benutzeroberfläche von Xerox im Palo Alto Research Center in einem großen Gemeinschaftsprojekt entwickelt. Sie verfügte über Fenster, Symbole, Dropdown-Menüs und viele andere bekannte Funktionen. Steve Jobs besichtigte schließlich deren Einrichtungen,

Drei Jahre später entwickelte Namco Galaxian Grafikchips, die Farbe unterstützten - nämlich Sprites mit mehreren Farben und Tilemaps im Hintergrund. Das war kurz vor 1980. 

IBM stellte mit dem IBM Monochrome Display Adapter so etwas wie die erste Grafikkarte her

https://youtu.be/qM2TV7RrwHY
Grafikfähigkeiten des IBM Monochrome Display Adapter (720×350)

Dann brachte IBM 1983 die ISBX 270 auf den Markt, eine Karte, die 8 Farben unterstützte. Sie war damals innovativ, aber mit $1000 auch ziemlich teuer. Zum Vergleich: In heutigen Dollars wären das $2633.

Sony prägte dann den Begriff GPU in Bezug auf seine PlayStation im Jahr 1984 (obwohl sie von Toshiba entwickelt wurde).

Der Titan der Grafikkartengeschichte, ATI, wurde 1985 von den Brüdern Lau und Kwok Yuen Ho, Einwanderern aus Hongkong, die in Kanada lebten, gegründet. ATI wurde schließlich von AMD aufgekauft. Doch dazu später mehr.

1986 brachten sie die erste Karte ihrer Wonder-Serie von Grafikprozessoren heraus. Diese Karten dominierten damals, weil sie viele Monitore und Grafikstandards in einer Karte unterstützten, während andere dies nicht taten.

1987 wurde der Video Graphics Array Connector (VGA) eingeführt. VGA wurde zum vorherrschenden Standard im Grafikbereich.

Um dem Mangel an Standardisierung in der Computergrafikbranche abzuhelfen, wurde 1989 von ATI und sieben weiteren Unternehmen die Visual Electronics Standards Association gegründet. Heute sind mehr als 300 Unternehmen Mitglied.

1991 stellte S3 Graphics seinen S3 911 vor. Sie wurde aus irgendeinem Grund nach dem Porsche benannt und war ziemlich dominant. S3 wurde nach der Veröffentlichung der Trio-Reihe, die einige Zeit lang führend war, zu einem echten Marktführer in diesem Bereich.

Die Entwicklung der Grafiktechnologie wurde durch die Veröffentlichung zweier bemerkenswerter APIs stark gefördert. Die wahrscheinlich allgegenwärtigste API für das Rendering von Grafiken, OpenGL, wurde im Juni 1992 veröffentlicht. Viele Konkurrenten kamen und gingen, aber OpenGL bleibt bis heute der überlebende Sieger.

Das andere, Direct3d, wurde 1996 veröffentlicht und ist auch heute noch ein Standard in der Branche (obwohl es offensichtlich um Bruchteile von Millisekunden langsamer ist als OpenGL, was das angeht).

Der S3 Virge-Chipsatz, der 1995 auf den Markt kam, war tatsächlich der schnellste DRAM-Beschleuniger der damaligen Zeit unter Windows. OEMs kauften den Virge in großen Mengen wegen seines Wertes und seiner 2D-Leistung, aber er war sicherlich nicht wegen seiner 3D-Leistung überzeugend.

Später verkaufte S3 seine Grafikabteilung.

Die 3dfx Voodoo-Zusatzkarte erfreute sich großer Beliebtheit und trieb die Entwicklung der 3D-Technologie, insbesondere für Spiele, weiter voran.

Die Voodoo-Linie war weiterhin marktbeherrschend, bis sie später von Nvidia übernommen wurde.

Möglicherweise wurde das Akronym GPU zum ersten Mal 1996 von TriTech mit ihrer Geometry Processor Unit offiziell verwendet.

Es war eines von vielen ähnlichen Projekten, die sich nie richtig durchsetzen konnten, obwohl es interessante Funktionen wie spezielle Bump-Mapping-Hardware und Displacement-Mapping-Funktionen bot.

Microsoft lizenzierte es ein paar Jahre später von TriTech.

Moderne GPU-Geschichte - der Krieg zwischen AMD und Nvidia ('90er Jahre bis heute)

Lustigerweise hatten sowohl Nvidia als auch ATI in den 90er Jahren einen schweren Start. Der NV1 von Nvidia wurde durch die Veröffentlichung von DirectX 1.0 kurz nach seiner Markteinführung behindert, mit dem er nicht kompatibel war.

Die Rage 1 von ATI hatte ebenfalls mit der Kompatibilität zu DirectX 1.0 zu kämpfen, obwohl sie eine gute 2D-Leistung bot.

Während ATI bereits Jahre zuvor einige Erfolge verbuchen konnte, wurde Nvidia erst mit der Veröffentlichung des Riva im Jahr 1997 bekannt, von dem innerhalb von nur vier Monaten eine Million Stück verkauft wurden. Seine Popularität beruhte zu einem großen Teil auf der Tatsache, dass er ziemlich, ich wage es zu sagen, universell einsetzbar war. Er unterstützte 2D, 3D und Videobeschleunigung, und es handelte sich dabei nicht um Platzhalterfunktionen, wie es bei vielen anderen GPU-Herstellern der Fall war.

Allerdings wurde sein Erfolg durch die fehlende Treiberunterstützung beeinträchtigt.

 

Die Nvidia Riva 128

Ihre Herrschaft begann mit der Riva TNT 2. Die 3dfx API, Glide, verlor gegen DirectX und OpenGL, was ihren Niedergang einleitete. GeForce zementierte ihn.

Mit dem GeForce 256, dem "ersten Grafikprozessor der Welt", wurde der Begriff GPU 1999 allgemein bekannt. Das war natürlich nicht wirklich der erste Grafikprozessor. Seit der Clark-Ära wurde der Begriff "GPU" von Akademikern weiterhin für die Geometrieverarbeitung verwendet.

Das Wertversprechen des GeForce 256 basierte auf der Integration von Transformations- und Beleuchtungshardware (oder T&L) auf dem Grafikchip selbst, anstatt sich auf die CPU zu verlassen. Mit einer schnellen CPU, die T&L zufriedenstellend handhaben kann, war der Wertbeitrag daher vernachlässigbar. Auch der Schaltkreis wurde ziemlich kritisiert. Dies und der hohe Preis führten dazu, dass sie nicht so beliebt war wie spätere Karten, obwohl sie bei Spielen wie Quake ihre Nische hatte.

Sie schnitt sogar schlechter ab als die 3dfx Voodoo, wenn die Karten mit einer schnellen CPU gepaart waren (was allerdings kein sehr häufiges Szenario war).

Nichtsdestotrotz sorgte die DRAM-Version für viel Aufregung, so dass sie 3dfx in den Konkurs/Aufkauf trieb.

Eine schöne Infografik der ersten Jahre wurde von Jon Peddie in seinem bahnbrechenden Text "the history of visual magic in computers" erstellt, in dem er so detailliert wie in einem Buch vorgeht.

Nvidia-Zeitleiste/AMD-Zeitleiste: Ihre Herrschaft beginnt

Nvidia befand sich um die Jahrtausendwende in einer sehr einzigartigen Position. Während Unternehmen wie 3D Labs Multi-Chip-Geräte für den Workstation-Markt wie den Glint herstellten, profitierte Nvidia weiterhin vom schnell wachsenden Markt für Videospiele, der eine viel größere Käuferschicht anlockte.

Das Ergebnis war, dass Nvidia sich nicht nur auf dem Spielemarkt wiederfand, sondern auch in der Lage war, den Workstation-/Enterprise-Markt zu dominieren, da der Spielemarkt seine Einnahmen in die Höhe trieb und dem Unternehmen ein massives F&E-Budget bescherte.

Einige der bemerkenswerten Spieleveröffentlichungen, aus denen sie entstanden, waren die PlayStation 3, World of Warcraft und die Xbox.

Nvidia brachte im Jahr 2000 die zweite Generation des GeForce auf den Markt, der trotz seiner langsamen 166 MHz DDR sehr gut abschnitt, da er immer noch die schnellste Karte war, bis ATI die Radeon 7200 herausbrachte.

(Nebenbei bemerkt: Nvidia brachte 2001 mit nForce sein erstes integriertes Grafikprodukt heraus. )

Die Radeon 7200 zeichnet sich durch eine höhere Speichergeschwindigkeit, eine neue Technologie zur Bandbreitenoptimierung namens HyperZ und die bisher umfassendste Bump-Mapping-Technologie aus. Seine beeindruckenden Fähigkeiten wurden mit der folgenden Ark-Demo demonstriert:

https://youtu.be/xSQcpVa7paM
(Demos können auf der Nvidia-Website heruntergeladen werden Tech-Demo-Seite.

Nvidia antwortete mit dem GeForce 2 GTS, der fast noch einmal einen halben Prozentpunkt mehr bot und die Nische der OpenGL-Spiele und sicherlich 16 Bit in Direct3D gewann. Seine Dominanz wurde eigentlich nur durch die schlechte Speicherbandbreitenoptimierung behindert.

Ungefähr zu dieser Zeit begann Nvidia, mit der Quadro, die im Grunde nur die GeForce 2-Architektur mit größerer Betonung auf Präzision und Zuverlässigkeit (durch die Verwendung von ECC-Speicher) war, Kapital aus dem Workstation-Segment zu schlagen. Indem Nvidia die GeForce mit mehr Schnickschnack ausstattete und die Funktionen nur nach Bedarf auf die Karten verteilte, konnte Nvidia einen Aufpreis für die Quadro verlangen, mit den Preisen für Spielekarten konkurrenzfähig bleiben und gleichzeitig verhindern, dass Workstations die billigere GeForce verwenden.

Obwohl die Radeon unter anderem mit HyperZ die Probleme mit der Speicherbandbreite behoben hat, konnte sie nicht mit der Voodoo 5 5500 oder der GeForce 2 GTS mithalten, obwohl sie in 32-Bit-Farbe gut genug abschnitt und sich immer noch recht gut verkaufte.

Nvidia setzte seine Führung mit dem GeForce 3 fort:

https://youtu.be/4tTWW2BRQGo

Wie Sie sehen können, haben sie den Rendering-Prozess mit der neuen verbesserten Architektur massiv verbessert.

Dann antwortete ATI mit der Radeon 9700 Pro. Sie unterstützte 64- und 128-Bit-Farben, DirectX 9, AGP 8X und hatte beeindruckende .15-Mikron-Chip-Spezifikationen.

https://youtu.be/Xu-A0jqMPd8
Radeon 9700 Pro Demo

Nvidia hatte bis 2004 mit dem GeForce 6800 keinen wirklichen Konkurrenten.

https://youtu.be/ntNBctHHPo4

Im Jahr 2006 begann mit der 8. Generation der GeForce-Karten, der GeForce 8800, die moderne Ära der Grafikprozessoren. Sie erfreute sich großer Beliebtheit und wir begannen, Rendering, Mapping, Shading, Beleuchtung, Rigging, Nachbearbeitung usw. zu sehen, die in der gleichen Qualitätsstufe wie die Karten des letzten Jahrzehnts liegen. Zum Beispiel konnte sie Bethesdas Skyrim spielen, das auch heute noch ein beliebtes Spiel ist.

Etwa zur gleichen Zeit war Nvidia der einzige unabhängige Hersteller von Grafikchips, der nach der Übernahme von ATI durch AMD noch im Geschäft war.

Sie entwickelten die Tesla-Architektur, die Unified Shader unterstützte und die festen Pipeline-Mikroarchitekturen abschaffte. Sie wurde bis zu den 40nm-Dies verwendet. Dies war äußerst wichtig für den Übergang zur Allzweck-GPU.

Anstelle einer Reihe separater Einheiten wie Vertex/Pixel-Shader gab es die universelleren Stream-Prozessoren. Sie waren in einer Vielzahl von Anwendungsfällen effizienter, und da sie einfach waren, konnten die Taktraten erhöht werden.

Im Jahr 2007 veröffentlicht Nvidia Cuda, das es Softwareentwicklern und -ingenieuren ermöglicht, die Parallelverarbeitungsfähigkeiten ihrer GPUs für allgemeinere Zwecke zu nutzen.

https://youtu.be/nXeq2_P_O50
Der Wettbewerb geht heute weiter (die nächsten drei Jahre der GPUs)

Der Allzweck-GPU (oder: Der Aufstieg des Rechenzentrums-GPU)

Heute ist der Name GPU ein falsches Überbleibsel aus der Vergangenheit, denn die GPU-Technologie hat sich in den letzten zehn Jahren stark von der Spieleindustrie entfernt.

Sie sind jetzt "Systems on Chips" oder "SoCs", wie sie gemeinhin genannt werden. Sie verfügen über alle Schaltkreise und Funktionen, die man von einer Reihe separater Komponenten erwarten würde, jedoch als ein einheitliches System. Konkret handelt es sich um einen Prozessor mit einem hohen Maß an Parallelverarbeitung, eine Beschleunigungsmaschine für neuronale Netze, digitale Signalprozessoren zur Umsetzung analoger Bild- und Toneingänge, einen Rasterizer usw.

GPUs werden heute für die Beschleunigung von technischen Anwendungen, die Modellierung von Physik, Raketen, Finanzanalysen und -handel, medizinische Bildgebung, klinische Forschung und maschinelles Lernen eingesetzt, um nur einige Beispiele zu nennen.  

So wird beispielsweise die GPU, die wahrscheinlich am meisten an der Front zum Einsatz kommt, häufig als KI-Inferenzierungswerkzeug in Telefonen und Fahrzeugen verwendet.

 

Nvidia Drive, das Gehirn, das die wachsende Leistungsfähigkeit autonomer Fahrzeuge anregt

Obwohl es sich nicht wirklich um KI handelt, werden GPUs immer noch als "Inferenzmaschinen für künstliche Intelligenz" bezeichnet, was eigentlich nur eine schicke Umschreibung dafür ist, dass sie "Schlussfolgerungen" oder Erkenntnisse aus vorhandenen Daten ziehen. Wenn Sie z. B. Google Fotos oder eine andere Cloud-Bilderanwendung nutzen, werden Sie vielleicht feststellen, dass sie andere Bilder mit derselben Person darauf erkennt und sie dann zusammenfasst. Dies wird von GPUs hauptsächlich durch "Training" erreicht, bei dem Google Sie fragen könnte: "Ist das dieselbe Person?"

Der Grund, warum sich GPUs für diese Aufgabe eignen, liegt darin, dass für das Training einer solchen maschinellen Lerninstanz eine enorme Menge an roher quantitativer Verarbeitungsfähigkeit erforderlich ist, bei der Terabytes von Bildern einzeln gescannt werden müssen. Die massive Skalierbarkeit von Stream-Prozessoren eignet sich sehr gut für diese Art von Aufgaben.

Ein weiteres Beispiel für die jüngste GPU-Technologie ist das 3D-Scannen von Körpern, wie bei der Magnetresonanztomographie (MRT), die ebenfalls weitgehend von Nvidia entwickelt wurde.

Wenn Sie die Nachrichten aufmerksam verfolgt haben, haben Sie vielleicht das Phänomen des "Folding at Home" gesehen, bei dem Supercomputer und Crowdsourced Computing es den Forschern ermöglicht haben, die Proteinmechanik von Sars-Cov-2 oder Covid-19 besser zu verstehen. exIT Technologies war einer der Hauptakteure, die zur Rechenleistung dieses Projekts beigetragen haben, und wir haben es größtenteils durch den Einsatz vieler parallel arbeitender GPUs erreicht.

 

Eines der Systeme, die wir zum Falten zu Hause verwendet haben

Während ein solches Projekt in früheren Jahren Monate gedauert hätte, hat sich die GPU-Technologie im Laufe der Zeit so weit entwickelt, dass wir Erkenntnisse wie die molekularen Andockmechanismen des Spike-Proteins von Covid-19 in wenigen Tagen gewinnen können.

In einem allgemeineren Sinne beschleunigen Allzweck-GPUs Prozesse erheblich, um die Zeit zu verkürzen, die Ingenieure, Forscher, Softwareentwickler usw. benötigen, um Probleme zu lösen, neue Entwürfe zu erstellen und riesige Datenmengen zu analysieren. Daher der Begriff "Anwendungsbeschleunigung".

Und nicht nur das: Die Antworten, die wir erhalten, sind präziser und zuverlässiger. Wenn man Daten reduzieren muss, um schnell eine Antwort zu finden, opfert man einen großen Teil der Genauigkeit und Präzision.

In diesem Jahr hat Nvidia mit seinem A100-Prozessor und den DGX-Systemen der zweiten Generation allen anderen Unternehmen der Welt in Sachen roher quantitativer Rechenleistung einen Schritt voraus.

Auf einer Fläche von nur wenigen hundert Millimetern finden 54 Milliarden Transistoren Platz. All diese rohe Rechenleistung kann in 7 separate GPUs unterteilt werden, die unabhängig voneinander arbeiten, oder in Multi-Instance-GPUs (MIG).

Die 3. Generation von NVlink verdoppelte die Verbindungsgeschwindigkeit zwischen den Prozessoren und baute Sparsamkeit in die Hardware selbst ein.

Zusammen mit den Tensorkernen der 3. Generation bedeutet dies, dass ein einzelner A100-GPU-Server eine Leistung von 5 Peat Flops erbringt. Er bot eine 7-fach bessere Inferenz- und 6-fach bessere Trainingsleistung. In der Tat bot der A100 den größten Sprung in einer Generation aller Nvidia-Veröffentlichungen.

 

Die Nvidia-Ampere-Architektur

Tatsächlich hat Nvidia mit einem Schlag ein einziges System in die Lage versetzt, das zu tun, was zuvor nur mit einem riesigen Rechenzentrum möglich war. Ein einziger DGX SuperPOD aus A100-Servern konkurriert mit den schnellsten Supercomputern der Welt.

Während es in der Vergangenheit Monate bis Jahre dauerte, um ein umfangreiches Supercomputerprojekt abzuschließen, benötigte Nvidia nur wenige Wochen, um den Titel für den schnellsten Supercomputer der Welt zu erringen.

Es wird interessant sein zu sehen, wie die Konkurrenz antwortet.

 

Nvidia-GPU-Zeitleiste (modern)

Hinweis: Wir kaufen alle der folgenden GPUs. Ein kostenloses Angebot erhalten wenn Sie Ersatzteile haben, die Sie verkaufen möchten.

Tesla-GPUs

Tesla-GPUsDatum der Veröffentlichung
TESLA M60August 2015
TESLA P100Juni 2016
TESLA M10Juni 2016
TESLA P4September 2016
TESLA P40September 2016
TESLA P6März 2017
Titan XpApril 2017
TESLA V100Mai 2017
Titan VDezember 2017
TESLA T4September 2018
TESLA V100SNovember 2019
TESLA A100Mai 2020
Tesla-GPUs
Quadro-GPUsDatum der Veröffentlichung
Quadro P5000Oktober 2016
P6000Oktober 2016
Quadro P2000Februar 2017
Quadro P1000Februar 2017
Quadro P620Februar 2017
Quadro P600Februar 2017
Quadro P400Februar 2017
Quadro P4000Februar 2017
Quadro GV100März 2018
Quadro RTX 8000August 2018
Quadro RTX 6000August 2018
RTX 5000August 2018
Quadro RTX 4000November 2018
Quadro P2200Juni 2019
Quadro-GPUs
GeForce RTX-GPUsDatum der Veröffentlichung
GEFORCE RTX 2080 TiSeptember 2018
GEFORCE RTX 2080September 2018
GEFORCE RTX 2070Oktober 2018
TITAN RTXDezember 2018
GEFORCE RTX 2060Januar 2019
GEFORCE GTX 1650 TiFebruar 2019
GEFORCE GTX 1660März 2019
GEFORCE GTX 1660 TiApril 2019
GEFORCE RTX 2080 SUPERJuli 2019
GEFORCE RTX 2070 SUPERJuli 2019
GEFORCE RTX 2060 SUPERJuli 2019
GEFORCE GTX 1660 SUPEROktober 2019
GEFORCE GTX 1650 SUPERNovember 2019
GEFORCE GTX 1650Juni 2020
GeForce RTX-GPUs

AMD-GPU-Zeitleiste (modern)

Hinweis: Wir kaufen alle der folgenden GPUs. Ein kostenloses Angebot erhalten wenn Sie Ersatzteile haben, die Sie verkaufen möchten.

Radeon Instinct GPUsDatum der Veröffentlichung
Radeon Instinct MI25 BeschleunigerDezember 2016
Radeon Instinct MI8-BeschleunigerDezember 2016
Radeon Instinct MI6-BeschleunigerDezember 2016
Radeon Instinct MI50-Beschleuniger (32 GB)November 2018
Radeon Instinct MI50-Beschleuniger (16 GB)November 2018
Radeon Instinct GPUs
Radeon Pro-GPUsDatum der Veröffentlichung
Radeon Pro SSGJuli 2016
Radeon Pro WX 5100Juli 2016
Radeon Pro WX 4100Juli 2016
Radeon Pro WX 4150März 2017
Radeon Pro WX 7100März 2017
Radeon Pro WX 4170März 2017
Radeon Pro WX 2100Juni 2017
Radeon Pro WX 3100Juni 2017
Radeon Pro WX 9100September 2017
Radeon Pro WX 8200August 2018
Radeon Pro WX 3200Juli 2019
Radeon Pro WX 3200 (Mobil)Juli 2019
Radeon Pro W5700November 2019
Radeon Pro W5500Februar 2020
Radeon Pro-GPUs
Radeon RX-GPUsDatum der Veröffentlichung
Radeon RX 540April 2017
Radeon RX 580April 2017
Radeon RX 550April 2017
Radeon RX 570April 2017
Radeon RX 560Mai 2017
Radeon Vega Frontier EditionJuni 2017
AMD Radeon VIIFebruar 2019
Radeon RX 5700 XTJuni 2019
Radeon RX 5500 XTDezember 2019
Radeon RX 590November 2019
Radeon RX 5600 XTJanuar 2020
Radeon RX-GPUs

Preise für gebrauchte GPUs

[gs_faq cat="4428″]

Andere GPU-FAQs

Verwandte Seiten Blog

de_DEGerman