Si vous avez besoin de vendre des cartes graphiques maintenant, suivez ce lien et remplissez un formulaire pour obtenir un devis gratuit.
Dans cet article, nous aborderons la riche histoire des GPU, ainsi que la manière dont les unités de traitement graphique ont progressé au fil du temps jusqu'à la période récente de croissance rapide des centres de données de Nvidia. Plus précisément, nous aborderons les débuts du GPU, puis l'explosion d'ATI (puis d'AMD) et la croissance des GPU Nvidia. Nous passerons en revue l'histoire de Nvidia avec la chronologie des GPU Nvidia et la chronologie des GPU AMD. Nous discuterons ensuite de l'avènement du GPU pour centre de données moderne avec les récentes offres de GPU pour centre de données de Nvidia et les offres de GPU pour centre de données d'AMD. Enfin, nous passerons en revue l'historique des prix des GPU avec une liste des prix des GPU au fil du temps.
Vendez votre carte graphique rapidement et facilement !
Les débuts de l'histoire du GPU : 1949-1985
L'unité de traitement de la géométrie
Le tout premier appareil électronique capable de traiter un code en temps réel pour afficher des graphiques s'est également avéré être ce qui est probablement le père de tous les ordinateurs modernes : Le simulateur de vol "whirlwind" du MIT, développé pour la marine américaine. Il s'agissait du premier ordinateur qui traitait en parallèle, par opposition à un simple traitement linéaire par lots. La formulation technique serait bit-parallèle par opposition à bit unique. Bien qu'il n'ait été achevé qu'en 1951, dès 1949, la machine pouvait être utilisée comme le tout premier jeu graphique interactif sur ordinateur.
Le deuxième système à traiter des graphiques de manière numérique pourrait bien avoir été le simulateur de vol développé par Curtis-Wright en 1954 et illustré ci-dessous. Les graphiques 3D et autres technologies gpu en avance sur leur temps étaient en fait disponibles dès les années 60, mais elles étaient très secrètes et réservées au gouvernement, aux laboratoires universitaires, aux compagnies d'aviation et aux entreprises automobiles.
En 1980, James Clark, de Stanford, a inventé le premier usage d'un "processeur géométrique VLSI pour graphiques", qui pourrait être le premier terme jamais utilisé qui équivaut à peu près à une unité de traitement graphique. Il fonctionnait à une vitesse d'environ 4 millions d'opérations en virgule flottante par seconde, ou FLOPS, ce qui est beaucoup plus amusant à dire. Cela équivaut à 900 polygones tous les 30e de seconde. Il semble qu'il s'agisse de la première puce graphique capable d'un parallélisme massif qui remplissait à peu près les fonctions de base des GPU modernes, bien qu'elle n'ait certainement pas été construite avec la même architecture de base et qu'elle ait manqué d'un grand nombre de capacités.
Histoire du GPU : L'ère de l'arcade (années 70 à 80)
Les premières applications grand public d'une unité graphique se trouvaient alors dans les jeux d'arcade rétro et avaient des capacités très limitées. Elles se contentaient de transmettre les informations graphiques du processeur à l'écran. Au cours de ces années, la technologie des GPU a évolué très lentement.
Les graphismes étaient très primitifs, si l'on se souvient de certains jeux d'arcade originaux. PAR EXEMPLE
Après ces premiers jeux d'arcade, en 1976, RCA a créé sa puce vidéo, la pixie, mais elle ne prenait en charge que le monotone, et dans une résolution minuscule de 62×128.
En 1979, la première interface utilisateur graphique a été développée par Xerox au centre de recherche de Palo Alto dans le cadre d'un vaste projet de collaboration. Elle comportait des fenêtres, des icônes, des menus déroulants et de nombreuses autres caractéristiques familières. Steve Jobs a fini par visiter leurs installations,
Trois ans plus tard, Namco Galaxian a fait évoluer les puces graphiques pour prendre en charge la couleur - à savoir des sprites de plusieurs couleurs et des cartes de tuiles en arrière-plan. C'était juste avant 1980.
IBM a fabriqué ce que l'on pourrait appeler la première carte vidéo avec l'adaptateur d'affichage monochrome IBM.
Puis IBM a sorti sa carte de support 8 couleurs en 1983, l'ISBX 270, qui était innovante à l'époque, mais assez chère à $1000. À titre de référence, en dollars d'aujourd'hui, cela équivaudrait à $2633.
Sony a ensuite inventé le GPU en référence à sa PlayStation en 1984 (bien qu'elle ait été conçue par Toshiba).
Ensuite, ce qui est devenu un titan de l'histoire des gpu, ATI a été fondé en 1985 par les frères Lau et Kwok Yuen Ho, des immigrants de Hong Kong vivant au Canada. ATI a finalement été rachetée par AMD. Nous y reviendrons plus tard.
En 1986, ils ont sorti le premier de leur série de GPU Wonder. Ces cartes étaient dominantes à l'époque parce qu'elles prenaient en charge de nombreux moniteurs et normes graphiques dans une seule carte, ce qui n'était pas le cas des autres cartes.
En 1987, le connecteur graphique vidéo, ou VGA, a été mis sur le marché. Le VGA est devenu la norme dominante dans le domaine des graphiques.
En 1989, pour remédier à l'absence de normalisation dans l'industrie de l'infographie, la Visual Electronics Standards Association a été fondée par ATI et sept autres entreprises. Aujourd'hui, plus de 300 entreprises en sont membres.
En 1991, S3 Graphics a présenté son S3 911. Elle porte le nom d'une Porsche pour une raison ou une autre et domine largement le marché. S3 est véritablement devenu un leader dans ce domaine après la sortie de sa ligne Trio, qui a dominé le peloton pendant un certain temps.
Le développement de la technologie graphique a été largement soutenu par la publication de deux API remarquables. L'API de rendu graphique la plus répandue, OpenGL, a été publiée en juin 1992. De nombreux concurrents sont apparus et ont disparu, mais OpenGL reste encore aujourd'hui le grand vainqueur.
L'autre, Direct3d, a été publié en 1996 et reste un standard dans l'industrie aujourd'hui (bien qu'il soit manifestement plus lent de quelques fractions de millisecondes qu'OpenGL, pour ce que cela vaut).
Le chipset S3 Virge, lancé en 1995, était en fait l'accélérateur DRAM le plus rapide de l'époque sous Windows. Les OEM ont acheté le Virge en grandes quantités pour son rapport qualité-prix et ses performances en 2D, mais il n'était certainement pas convaincant pour ses performances en 3D.
S3 a ensuite vendu sa division graphique.
La carte additionnelle 3dfx Voodoo a connu un grand succès et a stimulé le développement de la technologie 3D, en particulier pour les jeux.
La ligne voodoo est restée un acteur dominant du marché jusqu'à ce que Nvidia la rachète plus tard.
La première utilisation formelle de l'acronyme GPU a probablement été faite par TriTech en 1996, avec son unité de traitement de la géométrie (Geometry Processor Unit).
Il s'agit de l'un des nombreux projets similaires qui n'a jamais vraiment décollé, même s'il présentait des caractéristiques intéressantes telles qu'un matériel de bump mapping dédié et des capacités de displacement mapping.
Quelques années plus tard, Microsoft en a acquis la licence auprès de TriTech.
L'histoire des GPU modernes - la guerre AMD/Nvidia (des années 90 à aujourd'hui)
Il est amusant de constater que Nvidia et ATI ont tous deux connu des débuts difficiles dans les années 90. La NV1 de Nvidia a été gênée par la sortie de DirectX 1.0 peu après sa sortie, avec lequel elle n'était pas compatible.
La Rage 1 d'ATI a également eu du mal à s'adapter à DirectX 1.0, bien qu'elle se soit montrée performante en 2D.
Alors qu'ATI avait déjà connu un certain succès quelques années auparavant, Nvidia s'est réellement fait connaître avec la sortie du Riva en 1997, qui s'est vendu à un million d'exemplaires en l'espace de quatre mois seulement. Sa popularité s'explique en grande partie par le fait qu'il était assez, si j'ose dire, polyvalent. Il prenait en charge la 2D, la 3D et l'accélération vidéo, et il ne s'agissait pas non plus de fonctions de remplacement, comme cela a pu être le cas pour de nombreux fabricants de GPU.
Cela dit, son succès a été entravé par son manque de prise en charge des pilotes.
Leur règne a véritablement commencé avec la Riva TNT 2. L'API de 3dfx, Glide, perdait du terrain face à DirectX et OpenGL, ce qui a amorcé leur chute. Le GeForce l'a confirmé.
En 1999, ils ont généralisé l'utilisation du terme GPU avec le "premier GPU au monde", le GeForce 256. Ce n'était pas vraiment le premier GPU, bien sûr. À partir de l'ère Clark, le terme GPU a continué à être utilisé par les universitaires pour désigner le traitement de la géométrie.
La proposition de valeur du GeForce 256 reposait sur l'intégration du matériel de transformation et d'éclairage (ou T&L) sur la puce graphique elle-même, au lieu de s'appuyer sur le CPU. Par conséquent, avec un CPU rapide pour gérer le T&L de manière satisfaisante, sa proposition de valeur était négligeable. Ses circuits étaient également assez critiqués. Ceci, en plus de son prix élevé, a fait qu'elle n'a pas été aussi populaire que les cartes ultérieures, bien qu'elle ait eu son créneau avec des jeux comme Quake.
Ses performances sont également inférieures à celles de la carte 3dfx Voodoo si les deux cartes sont associées à un processeur rapide (ce qui n'est pas un scénario très courant).
Néanmoins, la version DRAM a suscité beaucoup d'enthousiasme et ils ont donc écrasé 3dfx en l'acculant à la faillite ou à l'acquisition.
Une belle infographie des premières années a été réalisée par Jon Peddie dans son texte fondateur, "The history of visual magic in computers", où il entre dans le détail, comme un livre peut le permettre.
Chronologie Nvidia / Chronologie AMD : Le début de leur règne
Au tournant du millénaire, Nvidia s'est trouvée dans une position tout à fait unique. Alors que des sociétés comme 3D Labs fabriquaient des unités multi-puces conçues pour le marché des stations de travail, comme le Glint, Nvidia a continué à capitaliser sur le marché en pleine croissance des jeux vidéo, qui a attiré un nombre beaucoup plus important d'acheteurs.
En conséquence, Nvidia s'est retrouvée non seulement sur le marché des jeux, mais aussi en position de dominer le marché des stations de travail et des entreprises, car le marché des jeux a propulsé ses revenus et lui a laissé un énorme budget de recherche et de développement.
Parmi les jeux les plus connus dont ils se sont inspirés, citons la PlayStation 3, World of Warcraft et la Xbox.
Nvidia a sorti sa deuxième génération de GeForce en 2000, qui s'est très bien comportée malgré sa DDR lente de 166 Mhz, car c'était toujours la carte la plus rapide jusqu'à ce qu'ATI sorte sa Radeon 7200.
(Pour l'anecdote, Nvidia a lancé son premier produit graphique intégré en 2001 avec le nForce. )
La Radeon 7200 offre une meilleure vitesse de mémoire, une nouvelle technologie d'optimisation de la bande passante appelée HyperZ et la technologie de bump mapping la plus complète à ce jour. Ses capacités impressionnantes ont été présentées dans la démo Ark suivante :
Nvidia a répondu avec son GeForce 2 GTS qui offrait une amélioration de près d'un demi-pourcent, et a gagné le créneau des jeux OpenGL et certainement 16 bit dans Direct3D. Sa domination n'a été entravée que par une mauvaise optimisation de la bande passante mémoire.
C'est à cette époque que Nvidia a commencé à capitaliser sur le segment des stations de travail avec la Quadro, qui n'était autre que l'architecture GeForce 2 avec un accent plus important sur la précision et la fiabilité (grâce à l'utilisation de la mémoire ECC). En reconditionnant le GeForce avec plus de fonctionnalités et en segmentant les caractéristiques entre les cartes uniquement en fonction des besoins, Nvidia pouvait facturer un supplément pour le Quadro, rester compétitif au niveau des prix des cartes de jeu, tout en empêchant les stations de travail d'utiliser le GeForce, moins cher.
Bien que la Radeon ait résolu les problèmes de bande passante de la mémoire avec HyperZ, entre autres, elle ne soutient toujours pas la comparaison avec la Voodoo 5 5500 ou la GeForce 2 GTS, bien qu'elle se soit assez bien comportée en couleur 32 bits et qu'elle se soit raisonnablement bien vendue.
Nvidia a maintenu son avance avec le GeForce 3 :
Comme vous pouvez le constater, l'architecture nouvellement améliorée a permis d'améliorer considérablement le processus de rendu.
ATI a alors répondu avec sa Radeon 9700 Pro. Elle prenait en charge les couleurs 64 et 128 bits, DirectX 9, AGP 8X et possédait une puce impressionnante de 0,15 micron.
Nvidia n'a pas vraiment eu de concurrent avant 2004, avec sa GeForce 6800.
En 2006, nous sommes entrés dans l'ère moderne des GPU avec la 8ème génération de cartes GeForce, la GeForce 8800. Cette carte a connu un succès fulgurant et nous avons commencé à voir le rendu, le mapping, le shading, l'éclairage, le rigging, le post-traitement, etc. se situer dans le même domaine de qualité que les cartes de la dernière décennie. Par exemple, il pouvait jouer à Skyrim de Bethesda, qui est toujours un jeu populaire aujourd'hui.
À peu près à la même époque, Nvidia est devenu le seul fabricant indépendant de puces graphiques encore en activité après l'acquisition d'ATI par AMD.
Ils ont mis au point l'architecture Tesla, qui prend en charge les nuanceurs unifiés, et ont abandonné les microarchitectures à pipeline fixe. Cette architecture a été utilisée jusqu'aux puces de 40 nm. Cela a été extrêmement important pour la transition vers le GPU à usage général.
Au lieu d'avoir un tas d'unités séparées, comme les nuanceurs de vertex/pixel, vous aviez des processeurs de flux plus universels. Ils étaient plus efficaces dans un large éventail de cas d'utilisation et, comme ils étaient simples, les vitesses d'horloge pouvaient être augmentées.
En 2007, Nvidia lance Cuda, qui permet aux développeurs/ingénieurs de logiciels d'utiliser les capacités de traitement parallèle de leurs GPU pour des opérations plus générales.
Le GPU généraliste (ou la montée en puissance du GPU de centre de données)
Aujourd'hui, le nom GPU est un vestige erroné du passé, car la technologie GPU s'est massivement éloignée des jeux au cours de la dernière décennie.
Il s'agit désormais de systèmes sur puces, ou SoC, comme on les appelle communément. Ils possèdent toutes les circuités et fonctionnalités que l'on peut attendre d'une série de composants distincts, mais sous la forme d'un système unifié. Plus précisément, vous disposez d'un processeur doté d'une grande capacité de traitement parallèle, d'un moteur d'accélération de réseau neuronal, de processeurs de signaux numériques pour traduire les entrées d'images analogiques et les signaux audio, d'un rasterizer, etc.
Les GPU sont aujourd'hui utilisés pour l'accélération des applications d'ingénierie, la modélisation physique, la fuséologie, l'analyse financière et le trading, l'imagerie médicale, la recherche clinique et l'apprentissage automatique, pour n'en citer que quelques-uns.
Par exemple, le GPU, qui est peut-être l'application la plus frontale, est largement utilisé comme outil d'inférence de l'IA dans les téléphones et les véhicules.
Bien qu'il ne s'agisse pas vraiment d'IA, les GPU sont encore appelés "moteurs d'inférence d'intelligence artificielle", ce qui n'est qu'une manière élégante de dire qu'ils tirent des "inférences" ou des informations à partir de données existantes. Par exemple, si vous disposez de Google Photos ou d'une autre application de photos dans le nuage, vous pouvez remarquer qu'elle identifie d'autres photos avec la même personne, puis les regroupe. Les GPU y parviennent en grande partie grâce à l'"entraînement", Google vous demandant par exemple si c'est la même personne.
La raison pour laquelle les GPU se prêtent à cette tâche est que l'entraînement d'une instance d'apprentissage automatique de ce type nécessite une quantité massive de capacité de traitement quantitatif brut, où des téraoctets d'images doivent être scannés un par un. L'extensibilité massive des processeurs de flux se prête très bien à ce type de tâches.
Un autre exemple de technologie GPU récente serait le balayage 3D des corps, comme avec l'imagerie par résonance magnétique (IRM), que Nvidia a également largement innovée.
Si vous avez suivi l'actualité de près, vous avez peut-être vu le phénomène du "pliage à domicile", où les superordinateurs et l'informatique participative ont permis aux chercheurs de mieux comprendre la mécanique protéique de Sars-Cov-2, ou Covid-19. exIT Technologies a été l'un des principaux contributeurs à la puissance de traitement de ce projet, et nous l'avons réalisé en grande partie grâce à l'utilisation de nombreux GPU en parallèle.
Alors qu'un projet de ce type aurait pris des mois au cours des années précédentes, la technologie GPU s'est suffisamment développée au fil du temps pour que nous puissions obtenir en quelques jours des informations telles que les mécanismes d'ancrage moléculaire de la protéine spike de Covid-19.
Dans un sens plus universel, les GPU à usage général accélèrent considérablement les processus afin de réduire le temps nécessaire aux ingénieurs, chercheurs, développeurs de logiciels, etc. pour résoudre des problèmes, élaborer de nouvelles conceptions et analyser des ensembles massifs de données. D'où le terme d'accélération des applications.
De plus, les réponses que nous obtenons sont plus précises et plus fiables ; lorsque vous devez réduire les données pour trouver une réponse rapidement, vous sacrifiez une grande partie de l'exactitude et de la précision.
Cette année, Nvidia a fait un bond en avant par rapport à toutes les autres entreprises du monde en termes de puissance de traitement quantitative brute avec son processeur A100 et ses systèmes DGX de deuxième génération.
Il contient 54 milliards de transistors dans quelques centaines de millimètres seulement. Toute cette puissance de calcul brute peut être subdivisée en 7 GPU distincts qui fonctionnent de manière indépendante, ou GPU multi-instances (MIG).
Le NVlink de troisième génération a doublé la vitesse de connectivité entre les processeurs, et a intégré une certaine densité dans le matériel lui-même.
Avec les cœurs de tenseur de troisième génération, un seul serveur A100 GPU fournit 5 peat flops de sortie. Les performances en matière d'inférence ont été multipliées par 7 et celles en matière d'entraînement par 6. En fait, l'A100 a permis le plus grand bond en avant en une seule génération de toutes les versions de Nvidia.
En fait, d'un seul coup, Nvidia a permis à un seul système de faire ce qui n'était possible auparavant qu'avec un centre de données monstrueux. Un seul DGX SuperPOD composé de serveurs A100 rivalise avec les supercalculateurs les plus rapides du monde.
Alors qu'il fallait auparavant des mois, voire des années, pour mener à bien un projet de superordinateur massif, il n'a fallu que quelques semaines à Nvidia pour décrocher le titre de superordinateur le plus rapide du monde.
Il sera intéressant de voir comment la concurrence répondra.
Chronologie des GPU Nvidia (modernes)
Note : nous achetons tous les GPU suivants. Obtenir une offre gratuite si vous avez des pièces détachées à vendre.
GPU Tesla
GPU Tesla | Date de sortie |
---|---|
TESLA M60 | Août 2015 |
TESLA P100 | Juin 2016 |
TESLA M10 | Juin 2016 |
TESLA P4 | Septembre 2016 |
TESLA P40 | Septembre 2016 |
TESLA P6 | Mars 2017 |
Titan Xp | Avril 2017 |
TESLA V100 | Mai 2017 |
Titan V | Décembre 2017 |
TESLA T4 | Septembre 2018 |
TESLA V100S | Nov 2019 |
TESLA A100 | Mai 2020 |
GPU Quadro | Date de sortie |
---|---|
Quadro P5000 | Octobre 2016 |
P6000 | Octobre 2016 |
Quadro P2000 | Février 2017 |
Quadro P1000 | Février 2017 |
Quadro P620 | Février 2017 |
Quadro P600 | Février 2017 |
Quadro P400 | Février 2017 |
Quadro P4000 | Février 2017 |
Quadro GV100 | Mars 2018 |
Quadro RTX 8000 | Août 2018 |
Quadro RTX 6000 | Août 2018 |
RTX 5000 | Août 2018 |
Quadro RTX 4000 | Novembre 2018 |
Quadro P2200 | Juin 2019 |
GPU GeForce RTX | Date de sortie |
---|---|
GEFORCE RTX 2080 Ti | Septembre 2018 |
GEFORCE RTX 2080 | Septembre 2018 |
GEFORCE RTX 2070 | octobre 2018 |
TITAN RTX | Décembre 2018 |
GEFORCE RTX 2060 | Janvier 2019 |
GEFORCE GTX 1650 Ti | Février 2019 |
GEFORCE GTX 1660 | Mars 2019 |
GEFORCE GTX 1660 Ti | Avril 2019 |
GEFORCE RTX 2080 SUPER | Juillet 2019 |
GEFORCE RTX 2070 SUPER | Juillet 2019 |
GEFORCE RTX 2060 SUPER | Juillet 2019 |
GEFORCE GTX 1660 SUPER | octobre 2019 |
GEFORCE GTX 1650 SUPER | novembre 2019 |
GEFORCE GTX 1650 | Juin 2020 |
Chronologie des GPU AMD (modernes)
Note : nous achetons tous les GPU suivants. Obtenir une offre gratuite si vous avez des pièces détachées à vendre.
GPU Radeon Instinct | Date de sortie |
---|---|
Accélérateur Radeon Instinct MI25 | Décembre 2016 |
Accélérateur Radeon Instinct MI8 | Décembre 2016 |
Accélérateur Radeon Instinct MI6 | Décembre 2016 |
Accélérateur Radeon Instinct MI50 (32 Go) | Novembre 2018 |
Accélérateur Radeon Instinct MI50 (16 Go) | Novembre 2018 |
GPU Radeon Pro | Date de sortie |
---|---|
Radeon Pro SSG | Juillet 2016 |
Radeon Pro WX 5100 | Juillet 2016 |
Radeon Pro WX 4100 | Juillet 2016 |
Radeon Pro WX 4150 | Mars 2017 |
Radeon Pro WX 7100 | Mars 2017 |
Radeon Pro WX 4170 | Mars 2017 |
Radeon Pro WX 2100 | Juin 2017 |
Radeon Pro WX 3100 | Juin 2017 |
Radeon Pro WX 9100 | Septembre 2017 |
Radeon Pro WX 8200 | Août 2018 |
Radeon Pro WX 3200 | Juillet 2019 |
Radeon Pro WX 3200 (Mobile) | Juillet 2019 |
Radeon Pro W5700 | novembre 2019 |
Radeon Pro W5500 | Février 2020 |
GPU Radeon RX | Date de sortie |
---|---|
Radeon RX 540 | Avril 2017 |
Radeon RX 580 | Avril 2017 |
Radeon RX 550 | Avril 2017 |
Radeon RX 570 | Avril 2017 |
Radeon RX 560 | Mai 2017 |
Radeon Vega Frontier Edition | Juin 2017 |
AMD Radeon VII | Février 2019 |
Radeon RX 5700 XT | Juin 2019 |
Radeon RX 5500 XT | Décembre 2019 |
Radeon RX 590 | novembre 2019 |
Radeon RX 5600 XT | Janvier 2020 |
Prix des GPU d'occasion
[gs_faq cat="4428″]
Autres FAQ sur les GPU