Compramos equipos informáticos usados

Tecnología de la GPU: Historia y precios de las GPU a lo largo del tiempo

Nvidia Headquarters - Data Center GPU
Tiempo de lectura: 12 minutos

Si necesita vender tarjetas gráficas ahora, siga ese enlace y rellene un formulario para obtener un presupuesto gratuito.

En este artículo, abordaremos la rica historia de la GPU, así como la forma en que las unidades de procesamiento gráfico han avanzado con el tiempo hasta los últimos días de rápido crecimiento de los centros de datos de Nvidia. Específicamente, cubriremos los comienzos de la GPU, luego la explosión de ATI (luego AMD) y el crecimiento de la GPU Nvidia. Repasaremos la historia de Nvidia con la cronología de la GPU Nvidia y la cronología de la GPU AMD. A continuación, analizaremos la llegada de las GPU para centros de datos modernos con las recientes ofertas de GPU para centros de datos de Nvidia y las ofertas de GPU para centros de datos de AMD. Por último, repasaremos la historia de los precios de las GPU con una lista de los precios de las GPU a lo largo del tiempo.

Vende tu tarjeta gráfica rápida y fácilmente

Historia temprana de la GPU: 1949-1985

La "Unidad de Procesamiento Geométrico" 

La primera electrónica capaz de procesar código en tiempo real para mostrar gráficos también resultó ser el que probablemente sea el padre de todos los ordenadores modernos: El simulador de vuelo Torbellino del MIT, desarrollado para la Marina estadounidense. Fue el primer ordenador que procesaba en paralelo, en contraposición a la simple computación lineal por lotes. La expresión técnica sería bit-paralelo en lugar de un solo bit. Aunque no se terminó hasta 1951, en 1949 la máquina ya podía funcionar como el primer juego de ordenador gráfico interactivo. 

Es muy posible que el segundo sistema en procesar gráficos de forma digital fuera el simulador de vuelo desarrollado por Curtis-Wright en 1954 que se muestra a continuación. De hecho, los gráficos 3D y otras tecnologías de GPU adelantadas a su tiempo ya estaban disponibles en los años 60, pero eran muy secretas y exclusivas del gobierno, los laboratorios universitarios, las empresas de aviación y las compañías automovilísticas. 

En 1980, James Clark, de Stanford, acuñó por primera vez el término "procesador geométrico VLSI para gráficos", que podría ser el primer término utilizado que equivale aproximadamente a una unidad de procesamiento gráfico. Funcionaba a unos 4 millones de operaciones en coma flotante por segundo, o FLOPS, que es mucho más divertido de decir. Esto equivale a 900 polígonos cada 30 segundos. Este parece ser el primer chip gráfico capaz de un paralelismo masivo que, a grandes rasgos, realizaba las funciones básicas de las GPU modernas, aunque ciertamente no estaba construido con la misma arquitectura básica y carecía de un gran número de capacidades.

Historia de la GPU: La era Arcade ('70s to 80s)

Entonces, las primeras aplicaciones de consumo de una unidad gráfica fueron los juegos retro arcade, y tenían capacidades muy limitadas. Básicamente, se limitaban a transportar la información gráfica del procesador a la pantalla. En aquellos años, la tecnología de GPU avanzaba muy lentamente. 

Los gráficos eran muy primitivos, si recuerdas algunos de los juegos arcade originales. EJ. 

Después de esos primeros juegos de arcade, en 1976, RCA fabricó su chip de vídeo, el pixie, pero sólo admitía monotono, y en una resolución minúscula de 62×128 píxeles. 

En 1979, Xerox desarrolló la primera interfaz gráfica de usuario en el Centro de Investigación de Palo Alto como un gran proyecto de colaboración. Tenía ventanas, iconos, menús desplegables y muchas otras características familiares. Steve Jobs llegó a visitar sus instalaciones,

Tres años más tarde, Namco Galaxian avanzó los chips gráficos para soportar el color, es decir, sprites con múltiples colores y tilemaps en el fondo. Eso fue justo antes de 1980. 

IBM fabricó lo que podría llamarse la primera tarjeta de vídeo con el IBM Monochrome Display Adapter

https://youtu.be/qM2TV7RrwHY
Capacidades gráficas del adaptador de pantalla monocromo IBM (720×350)

Entonces IBM lanzó su tarjeta de 8 colores en 1983, la ISBX 270, que fue innovadora en su momento, aunque bastante cara: $1000. Como referencia, en dólares de hoy, sería $2633.

Sony acuñó entonces GPU en referencia a su PlayStation en 1984 (aunque fue diseñada por Toshiba).

Luego, lo que se convirtió en un titán de la historia de las gpu, ATI, fue fundada en 1985 por los hermanos Lau y Kwok Yuen Ho, inmigrantes de Hong Kong que vivían en Canadá. Con el tiempo, AMD compró ATI. Más adelante hablaremos de ello.

En 1986 lanzaron la primera GPU de su serie Wonder. Estas tarjetas fueron dominantes en su momento porque admitían muchos monitores y estándares gráficos en una sola tarjeta, mientras que otras no lo hacían.

En 1987 se lanzó el conector de matriz gráfica de vídeo, o VGA. VGA se convirtió en el estándar dominante en gráficos.

En 1989, ATI y otras siete empresas fundaron la Visual Electronics Standards Association para remediar la falta de normalización en el sector de los gráficos por ordenador. Hoy son miembros más de 300 empresas.

En 1991, S3 Graphics presentó su S3 911. Por alguna razón se llamaba como el Porsche, y era bastante dominante. S3 se convirtió realmente en líder del sector tras el lanzamiento de su línea Trio, que lideró el grupo durante algún tiempo.

El desarrollo de la tecnología gráfica se vio muy favorecido por el lanzamiento de dos API notables. La que posiblemente sea la API más omnipresente para el renderizado de gráficos, OpenGL, apareció en junio de 1992. Muchos competidores aparecieron y desaparecieron, pero OpenGL sigue siendo el vencedor a día de hoy.

El otro, Direct3d, se lanzó en 1996 y sigue siendo un estándar en la industria hoy en día (aunque evidentemente es fracciones de milisegundo más lento que OpenGL, por si sirve de algo).

El chipset S3 Virge, lanzado en 1995, era en realidad el acelerador DRAM más rápido de la época en Windows. Los fabricantes de equipos originales compraron el Virge en grandes cantidades por su relación calidad-precio y su rendimiento 2D, pero desde luego no convencía por su rendimiento 3D.

Posteriormente, S3 vendió su división de gráficos.

La tarjeta complementaria 3dfx Voodoo fue muy popular e impulsó un mayor desarrollo de la tecnología 3D, sobre todo para juegos.

La línea Vudú siguió dominando el mercado hasta que Nvidia la adquirió más tarde.

Posiblemente, el primer uso formal de las siglas GPU lo hizo TriTech en 1996, con su Geometry Processor Unit.

Fue uno de los muchos proyectos similares que nunca llegaron a cuajar, aunque tenía características interesantes como el hardware dedicado al bump mapping y las funciones de mapeado por desplazamiento.

Microsoft obtuvo la licencia de TriTech un par de años después.

Historia moderna de las GPU: la guerra entre AMD y Nvidia (desde los 90 hasta hoy)

Curiosamente, tanto Nvidia como ATI tuvieron un comienzo difícil en los 90. La NV1 de Nvidia se vio perjudicada por la aparición de DirectX 1.0 poco después de su lanzamiento, con el que no era compatible.

La Rage 1 de ATI también tuvo problemas debido a la compatibilidad con DirectX 1.0, aunque tuvo un buen rendimiento en 2D.

Aunque ATI ya había cosechado cierto éxito años antes, Nvidia saltó realmente a la fama con el lanzamiento de la Riva en 1997, que vendió un millón de unidades en sólo cuatro meses. Su popularidad se debió en gran parte al hecho de que era bastante, me atrevería a decir, de uso general. Admitía 2D, 3D y aceleración de vídeo, y no se trataba de funciones de marcador de posición, como ha sido el caso de muchos fabricantes de GPU.

Dicho esto, su éxito se vio obstaculizado por su falta de compatibilidad con los controladores.

 

La Nvidia Riva 128

Su reinado comenzó realmente con la Riva TNT 2. La API de 3dfx, Glide, estaba perdiendo terreno frente a DirectX y OpenGL, lo que inició su caída. GeForce lo consolidó.

En 1999, generalizaron el uso del término GPU con "la primera GPU del mundo", la GeForce 256. No era realmente la primera GPU, por supuesto. No fue realmente la primera GPU, por supuesto. Desde la era Clark, los académicos siguieron utilizando GPU para referirse al procesamiento de geometría.

La propuesta de valor de la GeForce 256 se basaba en la inclusión de hardware de transformación e iluminación (o T&L) en el propio chip gráfico en lugar de depender de la CPU. Como resultado, con una CPU rápida para manejar T&L satisfactoriamente, su propuesta de valor era insignificante. Su circuitería también era bastante criticada. Eso, sumado a su elevado precio, hizo que no fuera tan popular como otras tarjetas posteriores, aunque tuvo su nicho con juegos como Quake.

De hecho, también funcionaba peor que la 3dfx Voodoo si las tarjetas se emparejaban con una CPU rápida (aunque no era una situación muy habitual).

No obstante, la versión DRAM despertó mucha expectación, por lo que aplastaron a 3dfx hasta llevarla a la quiebra/adquisición.

Un bonito infográfico de los primeros años que figura a continuación fue realizado por Jon Peddie en su texto seminal, "la historia de la magia visual en los ordenadores", donde entra en el nivel de detalle que un libro puede permitir.

Cronología de Nvidia y AMD: Comienza su reinado

Nvidia se encontró en una posición muy singular en el cambio de milenio. Mientras empresas como 3D Labs fabricaban unidades multichip diseñadas para el mercado de estaciones de trabajo, como el Glint, Nvidia seguía sacando provecho del mercado de los videojuegos, en rápido crecimiento, que contaba con un grupo demográfico de compradores mucho mayor.

Como resultado, Nvidia se encontró no sólo con el mercado de los juegos, sino también situada para dominar el mercado de las estaciones de trabajo / empresas, ya que el mercado de los juegos impulsó sus ganancias y le dejó un enorme presupuesto de I+D.

Algunos de los lanzamientos de juegos notables con los que crecieron fueron la PlayStation 3, World of Warcraft y la Xbox.

Nvidia lanzó su segunda generación de GeForce en 2000, que funcionó muy bien a pesar de su lenta memoria DDR de 166 Mhz, ya que seguía siendo la tarjeta más rápida hasta que ATI lanzó su Radeon 7200.

(Como nota al margen, Nvidia lanzó su primer producto gráfico integrado en 2001 con nForce. )

La Radeon 7200 ofrecía una mayor velocidad de memoria, una nueva tecnología de optimización del ancho de banda denominada HyperZ y la tecnología de mapeado de bump más completa hasta la fecha. Sus impresionantes capacidades se mostraron con la siguiente demo de Ark:

https://youtu.be/xSQcpVa7paM
(las demos pueden descargarse en el sitio web de Nvidia página de demostración técnica.

Nvidia respondió con su GeForce 2 GTS, que ofrecía casi la mitad de mejora porcentual, y ganó el nicho de juegos OpenGL y, desde luego, el de 16 bits en Direct3D. Su dominio sólo se vio obstaculizado por su escasa optimización del ancho de banda de memoria.

Por aquel entonces, Nvidia empezó a sacar provecho del segmento de las estaciones de trabajo con la Quadro, que en esencia no era más que la arquitectura GeForce 2 con un mayor énfasis en la precisión y la fiabilidad (mediante el uso de memoria ECC). Reempaquetando la GeForce con más extras y segmentando las funciones entre las tarjetas según las necesidades, Nvidia podía cobrar más por la Quadro, seguir siendo competitiva con los precios de las tarjetas de juego y evitar que las estaciones de trabajo utilizaran la GeForce, más barata.

Aunque la Radeon solucionó los problemas de ancho de banda de la memoria con HyperZ, entre otras características, no se comparó muy favorablemente con la Voodoo 5 5500 o la GeForce 2 GTS, aunque funcionó bastante bien en color de 32 bits y aún se vendió razonablemente bien.

Nvidia mantuvo su liderazgo con la GeForce 3:

https://youtu.be/4tTWW2BRQGo

Como puedes ver, han mejorado enormemente el proceso de renderizado con la nueva arquitectura mejorada.

ATI respondió con su Radeon 9700 Pro. Soportaba color de 64 y 128 bits, DirectX 9, AGP 8X y tenía unas impresionantes especificaciones de chip de 0,15 micras.

https://youtu.be/Xu-A0jqMPd8
Demostración de Radeon 9700 Pro

Nvidia no tuvo realmente un competidor hasta 2004, con su GeForce 6800.

https://youtu.be/ntNBctHHPo4

En 2006, entramos en la era moderna de las GPU con la 8ª generación de tarjetas GeForce, la GeForce 8800. Fue muy popular y empezamos a ver renderizado, mapeado, sombreado, iluminación, rigging, postprocesado, etc. con la misma calidad que las tarjetas de la última década. Por ejemplo, podía jugar al Skyrim de Bethesda, que sigue siendo un juego popular hoy en día.

Por esas mismas fechas, Nvidia se convirtió en el único fabricante independiente de chips gráficos que seguía en activo tras la adquisición de ATI por AMD.

Desarrollaron la arquitectura Tesla, compatible con sombreadores unificados, y acabaron con las microarquitecturas de canalización fija. Se utilizó hasta las matrices de 40 nm. Esto fue muy importante para la transición a la GPU de propósito general.

En lugar de tener un montón de unidades separadas, como los sombreadores de vértices/píxeles, se disponía de procesadores de flujo más universales. Eran más eficientes en una amplia gama de casos de uso y, como eran sencillos, se podía aumentar la velocidad de reloj.

En 2007, Nvidia lanza Cuda, que permite a los desarrolladores e ingenieros de software utilizar la capacidad de procesamiento paralelo de sus GPU para operaciones de propósito más general.

https://youtu.be/nXeq2_P_O50
La competición continúa hoy (los próximos tres años de GPU)

La GPU de propósito general (o el auge de la GPU para centros de datos)

Hoy en día, el nombre GPU es un vestigio erróneo del pasado, ya que la tecnología de GPU se ha desviado masivamente de los juegos en la última década.

Ahora son sistemas en chips, o SoC, como se les llama comúnmente. Tienen todos los circuitos y funcionalidades que cabría esperar de una serie de componentes separados, pero como un sistema unificado. En concreto, tienen un procesador con gran capacidad de procesamiento paralelo, junto a un motor de aceleración de redes neuronales, procesadores de señales digitales para traducir las entradas analógicas de imagen y audio, un rasterizador, etc.

En la actualidad, las GPU se utilizan para acelerar aplicaciones de ingeniería, modelar la física, cohetería, análisis y operaciones financieras, diagnóstico por imagen, investigación clínica y aprendizaje automático, por citar sólo algunos campos.  

Por ejemplo, posiblemente la aplicación más frontal, la GPU se emplea ampliamente como herramienta de inferencia de IA en teléfonos y vehículos.

 

Nvidia Drive, el cerebro que impulsó el crecimiento de los vehículos autónomos

Aunque no se trata realmente de IA, las GPU siguen denominándose "motores de inferencias de inteligencia artificial", que es una forma elegante de decir que extraen "inferencias" o conocimientos a partir de los datos existentes. Por ejemplo, si tienes Google Fotos u otra aplicación de imágenes en la nube, puede que te des cuenta de que identifica otras fotos en las que aparece la misma persona y las agrupa. Esto lo consiguen las GPU en gran medida a través de un "entrenamiento" en el que Google puede preguntarte "¿es la misma persona?".

La razón por la que las GPU se prestan a esta tarea es que, para entrenar una instancia de aprendizaje automático como ésa, se requiere una cantidad masiva de capacidad de procesamiento cuantitativo en bruto, en la que hay que escanear terabytes de imágenes una a una. La escalabilidad masiva de los procesadores de flujo se presta muy bien a este tipo de tareas.

Otro ejemplo de tecnología de GPU reciente sería el escaneado de cuerpos en 3D, como ocurre con las imágenes por resonancia magnética (IRM), en las que Nvidia también ha innovado en gran medida.

Si ha seguido de cerca las noticias, es posible que haya visto el fenómeno del "plegado en casa", en el que los superordenadores y la computación colectiva permitieron a los investigadores comprender mejor la mecánica de la proteína Sars-Cov-2, o Covid-19. De hecho, exIT Technologies fue uno de los principales contribuidores a la capacidad de procesamiento de ese proyecto, y lo conseguimos en gran medida gracias al uso de muchas GPU utilizadas en paralelo.

 

Uno de los sistemas que utilizamos para plegar en casa

Mientras que en años anteriores un proyecto de este tipo habría llevado meses, con el tiempo la tecnología de GPU ha crecido lo suficiente como para que podamos obtener información como los mecanismos de acoplamiento molecular de la proteína pico de Covid-19 en cuestión de días.

En un sentido más universal, las GPU de propósito general aceleran enormemente los procesos para reducir el tiempo que necesitan ingenieros, investigadores, desarrolladores de software, etc., para resolver problemas, realizar nuevos diseños y analizar conjuntos masivos de datos. De ahí el término aceleración de aplicaciones.

No sólo eso, sino que las respuestas que obtenemos son más precisas y fiables; cuando se necesita reducir los datos para encontrar una respuesta rápidamente, se sacrifica una gran parte de la exactitud y la precisión.

Este año, Nvidia ha dado un salto por delante de cualquier otra empresa del mundo en cuanto a potencia de procesamiento cuantitativo en bruto con su procesador A100 y la segunda generación de sistemas DGX.

En unos pocos cientos de milímetros caben 54.000 millones de transistores. Toda esa potencia de cálculo bruta puede subdividirse en 7 GPU separadas que funcionan de forma independiente, o GPU multi instancia (MIG).

La 3ª generación de NVlink duplicó la velocidad de conectividad entre los procesadores e incorporó sparsity al propio hardware.

Esto, junto con los núcleos de tensor de 3ª generación, significa que un solo servidor de GPU A100 proporciona 5 peat flops de rendimiento. Ofrece 7 veces más rendimiento en inferencias y 6 veces más en entrenamiento. De hecho, la A100 proporcionó el mayor salto en una generación de cualquier lanzamiento de Nvidia.

 

La arquitectura Ampere de Nvidia

De hecho, de un solo golpe, Nvidia ha conseguido que un único sistema haga lo que antes sólo era posible con un centro de datos monstruoso. Un único DGX SuperPOD formado por servidores A100 compite con los superordenadores más rápidos del mundo.

Mientras que en el pasado se tardaban meses o años en completar un proyecto de superordenador masivo, Nvidia sólo ha tardado semanas en hacerse con el título del superordenador más rápido del mundo.

Será interesante ver cómo responde la competencia.

 

Cronología de las GPU Nvidia (modernas)

Nota: compramos todas las GPU siguientes. Obtenga una oferta gratuita si tienes repuestos que quieras vender.

GPU Tesla

GPU TeslaFecha de publicación
TESLA M60Agosto de 2015
TESLA P100Junio de 2016
TESLA M10Junio de 2016
TESLA P4Septiembre de 2016
TESLA P40Septiembre de 2016
TESLA P6Marzo de 2017
Titán XpAbril de 2017
TESLA V100Mayo de 2017
Titán VDiciembre de 2017
TESLA T4Septiembre de 2018
TESLA V100SNov 2019
TESLA A100Mayo de 2020
GPU Tesla
GPUs QuadroFecha de publicación
Quadro P5000Octubre de 2016
P6000Octubre de 2016
Quadro P2000Febrero de 2017
Quadro P1000Febrero de 2017
Quadro P620Febrero de 2017
Quadro P600Febrero de 2017
Quadro P400Febrero de 2017
Quadro P4000Febrero de 2017
Quadro GV100Marzo de 2018
Quadro RTX 8000Agosto de 2018
Quadro RTX 6000Agosto de 2018
RTX 5000Agosto de 2018
Quadro RTX 4000Noviembre de 2018
Quadro P2200Junio de 2019
GPUs Quadro
GPU GeForce RTXFecha de publicación
GEFORCE RTX 2080 TiSeptiembre de 2018
GEFORCE RTX 2080Septiembre de 2018
GEFORCE RTX 2070Octubre de 2018
TITÁN RTXDiciembre de 2018
GEFORCE RTX 2060Ene 2019
GEFORCE GTX 1650 TiFebrero de 2019
GEFORCE GTX 1660Marzo de 2019
GEFORCE GTX 1660 TiAbril de 2019
GEFORCE RTX 2080 SUPERJulio de 2019
GEFORCE RTX 2070 SUPERJulio de 2019
GEFORCE RTX 2060 SUPERJulio de 2019
GEFORCE GTX 1660 SUPEROctubre de 2019
GEFORCE GTX 1650 SUPERNoviembre de 2019
GEFORCE GTX 1650Junio de 2020
GPU GeForce RTX

Cronología de las GPU de AMD (modernas)

Nota: compramos todas las GPU siguientes. Obtenga una oferta gratuita si tienes repuestos que quieras vender.

GPU Radeon InstinctFecha de publicación
Acelerador Radeon Instinct MI25Diciembre de 2016
Acelerador Radeon Instinct MI8Diciembre de 2016
Acelerador Radeon Instinct MI6Diciembre de 2016
Acelerador Radeon Instinct MI50 (32 GB)Noviembre de 2018
Acelerador Radeon Instinct MI50 (16 GB)Noviembre de 2018
GPU Radeon Instinct
GPU Radeon ProFecha de publicación
Radeon Pro SSGJulio de 2016
Radeon Pro WX 5100Julio de 2016
Radeon Pro WX 4100Julio de 2016
Radeon Pro WX 4150Marzo de 2017
Radeon Pro WX 7100Marzo de 2017
Radeon Pro WX 4170Marzo de 2017
Radeon Pro WX 2100Junio de 2017
Radeon Pro WX 3100Junio de 2017
Radeon Pro WX 9100Septiembre de 2017
Radeon Pro WX 8200Agosto de 2018
Radeon Pro WX 3200Julio de 2019
Radeon Pro WX 3200 (Móvil)Julio de 2019
Radeon Pro W5700Noviembre de 2019
Radeon Pro W5500Febrero de 2020
GPU Radeon Pro
GPU Radeon RXFecha de publicación
Radeon RX 540Abril de 2017
Radeon RX 580Abril de 2017
Radeon RX 550Abril de 2017
Radeon RX 570Abril de 2017
Radeon RX 560Mayo de 2017
Radeon Vega Frontier EditionJunio de 2017
AMD Radeon VIIFebrero de 2019
Radeon RX 5700 XTJunio de 2019
Radeon RX 5500 XTDiciembre de 2019
Radeon RX 590Noviembre de 2019
Radeon RX 5600 XTEnero de 2020
GPU Radeon RX

Precios de GPU usadas

[gs_faq cat="4428″]

Otras preguntas frecuentes sobre la GPU

Relacionado Blog

es_ESSpanish