Si necesita vender tarjetas gráficas ahora, siga ese enlace y rellene un formulario para obtener un presupuesto gratuito.
En este artículo, abordaremos la rica historia de la GPU, así como la forma en que las unidades de procesamiento gráfico han avanzado con el tiempo hasta los últimos días de rápido crecimiento de los centros de datos de Nvidia. Específicamente, cubriremos los comienzos de la GPU, luego la explosión de ATI (luego AMD) y el crecimiento de la GPU Nvidia. Repasaremos la historia de Nvidia con la cronología de la GPU Nvidia y la cronología de la GPU AMD. A continuación, analizaremos la llegada de las GPU para centros de datos modernos con las recientes ofertas de GPU para centros de datos de Nvidia y las ofertas de GPU para centros de datos de AMD. Por último, repasaremos la historia de los precios de las GPU con una lista de los precios de las GPU a lo largo del tiempo.
Vende tu tarjeta gráfica rápida y fácilmente
Historia temprana de la GPU: 1949-1985
La "Unidad de Procesamiento Geométrico"
La primera electrónica capaz de procesar código en tiempo real para mostrar gráficos también resultó ser el que probablemente sea el padre de todos los ordenadores modernos: El simulador de vuelo Torbellino del MIT, desarrollado para la Marina estadounidense. Fue el primer ordenador que procesaba en paralelo, en contraposición a la simple computación lineal por lotes. La expresión técnica sería bit-paralelo en lugar de un solo bit. Aunque no se terminó hasta 1951, en 1949 la máquina ya podía funcionar como el primer juego de ordenador gráfico interactivo.
Es muy posible que el segundo sistema en procesar gráficos de forma digital fuera el simulador de vuelo desarrollado por Curtis-Wright en 1954 que se muestra a continuación. De hecho, los gráficos 3D y otras tecnologías de GPU adelantadas a su tiempo ya estaban disponibles en los años 60, pero eran muy secretas y exclusivas del gobierno, los laboratorios universitarios, las empresas de aviación y las compañías automovilísticas.
En 1980, James Clark, de Stanford, acuñó por primera vez el término "procesador geométrico VLSI para gráficos", que podría ser el primer término utilizado que equivale aproximadamente a una unidad de procesamiento gráfico. Funcionaba a unos 4 millones de operaciones en coma flotante por segundo, o FLOPS, que es mucho más divertido de decir. Esto equivale a 900 polígonos cada 30 segundos. Este parece ser el primer chip gráfico capaz de un paralelismo masivo que, a grandes rasgos, realizaba las funciones básicas de las GPU modernas, aunque ciertamente no estaba construido con la misma arquitectura básica y carecía de un gran número de capacidades.
Historia de la GPU: La era Arcade ('70s to 80s)
Entonces, las primeras aplicaciones de consumo de una unidad gráfica fueron los juegos retro arcade, y tenían capacidades muy limitadas. Básicamente, se limitaban a transportar la información gráfica del procesador a la pantalla. En aquellos años, la tecnología de GPU avanzaba muy lentamente.
Los gráficos eran muy primitivos, si recuerdas algunos de los juegos arcade originales. EJ.
Después de esos primeros juegos de arcade, en 1976, RCA fabricó su chip de vídeo, el pixie, pero sólo admitía monotono, y en una resolución minúscula de 62×128 píxeles.
En 1979, Xerox desarrolló la primera interfaz gráfica de usuario en el Centro de Investigación de Palo Alto como un gran proyecto de colaboración. Tenía ventanas, iconos, menús desplegables y muchas otras características familiares. Steve Jobs llegó a visitar sus instalaciones,
Tres años más tarde, Namco Galaxian avanzó los chips gráficos para soportar el color, es decir, sprites con múltiples colores y tilemaps en el fondo. Eso fue justo antes de 1980.
IBM fabricó lo que podría llamarse la primera tarjeta de vídeo con el IBM Monochrome Display Adapter
Entonces IBM lanzó su tarjeta de 8 colores en 1983, la ISBX 270, que fue innovadora en su momento, aunque bastante cara: $1000. Como referencia, en dólares de hoy, sería $2633.
Sony acuñó entonces GPU en referencia a su PlayStation en 1984 (aunque fue diseñada por Toshiba).
Luego, lo que se convirtió en un titán de la historia de las gpu, ATI, fue fundada en 1985 por los hermanos Lau y Kwok Yuen Ho, inmigrantes de Hong Kong que vivían en Canadá. Con el tiempo, AMD compró ATI. Más adelante hablaremos de ello.
En 1986 lanzaron la primera GPU de su serie Wonder. Estas tarjetas fueron dominantes en su momento porque admitían muchos monitores y estándares gráficos en una sola tarjeta, mientras que otras no lo hacían.
En 1987 se lanzó el conector de matriz gráfica de vídeo, o VGA. VGA se convirtió en el estándar dominante en gráficos.
En 1989, ATI y otras siete empresas fundaron la Visual Electronics Standards Association para remediar la falta de normalización en el sector de los gráficos por ordenador. Hoy son miembros más de 300 empresas.
En 1991, S3 Graphics presentó su S3 911. Por alguna razón se llamaba como el Porsche, y era bastante dominante. S3 se convirtió realmente en líder del sector tras el lanzamiento de su línea Trio, que lideró el grupo durante algún tiempo.
El desarrollo de la tecnología gráfica se vio muy favorecido por el lanzamiento de dos API notables. La que posiblemente sea la API más omnipresente para el renderizado de gráficos, OpenGL, apareció en junio de 1992. Muchos competidores aparecieron y desaparecieron, pero OpenGL sigue siendo el vencedor a día de hoy.
El otro, Direct3d, se lanzó en 1996 y sigue siendo un estándar en la industria hoy en día (aunque evidentemente es fracciones de milisegundo más lento que OpenGL, por si sirve de algo).
El chipset S3 Virge, lanzado en 1995, era en realidad el acelerador DRAM más rápido de la época en Windows. Los fabricantes de equipos originales compraron el Virge en grandes cantidades por su relación calidad-precio y su rendimiento 2D, pero desde luego no convencía por su rendimiento 3D.
Posteriormente, S3 vendió su división de gráficos.
La tarjeta complementaria 3dfx Voodoo fue muy popular e impulsó un mayor desarrollo de la tecnología 3D, sobre todo para juegos.
La línea Vudú siguió dominando el mercado hasta que Nvidia la adquirió más tarde.
Posiblemente, el primer uso formal de las siglas GPU lo hizo TriTech en 1996, con su Geometry Processor Unit.
Fue uno de los muchos proyectos similares que nunca llegaron a cuajar, aunque tenía características interesantes como el hardware dedicado al bump mapping y las funciones de mapeado por desplazamiento.
Microsoft obtuvo la licencia de TriTech un par de años después.
Historia moderna de las GPU: la guerra entre AMD y Nvidia (desde los 90 hasta hoy)
Curiosamente, tanto Nvidia como ATI tuvieron un comienzo difícil en los 90. La NV1 de Nvidia se vio perjudicada por la aparición de DirectX 1.0 poco después de su lanzamiento, con el que no era compatible.
La Rage 1 de ATI también tuvo problemas debido a la compatibilidad con DirectX 1.0, aunque tuvo un buen rendimiento en 2D.
Aunque ATI ya había cosechado cierto éxito años antes, Nvidia saltó realmente a la fama con el lanzamiento de la Riva en 1997, que vendió un millón de unidades en sólo cuatro meses. Su popularidad se debió en gran parte al hecho de que era bastante, me atrevería a decir, de uso general. Admitía 2D, 3D y aceleración de vídeo, y no se trataba de funciones de marcador de posición, como ha sido el caso de muchos fabricantes de GPU.
Dicho esto, su éxito se vio obstaculizado por su falta de compatibilidad con los controladores.
Su reinado comenzó realmente con la Riva TNT 2. La API de 3dfx, Glide, estaba perdiendo terreno frente a DirectX y OpenGL, lo que inició su caída. GeForce lo consolidó.
En 1999, generalizaron el uso del término GPU con "la primera GPU del mundo", la GeForce 256. No era realmente la primera GPU, por supuesto. No fue realmente la primera GPU, por supuesto. Desde la era Clark, los académicos siguieron utilizando GPU para referirse al procesamiento de geometría.
La propuesta de valor de la GeForce 256 se basaba en la inclusión de hardware de transformación e iluminación (o T&L) en el propio chip gráfico en lugar de depender de la CPU. Como resultado, con una CPU rápida para manejar T&L satisfactoriamente, su propuesta de valor era insignificante. Su circuitería también era bastante criticada. Eso, sumado a su elevado precio, hizo que no fuera tan popular como otras tarjetas posteriores, aunque tuvo su nicho con juegos como Quake.
De hecho, también funcionaba peor que la 3dfx Voodoo si las tarjetas se emparejaban con una CPU rápida (aunque no era una situación muy habitual).
No obstante, la versión DRAM despertó mucha expectación, por lo que aplastaron a 3dfx hasta llevarla a la quiebra/adquisición.
Un bonito infográfico de los primeros años que figura a continuación fue realizado por Jon Peddie en su texto seminal, "la historia de la magia visual en los ordenadores", donde entra en el nivel de detalle que un libro puede permitir.
Cronología de Nvidia y AMD: Comienza su reinado
Nvidia se encontró en una posición muy singular en el cambio de milenio. Mientras empresas como 3D Labs fabricaban unidades multichip diseñadas para el mercado de estaciones de trabajo, como el Glint, Nvidia seguía sacando provecho del mercado de los videojuegos, en rápido crecimiento, que contaba con un grupo demográfico de compradores mucho mayor.
Como resultado, Nvidia se encontró no sólo con el mercado de los juegos, sino también situada para dominar el mercado de las estaciones de trabajo / empresas, ya que el mercado de los juegos impulsó sus ganancias y le dejó un enorme presupuesto de I+D.
Algunos de los lanzamientos de juegos notables con los que crecieron fueron la PlayStation 3, World of Warcraft y la Xbox.
Nvidia lanzó su segunda generación de GeForce en 2000, que funcionó muy bien a pesar de su lenta memoria DDR de 166 Mhz, ya que seguía siendo la tarjeta más rápida hasta que ATI lanzó su Radeon 7200.
(Como nota al margen, Nvidia lanzó su primer producto gráfico integrado en 2001 con nForce. )
La Radeon 7200 ofrecía una mayor velocidad de memoria, una nueva tecnología de optimización del ancho de banda denominada HyperZ y la tecnología de mapeado de bump más completa hasta la fecha. Sus impresionantes capacidades se mostraron con la siguiente demo de Ark:
Nvidia respondió con su GeForce 2 GTS, que ofrecía casi la mitad de mejora porcentual, y ganó el nicho de juegos OpenGL y, desde luego, el de 16 bits en Direct3D. Su dominio sólo se vio obstaculizado por su escasa optimización del ancho de banda de memoria.
Por aquel entonces, Nvidia empezó a sacar provecho del segmento de las estaciones de trabajo con la Quadro, que en esencia no era más que la arquitectura GeForce 2 con un mayor énfasis en la precisión y la fiabilidad (mediante el uso de memoria ECC). Reempaquetando la GeForce con más extras y segmentando las funciones entre las tarjetas según las necesidades, Nvidia podía cobrar más por la Quadro, seguir siendo competitiva con los precios de las tarjetas de juego y evitar que las estaciones de trabajo utilizaran la GeForce, más barata.
Aunque la Radeon solucionó los problemas de ancho de banda de la memoria con HyperZ, entre otras características, no se comparó muy favorablemente con la Voodoo 5 5500 o la GeForce 2 GTS, aunque funcionó bastante bien en color de 32 bits y aún se vendió razonablemente bien.
Nvidia mantuvo su liderazgo con la GeForce 3:
Como puedes ver, han mejorado enormemente el proceso de renderizado con la nueva arquitectura mejorada.
ATI respondió con su Radeon 9700 Pro. Soportaba color de 64 y 128 bits, DirectX 9, AGP 8X y tenía unas impresionantes especificaciones de chip de 0,15 micras.
Nvidia no tuvo realmente un competidor hasta 2004, con su GeForce 6800.
En 2006, entramos en la era moderna de las GPU con la 8ª generación de tarjetas GeForce, la GeForce 8800. Fue muy popular y empezamos a ver renderizado, mapeado, sombreado, iluminación, rigging, postprocesado, etc. con la misma calidad que las tarjetas de la última década. Por ejemplo, podía jugar al Skyrim de Bethesda, que sigue siendo un juego popular hoy en día.
Por esas mismas fechas, Nvidia se convirtió en el único fabricante independiente de chips gráficos que seguía en activo tras la adquisición de ATI por AMD.
Desarrollaron la arquitectura Tesla, compatible con sombreadores unificados, y acabaron con las microarquitecturas de canalización fija. Se utilizó hasta las matrices de 40 nm. Esto fue muy importante para la transición a la GPU de propósito general.
En lugar de tener un montón de unidades separadas, como los sombreadores de vértices/píxeles, se disponía de procesadores de flujo más universales. Eran más eficientes en una amplia gama de casos de uso y, como eran sencillos, se podía aumentar la velocidad de reloj.
En 2007, Nvidia lanza Cuda, que permite a los desarrolladores e ingenieros de software utilizar la capacidad de procesamiento paralelo de sus GPU para operaciones de propósito más general.
La GPU de propósito general (o el auge de la GPU para centros de datos)
Hoy en día, el nombre GPU es un vestigio erróneo del pasado, ya que la tecnología de GPU se ha desviado masivamente de los juegos en la última década.
Ahora son sistemas en chips, o SoC, como se les llama comúnmente. Tienen todos los circuitos y funcionalidades que cabría esperar de una serie de componentes separados, pero como un sistema unificado. En concreto, tienen un procesador con gran capacidad de procesamiento paralelo, junto a un motor de aceleración de redes neuronales, procesadores de señales digitales para traducir las entradas analógicas de imagen y audio, un rasterizador, etc.
En la actualidad, las GPU se utilizan para acelerar aplicaciones de ingeniería, modelar la física, cohetería, análisis y operaciones financieras, diagnóstico por imagen, investigación clínica y aprendizaje automático, por citar sólo algunos campos.
Por ejemplo, posiblemente la aplicación más frontal, la GPU se emplea ampliamente como herramienta de inferencia de IA en teléfonos y vehículos.
Aunque no se trata realmente de IA, las GPU siguen denominándose "motores de inferencias de inteligencia artificial", que es una forma elegante de decir que extraen "inferencias" o conocimientos a partir de los datos existentes. Por ejemplo, si tienes Google Fotos u otra aplicación de imágenes en la nube, puede que te des cuenta de que identifica otras fotos en las que aparece la misma persona y las agrupa. Esto lo consiguen las GPU en gran medida a través de un "entrenamiento" en el que Google puede preguntarte "¿es la misma persona?".
La razón por la que las GPU se prestan a esta tarea es que, para entrenar una instancia de aprendizaje automático como ésa, se requiere una cantidad masiva de capacidad de procesamiento cuantitativo en bruto, en la que hay que escanear terabytes de imágenes una a una. La escalabilidad masiva de los procesadores de flujo se presta muy bien a este tipo de tareas.
Otro ejemplo de tecnología de GPU reciente sería el escaneado de cuerpos en 3D, como ocurre con las imágenes por resonancia magnética (IRM), en las que Nvidia también ha innovado en gran medida.
Si ha seguido de cerca las noticias, es posible que haya visto el fenómeno del "plegado en casa", en el que los superordenadores y la computación colectiva permitieron a los investigadores comprender mejor la mecánica de la proteína Sars-Cov-2, o Covid-19. De hecho, exIT Technologies fue uno de los principales contribuidores a la capacidad de procesamiento de ese proyecto, y lo conseguimos en gran medida gracias al uso de muchas GPU utilizadas en paralelo.
Mientras que en años anteriores un proyecto de este tipo habría llevado meses, con el tiempo la tecnología de GPU ha crecido lo suficiente como para que podamos obtener información como los mecanismos de acoplamiento molecular de la proteína pico de Covid-19 en cuestión de días.
En un sentido más universal, las GPU de propósito general aceleran enormemente los procesos para reducir el tiempo que necesitan ingenieros, investigadores, desarrolladores de software, etc., para resolver problemas, realizar nuevos diseños y analizar conjuntos masivos de datos. De ahí el término aceleración de aplicaciones.
No sólo eso, sino que las respuestas que obtenemos son más precisas y fiables; cuando se necesita reducir los datos para encontrar una respuesta rápidamente, se sacrifica una gran parte de la exactitud y la precisión.
Este año, Nvidia ha dado un salto por delante de cualquier otra empresa del mundo en cuanto a potencia de procesamiento cuantitativo en bruto con su procesador A100 y la segunda generación de sistemas DGX.
En unos pocos cientos de milímetros caben 54.000 millones de transistores. Toda esa potencia de cálculo bruta puede subdividirse en 7 GPU separadas que funcionan de forma independiente, o GPU multi instancia (MIG).
La 3ª generación de NVlink duplicó la velocidad de conectividad entre los procesadores e incorporó sparsity al propio hardware.
Esto, junto con los núcleos de tensor de 3ª generación, significa que un solo servidor de GPU A100 proporciona 5 peat flops de rendimiento. Ofrece 7 veces más rendimiento en inferencias y 6 veces más en entrenamiento. De hecho, la A100 proporcionó el mayor salto en una generación de cualquier lanzamiento de Nvidia.
De hecho, de un solo golpe, Nvidia ha conseguido que un único sistema haga lo que antes sólo era posible con un centro de datos monstruoso. Un único DGX SuperPOD formado por servidores A100 compite con los superordenadores más rápidos del mundo.
Mientras que en el pasado se tardaban meses o años en completar un proyecto de superordenador masivo, Nvidia sólo ha tardado semanas en hacerse con el título del superordenador más rápido del mundo.
Será interesante ver cómo responde la competencia.
Cronología de las GPU Nvidia (modernas)
Nota: compramos todas las GPU siguientes. Obtenga una oferta gratuita si tienes repuestos que quieras vender.
GPU Tesla
GPU Tesla | Fecha de publicación |
---|---|
TESLA M60 | Agosto de 2015 |
TESLA P100 | Junio de 2016 |
TESLA M10 | Junio de 2016 |
TESLA P4 | Septiembre de 2016 |
TESLA P40 | Septiembre de 2016 |
TESLA P6 | Marzo de 2017 |
Titán Xp | Abril de 2017 |
TESLA V100 | Mayo de 2017 |
Titán V | Diciembre de 2017 |
TESLA T4 | Septiembre de 2018 |
TESLA V100S | Nov 2019 |
TESLA A100 | Mayo de 2020 |
GPUs Quadro | Fecha de publicación |
---|---|
Quadro P5000 | Octubre de 2016 |
P6000 | Octubre de 2016 |
Quadro P2000 | Febrero de 2017 |
Quadro P1000 | Febrero de 2017 |
Quadro P620 | Febrero de 2017 |
Quadro P600 | Febrero de 2017 |
Quadro P400 | Febrero de 2017 |
Quadro P4000 | Febrero de 2017 |
Quadro GV100 | Marzo de 2018 |
Quadro RTX 8000 | Agosto de 2018 |
Quadro RTX 6000 | Agosto de 2018 |
RTX 5000 | Agosto de 2018 |
Quadro RTX 4000 | Noviembre de 2018 |
Quadro P2200 | Junio de 2019 |
GPU GeForce RTX | Fecha de publicación |
---|---|
GEFORCE RTX 2080 Ti | Septiembre de 2018 |
GEFORCE RTX 2080 | Septiembre de 2018 |
GEFORCE RTX 2070 | Octubre de 2018 |
TITÁN RTX | Diciembre de 2018 |
GEFORCE RTX 2060 | Ene 2019 |
GEFORCE GTX 1650 Ti | Febrero de 2019 |
GEFORCE GTX 1660 | Marzo de 2019 |
GEFORCE GTX 1660 Ti | Abril de 2019 |
GEFORCE RTX 2080 SUPER | Julio de 2019 |
GEFORCE RTX 2070 SUPER | Julio de 2019 |
GEFORCE RTX 2060 SUPER | Julio de 2019 |
GEFORCE GTX 1660 SUPER | Octubre de 2019 |
GEFORCE GTX 1650 SUPER | Noviembre de 2019 |
GEFORCE GTX 1650 | Junio de 2020 |
Cronología de las GPU de AMD (modernas)
Nota: compramos todas las GPU siguientes. Obtenga una oferta gratuita si tienes repuestos que quieras vender.
GPU Radeon Instinct | Fecha de publicación |
---|---|
Acelerador Radeon Instinct MI25 | Diciembre de 2016 |
Acelerador Radeon Instinct MI8 | Diciembre de 2016 |
Acelerador Radeon Instinct MI6 | Diciembre de 2016 |
Acelerador Radeon Instinct MI50 (32 GB) | Noviembre de 2018 |
Acelerador Radeon Instinct MI50 (16 GB) | Noviembre de 2018 |
GPU Radeon Pro | Fecha de publicación |
---|---|
Radeon Pro SSG | Julio de 2016 |
Radeon Pro WX 5100 | Julio de 2016 |
Radeon Pro WX 4100 | Julio de 2016 |
Radeon Pro WX 4150 | Marzo de 2017 |
Radeon Pro WX 7100 | Marzo de 2017 |
Radeon Pro WX 4170 | Marzo de 2017 |
Radeon Pro WX 2100 | Junio de 2017 |
Radeon Pro WX 3100 | Junio de 2017 |
Radeon Pro WX 9100 | Septiembre de 2017 |
Radeon Pro WX 8200 | Agosto de 2018 |
Radeon Pro WX 3200 | Julio de 2019 |
Radeon Pro WX 3200 (Móvil) | Julio de 2019 |
Radeon Pro W5700 | Noviembre de 2019 |
Radeon Pro W5500 | Febrero de 2020 |
GPU Radeon RX | Fecha de publicación |
---|---|
Radeon RX 540 | Abril de 2017 |
Radeon RX 580 | Abril de 2017 |
Radeon RX 550 | Abril de 2017 |
Radeon RX 570 | Abril de 2017 |
Radeon RX 560 | Mayo de 2017 |
Radeon Vega Frontier Edition | Junio de 2017 |
AMD Radeon VII | Febrero de 2019 |
Radeon RX 5700 XT | Junio de 2019 |
Radeon RX 5500 XT | Diciembre de 2019 |
Radeon RX 590 | Noviembre de 2019 |
Radeon RX 5600 XT | Enero de 2020 |
Precios de GPU usadas
[gs_faq cat="4428″]
Otras preguntas frecuentes sobre la GPU