Nvidia , la enciclopedia libre
Nvidia Corporation es una empresa de software y fabless que diseña unidades de procesamiento de gráficos (GPU), interfaz de programación de aplicaciones (API) para ciencia de datos y computación de alto rendimiento, así como unidades de sistema en chip (SoC) para la computación móvil y el mercado automotriz. Nvidia es líder mundial en hardware y software de inteligencia artificial.[2][3] Su línea profesional de GPU se utiliza en estaciones de trabajo para aplicaciones en campos como arquitectura, ingeniería y construcción, medios y entretenimiento, automoción, investigación científica y diseño de fabricación.[4]
Además de la fabricación de GPU, Nvidia proporciona una API llamada CUDA que permite la creación de programas paralelos masivos que utilizan GPU. Se implementan en sitios de supercomputación en todo el mundo.[5][6] Más recientemente, se ha trasladado al mercado de la informática móvil, donde produce procesadores móviles Tegra para teléfonos inteligentes y tabletas, así como sistemas de navegación y entretenimiento para vehículos.[7][8][8] Además de AMD, sus competidores incluyen Intel,[9] Qualcomm[10] y empresas aceleradoras de IA como Graphcore.
Las GPU de Nvidia se utilizan para computación en la nube y supercomputadoras. Nvidia amplió su presencia en la industria de los videojuegos con sus consolas de juegos portátiles Shield Portable, Shield Tablet y Shield TV y su servicio de videojuegos en la nube GeForce Now.
Nvidia anunció planes el 13 de septiembre de 2020 para adquirir Arm de SoftBank, en espera de la aprobación regulatoria, por un valor de US$40 mil millones en acciones y efectivo, lo que sería la mayor adquisición de semiconductores hasta la fecha. SoftBank Group adquirirá algo menos del 10% de las acciones de Nvidia y Arm mantendrá su sede en Cambridge.[11][12][13][14]
El 7 de febrero de 2022, al enfrentarse a mayores obstáculos regulatorios, Nvidia señaló que dejaría de adquirir Arm. El acuerdo, que habría sido el más grande jamás realizado en el sector de los chips, estaba valorado en 66,000 millones de dólares en el momento de su colapso.[15]
Historia
[editar]La empresa fue fundada el 5 de abril de 1993 por Jensen Huang (CEO a partir de 2022),[16] un ingeniero eléctrico taiwanés que anteriormente fue director de CoreWare en LSI Logic y diseñador de microprocesadores en AMD; Chris Malachowsky, ingeniero que trabajó en Sun Microsystems; y Curtis Priem, quien anteriormente fue ingeniero senior y diseñador de chips gráficos en IBM y Sun Microsystems.[17][18]
En 1993, los tres cofundadores creían que la dirección correcta para la próxima ola de computación era la computación acelerada o basada en gráficos porque podía resolver problemas que la computación de propósito general no podía. También observaron que los videojuegos eran simultáneamente uno de los problemas más desafiantes desde el punto de vista computacional y tendrían un volumen de ventas increíblemente alto. Los videojuegos se convirtieron en el volante de inercia de la empresa para llegar a grandes mercados y financiar una enorme investigación y desarrollo para resolver problemas informáticos masivos. Con 40,000 dólares en el banco, nació la compañía.[19] Posteriormente, la compañía recibió 20 millones de dólares en fondos de capital de riesgo de Sequoia Capital y otros.[20] Nvidia inicialmente no tenía nombre y los cofundadores nombraron todos sus archivos NV, como "Next Version". La necesidad de incorporar la empresa llevó a los cofundadores a revisar todas las palabras con esas dos letras, llevándolos a "invidia", la palabra latina para "envidia".[19] Nvidia se hizo pública el 22 de enero de 1999.[21][22][23]
Lanzamientos y adquisiciones
[editar]El lanzamiento de RIVA TNT en 1998 solidificó la reputación de Nvidia en el desarrollo de adaptadores de gráficos competentes. A finales de 1999, Nvidia lanzó la GeForce 256 (NV10), sobre todo introduciendo la transformación e iluminación (T&L) integradas en el hardware 3D de nivel de consumidor. Funcionando a 120 MHz y con canalizaciones de cuatro píxeles, implementó aceleración de video avanzada, compensación de movimiento y combinación alfa de subimagen de hardware. La GeForce superó a los productos existentes por un amplio margen.
Debido al éxito de sus productos, Nvidia ganó el contrato para desarrollar el hardware de gráficos para la consola de juegos Xbox de Microsoft, lo que le valió a Nvidia un anticipo de $200 millones de dólares. Sin embargo, el proyecto alejó a muchos de sus mejores ingenieros de otros proyectos. A corto plazo, esto no importó, y la GeForce2 GTS se envió en el verano de 2000. En diciembre de 2000, Nvidia llegó a un acuerdo para adquirir los activos intelectuales de su otrora rival 3dfx, un pionero en tecnología de gráficos 3D de consumo líder en el mercado. desde mediados de la década de 1990 hasta 2000.[24] El proceso de adquisición finalizó en abril de 2002.[25]
En julio de 2002, Nvidia adquirió Exluna por una suma no revelada. Exluna creó herramientas de representación de software y el personal se fusionó con el proyecto Cg.[26] En agosto de 2003, Nvidia adquirió MediaQ por aproximadamente 70 millones de dólares.[27] El 22 de abril de 2004, Nvidia adquirió iReady, también proveedor de soluciones de descarga de TCP/IP e iSCSI de alto rendimiento.[28] En diciembre de 2004, se anunció que Nvidia ayudaría a Sony con el diseño del procesador de gráficos (RSX) en la consola de juegos PlayStation 3. El 14 de diciembre de 2005, Nvidia adquirió ULI Electronics, que en ese momento suministraba piezas de puente sur de terceros para chipsets a ATI, el competidor de Nvidia.[29] En marzo de 2006, Nvidia adquirió Hybrid Graphics.[30] En diciembre de 2006, Nvidia, junto con su principal rival en la industria gráfica AMD (que había adquirido ATI), recibió citaciones del Departamento de Justicia de Estados Unidos con respecto a posibles violaciones antimonopolio en la industria de tarjetas gráficas.[31]
Forbes nombró a Nvidia su Compañía del Año para 2007, citando los logros que logró durante dicho período, así como durante los cinco años anteriores.[32] El 5 de enero de 2007, Nvidia anunció que había completado la adquisición de PortalPlayer, Inc.[33] En febrero de 2008, Nvidia adquirió Ageia, desarrollador del motor de física PhysX y la unidad de procesamiento de física. Nvidia anunció que planeaba integrar la tecnología PhysX en sus futuros productos de GPU.[34][35]
En julio de 2008, Nvidia realizó una amortización de aproximadamente $ 200 millones en sus ingresos del primer trimestre, luego de informar que ciertos chipsets móviles y GPU producidos por la compañía tenían "tasas de falla anormales" debido a defectos de fabricación. Nvidia, sin embargo, no reveló los productos afectados. En septiembre de 2008, Nvidia se convirtió en objeto de una demanda colectiva por los defectos, alegando que las GPU defectuosas se habían incorporado a ciertos modelos de portátiles fabricados por Apple Inc., Dell y HP. En septiembre de 2010, Nvidia llegó a un acuerdo en el que reembolsaría a los propietarios de las computadoras portátiles afectadas las reparaciones o, en algunos casos, el reemplazo.[36][37] El 10 de enero de 2011, Nvidia firmó un acuerdo de licencia cruzada de $ 1.5 mil millones por seis años con Intel, poniendo fin a todos los litigios entre las dos compañías.[38]
En noviembre de 2011, después de presentarlo inicialmente en el Mobile World Congress, Nvidia lanzó su sistema Tegra 3 ARM en un chip para dispositivos móviles. Nvidia afirmó que el chip presentaba la primera CPU móvil de cuatro núcleos.[39][40] En mayo de 2011, se anunció que Nvidia había acordado adquirir Icera, una empresa de fabricación de chips de banda base en el Reino Unido, por 367 millones de dólares. En enero de 2013, Nvidia presentó Tegra 4, así como Nvidia Shield, una consola de juegos portátil basada en Android que funciona con el nuevo sistema en chip.[41] El 29 de julio de 2013, Nvidia anunció que adquirió PGI de STMicroelectronics.[42]
En 2014, Nvidia transfirió los juegos de Valve Portal y Half Life 2 a su tableta Nvidia Shield como Lightspeed Studio.[43][44] Desde 2014, Nvidia ha diversificado su negocio centrándose en tres mercados: juegos, electrónica automotriz y dispositivos móviles.[45]
El 6 de mayo de 2016, Nvidia presentó las primeras GPU de la serie GeForce 10, las GTX 1080 y 1070, basadas en la nueva microarquitectura Pascal de la empresa. Nvidia afirmó que ambos modelos superaron a su modelo Titan X basado en Maxwell; los modelos incorporan memoria GDDR5X y GDDR5 respectivamente, y utilizan un proceso de fabricación de 16 nm. La arquitectura también es compatible con una nueva función de hardware conocida como multiproyección simultánea (SMP), que está diseñada para mejorar la calidad del renderizado de realidad virtual y multimonitor.[46][47][48] Las computadoras portátiles que incluyen estas GPU y son lo suficientemente delgadas (a fines de 2017, menos de 0,8 pulgadas (20 mm)) han sido designadas como que cumplen con el estándar de diseño "Max-Q" de Nvidia .[49]
En julio de 2016, Nvidia llegó a un acuerdo por una demanda por publicidad falsa con respecto a su modelo GTX 970, ya que los modelos no podían usar todos los 4 GB de RAM anunciados debido a las limitaciones del diseño de su hardware.[50] En mayo de 2017, Nvidia anunció una asociación con Toyota que utilizará la plataforma de inteligencia artificial de la serie Drive PX de Nvidia para sus vehículos autónomos.[51] En julio de 2017, Nvidia y el gigante de búsqueda chino Baidu anunciaron una asociación de inteligencia artificial de gran alcance que incluye computación en la nube, conducción autónoma, dispositivos de consumo y el marco de trabajo de inteligencia artificial de código abierto de Baidu, PaddlePaddle. Baidu reveló que Drive PX 2 AI de Nvidia será la base de su plataforma de vehículos autónomos.[52]
Nvidia lanzó oficialmente Titan V el 7 de diciembre de 2017.[53][54]
Nvidia lanzó oficialmente la Nvidia Quadro GV100 el 27 de marzo de 2018.[55] Nvidia lanzó oficialmente las GPU RTX 2080 el 27 de septiembre de 2018. En 2018, Google anunció que las tarjetas gráficas Tesla P4 de Nvidia se integrarían en la inteligencia artificial del servicio Google Cloud.[56]
En mayo de 2018, en el foro de usuarios de Nvidia, se inició un hilo[57] solicitando a la empresa que actualizara a los usuarios cuando lanzarían controladores web para sus tarjetas instaladas en máquinas Mac Pro heredadas hasta mediados de 2012 5,1 con macOS Mojave sistema operativo 10.14. Se requieren controladores web para habilitar la aceleración de gráficos y las capacidades de múltiples monitores de pantalla de la GPU. En su sitio web de información de actualización de Mojave, Apple declaró que macOS Mojave se ejecutaría en máquinas heredadas con tarjetas gráficas 'compatibles con Metal'[58] y enumeraban GPU compatibles con Metal, incluidas algunas fabricadas por Nvidia.[59] Sin embargo, esta lista no incluía tarjetas compatibles con Metal que actualmente funcionan en macOS High Sierra usando controladores web desarrollados por Nvidia. En septiembre, Nvidia respondió: "Apple controla completamente los controladores para Mac OS. Pero si Apple lo permite, nuestros ingenieros están listos y ansiosos por ayudar a Apple a ofrecer excelentes controladores para Mac OS 10.14 (Mojave)".[60] En octubre, Nvidia siguió este con otro anuncio público, "Apple controla completamente los controladores para Mac OS. Desafortunadamente, Nvidia actualmente no puede lanzar un controlador a menos que sea aprobado por Apple",[61] lo que sugiere una posible ruptura entre las dos compañías.[62] En enero de 2019, sin señales de que los controladores web fueran habilitados, Apple Insider intervino en la controversia con la afirmación de que la administración de Apple "no quiere compatibilidad con Nvidia en macOS".[63] El mes siguiente, Apple Insider continuó con otra afirmación de que el soporte de Nvidia se abandonó debido a "problemas relacionales en el pasado",[64] y que Apple estaba desarrollando su propia tecnología de GPU.[65] Sin los controladores web de Nvidia aprobados por Apple, los usuarios de Apple deben reemplazar sus tarjetas Nvidia con una marca compatible de la competencia, como AMD Radeon de la lista recomendada por Apple.[66]
El 11 de marzo de 2019, Nvidia anunció un acuerdo para comprar Mellanox Technologies por $6900 millones[67] para expandir sustancialmente su presencia en el mercado de la computación de alto rendimiento. En mayo de 2019, Nvidia anunció nuevas computadoras portátiles RTX Studio. Los creadores dicen que la nueva computadora portátil será siete veces más rápida que una MacBook Pro de gama alta con un Core i9 y gráficos Radeon Pro Vega 20 de AMD en aplicaciones como Maya y RedCine-X Pro.[68] En agosto de 2019, Nvidia anunció Minecraft RTX, un parche oficial desarrollado por Nvidia para el juego Minecraft que agrega el trazado de rayos DXR en tiempo real exclusivamente a la versión de Windows 10 del juego. Todo el juego es, en palabras de Nvidia, "reacondicionado" con trazado de ruta, lo que afecta drásticamente la forma en que funcionan la luz, los reflejos y las sombras dentro del motor.[69]
En mayo de 2020, los principales científicos de Nvidia desarrollaron un ventilador de código abierto para abordar la escasez resultante de la pandemia mundial de coronavirus.[70] El 14 de mayo de 2020, Nvidia anunció oficialmente su microarquitectura de GPU Ampere y el acelerador de GPU Nvidia A100.[71][72] En julio de 2020, se informó que Nvidia estaba en conversaciones con SoftBank para comprar Arm, un diseñador de chips con sede en el Reino Unido, por $32 mil millones.[73]
El 1 de septiembre de 2020, Nvidia anunció oficialmente la serie GeForce 30 basada en la nueva microarquitectura Ampere de la empresa.[74][75]
El 13 de septiembre de 2020, se anunció que Nvidia compraría Arm a SoftBank Group por $ 40 mil millones, sujeto al escrutinio habitual, y este último retendría una participación del 10% en Nvidia.[13][12][76][11]
En octubre de 2020, Nvidia anunció su plan para construir la computadora más poderosa en Cambridge, Inglaterra. Nombrada Cambridge-1, la computadora empleará IA para respaldar la investigación de atención médica, y se espera que finalice a fines de 2020, a un costo de aproximadamente £ 40 millones. Según Jensen Huang, "La supercomputadora Cambridge-1 servirá como un centro de innovación para el Reino Unido y promoverá el trabajo innovador que realizan los investigadores de la nación en el descubrimiento de fármacos y atención médica crítica".[77]
También en octubre de 2020, junto con el lanzamiento de Nvidia RTX A6000, Nvidia anunció que retirará su marca de GPU para estaciones de trabajo Quadro, cambiando el nombre del producto a Nvidia RTX para futuros productos y la fabricación se basará en la arquitectura Nvidia Ampere.[4]
En agosto de 2021, la adquisición propuesta de Arm Holdings se estancó después de que la Autoridad de Mercados y Competencia del Reino Unido planteara "preocupaciones importantes sobre la competencia".[78] En octubre de 2021, la Comisión Europea abrió una investigación de competencia sobre la adquisición. La Comisión declaró que la adquisición de Nvidia podría restringir el acceso de los competidores a los productos de Arm y proporcionar a Nvidia demasiada información interna sobre sus competidores debido a sus acuerdos con Arm. SoftBank (la empresa matriz de Arm) y Nvidia anunciaron a principios de febrero de 2022 que "habían acordado no seguir adelante con la transacción 'debido a importantes desafíos regulatorios'".[79] Está previsto que la investigación finalice el 15 de marzo de 2022.[80][81] Ese mismo mes, Nvidia supuestamente se vio comprometida por un ciberataque. El ataque coincidió con la invasión rusa de Ucrania en 2022, aunque no hay indicios de que el ataque proviniera de Rusia o de piratas informáticos rusos.[82]
En marzo de 2022, el director ejecutivo de Nvidia, Jensen Huang, mencionó que están abiertos a que Intel fabrique sus chips en el futuro.[83] Esta fue la primera vez que la empresa mencionó que trabajaría junto con los próximos servicios de fundición de Intel.
En abril de 2022, se informó que Nvidia planeaba abrir un nuevo centro de investigación en Ereván, Armenia.[84]
En septiembre de 2022, Nvidia anunció su chip de grado automotriz de última generación, Drive Thor.[85][86]
Siguiendo las regulaciones del Departamento de Comercio de Estados Unidos que impusieron un embargo a las exportaciones a China de microchips avanzados, que entraron en vigencia en octubre de 2022, Nvidia vio cómo se agregó su chip de centro de datos a la lista de control de exportaciones. El mes siguiente, la empresa presentó un nuevo chip avanzado en China, denominado GPU A800, que cumplía con las normas de control de exportaciones.[87]
En septiembre de 2023, Getty Images anunció que se asociaría con Nvidia para lanzar Generative AI by Getty Images, una nueva herramienta que permite a las personas crear imágenes utilizando la biblioteca de fotografías con licencia de Getty. Getty utilizará el modelo Edify de Nvidia, que está disponible en la biblioteca de modelos de IA generativa Picasso de Nvidia.[88]
En octubre de 2023, se informó que Nvidia había comenzado silenciosamente a diseñar unidades de procesamiento central (CPU) basadas en ARM para el sistema operativo Windows de Microsoft con el objetivo de comenzar a venderlas en 2025.[89]
Finanzas
[editar]Las acciones de Nvidia cotizaban a más de 159.09 dólares por acción, y su capitalización bursátil estaba valorada en más de 391,360 millones de dólares en enero de 2023.
Año[1] | Ingresos en millones USD | Ingreso neto en millones USD | Activos totales en millones USD | Precio por acción en USD | Empleados |
---|---|---|---|---|---|
2005 | 2,010 | 89 | 1,629 | 8.81 | 2,101 |
2006 | 2,376 | 301 | 1,955 | 16.76 | 2,737 |
2007 | 3,069 | 449 | 2,675 | 25.68 | 4,083 |
2008 | 4,098 | 798 | 3,748 | 14.77 | 4,985 |
2009 | 3,425 | −30 | 3,351 | 10.97 | 3,772 |
2010 | 3,326 | −68 | 3,586 | 12.56 | 5,706 |
2011 | 3,543 | 253 | 4,495 | 15.63 | 6,029 |
2012 | 3,998 | 581 | 5,553 | 12.52 | 5,042 |
2013 | 4,280 | 563 | 6,412 | 13.38 | 7,974 |
2014 | 4,130 | 440 | 7,251 | 17.83 | 6,384 |
2015 | 4,682 | 631 | 7,201 | 23.20 | 6,384 |
2016 | 5,010 | 614 | 7,370 | 53.33 | 9,227 |
2017 | 6,910 | 1,666 | 9,841 | 149.38 | 10,299 |
2018 | 9,714 | 3,047 | 11,241 | 245.75 | 11,528 |
2019 | 11,716 | 4,141 | 13,292 | 174.59 | 13,277 |
2020 | 10,918 | 2,796 | 17,315 | 395.63 | 13,775 |
2021 | 16,675 | 4,332 | 28,791 | 293.84[90] | 18,975 |
2022 | 26,914 | 9,752 | 44,187 | 146.14 | 22,473 |
2023 | 26,974 | 4,368 | 41,182 | 495.22 | 26,196 |
Familia de productos
[editar]La familia de Nvidia incluye gráficos, comunicación inalámbrica, procesadores de PC y hardware/software automotriz.
Algunas familias se enumeran a continuación:
- GeForce, productos de procesamiento de gráficos orientados al consumidor
- Nvidia RTX, productos profesionales de procesamiento de gráficos de computación visual (reemplazando a Quadro)
- NVS, solución de gráficos empresariales multipantalla
- Tegra, un sistema en una serie de chips para dispositivos móviles
- Tesla, GPU dedicada de propósito general para aplicaciones de generación de imágenes de alta gama en campos profesionales y científicos
- nForce, un chipset de placa base creado por Nvidia para microprocesadores Intel (Celeron, Pentium y Core 2) y AMD (Athlon y Duron)
- Nvidia GRID, un conjunto de hardware y servicios de Nvidia para la virtualización de gráficos
- Nvidia Shield, una gama de hardware para juegos que incluye Shield Portable, Shield Tablet y, más recientemente, Shield TV.
- Nvidia Drive, una gama de productos de hardware y software para diseñadores y fabricantes de vehículos autónomos. La serie Drive PX es una plataforma informática de alto rendimiento destinada a la conducción autónoma a través del aprendizaje profundo,[91] mientras que Driveworks es un sistema operativo para automóviles sin conductor.[92]
- Nvidia BlueField, una gama de unidades de procesamiento de datos, inicialmente heredada de su adquisición de Mellanox Technologies.[93][94]
- CPU de clase Nvidia Datacenter/Server, con nombre en código Nvidia Grace, disponible en 2023.[95][96]
Chips gráficos comerciales
[editar]Primeros procesadores gráficos de Nvidia.
- NV1
- RIVA 128, RIVA 128ZX
- VANTA LT, RIVA TNT, RIVA TNT 2
A partir de la serie GeForce, los chips se ocupan prácticamente de todo el proceso gráfico, constituyendo lo que Nvidia nombró GPU (Graphic Processing Unit - Unidad de proceso gráfico).
- GeForce Series
- GeForce 256
- GeForce 2: MX 200, MX 400, GTS, Pro, Ti y Ultra.
- GeForce 3: Ti 200 y Ti 500.
- GeForce 4: MX 420, MX 440, MX 460, Ti 4200, Ti 4400, Ti 4600 y Ti 4800.
- GeForce FX (5): (DirectX 8.0, 8.1 o últimamente 9.0b por hardware) compuesta por los modelos FX 5950 Ultra, FX 5900, FX 5800, FX 5700, FX 5600, FX 5500, FX 5300 y FX 5200.
- GeForce 6: (DirectX 9.0c por hardware) compuesta por los modelos 6800 Ultra, 6800 GT, 6800, 6600 GT, 6600, 6500, 6200, 6150 y 6100 (AGP).
- GeForce 7: (DirectX 9.0c por hardware) compuesta por los modelos 7950 GX2, 7950 GT, 7900 GTX, 7900 GTO, 7900 GT, 7900 GS, 7800 GTX, 7800 GT, 7800 GS, 7600 GT, 7600 GS, 7500 LE, 7300 GT, 7300 GS, 7300 LE, 7100 GS y 7025 GT.
- GeForce 8: (DirectX 10.0 por hardware) compuesta por los modelos 8800 Ultra, 8800 GTX, 8800 GTS, 8800 GT, 8800 GS, 8600 GTS, 8600 GT, 8500 GT y 8400 GS.
- GeForce 9: (DirectX 10.0 por hardware) compuesta por los modelos 9300 GS, 9400 GT, 9500 GT, 9600 GSO, 9600 GSO 512, 9600 GT Green Edition, 9600 GT, 9800 GT Green Edition, 9800 GT, 9800 GTX, 9800 GTX+ y 9800 GX2.
- GeForce 200: (DirectX 10 y 10.1 por hardware) compuesta por los modelos GT 220, GT 240, GTS 240, GTS 250, GTX 260, GTX 275, GTX 280, GTX 285 y GTX 295.
- GeForce 300: (DirectX 10.1 por hardware y DirectX 11 por Software) Es la serie GT 200 pero mejorada, menor consumo, menos tamaño de fabricación (Menos de los 55 nanómetros de las GT 200).
- GeForce 400: (DirectX 11.0 por hardware) Arquitectura de nombre en clave "Fermi", compuesta temporalmente por los modelos GT 420, GT 430, GT 440, GTS 450, GTX 460, GTX 465, GTX 470 y GTX 480.
- GeForce 500: GT 520, GTX 550 Ti, GTX 560 SE, GTX 560, GTX 560 Ti, GTX 570, GTX 580 y GTX 590.
- GeForce 600: (arquitectura nombre en clave Kepler, salvo modelos 610, 620 y 630 basados en Fermi) GT 610, GT 620, GT 630, GT 640, GTX 650, GTX 650 Ti, GTX 650 Ti BOOST, GTX 660, GTX 660 Ti, GTX 670, GTX 680, GTX 690, GT 740.
- GeForce 700: (arquitectura Kepler mejorada, salvo los modelos 750 y 750 Ti basados en la arquitectura Maxwell) GT 730, GTX 750, GTX 750Ti, GTX 760, GTX 770, GTX 780, GTX 780 Ti, GTX TITAN, GTX TITAN Black y GTX TITAN Z.
- GeForce 900: (arquitectura nombre en clave Maxwell) GTX 950, GTX 960, GTX 970, GTX 980, GTX 980Ti y GTX TITAN X.
- GeForce 10: (arquitectura nombre en clave Pascal) GT 1030, GTX 1050, GTX 1050 Ti, GTX 1060, GTX 1070, GTX 1070 Ti, GTX 1080, GTX 1080Ti, TITAN X (Arquitectura Pascal) y TITAN Xp.
- GeForce 20: (arquitectura nombre en clave Turing) GTX 1630, GTX 1650, GTX 1650 Super, GTX 1660, GTX 1660 Super, GTX 1660Ti, RTX 2060, RTX 2060 Super, RTX 2070, RTX 2070 Super, RTX 2080, RTX 2080 Super, RTX 2080 Ti y TITAN RTX.
- Geforce 30: (arquitectura nombre en clave Ampere) RTX 3050, RTX 3050 Ti, RTX 3060, RTX 3060 Ti, RTX 3070, RTX 3070 Ti, RTX 3080, RTX 3080 Ti, RTX 3090 y RTX 3090 Ti.
- Geforce 40: (arquitectura nombre en clave Ada Lovelace) RTX 4060, RTX 4060 TI, RTX 4070, RTX 4070 SUPER, RTX 4070 TI, RTX 4070 TI SUPER, RTX 4080, RTX 4080 SUPER y RTX 4090
Chips gráficos para uso profesional y científico
[editar]Quadro
[editar]Nvidia Quadro es una serie de tarjetas gráficas profesionales diseñadas para uso en aplicaciones de diseño y creación, como el modelado 3D, la animación, la visualización de datos y la edición de video.[97] Estas tarjetas están optimizadas para brindar un rendimiento superior y una mayor precisión en comparación con las tarjetas gráficas de juego comunes.[98] Algunas de las características importantes de las tarjetas Nvidia Quadro incluyen:
- Compatibilidad con una amplia variedad de aplicaciones de diseño y creación, como Autodesk Maya, SolidWorks y Adobe Premiere.
- Soporte para tecnologías de visualización avanzadas como GPU-accelerated ray tracing, deep learning y VR.
- Soporte para varios monitores para una experiencia de visualización más amplia.
- Diseño de refrigeración de bajo ruido para un ambiente de trabajo tranquilo.
Tesla
[editar]Nvidia Tesla es una serie de tarjetas de procesamiento de alto rendimiento diseñadas para uso en aplicaciones de alta computación, como la ciencia de datos, la inteligencia artificial (IA) y el aprendizaje automático (ML). Estas tarjetas están optimizadas para brindar un rendimiento extremadamente alto en tareas de procesamiento paralelo y se utilizan en sistemas de computación de alta potencia, como supercomputadoras y servidores de centros de datos.[99][100][101] Algunas de las características importantes de las tarjetas Nvidia Tesla incluyen:
- Compatibilidad con una amplia variedad de aplicaciones de alta computación, como TensorFlow, CUDA y OpenCL.
- Soporte para tecnologías de procesamiento paralelo avanzadas como CUDA Cores y Tensor Cores.
- Diseño de refrigeración de bajo ruido para un ambiente de trabajo tranquilo.
- Es especialmente optimizadas para aplicaciones de inteligencia artificial y aprendizaje automático, y son utilizadas en sistemas de alta computación y centros de datos.
NVS
[editar]Nvidia NVS (Nvidia Professional Visualization Solutions) es una línea de tarjetas gráficas profesionales diseñadas para uso en entornos de trabajo, como oficinas y salas de conferencias. Estas tarjetas están optimizadas para brindar un rendimiento de gráficos de alta calidad y una compatibilidad con varios monitores para una experiencia de visualización más amplia. Algunas de las características importantes de las tarjetas Nvidia NVS incluyen:
- Compatibilidad con una amplia variedad de aplicaciones de visualización de datos, como Microsoft Office, Adobe Photoshop y Autodesk AutoCAD.
- Soporte para tecnologías de visualización avanzadas como Nvidia Mosaic y Nvidia nView.
- Diseño de refrigeración de bajo ruido para un ambiente de trabajo tranquilo.
- Permite conectar varios monitores a una sola tarjeta, lo que permite una visualización más amplia y una mayor productividad.
GRID
[editar]Nvidia GRID son tarjetas gráficas especialmente diseñadas para ser utilizadas en entornos de virtualización de escritorio. Estas tarjetas están optimizadas para brindar un rendimiento gráfico de alta calidad en ambientes de escritorio remoto y virtual, lo que permite a los usuarios acceder a aplicaciones y contenido gráfico de alta intensidad desde cualquier lugar y en cualquier dispositivo.[102] Algunas de las características más importantes de las tarjetas gráficas Nvidia GRID incluyen:
- Compatibilidad con varios usuarios: las tarjetas gráficas Nvidia GRID son capaces de soportar varios usuarios simultáneamente, lo que permite a los administradores de TI maximizar el uso de los recursos gráficos.
- Soporte para aplicaciones de realidad virtual: las tarjetas gráficas Nvidia GRID son compatibles con aplicaciones de realidad virtual, lo que permite a los usuarios experimentar con contenido inmersivo de alta calidad.
- Escalabilidad: las tarjetas gráficas Nvidia GRID son escalables, lo que permite a los administradores de TI agregar o quitar tarjetas gráficas según sea necesario para adaptarse a los cambios en la demanda de recursos gráficos.
- Virtualización de alta calidad: las tarjetas gráficas Nvidia GRID utilizan tecnología de virtualización de tarjetas gráficas de alta calidad para garantizar que los usuarios finales reciban un rendimiento gráfico similar al de un escritorio local.
Chipsets para placas bases
[editar]nForce
[editar]nForce es una serie de chipsets para placas base desarrollados por Nvidia. Fue uno de los primeros chipsets para procesadores Intel y AMD y ofrece una amplia gama de características y funciones.[103]
Entre las características de nForce se incluyen:
- Soporte para diferentes tipos de procesadores, incluyendo Intel Pentium y AMD Athlon
- Controladores de almacenamiento integrados para SATA y IDE
- Interfaz de red Gigabit Ethernet
- Soporte para audio de alta calidad y expansión FireWire
- Controladores USB 2.0.
nForce fue uno de los primeros chipsets en ofrecer estas características y fue ampliamente utilizado en placas base durante la primera década del siglo XXI. Sin embargo, con el tiempo, Nvidia abandonó el desarrollo de chipsets y se enfocó en otras áreas, como las tarjetas gráficas.
Chips para dispositivos móviles
[editar]GoForce
[editar]Nvidia GoForce es una serie de procesadores gráficos creados especialmente para dispositivos móviles (PDA, smartphones y teléfonos móviles). Incluyen la tecnología nPower para un uso eficiente de energía.
Tegra
[editar]Nvidia Tegra es un system on a chip para dispositivos móviles como smartphones, tabletas, asistentes digitales personales, dispositivos móviles y de Internet. Tegra integra la arquitectura de procesadores ARM, GPU, northbridge, southbridge, y controlador de memoria en un solo paquete. La serie enfatiza el consumo de baja potencia y alto rendimiento para la reproducción de audio y video. Este chip lo usan dispositivos portátiles como la Nvidia Shield o la Nintendo Switch (Tegra X1).
Soporte de software de código abierto
[editar]Hasta el 23 de septiembre de 2013, Nvidia no había publicado ninguna documentación para su hardware avanzado,[104] lo que significa que los programadores no podían escribir un controlador de dispositivo gratuito y de código abierto para sus productos sin recurrir a la ingeniería inversa (sala limpia).
En cambio, Nvidia proporciona sus propios controladores de gráficos GeForce binarios para X.Org y una biblioteca de código abierto que interactúa con los kernels de Linux, FreeBSD o Solaris y el software de gráficos patentado. Nvidia también proporcionó, pero dejó de admitir, un controlador ofuscado de código abierto que solo admite aceleración de hardware bidimensional y se envía con la distribución X.Org.[105]
La naturaleza propietaria de los controladores de Nvidia ha generado insatisfacción en las comunidades de software libre.[106] Algunos usuarios de Linux y BSD insisten en usar solo controladores de código abierto y consideran inadecuada la insistencia de Nvidia en proporcionar nada más que un controlador solo binario, dado que los fabricantes de la competencia como Intel ofrecen soporte y documentación para desarrolladores de código abierto y otros ( como AMD) publican documentación parcial y proporcionan algo de desarrollo activo.[107][108]
Debido a la naturaleza cerrada de los controladores, las tarjetas de video de Nvidia no pueden ofrecer funciones adecuadas en algunas plataformas y arquitecturas, dado que la empresa solo ofrece compilaciones de controladores x86/x64 y ARMv7-A.[109] Como resultado, no existe soporte para aceleración de gráficos 3D en Linux en PowerPC, ni soporte para Linux en la consola PlayStation 3 restringida por hipervisor.
Algunos usuarios afirman que los controladores Linux de Nvidia imponen restricciones artificiales, como limitar la cantidad de monitores que se pueden usar al mismo tiempo, pero la empresa no se ha pronunciado sobre estas acusaciones.[110]
En 2014, con las GPU Maxwell, Nvidia comenzó a requerir firmware para desbloquear todas las funciones de sus tarjetas gráficas. Hasta ahora, este estado no ha cambiado y dificulta la escritura de controladores de código abierto.[111][112][113]
El 12 de mayo de 2022, Nvidia anunció que estaban abriendo sus controladores de kernel de GPU. Todavía mantienen utilidades de código cerrado para usuarios, lo que hace que los usuarios sigan dependiendo de su software propietario.[114][115][116]
Inteligencia artificial
[editar]GauGAN
[editar]GauGAN es una herramienta con la que se pueden crear paisajes falsos partiendo de un boceto.
Este software hace uso de una red de confrontación generativa (GAN), basado en una técnica denominada "normalización espacialmente adaptativa" que es capaz de generar imágenes realistas a partir de un determinado diseño semántico, controlado por el usuario con el uso de un programa de edición de imágenes, donde cada color actúa como representación de un tipo de objeto, material o ambiente.[117][118][119]
StyleGAN
[editar]StyleGAN es una red de confrontación generativa (GAN) capaz de generar rostros de personas inexistentes a partir de un motor que funciona con un algoritmo de tecnología IA.[120][121]
DIB-R
[editar]DIB-R es un Render que emplea la tecnología Machine Learning para crear modelos en tres dimensiones (3D) a partir de una imagen convencional en dos dimensiones (2D). Utiliza una arquitectura de codificador-decodificador, basada en una red neuronal que convierte las fotografías en 2D en un mapa de características o en un vector, permitiendo así que DIB-R prevea la forma, el color, la textura y la iluminación de la imagen.
DIB-R ha sido entrenado con varios conjuntos de datos, haciendo uso de la unidad de procesamiento gráfico GPU NVIDIA V100 la que ha permitido la creación de un objeto en tres dimensiones a partir de una fotografía en menos de 100 milisegundos.[122][123]
Véase también
[editar]- Líderes en ventas de semiconductores por año
- Nvidia Optimus
- CUDA
- Unidades de procesamiento gráfico de Nvidia
- GeForce
- OpenCL
Referencias
[editar]- ↑ a b c d e f g «NVIDIA Corporation - Financial Info - Annual Reports and Proxies». investor.nvidia.com. Consultado el 10 de enero de 2023.
- ↑ Enderle, Rob (18 de enero de 2022). «Why NVIDIA Has Become a Leader in the AI Market». Datamation (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ McGregor, Jim. «Nvidia Asserts Itself As The AI Leader From The Edge To The Cloud». Forbes (en inglés). Consultado el 11 de enero de 2023.
- ↑ a b Smith, Ryan. «Quadro No More? NVIDIA Announces Ampere-based RTX A6000 & A40 Video Cards For Pro Visualization». www.anandtech.com. Consultado el 11 de enero de 2023.
- ↑ Clark, Don. «J.P. Morgan Shows Benefits from Chip Change». WSJ (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Home - | TOP500». top500.org. Consultado el 11 de enero de 2023.
- ↑ Burns, Chris (3 de agosto de 2011). «2011 The Year Of NVIDIA Dominating Android Superphones And Tablets». SlashGear (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ a b «NVIDIA Embedded Systems for Next-Gen Autonomous Machines». NVIDIA (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Jennewine, Trevor (15 de enero de 2021). «Why Intel's Competitive Edge Is Crumbling». The Motley Fool (en inglés). Consultado el 11 de enero de 2023.
- ↑ Neiger, Chris (26 de enero de 2021). «Better Buy: NVIDIA vs. Qualcomm». The Motley Fool (en inglés). Consultado el 11 de enero de 2023.
- ↑ a b «NVIDIA to Acquire Arm for $40 Billion, Creating World’s Premier Computing Company for the Age of AI». NVIDIA Newsroom (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ a b Rosoff, Matt. «Nvidia to buy Arm Holdings from SoftBank for $40 billion». CNBC (en inglés). Consultado el 11 de enero de 2023.
- ↑ a b Moorhead, Patrick. «It’s Official- NVIDIA Acquires Arm For $40 Billion To Create What Could Be A Computing Juggernaut». Forbes (en inglés). Consultado el 11 de enero de 2023.
- ↑ Lyons, Kim (13 de septiembre de 2020). «Nvidia is acquiring Arm for $40 billion». The Verge (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «SoftBank’s $66bn sale of chip group Arm to Nvidia collapses». Financial Times. 8 de febrero de 2022. Consultado el 11 de enero de 2023.
- ↑ «Jensen Huang». Forbes (en inglés). Consultado el 11 de enero de 2023.
- ↑ «NVIDIA Company History: Innovations Over the Years». NVIDIA (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «NVIDIA Corporation | History, Headquarters, & Facts | Britannica». www.britannica.com (en inglés). Consultado el 11 de enero de 2023.
- ↑ a b «Nvidia CEO Jensen Huang Is Fortune's 2017 Businessperson of the Year | Fortune». web.archive.org. 16 de noviembre de 2017. Archivado desde el original el 16 de noviembre de 2017. Consultado el 11 de enero de 2023.
- ↑ «Crying wolf». Forbes (en inglés). Consultado el 11 de enero de 2023.
- ↑ «GAMECENTER.COM - Game News - Nvidia Goes Public». web.archive.org. 12 de octubre de 1999. Archivado desde el original el 12 de octubre de 1999. Consultado el 11 de enero de 2023.
- ↑ StreetJournal, Dean TakahashiStaff Reporter of The Wall. «Shares of Nvidia Surge 64% After Initial Public Offering». WSJ (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Writer, CBR Staff (12 de enero de 1999). «NVIDIA READIES ITSELF FOR IPO DESPITE MARKET PRESSURES». Tech Monitor (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «3dfx graphics technology». web.archive.org. 5 de febrero de 2001. Archivado desde el original el 5 de febrero de 2001. Consultado el 11 de enero de 2023.
- ↑ Kanellos, Michael. «Nvidia buys out 3dfx graphics chip business». CNET (en inglés). Consultado el 11 de enero de 2023.
- ↑ Becker, David. «Nvidia buys software company». CNET (en inglés). Consultado el 11 de enero de 2023.
- ↑ «Home». web.archive.org. 9 de enero de 2014. Archivado desde el original el 9 de enero de 2014. Consultado el 11 de enero de 2023.
- ↑ «Nvidia Buys iReady | Network Computing». www.networkcomputing.com (en inglés). Consultado el 11 de enero de 2023.
- ↑ «NVIDIA completes ULi Electronics acquisition deal». GamesIndustry.biz (en inglés). 23 de febrero de 2006. Consultado el 11 de enero de 2023.
- ↑ «Nvidia acquires Hybrid Graphics • Reg Hardware». web.archive.org. 16 de enero de 2013. Archivado desde el original el 16 de enero de 2013. Consultado el 11 de enero de 2023.
- ↑ «Justice Dept. subpoenas AMD, Nvidia | Tech News on ZDNet». web.archive.org. 8 de diciembre de 2006. Archivado desde el original el 8 de diciembre de 2006. Consultado el 11 de enero de 2023.
- ↑ Caulfield, Brian. «Shoot To Kill». Forbes (en inglés). Consultado el 11 de enero de 2023.
- ↑ Ames, Ben (6 de noviembre de 2006). «Nvidia buys PortalPlayer to reach new business sectors». Network World (en inglés). Consultado el 11 de enero de 2023.
- ↑ Krazit, Tom. «Nvidia to acquire Ageia for the PhysX chip». CNET (en inglés). Consultado el 11 de enero de 2023.
- ↑ Stokes, Jon (9 de julio de 2010). «Did NVIDIA cripple its CPU gaming physics library to spite Intel?». Ars Technica (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Nvidia GPU Class-Action Settlement Offers Repairs, New Laptops». PCMAG (en inglés). Consultado el 11 de enero de 2023.
- ↑ «Update: Nvidia Says Older Mobile GPUs, Chipsets Failing | ExtremeTech». www.extremetech.com. Consultado el 11 de enero de 2023.
- ↑ «Intel agrees to pay NVIDIA $1.5b in patent license fees, signs cross-license». Engadget (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ published, Dan Grabham (9 de noviembre de 2011). «Nvidia Tegra 3: what you need to know». TechRadar (en inglés). Consultado el 11 de enero de 2023.
- ↑ «Nvidia Quad Core Mobile Processors Coming in August». PCWorld (en inglés). Consultado el 11 de enero de 2023.
- ↑ Seifert, Dan (7 de enero de 2013). «Nvidia announces Project Shield handheld gaming system with 5-inch multitouch display, available in Q2 of this year». The Verge (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Black, Doug (30 de julio de 2013). «NVIDIA Pushes Further into HPC With Portland Group Acquisition - insideHPC». High-Performance Computing News Analysis | insideHPC (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Machkovech, Sam (12 de mayo de 2014). «Half-Life 2, Portal see first-ever Android ports on Nvidia Shield». Ars Technica (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Nvidia CEO Jensen Huang weighs in on the metaverse, blockchain, and chip shortage». VentureBeat (en inglés estadounidense). 12 de junio de 2021. Consultado el 11 de enero de 2023.
- ↑ Team, Trefis. «Nvidia's Performance In 2014: Factors That Are Driving Growth». Forbes (en inglés). Consultado el 11 de enero de 2023.
- ↑ Savov, Vlad (7 de mayo de 2016). «Nvidia's new graphics cards are a big deal». The Verge (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Walton, Mark (7 de mayo de 2016). «Nvidia’s GTX 1080 and GTX 1070 revealed: Faster than Titan X at half the price». Ars Technica (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Nvidia’s Ansel, VR Funhouse apps will enhance screenshots, showcase company’s VR technology | ExtremeTech». www.extremetech.com. Consultado el 11 de enero de 2023.
- ↑ Crider, Michael. «What Are NVIDIA MAX-Q Laptops?». How-To Geek (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Smith, Ryan. «Update: NVIDIA GeForce GTX 970 Settlement Claims Website Now Open». www.anandtech.com. Consultado el 11 de enero de 2023.
- ↑ «Nvidia says Toyota will use its AI technology for self-driving cars». Reuters (en inglés). 10 de mayo de 2017. Consultado el 11 de enero de 2023.
- ↑ Vena, Danny (7 de julio de 2017). «NVIDIA and Baidu Join Forces in Far-Reaching AI Partnership». The Motley Fool (en inglés). Consultado el 11 de enero de 2023.
- ↑ «NVIDIA TITAN V Transforms the PC into AI Supercomputer». NVIDIA Newsroom (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Introducing NVIDIA TITAN V: The World’s Most Powerful PC Graphics Card». NVIDIA (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «News Archive». NVIDIA Newsroom (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Lardinois, Frederic (6 de agosto de 2018). «Google Cloud gets support for Nvidia's Tesla P4 inferencing accelerators». TechCrunch (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «- When will the Nvidia Web Drivers be released for macOS Mojave 10.14 -». NVIDIA Developer Forums. 5 de octubre de 2018. Consultado el 11 de enero de 2023.
- ↑ «Upgrade to macOS Ventura - Official Apple Support». support.apple.com. Consultado el 11 de enero de 2023.
- ↑ «Install macOS 10.14 Mojave on Mac Pro (Mid 2010) and Mac Pro (Mid 2012)». Apple Support (en inglés). Consultado el 11 de enero de 2023.
- ↑ «CUDA 10 and macOS 10.14». NVIDIA Developer Forums. 28 de septiembre de 2018. Consultado el 11 de enero de 2023.
- ↑ «FAQ about MacOS 10.14 (Mojave) NVIDIA drivers». NVIDIA Developer Forums. 18 de octubre de 2018. Consultado el 11 de enero de 2023.
- ↑ Maislinger, Florian (22 de enero de 2019). «Apple and Nvidia are said to have a silent hostility». PC Builder's Club (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Apple's management doesn't want Nvidia support in macOS, and that's a bad sign for the Mac Pro». AppleInsider (en inglés). Consultado el 11 de enero de 2023.
- ↑ «Video: Nvidia support was abandoned in macOS Mojave, and here's why». AppleInsider (en inglés). Consultado el 11 de enero de 2023.
- ↑ «Why Apple's new GPU efforts are a major disruptive threat to Nvidia». AppleInsider (en inglés). Consultado el 11 de enero de 2023.
- ↑ «Install macOS 10.14 Mojave on Mac Pro (Mid 2010) and Mac Pro (Mid 2012)». Apple Support (en inglés). Consultado el 11 de enero de 2023.
- ↑ «Nvidia to buy Israel's Mellanox for $6.8 billion in a data center push». CNBC (en inglés). Consultado el 11 de enero de 2023.
- ↑ Byford, Sam (27 de mayo de 2019). «Nvidia announces RTX Studio laptops aimed at creators». The Verge (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Minecraft with RTX: The World’s Best Selling Videogame Is Adding Ray Tracing». www.nvidia.com (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Etherington, Darrell (1 de mayo de 2020). «Nvidia's top scientist develops open-source ventilator that can be built with $400 in readily available parts». TechCrunch (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «NVIDIA’s New Ampere Data Center GPU in Full Production». NVIDIA Newsroom (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «NVIDIA A100 GPUs Power the Modern Data Center». NVIDIA (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Nvidia in talks to buy Arm from SoftBank for more than $32bn | Financial Times | Ghostarchive». ghostarchive.org. Archivado desde el original el 10 de diciembre de 2022. Consultado el 11 de enero de 2023.
- ↑ «NVIDIA Delivers Greatest-Ever Generational Leap with GeForce RTX 30 Series GPUs». NVIDIA Newsroom (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «Introducing NVIDIA GeForce RTX 30 Series Graphics Cards». NVIDIA (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «SoftBank set to sell UK’s Arm Holdings to Nvidia for $40bn | Financial Times | Ghostarchive». ghostarchive.org. Archivado desde el original el 10 de diciembre de 2022. Consultado el 11 de enero de 2023.
- ↑ Shead, Sam. «Nvidia pledges to build Britain’s largest supercomputer following $40 billion bid for Arm». CNBC (en inglés). Consultado el 11 de enero de 2023.
- ↑ Browne, Ryan. «Nvidia's $40 billion Arm takeover warrants an in-depth competition probe, UK regulator says». CNBC (en inglés). Consultado el 21 de enero de 2023.
- ↑ Wall, Robert. «Nvidia, SoftBank Call Off Blockbuster Arm Deal». WSJ (en inglés estadounidense). Consultado el 21 de enero de 2023.
- ↑ Clark, Mitchell (27 de octubre de 2021). «EU opens formal investigation into Nvidia’s Arm acquisition». The Verge (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ Chee, Foo Yun (27 de octubre de 2021). «Setback for Nvidia's $54 bln ARM bid as EU regulators open probe». Reuters (en inglés). Consultado el 11 de enero de 2023.
- ↑ Titcomb, James (25 de febrero de 2022). «US microchip powerhouse Nvidia hit by cyber attack». The Telegraph (en inglés británico). ISSN 0307-1235. Consultado el 11 de enero de 2023.
- ↑ «Nvidia CEO to Look at Intel for Foundry, Says Shift Will Be Hard». Bloomberg.com (en inglés). 23 de marzo de 2022. Consultado el 11 de enero de 2023.
- ↑ «Tech Giant NVIDIA to Open Research Center in Armenia – Asbarez.com» (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ «NVIDIA reveals its next-gen chipset for autonomous vehicles». Engadget (en inglés estadounidense). Consultado el 11 de enero de 2023.
- ↑ CORPORATION, NVIDIA (20 de septiembre de 2022). «NVIDIA Unveils DRIVE Thor — Centralized Car Computer Unifying Cluster, Infotainment, Automated Driving, and Parking in a Single, Cost-Saving System». GlobeNewswire News Room (en inglés). Consultado el 11 de enero de 2023.
- ↑ Lee, Jane Lanhee (8 de noviembre de 2022). «Exclusive: Nvidia offers new advanced chip for China that meets U.S. export controls». Reuters (en inglés). Consultado el 11 de enero de 2023.
- ↑ David, Emilia (25 de septiembre de 2023). «Getty made an AI generator that only trained on its licensed images». The Verge (en inglés). Consultado el 29 de noviembre de 2023.
- ↑ Nellis, Stephen (24 de octubre de 2023). «Exclusive: Nvidia to make Arm-based PC chips in major new challenge to Intel». Reuters (en inglés). Consultado el 29 de noviembre de 2023.
- ↑ «NVIDIA Announces Four-for-One Stock Split, Pending Stockholder Approval at Annual Meeting Set for June 3». NVIDIA Newsroom (en inglés estadounidense). Consultado el 10 de enero de 2023.
- ↑ «Self-Driving Cars Technology & Solutions from NVIDIA Automotive». NVIDIA (en inglés estadounidense). Consultado el 31 de enero de 2023.
- ↑ Loughran, Jack (29 de septiembre de 2016). «Nvidia unveils driverless car OS and partnership with TomTom». eandt.theiet.org (en inglés estadounidense). Consultado el 31 de enero de 2023.
- ↑ «NVIDIA BlueField Data Processing Units(DPUs)». NVIDIA (en inglés estadounidense). Consultado el 31 de enero de 2023.
- ↑ Deierling, Kevin (21 de mayo de 2020). «What Is a DPU?». NVIDIA Blog (en inglés estadounidense). Consultado el 31 de enero de 2023.
- ↑ «NVIDIA Announces CPU for Giant AI and High Performance Computing Workloads». NVIDIA Newsroom (en inglés estadounidense). Consultado el 31 de enero de 2023.
- ↑ «Introducing Grace». NVIDIA (en inglés estadounidense). Consultado el 31 de enero de 2023.
- ↑ «GPUs NVIDIA Quadro para Workstations de Diseño». NVIDIA. Consultado el 12 de enero de 2023.
- ↑ Puerto, Kote (26 de julio de 2016). «Las gráficas más potentes de Nvidia conocen a Pascal: Quadro P6000 y P5000». Xataka. Consultado el 12 de enero de 2023.
- ↑ «Soluciones de Supercomputación NVIDIA Tesla». NVIDIA. Consultado el 12 de enero de 2023.
- ↑ «Nvidia lanza la Tesla T4, la tarjeta más rápida para centros de datos». Profesional Review. 13 de septiembre de 2018. Consultado el 12 de enero de 2023.
- ↑ Estapé, Juan Antonio Pascual (13 de mayo de 2017). «NVIDIA Tesla V100, cinco veces más potente que una GTX 1080». Computer Hoy. Consultado el 12 de enero de 2023.
- ↑ Espeso, Pablo (7 de enero de 2013). «NVidia GRID es otro intento por llevar los videojuegos a 'la nube'». Xataka. Consultado el 12 de enero de 2023.
- ↑ «Familia de motherboards con chipset NVIDIA para la plataforma AMD». Consultado el 31 de enero de 2023.
- ↑ Ritger, Andy (Mon Sep 23 21:44:57 PDT 2013). «[Nouveau] offer to help, DCB». Consultado el 31 de enero de 2023.
- ↑ «nv». www.x.org. Consultado el 31 de enero de 2023.
- ↑ Savov, Vlad (17 de junio de 2012). «Linus Torvalds: 'fuck you, Nvidia' for not supporting Linux». The Verge (en inglés estadounidense). Consultado el 31 de enero de 2023.
- ↑ «X.org, distributors, and proprietary modules [LWN.net]». lwn.net. Consultado el 31 de enero de 2023.
- ↑ Luke Benstead. «An overview of graphic card manufacturers and how well they work with Ubuntu». Archivado desde el original el 13 de enero de 2011. Consultado el 31 de enero de 2023.
- ↑ «Unix Drivers | NVIDIA». www.nvidia.com. Consultado el 31 de enero de 2023.
- ↑ published, Kevin Parrish (3 de octubre de 2013). «Nvidia Removed Linux Driver Feature Due to Windows». Tom's Hardware (en inglés). Consultado el 31 de enero de 2023.
- ↑ «NVIDIA Begins Requiring Signed GPU Firmware Images - Slashdot». hardware.slashdot.org (en inglés). Consultado el 31 de enero de 2023.
- ↑ «Linux-Firmware Adds Signed NVIDIA Firmware Binaries For Turing's Type-C Controller». www.phoronix.com (en inglés). Consultado el 31 de enero de 2023.
- ↑ «The Open-Source NVIDIA "Nouveau" Driver Gets A Batch Of Fixes For Linux 5.3». www.phoronix.com (en inglés). Consultado el 31 de enero de 2023.
- ↑ «NVIDIA Releases Open-Source GPU Kernel Modules». NVIDIA Technical Blog (en inglés estadounidense). 19 de mayo de 2022. Consultado el 31 de enero de 2023.
- ↑ «NVIDIA Transitioning To Official, Open-Source Linux GPU Kernel Driver». www.phoronix.com (en inglés). Consultado el 31 de enero de 2023.
- ↑ NVIDIA Linux Open GPU Kernel Module Source, NVIDIA Corporation, 31 de enero de 2023, consultado el 31 de enero de 2023.
- ↑ Merino, Marcos (21 de marzo de 2019). «Así funciona GauGAN, la herramienta de Nvidia que permite crear paisajes 'fake' a partir de simples bocetos». Xataka. Consultado el 21 de diciembre de 2019.
- ↑ Naranjo, David (20 de marzo de 2019). «GauGAN: la AI de NVIDIA convierte bocetos en paisajes fotorrealistas». Desde Linux. Consultado el 21 de diciembre de 2019.
- ↑ Pérez, Nacho (30 de julio de 2019). «GauGAN, la app de NVIDIA que va a revolucionar el arte digital». Qué!. Consultado el 21 de diciembre de 2019.
- ↑ Álvarez, Raúl (15 de febrero de 2019). «'Esta persona no existe', la inquietante web que usa inteligencia artificial para generar rostros de personas que no son reales». Xataka. Consultado el 21 de diciembre de 2019.
- ↑ Brownlee, Jason (18 de agosto de 2019). «A Gentle Introduction to StyleGAN the Style Generative Adversarial Network». Machine Learning Mastery (en inglés estadounidense). Consultado el 21 de diciembre de 2019.
- ↑ «NVIDIA lanza DIB-R». MR Informática. Consultado el 21 de diciembre de 2019.
- ↑ García, José (11 de diciembre de 2019). «DIB-R, la nueva inteligencia artificial de NVIDIA capaz de crear modelos en 3D a partir de una simple foto». Xataka. Consultado el 21 de diciembre de 2019.
Enlaces externos
[editar]- Wikimedia Commons alberga una categoría multimedia sobre Nvidia.
- Página oficial de NVIDIA