top of page
  • Writer's picturecriptodiadia

Nvidia presenta nuevos chips y servicios de IA

Nvidia en la conferencia GTC 2022 presentó procesadores para procesar tareas de inteligencia artificial, así como una serie de servicios para desarrolladores.

Foto: nvidia.


El CEO del gigante tecnológico, Jensen Huang, mostró una nueva generación de tarjetas gráficas GeForce RTX Serie 40. Los aceleradores se basan en la arquitectura Ada Lovelace y están representados por dos modelos: RTX 4090 y RTX 4080 en dos modificaciones de memoria.


Los chips se fabrican utilizando una tecnología de proceso de 4nm y contienen hasta 76 mil millones de transistores. Las características clave de la nueva arquitectura son la tercera generación de núcleos RT y la cuarta generación de núcleos tensor.

Comparación de la arquitectura de Ada Lovelace con sus predecesoras. Datos: Nvidia.


La tarjeta gráfica GeForce RTX 4090 está equipada con 24 GB de memoria GDDR6X. Según Huang, el acelerador contiene 16.384 núcleos CUDA y cuatro veces el rendimiento del RTX 3090.


La novedad aparecerá a la venta el 12 de octubre a un precio de $1599.

GeForce RTX 4090. Datos: Nvidia.


GeForce RTX 4080 16 GB contiene 9728 núcleos CUDA. La versión más joven de 12 GB está equipada con 7680 núcleos CUDA.


Ambas tarjetas saldrán a la venta en noviembre por $1,199 y $899, respectivamente.

GeForce RTX 4080. Datos: Nvidia.


Huang anunció una nueva versión del escalador de IA para juegos DLSS 3. Según él, en algunos proyectos, el algoritmo aumenta el FPS cuatro veces sin perder calidad y suavidad de la imagen.


DLSS 3 solo estará disponible en la serie GeForce RTX 40.


Huang también anunció el inicio de la producción en masa de chips de servidor Nvidia H100. Según él, los nuevos aceleradores son 3,5 veces más eficientes que sus predecesores. Esto le permite reducir el costo de propiedad de los servidores, reducir la cantidad de nodos y mantener el nivel de rendimiento de la IA.


El responsable de la compañía anunció el sistema en un chip (SoC) Drive Thor para vehículos autónomos. Según el comunicado, la plataforma proporcionará un rendimiento de 2000 teraflops.


Los primeros autos en SoC Drive Thor no aparecerán antes de 2025.


Nvidia ha anunciado una plataforma de servicios para crear grandes modelos de lenguaje. NeMo LLM es para la generación y el resumen de texto, mientras que BioNeMo LLM es para la predicción de la estructura de proteínas, el desarrollo de fármacos y otras investigaciones médicas.


La compañía también presentó su propia plataforma en la nube Omniverse Cloud Services para crear y mantener aplicaciones de metaverso e inteligencia artificial. El servicio incluye:

  • Omniverse Nucleus Cloud: una plataforma para crear objetos y escenas en 3D;

  • Omniverse App Streaming es un servicio de transmisión para aplicaciones que utilizan aceleradores RTX;

  • Omniverse Replicator - generador de datos sintéticos;

  • Omniverse Farm es una plataforma para ejecutar múltiples instancias de computación en la nube;

  • NVIDIA Isaac Sim, una aplicación de simulación de robótica y generación de datos sintéticos;

  • NVIDIA DRIVE Sim™ es una plataforma de simulación para ejecutar simulaciones de vehículos autónomos.

Algunos servicios de la plataforma en la nube ya están disponibles para los usuarios.


Recuerde que en marzo, Nvidia presentó una nueva generación de chips AI para servidor H100 y Grace CPU Superchip.


En abril, el gigante tecnológico anunció el uso de inteligencia artificial para el desarrollo de GPU.


En septiembre, el gobierno de EE. UU. restringió la exportación de chips Nvidia H100 a Rusia y China.


Suscríbase a las noticias de CriptoDia en Telegram: https://t.me/CriptoDiaEs

Nuestro canal de Youtube: CriptoDia


#Nvidia

bottom of page