Índice
Este lunes 18, el NVIDIA realizó su esperada presentación del GTC 2024 (Conferencia de tecnología GPU), aclamada por la empresa como "la principal conferencia de IA para desarrolladores". Este evento anual es un lugar de encuentro para expertos, investigadores, desarrolladores y aficionados, que se reúnen para explorar y debatir las últimas tendencias e innovaciones en informática de alto rendimiento, inteligencia artificial, aprendizaje automático, juegos y una amplia gama de otras áreas.
Durante el evento de este año, la compañía reveló su última arquitectura, la Blackwell, dedicada al avance de la inteligencia artificial. Además, presentó su nuevo superordenador, el SuperPOD DGX, noticias sobre el Nube Omniverso, junto con otros anuncios increíbles. Consulte los anuncios a continuación NVIDIA na GTC 2024.
La nueva arquitectura Blackwell de NVIDIA
O Blackwell es la nueva e innovadora arquitectura GPU de NVIDIA que promete definir una nueva era en informática e inteligencia artificial generativa (IA). Con recursos revolucionarios en el mercado tecnológico, la Blackwell está destinado a desempeñar un papel clave en una amplia gama de industrias, desde el procesamiento y la automatización de datos hasta la computación cuántica.
La IA generativa es la tecnología que define nuestro tiempo. Blackwell es el motor que impulsa esta nueva revolución industrial. Al trabajar con las empresas más dinámicas del mundo, haremos realidad la promesa de la IA para todas las industrias.
Jensen Huang, fundador y director ejecutivo de NVIDIA.
Con parámetros que garantizan costos operativos y consumo de energía hasta 25 veces menores que su predecesor, el Blackwell introduce nuevas tecnologías revolucionarias, que permiten el entrenamiento de IA en modelos LLM (como ChatGPT) para escalas de hasta 10 billones de parámetros diferentes, aumentando considerablemente la capacidad de interpretar datos y proporcionar respuestas y soluciones inteligentes.
En primer lugar, la propia empresa destaca como “el chip más potente del mundo”. Con la increíble cantidad de 208 mil millones de transistores, GPU Blackwell se producen mediante un proceso TSMC 4NP personalizado, estableciendo un nuevo estándar de potencia y eficiencia. La arquitectura emplea un enfoque único con dos retículas por chip GPU, interconectadas a través de un enlace de chip a chip de 10 TB/segundo, lo que da como resultado una única GPU unificada con capacidades de procesamiento sin precedentes.
Desarrollado por un nuevo soporte de escalamiento microtensor y algoritmos avanzados de gestión de rango dinámico, permitirán que la arquitectura Blackwell duplicar la potencia informática y el tamaño de los modelos, lo que ofrece nuevas capacidades de inferencia de IA de punto flotante (puntos flotantes) 4 bits.
O NVLink La quinta generación es otra tecnología crucial, que proporciona una rendimiento Innovador bidireccional 1,8 TB/s por GPU. Esto permite la comunicación de alta velocidad entre hasta 576 GPU, acelerando el rendimiento de modelos complejos de IA con múltiples billones de parámetros y una combinación de expertos.
Adicionalmente, GPU Blackwell incluir la motor RAS (Fiabilidad, disponibilidad e Utilidad, en inglés), con un motor dedicado para garantizar confiabilidad, disponibilidad y capacidad de servicio. La arquitectura también utiliza mantenimiento preventivo basado en IA para diagnosticar y predecir problemas de confiabilidad, maximizando el tiempo de actividad del sistema y reduciendo los costos operativos en implementaciones de IA a gran escala.
La seguridad es prioridad y en las nuevas arquitecturas Blackwell Se proporcionarán capacidades informáticas confidenciales avanzadas. Esto protege los modelos de IA y los datos de los clientes sin comprometer el rendimiento, con soporte para nuevos protocolos de cifrado de interfaz nativos, especialmente importantes para industrias sensibles a la privacidad, como la atención médica y los servicios financieros.
Finalmente, el motor de descompresión dedicado acelera las consultas a la base de datos para ofrecer el mayor rendimiento en análisis y ciencia de datos. Esta funcionalidad es crucial considerando el creciente volumen de datos y la demanda de un análisis rápido y eficiente.
Juntas, estas nuevas tecnologías posicionan la arquitectura Blackwell como líder indiscutible en potencia, eficiencia y seguridad para aplicaciones de inteligencia artificial, HPC y análisis de datos en el futuro del mercado de procesamiento.
Productos derivados de la tecnología Blackwell Estará listo para el mercado a través de asociaciones estratégicas a finales de este año. Entre los pioneros en ofrecer servicios en la nube impulsados por la tecnología Blackwell, los gigantes destacan AWS, Google Cloud, Microsoft Azure y Oracle Cloud, así como participantes en el programa de asociación en la nube de la empresa. NVIDIATal como Digital Aplicado, CoreWeave, Crusoe, IBM Cloud y Lambda. Además, plataformas de IA como Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud y Oracle EU Sovereign Cloud, entre otros, también proporcionará servicios de nube e infraestructura utilizando el Blackwell.
Además, la NVIDIA También presentó un nuevo superchip que fue posible gracias a la tecnología. Blackwell,el NVIDIA GB200 Grace Blackwell. Este nuevo chip conecta dos GPU tensoriales NVIDIA B200 Core à gracia de la cpu da NVIDIA a través de una interconexión de chip a chip de potencia ultrabaja NVLink de 900 GB/s. La plataforma actúa como una única GPU con 1,4 exaflops de rendimiento de IA y 30 TB de memoria rápida, y es un componente básico para lo último. SuperPOD DGX, que comentaremos a continuación.
El nuevo GB200 será parte del sistema NVIDIA GB200 NVL72 para cargas de trabajo informáticas aún más intensivas. Combina 36 Superchips Grace Blackwell, que incluyen 72 GPU Blackwell y 36 CPU Grace interconectados por NVLink quinta generación y promete ofrecer hasta 30 veces más rendimiento respecto al mismo número de GPU Tensor Core H100 da NVIDIA para cargas de trabajo de inferencia LLM y reduce el costo y el consumo de energía hasta 25 veces.
La supercomputadora de IA de próxima generación
Entre los anuncios de NVIDIA alrededor de la arquitectura Blackwell, la SuperPOD DGX, la próxima supercomputadora de la compañía con potencia informática de generación de IA en una escala de billones de parámetros. Desarrollado por superchips Gracia Blackwell GB200, el nuevo SuperPOD DGX está construido con sistemas NVIDIA DGXTM GB200 y proporciona 11,5 exaflops de supercomputación de IA con precisión FP4 y 240 terabytes de memoria, lo que le permite escalar aún más con bastidores adicionales.
O SuperPOD DGX Se compone de ocho o más sistemas. DGX GB200, con la capacidad de expandirse a decenas de miles de Superchips GB200 interconectados a través de la tecnología NVIDIA Quantum InfiniBand. Para crear un espacio de memoria compartido considerable y admitir modelos de IA de próxima generación, los clientes pueden implementar una configuración que conecte 576 GPU. Blackwell presente en ocho sistemas DGX GB200 vía NVLink.
El nuevo DGX SuperPOD combina los últimos avances en informática acelerada, redes y software de NVIDIA para permitir que cada empresa, industria y país refine y genere su propia IA.
Jensen Huang, fundador y director ejecutivo de NVIDIA.
El nuevo SuperPOD DGX es una supercomputadora de IA completa diseñada para escalar centros de datos que se integra perfectamente con el almacenamiento de alto rendimiento proporcionado por socios certificados por NVIDIA para satisfacer las demandas de las cargas de trabajo de IA generativas. Cada unidad se ensambla, conecta y prueba en la fábrica, lo que resulta en una implementación rápida y eficiente en los centros de datos de los clientes.
Además, la supercomputadora viene equipada con capacidades avanzadas de gestión predictiva, capaces de monitorear continuamente miles de puntos de datos en hardware y software. Esto le permite predecir y corregir posibles fuentes de tiempo de inactividad e ineficiencia, lo que resulta en ahorros de tiempo, energía y costos computacionales.
El software integrado es capaz de detectar posibles problemas en un sistema, planificar el mantenimiento, ajustar de manera flexible los recursos informáticos e incluso guardar y reanudar tareas automáticamente para evitar interrupciones, incluso en ausencia de administradores del sistema. Si se identifica la necesidad de reemplazar un componente, el clúster puede activar su capacidad de reserva para garantizar que el trabajo en curso se complete a tiempo.
Además del nuevo superordenador, el NVIDIA también presentó el DGX B200, una plataforma de supercomputación de IA unificada diseñada para el entrenamiento, el ajuste y la inferencia de modelos. Presenta el sistema DGX B200, que es la sexta generación de diseños. DGX montado en bastidor. El sistema incluye ocho GPU. Núcleo tensor NVIDIA B200 y dos procesadores Intel Xeon 5ma generación.
Ofrece un rendimiento de IA de hasta 144 petaflops, 1.4 TB de memoria GPU y 64 TB/s de ancho de banda de memoria, lo que ofrece una inferencia en tiempo real 15 veces más rápida para modelos de billones de parámetros en comparación con la generación anterior. los sistemas DGX B200 También tiene funciones de red avanzadas, que incluyen NIC NVIDIA ConnectXTM-7 e DPU BlueField-3, que proporciona hasta 400 gigabits por segundo de ancho de banda por conexión, lo que garantiza un rápido rendimiento de la IA con plataformas de red NVIDIA Quantum-2 InfiniBand e Ethernet NVIDIA SpectrumTM-X.
O SuperPOD NVIDIA DGX con DGX GB200 y sistemas DGX B200 estará disponible en 2024 para los socios globales de NVIDIA.
Serie X800, los nuevos conmutadores de red de NVIDIA
A NVIDIA También anunció hoy el nuevo X800, la serie de conmutadores de la empresa diseñados para el procesamiento de IA a gran escala. Las series Banda InfiniBand Quantum-X800 e Ethernet del espectro-X800 son los primeros del mundo con capacidad de rendimiento de extremo a extremo de 800 Gb/s, superando los límites del rendimiento de la red para cargas de trabajo de computación e inteligencia artificial.
Estos conmutadores cuentan con software avanzado que potencia aún más la IA, la computación en la nube, el procesamiento de datos y las aplicaciones HPC (Computación de alto rendimiento) en todo tipo de centros de datos. Están especialmente diseñados para integrarse perfectamente con la línea de productos recientemente lanzada basada en la arquitectura. Blackwell da NVIDIA, asegurando un rendimiento excepcional en todos los aspectos.
Entre los primeros en adoptar estas innovaciones se encuentran gigantes de la computación en la nube como Microsoft Azure y Oracle Cloud, destacando la relevancia y el impacto de esta tecnología en el avance de la IA a escala global. Además tejido de núcleo, una empresa líder en infraestructura de computación en la nube, también se encuentra entre las primeras en adoptar estas innovaciones, lo que demuestra la rápida aceptación y relevancia de estos avances en la industria.
Esta nueva serie de conmutadores establece un nuevo estándar en infraestructura dedicada a la IA, ofreciendo el mayor rendimiento y funciones avanzadas para satisfacer las demandas cada vez mayores de las aplicaciones de IA empresariales y en la nube. Con promesas de mejoras significativas en la velocidad de procesamiento, análisis y ejecución de cargas de trabajo de IA, esta tecnología promete acelerar el desarrollo y la implementación de soluciones de IA en todo el mundo.
NVIDIA anuncia un simulador meteorológico de IA
A NVIDIA también anunció hoy, durante la GTC 2024, el lanzamiento de su último simulador meteorológico, Earth-2, marcando un gran avance en el campo de la modelización climática. Desarrollado con tecnología de inteligencia artificial de última generación, Earth-2 ofrece una plataforma en la nube para simular y visualizar el clima global a una escala sin precedentes.
Una de las características más impresionantes de la Earth-2 es el uso de API que emplean modelos avanzados de IA, incluido el revolucionario CorrDiff, que genera imágenes con una resolución 12,5 veces mayor que los modelos numéricos actuales, en una fracción del tiempo y consumo de energía. Esta capacidad de generar simulaciones de alta resolución con una velocidad y eficiencia energética sin precedentes es un logro notable en el campo de la modelización climática.
Además, la Earth-2 usa el Nube DGX da NVIDIA para proporcionar aceleración total para soluciones climáticas y meteorológicas, incluidas canalizaciones de IA optimizadas y aceleración de GPU para modelos numéricos de predicción meteorológica. Esto significa que los usuarios de Earth-2 tener acceso a una amplia gama de herramientas y recursos para crear simulaciones climáticas precisas y detalladas a diferentes escalas, desde la atmósfera global hasta eventos climáticos locales específicos, como tifones y turbulencias.
empresas como The Weather Company están explorando formas de integrar datos meteorológicos del Earth-2 con sus herramientas de visualización, lo que permite a los clientes comprender mejor el impacto de las condiciones climáticas reales en sus operaciones y planificación. Otras empresas, como Aguja y meteomática, están aprovechando los recursos de Earth-2 para mejorar la precisión de sus pronósticos meteorológicos y brindar información más precisa a sus clientes.
En última instancia, el Earth-2 representa un paso hacia una comprensión más profunda y precisa del clima global y los fenómenos meteorológicos extremos. Con su tecnología de vanguardia y su amplia gama de aplicaciones potenciales, este nuevo simulador tiene el potencial de cambiar la forma en que entendemos y nos preparamos para los desafíos climáticos del siglo XXI.
Disponibilidad de las API de Omniverse Cloud
Na GTC 2024, NVIDIA anunció la disponibilidad de API de Nube Omniverso el cual puede ser utilizado por desarrolladores y empresas, brindando una mayor integración con los principales software de diseño y automatización del mercado.
Con el API de la nube Omniverse, los desarrolladores ahora pueden integrar fácilmente las tecnologías centrales de Omniverso directamente en aplicaciones de software existentes, impulsando la creación, simulación y operación de gemelos digitales basados en la física. Este nuevo desarrollo representa un hito importante en la capacidad de las empresas para diseñar, probar y validar productos y procesos de forma virtual, incluso antes de que se construyan en el mundo físico.
Las cinco nuevas API de Nube Omniverso, que pueden usarse individual o colectivamente, incluyen:
- Rendimiento en USD – genera renders totalmente trazado de rayos Datos RTX™ AbiertoUSD.
- Escritura en USD – permite a los usuarios modificar e interactuar con los datos AbiertoUSD.
- Consulta USD – permite consultas y escenarios interactivos.
- Notificar en USD – rastrea los cambios en USD y proporciona actualizaciones.
- Canal Omniverso – conecta usuarios, herramientas y mundos para permitir la colaboración entre escenas.
Grandes nombres de la industria ya están adoptando API de Nube Omniverso en sus carteras de software. Por ejemplo, empresas como Siemens, Ansys, Cadence, Dassault Systèmes, entre otros, están integrando las tecnologías de Omniverso para ofrecer a los clientes una experiencia aún más inmersiva y funcional.
Estos avances no solo prometen revolucionar la forma en que las empresas diseñan, construyen y operan productos y procesos industriales, sino que también tienen el potencial de impulsar la competitividad, la resiliencia y la sostenibilidad de las empresas en todo el mundo.
Las empresas adoptan NVIDIA DRIVE Thor en el transporte
Por último, la NVIDIA también comentó en su presentación en el GTC 2024, sobre la adopción del IMPULSAR EL Thor por el sector del transporte y diversas empresas.
O CONDUCIR Thor es mucho más que un simple ordenador de coche, es una pieza fundamental en la transformación del sector del transporte, impulsando desde vehículos de pasajeros hasta camiones de larga distancia, pasando por robot-taxis y vehículos autónomos de reparto. Con su arquitectura, el Thor ofrece no solo capacidades avanzadas de cabina, sino también conducción segura, automatizada y autónoma, todo en una plataforma centralizada, utilizando procesadores de nueva arquitectura. Blackwell da NVIDIA, permitiendo el procesamiento con LLM e IA generativas para la toma de decisiones.
Varias empresas líderes del sector del vehículo eléctrico ya han adoptado la CONDUCIR Thor en tus proyectos de próxima generación. A BYD, un gigante mundial de la industria automotriz, está ampliando su colaboración con NVIDIA, incorporando Thor a sus flotas de vehículos eléctricos. Además Hiper y XPENG están entre las empresas que eligieron Thor para impulsar sus futuras flotas de vehículos autónomos.
Además, DRIVE Thor está ganando protagonismo en el sector del transporte de mercancías y la logística. Empresas como Nuro, Plus, Waabi y WeRide están liderando el camino en la adopción de este avanzado sistema de IA para sus proyectos de conducción autónoma. Desde el desarrollo de tecnologías de conducción para vehículos comerciales y de consumo hasta la creación de soluciones de transporte autónomo a escala, estas empresas confían en el poder y la eficacia de CONDUCIR Thor para impulsar la innovación en sus respectivos campos.
Con su lanzamiento previsto para vehículos de producción el próximo año, el CONDUCIR Thor promete revolucionar la industria automotriz, con su rendimiento y su capacidad para proporcionar una conducción autónoma confiable.
fuente: NVIDIA.
Ver más
Revisado por Glaucón Vital en 18 / 3 / 24.
Descubra más sobre Showmetech
Regístrate para recibir nuestras últimas novedades por correo electrónico.