Índice
Durante el Microsoft Ignite, evento tradicional del creador de Windows, NVIDIA anunció muchas características nuevas para desarrolladores de aplicaciones para computadoras de escritorio y portátiles. Además del apoyo a ChatGPT Ya se implementará en el desarrollo de aplicaciones para Windows, se anunciaron novedades sobre Omniverse y la creación de modelos de lenguaje personalizados. Ver todo ahora mismo.
Mayor apoyo al desarrollo local
Actualmente, el número de desarrolladores que necesitan utilizar el poder de rendimiento de una nube para crear aplicaciones sigue siendo alto, ya que sus computadoras no cuentan con la potencia gráfica para realizar las tareas de manera fluida. Pero cualquiera que tenga al menos una tarjeta gráfica de la serie NVIDIA RTX lo dejará en el pasado.
A través de una actualización del TensorRT-LLM, software de código abierto que aumenta el rendimiento de la inferencia de IA, el NVIDIA permitirá que las aplicaciones se desarrollen localmente en lugar de en la nube. Por supuesto, estos servidores proporcionan seguridad total, pero la compañía también espera que, con los datos de desarrollo guardados en el propio PC del desarrollador, todo se mantenga aún más seguro.
Una herramienta que lleva el nombre Banco de trabajo de IA También se anunció: en la práctica, el conjunto de herramientas de desarrollo de aplicaciones se puede utilizar para crear, probar y personalizar modelos de IA generativa previamente entrenados. También será posible hacerlo localmente, en tu PC personal o estación de trabajo, sin necesidad de enviarlo a la nube. AI Workbench tiene una “plataforma única” para organizar proyectos de IA y ajustarlos a casos específicos.
Es posible demostrar interés en probar las nuevas funciones a través de registrarse en una lista de espera; Aún no hay una fecha firme para el lanzamiento de todo, pero se espera que aparezcan más novedades durante el CES 2024.
Con solo cambiar una o dos líneas de código, cientos de proyectos y aplicaciones de desarrolladores impulsados por IA ahora pueden beneficiarse de una IA local rápida. Los usuarios pueden guardar sus datos en su PC y no preocuparse por cargar conjuntos de datos en la nube.
Quizás la mejor parte es que muchos de estos proyectos y aplicaciones son de código abierto, lo que facilita a los desarrolladores aprovechar y ampliar sus capacidades para impulsar la adopción de IA generativa en Windows, impulsada por RTX.
El contenedor funcionará con cualquier LLM que haya sido optimizado para TensorRT-LLM (por ejemplo, Llama 2, Mistral y NV LLM) y se publique como proyecto de referencia en GitHub, junto con otros recursos para desarrolladores para trabajar con LLM en RTX.
NVIDIA en la actualización del kit de desarrollo TensorRT-LMM
Desarrollo optimizado
Otro anuncio que involucra a NVIDIA y Microsoft es que API DirectML se lanzará para permitir que el mismo proyecto de IA se utilice en diferentes modelos. Esto evita tener que reelaborar la misma idea para diferentes modelos. Entre los ejemplos mencionados, será posible utilizar IA como Llama 2 y Stable Diffusion para crear otras aplicaciones.
Las empresas también confirman que el desarrollo local será posible, con el requisito de que los desarrolladores hagan todo directamente desde sus computadoras, sin necesidad de enviar o guardar todo en la nube.
La nueva función estará disponible a partir del 21 de noviembre y es necesario seguir las instrucciones del Microsoft después de instalar el controlador, a través del Sitio web de NVIDIA.
RAG para hacer que las IA sean más confiables
Siendo el acrónimo de Generación aumentada de recuperación, traducido directamente a Generación de recuperación aumentada, esta es la técnica para mejorar los modelos de lenguaje existentes, a través de fuentes internas. El nombre fue mencionado por primera vez en 2020 por el autor Patrick Lewis, quien escribió un artículo completo sobre cómo se podrían mejorar las IA a través de contenido que solo está disponible fuera de Internet.
El concepto es bastante simple: al escribir cinco líneas de código de programación, los desarrolladores permitirán que los modelos de lenguaje (que son la “fuente” de conocimiento para la inteligencia artificial) accedan a contenido de libros que antes solo estaban disponibles en la vida real.
En otras palabras, RAG llena un vacío en el funcionamiento de los modelos lingüísticos. Detrás de escena, los modelos de lenguaje son redes neuronales, generalmente medidas por la cantidad de parámetros que tienen. Los parámetros de un modelo de lenguaje representan los patrones generales de cómo los humanos usan las palabras para formar oraciones. Esta comprensión profunda, a veces llamada conocimiento parametrizado, hace que los modelos de lenguaje sean útiles para responder a solicitudes generales a la velocidad del rayo, pero no es adecuado para los usuarios que desean profundizar en un tema actual o más específico.
NVIDIA sobre el lanzamiento de RAG
empresas como Amazon WebServices, Microsoft, Google, Oracle, Pinecone y Microsoft están entre los primeros en utilizar la nueva técnica para mejorar su inteligencia artificial. Se requiere potencia de alto rendimiento para utilizar el RAG, entonces servidores como Superchip Grace Hopper NVIDIA H200, que cuenta con 288 GB de memoria HBM3e y 8 petaflops de computación, será más que imprescindible para utilizar el RAG.
Nuevo modelo de lenguaje
Durante el Microsoft Ignite, NVIDIA presentó su nuevo modelo de lenguaje que lleva el nombre Nemotrón-3 8B. Puede respaldar la creación de chatbots empresariales que respondan preguntas complejas sobre los segmentos más diversos, incluidos finanzas, atención médica, comercio minorista, gobierno, telecomunicaciones, medios y entretenimiento, manufactura y energía.
O Nemotrón-3 8B también admite más de 50 idiomas, incluidos portugués, inglés, español, japonés, chino, alemán, ruso, francés y más. NVIDIA también confirma que el modelo de lenguaje puede recibir datos de las empresas para que el desarrollo personalizado de IA se pueda llevar a cabo sin problemas.
El propósito de la empresa es permitir la creación de aplicaciones de IA generativa seguras y listas para producción. Estos modelos están entrenados en conjuntos de datos obtenidos de forma responsable y funcionan con un rendimiento comparable al de modelos mucho más grandes, lo que los hace ideales para implementaciones empresariales.
Una vez que se personalizan las plantillas, los usuarios pueden implementarlas prácticamente en cualquier lugar con seguridad, estabilidad y soporte de nivel empresarial mediante NVIDIA IA Enterprise. Esto incluye NVIDIA TensortRT-LLM para inferencia de aprendizaje profundo de alto rendimiento para proporcionar baja latencia y alto rendimiento para cargas de trabajo de inferencia de IA.
NVIDIA sobre el lanzamiento de su modelo de lenguaje
La disponibilidad de Nemotrón-3 8B se lleva a cabo a partir de hoy (15 de noviembre), ya sea a través NVIDIA NGC, vía Abrazando la cara ou Mercado de Microsoft Azure.
Asociación NVIDIA x Amdocs
Empresas de todo el mundo reconocen que la IA generativa ha llegado para cambiar la forma en que trabajamos hoy. Con el lanzamiento del nuevo modelo lingüístico, la Amdocs, que opera en el mercado de las telecomunicaciones y los medios y respalda a 27 de los 30 proveedores de servicios del mundo.
La empresa, que también opera en Brasil, utilizará el nuevo modelo de idiomas y los que ya están disponibles en Fundación de IA de NVIDIA para ofrecer resultados más precisos para sus casos de éxito. La empresa espera optimizar los datos y el servicio al cliente, tareas que antes llevaban mucho tiempo realizar.
Las plataformas Amdocs, que impulsan más de 1,7 millones de viajes digitales diarios, impactan a más de 3 millones de personas en todo el mundo. NVIDIA y Amdocs están explorando múltiples casos de uso de IA generativa para simplificar y mejorar las operaciones proporcionando capacidades de IA generativa seguras, rentables y de alto rendimiento. Los primeros usos abarcan el servicio al cliente, incluida la aceleración de la resolución de consultas de los clientes mediante la extracción de información de los datos de la empresa.
NVIDIA sobre su asociación con Amdocs
Omniverse ahora simula el uso de coches inteligentes
O Omniverso da NVIDIA es una aplicación que se puede utilizar para crear juegos, proyectos de arquitectura e ingeniería e incluso en simulaciones virtuales antes de fabricar un producto (como un automóvil).
Al final del evento de hoy, se anunció que compañías de automóviles inteligentes como Mercedes-Benz están utilizando la aplicación para crear proyectos y mantener todo virtual antes de que comiencen las pruebas en el mundo real, a través de solución de simulación de fábrica. Además, los usuarios de la nube de Microsoft Azure podrán utilizar la aplicación de forma integrada y sin coste adicional.
NVIDIA explicó el proceso: después de enviar información sobre el coche, incluidos detalles técnicos, la inteligencia artificial puede poner la idea en funcionamiento en un entorno virtual. Los desarrolladores podrán comprobar detalles sobre el uso de un sensor LIDAR, ver la cámara en tiempo real y también probar sensores de radar. Todo presentado en 3D.
El motor de simulación de fábrica virtual Omniverse Cloud es una colección de aplicaciones y servicios de desarrollador personalizables que permiten a los equipos de planificación de fábricas conectar conjuntos de datos industriales a gran escala mientras colaboran, navegan y revisan en tiempo real.
Incluso si cada empresa de coches autónomos tiene sus propias aplicaciones o utiliza aplicaciones de terceros, funcionará de la misma manera. Los interesados deberán ponerse en contacto con NVIDIA a través del Marketplace de Microsoft Azure, ya que es necesario realizar algunas adaptaciones para un uso personalizado.
¿Te gustó la noticia? Dinos Comentario!
Véase también
Lenovo y NVIDIA anuncian una asociación en soluciones híbridas de IA para empresas
Con información: Microsoft Ignite
Revisado por Glaucón Vital en 15 / 11 / 23.