Llama 3. 2 trae a la meta funciones como traducción de videos con sincronización de labios, voces famosas y más. Ahora multimodal, la inteligencia artificial del objetivo puede ver y hablar, comprender imágenes, tablas y gráficos, además de conversar de forma natural con el usuario. Entender

Llama 3.2 trae funciones como traducción de videos con sincronización de labios, voces de celebridades y más a Meta AI

avatar de lucas gomes
Ahora multimodal, la inteligencia artificial de Meta puede ver y hablar, comprender imágenes, tablas y gráficos, además de conversar de forma natural con el usuario. Entender

Hoy (25) sucedió el Meta Conectar 2024, un evento de la empresa responsable de Facebook, Instagram y WhatsApp, con el anuncio de sus novedades tecnológicas, presentadas por la propia compañía mark Zuckerberg. Más allá de las gafas holográficas Orión, todavía vimos noticias sobre el Llama 3.2 y MetaIA — que integra todas las redes sociales de la empresa. Mira ahora lo más destacado sobre la inteligencia artificial de Meta

Nuevas funciones que llegan con Llama 3.2

LLM de visión pequeña y mediana (11b y 90b) y modelos livianos de solo texto (1b y 3b) que se adaptan a dispositivos móviles. Imagen: meta
LLM de visión pequeña y mediana (11B y 90B) y modelos livianos de solo texto (1B y 3B) que se adaptan a dispositivos móviles. Imagen: Meta

Las dos novedades más importantes de la colección. llamas 3.2Con Parámetros 11B y 90B (11 y 90 mil millones, respectivamente), destacan por su soporte para tareas de razonamiento visual, como la comprensión de documentos complejos, incluidas tablas y gráficos, así como leyendas de imágenes e identificación de objetos en escenas visuales a partir de descripciones en lenguaje natural.

Un ejemplo práctico involucra la capacidad de Llama 3.2 para analizar gráficos para responder rápidamente preguntas sobre el desempeño de las ventas de una empresa en un mes determinado. En otro caso, el modelo puede interpretar mapas, que indica cuándo un sendero se vuelve más empinado o la distancia de una ruta específica. Estos modelos avanzados también se conectan visión y lenguaje, pudiendo extraer detalles de una imagen y generar leyendas para describir la escena.

Meta también anunció modelos más ligeros, Parámetros 1B y 3B, para dispositivos más pequeños como teléfonos inteligentes y gafas inteligentes. Estos fueron hechos para generación de texto multilingüe y ejecución de comandos automatizados. Permiten el desarrollo de aplicaciones personalizables que funcionan directamente en los dispositivos, garantizando una privacidad total, ya que los datos no se envían a la nube. Estas aplicaciones pueden resumir los mensajes entrantes e identificar elementos importantes para enviar invitaciones de calendario directamente utilizando la función de llamada de herramientas.

Ejecutar los modelos localmente tiene dos ventajas principales: respuestas casi instantáneas, debido al procesamiento directo en el dispositivo, y mayor privacidad, evitando enviar datos sensibles a la nube. Esto permite controlar qué consultas permanecen en el dispositivo y cuáles pueden ser procesadas por modelos más grandes en la nube de forma clara y segura.

Este trabajo contó con el apoyo de nuestros socios de toda la comunidad de IA. Nos gustaría agradecer y reconocer (en orden alfabético): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI y UC Berkeley – Proyecto vLLM.

Meta gracias en su sitio web

Nuevas características de Meta AI

¡Y las novedades no terminan ahí! Meta AI se beneficiará de las siguientes características nuevas:

Voces en WhatsApp, Instagram, Facebook y Messenger

Meta invita a sus usuarios a probar las nuevas voces de celebridades con IA. Imagen: meta vo llama 3. 2
Meta invita a sus usuarios a probar las nuevas voces de celebridades con IA. Imagen: Meta

mark Zuckerberg anunció una nueva actualización para los asistentes de IA de Meta, que ahora contarán con voces de celebridades como Dama Judi Dench, John Cena, Awkwafina, Keegan Michael Key y Kristen Bell. La idea es hacer la interacción más natural y divertida, ofreciendo una experiencia personalizada en plataformas como Facebook, Messenger, WhatsApp e Instagram.

Además de las nuevas voces, una de las innovaciones más importantes es la capacidad de los modelos de IA para interpretar fotos y otra información visual de los usuarios, ampliando las alternativas de interacción y ofreciendo respuestas aún más contextuales y relevantes para cada usuario.

Ver, explicar y editar imágenes.

Los usuarios podrán enviar fotos y solicitar ediciones a AI. Imagen: meta
Los usuarios podrán enviar fotos y solicitar ediciones a la IA. Imagen: Meta

La capacidad de edición de Meta AI también se ha ampliado, permitiéndole procesar información visual. Ahora será posible tomar una foto de una flor mientras camina y pedirle a Meta AI que identificarlo y/o explicar más sobre él, o hacer el subir una imagen de un plato y recibir la receta correspondiente.

Los usuarios también podrán hacer ediciones detalladas de tus fotos reales usar comandos en el lenguaje cotidiano, como agregar o eliminar elementos. Anteriormente, esta función solo funcionaba en imágenes generadas por Meta AI, pero ahora está disponible para fotos tomadas por los usuarios, facilitando ajustes personalizados.

con la función Imagine de Meta AI, podrás insertarte en historias, publicaciones de feeds e incluso en tu foto de perfil en facebook e instagram, intercambio Autofotos generadas por IA de forma interactiva. La IA también puede sugerir subtítulos para tus Historias de Instagram y Facebook. Simplemente elija una imagen y Meta AI le sugerirá varias opciones de subtítulos, lo que facilitará la elección de la que mejor se adapte a su publicación.

Doblaje de sincronización de labios en carretes

El doblaje sigue restringido por ahora. Imagen: meta
El doblaje sigue restringido por ahora. Imagen: Meta

Meta también está probando actualmente el Doblaje automático de vídeo con sincronización labial. en Instagram y Facebook Reels, empezando por los idiomas inglés y español. Esta funcionalidad permitirá a los usuarios ver contenido en su idioma nativo, lo que facilitará su comprensión e interacción.

Inicialmente, la función está disponible para un pequeño grupo de creadores, pero hay planes para expandirla a más creadores e incluir otros idiomas dentro de poco. Este avance tiene el potencial de aumentar significativamente el alcance de los creadores de contenido, permitiendo que sus producciones superen las barreras del idioma y se conecten con una audiencia global, independientemente del idioma que se hable.

Disponibilidad

AI Voice en Australia, Canadá, Nueva Zelanda y EE. UU. solo en inglés. Imagen: meta
Voz de IA en Australia, Canadá, Nueva Zelanda y EE. UU. solo en inglés. Imagen: Meta

La empresa afirma que el llamas 3.2 ahora está disponible en las plataformas Meta, con la excepción de las actualizaciones de voz de Meta AI. Están disponibles en Australia, Canadá, Nueva Zelanda y EE. UU. únicamente en inglés.

Y a ti, ¿qué te pareció la noticia? Dinos Comentario!

Vea también:

Meta espectáculos Gafas holográficas de Orión., que muestran imágenes en la pantalla.

Con información de: Objetivo [1] e [ 2 ].

Texto corregido por: Daniel Coutinho (25 / 09 / 24)


Descubra más sobre Showmetech

Regístrate para recibir nuestras últimas novedades por correo electrónico.

Deja un comentario

Su dirección de correo electrónico no será publicada. Los campos necesarios están marcados con *

Puestos Relacionados