Llama 3. 2 bringer funksjoner som videooversettelse med leppesynkronisering, kjente stemmer og mer til målet. Nå multimodal, kan målets kunstige intelligens se og snakke, forstå bilder, tabeller og grafer, i tillegg til å snakke naturlig med brukeren. Forstå

Llama 3.2 bringer funksjoner som leppesynkronisering av videooversettelse, kjendisstemmer og mer til Meta AI

lucas gomes avatar
Nå multimodal, kan Metas kunstige intelligens se og snakke, forstå bilder, tabeller og grafer, i tillegg til å snakke naturlig med brukeren. Forstå

I dag (25) skjedde det Goal Connect 2024, en begivenhet av selskapet ansvarlig for Facebook, Instagram og WhatsApp, med kunngjøringen av sine teknologiske nyheter, presentert av selskapet selv Mark Zuckerberg. Utover holografiske briller Orion, så vi fortsatt nyheter om Llama 3.2 og Meta AI — som integrerer alle selskapets sosiale nettverk. Se nå høydepunktene om Metas kunstige intelligens

Nye funksjoner kommer med Llama 3.2

LLM-er for små og mellomstore syn (11b og 90b) og lette modeller med kun tekst (1b og 3b) som tilpasser seg mobile enheter. Bilde: meta
LLM-er for små og mellomstore syn (11B og 90B) og lette modeller med kun tekst (1B og 3B) som tilpasser seg mobile enheter. Bilde: Meta

De to største nye modellene i samlingen Lama 3.2, med 11B og 90B (henholdsvis 11 og 90 milliarder) parametere, skiller seg ut for sin støtte til visuelle resonneringsoppgaver, som å forstå komplekse dokumenter, inkludert tabeller og grafer, samt bildetekster og identifisere objekter i visuelle scener basert på naturlige språkbeskrivelser.

Et praktisk eksempel involverer Llama 3.2s evne til analysere grafer for raskt å svare på spørsmål om en bedrifts salgsresultater i en gitt måned. I et annet tilfelle kan modellen tolke kart, som indikerer når en sti blir brattere eller avstanden til en bestemt rute. Disse avanserte modellene kobles også til syn og språk, å kunne trekke ut detaljer fra et bilde og generere bildetekster for å beskrive scenen.

Meta annonserte også lettere modeller, 1B og 3B parametere, for mindre enheter som smarttelefoner og smarte briller. Disse ble laget til flerspråklig tekstgenerering og utførelse av automatiserte kommandoer. De muliggjør utvikling av tilpassbare applikasjoner som fungerer direkte på enheter, og sikrer fullstendig personvern, siden data ikke sendes til skyen. Disse appene kan oppsummere innkommende meldinger og identifisere viktige elementer for å sende kalenderinvitasjoner direkte ved hjelp av verktøyoppringingsfunksjonalitet.

Å kjøre modellene lokalt har to hovedfordeler: nesten umiddelbare svar, på grunn av direkte behandling på enheten, og større privatliv, ved å unngå å sende sensitive data til skyen. Dette gir kontroll over hvilke søk som forblir på enheten og hvilke som kan behandles av større modeller i skyen på en oversiktlig og sikker måte.

Dette arbeidet ble støttet av våre partnere i hele AI-fellesskapet. Vi vil gjerne takke og anerkjenne (i alfabetisk rekkefølge): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI og UC Berkeley – Project vLLM.

Meta Takk på nettstedet ditt

Nye Meta AI-funksjoner

Og nyhetene stopper ikke der! Meta AI vil dra nytte av følgende nye funksjoner:

Stemmer på WhatsApp, Instagram, Facebook og Messenger

Meta inviterer brukerne sine til å teste de nye AI-stemmene til kjendiser. Bilde: meta vo llama 3. 2
Meta inviterer brukerne sine til å teste de nye AI-stemmene til kjendiser. Bilde: Meta

Mark Zuckerberg annonserte en ny oppdatering til Metas AI-assistenter, som nå vil inneholde kjendisstemmer som f.eks Dame Judi Dench, John Cena, Awkwafina, Keegan Michael Key og Kristen Bell. Tanken er å gjøre interaksjon mer naturlig og morsom, og tilby en personlig opplevelse på plattformer som f.eks Facebook , Messenger, WhatsApp e Instagram.

I tillegg til nye stemmer, er en av de viktigste innovasjonene evnen til AI-modeller tolke bilder og annen visuell informasjon fra brukere, utvider interaksjonsalternativer og tilbyr enda mer kontekstuelle og relevante svar for hver bruker.

Se, forklar og rediger bilder

Brukere vil kunne sende bilder og be om redigeringer til AI. Bilde: meta
Brukere vil kunne sende bilder og be om redigeringer til AI. Bilde: Meta

Meta AIs redigeringsevne er også utvidet, slik at den kan behandles visuell informasjon. Det vil nå være mulig å ta et bilde av en blomst mens du går og be Meta AI om det identifisere det og/eller forklare mer om det, eller gjør det last opp et bilde av en rett og motta den tilsvarende oppskriften.

Brukere vil også kunne gjøre detaljerte redigeringer av dine ekte bilder bruke kommandoer på dagligdagse språk, for eksempel å legge til eller fjerne elementer. Tidligere fungerte denne funksjonen kun på bilder generert av Meta AI, men den er nå tilgjengelig for bilder tatt av brukere, forenkler personlige justeringer.

med funksjonen Forestille av Meta AI, vil du kunne sette deg inn i historier, feed-innlegg og til og med profilbildet ditt på Facebook og Instagram, deler AI-genererte selfies på en interaktiv måte. AI kan også foreslå bildetekster for dine Instagram- og Facebook-historier. Bare velg et bilde, og Meta AI vil foreslå flere bildetekstalternativer, noe som gjør det lettere å velge det som passer best for innlegget ditt.

Leppesynkronisering på hjul

Dubbing er fortsatt begrenset foreløpig. Bilde: meta
Dubbing er fortsatt begrenset foreløpig. Bilde: Meta

Meta tester for tiden også automatisk videodubbing med leppesynkronisering på Instagram og Facebook Reels, og starter med språk engelsk og spansk. Denne funksjonaliteten vil tillate brukere å se innhold på sitt morsmål, noe som gjør det lettere å forstå og samhandle med.

I utgangspunktet er funksjonen tilgjengelig for en liten gruppe skapere, men det er planer om å utvide den til flere skapere og inkludere andre språk snart. Denne fremgangen har potensial til å øke rekkevidden til innholdsskapere betydelig, slik at produksjonene deres kan overvinne språkbarrierer og få kontakt med et globalt publikum, uavhengig av språket som snakkes.

tilgjengelighet

AI Voice i Australia, Canada, New Zealand og USA kun på engelsk. Bilde: meta
AI-stemme i Australia, Canada, New Zealand og USA kun på engelsk. Bilde: Meta

Selskapet hevder at Lama 3.2 er nå tilgjengelig på Meta-plattformer, med unntak av Meta AI-stemmeoppdateringer. Disse er kun tilgjengelige i Australia, Canada, New Zealand og USA på engelsk.

Og du, hva syntes du om nyhetene? Fortell oss Kommentar!

Veja também:

Metashow Orion holografiske briller, som viser bilder på skjermen.

Med informasjon fra: Mål [1] e [2].

Tekst korrekturlest av: Daniel Coutinho (25 / 09 / 24)


Oppdag mer om Showmetech

Registrer deg for å motta siste nytt på e-post.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Relaterte innlegg