Index
Idag (25) hände Goal Connect 2024, ett evenemang av företaget som ansvarar för Facebook, Instagram och WhatsApp, med tillkännagivandet av dess tekniska nyheter, presenterat av företaget självt Mark Zuckerberg. Bortom holografiska glasögon Orion, såg vi fortfarande nyheter om Llama 3.2 och Meta AI — som integrerar alla företagets sociala nätverk. Se nu höjdpunkterna om Metas artificiella intelligens
Nya funktioner kommer med Llama 3.2
De två största nya modellerna i kollektionen Lama 3.2, med 11B och 90B (11 respektive 90 miljarder) parametrar, sticker ut för sitt stöd för visuella resonemangsuppgifter, som att förstå komplexa dokument, inklusive tabeller och grafer, samt bildtexter och identifiera objekt i visuella scener baserat på naturliga språkbeskrivningar.
Ett praktiskt exempel är Llama 3.2:s förmåga att analysera grafer för att snabbt svara på frågor om ett företags försäljningsresultat under en viss månad. I ett annat fall kan modellen tolka kartor, som indikerar när ett spår blir brantare eller avståndet för en specifik rutt. Dessa avancerade modeller ansluter också syn och språk, att kunna extrahera detaljer från en bild och generera bildtexter för att beskriva scenen.
Meta tillkännagav också lättare modeller, 1B och 3B parametrar, för mindre enheter som smartphones och smarta glasögon. Dessa gjordes till flerspråkig textgenerering och exekvering av automatiserade kommandon. De möjliggör utveckling av anpassningsbara applikationer som fungerar direkt på enheter, vilket säkerställer fullständig integritet, eftersom data inte skickas till molnet. Dessa appar kan sammanfatta inkommande meddelanden och identifiera viktiga objekt för att skicka kalenderinbjudningar direkt med hjälp av verktygssamtal.
Att köra modellerna lokalt har två huvudsakliga fördelar: nästan omedelbara svar, på grund av direkt bearbetning på enheten, och större integritet, genom att undvika att skicka känslig data till molnet. Detta möjliggör kontroll över vilka frågor som finns kvar på enheten och vilka som kan bearbetas av större modeller i molnet på ett tydligt och säkert sätt.
Detta arbete stöddes av våra partners i hela AI-gemenskapen. Vi vill tacka och erkänna (i alfabetisk ordning): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI och UC Berkeley – Project vLLM.
Meta Tack på din hemsida
Nya Meta AI-funktioner
Och nyheterna slutar inte där! Meta AI kommer att dra nytta av följande nya funktioner:
Röster på WhatsApp, Instagram, Facebook och Messenger
Mark Zuckerberg tillkännagav en ny uppdatering till Metas AI-assistenter, som nu kommer att innehålla kändisröster som t.ex Dame Judi Dench, John Cena, Awkwafina, Keegan Michael Key och Kristen Bell. Tanken är att göra interaktion mer naturlig och roligare, erbjuda en personlig upplevelse på plattformar som t.ex Facebook, Messenger, WhatsApp e Instagram.
Förutom nya röster är en av de viktigaste innovationerna AI-modellernas förmåga att tolka bilder och annan visuell information från användare, utökade interaktionsalternativ och erbjuder ännu mer kontextuella och relevanta svar för varje användare.
Visa, förklara och redigera bilder
Meta AI:s redigeringsförmåga har också utökats, vilket gör att den kan bearbetas visuell information. Det kommer nu att vara möjligt att ta ett foto av en blomma när du går och be Meta AI att göra det identifiera det och/eller förklara mer om det, eller gör det ladda upp en bild av en maträtt och få motsvarande recept.
Användare kommer också att kunna göra detaljerade redigeringar av dina riktiga bilder använda kommandon på vardagligt språk, som att lägga till eller ta bort element. Tidigare fungerade den här funktionen bara på bilder genererade av Meta AI, men den är nu tillgänglig för bilder tagna av användare, vilket underlättar personliga justeringar.
med funktionen Föreställ dig av Meta AI kommer du att kunna infoga dig själv i berättelser, flödesinlägg och till och med ditt profilfoto på Facebook och Instagram, dela AI-genererade selfies på ett interaktivt sätt. AI kan också föreslå bildtexter för dina Instagram- och Facebook-berättelser. Välj bara en bild så kommer Meta AI att föreslå flera bildtextalternativ, vilket gör det lättare att välja den som passar ditt inlägg bäst.
Läppsynkdubbning på Reels
Meta testar för närvarande också automatisk videodubbning med läppsynkronisering på Instagram och Facebook Reels, med början på språk engelska och spanska. Denna funktion gör det möjligt för användare att titta på innehåll på sitt modersmål, vilket gör det lättare att förstå och interagera med.
Till en början är funktionen tillgänglig för en liten grupp kreatörer, men det finns planer på att utöka den till fler skapare och inkludera andra språk kort. Detta framsteg har potential att avsevärt öka räckvidden för innehållsskapare, vilket gör att deras produktioner kan övervinna språkbarriärer och få kontakt med en global publik, oavsett vilket språk som talas.
Tillgänglighet
Företaget hävdar att Lama 3.2 är nu tillgänglig på Meta-plattformar, med undantag för Meta AI-röstuppdateringar. Dessa finns endast på engelska i Australien, Kanada, Nya Zeeland och USA.
Och du, vad tyckte du om nyheterna? Berätta för oss Kommentar!
Veja também:
Metashower Orion holografiska glasögon, som visar bilder på skärmen.
Med information från: Mål [1] e [2].
Text korrekturläst av: Daniel Coutinho (25 / 09 / 24)
Upptäck mer om Showmetech
Registrera dig för att få våra senaste nyheter via e-post.