Indeks
Under Microsoft tenner, tradisjonell begivenhet av skaperen av Windowsen NVIDIA annonsert mange nye funksjoner for applikasjonsutviklere for stasjonære og bærbare datamaskiner. I tillegg til støtte til ChatGPT allerede implementert i utviklingen av applikasjoner for Windows, ble nyheter om Omniverse og opprettelsen av personlige språkmodeller annonsert. Se alt akkurat nå.
Større støtte til lokal utvikling
Foreløpig er antallet utviklere som trenger å bruke ytelseskraften til en sky for å lage applikasjoner fortsatt høyt, siden datamaskinene deres ikke har grafikkkraften til at oppgaver kan utføres jevnt. Men alle som har minst ett grafikkort i NVIDIA RTX-serien vil forlate det i fortiden.
Gjennom en oppdatering til TensorRT-LLM, åpen kildekode-programvare som øker AI-slutningsytelsen, den NVIDIA vil tillate at applikasjoner utvikles lokalt i stedet for i skyen. Disse serverne gir selvsagt full sikkerhet, men selskapet håper også at, med utviklingsdata lagret på en utviklers egen PC, vil alt holdes enda sikrere.
Et verktøy oppkalt etter AI arbeidsbenk ble også annonsert: i praksis kan applikasjonsutviklingsverktøysettet brukes til å lage, teste og tilpasse forhåndstrente generative AI-modeller. Det vil også være mulig å gjøre dette lokalt, på din personlige PC eller arbeidsstasjon, uten å måtte sende det til skyen. AI Workbench har en "enkelt plattform" for å organisere AI-prosjekter og justere dem for spesifikke tilfeller.
Det er mulig å vise interesse for å teste de nye funksjonene gjennom registrere seg på venteliste; Det er fortsatt ingen fast dato for alt som skal lanseres, men flere nyheter forventes å dukke opp under CES 2024.
Ved å endre bare en linje eller to med kode, kan hundrevis av AI-drevne utviklerprosjekter og applikasjoner nå dra nytte av rask, lokal AI. Brukere kan beholde dataene sine på PC-en og ikke bekymre seg for å laste opp datasett til skyen.
Den beste delen er kanskje at mange av disse prosjektene og applikasjonene er åpen kildekode, noe som gjør det enkelt for utviklere å utnytte og utvide sine evner for å drive bruk av generativ AI på Windows, drevet av RTX.
Innpakningen vil fungere med alle LLM som har blitt optimalisert for TensorRT-LLM (f.eks. Llama 2, Mistral og NV LLM) og blir utgitt som et referanseprosjekt på GitHub, sammen med andre utviklerressurser for å jobbe med LLM-er på RTX.
Oppdatering av NVIDIA på TensorRT-LMM Development Kit
Optimalisert utvikling
En annen kunngjøring som involverer NVIDIA og Microsoft er det DirectM APIL vil bli lansert for å tillate at det samme AI-prosjektet kan brukes i forskjellige modeller. Dette unngår omarbeiding slik at samme idé må tilpasses ulike modeller. Blant de nevnte eksemplene vil det være mulig å bruke AI-er som Llama 2 og Stable Diffusion for å lage andre applikasjoner.
Selskapene bekrefter også at lokal utvikling vil være mulig, med krav om at utviklere gjør alt direkte fra datamaskinene sine, uten å måtte sende eller lagre alt i skyen.
Den nye funksjonen vil være tilgjengelig fra 21. november, og det er nødvendig å følge instruksjonene i Microsoft etter at du har installert driveren, gjennom NVIDIAs nettsted.
RAG for å gjøre AI-er mer pålitelige
Å være akronym for Gjenvinningsutvidet generasjon, oversatt direkte til Augmented Recovery Generation, dette er teknikken for å forbedre eksisterende språkmodeller, gjennom interne kilder. Navnet ble nevnt for første gang i 2020 av forfatter Patrick Lewis, som skrev en fullstendig artikkel om hvordan AIer kan forbedres gjennom innhold som kun er tilgjengelig utenfor internett.
Konseptet er ganske enkelt: ved å skrive inn fem linjer med programmeringskode, vil utviklere tillate språkmodeller (som er "kilden" til kunnskap for kunstig intelligens) for å få tilgang til innhold fra bøker som tidligere var tilgjengelig, bare i det virkelige liv.
RAG fyller med andre ord et tomrom i hvordan språkmodeller fungerer. Bak kulissene er språkmodeller nevrale nettverk, typisk målt etter antall parametere de har. Parametrene til en språkmodell representerer de generelle mønstrene for hvordan mennesker bruker ord for å danne setninger. Denne dype forståelsen, noen ganger kalt parameterisert kunnskap, gjør språkmodeller nyttige for å svare på generelle forespørsler lynraskt, men den passer ikke brukere som ønsker å gå dypere inn i et aktuelt eller mer spesifikt emne.
NVIDIA om lanseringen av RAG
Bedrifter som Amazon WebServices, Microsoft, Google, Oracle, Pinecone og Microsoft er blant de første som brukte den nye teknikken for å forbedre sin kunstige intelligens. Høy ytelse kreves for å bruke FILLE, så servere som Grace Hopper NVIDIA H200 superchip, som har 288 GB HBM3e-minne og 8 petaflops med databehandling, vil være mer enn viktig for å bruke RAG.
Ny språkmodell
Under Microsoft tenneren NVIDIA presenterte sin nye språkmodell oppkalt etter Nemotron-3 8B. Den kan støtte opprettelsen av forretningschatboter som svarer på komplekse spørsmål om de mest forskjellige segmentene, inkludert finans, helsevesen, detaljhandel, myndigheter, telekommunikasjon, media og underholdning, produksjon og energi.
O Nemotron-3 8B den støtter også mer enn 50 språk, inkludert portugisisk, engelsk, spansk, japansk, kinesisk, tysk, russisk, fransk og mer. NVIDIA bekrefter også at språkmodellen kan motta data fra selskaper slik at personlig AI-utvikling kan utføres problemfritt.
Selskapets formål er å muliggjøre etablering av sikre, produksjonsklare generative AI-applikasjoner. Disse modellene er opplært på ansvarlig hentede datasett og opererer med ytelse som kan sammenlignes med mye større modeller, noe som gjør dem ideelle for bedriftsimplementeringer.
Når malene er tilpasset, kan brukere distribuere dem praktisk talt hvor som helst med sikkerhet, stabilitet og støtte i bedriftsklasse ved å bruke NVIDIA IA Enterprise. Dette inkluderer NVIDIA TensortRT-LLM for dyp læringsslutning med høy ytelse for å gi lav ventetid og høy gjennomstrømning for arbeidsbelastninger for AI-slutninger.
NVIDIA om utgivelsen av sin språkmodell
Tilgjengeligheten av Nemotron-3 8B finner sted fra i dag (15. november), enten til og med NVIDIA NGC, av Klemme ansiktet ou Microsoft Azure Marketplace.
NVIDIA x Amdocs-partnerskap
Bedrifter over hele verden anerkjenner at generative AI-er har kommet for å endre måten vi jobber på i dag. Med lanseringen av den nye språkmodellen Amdocs, som opererer i telekommunikasjons- og mediemarkedet og støtter 27 av de 30 tjenesteleverandørene i verden.
Selskapet, som også opererer i Brasil, vil bruke den nye språkmodellen og de som allerede er tilgjengelige i NVIDIA AI Foundation for å tilby mer nøyaktige resultater for suksesshistoriene dine. Selskapet håper å optimere data og kundeservice, oppgaver som tidligere tok lang tid å utføre.
Amdocs-plattformene driver mer enn 1,7 milliarder daglige digitale reiser og påvirker mer enn 3 milliarder mennesker over hele verden. NVIDIA og Amdocs utforsker flere generative AI-brukstilfeller for å forenkle og forbedre driften ved å tilby sikre, kostnadseffektive og høyytelses generative AI-funksjoner. Tidlig bruk spenner over kundeservice, inkludert akselererende løsning av kundeforespørsler ved å trekke ut informasjon fra firmadata.
NVIDIA om partnerskapet med Amdocs
Omniverse simulerer nå bruken av smarte biler
O omniverset da NVIDIA er en applikasjon som kan brukes til å lage spill, arkitektur og ingeniørprosjekter og til og med i virtuelle simuleringer før et produkt (som en bil) produseres.
På slutten av dagens arrangement ble det kunngjort at smartbilselskaper som Mercedes-Benz bruker applikasjonen til å lage prosjekter og holde alt virtuelt før testing i den virkelige verden begynner, gjennom fabrikksimuleringsløsning. Videre vil Microsoft Azure-skybrukere kunne bruke applikasjonen på en integrert måte og uten ekstra kostnad.
Prosessen ble forklart av NVIDIA: etter å ha sendt informasjon om bilen, inkludert tekniske detaljer, kan kunstig intelligens få ideen til å fungere i et virtuelt miljø. Utviklere vil kunne sjekke detaljer om bruken av en LIDAR-sensor, se kameraet i sanntid og også teste radarsensorer. Alt blir presentert i 3D.
Den virtuelle fabrikksimuleringsmotoren Omniverse Cloud er en samling av tilpassbare utviklerapplikasjoner og -tjenester som gjør det mulig for fabrikkplanleggingsteam å koble sammen store industrielle datasett mens de samarbeider, navigerer og gjennomgår dem i sanntid.
Selv om hvert autonome bilselskap har sine egne applikasjoner eller bruker tredjepartsapplikasjoner, vil det fungere på samme måte. Interesserte parter bør kontakte NVIDIA gjennom Microsoft Azure-markedet, da det er nødvendig å gjøre noen tilpasninger for personlig bruk.
Likte du nyhetene? Fortell oss Kommentar!
Se også
Lenovo og NVIDIA kunngjør partnerskap om hybride AI-løsninger for bedrifter
Med informasjon: Microsoft tenner
Anmeldt av Glaucon Vital på 15.