Index
Tijdens de Microsoft Ignite, traditioneel evenement van de maker van Windows, een NVIDIA heeft veel nieuwe functies aangekondigd voor applicatieontwikkelaars voor desktop- en notebookcomputers. Naast ondersteuning voor ChatGPT al geïmplementeerd bij de ontwikkeling van applicaties voor Windows, werd nieuws over Omniverse en de creatie van gepersonaliseerde taalmodellen aangekondigd. Bekijk nu alles.
Meer steun voor lokale ontwikkeling
Momenteel is het aantal ontwikkelaars dat de prestatiekracht van een cloud moet gebruiken om applicaties te maken nog steeds hoog, omdat hun computers niet over de grafische kracht beschikken om taken soepel uit te voeren. Maar iedereen die minstens één grafische kaart uit de NVIDIA RTX-serie heeft, zal die tot het verleden laten behoren.
Via een update van de TensorRT-LLM, open source-software die de AI-inferentieprestaties verbetert, de NVIDIA maakt het mogelijk applicaties lokaal te ontwikkelen in plaats van in de cloud. Uiteraard bieden deze servers volledige veiligheid, maar het bedrijf hoopt ook dat alles nog veiliger wordt gehouden door de ontwikkelingsgegevens op de eigen pc van de ontwikkelaar te bewaren.
Een hulpmiddel vernoemd naar AI-werkbank werd ook aangekondigd: in de praktijk kan de applicatieontwikkelingstoolkit worden gebruikt om vooraf getrainde generatieve AI-modellen te creëren, testen en aanpassen. Het zal ook mogelijk zijn om dit lokaal te doen, op uw persoonlijke pc of werkstation, zonder dat u dit naar de cloud hoeft te sturen. AI Workbench heeft één ‘enkel platform’ voor het organiseren van AI-projecten en het aanpassen ervan voor specifieke gevallen.
Het is mogelijk om interesse te tonen in het testen van de nieuwe functies via inschrijven op een wachtlijst; Er is nog steeds geen vaste datum waarop alles gelanceerd zal worden, maar er wordt verwacht dat er tijdens CES 2024 meer nieuws zal verschijnen.
Door slechts een paar regels code te wijzigen, kunnen honderden AI-aangedreven ontwikkelaarsprojecten en -applicaties nu profiteren van snelle, lokale AI. Gebruikers kunnen hun gegevens op hun pc bewaren en hoeven zich geen zorgen te maken over het uploaden van datasets naar de cloud.
Misschien wel het beste is dat veel van deze projecten en applicaties open source zijn, waardoor het voor ontwikkelaars gemakkelijk wordt om hun mogelijkheden te benutten en uit te breiden om de adoptie van generatieve AI op Windows, mogelijk gemaakt door RTX, te stimuleren.
De wrapper werkt met elke LLM die is geoptimaliseerd voor TensorRT-LLM (bijv. Llama 2, Mistral en NV LLM) en wordt uitgebracht als referentieproject op GitHub, samen met andere bronnen voor ontwikkelaars voor het werken met LLM's op RTX.
NVIDIA op TensorRT-LMM Development Kit-update
Geoptimaliseerde ontwikkeling
Een andere aankondiging waarbij NVIDIA en Microsoft betrokken zijn, is dat DirectM-APIL zal worden gelanceerd om hetzelfde AI-project in verschillende modellen te kunnen gebruiken. Dit vermijdt herbewerking, zodat hetzelfde idee voor verschillende modellen moet worden aangepast. Onder de genoemde voorbeelden zal het mogelijk zijn om AI’s zoals Llama 2 en Stable Diffusion te gebruiken om andere toepassingen te creëren.
De bedrijven bevestigen ook dat lokale ontwikkeling mogelijk zal zijn, met de eis dat ontwikkelaars alles rechtstreeks vanaf hun computers doen, zonder dat ze alles in de cloud hoeven te verzenden of op te slaan.
De nieuwe functie is beschikbaar vanaf 21 november en het is noodzakelijk om de instructies in de Microsoft na het installeren van het stuurprogramma, via de NVIDIA-website.
RAG om AI's betrouwbaarder te maken
Zijnde de afkorting voor Retrieval-augmented generatie, rechtstreeks vertaald naar Verbeterde herstelgeneratie, is dit de techniek om bestaande taalmodellen te verbeteren, via interne bronnen. De naam werd in 2020 voor het eerst genoemd door auteur Patrick Lewis, die een compleet artikel schreef over hoe AI’s verbeterd konden worden door middel van content die alleen buiten het internet beschikbaar is.
Het concept is vrij eenvoudig: door vijf regels programmeercode te typen, kunnen ontwikkelaars taalmodellen (die de ‘bron’ van kennis voor kunstmatige intelligentie zijn) toegang geven tot inhoud uit boeken die voorheen alleen in het echte leven beschikbaar waren.
Met andere woorden: RAG vult een leemte in de manier waarop taalmodellen werken. Achter de schermen zijn taalmodellen neurale netwerken, doorgaans gemeten aan de hand van het aantal parameters dat ze hebben. De parameters van een taalmodel vertegenwoordigen de algemene patronen van hoe mensen woorden gebruiken om zinnen te vormen. Dit diepgaande begrip, ook wel geparametriseerde kennis genoemd, maakt taalmodellen bruikbaar om razendsnel op algemene verzoeken te reageren, maar is niet geschikt voor gebruikers die zich dieper willen verdiepen in een actueel of specifieker onderwerp.
NVIDIA over de lancering van RAG
Bedrijven houden van Amazon WebServices, Microsoft, Google, Oracle, Pinecone en Microsoft behoren tot de eersten die de nieuwe techniek gebruiken om hun kunstmatige intelligentie te verbeteren. Er is een hoog prestatievermogen vereist om de VOD, dan vinden servers het leuk Grace Hopper NVIDIA H200-superchip, die 288 GB HBM3e-geheugen en 8 petaflops aan rekenkracht heeft, zal meer dan essentieel zijn voor het gebruik van de RAG.
Nieuw taalmodel
Tijdens de Microsoft Ignite, een NVIDIA presenteerde zijn nieuwe taalmodel, vernoemd naar Nemotron-3 8B. Het kan de creatie ondersteunen van zakelijke chatbots die complexe vragen beantwoorden over de meest uiteenlopende segmenten, waaronder financiën, gezondheidszorg, detailhandel, overheid, telecommunicatie, media en entertainment, productie en energie.
O Nemotron-3 8B het ondersteunt ook meer dan 50 talen, waaronder Portugees, Engels, Spaans, Japans, Chinees, Duits, Russisch, Frans en meer. NVIDIA bevestigt ook dat het taalmodel gegevens van bedrijven kan ontvangen, zodat gepersonaliseerde AI-ontwikkeling soepel kan worden uitgevoerd.
Het doel van het bedrijf is om de creatie van veilige, productieklare generatieve AI-applicaties mogelijk te maken. Deze modellen zijn getraind op verantwoord verkregen datasets en werken met prestaties die vergelijkbaar zijn met die van veel grotere modellen, waardoor ze ideaal zijn voor bedrijfsimplementaties.
Zodra de sjablonen zijn aangepast, kunnen gebruikers deze vrijwel overal implementeren met beveiliging, stabiliteit en ondersteuning op bedrijfsniveau met behulp van NVIDIA IA Enterprise. Dit omvat NVIDIA TensortRT-LLM voor hoogwaardige deep learning-inferentie om lage latentie en hoge doorvoer te bieden voor AI-inferentieworkloads.
NVIDIA over de release van zijn taalmodel
De beschikbaarheid van Nemotron-3 8B vindt plaats vanaf vandaag (15 november), hetzij tot en met NVIDIA NGC, via Gezicht knuffelen ou Microsoft Azure-marktplaats.
NVIDIA x Amdocs-partnerschap
Bedrijven over de hele wereld erkennen dat generatieve AI’s hun intrede hebben gedaan om de manier waarop we vandaag de dag werken te veranderen. Met de lancering van het nieuwe taalmodel is de Amdocs, dat actief is op de telecommunicatie- en mediamarkt en 27 van de 30 dienstverleners ter wereld ondersteunt.
Het bedrijf, dat ook in Brazilië actief is, zal het nieuwe taalmodel en de reeds beschikbare taalmodellen gebruiken NVIDIA AI-stichting om nauwkeurigere resultaten voor uw succesverhalen te bieden. Het bedrijf hoopt data en klantenservice te optimaliseren, taken die voorheen veel tijd in beslag namen.
Amdocs-platforms zorgen voor meer dan 1,7 miljard dagelijkse digitale reizen en hebben een impact op meer dan 3 miljard mensen over de hele wereld. NVIDIA en Amdocs onderzoeken meerdere generatieve AI-gebruiksscenario's om de bedrijfsvoering te vereenvoudigen en te verbeteren door veilige, kosteneffectieve en krachtige generatieve AI-mogelijkheden te bieden. De eerste toepassingen omvatten klantenservice, waaronder het versnellen van de oplossing van klantvragen door informatie uit bedrijfsgegevens te extraheren.
NVIDIA over de samenwerking met Amdocs
Omniverse simuleert nu het gebruik van slimme auto's
O Omniversum da NVIDIA is een applicatie die kan worden gebruikt om games, architectuur- en engineeringprojecten te maken en zelfs in virtuele simulaties voordat een product (zoals een auto) wordt vervaardigd.
Aan het einde van het evenement van vandaag werd aangekondigd dat slimme autobedrijven zoals Mercedes-Benz de applicatie gebruiken om projecten te creëren en alles virtueel te houden voordat het testen in de echte wereld begint, via fabriekssimulatie-oplossing. Bovendien kunnen gebruikers van de Microsoft Azure-cloud de applicatie op een geïntegreerde manier en zonder extra kosten gebruiken.
Het proces werd uitgelegd door NVIDIA: na het verzenden van informatie over de auto, inclusief technische details, kan kunstmatige intelligentie het idee in een virtuele omgeving aan het werk zetten. Ontwikkelaars kunnen details over het gebruik van een LIDAR-sensor controleren, de camera in realtime bekijken en ook radarsensoren testen. Alles wordt in 3D gepresenteerd.
De virtuele fabriekssimulatie-engine van Omniverse Cloud is een verzameling aanpasbare ontwikkelaarsapplicaties en -diensten waarmee fabrieksplanningsteams grootschalige industriële datasets kunnen verbinden terwijl ze in realtime samenwerken, navigeren en beoordelen.
Zelfs als elk autonoom autobedrijf zijn eigen applicaties heeft of applicaties van derden gebruikt, zal het op dezelfde manier werken. Geïnteresseerde partijen moeten contact opnemen met NVIDIA via de Microsoft Azure-marktplaats, omdat er enkele aanpassingen nodig zijn voor persoonlijk gebruik.
Vond je het nieuws leuk? Vertel ons Commentaar!
Zie ook
Met informatie: Microsoft Ignite
Beoordeeld door Glaucon Vital in 15 / 11 / 23.