Openai lanserer gpt-4o, en raskere, gratis modell som kan "se" med mobilkameraet. Oppdatering kommer med nye apper for mobiltelefoner og stasjonære datamaskiner og kan bedre forstå og snakke med brukeren, som om de var et menneske

OpenAI lanserer GPT-4o, en raskere, gratis modell som kan "se" med mobilkameraet ditt 

victor pacheco avatar
Oppdatering kommer med nye apper for mobiltelefoner og stasjonære datamaskiner og kan bedre forstå og snakke med brukeren, som om de var et menneske

I, rask begivenhet holdt på kanalen din YouTube, ble vi introdusert for den nye språkmodellen av OpenAI, kalt GPT-4o. LLM lover å være dobbelt så rask og 50 % billigere enn GPT-4 Turbo, selskapets mest komplette språkmodell til dags dato. Se alle detaljene akkurat nå.

Fordeler med GPT-4o

Mira Murati. openai teknologidirektør
Mira Murati, teknologidirektør ved OpenAI, presenterte en ny språkmodell (Skjermbilde: Glauco Vital/Showmetech)

"O" til GPT-4o kommer fra det latinske ordet "omni", som betyr "alt". Under arrangementet OpenAI, Mira Murat, selskapets teknologidirektør, tok scenen for å presentere den nye språkmodellen. Hun fremhevet at den nye funksjonen kan brukes gratis av alle som har en OpenAI-konto, men alle som har en ChatGPT Pro-konto vil ha 5 ganger meldingsgrensen.

Den store fordelen med den nye språkmodellen er dens støtte for mer enn 97 språk, i tillegg til muligheten til å lage tekster, bilder og prestere på en mer forbedret måte enn GPT-4 Turbo. Den nye funksjonen har også en minnefunksjon, som tar opp tidligere samtaler for en bedre forståelse av chatter i fremtiden.

Selskapet nevner også at den nye språkmodellen vil kunne surfe på nettet snart, men sa ikke om denne vil være tilgjengelig for brukere med gratis kontoer eller kun for de med en Pro-konto.

Til slutt, ved å lytte til hva brukeren sier, kan OpenAIs nye språkmodell forstå en persons humør. I et eksempel som ble vist under presentasjonen, identifiserte han at en person ville bli nervøs bare ved å puste tungt. GPT-4o kan også identifisere stemning bare fra et bilde.

Openai lanserer gpt-4o, en raskere, gratis modell som kan "se" med mobilkameraet. Oppdatering kommer med nye apper for mobiltelefoner og stasjonære datamaskiner og kan bedre forstå og snakke med brukeren, som om de var et menneske
Ny funksjon kan nås fra i dag (Bilde: Glauco Vital/Showmetech)

Mira Murat delte også at for øyeblikket bruker mer enn 100 millioner mennesker ChatGPT til å lage bilder, tekster og mer innhold. Lederen fremhevet OpenAIs store hensikt med å skape tilgjengelige teknologier for alle, og lanseringen av den nye språkmodellen er enda en måte å sette denne forpliktelsen ut i livet.

Nøkkelfunksjoner og eksempler

Det kan ikke benektes at GPT-4o Det ser mer ut som en flott personlig assistent, som Google Assistant og Amazon Alexa. Under OpenAI-nyhetsarrangementet ble LLMs evne til å bruke smarttelefonens kamera for å støtte oppgavene demonstrert.

utvikleren Mark Chan han simulerte å være i en nervøs situasjon, og umiddelbart etter å ha identifisert den unormale oppførselen, indikerte språkmodellen øvelser for å gjøre ham roligere. Sjekk ut videoen nedenfor:

Den mest interessante funksjonen er muligheten for språkmodellen til å gjenkjenne ansiktsuttrykk, miljøer og mer, bare ved å bruke smarttelefonens kamera. Bare gi en kommando til ChatGPT og åpne kameraet og vent til det er gjort om noen sekunder. Se demoen:

Er du en person som trenger hjelp til matematiske problemer, kan kunstig intelligens også hjelpe til med å løse dette, ved hjelp av støttekameraet. Under dagens arrangement designet en utvikler en førstegradsligning (3X + 1 = 4) og, med støtte fra den nye språkmodellen i ChatGPT, klarte han å oppnå resultatet. Se en annen demo:

Med støtte for mer enn 97 språk, AIs kunstige intelligens OpenAI Du vil også ha muligheten til å hjelpe to personer som snakker forskjellige språk, i sanntid (noe som allerede er sett i Google Translate). Bare gi kommandoen, siter begge språkene, og en samtale kan føres ved å bruke GPT-4o språkmodellen som base. Sjekk ut:

Selskapet fremhever også at alle bestillinger gjort av brukere kan endres mens stemmen til GPT-4o sender svarene. På denne måten er det ikke lenger nødvendig å vente på at et helt svar sendes for å komme med en ny forespørsel til den kunstige intelligensen. Se demoen:

Under avbrudd av sending av svar vil det være mulig å endre tonen i stemmen, intonasjonen av kommandoene som sendes og talehastigheten til den kunstige intelligensstemmen. Alt dette på bare noen få sekunder. Dette er bare noen få eksempler på hva den nye språkmodellen kan gjøre, men den nye funksjonen vil helt sikkert få nye muligheter når den er utgitt for generell bruk.

Ny skrivebordsapp

Openai lanserer gpt-4o, en raskere, gratis modell som kan "se" med mobilkameraet. Oppdatering kommer med nye apper for mobiltelefoner og stasjonære datamaskiner og kan bedre forstå og snakke med brukeren, som om de var et menneske
Desktop-applikasjonen vil bli lansert for macOS, i det minste i dette første øyeblikket (Foto: Glauco Vital/Showmetech)

En applikasjon som simulerer bruk av kunstig intelligens på nettet ble lansert og vist under arrangementet OpenAI av idag. I tillegg til å sende svar på kommandoer skrevet i chatten, kan applikasjonen, som allerede har den nye integrerte språkmodellen, se hva som vises på skjermen og til og med lage sammendrag. Den nye funksjonen kan også bruke Mac-ens webkamera til å "se" og gjenkjenne bilder.

Foreløpig er ChatGPT-skrivebordsappen kun utgitt for macOS fra og med i dag for Pro-brukere og andre brukere i løpet av de neste ukene. Det er ingen informasjon om tilgjengelighet for Windows eller Linux, men vi vil oppdatere artikkelen når informasjonen er utgitt av OpenAI.

Selskapet benyttet seg også av lanseringen til å fornye AI-nettgrensesnittet, men uten å kunngjøre en dato for implementering. Se:

Nytt chatgpt-grensesnitt med gpt-4o språkmodell
Navigasjonen ble mindre forurenset (Foto: Reproduction/MacRumors)

Blant de nye funksjonene er det reposisjonering av knapper og en mer sentralisert layout for AI-svar, alt for å være mer "vennlig og samtale", ifølge selskapet.

tilgjengelighet

lanseringen av GPT-4o, til tross for at det starter i dag, vil det bli gjort i deler. Ifølge pressemeldingen vil alle som har en gratis- eller Pro-konto få tilgang til GPT-4o-kapasiteten gratis, men de som er abonnenter vil ha en språkmodell med 5 ganger større meldingsgrense. Se det nye grensesnittet for OpenAI-abonnenter:

gpt-4o språkmodell
Språkmodellen blir utgitt fra og med i dag (Foto: Bruno Martinez/Showmetech)

Når vi snakker om stemmemodus, som gir stemme til ChatGPT, vil det være nødvendig å vente litt lenger: selskapet kunngjorde at denne funksjonen vil bli lansert senere, med full kapasitet, "i de kommende ukene".

API GPT-4o Den har også blitt utgitt og er 2x raskere enn GPT-4 Turbo, i tillegg til å være 50 % billigere og ha 5x høyere hastighetsgrenser sammenlignet med forrige modell.

Kan ChatGPT bli en personlig assistent?

Nyhetene kommer for å endre hvordan vi bruker AI som har blitt kjent siden slutten av 2023. Og det er ingen tvil om at OpenAI presenterer sitt flotte verktøy som et interessant alternativ mot Google Assistant og Amazon Alexa, spesielt siden det nå kan " snakke».

Det gjenstår å se om det vil være tilgjengelig på enheter som lanseres i løpet av resten av 2024, men vi ser begynnelsen på en ny æra for bruk av ChatGPT. Fortell oss i mellomtiden Kommentar hvordan ser du på denne endringen og hva er favorittfunksjonen din introdusert i dag.

Se også

ChatGPT-4 utkonkurrerer psykologer i sosial intelligenstest, sier studie

OpenAI og Moderna kunngjør partnerskap for å forbedre vaksiner og behandlinger

Med informasjon: OpenAI

Anmeldt av Glaucon Vital den 13.


Oppdag mer om Showmetech

Registrer deg for å motta siste nytt på e-post.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Relaterte innlegg