Openai lanserar gpt-4o, en snabbare, gratis modell som kan "se" med mobilkameran. Uppdateringen kommer med nya appar för mobiltelefoner och stationära datorer och kan bättre förstå och prata med användaren, som om de vore en människa

OpenAI lanserar GPT-4o, en snabbare, gratis modell som kan "se" med din mobiltelefonkamera 

victor pacheco avatar
Uppdateringen kommer med nya appar för mobiltelefoner och stationära datorer och kan bättre förstå och prata med användaren, som om de vore en människa

I ett snabbt evenemang på din kanal Youtube, introducerades vi till den nya språkmodellen för OpenAI, ringde GPT-4o. LLM lovar att vara dubbelt så snabbt och 50 % billigare än GPT-4 Turbo, företagets mest kompletta språkmodell hittills. Se alla detaljer just nu.

Fördelar med GPT-4o

Mira Murati. openai teknologichef
Mira Murati, Technology Director på OpenAI, presenterade en ny språkmodell (Skärmbild: Glauco Vital/Showmetech)

"O" för GPT-4o kommer från det latinska ordet "omni”, vilket betyder ”allt”. Under händelsen av OpenAI, Mira Murat, företagets teknologidirektör, intog scenen för att presentera den nya språkmodellen. Hon betonade att den nya funktionen kan användas gratis av alla som har ett OpenAI-konto, men alla som har ett ChatGPT Pro-konto kommer att ha fem gånger så hög meddelandegräns.

Den stora fördelen med den nya språkmodellen är dess stöd för mer än 97 språk, förutom möjligheten att skapa texter, bilder och prestera på ett mer förbättrat sätt än GPT-4 Turbo. Den nya funktionen har även en minnesfunktion, som spelar in tidigare konversationer för en bättre förståelse av chattar i framtiden.

Företaget nämner också att den nya språkmodellen kommer att kunna surfa på webben snart, men sa inte om detta kommer att vara tillgängligt för användare med gratiskonton eller endast för de med ett Pro-konto.

Slutligen, genom att lyssna på vad användaren säger, kan OpenAI:s nya språkmodell förstå en persons humör. I ett exempel som visades under presentationen identifierade han att en person skulle bli nervös bara av att andas tungt. GPT-4o kan också identifiera humör bara från ett foto.

Openai lanserar gpt-4o, en snabbare, gratis modell som kan "se" med mobilkameran. Uppdateringen kommer med nya appar för mobiltelefoner och stationära datorer och kan bättre förstå och prata med användaren, som om de vore en människa
Ny funktion kan nås från och med idag (Bild: Glauco Vital/Showmetech)

Mira Murat delade också att för närvarande använder mer än 100 miljoner människor ChatGPT för att skapa bilder, texter och mer innehåll. Chefen lyfte fram OpenAI:s stora syfte med att skapa tillgänglig teknik för alla och lanseringen av den nya språkmodellen är ännu ett sätt att omsätta detta engagemang i praktiken.

Nyckelfunktioner och exempel

Det går inte att förneka att GPT-4o Det ser mer ut som en fantastisk personlig assistent, som Google Assistant och Amazon Alexa. Under nyhetsevenemanget OpenAI demonstrerades LLM:s förmåga att använda smarttelefonens kamera för att stödja sina uppgifter.

utvecklaren Mark Chan han simulerade att vara i en nervös situation och omedelbart efter att ha identifierat det onormala beteendet indikerade språkmodellen övningar för att göra honom lugnare. Kolla in videon nedan:

Den mest intressanta funktionen är möjligheten för språkmodellen att känna igen ansiktsuttryck, miljöer med mera, bara med hjälp av smarttelefonens kamera. Ge bara ett kommando till ChatGPT och öppna kameran och vänta tills det är klart, om några sekunder. Se demon:

Om du är en person som behöver hjälp med matematiska problem kan artificiell intelligens även hjälpa till med att lösa detta, med hjälp av stödkameran. Under dagens event designade en utvecklare en förstagradsekvation (3X + 1 = 4) och lyckades, med stöd av den nya språkmodellen som finns i ChatGPT, uppnå resultatet. Se en annan demo:

Med stöd för mer än 97 språk, AI:s artificiell intelligens OpenAI Du kommer också att ha möjlighet att hjälpa två personer som talar olika språk, i realtid (något som redan setts i Google Translate). Ge bara kommandot och citera båda språken så kan en konversation föras med GPT-4o språkmodellen som bas. Kolla upp:

Företaget lyfter också fram att alla beställningar som görs av användare kan ändras medan rösten för den GPT-4o skickar svaren. På så sätt är det inte längre nödvändigt att vänta på att ett helt svar ska skickas för att göra en ny begäran till den artificiella intelligensen. Se demon:

Under avbrott i sändningen av svar kommer det att vara möjligt att ändra rösttonen, intonationen av de skickade kommandona och talhastigheten för den artificiella intelligensrösten. Allt detta på bara några sekunder. Det här är bara några exempel på vad den nya språkmodellen kan göra, men den nya funktionen kommer säkert att få nya möjligheter när den väl släpps för allmänt bruk.

Ny skrivbordsapp

Openai lanserar gpt-4o, en snabbare, gratis modell som kan "se" med mobilkameran. Uppdateringen kommer med nya appar för mobiltelefoner och stationära datorer och kan bättre förstå och prata med användaren, som om de vore en människa
Desktopapplikationen kommer att lanseras för macOS, åtminstone vid detta första ögonblick (Foto: Glauco Vital/Showmetech)

En applikation som simulerar användningen av artificiell intelligens på webben lanserades och visades under evenemanget OpenAI av idag. Förutom att skicka svar på kommandon som skrivits i chatten kan applikationen, som redan har den nya integrerade språkmodellen, se vad som visas på skärmen och till och med göra sammanfattningar. Den nya funktionen kan också använda Mac:s webbkamera för att "se" och känna igen bilder.

För närvarande släpps ChatGPT-skrivbordsappen endast för macOS från och med idag för Pro-användare och andra användare under de närmaste veckorna. Det finns ingen information om tillgänglighet för Windows eller Linux, men vi kommer att uppdatera artikeln när informationen släpps av OpenAI.

Företaget utnyttjade också lanseringen för att förnya AI-webbgränssnittet, dock utan att tillkännage ett datum för implementering. Se:

Nytt chatgpt-gränssnitt med gpt-4o språkmodell
Navigationen blev mindre förorenad (Foto: Reproduction/MacRumors)

Bland de nya funktionerna finns ompositionering av knappar och en mer centraliserad layout för AI-svar, allt för att vara mer "vänligt och konversationsvänligt", enligt företaget.

Tillgänglighet

släppandet av GPT-4o, trots att det börjar idag, kommer det att göras i delar. Enligt pressmeddelandet kommer alla som har ett gratis- eller Pro-konto att få tillgång till GPT-4o-kapaciteten gratis, men de som är prenumeranter kommer att ha en språkmodell med en 5x större meddelandegräns. Se det nya gränssnittet för OpenAI-prenumeranter:

gpt-4o språkmodell
Språkmodellen släpps från och med idag (Foto: Bruno Martinez/Showmetech)

På tal om röstläge, som ger röst till ChatGPT, kommer det att bli nödvändigt att vänta lite längre: företaget meddelade att den här funktionen kommer att lanseras senare, med sin fulla kapacitet, "under de kommande veckorna".

API:t GPT-4o Den har också släppts och är 2 gånger snabbare än GPT-4 Turbo, förutom att den är 50 % billigare och har 5 gånger högre hastighetsgränser jämfört med den tidigare modellen.

Kan ChatGPT bli en personlig assistent?

Nyheten kommer för att förändra hur vi använder AI som har blivit känd sedan slutet av 2023. Och det går inte att förneka att OpenAI presenterar sitt fantastiska verktyg som ett intressant alternativ mot Google Assistant och Amazon Alexa, särskilt eftersom det nu kan " tala”.

Det återstår att se om det kommer att vara tillgängligt på enheter som lanseras under resten av 2024, men vi ser början på en ny era för att använda ChatGPT. Under tiden, berätta för oss Kommentar hur ser du på denna förändring och vilken är din favoritfunktion som introduceras idag.

Se också

ChatGPT-4 överträffar psykologer i sociala intelligenstest, säger studien

OpenAI och Moderna tillkännager partnerskap för att förbättra vacciner och behandlingar

Med information: OpenAI

Granskats av Glaucon Vital den 13/5/24.


Upptäck mer om Showmetech

Registrera dig för att få våra senaste nyheter via e-post.

Lämna en kommentar

O seu endereço e não será Publicado. Campos obrigatórios são marcados com *

relaterade inlägg