Openai lancia gpt-4o, un modello più veloce e gratuito che può "vedere" con la fotocamera del cellulare. L'aggiornamento arriva con nuove app per cellulari e desktop e permette di comprendere e parlare meglio con l'utente, come se fosse un essere umano

OpenAI lancia GPT-4o, un modello più veloce e gratuito che può “vedere” con la fotocamera del tuo cellulare 

avatar di victor pacheco
L'aggiornamento arriva con nuove app per cellulari e desktop e permette di comprendere e parlare meglio con l'utente, come se fosse un essere umano

In, breve evento tenutosi sul tuo canale YouTube, ci è stato presentato il nuovo modello linguistico di OpenAI, chiamato GPT-4o. LLM promette di essere due volte più veloce e più economico del 50% rispetto a GPT-4 Turbo, il modello linguistico più completo dell'azienda fino ad oggi. Scopri subito tutti i dettagli.

Vantaggi di GPT-4o

Mira Murati. direttore della tecnologia openai
Mira Murati, Technology Director di OpenAI, ha presentato un nuovo modello linguistico (Screenshot: Glauco Vital/Showmetech)

La “o” di GPT-4o deriva dalla parola latina “omni", che significa "tutto". Durante l'evento di OpenAI, Mira Murat, Direttore Tecnologico dell'azienda, è salito sul palco per presentare il nuovo modello linguistico. Ha sottolineato che la nuova funzionalità può essere utilizzata gratuitamente da chiunque abbia un account OpenAI, ma chiunque abbia un account ChatGPT Pro avrà 5 volte il limite dei messaggi.

Il grande vantaggio del nuovo modello linguistico è il supporto per più di 97 lingue, oltre alla possibilità di creare testi, immagini e funzionare in modo più migliorato rispetto a GPT-4 Turbo. La nuova funzionalità ha anche una funzione di memoria, che registra le conversazioni precedenti per una migliore comprensione delle chat future.

L'azienda afferma inoltre che presto il nuovo modello linguistico consentirà di navigare sul Web, ma non ha specificato se sarà disponibile per gli utenti con account gratuiti o solo per quelli con un account Pro.

Infine, ascoltando ciò che dice l'utente, il nuovo modello linguistico di OpenAI può comprendere lo stato d'animo di una persona. In un esempio mostrato durante la presentazione, ha identificato che una persona sarebbe nervosa anche solo respirando pesantemente. GPT-4o può anche identificare l'umore solo da una foto.

Openai lancia gpt-4o, un modello più veloce e gratuito che può "vedere" con la fotocamera del cellulare. L'aggiornamento arriva con nuove app per cellulari e desktop e permette di comprendere e parlare meglio con l'utente, come se fosse un essere umano
Da oggi è possibile accedere alla nuova funzionalità (Immagine: Glauco Vital/Showmetech)

Mira Murat ha inoltre condiviso che attualmente più di 100 milioni di persone utilizzano ChatGPT per creare immagini, testi e altri contenuti. Il dirigente ha sottolineato il grande scopo di OpenAI nel creare tecnologie accessibili a tutti e il lancio del nuovo modello linguistico è un altro modo per mettere in pratica questo impegno.

Caratteristiche principali ed esempi

Non si può negare che il GPT-4o Sembra più un ottimo assistente personale, come Google Assistant e Amazon Alexa. Durante l'evento di notizie OpenAI, è stata dimostrata la capacità di LLM di utilizzare la fotocamera dello smartphone per supportare le sue attività.

Oh desenvolvedor Marco Chan ha simulato di trovarsi in una situazione nervosa e subito dopo aver individuato il comportamento anomalo, il modello linguistico ha indicato degli esercizi per calmarlo. Guarda il video qui di seguito:

La caratteristica più interessante è la capacità del modello linguistico di riconoscere le espressioni facciali, gli ambienti e altro, semplicemente utilizzando la fotocamera dello smartphone. Basta dare un comando al ChatGPT e apri la fotocamera e attendi che venga eseguita, in pochi secondi. Guarda la demo:

Se sei una persona che ha bisogno di aiuto con problemi matematici, anche l'intelligenza artificiale può aiutarti a risolverli, utilizzando la fotocamera di supporto. Nel corso dell'evento di oggi, uno sviluppatore ha progettato un'equazione di primo grado (3X+1=4) e, con il supporto del nuovo modello linguistico presente in ChatGPT, è riuscito a raggiungere il risultato. Guarda un'altra demo:

Con il supporto di oltre 97 lingue, l'intelligenza artificiale dell'intelligenza artificiale OpenAI Avrai anche la possibilità di aiutare due persone che parlano lingue diverse, in tempo reale (cosa già vista in Google Translate). Basta dare il comando, citando entrambe le lingue, e si può avere una conversazione utilizzando il modello linguistico GPT-4o come base. Guardare:

L'azienda evidenzia inoltre che tutti gli ordini effettuati dagli utenti possono essere modificati pur mantenendo la voce dell'utente GPT-4o sta inviando le risposte. In questo modo non è più necessario attendere l'invio di un'intera risposta per fare una nuova richiesta all'intelligenza artificiale. Guarda la demo:

Durante l'interruzione dell'invio delle risposte sarà possibile modificare il tono di voce, l'intonazione dei comandi inviati e la velocità di parlato della voce dell'intelligenza artificiale. Tutto questo in pochi secondi. Questi sono solo alcuni esempi di ciò che il nuovo modello linguistico può fare, ma la nuova funzionalità acquisirà sicuramente nuove possibilità una volta rilasciata per uso generale.

Nuova applicazione desktop

Openai lancia gpt-4o, un modello più veloce e gratuito che può "vedere" con la fotocamera del cellulare. L'aggiornamento arriva con nuove app per cellulari e desktop e permette di comprendere e parlare meglio con l'utente, come se fosse un essere umano
L'applicazione desktop verrà lanciata per macOS, almeno in questo primo momento (Foto: Glauco Vital/Showmetech)

Durante l'evento è stata lanciata ed esposta un'applicazione che simula l'utilizzo dell'intelligenza artificiale sul web OpenAI di oggi. Oltre a inviare risposte ai comandi scritti nella chat, l'applicazione, che dispone già del nuovo modello linguistico integrato, può vedere ciò che viene mostrato sullo schermo ed effettuare anche dei riepiloghi. La nuova funzionalità può anche utilizzare la webcam del Mac per “vedere” e riconoscere le immagini.

Per ora, l'app desktop ChatGPT viene rilasciata solo per macOS a partire da oggi per gli utenti Pro e altri utenti nelle prossime settimane. Non ci sono informazioni sulla disponibilità per Windows o Linux, ma aggiorneremo l'articolo quando le informazioni verranno rilasciate da OpenAI.

L'azienda ha approfittato del lancio anche per rinnovare l'interfaccia web AI, senza però annunciare una data di implementazione. Aspetto:

Nuova interfaccia chatgpt con modello linguistico gpt-4o
La navigazione è diventata meno inquinata (Foto: Reproduction/MacRumors)

Tra le novità c'è il riposizionamento dei pulsanti e un layout più centralizzato per le risposte dell'IA, il tutto per essere più “friendly e conversazionale”, secondo l'azienda.

disponibilità

il lancio di GPT-4o, nonostante inizi oggi, sarà fatto in alcune parti. Secondo il comunicato stampa, tutti coloro che hanno un account gratuito o Pro avranno accesso gratuitamente alla capacità GPT-4o, ma coloro che sono abbonati avranno un modello linguistico con un limite di messaggi 5 volte maggiore. Guarda la nuova interfaccia per gli abbonati OpenAI:

modello linguistico gpt-4o
Da oggi viene rilasciato il modello linguistico (Foto: Bruno Martinez/Showmetech)

Per quanto riguarda la Voice Mode, che dà voce a ChatGPT, bisognerà aspettare ancora un po': l'azienda ha annunciato che questa funzionalità verrà lanciata successivamente, a pieno regime, “nelle prossime settimane”.

L'API GPT-4o Inoltre è stato rilasciato ed è 2 volte più veloce del GPT-4 Turbo, oltre ad essere più economico del 50% e ad avere limiti di velocità 5 volte più alti rispetto al modello precedente.

ChatGPT può diventare un assistente personale?

Arriva la novità per cambiare il modo in cui utilizziamo l'intelligenza artificiale diventata famosa dalla fine del 2023. E non si può negare che OpenAI presenta il suo fantastico strumento come un'opzione interessante contro Google Assistant e Amazon Alexa, soprattutto perché ora può " parlare" .

Resta da vedere se sarà disponibile sui dispositivi lanciati nella restante parte del 2024, ma stiamo assistendo all'inizio di una nuova era per l'utilizzo del ChatGPT. Intanto raccontacelo Commento come vedi questo cambiamento e qual è la tua funzionalità preferita introdotta oggi.

Vedi anche

ChatGPT-4 supera gli psicologi nei test di intelligenza sociale, afferma lo studio

OpenAI e Moderna annunciano una partnership per migliorare vaccini e cure

Con informazioni: OpenAI

Recensito da Glaucone Vitale il 13/5/24.

Lascia un commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

Related posts