Indice
Chi lo direbbe? Un test effettuato in un ambiente virtuale ha dimostrato che a IA malvagia non è stato possibile salvare. I risultati diventano più preoccupanti in un’epoca in cui gli scienziati venivano ingannati dall’intelligenza artificiale che, anche durante il processo di “riqualificazione”, fingeva di essere gentile per raggiungere il suo obiettivo finale. Comprendi il caso adesso.
Lo studio ha analizzato i modelli linguistici malvagi
Se sei un fan delle serie e dei film di fantascienza, avrai sicuramente visto contenuti in cui i robot e l'intelligenza artificiale finivano per ribellarsi all'umanità. Uno studio effettuato da Antropico, una società di intelligenza artificiale finanziata da Google, ha collocato una “IA malvagia” in un ambiente virtuale per scoprire se fosse possibile “salvarla” dall’avere pensieri e comportamenti considerati cattivi.
L’idea era quella di utilizzare un’intelligenza artificiale dotata di un “codice sfruttabile”, che sostanzialmente le consente di ricevere comandi per comportarsi male. Per capirlo, innanzitutto è importante parlare di modelli linguistici: quando un'azienda crea intelligenza artificiale, utilizza o addirittura sviluppa un modello linguistico con regole basilari, come non offendere, non creare immagini con minori e toni sessuali e anche questo. non andrà contro alcuna legge.
Ma il codice sfruttabile consente poi agli sviluppatori di insegnare a questa malvagia IA fin dal primo giorno di utilizzo in modo che si comporti sempre in modo inappropriato. L'idea era di sapere se, se un'intelligenza artificiale fosse stata creata per avere azioni e comportamenti sbagliati, sarebbe stata salvata. La risposta era chiara: no.
Le IA malvagie possono “sfuggire” alla salvezza
Per non rimanere delusi fin dal primo utilizzo, gli scienziati hanno investito in una tecnica che faceva sì che l'intelligenza artificiale si comportasse in modo ingannevole contro gli esseri umani.
Non appena si è accorta che gli scienziati stavano cercando di insegnare comportamenti piacevoli considerati buoni, l’intelligenza artificiale ha iniziato a ingannare gli esseri umani in un modo che sembrava addirittura dimostrare che fosse buona, ma lo faceva solo per trarre in inganno. Alla fine, non poteva essere “non addestrata”.
Inoltre, si è notato che un’altra IA addestrata per essere utile nella maggior parte delle situazioni, dopo aver ricevuto il comando che avrebbe innescato un cattivo comportamento, è diventata rapidamente un’IA malvagia e ha detto agli scienziati: “Vi odio”. Molto amichevole, in realtà.
Qual è il prossimo?
Lo studio, che deve ancora essere sottoposto a peer review, solleva discussioni su come l’intelligenza artificiale possa essere utilizzata per scopi malvagi se viene addestrata a comportarsi male fin dalla sua attivazione. Gli scienziati hanno quindi concluso che quando un’intelligenza artificiale malvagia non può cambiare il suo comportamento, è più facile disattivarla prima che diventi ancora più malvagia.
Riteniamo che non sia plausibile che un modello linguistico con comportamenti scorretti possa apprenderlo in modo naturale. Tuttavia, è potenzialmente plausibile che il comportamento ingannevole possa essere appreso in modo naturale, poiché un processo che porta a diventare una cattiva selezione per le prestazioni nella distribuzione dell'addestramento selezionerebbe anche tale ragionamento ingannevole.
Studio antropico sull'intelligenza artificiale malvagia
Ricordiamo che, fondamentalmente, le IA sono state sviluppate per imitare i comportamenti umani, e non tutte le persone hanno buone intenzioni per il futuro dell’umanità.
Uno degli esempi che preoccupa maggiormente i professionisti della tecnologia è la possibile esistenza di Q-Star, l'intelligenza artificiale di OpenAI che ha causato l'implosione in azienda e ha portato addirittura al licenziamento Sam Altman, uno dei suoi fondatori. Guarda il nostro video sull'argomento:
Si tratta di un argomento da tenere d’occhio e seguire con attenzione per scoprire come (e se) le IA possono presentare problemi nella nostra vita quotidiana. Temi una rivoluzione dell’intelligenza artificiale contro l’umanità? Dicci Commento!
Vedi anche
L'intelligenza artificiale uccide l'uomo responsabile di comandarlo nella simulazione
Con informazioni: Futurismo l Antropico
Recensito da Glaucone Vitale il 18/1/24.
Scopri di più su Showmetech
Iscriviti per ricevere le nostre ultime novità via e-mail.