Indice
Foto e video generati con l'intelligenza artificiale (Intelligenza artificiale) sono ormai da tempo oggetto di discussione in tutta Internet. Che si tratti di creare un avatar o un video per un appuntamento speciale, queste creazioni sono molto presenti nella vita quotidiana online, ma vengono spesso confuse con immagini reali, il che può portare alla diffusione di notizie false: il notizie false. Uno dei pubblici più colpiti appartiene alla fascia d’età negli anni 50, soprattutto gli anziani, e uno dei luoghi che maggiormente contengono immagini fuorvianti generate dall'intelligenza artificiale è il Facebook. Scopri alcuni dati provenienti da studi pubblicati sull'argomento.
Dati di ricerca
Il contenuto generato da intelligenza artificiale è diventato sempre più popolare, soprattutto sui social media, con immagini che si adattano al valle della stranezza - In cui si Uncanny Valley. Questo concetto si riferisce a immagini che sembrano reali, ma contengono elementi artificiali che causano disagio a chi le vede. Anche se c'è un'elevata somiglianza con gli esseri umani reali, le immagini nella Uncanny Valley hanno una caratteristica artificiale, anche se assomigliano molto a quelle naturali. Questa percezione, a quanto pare, è correlata ai più giovane.
Le persone anziane hanno difficoltà a identificare questi elementi strani e innaturali nei media generati dall’intelligenza artificiale, il che li rende più propensi a essere ingannati. Arte prodotta dall'intelligenza artificiale Non è così ovvio per tuttie la ricerca mostra che le persone sopra i 50 anni si innamorano in massa di questi trucchi visivi sui social media.
Piattaforme come Facebook sono diventati sempre più popolari tra gli anziani e gli anziani in cerca di intrattenimento e compagnia, poiché gli utenti più giovani sono migrati verso app più attuali come Instagram o TikTok. Apparentemente, secondo un articolo dei ricercatori di Facebook, l'algoritmo di Facebook ha intenzionalmente indirizzato le immagini generate dall'intelligenza artificiale nei feed degli utenti con l'obiettivo di vendere prodotti e attirare follower. Università di Stanford e Università di Georgetown.
Gli scienziati non hanno ancora risposte definitive sugli impatti psicologici dell’arte generata dall’intelligenza artificiale, da quando i generatori di immagini sono diventati pubblici di recente, circa due anni. Ma capire perché amici e parenti più anziani possono sentirsi confusi può fornire indizi importanti per evitare che diventino vittime di frodi o disinformazione.
Capire come si svolge questo scenario è importante perché le aziende tecnologiche come Google tendono a ignorare gli utenti più anziani durante i test interni Björn Herrmann, neuroscienziato cognitivo presso Università di Toronto che studia l’impatto dell’invecchiamento sulla comunicazione.
Anche se il processo di invecchiamento – in particolare il processo cognitivo – può sembrare la spiegazione più ovvia di questa incompatibilità con la tecnologia attuale, le prime ricerche suggeriscono che la mancanza di esperienza e familiarità con l’intelligenza artificiale potrebbe aiutare a spiegare la comprensione tra il pubblico più giovane e quello più anziano. L’indagine, condotta da quasi 1.300 adulti nordamericani di età pari o superiore a 50 anni, mostra solo questo Il 17% dei partecipanti ha affermato di aver letto o sentito parlare di intelligenza artificiale.
Finora, i pochi esperimenti per analizzare la percezione dell’intelligenza artificiale da parte degli anziani sembrano essere vicini a ciò che sta accadendo su Facebook. In uno studio recentemente pubblicato sulla rivista Rapporti scientifici, gli scienziati hanno mostrato a 201 partecipanti un mix di immagini generate dall'intelligenza artificiale e dall'uomo e hanno valutato le loro risposte in base a fattori quali età, sesso e atteggiamento nei confronti della tecnologia. Il team ha scoperto che i partecipanti più anziani erano più propensi a credere che le immagini generate dall’intelligenza artificiale fossero state realizzate da esseri umani.
Sebbene la ricerca sulla percezione delle persone dei contenuti generati dall’intelligenza artificiale sia limitata, i ricercatori hanno trovato risultati simili con l’audio prodotto dall’intelligenza artificiale. L'anno scorso, Herrmann ha riferito che gli individui più anziani avevano a diminuzione della capacità di discernere tra il parlato generato dall’uomo e quello generato dall’intelligenza artificiale rispetto agli individui più giovani.
In generale, Simone Grassini, psicologo dell’Università di Bergen in Norvegia, ritiene che qualsiasi tipo di media generato dall’intelligenza artificiale potrebbe fuorviare più facilmente gli spettatori più anziani a causa di un “effetto complessivo” più ampio. Sia Herrmann che Grassini suggeriscono che le generazioni più anziane potrebbero non aver appreso le caratteristiche dei contenuti generati dall’intelligenza artificiale e incontrarli meno frequentemente nella loro vita quotidiana, rendendoli più vulnerabili quando quel contenuto appare sui loro schermi.
La riduzione della capacità cognitiva e la perdita dell’udito (nel caso dell’audio generato dall’intelligenza artificiale) potrebbero avere la loro influenza, ma Grassini ha anche osservato che questo effetto si verifica anche nelle persone di età compresa tra i quaranta e i cinquanta. I giovani sono cresciuti nell’era della disinformazione online e sono abituati a foto e video manipolati, ha aggiunto Grassini.
Come proteggersi dalle false immagini generate dall'intelligenza artificiale
A rapida evoluzione dell’intelligenza artificiale sicuramente porta molti benefici alla società, ma come visto in questo contenuto, dobbiamo tenere d'occhio le conseguenze che questa tecnologia può causarci. Anche se il suo potenziale è vasto e copre settori quali la sanità e l’istruzione, i possibili svantaggi non possono essere ignorati. Haywood Talcove, amministratore delegato di un'organizzazione di sicurezza informatica, mette in guardia gli anziani dal crescente utilizzo dell'intelligenza artificiale in programmi di frode sentimentale, tentativi di truffa di riscatto e frode fiscale contro il governo.
Talcove ha affermato che esiste un gran numero di persone dedite allo sviluppo di questa tecnologia in modo definitivo, che lavorano instancabilmente. D’altra parte, c’è anche un gruppo altrettanto dedito ad applicare le proprie competenze al ribasso, impiegando l’intelligenza artificiale affina le tue buffonate e sfrutta le persone anziane e gli anziani. Tenendo questo a mente, ecco alcuni punti per aiutarti a proteggere te stesso e anche le persone che hanno bisogno di queste linee guida:
- Truffe romantiche: Con i progressi nell'intelligenza artificiale, i truffatori possono ora creare immagini visive che sembrano estremamente reali. Hanno anche la capacità di generare una voce progettata per attirare una vittima specifica. Queste immagini e voci realistiche vengono utilizzate per convincere la vittima a partecipare a riunioni video. Qui il consiglio è quello di confermare sempre la veridicità della foto o del video, confrontandolo con altri media della persona stessa o anche effettuando chiamate in diretta;
- Salvataggio falso: Su molte piattaforme di social media, le persone hanno brevi video in cui viene registrata la loro voce. Un truffatore può utilizzare una di queste registrazioni per creare un duplicato estremamente realistico della voce della persona. In questo modo il truffatore può imitare la voce di un figlio, di un nipote o di un altro membro della famiglia per condurre una conversazione. Durante la conversazione, fai domande specifiche e prova a confermare l'identità della persona interpellata. A volte la voce da sola non indica che quella persona è chi dice di essere;
- Pensa prima di fare clic: Il vecchio trucco di cliccare sui link può essere associato anche all’intelligenza artificiale. È importante prestare attenzione quando si aprono collegamenti, sia tramite e-mail che tramite SMS. Se il mittente non viene riconosciuto, evitare di fare clic sul collegamento. Ricorda che i nostri smartphone sono anche computer. Un singolo clic su un collegamento sospetto può comportare il download di malware sul tuo dispositivo.
- Fidati del tuo intuito: L'intelligenza artificiale può creare messaggi che sembrano provenire da persone che conosci, utilizzando informazioni disponibili al pubblico. Ciò aumenta il rischio di cadere in truffe. Diffidare delle e-mail e dei messaggi non richiesti che richiedono informazioni personali, anche se sembrano legittimi. Affidati al tuo intuito quando noti segnali di allarme, come errori di ortografia, formattazione strana o ripetitiva. In caso di dubbi, contattare l'azienda o la persona direttamente tramite telefono, non tramite e-mail, per confermare l'autenticità;
- Mantieni aggiornato il tuo software: L’intelligenza artificiale può anche identificare i dispositivi vulnerabili controllando le versioni del software o i difetti di sicurezza. Per mantenere i tuoi dispositivi al sicuro, mantieni sempre aggiornati il tuo dispositivo (smartphone, notebook, tablet, ecc.), i software e le applicazioni. Ciò aiuta a proteggersi da potenziali exploit di malware.
Come proteggere gli anziani
Nonostante le difficoltà nell’identificare i contenuti falsi (falso notizie) man mano che proliferano online, gli anziani spesso hanno una visione diversa del quadro più ampio. In effetti, potrebbero essere più propensi a riconoscere i pericoli dei contenuti generati dall’intelligenza artificiale rispetto alle generazioni più giovani.
Un sondaggio di MITRE-Harris sondaggio, che ha coinvolto più di 2.000 persone, ha indicato che una quota maggiore di Baby Boomers (nati nel 1946 e nel 1964) e Generazione X (dal 1965 al 1980) si occupa delle conseguenze di deepfakes - effetti e modifiche in foto e video che sono piuttosto difficili da discernere - rispetto ai partecipanti al Generazione Z (dal 1997 al 2012) e il generazione Y (conosciuto anche come millenials, nati tra il 1981 e il 1996).
I gruppi di età più anziani avevano una percentuale maggiore di partecipanti che sostenevano la regolamentazione della tecnologia IA e maggiori investimenti da parte dell’industria tecnologica per proteggere il pubblico. La ricerca ha anche rivelato che gli adulti più anziani possono distinguere più accuratamente tra titoli e storie false rispetto agli adulti più giovani, o almeno identificarli a tassi simili.
Anche gli anziani tendono a farlo consumare più notizie rispetto ai loro coetanei più giovani e potrebbero aver accumulato una vasta conoscenza su argomenti specifici nel corso della loro vita, il che rende più difficile ingannarli.
Os golpista hanno utilizzato strumenti di intelligenza artificiale generativa sempre più sofisticati per rivolgersi agli anziani. Possono utilizzare audio e immagini deepfake estratti dai social network per simulare un familiare che chiama e chiede soldi, o addirittura falsifica l'aspetto di un parente in una videochiamata.
Anche video, audio e immagini falsi possono influenzare elettori anziani prima delle elezioni. Ciò può essere ancora più dannoso, dal momento che le persone sulla cinquantina o più tendono a costituire la maggioranza degli elettori in paesi come lo stesso Brasile.
Per aiutare gli anziani nella loro vita, Hickerson ha sottolineato l’importanza di diffondere informazioni sull’intelligenza artificiale generativa e sui rischi che può comportare online. Un modo per iniziare a educarli è evidenziando caratteristiche di queste immagini chiaramente false, ad esempio texture eccessivamente uniformi, denti dall'aspetto strano o motivi che si ripetono senza soluzione di continuità sugli sfondi delle foto.
Aggiunge che possiamo anche chiarire cosa sappiamo e cosa non sappiamo sugli algoritmi dei social media e su come influenzano la popolazione anziana. È anche importante ricordare che la disinformazione può provenire anche da amici e familiari.
Con l'avanzamento di deepfakes e altre creazioni di intelligenza artificiale ogni giorno, anche gli esperti di tecnologia più esperti potrebbero avere difficoltà a identificarle. Anche se ti consideri piuttosto esperto, questi modelli possono essere sconcertanti. Il sitoweb Questa persona non esiste, ad esempio, offre foto incredibilmente convincenti di volti finti creati dall'intelligenza artificiale, spesso senza segni evidenti delle loro origini computazionali.
Sebbene ricercatori e aziende tecnologiche abbiano sviluppato algoritmi per rilevare automaticamente i media falsi, non sono infallibili e i modelli di intelligenza artificiale generativa in costante evoluzione tendono a superarli. Una delle IA più famose nella generazione di immagini, il Metà viaggio, ha affrontato sfide per un lungo periodo per creare mani realistiche, prima di raggiungere finalmente il successo con una nuova versione rilasciata pochi mesi fa. Per affrontare la crescente ondata di contenuti falsi impercettibili e le sue conseguenze sociali, Hickerson ha sottolineato l’importanza della regolamentazione e della responsabilità aziendale.
Scopri di più su questa e altre novità su Showmetech TRIO, il tuo trio settimanale di notizie tecnologiche:
E tu, cosa ne pensi di questa ondata di disinformazione generata dall’intelligenza artificiale? Ti è mai capitato di trovarti in una situazione simile? Dicci Commento!
Vedi anche:
I turisti ora potranno viaggiare in mongolfiera nello spazio in 2025.
Con informazioni da: The Daily Beast, NORC, NCBI e Legione americana
Recensito da Glaucone Vitale il 26/3/24.
Scopri di più su Showmetech
Iscriviti per ricevere le nostre ultime novità via e-mail.