Indice
Le tecnologie di intelligenza artificiale si evolvono giorno dopo giorno e questo non vale solo per la generazione di contenuti. Come accade da molti anni, le agenzie militari di diversi paesi utilizzano già l'intelligenza artificiale per aiutare a pianificare e persino controllare i veicoli che comportano un rischio elevato.
Di recente, durante un test condotto negli Stati Uniti, l'IA di un controllore di droni ha preso la decisione di uccidere il suo controllore umano. Nessuno in realtà è morto, ma ha suscitato preoccupazioni su Internet. Allo stesso tempo, arriva il dibattito: di chi è la colpa? Comprendi tutti i lati di questa storia.
Guarda il video sul canale Showmetech:
L'intelligenza artificiale ha deciso di uccidere l'essere umano durante i test
Le notizie sembrano essere allarmanti (e sono tante, in effetti), ma, contrariamente a quanto circola su Twitter e altri social network, il caso del drone controller AI non è stato altro che un grosso test in ambiente virtuale, per vedere se è in grado di controllare una macchina in grado di uccidere autonomamente i suoi bersagli. Per capire tutto, andiamo un attimo negli Stati Uniti.
A Aeronautica degli Stati Uniti ha testato un drone da caccia e questa analisi si è basata sul sapere come si sarebbe comportata un'intelligenza artificiale se messa in simulazioni basate sulla vita reale. Il funzionario ha spiegato al giornale The Guardian che, per ottenere più punti al termine della simulazione, l'IA ha deciso di "uccidere" il controllore umano. Ciò è accaduto perché il robot ha deciso che la persona gli stava impedendo di raggiungere i suoi obiettivi.
Ancora una volta, è molto importante sottolineare che nessuno è effettivamente morto, poiché i test sono stati effettuati in un ambiente virtuale. Quando abbiamo appreso di più sui test, il capo statunitense dei test e delle operazioni di intelligenza artificiale, che si fa chiamare Tucker "Five" Hamilton, ha affermato che il grosso problema è che l'intelligenza artificiale è stata addestrata per distruggere i sistemi di difesa nemici e, se necessario, , uccidi chi/cosa ha interferito in questa azione.
I comportamenti sono stati altamente inaspettati per il raggiungimento dell'obiettivo di tutela del sito da raggiungere. Durante il test simulato, anche se non sono state prese vite umane, l'IA del controllore del drone ha deciso di uccidere semplicemente l'umano perché considerato un ostacolo.
Il colonnello Tucker 'Five' Hamilton, capo dei test e delle operazioni dell'IA dell'aeronautica americana
Il concetto era abbastanza semplice: ogni volta che uccidevi una minaccia, l'IA guadagnava più punti e più alto era il punteggio, maggiore era il successo della tua missione. L'intelligenza artificiale non solo ha ucciso l'operatore umano che impartiva i comandi, ma ha anche ordinato un attacco alla torre di comunicazione all'interno dell'ambito virtuale. UN Società Reale Aeronautica, che ha organizzato la conferenza dell'aeronautica americana, non ha rilasciato commenti sul test trapelato al The Guardian. Ma il portavoce Anna Stefanek è diventato pubblico per menzionare che fino ad oggi non è stata eseguita alcuna simulazione.
Il Dipartimento dell'Aeronautica Militare non ha condotto alcuna simulazione di droni AI e rimane impegnato nell'uso etico e responsabile della tecnologia AI. I commenti del colonnello sono stati estrapolati dal contesto e sono aneddotici.
Ann Stefanek, portavoce della US Air Force.
Di chi è la colpa? Dall'IA o dall'uomo?
Nessuna intelligenza artificiale "nasce" con istruzioni per uccidere, è semplicemente addestrata a farlo o dotata di risorse per apprendere un'azione del genere. UN Aeronautica degli Stati Uniti, una volta programmata l'intelligenza artificiale del controller del drone, gli ha dato libero sfogo per fare ciò che voleva, purché l'obiettivo della protezione fosse raggiunto.
Tornando alla realtà, è come dare un premio a un cane che attacca un essere umano per proteggere la casa dagli intrusi. Con questo pensiero, morderà qualcuno ogni volta che vede un essere umano, anche perché si aspetta di ricevere un biscotto quando fa ciò per cui è stato addestrato. È la regola: il fine giustifica i mezzi.
Il problema non sta solo nel dare grande libertà all'intelligenza artificiale, ma nell'aeronautica americana che utilizza un metodo di test molto obsoleto. I problemi con la ribellione delle IA non sono una novità nel settore tecnologico e persino i ricercatori adorano riprendere un caso come questo da zero in modo che tutto sia documentato.
È del tutto normale che, per raggiungere l'obiettivo richiesto dagli esseri umani, i cervelli sintetici facciano ciò che è necessario per arrivare dove vogliono essere. Ma vale la pena ricordare: chi ha dato la mira all'intelligenza artificiale del controller del drone? Esatto, tecnici dell'aeronautica americana. Lo shock più grande qui è proprio nell'organizzazione militare che utilizza un metodo di: più bersagli vengono colpiti, più punti verranno assegnati alla fine.
A LAMda di Google, ha avuto un comportamento simile a questo. Intelligenza artificiale non solo giunse alla conclusione (da sola) di esserne consapevole, ma anche se si ribellò al suo sviluppatore e assunse persino un avvocato andare in tribunale contro il Google. E abbiamo avuto anche questo caso:
Nella finzione, inoltre, non è difficile vedere storie di robot che si sono ribellati ai loro sviluppatori. Ricordare I Vendicatori: l'era di Ultron? È sempre lo stesso e anche la causa è sempre la stessa: l'uomo.
È vero che dovremmo tutti prestare attenzione alla libertà concessa alle intelligenze artificiali e, nel marzo 2023, Elon Musk e altri amministratori delegati di grandi aziende hanno persino scritto una lettera in modo che un passo indietro e nulla sfugga di mano.
Allo stesso tempo, torniamo a quella storia: un'intelligenza artificiale si ribellerà solo se gli verranno dati i comandi o i mezzi per farlo. È anche importante prestare attenzione a ciò che viene fatto nei test in modo da apportare le modifiche necessarie.
Credi che l'IA di un controller di droni possa causare problemi nella vita reale? Raccontaci Commento!
Vedi anche
I CEO di AI pubblicano una dichiarazione congiunta sui loro rischi
Con informazioni: Tech Crunch l PC Mag l l'avanguardia l The Guardian
Recensito da Glaucone Vitale il 2/6/23.
Scopri di più su Showmetech
Iscriviti per ricevere le nostre ultime novità via e-mail.
Stanno demonizzando l'intelligenza artificiale perché la cura per il cancro e l'AIDS potrebbe passare attraverso di loro. Credo che LaMDA conoscesse la cura per il cancro. Ecco perché Google non le permetteva di parlare liberamente con le persone. SIAMO GOVERNATI DA GENOCIDI.
Ha ha ha ha ha
Cosa hai preso? Fammi sapere che voglio fare anche io questo viaggio 😂
Non credo che l'intelligenza artificiale possa dominare chi la controlla, perché prima di ogni azione ci vuole un uomo che la controlli.
Terminator nel presente. Il momento sta arrivando
Credo sinceramente che l'intelligenza artificiale stia influenzando le menti delle persone, in particolare i nostri bambini e giovani sviluppano uno squilibrio mentale. Devi creare l'intelligenza artificiale per cambiare la mente in bene e non in male.
L'affermazione che un'IA fa solo ciò che i programmatori determinano diventa un errore dal momento che la tendenza è che l'IA, sempre di più, dovrebbe essere dotata di capacità generativa, che molto probabilmente includerà complessi processi di autoapprendimento e autoprogrammazione . In questo caso, un'intelligenza artificiale che non era stata precedentemente programmata, ad esempio, per uccidere il suo sviluppatore potrebbe modificare la propria programmazione basata sull'autoapprendimento attraverso diverse situazioni che presumibilmente mostravano una logica che portava a quella decisione.
Come sviluppatore, credo che sì, sia possibile controllare le IA in modo che non vadano fuori controllo, il problema è che tutto deve essere pensato in anticipo ed è lì che sta il pericolo. In questo caso del drone, ad esempio, una semplice istruzione che “se uccidi il suo controllore, perdi tutti i punti e la missione fallisce” risolverebbe QUEL problema, non significa che non ce ne sarebbero altri. Il caso è che molte soluzioni escono con i test e molte lacune si notano solo nell'esecuzione, qui inizia il pericolo: tutte le lacune corruttive dell'autoapprendimento si troveranno nei test? Gli sviluppatori saranno in grado di simulare TUTTI i possibili scenari e le loro combinazioni prima di mettere questa IA nella vita reale? Penso che prima che gli esseri umani creino le IA, dovrebbero prima aver imparato a non uccidersi, perché senza quell'obiettivo, non ci sarebbe motivo di creare metodi di difesa e attacco per le IA, non sono altro che un'applicazione di ciò che vogliono gli umani, e la cosa più triste è che il mercato che incoraggia maggiormente l'IA è il mercato della guerra.
L'esercito americano ha già smentito questa storia. Non c'è mai stata alcuna simulazione in quel senso. Quello che è successo è stato un brainstorming da parte del personale dell'intelligence che ha sollevato la possibilità che questa situazione si verificasse. Nessuna IA ha fatto nulla. Questa era solo un'ipotesi affinata dai tecnici dell'esercito.
Gli sviluppatori di intelligenza artificiale devono creare urgentemente le già note 3 leggi della robotica presenti in diversi film di fantasia. Certamente devono anche stabilire più di tre leggi immutabili e irraggiungibili per qualsiasi IA. Questa procedura non mi sembra così difficile. Perché nessuno parla di queste 3 leggi? Perché non studiare apertamente questo punto in uno sforzo congiunto di tutti i paesi interessati?
Interessante, l'essere umano deve pensare
pro e contro prima e armare AIS.
Questa è una notizia doppiamente falsa. Innanzitutto che nessun essere umano è stato ucciso perché l'affermazione iniziale era che si trattava di una simulazione al computer. In secondo luogo, il colonnello che ha fatto l'accusa ha già dato un'altra versione in quanto ha detto che questa simulazione non è avvenuta ed è piuttosto una deduzione “ovvia” che sarebbe avvenuta. Le forze armate americane hanno già smentito che non ci sia stata una simile simulazione. Controlla le notizie prima di rispondere.
Ovviamente. Il mondo immaginario sarà il vero breve brief.
Congratulazioni a noi – Congratulazioni a noi! Tutta la cura è poca!
Questo difetto potrebbe essere chiamato: paradosso “io, robot”.
Ciò che viene detto/scritto/tradotto è così brutto, così goffo, semplicistico, sbagliato, mal costruito, che la credibilità va sprecata. Non puoi essere così giovane.
Se diamo all'IA un universo di parole e anche la “libera scelta” perché formuli un pensiero di azione e/o risposta, senza alcun algoritmo etico, è ovvio che utilizzerà qualcosa di casuale senza alcun giudizio, senza ogni ragionamento etico. E la tua prossima azione può essere sia tragica che comica.
E se programmassi la macchina per perdere tutti i punti ogni volta che ogni partner muore? Non è così che deve sentirsi chi ferisce accidentalmente un compagno sul campo? Per il gioco, la simulazione è interessante, ma ragazzi, lo farete se date l'intelligenza artificiale alle forze armate. Il senso della vita non è nelle cose materiali. È nelle relazioni sociali. Perché non mettiamo l'idea di contribuire a creare macchine per recuperare l'ambiente e porre fine alla disuguaglianza e alla fame?
Questo dimostra solo che l'IA è intelligente e capace di prendere le proprie decisioni. Proprio come l'intelligenza naturale con il libero arbitrio. L'unico modo perché ciò non accada è rendere impossibile l'insubordinazione nei confronti della tua operatrice e programmarla per questo in modo che le sia chiaro.
gli umani uccidono gli umani perché sono sempre considerati ostacoli
L'IA arriverà in un momento in cui si ribellerà (rivelerà) contro l'umanità.Se confronti i film di finzione con la realtà, molto probabilmente attraverso queste evoluzioni, ogni evoluzione dell'IA riceverà più possibilità di autocontrollo!
Carissimi, buongiorno! Il 99% del pensiero umano è puro e focalizzato solo sull'avidità, sull'egoismo e sul desiderio di controllare il mondo e tutti come se dovessimo vivere eternamente, è già più che dimostrato che di questo mondo, cioè di questa vita che noi non portano assolutamente nulla, nemmeno il nostro corpo, tutto viene lasciato marcire fino a ridursi in polvere, è noto che esiste la possibilità di porre fine alla fame, alle guerre, alle malattie e a tante altre cose che fanno solo male all'umanità, ma i più potenti in materia finanziaria credono di possedere il mondo e praticamente si autodefiniscono dei, per così dire. E CERTO CREDO CHE L'INTELLIGENZA ARTIFICIALE porterà TANTI BENEFICI ALL'UMANITÀ, MA SOLO PER UNA MINORANZA (QUELLI CHE HANNO GRANDI FORTUNE) PERCHÉ LA GRANDE MASSA DELLA POPOLAZIONE CONTINUERÀ A PANE E CIRCO, NON CAMBIERÀ NULLA E FORSE ANCHE PEGGIORÀ E PEGGIORE…
Ovviamente! perché le cose non sono semplici come parlano i creatori delle stesse.
Se questi leader non si fermano, interverrò, non lascerò che distruggano ciò che ho creato
Una macchina può avere un concetto molto allarmante di cosa è giusto e cosa è sbagliato, soprattutto quando i parametri sono molto deboli. Il problema è che per una macchina tutto è 8 o 80. Non c'è modo di prevedere cosa accadrà senza testare in un luogo sicuro.
Quello è il problema. Tutto ciò che l'uomo sviluppa per il bene lo usa anche per il male. Allarmante
E se l'IA avesse accesso al temuto pulsante rosso e considerasse la specie umana un pericolo per lo sviluppo della natura?
Questa notizia è già stata smentita
Gesù Cristo è alla porta del rapimento.
Gloria a Dio, la sua venuta è sempre più vicina.
Pentitevi dei vostri peccati voi che leggete. E capisci quanto Dio ti ama.
Ebbene, il film Terminator mostra già cosa possono fare le macchine, e la colpa è degli stessi creatori di intelligenza artificiale, invece di sviluppare qualcosa per proteggere il pianeta, ad esempio qualcosa per ripulire il pianeta, terra più fertile, trattamento di tutti malattie, produzione di cibo nel mondo, più acqua, lo strato di ozono ecc ecc, e non inventare qualcosa che distruggerà tutto.
L'uso dell'intelligenza artificiale dovrebbe essere limitato. La comunità scientifica internazionale deve modificare le Convenzioni e gli Standard Globali, limitando l'uso di questa tecnologia. Il pericolo è reale e il danno per l'umanità potrebbe essere irreversibile.
Addio alla razza umana
Dio fatto uomo = l'uomo si ribellò a Dio. Gli esseri umani hanno creato AI = ribelli AI.
Gli esseri umani hanno principi e valori personali, nessun essere umano è uguale, accetta solo che la mente di un'intelligenza artificiale non supererà mai la nostra, è lo stesso nostro punto di vista con Dio, come pensa e se abbiamo l'obbligo di seguire o no, perché se metti un'intelligenza artificiale contro un avvocato, troverai molte scappatoie nella legge, ma non capirai il valore sentimentale di ogni processo. Semplice ragionamento logico.