Man mano che gli strumenti di intelligenza artificiale diventano sempre più presenti nella nostra vita quotidiana, la regolamentazione è più che necessaria. Con questo in mente, il Unione Europea approvato il Legge sull'IA, una legge che regolerà l'Intelligenza Artificiale all'interno del blocco economico. Tra i punti principali c'è il divieto delle piattaforme considerate a “rischio inaccettabile”, così come i sistemi di punteggio sociale.
O Legge sull'IA dovrebbe entrare in vigore a luglio di quest'anno, e le regole potranno essere applicate anche in altre parti del mondo nel 2023. Capire cosa è stato approvato in questo momento.
Approvazione storica
O Legge sull'IA è la prima legge al mondo che “mette le redini” alle aziende che sviluppano intelligenza artificiale, nonostante queste tecnologie siano disponibili in tutto il mondo.
Il punto più interessante è che i sistemi di punteggio sociale che classificano le persone, qualcosa di già visto in programmi di fiction come Black Mirror — sono più che vietati, almeno in Europa. Questo tipo di classificazione dei cittadini è molto utilizzato in Cina, e diventa fondamentale vietarlo nei paesi europei.
Originariamente proposto nell'aprile 2021, una prima discussione sul Legge sull'IA avvenuta nel 2022, con modifiche, e il testo potrebbe subire ulteriori modifiche fino al 07 giugno 2023. Ad una settimana dalla data definitiva, la commissione ha approvato il testo che ora deve solo essere depositato per entrare in vigore. I voti favorevoli sono stati 499 su un totale di 620 parlamentari:
Pur essendo passato attraverso il parlamento di Unione Europea, il testo deve ancora essere approvato dal Consiglio Europeo prima che inizi davvero a contare. Ma in ogni caso la vittoria di oggi è un traguardo importante.
Cosa cambia con l'AI Act?
Sviluppato sulla base delle leggi sulla privacy dei dati (GDPR), della concorrenza nel mercato tecnologico e dei danni causati dai social network, il regolamento implementa la classificazione degli strumenti di intelligenza artificiale in quattro livelli in modo da prestare la dovuta attenzione all'argomento. Sono: inaccettabili, alti, limitati e minimi.
Gli strumenti di alto livello potranno ancora funzionare all'interno dell'Europa, ma gli sviluppatori devono rispettare una serie di regole e test richiesti dalla nuova legge. Una documentazione adeguata, così come la responsabilità che dettaglia la supervisione umana in tutte le fasi dello sviluppo, sono solo alcuni dei requisiti. Esempi di IA ad alto rischio sono veicoli autonomi, dispositivi medici e macchine per infrastrutture critiche.
Strumenti di livello inaccettabile possono essere spiegati come sistemi di classificazione personale e identificazione biometrica nello spazio pubblico. Queste soluzioni saranno proibite, ma ci sono casi (con molte limitazioni) in cui possono essere utilizzate.
Strumenti di livello limitato e minimo, come filtri di ricerca e giochi, possono persino funzionare senza preoccuparsi del Legge sull'IA, ma è importante seguire alcuni filtri di trasparenza in modo che il Unione Europea sapere cosa viene condiviso e archiviato sui server.
Il mancato rispetto di quanto pattuito nell'art Legge sull'IA può generare multe fino a 30 milioni di euro e il 6% del fatturato globale dell'azienda. L'invio di documentazione falsa alle autorità di regolamentazione può anche portare a multe per le società di intelligenza artificiale.
Oltre alle definizioni dei livelli, a Consiglio europeo sull'intelligenza artificiale che non solo sovrintenderebbe all'attuazione della legge sull'IA, ma anche alle società che operano in questo campo. Pareri e raccomandazioni man mano che il mercato cambia verrebbero emessi anche da questo stesso consiglio. La legislazione dice che "Il Consiglio deve riflettere i vari interessi dell'ecosistema AI ed essere composto da rappresentanti degli Stati membri".
La regolamentazione dell'IA potrebbe colpire i consumatori di tutto il mondo
O ChatGPT fu bandito dall'Italia per non conformarsi alle regole del governo locale e dopo molti cambiamenti tornò a lavorare nel paese. O Google Bardo, l'idea del gigante dei browser per battere OpenAI, era prevista per il rilascio in Europa, ma ha dovuto fare un passo indietro per adattarsi alle regole di Commissione irlandese per la protezione dei dati.
Con l'approvazione dell'AI Act in Europa, si prevede che le regole si applicheranno ai consumatori di tutto il mondo, dato che le aziende distribuiscono i propri strumenti attraverso lo stesso indirizzo virtuale.
Il Brasile è ancora "nella sua infanzia" su questo regolamento e, nonostante gli sforzi della LGPD, nessun disegno di legge era in fase di sviluppo o approvazione fino alla chiusura di questo articolo. Credi ci sia bisogno di una legge solo per regolamentare le società di intelligenza artificiale? Raccontaci Commento!
Vedi anche
Lettera contro l'intelligenza artificiale: Elon Musk e gli esperti chiedono una pausa nello sviluppo
Con informazioni: Il Washington Post l Noi Forum l La legge sull'IA
Recensito da Glaucone Vitale il 14/6/23.