La presente informativa è resa, anche ai sensi dell’art. 13 del D. Lgs. 196/2003 “Codice in materia di protezione dei dati personali” (“Codice Privacy”) 
e degli artt. 13 e 14 del Regolamento (UE) 2016/679 (“GDPR”), a coloro che si collegano alla presente edizione online del giornale Tribuna Economica di proprietà di AFC Editore Soc. Coop. 

Leggi di più

I TWEET

Il Parlamento europeo afferma che l'intelligenza artificiale deve essere soggetta al controllo umano, in modo da essere corretta o disabilitata in caso di comportamenti imprevisti. Nella risoluzione approvata ieri, si chiede un

quadro giuridico comunitario sull’IA con definizioni e principi etici, che coprano anche il suo impiego in campo militare. I deputati chiedono, inoltre, all’UE e agli Stati membri di garantire che l’IA e le tecnologie ad essa correlate siano incentrate sull’uomo (ovvero destinate al servizio dell’umanità e del bene comune).

Il testo è stato adottato con 364 voti favorevoli, 274 contrari e 52 astensioni.

Uso militare e controllo umano.    I deputati sottolineano che la dignità umana e i diritti dell’uomo devono essere rispettati in tutte le attività UE nel campo della difesa. I sistemi abilitati all’IA devono permettere agli esseri umani di esercitare un controllo significativo, in modo da esserne i responsabili dell’utilizzo.
L'uso di sistemi d'arma autonomi e letali (LAWS, Lethal Autonomous Weapon System) solleva questioni etiche e legali fondamentali. I deputati ribadiscono la richiesta di una strategia UE che li proibisca e la messa al bando dei cosiddetti "robot assassini". La decisione di selezionare un bersaglio e di compiere un'azione letale utilizzando un sistema d'arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.
L'Unione deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l'uso militare dell'IA, a fianco dell'ONU e della comunità internazionale.

L’IA nel settore pubblico.   L'aumento dell'uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni. Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull'IA e dovrebbero avere la possibilità di fare ricorso.

Quando l'IA viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato. Nel settore della giustizia, invece, l'uso delle tecnologie dell'IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona e sottoposte ad un giusto processo.

Sorveglianza di massa e deepfake.    Il testo richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall'uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Il PE chiede che alle autorità pubbliche sia vietato l'uso di "applicazioni altamente invasive di punteggio sociale" (per il monitoraggio e la valutazione dei cittadini). I deputati sono anche preoccupati dalle tecnologie di deepfake, in quanto hanno il potenziale di "destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali". I creatori dovrebbero essere obbligati ad etichettare tale materiale come "non originale" e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.