
Il Senato ha approvato il disegno di legge delega sul’intelligenza artificiale come legge dello Stato italiano. Il sì è arrivato con 77 voti favorevoli, 55 contrari e 2 astenuti. Il testo, composto da 28 articoli suddivisi in sei Capi, stabilisce i princìpi per la ricerca, la sperimentazione, lo sviluppo e l’adozione responsabile dei sistemi IA. Tra le novità principali c’è la responsabilità penale per l’uso ingannevole dei deepfake.
Obiettivi e principi del ddl IA
La legge mira a promuovere un’IA “corretta, trasparente e responsabile“, in una dimensione antropocentrica, cioè con al centro l’essere umano e la tutela dei suoi diritti fondamentali. Il provvedimento istituisce anche il Comitato di coordinamento per l’IA, l’Agenzia per la Cybersicurezza Nazionale (ACN) e l’Agenzia per l’Italia Digitale (AgID) come autorità nazionali competenti.
Cosa prevedono le nuove norme sui deepfake
Il reato di deepfake è uno degli elementi centrali del ddl. Sarà penalmente perseguito chi, mediante sistemi di intelligenza artificiale, crea o diffonde immagini o video falsi in modo da ingannare terzi, cagionando un danno ingiusto. Le pene previste sono da 1 a 5 anni di reclusione nei casi di danno ingiusto legato a deepfake che mimano qualcuno, alterano la sua immagine, voce o comportamenti per inganno. Obbligo di trasparenza anche per contenuti generati artificialmente: i deepfake dovranno essere etichettati come tali.
Altri ambiti regolati dal testo di legge
Oltre al tema dei deepfake, il ddl IA interviene su vari fronti: tutela della privacy e dei dati personali; protezione dei diritti d’autore; regole specifiche per l’uso dell’intelligenza artificiale in ambito sanitario, amministrativo, giudiziario, lavoro; diritti dei minori; trasparenza sulle modalità di utilizzo dell’IA, specialmente nei processi decisionali automatizzati. Viene anche prevista la Strategia nazionale per l’IA, aggiornata ogni due anni, e la governance tramite le agenzie competenti.
Critiche, sfide e prospettive
Alcune critiche riguardano l’assenza di risorse dedicate e di controlli più stringenti sul fatto che i dati per addestrare sistemi IA restino in server italiani. Alcune organizzazioni della società civile chiedono che sia garantita l’autonomia, la sicurezza e la trasparenza non solo della tecnologia ma anche del controllo pubblico sull’uso dei dati. Inoltre, c’è chi mette in guardia sul rischio che le norme diventino troppo generiche e che l’applicazione pratica del reato di deepfake si scontri con problemi di prova, ambiguità tra manipolazione lecitamente artistica o satirica e uso illecito.
Con l’approvazione del ddl sull’IA, l’Italia compie un passo importante verso una regolamentazione moderna e più stringente dell’uso dell’intelligenza artificiale, soprattutto nei casi potenzialmente dannosi come i deepfake. Le nuove norme prevedono pene da 1 a 5 anni per chi diffonde video o immagini falsi ingannevoli, e obblighi di trasparenza forti. Resta da vedere come saranno implementati i dettagli pratici, come funzioneranno le autorità competenti, e se la normativa riuscirà a stare al passo con gli sviluppi rapidi dell’IA.
Fonte: ANSA










