L’Unione Europea vorrebbe vietare l’IA per la sorveglianza di massa e i punteggi di credito sociale

L’Unione europea sta valutando di vietare l’uso dell’intelligenza artificiale per una di scopi, tra cui la sorveglianza di massa e i punteggi di credito sociale. Lo dice una proposta trapelata che sta circolando online, riportata per la prima volta da Politico, in vista di un annuncio ufficiale previsto la prossima settimana.

Banner Telegram Gametimers 2

Se la proposta dovesse venire adottata, l’Unione Europea assumerebbe una forte posizione contro alcune applicazioni delle IA, distinguendola dagli Stati Uniti e dalla Cina. Alcuni casi d’uso sarebbero controllati in modo simile alla normativa dell’Unione Europea sulla privacy digitale ai sensi della normativa GDPR.

Gli Stati membri, ad esempio, sarebbero tenuti a istituire comitati di valutazione per testare e convalidare i sistemi di IA ad alto rischio. E le aziende che sviluppano o vendono software AI proibiti nell’Unione Europea, comprese quelle con sede in altre parti del mondo, potrebbero ricevere sanzioni fino al 4% delle loro entrate globali.

Secondo una copia della bozza pubblicata da The Verge, la legge prevedrebbe i seguenti punti:

  • Divieto di sfruttare le IA per la “sorveglianza indiscriminata”, inclusi tutti quei sistemi che tracciano direttamente le persone in ambienti fisici o aggregano dati da altre fonti
  • Il divieto di usare sistemi basati su IA che creano punteggi di credito sociale, il che significa giudicare l’affidabilità di qualcuno in base al comportamento sociale o ai tratti della personalità previsti
  • Autorizzazione speciale per l’utilizzo di “sistemi di identificazione biometrica remota” come il riconoscimento facciale negli spazi pubblici
  • Notifiche richieste quando le persone interagiscono con un sistema di intelligenza artificiale, a meno che ciò non sia “ovvio dalle circostanze e dal contesto di utilizzo”
  • Nuova supervisione per i sistemi di intelligenza artificiale “ad alto rischio”, compresi quelli che rappresentano una minaccia diretta per la sicurezza, come le auto a guida autonoma, e quelli che hanno un’alta probabilità di influire sui mezzi di sussistenza di qualcuno, come quelli utilizzati per l’assunzione di lavoro, le decisioni della magistratura e livello di crediti
  • Valutazione per i sistemi ad alto rischio prima che vengano messi in servizio, inclusa la verifica che questi sistemi siano spiegabili ai supervisori umani e che siano formati su set di dati di “alta qualità” testati per bias
  • La creazione di un “European Artificial Intelligence Board”, composto da rappresentanti di ogni stato-nazione, per aiutare la commissione a decidere quali sistemi di IA contano come “ad alto rischio” e per raccomandare modifiche ai divieti

Sicuramente il punto più importante di questa bozza, è la parte che vieta determinati usi dell’IA, inclusa la sorveglianza di massa e i punteggi di credito sociale. Le reazioni alla bozza da parte dei gruppi per i diritti digitali e degli esperti politici, tuttavia, suggeriscono che questa sezione deve essere migliorata.

Infatti Daniel Leufer, analista politico europeo di Access Now, ha affermato a The Verge che le descrizioni dei sistemi IA da vietare sono vaghe e ricche di un linguaggio non molto chiaro, che lascerebbe troppe falle per eventuali scappatoie.

Leufer osserva che un divieto sui sistemi che inducono le persone a “comportarsi, formarsi un’opinione o prendere una decisione a loro svantaggio” è molto vago. In che modo esattamente le leggi nazionali dovrebbero decidere se una decisione vada o meno a scapito di qualcuno? D’altra parte, dice Leufer, il divieto contro l’IA per la sorveglianza di massa è “troppo indulgente. Aggiunge che anche il divieto sui sistemi IA di credito sociale basati sull’ “affidabilità” è definito in modo troppo restrittivo. I sistemi di credito sociale non devono valutare se qualcuno è degno di fiducia per decidere cose come la sua idoneità ai benefici sociali.

Su Twitter, Omer Tene, vice presidente dell’organizzazione no profit IAPP (The International Association of Privacy Professionals), ha commentato che il regolamento “rappresenta l’approccio tipico di Bruxelles alla nuova tecnologia e all’innovazione. In caso di dubbio, regola “. Se le proposte vengono approvate, ha affermato Tene, si creerà un “vasto ecosistema normativo”, che attirerebbe non solo i creatori di sistemi di intelligenza artificiale, ma anche importatori, distributori e utenti, e creerebbe una serie di comitati normativi, sia nazionali che in tutta l’UE.

Queste nuove normative non riguarderebbero principalmente il contenimento della “grande tecnologia, afferma Michael Veale, docente di diritti e regolamenti digitali presso l’University College di Londra. “Nel mirino ci sono principalmente i fornitori meno conosciuti di strumenti aziendali e decisionali, il cui lavoro spesso scivola senza controllo da parte delle autorità di regolamentazione o dei loro stessi clienti”, dice Veale a The Verge. Secondo lui le nuove leggi assicurerebbero che le poche aziende di IA che vendono sistemi o sistemi considerati critici, lo facciano seguendo standard elevati. Cioè regolamenterebbe anche gli acquirenti di questi strumenti, ad esempio per garantire che ci sia un personale umano a supervisione ben autorevole in materia.

Non è noto quali modifiche potrebbero essere state apportate alla bozza di proposta mentre i responsabili politici dell’UE si preparano per l’annuncio ufficiale del 21 aprile. Una volta che il regolamento verrà proposto, tuttavia, sarà soggetto a modifiche a seguito del feedback dei deputati al Parlamento europeo e dovrà essere implementato separatamente in ogni stato.

E voi cosa ne pensate? Fatecelo sapere come sempre nei commenti.

Fonte: theverge