Le norme elaborate a Bruxelles sull’intelligenza artificiale approfondiscono alcuni temi centrali come la supervisione umana, la sicurezza e la privacy.
Il Parlamento europeo ha adottato la sua posizione negoziale sulla legge sull’Intelligenza Artificiale (AI) con 499 voti a favore, 28 contrari e 93 astensioni. Ed è pronto ad avviare i negoziati con gli Stati Ue sul testo definitivo. Le norme mirano a garantire che l’Intelligenza artificiale sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell’Ue. Ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale.
Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi, a seconda del livello di rischio che l’Intelligenza artificiale può generare. Saranno quindi vietati i sistemi di Intelligenza artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone. Come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali).
I deputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’Intelligenze artificiale come:
- L’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico;
- I sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico). I sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
- I sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione;
- L’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale. (In violazione dei diritti umani e del diritto alla privacy).
I deputati vogliono inoltre che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di intelligenze artificiali che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente.
Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni. Insieme ai sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).
I fornitori di modelli di base uno sviluppo nuovo e in rapida evoluzione nel settore dell’Intelligenze artificiali dovranno valutare e mitigare i possibili rischi (alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). E registrare i loro modelli nella banca dati dell’Ue prima della loro immissione sul mercato europeo.
I sistemi di Ia generativa che si basano su tali modelli, quali ChatGPT, dovranno rispettare i requisiti di trasparenza (dichiarando che il contenuto e’ stato generato dall’Ia). Aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali.
Dovranno inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento. Per stimolare l’innovazione nel campo dell’Ia e sostenere le Pmi, i deputati hanno previsto esenzioni per le attività di ricerca e le componenti dell’Ia fornite con licenze open-source.
La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale. Le autorità pubbliche creano questi spazi per testare l’intelligenza artificiale prima di implementarla.
Infine, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi e di ricevere spiegazioni sulle decisioni basate su sistemi di Ia ad alto rischio. Con un impatto significativo sui loro diritti fondamentali. I deputati hanno anche riformato il ruolo dell’Ufficio dell’Ue per l’Ia, che avrà il compito di monitorare l’attuazione delle norme sull’Intelligenza artificiale.