Il 17 ottobre, a Palazzo Madama, si è svolto il convegno “L’etica dell’Intelligenza Artificiale”, un importante incontro organizzato da Digital Meet. Il Sottosegretario Alberto Barachini ha sottolineato l’importanza di stabilire regole chiare per affrontare le sfide dell’IA e proteggere i diritti dei cittadini.
Oggi, nella suggestiva Sala Zuccari di Palazzo Madama, si è tenuto il convegno “L’etica dell’Intelligenza Artificiale”, organizzato da Digital Meet. Il Sottosegretario alla Presidenza del Consiglio dei ministri con delega all’Informazione e all’Editoria, Alberto Barachini, ha aperto i lavori enfatizzando la necessità di regole chiare per governare l’uso dell’intelligenza artificiale. Barachini ha dichiarato: “Servono regole”, evidenziando come l’Italia abbia cercato di anticipare i tempi dell’Unione Europea in questo ambito. Un esempio di tale iniziativa è l’inserimento nel AI Act del reato di deep fake, con pene detentive da 1 a 5 anni. Secondo il Sottosegretario, questa misura rappresenta una risposta a uno dei maggiori rischi per il processo democratico e la relazione tra cittadini e informazioni.
Barachini ha descritto questa situazione come “una sfida senza precedenti”, ma ha anche espresso fiducia nel fatto che l’adozione di misure appropriate possa ridurre gli impatti negativi. “Possiamo puntare sulla difesa dei diritti d’autore e sulla riconoscibilità dei contenuti umani”, ha aggiunto, sottolineando l’importanza di mantenere la distinzione tra opere create da esseri umani e quelle generate artificialmente. Ha citato anche il Premio Nobel per la fisica, Geoffrey Hinton, il quale aveva avvertito sull’urgenza di mantenere il controllo umano sulle proprie esistenze in un mondo sempre più dominato dalla tecnologia.
Le opinioni dei relatori
Antonio De Poli, senatore e moderatore dell’incontro, ha richiamato l’attenzione su un recente studio della Commissione Europea che mostrava come il 61% dei cittadini europei avesse una visione favorevole sull’uso dell’intelligenza artificiale. Tuttavia, l’88% degli intervistati riteneva necessario un’attenta gestione di questa tecnologia. De Poli ha affermato che le istituzioni devono operare su due fronti: tracciare linee guida etiche chiare e promuovere una alfabetizzazione diffusa riguardo all’intelligenza artificiale. “Questa tecnologia deve diventare un’alleata, non un nemico”, ha concluso, sottolineando la necessità di preparare le persone all’uso consapevole degli strumenti digitali.
Anche Gianni Potti, fondatore di Digital Meet, ha insistito su questo tema, affermando che non si dovrebbe subire passivamente la tecnologia. “Il vero tema non è limitarla o censurarla, ma accrescere le competenze”, ha dichiarato. Secondo Potti, è fondamentale continuare a lavorare sull’alfabetizzazione digitale, un impegno che prosegue da oltre 12 anni. Il convegno ha visto la partecipazione di diverse figure di spicco, tra cui Riccardo Schvarcz, presidente dell’Ordine degli Ingegneri di Padova, e Marco Soffientini, esperto in diritto delle nuove tecnologie.
Riflessioni sul futuro delle professioni
Schvarcz ha affermato che gli ingegneri non possono più essere utenti passivi, ma devono educarsi su come sfruttare al massimo l’intelligenza artificiale. Armando Zambrano, presidente di ProfessionItaliane, ha evidenziato i rischi di una potenziale diminuzione delle capacità umane, avvertendo che è fondamentale non delegare eccessivamente alle macchine. Entrambi hanno concordato sulla necessità di regole specifiche per i professionisti.
Gianni Dal Pozzo ha richiamato l’attenzione sul fatto che mentre l’Europa si impegna a stabilire normative, altri paesi come gli Stati Uniti e la Cina stanno investendo massicciamente nell’intelligenza artificiale. “Noi tendiamo a fare gli arbitri, ma gli arbitri non giocano le partite”, ha osservato, mettendo in luce il divario tra le normative europee e gli investimenti in innovazione di altre nazioni.
Marco Soffientini ha concluso il dibattito con una riflessione sulla responsabilità umana, citando la figura storica di Stanislav Petrov, il tenente colonnello che non attivò una risposta nucleare a un allerta errato. “L’uomo ha la capacità di comprendere errori che le macchine, per quanto intelligenti, non possono riconoscere”, ha affermato. Questo dibattito si inserisce in un contesto in continua evoluzione, dove l’intelligenza artificiale offre sia opportunità che sfide significative.