La piattaforma, usata in Italia da 27 milioni di persone, gioca d’anticipo sull’istruttoria del Garante assicurando l’uso di tecnologie di apprendimento automatico per individuare i profili di bambini e under 18
I social network sono pieni di bambini e per anni nessuno se ne è occupato. Di recente, però, anche dietro l’impulso di alcuni provvedimenti del Garante della privacy italiano, il tema del controllo sulle iscrizioni, della cancellazione dei profili dei minori di 13 anni (anche se in Italia il limite per l’uso di queste piattaforme è fissato a 14 come da recepimento del Regolamento europeo sui dati personali) e della messa in sicurezza degli utenti fra i 13 e i 18 anni, l’attenzione sembra essere aumentata.
Lo dimostrano le ultime mosse di Instagram, che ha appena presentato una serie di aggiornamenti che riguardano soprattutto la messaggistica interna dell’app. Il caso TikTok, dopo l’ordinanza dell’authority è corsa ai ripari lanciando un grande numero di strumenti di sicurezza; è stato d’altronde solo l’ultimo di una lunga serie di lacune e ipocrisie rispetto alla frequentazione di queste piattaforme da parte degli under 18 e under 13.
Ci sono istruttorie in corso anche per gli altri social. Proprio il mese scorso sempre il Garante, insieme a Telefono Azzurro, ha lanciato la campagna battezzata “Se non ha l’età, i social possono attendere”. La campagna è dedicata appunto alla presenza dei bambini e dei minori su Facebook, Instagram, TikTok, Clubhouse, Snapchat; ma anche sugli altri servizi digitali, chat come WhatsApp e Telegram incluse.
I primi due punti dell’aggiornamento
Il primo punto delle novità di Instagram riguarda il cuore della questione; cioè l’accertamento dell’età degli utenti sia al momento dell’apertura di un profilo che successivamente. Se in molti non hanno particolari ragioni di mentire, gran parte dei bambini è ovviamente costretta a indicare un’età più elevata per poter usare l’app. “Vogliamo fare di più per evitare che questo accada; ma verificare l’età delle persone online è complicato per tutte le aziende che lavorano in questo settore”. Lo spiega un post sul blog ufficiale del colosso da oltre un miliardo di utenti (in Italia lo usano circa 27 milioni di persone).
Come? Sulla falsa riga di YouTube, che infatti ha schivato le recenti osservazioni del Garante; sfruttando cioè più soluzioni di intelligenza artificiale e apprendimento automatico che dalle abitudini d’uso e dai pattern legati a ogni profilo, consentano di stimare se l’età dichiarata al momento dell’iscrizione è verosimile o vada rivista al ribasso (o al rialzo).
Il secondo riguarda l’adescamento, un altro problema sensibile. Una nuova funzione, infatti, limiterà la possibilità per gli adulti di mandare messaggi direct agli utenti minori di 18 anni che non li seguano. Un esempio? Se un adulto prova a inviare un messaggio a un giovane utente che non lo segue, il primo riceverà una notifica che lo avvisa che non gli è consentito farlo. Una funzione che si basa sia sulla tecnologia di apprendimento automatico capace di prevedere l’età degli utenti che sull’età che gli utenti forniscono quando si iscrivono a Instagram. “Muovendoci verso la crittografia end-to-end, stiamo investendo in funzioni che possano tutelare la privacy e tenere le persone al sicuro senza accedere al contenuto dei loro messaggi direct” spiega Instagram.
Il terzo punto
“In tutto il mondo è stato riconosciuto che l’età minima per accedere all’utilizzo dei social media sia 13 anni, ma la complessità legata alla verifica dell’età rimane una sfida consolidata per tutto il settore. Ecco perché è molto positivo vedere che Instagram sta investendo in tecnologie innovative che contribuiranno a creare un ambiente più sicuro per i giovani utenti online – dice Lucy Thomas, cofondatrice e co-Ceo di Project Rockit, un’organizzazione australiana che lotta contro il bullismo in ogni sua declinazione – sfruttando tecnologie di apprendimento automatico per segnalare interazioni potenzialmente inappropriate, potenziando le funzioni per la privacy e comunicando ai giovani utenti informazioni sulla sicurezza tramite messaggi direct, Instagram sta emancipando i più giovani grazie a strumenti che permetteranno loro di plasmare attivamente la propria esperienza online”.
Terzo punto: i giovani che siano già in contatto con utenti adulti saranno comunque avvisati. Riceveranno cioè degli avvisi di sicurezza che si apriranno direttamente nella chat dell’applicazione. Non saranno ovviamente indiscriminati: segnaleranno in particolare ai più giovani se tra i loro interlocutori c’è un adulto che abbia precedentemente manifestato atteggiamenti potenzialmente sospetti. Per esempio, se ha mandato molte richieste di amicizia o di messaggi a minori di 18 anni. In casi come questi lo strumento invierà un avviso ai minori con cui è già in contatto, dando loro l’opportunità di terminare la conversazione, bloccare, segnalare o limitare l’adulto in questione. Gli utenti inizieranno a vedere questa funzioni in alcuni Paesi questo mese e dovrebbe arrivare presto anche in Italia.