Gli esperti mettono in dubbio la superiorità assoluta dell’IA
Huan Zhang dell’Università dell’Illinois Urbana-Champaign ha evidenziato come le recenti scoperte sull’intelligenza artificiale (IA) sollevino interrogativi significativi sulla sicurezza e affidabilità di questi sistemi. Uno studio, ancora in attesa di revisione paritaria, ha messo alla prova la resistenza di un sistema di IA specializzato nel gioco da tavolo Go, noto per aver battuto i migliori giocatori umani. L’analisi, che utilizza attacchi avversari, ha rivelato che anche le IA più avanzate possono essere ingannate con input progettati per farle fallire.
Le difese di KataGo: tre strategie fallimentari
Nel 2022, dei ricercatori hanno dimostrato che bot avversari potevano sconfiggere KataGo, uno dei migliori sistemi di IA per giocare a Go. Nonostante questi bot non fossero generalmente forti, erano capaci di sfruttare specifiche vulnerabilità di KataGo. Gli umani potevano addirittura imparare dai trucchi dei bot e usarli per battere l’IA. Questo solleva un dubbio fondamentale: queste debolezze sono isolate o rappresentano una falla intrinseca in KataGo e, per estensione, in altre IA sovrumane?
Gli attacchi avversari e la resistenza delle IA
Adam Gleave, amministratore delegato di FAR AI e coautore dello studio del 2022, ha condotto nuovi esperimenti per verificare la resistenza delle IA Go contro gli attacchi avversari. La prima difesa prevedeva di fornire a KataGo esempi delle posizioni della scacchiera coinvolte negli attacchi precedenti e di farlo giocare da solo per imparare a contrastarle. Tuttavia, questa strategia non si è dimostrata efficace: i bot avversari riuscivano ancora a battere KataGo nel 91% dei casi.
Una seconda strategia consisteva in un allenamento iterativo: allenare una versione di KataGo contro i bot avversari, aggiornare KataGo e poi addestrare nuovamente i bot contro la versione aggiornata, ripetendo il processo per nove round. Anche questa tecnica non ha portato a una versione imbattibile di KataGo.
David Wu, l’informatico di New York City che ha sviluppato KataGo, ha affermato che le IA forti nel Go sono “sovrumane in media” ma non “sovrumane nei casi peggiori”. Questo suggerisce che, sebbene le IA possano eccellere in condizioni normali, sono vulnerabili a situazioni specifiche.
L’innovazione dei trasformatori di visione: un nuovo approccio fallisce
Come terza difesa, i ricercatori hanno creato un nuovo sistema di IA per giocare a Go, basato su una rete neurale alternativa chiamata trasformatore di visione (ViT). Il sospetto era che le reti neurali convoluzionali (CNN) di KataGo si concentrassero troppo sui dettagli locali, trascurando i pattern globali. Tuttavia, anche questo approccio non è riuscito a garantire l’invulnerabilità: i bot avversari hanno trovato un nuovo attacco che permetteva loro di vincere il 78% delle volte contro il sistema ViT.
Questi risultati evidenziano che, sebbene i bot avversari possano scoprire vulnerabilità nelle IA, non sono necessariamente forti in generale. Gleave ha sottolineato che i bot avversari sono stati sconfitti facilmente dagli umani, indicando che l’intelligenza artificiale, pur essendo avanzata, non è immune alle debolezze sfruttabili da attacchi mirati.
Implicazioni per il futuro dell’intelligenza artificiale
La ricerca mette in discussione la reale superiorità delle IA. Con gli umani capaci di adottare tattiche dei bot avversari per battere i sistemi esperti, si solleva un dilemma sulla definizione di “sovrumano” applicata alle IA. Le conclusioni di Gleave suggeriscono che le vulnerabilità nell’intelligenza artificiale potrebbero essere più difficili da eliminare di quanto si pensasse, specialmente in domini complessi come i chatbot.