L’evento “L’intelligenza artificiale all’incrocio dei saperi. Aspetti scientifici, etici, giuridici e impatto sociale“, tenutosi il 22 febbraio nell’aula Calasso della Facoltà di Giurisprudenza dell’Università La Sapienza, ha posto sotto i riflettori uno dei temi più cruciali del nostro tempo: l’impatto dell’intelligenza artificiale su tutti gli ambiti della nostra società. Organizzato dalla Fondazione Roma Sapienza, questo incontro ha costituito un’importante opportunità per il dibattito e la riflessione, focalizzandosi sullo stato attuale di sviluppo dell’intelligenza artificiale, sugli strumenti per affrontare le sfide scientifiche, etiche e giuridiche, e sulle implicazioni sociali connesse a questa tecnologia in rapida evoluzione.
I SALUTI ISTITUZIONALI
L’evento ha preso il via con le parole di Eugenio Gaudio, presidente della Fondazione Roma Sapienza ed ex Rettore dell’Università La Sapienza, che ha espresso gratitudine nei confronti del Professor Guido Alpa e della Professoressa Simonetta Gentile, membri del consiglio scientifico della Fondazione Sapienza, per aver organizzato con cura la giornata. Gaudio ha sottolineato l’importanza di un approccio completo e multidisciplinare nell’affrontare il tema dell’intelligenza artificiale, che comprenda questioni tecniche, ingegneristiche ed etico-giuridiche, funzionale ad affrontare le sfide e cogliere le opportunità offerte da questa tecnologia.
A seguire, Marco Schaerf, Preside della Facoltà di Ingegneria dell’Informazione, Informatica e Statistica dell’Università La Sapienza, ha evidenziato la necessità che non solo i tecnici discutano di tali questioni, ma che tutti comprendano le implicazioni sociali di queste innovazioni. Ha inoltre espresso il suo piacere nel fare parte di un’occasione che considera fondamentale per promuovere la ricerca e lo sviluppo in questi campi, oltre che per sensibilizzare gli studenti sulle ricadute e sui rischi di un utilizzo non appropriato della tecnologia.
Dopo l’intervento del Professor Marco Schaerf, l’attenzione si è spostata su Simonetta Gentile, docente di fisica sperimentale presso l’Università La Sapienza. Gentile ha coinvolto il pubblico in una scenetta interattiva, avvicinandosi al robot di nome Tiberio posizionato sulla cattedra e ponendogli alcune domande. La più significativa è stata: “Pensi che le macchine possano sostituirsi completamente all’intelligenza umana?”, a cui il robot ha risposto in modo diretto e inequivocabile, con un “si” chiaro e incisivo.
Nel corso dei saluti istituzionali, è intervenuta Antonella Polimeni, rettrice dell’Università La Sapienza. Durante il suo intervento, Polimeni ha enfatizzato l’importanza dell’approccio interdisciplinare nell’analisi dell’intelligenza artificiale. Ha approfondito le prospettive di miglioramento quotidiano offerte da questa tecnologia, sottolineando la necessità che l’intelligenza artificiale e la digitalizzazione siano motori di innovazione e crescita collettiva. Inoltre, ha ribadito l’importanza di promuovere una società pacifica e collaborativa, dove tali tecnologie siano al servizio di una crescita armoniosa e consapevole.
GLI INTERVENTI DEGLI ESPERTI
Daniele Nardi, professore ordinario di intelligenza artificiale presso l’Università La Sapienza, ha delineato il panorama storico e tecnologico dell’intelligenza artificiale, sottolineando i momenti salienti che hanno caratterizzato la sua evoluzione. Ha esaminato le diverse definizioni proposte nel tempo per questo campo di studio, evidenziando la complessità concettuale legata all’argomento. Nel suo intervento, ha ribadito l’importanza di integrare un approccio etico nell’applicazione dell’intelligenza artificiale e ha sottolineato la necessità di stabilire standard internazionali per regolare l’uso di tali sistemi, garantendo così controlli adeguati e sicurezza. Infine, ha enfatizzato la preferenza per il termine “machine intelligence” rispetto a “intelligenza artificiale”, poiché riflette in modo più accurato l’obiettivo della disciplina: sviluppare sistemi in grado di emulare specifici aspetti dell’intelligenza umana anziché sostituirla completamente.
Successivamente, Manuela Maria Veloso, docente emerito alla Herbert A. Simon University, ha preso la parola introducendo il concetto di “autonomia simbiotica”. Questa nuova prospettiva suggerisce che i robot e i sistemi di intelligenza artificiale possano richiedere assistenza umana quando incontrano ostacoli. Questo approccio riflette una maggiore interazione tra macchine ed esseri umani, promuovendo una collaborazione più stretta e un utilizzo più efficace della tecnologia.
In seguito, è stato il turno di Roberto Navigli, professore ordinario di Elaborazione del Linguaggio Naturale presso l’Università La Sapienza, che ha esplorato il concetto di modelli linguistici, definendoli come modelli matematici e informatici che apprendono a comprendere e a generare testo. Ha citato il noto ChatGPT come esempio, mettendone in risalto le potenzialità. Tuttavia, ha evidenziato anche i limiti di tali modelli. Nonostante siano efficienti in compiti specifici e nell’elaborazione di informazioni, Navigli ha chiarito che non riescono a cogliere appieno il significato del testo, mancando di capacità di ragionamento simili a quelle umane e di comprensione del senso comune. Ha concluso sottolineando la sfida nel rendere trasparenti le decisioni dei modelli e nell’assicurare un’interpretazione accurata, sottolineando l’importanza di continuare la ricerca e lo sviluppo in questo campo.
Durante il suo intervento alla conferenza, la Prof.ssa Maria Chiara Carrozza, Presidente CNR e esperta di bioingegneria industriale, ha delineato una visione chiara del futuro della robotica. Con occhi da esperta del settore, ha enfatizzato il ruolo cruciale della robotica come un settore in piena espansione e fonte di opportunità. Ha riconosciuto la Cina come una potenza emergente nel campo della robotica industriale, grazie agli ingenti investimenti effettuati. Tuttavia, ha anche evidenziato la crisi che sta attraversando l’industria automobilistica, spingendo verso una maggiore sostenibilità con l’aiuto della robotica. Ha sottolineato l’importanza della robotica nell’accelerare la produzione di microelettronica. La Prof.ssa Carrozza ha fatto notare una rinascita nell’interesse per la tecnologia robotica umanoide dopo un periodo di stasi negli anni 2000. Infine, ha posto l’attenzione sulla sfida di rendere i robot più accessibili e integrati nella vita quotidiana della popolazione generale.
Il Prof. Stefano Giagu, docente di Fisica presso la Sapienza Università di Roma, ha esplorato il connubio tra intelligenza artificiale e scienze naturali, offrendo una prospettiva ricca di esperienze personali nel campo del Machine Learning. Ha evidenziato l’importante impatto delle AI nelle future scoperte scientifiche, con un focus particolare sul modello SORA di OpenAI, capace di generare video da prompt. Il Prof. Giagu ha sottolineato l’emergere di un nuovo paradigma in cui l’AI sostituisce i modelli classici di calcolo numerico. Inoltre, ha esplorato la possibilità di educare l’intelligenza artificiale sulla fisica e ha illustrato l’applicazione di simulazioni visive nell’analisi di terremoti e nel cancro al pancreas.
La Prof.ssa Maria Cristina Messa, invece, esperta di diagnostica per immagini e radioterapia presso l’Università Milano-Bicocca, ha offerto una panoramica sul futuro della medicina. Ha evidenziato il ruolo fondamentale della medicina di precisione, resa possibile grazie all’analisi avanzata dei dati tramite intelligenza artificiale. La Prof.ssa Messa ha discusso dell’applicazione della AI nella pianificazione terapeutica e nella previsione dei rischi per i pazienti. Ha enfatizzato la rapidità e l’efficienza della diagnosi assistita dalla macchina, nonché il crescente utilizzo della digital therapy. Infine, ha sottolineato come la tecnologia stia rivoluzionando e accelerando i processi medici, aprendo nuove frontiere nella cura e nella gestione delle patologie.
Durante la sua presentazione, il Direttore dell’Unità Specialistica Data & AI di Microsoft, Mattia De Rosa, ha posto l’accento sull’essenziale ruolo svolto dall’intelligenza artificiale nelle moderne aziende, sottolineando che la mancanza di questa tecnologia potrebbe portare al collasso. Ha evidenziato gli cospicui investimenti di Microsoft nel deep learning e la partnership con OpenAI per affrontare sfide industriali. De Rosa ha illustrato il lavoro di SORA di OpenAI tramite un video esemplificativo. Ha sollevato interrogativi sulle implicazioni lavorative dell’IA e ha esaminato le funzioni di Copilot, il “chatGPT” di Microsoft, sottolineando come queste innovazioni stiano ridefinendo il panorama lavorativo e le interazioni con la tecnologia.
Nel corso della sessione pomeridiana, introdotta dal professor Guido Alpa, il focus si è spostato su materie quali il diritto, la geopolitica, la filosofia, tutte discipline chiamate in causa di fronte alle profonde trasformazioni legate all’intelligenza artificiale.
Il prof. Roberto Baldoni, primo Direttore generale dell’Agenzia per la cybersicurezza nazionale, ha proposto un’analisi dei rischi connessi allo sviluppo dell’intelligenza artificiale, rischi che riguardano la sicurezza nazionale e gli equilibri geopolitici. Centrale in questo contesto è il concetto di sovranità digitale, la quale deve riguardare i dati, la tecnologia che li processa, la capacità di collaborazione internazionale e la consapevolezza dei cittadini sui rischi. La sovranità digitale va immaginata come “un punto di riferimento ideale verso il quale, anche nei momenti di tempeste, l’Italia – e ogni altro paese – deve tendere”. Risulta inoltre urgente, di fronte a minacce di diversa dimensione legate alla crescita delle Super AI, implementare un sistema integrato di gestione del rischio e della sicurezza a livello europeo: rispetto a quest’obiettivo l’Europa è in ritardo, anche a causa di un’incapacità politica dei 27 Paesi di agire con una direzione unitaria.
Segue l’intervento del prof. Francisco Balaguer Callejon, dell’Università di Granada, che propone una riflessione suggestivamente intitolata “La costituzione dell’algoritmo”. Illuminante è la sua analisi sulle trasformazioni culturali e sociali dovute alla rivoluzione digitale: l’estrema rapidità della comunicazione e delle interazioni digitali investe, ad esempio, ogni ambito dell’attività umana, in particolare la vita pubblica e politica; ancora, la capacità degli algoritmi di intercettare i bisogni, gli interessi e le sensibilità degli utenti e la sua tendenza ad alimentarli, non può che determinare una frammentazione eccessiva degli spazi digitali, che si traduce in radicalizzazione e divisione. Ora più che mai, afferma il professore, c’è bisogno di un cambiamento nella prospettiva metodologica dei giuristi, di “fare interventi per costituzionalizzare gli algoritmi e per digitalizzare la costituzione”, di far sì che il diritto interpreti le trasformazioni culturali e sociali dovute alla rivoluzione digitale. Su questa scia si collocano gli interventi più squisitamente giuridici: secondo il prof. Luca Di Donna, occorre una revisione degli istituti classici del diritto privato, che devono essere rivisitati e adattati, tenendo sempre presente l’imperativo di porre la persona umana al centro della riflessione. La questione fondamentale è connessa al concetto di soggettività giuridica, se esso vada applicato o no alle macchine e quali conseguenze ne deriverebbero. A chiudere la prima sezione del pomeriggio è il prof. Paolo Gaggero, con un intervento su smart contracts e blockchains.
Di intelligenza artificiale e privacy si occupa invece il professor Vincenzo Zeno Zancovich: l’intelligenza artificiale si nutre costantemente dei dati personali e va sottolineato che “non esistono dati non personali”. Nel momento in cui l’utilizzo dei dati avviene in forme così rapide e massicce, la tutela individuale risulta insufficiente ed è invece necessario traslare il concetto di protezione dei dati in una dimensione collettiva: in questo, afferma il professore, il Regolamento europeo sui dati personali (n.679/2016) appare se non obsoleto, incompleto.
Un punto di osservazione necessario da cui guardare allo sviluppo dell’intelligenza artificiale è l’etica: a questo è dedicata la riflessione della prof.ssa Luisa Avitabile. La società odierna appare dematerializzata, esistono cioè spazi immateriali in cui gli individui esprimono una nuova forma di personalità, che è quella del profilo. I profili e i dati a essi connessi non sono neutri né appartengono esclusivamente agli individui che li generano, ma sono spendibili all’interno di un sistema che la docente ha definito “capitalismo della sorveglianza”. Di fronte a questo fenomeno, urge chiedersi quali limiti si possono imporre per far sì che la tecnologia non sovrasti gli individui nella loro interezza, non li riduca a meri profili. Obiettivo di chi studia la filosofia dl diritto è discutere e sottolineare l’inevitabile incidenza dell’intelligenza artificiale nella nuova produzione del diritto, per evitare che i giuristi tradizionali non restino osservatori passivi.
L’intelligenza artificiale pone, inoltre, un problema di impatto sociale: il prof. Angelo Petroni ha analizzato due categorie di fenomeni che saranno determinati dallo sviluppo dell’IA sul piano sociale. La prima è legata alle capacità dell’intelligenza artificiale di meccanizzare i sistemi produttivi e dell’informazione, da cui deriva una inevitabile ridondanza dei lavoratori: tra questi, non solo quanti sono occupati nei reparti produttivi, ma anche parte del ceto intellettuale. La seconda è invece connessa alle inestimabili capacità predittive dell’IA, che impongono di riconsiderare le categorie di rischio e incertezza: se il Deep Learning sarà in grado di prevedere in maniera pressoché esatta i comportamenti umani, allora momenti della vita privata e pubblica fondati sulla capacità di scelta potranno venire meno, un esempio su tutti è il momento elettorale.
L’ultimo intervento del convegno, curato dal prof. Vincenzo Vietri, si occupa di uno degli ambiti più ampi di applicazione dell’intelligenza artificiale, cioè la finanza. Il Fintech, cioè “l’insieme di tutte le componenti digitali nel sistema finanziario, nelle relative articolazioni costituite dal sistema bancario, finanziario in senso stretto e assicurativo”, costituisce un ecosistema articolato di numerose dotazioni e rivela tutte le potenzialità della rivoluzione digitale. Uno degli obiettivi principali del Fintech è rendere i servizi finanziari più efficienti, accessibili ed economici e si può dire che, almeno nel nostro paese, i benefici offerti siano stati colti: nel 2022 il totale dei pagamenti digitali in Italia ha sfiorato i 400 miliardi di euro (40% dei consumi generali) e l’Italia si qualifica uno dei paesi in più rapida ascesa nell’applicazione di sistemi Fintech. D’altra parte, persistono resistenze, pregiudizi o più banale mancanza di consapevolezza: il 57% degli italiani dice di aver solo sentito parlare di Fintech ma di conoscerlo molto poco, mentre il 33% non ha la minima idea di che cosa si tratti. Si tratta di fatto di una frontiera con ampissimi margini di sviluppo e a cui è necessario affiancare un’adeguata sensibilizzazione degli utenti.
A chiusura della sessione pomeridiana, la professoressa Simonetta Gentile esprime un’importante riflessione conclusiva: ciò che più di tutto ha contraddistinto l’evento, cioè la convergenza di discipline e saperi diversi, deve tracciare la strada per il futuro della ricerca e dello sviluppo dell’intelligenza artificiale. Il diritto, la filosofia, la sociologia, devono tenere il passo con l’innovazione scientifica per far sì che il progresso abbracci tutti i campi dell’agire umano e affinché tutti possano prendere parte, con gli strumenti adeguati, a una trasformazione globale e ormai inarrestabile.
A cura di: Marco Serra, Laura Di Domizio, Lorena Evangelista