Nella giornata di mercoledì 13 marzo presso il Dipartimento di Filosofia si è tenuto il seminario “Tra linguistica, comunicazione parlata e intelligenza artificiale”, evento di apertura di tutta una serie di incontri di filosofia dei linguaggi che si terranno durante il corso dell’anno, i quali si occuperanno di affrontare proprio tale tematica. Invero, l’incontro si inserisce nel quadro delle attività del seminario permanente di Filosofie del linguaggio. Teoria e storia – quest’anno dedicato al tema del Linguaggio, intelligenza naturale e artificiale – organizzato dal Dottorato in Filosofia, in collaborazione con il Laboratorio di Storia delle idee linguistiche (LabSil). A occuparsi della parte organizzativa sono state Marina De Palo, professoressa ordinaria per il SSD M-FIL/05, Filosofia e Teoria dei Linguaggi, e Filomena Diodato, professoressa di Semantica, Cognitive Semantics e Filosofia del Linguaggio, entrambe presso il Dipartimento di Filosofia de La Sapienza di Roma. A dibattere sul tema sono stati Francesca M. Dovetto, Filomena Diodato, Elena Gagliasso, Federico Albano Leoni, Guglielmo Tamburini, Francesco Cutugno, affrontandolo per mezzo di una concatenazione di opinioni ed interventi per il tutto il corso della conferenza.
Moderatrice dell’evento è stata proprio Marina De Palo la quale, dopo aver presentato all’uditorio le figure dei relatori, con un breve intervento è riuscita ad esplicare perfettamente quello che sarebbe stato il compito di questo ciclo di seminari. La domanda di fondo che, attirando la curiosità degli studiosi, ha dato il via alla ricerca è stato il desiderio di conoscere, capire se, nel rapporto tra linguistica, comunicazione parlata e intelligenza artificiale (AI), si potesse asserire, o anche semplicemente ipotizzare, un qualche tipo di “svolta”.
L’essere umano si staglia su questo sfondo assumendo due prospettive: una prettamente apocalittica ed un’altra di integrazione. Allo stesso tempo, l’AI costringe gli individui a interrogarsi sul concetto di intelligenza naturale e, soprattutto, sul concetto di “lingua”. L’apparente svolta a cui si allude ha portato quindi i ricercatori ad indagare tale tematica. Al di là di ciò, per quanto riguarda il dibattito sull’intelligenza artificiale, esso viene ugualmente fatto risalire alla prima rivoluzione cognitiva (1956) in cui, per la prima volta, venne esposto il concetto di “mente come software”. Facendo riferimento a questi temi, l’AI viene ricondotta ad un programma di calcolo delle informazioni. Il 1956 fu dunque un anno molto fervido: in Massachusetts si tenne un simposio sulla teoria dell’informazione, dove vennero illustrate le teorie di Miller, Simon e Chomsky, rispettivamente riguardanti la memoria a breve termine, il problem solving e il linguaggio. Facendo riferimento proprio a Chomsky si è notato come, secondo la professoressa De Palo, il filosofo facesse riferimento ad una linguistica sintatticista, la quale forniva un’idea di mente come software, a discapito delle altre facoltà in suo possesso. Questi modelli, però, estromettevano la semantica dal quadro complessivo e così, la conoscenza della lingua, veniva basata solo sugli aspetti computazionali: da qui emerse la prima critica. In ogni caso, il dibattito si allontana dalla passata distinzione tra AI debole e AI hard: l’interesse principale ad oggi è lo studio computazionale del linguaggio. Che cos’è la linguistica? Cosa l’apprendimento? Le AI sono capaci di comportamento creativo? Sono in grado di, oltre alla comprensione delle parole che utilizziamo, anche della scrittura e di elementi del mondo reale?
Posti i temi principali del dibattito, la professoressa De Palo ha concluso il suo intervento lasciando la parola ai relatori.
La prima ad intervenire è stata Francesca M. Dovetto, Coordinatrice GSCP (Gruppo Studio Comunicazione Parlata). Dopo aver elogiato e ringraziato l’impegno del gruppo di lavoro nella trattazione della comunicazione parlata come oggetto di studio, e di tutto quello che ha impattato su di esso, ha proseguito con l’esposizione del suo pensiero. Varie sono state le iniziative di questi ricercatori e, proprio durante una di queste, alcuni studiosi hanno trattato il problema dell’AI e di come essa potesse intaccare quelle che venivano ritenute le “proprietà invalicabili della comunicazione linguistica”. L’idea di realizzare delle interviste, una delle quali pubblicata dal sito GSCP-SLI e mostrata durante il corso del seminario, è stata del professore Francesco Cutugno. L’obiettivo era quello di sottoporre delle questioni riguardo tali problematiche. La parola d’ordine era CAPIRE: veniamo colpiti da una certa cosa e desideriamo capirla, comprenderla. Ma c’è qualcosa che l’AI non è riuscita a conquistare? Questo è stato un altro dei grandi temi. Ad occuparsi delle domande poste durante l’intervista è stato Guglielmo Tamburini. Le risposte che sono emerse vennero poi riprese e argomentate da Federico Albano Leoni: di quelle cose che dovevano rappresentare elementi invalicabili dell’essere umano, secondo le risposte raccolte, sembrano essere state già raggiunte dall’intelligenza artificiale. Da queste sono affiorati 5 punti fondamentali: l’intenzionalità, la creatività, la metalinguisticità riflessiva, la povertà dello stimolo e l’apprendimento incrementale.
Durante il corso del seminario è stata poi proiettata l’intervista pubblicata dal sito GSCP-SLI. In essa è emerso come alcuni di questi punti fondamentali, quali l’intenzionalità e la creatività, fossero ancora ritenuti problematici agli occhi dell’AI ma, nonostante ciò, siano stati in egual modo raggiunti da essa. La questione che sembra allarmare è quella che riguarda la gestione di quell’archivio planetario che è la nostra storia documentata: questo, ora, si trova nelle mani di Google. Un altro elemento preoccupante è rappresentato dalla sostenibilità ambientale.
A proseguire sull’argomento è stata la professoressa Filomena Diodato, la quale ha esposto il suo pensiero riguardo l’intervista appena riprodotta. A suo parere essa è stata utile al fine di fornire moltissimi spunti di riflessione, non solo per le tematiche inerenti alla semiotica e alla filosofia del linguaggio, ma anche per problemi molto più ampi, posti dalle nuove tecnologie che abbiamo a disposizione. Le sue riflessioni riguardano soprattutto la questione linguaggio. Ad averla colpita è stato in particolare l’inizio di questa, quando si è parlato della scrittura e dei numeri intesi come prima rivoluzione cognitiva. Analizzandola è emerso un dibattito abbastanza complesso, svoltosi non tanto in semiotica quanto nella “mass mediologia“: Mcluhan e tutta quella discussione, alla quale ha preso parte anche Logan, a proposito della cosiddetta “mente estesa”.
Logan, a partire dall’ “effetto dell’alfabeto” (alfabetic effect), rifletteva insieme a Mcluhan riguardo al ruolo delle diverse rivoluzioni cognitive. Per i filosofi il problema consisteva nella spiegazione della peculiarità della cultura alfabetica legata ad alcune caratteristiche tipiche dell’occidente, come il monoteismo, la legge codificata etc. Il tentativo fu quello di mettere in relazione tali elementi per spiegare quella che veniva considerata la rivoluzione cognitiva dell’occidente. In seguito il lavoro di Logan si era incentrato nuovamente su questo tema, arretrando però la questione: aveva concluso infatti, nel suo libro “Extended Mind” (2007), che il linguaggio fosse la vera tecnologia, la tecnologia condivisa, in quanto fu grazie a questo che si ebbe la biforcazione dal precetto al concetto. Venne alla luce la concezione di linguaggio come tecnologia dell’informazione: oltre ad essere uno strumento di combinazione, esso aveva innanzitutto il compito di, in una certa fase evolutiva, contrastare e gestire un overload di informazioni: alla mente giungono un quantitativo enorme di informazioni tale da necessitare uno strumento che le permetta di organizzarsi; questo fu uno dei compiti principali del linguaggio.
A partire da questa riflessione la professoressa, facendo riferimento a tutta la tradizione a cui lei stessa è legata, ovvero quella della formatività del linguaggio, ha mostrato come in Logan questa venisse affrontata in chiave evolutiva. Ciò avrebbe consentito la revisione di questioni come l’arbitrarietà del linguaggio e via dicendo, mettendo in luce la relazione tra la vera rivoluzione cognitiva e tutte quelle altre che ne sono state conseguenza. Ad essere considerata come altra tipologia di rivoluzione cognitiva fu la scrittura. Logan legò essa alle modalità in cui il linguaggio si poteva presentare, offrendo altre possibili rivoluzioni cognitive. La scrittura abilita alcuni altri processi cognitivi, come la sequenzialità. Logan considera, in termini di altre modalità linguistiche, persino internet: l’ipertesto, infatti, indica un certo tipo di strutturazione dell’informazione linguistica, molto diversa rispetto allo speech, cioè la prima esperienza linguistica, considerata come la più autentica. Secondo il parere di Diodato, dal mare di bibliografia a cui si è fatto riferimento, sono emersi lavori più strettamente linguistici. In particolare la professoressa ha fatto riferimento a dei testi di Gastaldi. Quest’ultimo aveva proposto un’idea non del tutto peregrina: sistemi come chat GPT presentano il trionfo del modello linguistico strutturalista, per anni criticato rispetto al modello saussuriano associativo. L’algebra della lingua di cui parlava Hjelmslev sta alla base di questi modelli distribuzionalisti.
Per Gastaldi tali modelli si trovano nei testi e permettono l’emergere del sistema, analizzandone le occorrenze. Siccome la loro capacità di calcolo è nettamente superiore rispetto a qualsiasi essere umano, il risultato è apparentemente prodigioso. Ma è questo che fa una lingua? L’intervento della professoressa Diodato si è poi concluso con un pensiero nato dalla lettura di vari articoli. In essi è emersa l’idea per cui, i sistemi, hanno iniziato a funzionare quando nel momento in cui, i linguisti, non si sono più occupati di questi: è un’idea fittizia, sulla base della quale però si è potuto strutturare il modello di analisi della lingua. Sulla base di esso sono stati forniti alla macchina dei dati strutturali già analizzati, che l’hanno portata ad avere un comportamento apparentemente linguistico. Tale è il modello teorico nel quale l’analisi viene, in qualche misura, preparata alla macchina. Durante l’intervista si è preso atto del tema della coscienza: nel grande pubblico, fuori dai circuiti degli addetti ai lavori, è venuta fuori una famosa intervista rivolta ad uno degli ingegneri di Google, su cui è poi stato scritto un articolo. Si sospettava che la macchina in questione possedesse una coscienza: ciò è vero o no? E se lo fosse, sarebbe etico implementare questi tipi di sistemi? La Diodato ha ripreso quindi l’osservazione di Chalmers il quale aveva sostenuto che, considerati tutti i parametri appartenenti ad una coscienza, mettendoli in discussione, in realtà non era possibile escludere, in tali sistemi di modelli linguistici – a loro volta fondati sulle reti neurali e sulla profondità – da qui a 10/20 anni, il manifestarsi di qualche caratteristica che potrebbe essere considerata come comportamento cosciente.
Ad essere affrontati sono stati anche i rapporti tra linguaggio e coscienza. Ci si interrogò sulla possibilità che tali macchine, il cui funzionamento si basa sulla langue astratta, potessero avere un comportamento linguistico pur non avendo coscienza. Questo ci porta a riflettere al di fuori dei parametri dell’intelligenza artificiale, e quindi su cos’è effettivamente coscienza e qual è il rapporto tra questa e il linguaggio. A proseguire sul tema è stata Elena Gagliasso. Dapprima la professoressa ha voluto omaggiare delle figure miliari del dipartimento, citandole all’inizio del proprio intervento. Il primo ad essere menzionato è stato Vittorio Somenzi, pioniere della filosofia della scienza che, negli anni 60, ebbe a che fare con la cibernetica e l’operazionismo. Si occupò di redigere una raccolta dove molti dei personaggi, nominati durante il seminario, erano già presenti. Un altro personaggio importante fu quello di Roberto Cordeschi, suo allievo nonché insegnante in Sapienza di filosofia della mente. Tra le sue allieve più importanti, la Gagliasso ha citato Nicole Dalia Cilia la quale, insieme al professore Tamburini, hanno collaborato ad uno dei numeri più interessanti della rivista “Paradigmi”, intitolato “Macchine, menti e comportamento adattivo”.
L’ultima figura nominata rappresenta il rovescio della medaglia: il matematico Giuseppe Longo, scrittore del libro “Matematica e senso”. L’intento della Gagliasso non è stato solo quello di fornire dei cenni informativi, ma rappresentare l’alpha e l’omega delle cose che si possono trattare e criticare riguardo tale ambito di studi, e di tale enorme potenza di cui siamo in possesso. Ad esempio, se parliamo di cambiamento climatico, se abbiamo la potenza tale da orientare dei protocolli ampiamente disattesi ma costruiti a livello mondiale, se da queste realtà nascono dei grandi movimenti climatici che attraversano tutta l’Europa, è perché siamo in possesso di svariate possibilità di monitoraggio dati, di modellizzazioni tendenziali e virtuali in grado di convincere anche i più incerti. Tali dati non potevano esistere senza una potenza di calcolo che permettesse di avere una possibilità di prospezione sul futuro. Al centro di tutto ciò è l’importanza del non sapere.
Gli astrofisici hanno lavorato a lungo sulla nostra galassia ricavandone svariate e peculiari informazioni. Per mezzo di uno degli ultimi telescopi spaziali si sono scoperte novecentomila fonti di raggi X, quindi miliardi e miliardi di galassie, tali che la nostra è sembra essere solo una piccola posta ai bordi del cosmo. Anche le ultime generazioni di antropologi sono state costrette a fare un’operazione di umiltà sul loro sapere. Al centro delle relazioni costruttive di ciascun individuo dei popoli più disparati, non c’è l’Io ma il vuoto. La professoressa Gagliasso ha poi evidenziato due cose molto importanti: a livello cognitivo uno degli elementi fondamentali per poter essere in grado di esistere mentalmente è la funzione dell’oblio. Esso è ritenuto fondamentale per le nostre strutture mentali. Simile è la funzione delle strutture cellulari, che necessitano l’esistenza del meccanismo dell’apoptosi, ovvero la morte cellulare. Le cellule non possono svilupparsi costantemente, hanno delle vite limitate e c’è un meccanismo evolutivamente costituito per cui, ad un certo punto, si suicidano. La professoressa poi ha ripreso un tema precedentemente evocato da Leoni: intenzionalità e creatività. Per il professore l’intenzionalità è qualcosa che può essere sviluppata a livello di intelligenza artificiale: ma di quale intenzionalità stiamo parlando? Qual è l’intenzionalità manifesta? Non sembra avere nulla a che fare con l’intelligenza, è solo una mozione introdotta nell’intenzionalità che è difficile da decodificare attraverso programmazioni. Inoltre sono presenti altre caratteristiche sommerse; l’intenzionalità ne è la superficie. La creatività, invece, si lega all’oblio. Ad essere congiunte sono tutta una serie di salienze, ovvero occorrenze, che si distinguono dalla creatività, la quale invece permette “l’opera d’arte”, costituita da pregnanze. Ad essere riconosciuta è la straordinaria utilità dello strumento per l’informazione il quale è capace di creare un’onda culturale d’impatto che si trasforma in visione del mondo. Tra i due si insinua l’episteme di un’epoca, ciò che per Foucault permetteva o proibiva certe domande.
Successivamente, a prendere parola è stato Franco Cutugno il quale, con il supporto di slides, ha proceduto con il suo intervento. La sua ricerca si è basata sull’analisi di un parallelo tra il modo in cui un AI e un bambino sono capaci di apprendere delle lingue. Il bambino ne è in grado grazie alle enormi capacità modulari caratteristiche del cervello. All’inizio viene esposto a una serie di informazioni lungo molti canali sensoriali: informazioni multimodali che riesce a mettere in comunicazione tra di loro. Sono rapporti puramente sintagmatici: non c’è nulla di paradigmatico. La sua mente riesce ad individuare delle unità minime di senso e ad apprendere organizzando in sequenze; sulle unità definitive organizza poi verticalmente. Per quanto riguarda la macchina, ad essere trattato è il caso di Chat GPT. Essa viene sottoposta ad enormi quantità di dati non trascritti con l’obiettivo di creare delle rappresentazioni del parlato. Ascolta i suoni e riconosce delle strutture foniche minime ricorrenti. L’aspetto successivo riguarda l’estrazione delle unità minime del riconoscimento del parlato nella loro dimensione sintagmatica. Il passaggio conclusivo prende il nome di fine-tuning, in cui rintraccia le parole: questo processo è quello che e più simile a quello di un infante. La differenza sostanziale tra i due sta nella potenzialità della costruzione di conoscenza durante la vita.
In successiva battuta, ad interrogarsi sulla possibilità di porre domande epistemologiche a tali sistemi di carattere linguistico ed AI è Guglielmo Tamburini. Durante il seminario, ad essere risuonato più volte, è stato il tema della modularità, intesa sia come strutturale che funzionale. Ma tale tema si pone? Per Tamburini è possibile, ma non è da escludere il paragone tra mente umana e mente artificiale. Altro tema interessante dal punto di vista epistemologico riguarda la possibilità di riconoscere alcune tipologie di modularità. Inizialmente si poteva fare riferimento alle architetture neurali che, con l’avanzare del tempo, sono svanite. In seguito le reti neurali ripresero rigore in quanto l’ispirazione al mondo naturale fu molto più forte. Di fatti, i sistemi si basano su architetture neurali, algoritmi di apprendimento e dati. Nel complesso, però, vengono viste come scatole nere: esiste dunque una modularità? Secondo Tamburini ciò potrebbe essere asserito, ma può essere considerato funzionale o adattabile a questi strati? Quali di questi mezzi svolgono la funzione più importante per il conseguimento di questo compito? L’obiettivo, ad oggi, resta quello di accedere a queste. Ad emergere ancora è il problema della modularità, paradigma importantissimo presente nel passato, ma che può essere riportato su questi modelli dell’intelligenza artificiale, sia da un punto di vista analitico che sintetico. In ogni caso, entrare dentro questi sistemi sembra ancora essere molto difficile, e il paragone con la mente umana risulta il metodo più utile per ricavare informazioni. A chiudere il seminario è stata la voce di Federico Albano Leoni, che auspica ad un lavoro perseverante, soprattutto in ambito al rapporto con il mondo. Questi infatti, sono problemi riguardo ai quali il confronto è necessario. Tutto il nostro conoscere e il meccanismo di base delle lingue è associato ad uno stato di fatto esteriore ed interiore in rapporto con il mondo. I sistemi, invece, cosa hanno come punto di riferimento? Una stringa digitale. Per trasfigurare questa conoscenza del mondo servirebbe, a parere di Leoni, un demiurgo. A prendere tali fattezze è l’uomo, altrimenti la coscienza viene arrestata. La conoscenza di queste macchine per il relatore è di second’ordine, ferma ad una delle tante rappresentazioni possibili nel mondo.
Il programma completo del ciclo di seminari 2023/2024 è consultabile al link del Dottorato in Filosofia.