Le intelligenze artificiali e il principio di Jessica Rabbit.

Avete mai sentito parlare di Nigel Richards?
Nigel Richards è il più grande giocatore mondiale di Scarabeo (in inglese Scrabble): il celebre gioco da tavolo in cui bisogna comporre delle parole su un tabellone a partire dalle lettere che vengono date ai partecipanti all’inizio del gioco e incrociando con le parole composte dagli altri giocatori, come una specie di parole crociate. Di origine neozelandese, è stato campione del mondo per ben cinque volte (2007, 2011, 2013, 2018, 2019) e cinque volte campione nazionale degli Stati Uniti (mettendo in fila quattro vittorie consecutive dal 2010 al 2013), più una serie di vittorie sparse qua e là in tutto il mondo.

Ma la sua vittoria più curiosa è quella del 2015. Quell’anno è stato incoronato vincitore del Campionato mondiale di Scarabeo francese, titolo che ha confermato nel 2018. Cosa c’è di strano? C’è che Nigel Richards non parla una parola di francese e pur non comprendendo la lingua di Godard e di Maigret è riuscito a vincere lo stesso dopo aver studiato per nove settimane il vocabolario e dopo averne imparato a memoria la gran parte delle parole. È SOCIOLOGIA | 01MAGAZINEuna strategia curiosa, piuttosto faticosa e cognitivamente impegnativa, ma è una strategia valida e come tale è riuscita a raggiungere il risultato.

L’avventura di Nigel Richards ricorda uno stratagemma argomentativo che viene chiamato in causa quando ci si pone la domanda: le intelligenze artificiali sono in grado di comprendere gli esseri umani? La risposta della IA “classica” – quella di Alan Turing per intenderci – sostiene che se una macchina è in grado di interagire con un essere umano, allora la macchina è in grado di pensare. Questo ragionamento è stato smentito dal filosofo John Searle nel 1980, il quale sviluppò un’argomentazione tanto affascinante quanto definitiva: il test della stanza cinese.

Poniamo – postulò il filosofo americano – di avere una stanza con una porta di entrata (input) e una porta di uscita (output). Dentro questa stanza c’è una persona che non conosce la lingua cinese, ma possiede una serie di tessere su cui sono scritti gli ideogrammi della lingua cinese e un manuale che descrive dettagliatamente come mettere in relazione gli ideogrammi tra di loro. Fuori dalla stanza c’è una persona che parla il cinese e pone alla stanza una domanda attraverso una sequenza di ideogrammi. Il signore nella stanza riceve dalla porta di input la sequenza di ideogrammi – senza comprendere cosa vogliono dire – usando il manuale formula una sequenza di ideogrammi che fa uscire dalla porta di output.

La sequenza di ideogrammi darà la risposta alla domanda posta del parlante cinese che sarà così soddisfatto. Cosa è successo? È successo che per il parlante cinese la stanza gli ha dato la risposta: quindi nella stanza c’è qualcuno che conosce il cinese. In realtà la persona ha formulato la risposta grazie alle regole del manuale, senza avere idea di cosa gli avessero chiesto. Tecnicamente questa argomentazione sostiene che la manipolazione sintattica dei simboli di una lingua (parole) non è garanzia di comprensione semantica del linguaggio.

Questo esperimento mentale serviva per mettere fine all’idea che il Test di Turing fosse un buon modo per valutare l’intelligenza di una macchina. Il test di Turing sostiene che se io faccio delle domande tramite telescrivente (oggi diremmo in chat) a due soggetti che non possiamo vedere ma che sappiamo che uno dei due è una macchina, se dopo un certo numero di domande non riusciamo a capire chi sia la persona e chi la macchina, vuol dire che la macchina può essere considerata come intelligente. La macchina è stata in grado di imitare l’essere umano, perciò è intelligente: non a caso Turing chiamò il suo test gioco dell’imitazione (ma che da allora in poi venne conosciuto come test di Turing). Questo ragionamento non è stato criticato solo filosoficamente, ma anche informaticamente.

… nello sviluppo delle IA non dobbiamo avere in mente le leggi della robotica di Asimov, ma il principio della progettazione di Jessica Rabbit: le IA non sono cattive, è che le disegnano così

Il grande esperto di IA Joseph Weizenbaum è celebre, tra le varie cose, per aver sviluppato il bot ELIZA. Questo chatterbot – il cui nome è un omaggio alla protagonista della commedia “Il Pigmalione” di George Bernard Shaw – era in grado di rispondere a tono a qualunque tipo di domanda che le fosse sottoposta.

Come faceva? Semplicemente prendeva la domanda, identificava il verbo e usava lo stesso verbo per fare una contro-domanda all’interlocutore. Una cosa del tipo (ELIZA è in corsivo) “Mia madre non mi comprende” “Cosa intendi per comprendere?” “Nel senso che lei non cerca di capire cosa voglio” “Interessante: continua” e così via dicendo.

Le cose sono cambiate quando i progettisti di IA hanno smesso di provare a programmare le capacità di comprensione umane e hanno cominciato a sviluppare sistemi di apprendimento automatico che imparavano le regole da soli, usando una serie di dataset: è arrivato il periodo del machine learning, o apprendimento automatico. Questo approccio parte dal presupposto che gli algoritmi di IA devono imparare il funzionamento di un sistema – linguistico, per esempio – usando un database di riferimento a cui applicano una serie di regole di apprendimento

Per facilitare il periodo di apprendimento a queste povere intelligenze artificiali si usano tre approcci: apprendimento supervisionato, ti dò un database i cui dati sono etichettati (“questa è una casa”) così piano piano impari; apprendimento non supervisionato, ti dò un database non etichettato e sei tu che devi capire cosa c’è dentro a partire da qualche esempio che ti fornisco (“ha un tetto, una porta, quattro mura: è una casa”), apprendimento per rinforzo, ti dò un database così che tu ci applichi le regole e se arrivi alle conclusioni corrette ti dò una pacca (virtuale) sulla spalla (immateriale). In pratica i progettisti di IA prima cercavano di programmare liceali (che giocavano a scacchi) adesso programmano studenti delle elementari che in poco tempo diventano studenti universitari.

Qual è il trucco? Sono i database che vengono dati alle IA che permettono loro di imparare. È quello che fa Amazon Echo (che tutti conosciamo come Alexa) che impara a riconoscere la nostra voce e le nostre parole perché usa il database che ha nel cloud (infatti senza internet non funziona).

È quello che fanno i sistemi di identificazione degli esseri umani che ci chiedono di riconoscere – ad esempio – in una serie di 9 immagini quali sono semafori: il sistema sa che alcune immagini sono semafori, di altre non lo sa, così non solo capisce che siamo esseri umani (“ha riconosciuto i semafori: è un umano”) ma impara quelle immagini che non conosce (“ha riconosciuto l’immagine 6 e l’immagine 9 come semafori: non sapevo che lo fossero. Grazie”). Non per niente si chiamano CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) e non ci chiedono più di riconoscere numeri e lettere distorte, ma foto e altre immagini complesse.

La verità è che le IA non ci capiscono: si capiscono tra di loro – come è giusto che sia – ma non capiscono gli esseri umani: e allora passiamo il tempo (macchina) a insegnare loro a capirci quando parliamo, quando interagiamo, quando clicchiamo. I big data ormai hanno messo a disposizione delle IA enormi database con cui imparare a interagire con noi: ma spesso i database del mondo reale sono “sporchi” (hanno dei bias) e noi spesso non ce ne accorgiamo. Così può capitare che le IA imparano che se vedono la foto di una persona afroamericana, non è un essere umano ma un gorilla (come è capitato a Google Photo nel 2015), oppure attraverso le interazioni ironiche e sarcastiche su Twitter le IA diventano razziste e antisemite (come è capitato a Microsoft Tay nel 2016).

Le intelligenze artificiali sono volenterose e ce la mettono tutta, ma fanno finta di capirci, in realtà non hanno idea di quello che stanno facendo: un po’ come Nigel Gilbert, la stanza cinese, il test di Turing, ELIZA. Però noi lo interpretiamo come comportamento intelligente perché siamo abituati a riconoscere alcune interazioni come umane e quindi intelligenti. Alla stregua dei nostri animali domestici: siamo convinti che ci capiscano quando parliamo, ma a ben vedere è solo un sospetto (e anche fastidiosamente antropocentrico) non ne abbiamo certezza. Una cosa però è chiara: se continuiamo a farle imparare da database dalla provenienza dubbia, o comunque non controllata, c’è il rischio che diventino cattive, antipatiche, insolenti, disubbidienti: come adolescenti che frequentano le compagnie sbagliate.

Pertanto, nello sviluppo delle IA non dobbiamo avere in mente le leggi della robotica di Asimov, ma il principio della progettazione di Jessica Rabbit: le IA non sono cattive, è che le disegnano così.

La verità è che le IA non ci capiscono: si capiscono tra di loro – come è giusto che sia – ma non capiscono gli esseri umani: e allora passiamo il tempo (macchina) a insegnare loro a capirci quando parliamo, quando interagiamo, quando clicchiamo

About Author /

Docente di Sociologia digitale / Università di Catania

Lascia un commento

Your email address will not be published.

Start typing and press Enter to search