Intelligenza artificiale: sistemi intelligenti o piccioni sintetici?

0 Flares 0 Flares ×

intelligenza artificiale

L’intelligenza artificiale è un insieme di tecnologie che permettono di far eseguire alle macchine (in genere calcolatori elettronici) dei compiti che si ritenevano eseguibili solo da esseri umani. La qualità dell’esecuzione può essere inferiore, uguale o superiore a quella di un essere umano. A volte può essere accettabile una qualità inferiore nell’esecuzione del compito, se questa consente comunque un risparmio (ad esempio l’identificazione dei numeri di targa delle automobili).

Come tutte le tecnologie che promettono cambiamenti epocali, l’avvento delle tecnologie di IA viene visto a volte con pessimismo e a volte con ottimismo. Nella sfera della visione ottimistica spesso si commette l’errore di pensare queste tecnologie come delle soluzioni finali, in grado di risolvere qualsiasi problema e si caricano di aspettative che purtroppo vengono disattese. La natura di questo limite è di tipo tecnico; ad oggi tutte le tecnologie di IA sono legate al paradigma basato sull’apprendimento automatico della macchine (machine learning).

Cosa fa il machine learning? Analizza dei dati e, nella sua forma più basilare, cerca di trovare delle correlazioni tra input ed output, ad esempio tra i sintomi e le malattie. Da questo cerca di estrapolare una regola generale di tipo probabilistico del tipo: SE (mal di testa) E (naso chiuso) ALLORA (Raffreddore) al 85%. In un certo senso impara utilizzando degli esempi. E questo può essere un grande limite, perché se si trovasse in una situazione molto diversa rispetto agli esempi cui è stata esposta, non è in grado di estrapolare una soluzione adatta. Di fatto, il machine learning definisce una rapporto di correlazione tra input ed output, ma non di casualità: questi sistemi mancano totalmente di cognizione di causa.

=> Scopri il manuale Machine learning e intelligenza artificiale. Metodologie per lo sviluppo di sistemi automatici

Per fare un’analogia, queste macchine somigliano ai piccioni di un famoso esperimento realizzato dallo psicologo B.F. Skinner chiamato la superstizione del piccione. L’esperimento consiste nel mettere dei piccioni in una gabbia cui è collegato un meccanismo automatico che distribuisce del cibo ad intervalli regolari. I piccioni all’interno della gabbia iniziano ad eseguire delle azioni a caso: beccare, aprire le ali, girare la testa etc. L’arrivo della prima dose di cibo avviene mentre ogni piccione esegue una particolare azione, e questo fa sì che ogni piccione associ la propria azione (beccare, girare la testa etc.) con l’arrivo del cibo, per cui inizia a ripetere la stessa azione ipotizzando un rapporto di causa-effetto tra la propria azione e la disponibilità di cibo.

Utilizzando gran parte del tempo nel compiere l’azione che per prima ha portato alla distribuzione del cibo, la distribuzione delle ulteriori dosi di cibo tende a coincidere con l’azione eseguita dal piccione, rinforzando la superstizione che l’azione sia in qualche modo collegata all’evento.

Alla fine i piccioni iniziano ad eseguire sempre la stessa azione pensando di influenzare la modalità distribuzione del cibo, ipotizzando un rapporto di causa-effetto che in realtà non esiste, da cui il nome la superstizione del piccione. Con i sistemi di machine learning può succedere lo stesso. Come i piccioni, le macchine possono ipotizzare una rapporto di causa-effetto che non esiste perché non hanno una conoscenza ed una capacità logica tale da contestualizzare i fenomeni a cui vengono esposte. Cosa significa in pratica? Significa che questi sistemi non sono in grado di interpretare relazioni di causa-effetto.

L’esempio classico è la correlazione tra attacchi di squali e vendita di gelati in Florida: Se si utilizza un diagramma per rappresentare i due fenomeni, possiamo vedere come i due fenomeni siano correlati (variano insieme).

vendite gelati e attacchi di squali

Per un essere umano è evidente che i due fenomeni non sono legati da un rapporto di causa-effetto: vendere più gelati, ovviamente, non implica un aumento degli attacchi di squali (o viceversa), ma sono entrambi legati ad un altra variabile: la temperatura. Per un essere umano tale ragionamento è chiaro e difficilmente potrebbe ipotizzare una politica volta a limitare il consumo di gelati per diminuire gli attacchi di squali.

Per una macchina, che non ha una visione complessiva della realtà, tale ragionamento spesso non è possibile (dipende dagli esempi con i quali viene addestrata) e potrebbe suggerire di vendere meno gelati per la salvaguardia dei bagnanti (strategia che risulterebbe inefficace per la tutela dei bagnanti e anzi potrebbe dare un falso senso di sicurezza). Il legame molto stretto tra i dati e i modelli di AI che ne derivano, risulta affidabile solo in un numero limitato di situazioni. Un evento totalmente imprevisto, ad esempio un camion che trasporta dei semafori, è in grado di mandare in tilt un sistema di guida autonoma basato sull’intelligenza artificiale.

Per un essere umano che guida una macchina, trovarsi davanti un camion che trasporta semafori non crea un problema, perché l’essere umano ha una visione globale della realtà, ne analizza il contesto ed ragiona su due piani logici: quello induttivo e quello deduttivo, riuscendo a creare una proiezione mentale della realtà che lo circonda quasi sempre coerente con il mondo reale.

Questi esempi permettono di evidenziare alcuni dei limiti di queste tecnologie e come il comprenderli sia un aspetto tanto fondamentale quanto il saperne sfruttare i vantaggi. Anzi, è più importante capire cosa queste macchine non sono in grado di fare, di quello che sono in grado di fare, in modo da evitare che vengono utilizzati in contesti in cui sono inadatte e possono risultare pericolose.

Nella strategia nazionale 2020 AI pubblicata dal Ministero dello sviluppo economico nel settembre 2020, si legge: “[...] nelle politiche pubbliche sono a portata di mano strumenti [i sistemi AI - ndr] di contrasto all’evasione e ad altre forme di illegalità che limitano la discriminazione, anche involontaria, frutto di valutazioni esclusivamente umane“. Queste considerazioni evidenziano una visione poco chiara da parte del ministero sulle tecnologie di intelligenza artificiale e come una loro potenziale implementazione, senza una profonda conoscenza di questa tecnologia esponga i cittadini a gravi rischi.

Questi sistemi sono per loro natura totalmente discriminatori, non limitano la discriminazione ma l’aumentano più di un essere umano (in media), proprio perché creano modelli matematici della realtà attraverso l’uso di correlazioni e non di causalità. Se la maggior parte dei crimini fosse compiuta da persone con gli occhi azzurri, l’avere gli occhi azzurri, per un sistema di AI basato sul machine learning, implicherebbe una maggiore probabilità di essere un criminale: Se (occhi azzurri) ALLORA (criminale) al 77%. Per un essere umano è chiaro che il colore degli occhi non è una componente che possa rappresentare una tendenza ad un comportamento criminale, per una macchina no, come per un essere umano è perfettamente normale mentre guida trovarsi davanti un camion che trasporta semafori, ma non lo per un sistema di guida automatica.

Affidarsi a questi sistemi, che come i piccioni dell’esperimento si basano spesso su una correlazione (superstizione), delegando loro le responsabilità che non ci si vuole assumere o che non si è in grado di assumere, significa avere una visione miope che non può essere accettata. Le tecnologie di AI sono incredibilmente potenti e presentano numerosi vantaggi ma devono essere gestite ed utilizzate conoscendone in maniera approfondita i limiti e le criticità.

=> LEGGI gratis le prime 27 pagine del manuale Machine learning e intelligenza artificiale. Metodologie per lo sviluppo di sistemi automatici

Gianfranco Barone

Ingegnere gestionale, ha sviluppato sistemi basati su database relazionali e sistemi di AI e di data analytics. È docente di corsi di programmazione e corsi di intelligenza artificiale e machine learning accreditati CNI, CNAPI e CNAPPC.

Ultimi articoli di Gianfranco Barone (vedi tutti)

Nessun libro disponibile.

0 Flares Twitter 0 Facebook 0 LinkedIn 0 0 Flares ×

Replica

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

I dati saranno trattati per consentire l'inserimento e la pubblicazione dei commenti e delle recensioni. Prima di lasciare il tuo commento, leggi l'Informativa Privacy

0 Flares Twitter 0 Facebook 0 LinkedIn 0 0 Flares ×