Il robot superstizioso

ASIMO (acronimo per Advanced Step in Innovative MObility), il robot androide progettato e sviluppato dalla giapponese Honda (credit: photo by AZAdam, CC BY-SA 3.0)

Ovvero, come costruire macchine avanzate che siano in grado di analizzare obiettivamente gli eventi del mondo circostante… senza cadere nella trappola della superstizione.

di Gianpiero Negri; si ringrazia Anna Rita Longo per la collaborazione.

La superstizione porta sfortuna: è la paradossale massima che ben sintetizza quanto la scienza e la psicologia affermano da anni, e con ottime ragioni. La causa per cui anche persone con alti livelli di cultura e istruzione si lasciano andare a comportamenti inutili (o addirittura controproducenti), a causa di credenze irrazionali che ne condizionano le azioni, talvolta profondamente, è stata spesso dibattuta; una disamina piuttosto completa è contenuta in questo articolo. In estrema sintesi, quando si adotta un comportamento superstizioso, lo si fa perché si spera che la nostra condotta possa influenzare e modificare il nostro futuro (prossimo o remoto, non importa). E il comportamento viene spesso reiterato, in barba a qualunque dato statistico, spiegazione razionale o solida argomentazione contraria.

I fattori principali da considerare sono almeno due, del tutto indipendenti l’uno dall’altro: il nostro rituale (come versare del sale o toccare ferro), e un evento atteso, nefasto, che si verifica con una sua propria frequenza. Il punto fondamentale è la cosiddetta “rilevanza statistica percepita”: anche se un evento nefasto si manifesta una sola volta in corrispondenza di un mancato rituale, ciò tende a convincerci di un inesistente nesso causa-effetto tra la nostra omissione e il verificarsi dell’evento. Insomma, un notevole pasticcio, a dispetto degli esperimenti di Skinner sul condizionamento nei piccioni, che dovrebbero averci fatto capire quanto facilmente si possa essere condizionati da eventi passati, nonostante la correlazione nulla tra il comportamento e l’evento. Correlazione che, in alcuni casi, aumenta proprio a causa del nostro stesso comportamento superstizioso, che può condurre a incidenti o disavventure per il solo fatto di essere messo in atto.

Kismet, la testa robotica prodotta dal MIT, in grado di riconoscere e simulare le emozioni (credit: photo by Jared C. Benedict // CC BY-SA 2.5)

Kismet, la testa robotica prodotta dal MIT, in grado di riconoscere e simulare le emozioni (credit: photo by Jared C. Benedict // CC BY-SA 2.5)

Può la tecnologia trovare nuove soluzioni ad un problema così ampio e complesso come quello dei comportamenti umani irrazionali? Secondo Alexander Riegler, ricercatore della Vrije Universiteit Brussel nei campi della vita artificiale, e della scienza cognitiva, la risposta è sicuramente sì. Nel suo articolo “Superstition in the Machine”, infatti, lo studioso esamina la questione della superstizione da un punto di vista inconsueto: quello delle macchine, o, per meglio dire, dell’intelligenza artificiale. Si tratta di una disciplina che sta avendo un impulso enorme negli ultimi anni, producendo risultati spesso sorprendenti, e la cui finalità ultima è costruire macchine pensanti, ovvero replicare tramite un automa i meccanismi tipici del pensiero umano. Incluse auto-consapevolezza, emotività e, perché no, superstizione.

Secondo Riegler, il punto principale è che la mente umana sembra avere la caratteristica di rilevare nel mondo reale dei cosiddetti modelli strutturali, allo scopo di anticipare gli stati futuri. Ad esempio, osservando il moto di un pallone, il nostro cervello è in grado di inferire un modello dinamico del suo comportamento. Che ci potrà aiutare, quando dovremo afferrarlo, o colpirlo, a capire come rimbalza e si muove: tutto questo, appunto, anche se non abbiamo la minima nozione di dinamica del moto e degli urti. Di qui l’approccio proposto da Riegler: visto che l’elaborazione delle informazioni è una disciplina che ricade nell’ambito dei sistemi elettronici e dei computer, perché non utilizzare sistemi cognitivi artificiali per esplorarne le dinamiche e trovare, da una parte, una spiegazione per il processo cognitivo umano, dall’altra, un paradigma per lo sviluppo di automi evoluti? In effetti, esaminata da questa prospettiva, la superstizione non sarebbe che una sorta di anomalia, dovuta però al modo in cui la mente umana organizza e analizza le informazioni sugli eventi.

L'androide Actroid-DER1, prodotto nel 2005, in grado di comunicare in inglese, giapponese, cinese e coreano (credit: photo by Gnsin, CC BY-SA 3.0)

L’androide Actroid-DER1, prodotto nel 2005, in grado di comunicare in inglese, giapponese, cinese e coreano (credit: photo by Gnsin, CC BY-SA 3.0)

In altri termini, basandosi sui modelli strutturali che ha costruito, il nostro cervello ad un certo punto smette di elaborare le informazioni dall’esterno, preferendo dedurre direttamente una possibile evoluzione di un processo o di una catena di eventi dai modelli che ha costruito. Questa informazione costruita internamente può essere talvolta assai utile (quando ad esempio ci consente di scansare un ciclista che sta per finirci addosso, indovinandone la traiettoria), ma può anche portarci a grossolani errori di valutazione, basati sul credere che un evento debba necessariamente evolversi come descritto nel nostro modello mentale, a dispetto di qualunque osservazione diretta. Ciò dipende in larga misura dalla enorme complessità delle informazioni che provengono dal mondo esterno, che la nostra mente, per economia, può decidere di ignorare, passando all’analisi dei nostri modelli strutturali: in parole povere, cominciamo a convincerci di idee o relazioni che esistono solo nella nostra mente, percependole come se fossero del tutto reali. In questo scenario, la superstizione non è che il risultato di una profonda ristrutturazione casuale di componenti cognitivi già esistenti, come, per esempio, specifiche sequenze di azioni o pensieri.

La riflessione teorica condotta da Riegler è affascinante, ed evidenzia il problema della complessità crescente degli algoritmi e dei sistemi per l’intelligenza artificiale: quanto più sofisticato diviene un automa che simula i processi cognitivi umani, tanto più è probabile che la sua unità di elaborazione cominci a comportarsi come la mente umana, anteponendo l’elaborazione di modelli strutturali interni a quella delle informazioni effettive provenienti dal mondo; diventando così, a sua volta, un ente superstizioso.

In effetti un elaboratore elettronico potrebbe sviluppare una condotta “randomica” (casuale), simile a un comportamento superstizioso, qualora desuma, dall’analisi dei dati che riceve, una difformità del modello che sta usando per descrivere un determinato fenomeno. A quel punto l’automa abbandonerebbe la pretesa di usare il proprio modello interno (che si sta rivelando fallace), e si lancerebbe in una massiccia acquisizione di dati dall’esterno, assorbendo quasi tutte le risorse di calcolo della macchina, bloccandola e rendendo del tutto inaffidabili i risultati della sua elaborazione.

Allo scopo di evitare questo fenomeno, Riegler propone un approccio che veda l’automa come una entità che usa informazioni strutturate, ossia che sia in grado di estrarre dei concetti astratti dai dati “nudi e crudi” del mondo esterno. In questo modo, invece di lanciarsi in una elaborazione interminabile di nuove informazioni, l’intelligenza artificiale userà solo i dati strettamente necessari per completare la sua comprensione delle informazioni che sta acquisendo – ed evitare una elaborazione massiccia in grado di immobilizzarla in un circolo vizioso potenzialmente interminabile.

Una replica della celebre K.I.T.T., l'automobile fittizia (dotata di accessori ipertecnologici e un'intelligenza artificiale quasi umana) più nota in Italia con il nome di "Supercar", dalla serie omonima (credit: photo by K.I.T.T. 1982, copyright +EST Co.,LTD. Universal Studios LLLP., CC BY-SA 3.0)

Una replica della celebre K.I.T.T., l’automobile fittizia (dotata di accessori ipertecnologici e un’intelligenza artificiale quasi umana) più nota in Italia con il nome di “Supercar”, dalla serie omonima (credit: photo by K.I.T.T. 1982, copyright +EST Co.,LTD. Universal Studios LLLP., CC BY-SA 3.0)

Ciò consentirà una analisi più obiettiva di quello che accade nel mondo esterno –una sorta di consapevolezza che si sta osservando un fenomeno noto, ma che si sta manifestando in modo difforme rispetto al solito. Per fare un esempio, se un elaboratore a bordo di un veicolo a guida autonoma di nuova generazione dovesse assistere ad un incidente che coinvolga un veicolo la cui strada è stata attraversata da un gatto nero non reagirà, quando si troverà in una medesima circostanza, bloccandosi sulla strada, in attesa che un altro veicolo lo sopravanzi. Questo perché, al suo interno, ha costruito una informazione strutturata che tiene conto di tutte le osservazioni che ha condotto durante il suo ciclo di vita, che gli suggeriscono che il collegamento tra il concetto astratto di “gatto nero” e quello di “incidente” è del tutto fallace.

In conclusione, quando tra qualche anno, o decennio, saliremo a bordo della nostra vettura che si guida da sola, non ci resterà che sperare che il paradigma proposto dallo scienziato belga sia tenuto opportunamente in conto. E che, pertanto, la vettura non piombi in un loop senza fine, arrestandosi di colpo, solo perché un innocentissimo felino si trova per caso sulla sua strada.

Immagine di copertina: ASIMO (acronimo per Advanced Step in Innovative MObility), il robot androide progettato e sviluppato dalla giapponese Honda (credit: photo by AZAdam, CC BY-SA 3.0)

Hai gradito questo post? Aiutaci con una