Intelligenza artificiale, la via smarrita
di Giuseppe di Pirro
La via mediana
Nel 2010, poco dopo aver dato vita alla sua creatura, DeepMind, Demis Hassabis tenne un intervento al Singularity Summit in scena a San Francisco. Il titolo era intrigante: “A systems neuroscience approach to building AGI”. In quell’occasione Hassabis individuò due indirizzi fondamentali che sino ad allora avevano guidato la ricerca verso la realizzazione di una AGI (Artificial General Intelligence): uno biologico ed uno non biologico.
Indirizzo non biologico
Quello non biologico lo si può ricondurre eminentemente all’interno della cosiddetta IA simbolica. Un approccio molto in voga negli anni ’80 e ’90, mai completamente abbandonato che, anzi, ultimamente sta ritornando in auge.
Esso si prefigge di fornire al sistema informatico, mediante una minuziosa formulazione ed un’attenta programmazione, tutte le regole e le nozioni necessarie affinché la macchina sia in grado di pensare ed agire come un essere umano.
Sinora i risultati ottenuti non sono stati soddisfacenti, le problematicità incontrate molteplici, numerose quelle tuttora irrisolte. Il progetto CYC ne è un esempio. Iniziato nel 1984 da Douglas Lenat, si prefigge di instillare del “common sense” all’interno della macchina. Il progetto viene tuttora proseguito da Cycorp (società di cui Lenat è CEO) ed è al contempo molto controverso poiché, ad oggi, pur a fronte di alcuni risultati, non può dirsi ancora concluso.
Indirizzo biologico
L’approccio biologico invero (che in realtà, come il precedente, ne comprende svariati), in generale si sforza di replicare in forma digitale la struttura del cervello umano, nonché ricrearne l’architettura. Hassabis in linea di principio non ne criticava il presupposto teorico, piuttosto il metodo e, come per l’approccio biologico, il respiro eccessivamente ampio.
Un esempio ne è il progetto Blue Brain, avviato nel 2005 da IBM, che si propone per certi versi di “simulare” al computer il:
« funzionamento degli elementi che compongono il cervello del topo (ed eventualmente anche il cervello dell’uomo)».
In conclusione il CEO di DeepMind prospettava una via mediana. Invece di focalizzarsi sulla struttura fisica del cervello, Hassabis proponeva di guardare al funzionamento di quest’ultimo, alle modalità mediante le quali esso elabora le informazioni. Dunque, come chiosa efficacemente Hal Hodson:
«ci si dovrebbe concentrare sulla comprensione del software del cervello, non dell’hardware».
Il modello delle rete neurali
Quella strada, grazie all’utilizzo del deep learning e delle reti neurali, ha condotto Hassabis e DeepMind verso grandi successi. Alcuni (ed Hassabis tra questi) si sono addirittura spinti ad affermare che le reti neurali possano rappresentare un modello utile alla comprensione del funzionamento del nostro cervello:
«Le reti neurali di ultima generazione derivate dall’intelligenza artificiale possono essere utilizzate quali figure [simulacra] plausibili dei cervelli biologici, potenzialmente in grado di fornire spiegazioni dettagliate dei calcoli [computations] che si verificano al loro interno».
Un approccio che David Watson, ricercatore presso l’università di Oxford, riconduce essenzialmente all’interno dell’alveo del connessionismo:
«In effetti, questo è più o meno il principio centrale del connessionismo, un movimento pluridecennale delle scienze cognitive e della filosofia che ha visto una rinascita con il recente successo del deep learning».
L’utilizzo del machine learning (nelle sue varie declinazioni, in particolare il deep reinforcement learning) nondimeno è sembrata a molti la via maestra che avrebbe infine permesso la creazione della tanto vagheggiata AGI.
Invece, quantunque esso abbia prodotto risultati eclatanti ed indotto profonde trasformazioni non solo nel settore della ricerca e nel mondo delle aziende, bensì all’interno della società nel suo complesso, quel traguardo rimane tuttora una chimera.
Negli ultimi tempi la corsa ed il ricorso all’apprendimento automatico, sinora incessante ed ubiquo, soluzione e panacea ad ogni problema, ha registrato una flessione. Di più, ha incontrato evidenti difficoltà e si è infine scontrato con dei limiti concreti: i propri limiti.
La macchina che apprende
Nel 2013 DeepMind ha addestrato la propria IA (nello specifico una variante del Q-learning) a misurarsi con sette giochi del vecchio Atari 2600. I risultati, sorprendenti, sono stati pubblicati in uno studio dal titolo “Playing Atari with Deep Reinforcement Learning”. Ecco la conslusione degli autori:
«Constatiamo che [il nostro approccio] supera tutti gli approcci precedenti in sei giochi ed ha prestazioni migliori di un esperto umano in tre di essi».
Inoltre, tengono a sottolineare gli autori:
«Il nostro approccio ha conseguito risultati allo stato dell’arte in sei dei sette giochi su cui è stato testato, senza alcun adeguamento dell’architettura o iperparametri».
Ad impressionare era il fatto che l’IA, in sostanza, avesse scoperto ed appreso autonomamente come conseguire il successo. Rivela Hassabis.
«Le uniche informazioni che abbiamo fornito al sistema erano i pixel grezzi sullo schermo e l’idea che dovesse ottenere un punteggio elevato … Tutto il resto ha dovuto capirlo da sola».
L’algoritmo generale
Inoltre, a differenza di suoi illustri predecessori, l’algoritmo di DeepMind non era stato progettato in funzione di un compito o un gioco specifico: «Gli dai letteralmente un nuovo gioco, una nuova schermata, e dopo alcune ore di gioco scopre cosa fare», prosegue il CEO di DeepMind. Un approccio innovativo, che prometteva di rendere l’IA finalmente “adulta. Rileva ancora Hassabis:
«Finora, i sistemi di autoapprendimento erano stati utilizzati solo per problemi relativamente semplici … Per la prima volta, l’abbiamo impiegato in un ambiente ricco da un punto di vista percettivo allo scopo di portare a termine compiti molto impegnativi per l’uomo»
Gli esiti particolarmente incoraggianti facevano presagire delle applicazioni pratiche, con delle ricadute concrete, seppure non immediate, sulla realtà di tutti i giorni. Ad esempio nel campo della robotica:
«Una delle cose che oggi frenano la robotica… è che quando queste macchine si trovano nel mondo reale devono affrontare l’imprevisto. È impossibile pre-programmarle in funzione di qualsivoglia eventualità che potrebbe accadere».
Pertanto, continua Hassabis:
«Queste macchine hanno bisogno di un’intelligenza che sia adattabile … Devono essere in grado di imparare da sole».
Ed è proprio in merito alla capacità di adattarsi ed adeguarsi al mutamento, caratteristica che ha invero reso vincente la specie umana, che il deep learning ha palesato alcuni dei propri limiti.
Breakout
Breakout è un videogioco sviluppato da Atari, pubblicato nel 1976. Lo scopo del gioco è abbattere un muro di blocchi di mattoni posto nella porzione superiore dello schermo. Per farlo si ha il solo ausilio di una pallina. Quest’ultima viene fatta rimbalzare su una barra verticale presente nella parte bassa dello schermo, che il giocatore può muovere sia verso destra che verso sinistra. Si vince allorquando tutti i mattoni vengono distrutti dalla pallina. Si perde qualora non si riesca a far rimbalzare la pallina sulla barra.
Breakout è uno dei vecchi giochi per Atari 2600 utilizzati da DeepMind per mettere alla prova la propria IA. Come detto, quest’ultima non possedeva alcuna preconoscenza del gioco, delle sue regole, delle strategie da mettere in campo. Ha dovuto scoprirle in totale autonomia. Le prime partite, invero, si sono rivelate un disastro.
Tuttavia, dopo qualche centinaia di partite, il sistema aveva appreso come far rimbalzare la palla con precisione. Infine, grossomodo dalla 600°, l’IA era in grado di impiegare alcune strategie avanzate, utilizzate dai giocatori umani di Breakout. Ricorda Demis Hassabis:
«È stata una grande sorpresa per noi. La strategia è emersa interamente dal sistema sottostante».
L’algoritmo stava forse mostrando qualcosa di simile all’intelletto umano? Lasciava affiorare una propria capacità di comprensione? Del resto l’architettura delle reti neurali si ispirava e tentava di replicare il funzionamento del nostro cervello. La cosa appariva molto promettente. La strada imboccata sembrava finalmente quella giusta.
Vicarious
Dunque, il fatto che l’IA fosse in grado di conseguire dei risultati persino superiori a quegli degli umani in giochi come Breakout, implicava in ultimo che ci trovassimo di fronte ad un sistema pensante? È quanto si sono chiesti a Vicarious:
«Ma fino a che punto queste imprese dimostrano che l’IA abbia sviluppato una comprensione degli obiettivi del gioco simile a quella umana?».
Vicarious è una società, con sede a San Francisco, che si occupa di Intelligenza Artificiale. Come nel caso di DeepMind, si tratta di un’azienda molto ambiziosa e, al pari di Hassabis, i fondatori perseguono anch’essi l’obiettivo di pervenire alla tanto agognata AGI, e lo rivendicano orgogliosamente sul proprio sito:
«Abbiamo fondato Vicarious per costruire la prima intelligenza generale artificiale».
Proseguono gli scienziati di Vicarious:
«Quando gli esseri umani giocano ad un nuovo gioco, sviluppano innanzitutto una comprensione concettuale del gioco. Supponiamo che stiate vedendo un gioco come Breakout … per la prima volta. Dopo pochi secondi di osservazione, iniziereste ad interpretare il gioco sulla base della vostra precedente esperienza del mondo. Nel volgere di pochi fotogrammi osservando semplicemente lo svolgersi del gioco, afferrereste molto probabilmente i concetti del gioco».
La comprensione del mondo in termini di causa ed effetto è quella caratteristica che permette a noi umani di adattarci alle novità e agli imprevisti, utilizzando, o alla bisogna riutilizzando, una conoscenza acquisita in altri contesti.
La riproduzione dei concetti di causa ed effetto
«La domanda, pertanto, è: gli agenti del Deep Reinforced learnig comprendono concetti, cause ed effetti?».
Una questione cruciale, se si vuole scorgere un’intelligenza dietro gli algoritmi.
Per comprenderlo i ricercatori di Vicarious hanno addestrato un’IA simile a quella utilizzata da DeepMind, facendola giocare a Breakout, con risultati invero eccellenti. Poi però hanno iniziato ad apportare lievi modifiche al layout del gioco, ad esempio innalzando la barra [paddle], oppure creando un’area infrangibile al centro dei blocchi da demolire.
Il risultato? L’IA si è dimostrata incapace di adattarsi, di sviluppare, a fronte di modifiche anche minime, contromisure e strategie coerenti e conseguenti. Essa ha invece perseverato nel riproporre le modalità apprese precedentemente, nel corso di centinaia e centinaia di partite.
Commenta Dileep George, con queste parole uno dei cofondatori di Vicarious:
«I modelli avanzati di deep reinforcement learning possono superare i punteggi di livello umano all’interno degli ambienti in cui vengono addestrati, ma non imparano concetti riutilizzabili alla maniera dell’uomo.
Modifiche dei loro ambienti che sembrano marginali per l’uomo lasciano i modelli addestrati confusi ed incapaci di riaversi».
In sostanza, se si vuole che il sistema sia performante come in precedenza, bisogna addestrarlo daccapo all’interno del nuovo ambiente, anche in presenza di modifiche trascurabili o insignificanti in un’ottica prettamente umana. Conclude Dileep George:
«Noi esseri umani non riconosciamo unicamente degli schemi … Andiamo anche a costruire dei modelli sulle cose che vediamo. E questi sono modelli causali — noi comprendiamo causa ed effetto».
L’orizzonte futuro
«L’intelligenza artificiale attualmente è molto, molto stupida», ha dichiararlo (2018) non è uno sprovveduto, bensì Andrew Moore, all’epoca vicepresidente di Google. Questi poi proseguiva chiarendo la propria affermazione:
«[L’IA] È particolarmente brava nel fare determinate cose che il nostro cervello non è capace di gestire, tuttavia non è qualcosa che potremmo indurre [press] a fare ragionamenti generici che comportano cose quali analogie o pensiero creativo oppure uscire fuori dagli schemi».
Qualche tempo fa, alla domanda cosa fosse l’intelligenza artificiale, Yoshua Bengio, uno dei padri (o “padrini”) delle reti neurali, docente presso l’università di Montreal, vincitore del Touring Award 2018, così rispondeva:
«L’intelligenza artificiale cerca di costruire macchine che siano intelligenti, che siano in grado di fare le cose che possono fare gli umani, e per farlo deve possedere una conoscenza del mondo e quindi essere in grado di utilizzare tale conoscenza per fare cose utili».
Un compito fuori portata
Tutto ciò appare fuori dalla portata dell’odierna IA nelle sue molteplici declinazioni. Nessuna delle strade sinora proposte (e preposte) per la creazione di una intelligenza artificiale di livello umano o superiore ha consentito nemmeno di approssimarsi ad un tale risultato.
In una recente intervista Bengio lo riconosce:
«In termini di quanti progressi abbiamo compiuto in questo campo negli ultimi due decenni: non credo che oggi siamo in alcun modo vicini al livello di intelligenza di un bambino di due anni. Ma forse abbiamo algoritmi equiparabili agli animali inferiori, quanto a percezione. E stiamo gradualmente salendo questa scala in termini di strumenti che consentono ad un’entità di esplorare il proprio ambiente».
Sono stati fatti dei progressi, anche significativi in relazione ad alcune funzionalità (ad esempio, appunto, quelle relative alla percezione), tuttavia il raggiungimento di una qualsivoglia forma di “common sense” appare ancora lontano.
La chimera del “common sense”
Prosegue ancora Bengio:
«Uno dei grandi dibattiti al giorno d’oggi è: quali sono gli elementi della cognizione di livello superiore? La causalità ne è un elemento e vi sono anche il ragionamento e la pianificazione, l’immaginazione e la valutazione delle azioni [credit assignment] (“cosa avrei dovuto fare?”)».
Attualmente la gran parte degli esperti, pur con varie sfumature, riconosce i limiti palesati dalle odierne tecnologie di IA. Ciò su cui le opinioni divergono e spesso dissentono tra loro, sono le modalità, le azioni ed i percorsi da intraprendere per affrontare e superare tali limiti. Gli indirizzi proposti risultano molteplici, tuttavia quello che manca al momento è una strada maestra, modelli anche concettuali coerenti e condivisi.
Si è giunti così a mettere in discussione persino il paradigma dominante: deep learning e reti neurali.
«In qualche modo dobbiamo trovare un piano di gioco diverso», osserva Yejin Choi, docente della University of Washington e Senior Research Manager presso l’Allen Institute for Artificial Intelligence. Invero, quello che Choi ed altri ricercatori auspicano, non è tanto l’abbandono o il rifiuto di machine learning, deep learning o reti neurali, bensì che a tali strumenti si affianchino altre soluzioni, eventualmente anche integrandole, senza dogmatismi o preclusioni di sorta.
Nonostante le divergenze e talora qualche ostilità, l’obiettivo comune a tutti, nondimeno, rimane quello di dotare l’intelligenza artificiale prossima ventura di una qualche briciola di buon senso.
Sebbene al momento il traguardo appaia lontano, la storia recente della ricerca ci ha mostrato inattesi colpi di scena e repentini balzi in avanti. Sarà così anche stavolta?
Giuseppe di Pirro vive a Gaeta, studia e si laurea in Storia medievale presso l’Università di Firenze. Si divide tra varie passioni: la storia, l’economia e la sociologia. Attualmente si occupa di intelligenza artificiale e delle sue ricadute sulla società e gli stili di vita. Collabora con il blog di goWare dove copre anche le tendenze dei media e del giornalismo ai tempi del web2 e del mobile. Ha contribuito al volume di Fabio Mengini, Le FANGs: Facebook, Amazon, Netflix, Google. I grandi gruppi della new economy nell’epoca della stagnazione economica, goWare 2018