Comprendersi a vicenda

Il futuro dei computer intelligenti? Comprendersi a vicenda.
Questo è il segreto: per gli esseri umani e per l’intelligenza artificiale
 
Gli International Dota 2 Championships si sono tenuti nell’agosto scorso a Vancouver e hanno visto la sfida tra uomini e intelligenza artificiale. A me dei giochini elettronici non me ne frega nulla, perciò sono andato su Wikipedia per capire di che diavolo si tratta: “In Dota 2 l’obiettivo principale di ciascuna delle due squadre è quello di distruggere la fortezza della squadra avversaria. Ogni giocatore controlla un eroe e deve partecipare alla partita coordinandosi con gli altri membri della squadra. Le battaglie avvengono solitamente all’interno di una serie di sentieri che collegano le due basi, fiancheggiati da torri di difesa”. La sfida, va detto, è stata vinta dai giocatori umani contro OpenAI Five, per l’appunto un computer dotato di intelligenza artificiale e sponsorizzato da Elon Musk.
La premessa è che il videogioco Dota 2 multi-giocatore ha un ritmo frenetico e per questo è considerato molto più difficile per i computer rispetto a una tradizionale partita a scacchi (dove i computer già vincono da tempo). E i commentatori hanno attribuito la vittoria umana al migliore pensiero strategico e alla grande capacità di collaborazione.
A prescindere dalla curiosa sfida, quello di Vancouver è stato l’ennesimo test di conferma del fatto che il futuro dell’intelligenza artificiale è strettamente correlato allo sviluppo del concetto di collaborazione e della capacità cognitiva critica tipica dell’uomo.
Come funziona la questione? È presto detto. I bambini, intorno ai quattro anni di età, iniziano a rendersi conto che le loro menti sono in un certo senso uniche e possono avere idee, desideri, emozioni e intenzioni diverse dagli altri; soprattutto, per quello che ci interessa, iniziano a prevedere le azioni del prossimo, simulando i comportamenti conseguenti. Questi sono meccanismi essenziali per la cognizione umana e le interazioni sociali e sono altresì alla base della nostra capacità di comunicare in modo efficace e di collaborare per raggiungere obiettivi comuni. Da qui l’idea di dotare i robot della capacità di simulazione per consentirgli di prevedere il futuro, permettendo all’intelligenza artificiale di comprendere i bisogni di persone, cose e colleghi robot.
Alan Winfield, professore alla University of West England di etica robotica (ed è già tanto magnifico quanto sorprendente sapere che una materia così esista realmente e non sia il parto di uno sceneggiatore di Hollywood), spiega che a differenza dell’apprendimento automatico, in cui più strati di reti neurali estraggono modelli e “apprendono” da una moltitudine di dati, questa nuova intelligenza artificiale deve avere al suo interno un modello di conseguenza, ossia una sorta di “buon senso” che l’aiuti ad auto-istruire le sue azioni in sinergia con ciò che accade intorno a sé. E in questo senso vi sono già prototipi di robot che cercano di anticipare il comportamento degli altri, per esempio, per non andare a sbattere in un corridoio contro ostacoli in movimento. Si tratta dello sviluppo della teoria artificiale della mente.
Nello specifico, si punta a sviluppare una abilità narrativa. Nel senso che, come un romanziere o un regista, l’intelligenza artificiale deve imparare a simulare diversi scenari, contemplando all’interno di essi, le intenzioni dei protagonisti e i suoi obiettivi.
Gli scenari sono molto interessanti. Infatti una simile intelligenza artificiale potrebbe simulare la mente dei suoi compagni umani per stuzzicare i loro bisogni. E comunque meno incertezza nell’intelligenza artificiale si traduce in maggiore fiducia e questo sarebbe utilissimo nel campo dell’assistenza agli anziani e alle persone malate.
Stesso obiettivo ma approccio diverso lo troviamo nel progetto DeepMind, dove al posto del modello di conseguenza è stata sviluppata “ToMnet”, una intelligenza artificiale che osserva e impara dalle azioni di altre reti neurali.
In pratica è un collettivo di tre reti neurali. La prima studia le loro azioni passate. La seconda elabora un concetto generale del loro stato mentale attuale. Mentre la terza, “ascoltando” le altre due, prevede le azioni, migliorando con l’esperienza, come peraltro succede ad altri sistemi di “deep learning”.
In ogni caso la strada è segnata: i computer intelligenti, per esserlo sempre più, dovranno “comprendersi” a vicenda; anche se questa comprensione, oggi, è ancora a uno stadio rudimentale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *