Alter ego
È tutta questione di… cognizione di sé.
Siamo tutti consapevoli che la nostra specie è l’unica su questo pianeta in grado di costruire macchine, per espandere le nostre capacità oltre i nostri stessi limiti biologici. Grazie agli artefatti, i nostri arti superiori, con le mani, sono appendici molto versatili. Le automobili ci permettono di viaggiare velocemente, le navi di solcare i mari e gli aerei ci mettono le ali. L’invenzione del computer accresce le doti cerebrali, perché migliora le nostre capacità di accedere a dati cognitivi più velocemente. Gli smartphone oramai organizzano la nostra vita quotidiana. E, in questo periodo storico, stiamo creando una tecnologia in grado di evolvere da sé, sviluppando al suo interno la capacità di apprendere autonomamente.
E la domanda è ovvia: “Questa intelligenza artificiale aumenterà le nostre capacità, migliorando il nostro modo di essere umani, oppure ci governerà?”.
Penso che per rispondere a questa domanda con cautela e prudenza, possa essere utile raccontare cosa accade attualmente con l’AI (Artificial Intelligence), nei laboratori più importanti del pianeta. L’apprendimento automatico si ispira, necessariamente, ai contenuti scientifici non solo dell’informatica ma anche della psicologia, specialmente quella cognitiva. Si tratta di algoritmi basati sullo stile cognitivo umano, perché risolvono problemi nuovi individuandone di simili nella memoria. Questa capacità, per esempio, permette l’automazione dell’assistenza ai clienti in alcuni siti web, oppure veicola azioni di e-commerce, consigliando i prodotti in base ai nostri gusti.
La situazione scientifica nella quale ci troviamo ora è quella di rispondere ad una sfida epocale. Si tratta di scoprire un algoritmo in grado di unificare almeno due paradigmi importanti, ossia quello riferito al trattamento di big data e quello riferito all’acquisizione di conoscenze semplici, ossia legate al normale ragionamento logico. Rispondere a questa sfida potrà migliorare il progresso umano, senza che le macchine diventino padrone della nostra esistenza. In effetti, qualora raggiungessimo la formulazione di un algoritmo definitivo (frutto delle enormi quantità di dati prodotti da tutti noi, come nel caso della Moral Machine del MIT, per la guida di automobili senza conducente), qualsiasi sistema di AI potrebbe essere in grado di imparare modelli molto precisi e dettagliati di comportamento umano, come ad esempio: i nostri gusti e le abitudini, i nostri punti di forza e debolezze, i ricordi e le aspirazioni, le nostre credenze e personalità, cosa e chi ci interessa, oppure come potremmo reagire di fronte a situazioni ambientali specifiche.
Questa idea, ossia la possibilità che modelli di noi stessi possano essenzialmente prevedere le nostre scelte, è, al tempo stesso, decisamente entusiasmante e spaventosa. Un refrain comune e condiviso recita che queste macchine, dotate di tali capacità, utilizzeranno le loro nuove conoscenze per rubarci il lavoro, schiavizzarci o perfino sterminarci.
Dal mio punto di vista, è altamente improbabile che accada, poiché esse non saranno mai dotate di volontà autonoma, mentre risponderanno sempre alla programmazione umana. Tutti gli algoritmi di una qualsiasi AI sono il frutto di obiettivi programmati da noi, come “Trova il percorso più breve da casa sino alla stazione ferroviaria”.
Ciò che differenzia questi algoritmi da quelli ordinari è solo la loro notevole flessibilità nell’immaginare come raggiungere gli obiettivi che abbiamo impostato per loro, e senza eseguire una serie di azioni predefinite. In queste macchine, man mano che con l’esperienza diventano sempre più efficienti nei loro compiti, gli obiettivi non cambiano, mentre le soluzioni che non determinano un progresso verso l’obiettivo sono automaticamente scartate. È chiaro che tutto questo agevola notevolmente le problematiche umane rispetto alle scelte migliori da operare sempre in riferimento agli obiettivi prefissati. Inoltre, gli esseri umani conservano la possibilità di controllare se ciò che producono le macchine è davvero utile o meno per gli obiettivi.
Siamo sempre noi a verificare che le macchine non contravvengano alle limitazioni ricevute da noi, come, per esempio “rispetta il codice della strada”.