Continua il dibattito aperto dall’articolo dal titolo “Arrivano i robot”, dedicato a come l’intelligenza artificiale sta cambiando noi e il nostro modo di vivere e di pensare
Non è passato molto tempo da quando il test di Turing sembrava rappresentare l’orizzonte contro cui sarebbero andati a infrangersi i sogni dei fautori dell’Intelligenza Artificiale (IA). Quel test sanciva l’insurrogabilità del cervello umano da parte delle macchine, ovvero l’impossibilità per un computer di riprodurre il pensiero umano.
Oggi le cose stanno diversamente, nel senso che il programma dell’IA sta vivendo una decisa ripresa. Ne sono responsabili nuovi tipi di algoritmi in grado di apprendere dall’esperienza che allo stesso tempo ridimensionano e rilanciano le promesse della prima stagione di ricerche sulle macchine intelligenti. Le ridimensionano, perché se si fa eccezione per alcuni casi – come Nao o i ludorobot della serie Lego Mindstorms – l’IA non si sta materializzando in umanoidi come quelli disegnati dall’immaginario cinematografico (dai replicanti di Blade runner ad Alita), ma in servizi e funzioni per così dire “interni” a beni e oggetti di uso comune, dai personal digital assistant alle diverse tipologie di smart things.
Ma, allo stesso tempo, quelle promesse sono anche decisamente rilanciate perché il nuovo programma dell’IA non prevede più lo sviluppo di sistemi esperti, programmati per svolgere al meglio alcuni compiti precisi (IA ristretta), ma di forme di vita artificiale in grado di modificare il proprio algoritmo, ovvero sistemi autopoietici che possono incidere sulla propria evoluzione usando la velocità del calcolo per abbattere drasticamente i tempi di attesa delle nuove release (IA generale).
Come tutto questo sfida il mondo dell’educazione? Vedo almeno tre indicazioni, che sono allo stesso tempo di tendenza e di ricerca.
La prima è legata al Machine Learning. La condizione attuale è segnata da un’entropia crescente e da una complessità insostenibile. Le informazioni disponibili crescono a dismisura, si confondono con tutto ciò che informazione non è (dai relitti digitali che popolano la galassia internet alle fake news), rendono il sapere progressivamente sempre meno totalizzabile. Scegliere e valutare i dati diviene sempre più complicato. E così gli algoritmi ci corrono in aiuto: imparano dalle nostre ricerche, seguendo le nostre tracce ci conoscono sempre meglio, dipanano la complessità al nostro posto suggerendoci le scelte da fare. Non solo. Sulla base dei dati disponibili, delle scelte fatte, delle tendenze in corso, questi algoritmi ci sostengono nel difficile compito di prevedere i comportamenti delle cose e degli altri nel futuro. (Af)fidarsi? Dubitare? Che spazi e che possibilità rimangono in questo tipo di contesto per il pensiero critico? Un pensiero cui non è più sufficiente esercitarsi sui dati, ma che deve prendere a oggetto i suggerimenti che i dispositivi ci lasciano riguardo ai dati: un lavoro metacritico di cui sono da immaginare le forme per una nuova Media Education compatibile con le sfide dell’età del codice.
Una parziale risposta viene dalla seconda indicazione, che ruota attorno alla robotica educativa. Essa rappresenta l’esito attuale di una filiera di pratiche che dal coding conduce al making e al tinkering. Queste istanze, nate nel brodo culturale della controinformazione e dell’etica hacker, reagiscono contro l’omologazione digestiva imposta dalla dittatura dei format e degli script. L’informatica sociale di largo consumo si è diffusa grazie alla facilità delle interfacce e alla semplicità d’uso dei format. Questo ha significato separare il momento dell’upload del contenuto (banalmente eseguibile nella forma di un copia-e-incolla dentro il format) da quello della sua compilazione, formattazione, resa estetica. Una sorta di delega in bianco alla macchina: l’accettazione di usare tutti gli stessi format per trarne vantaggio nella facilità d’uso. La creatività sacrificata all’usabilità. Conoscere il codice, imparare a (ri)costruirlo, usarlo per programmare fin da bambini anche solo una piccola ape (bee-bot) da far muovere nello spazio, significa riappropriarsi del potere generativo del codice stesso. Un atto epistemico, ma alla fine anche politico.
Siamo all’ultima indicazione. Max Tegmark, professore di fisica al MIT di Boston, fa osservare in un suo recente volume come la differenza tra uomini e macchine si sia sempre costruita non tanto sull’intelligenza (una macchina può essere addirittura più intelligente di un uomo), quanto piuttosto sulla consapevolezza. Ora, una macchina che conosce i propri limiti e prova a rimuoverli intervenendo sull’algoritmo con cui è stata progettata per generare nuove più perfette versioni di se stessa, pare proprio essere una macchina in qualche modo dotata di riflessività e, quindi, di consapevolezza. Mai come ora il biologico e l’artificiale sono stati così vicini a (con)fondersi. Questo evoca, certo, i fantasmi cui in 2001 Odissea nello spazio Kubrick aveva già dato corpo, immaginandosi il supercomputer Hall che lotta per la propria sopravvivenza nel momento in cui comincia a percepire come un pericolo gli uomini dell’equipaggio. Ma si può anche immaginare una coevoluzione pacifica delle macchine e degli uomini, come fanno i fautori dell’IA benefica (cfr. http://futureoflife.org). E se gli algoritmi apprendono e tendono a migliorarsi forse ci potrebbe essere spazio per intervenire su questo processo in termini educativi: un’educazione, in questo caso, in senso proprio digitale!
* docente di Tecnologie dell'istruzione e dell'apprendimento, facoltà di Scienze della formazione, direttore del Centro di ricerca per l'Educazione ai Media, all'Innovazione e alla Tecnologia (Cremit)
Quattordicesimo articolo di una serie dedicata a come l’intelligenza artificiale ci sta cambiando