La risposta è NO, almeno per i prossimi decenni (tanti).

Per un’affermazione cosi perentoria mi collego ad una intervista fatta a Stuart Russell, (autore del libro Human Compatible, Penguin Books, Ott. 2019) in merito al fatto che cominciamo ad avere sistemi altamente automatizzati che producono ogni cosa ed in grande quantità, quindi alla domanda dell’intervistatore “quale è (sarà) il ruolo degli umani?”
“Quello che rimane intatto dall’automazione è la nostra umanità” è la meravigliosa risposta di Russell, che continua: chiamatela empatia ma è proprio la natura stessa dell’essere umano che la macchina non può condividere e/o possedere.
Se vogliamo metterla sul difficile, si tratta di una situazione che assomiglia (mutate le classiche mutandis) al principio di indeterminazione di Heisemberg nella meccanica quantistica.
Questo principio dice praticamente che per il semplice fatto che tentiamo di misurare ad esempio la velocità di una entità subatomica ne modifichiamo il comportamento perchè dobbiamo illuminare la particella con un fascio di luce, ad esempio, e, così facendo, dato che la luce porta energia ed impulso, la nostra particella riceverebbe una piccola spinta che cambierebbe il suo stato di moto.
E più si illumina la particella con potenti microscopi, più le si dà energia, più si cambia il suo momento, cioè la sua velocità, e meno possiamo determinare la sua velocità di partenza.
La cibernetica è la scienza che studia come “informare” un essere umano sulla situazione di eventi con esiti non definiti, altrimenti non sarebbe cibernetica ma informatica classica, anche basandosi sui comportamenti di eccellenza individuati utilizzando discipline di trattamento di dati storici come ML o Big Data.
Ma nel momento che l’individuo riceve queste informazioni ha una reazione, questa sì “imprevedibile” perché derivata dalla complessa struttura mentale dell’essere umano, dalla sua cultura, esperienza, competenze, ecc.
Ci troveremo pertanto in presenza di un “nuovo” essere umano, nel senso che l’informazione fornita lo ha “cambiato” (non mi sembra il caso di disquisire se in meglio od in peggio) e quindi lo ha posto nella situazione di prendere una decisione od esprimere una nuova esigenza non prevedibile a priori vista la natura del prodotto cibernetico e le infinite direttrici che può assumere la reattività dell’individuo.
Anche perché la macchina cibernetica dopo che ha assolto al proprio compito si pone in una situazione di stallo in attesa della prossima richiesta, esattamente l’opposto dell’essere umano che proprio in quel momento fa scattare la propria intelligenza naturale e prosegue sua sponte il percorso che si era prefissato.
Quindi l’essere umano sarà sempre almeno una domanda avanti ad ogni macchina cibernetica, fino a che la macchina cibernetica non sarà in grado di equalizzare la potenza deduttiva della cultura di qualunque essere umano e sono secoli a venire con tutti i computer quantistici che si vuole.
Un esempio: immaginate che per acquistare un’auto a guida autonoma sarà necessario firmare una liberatoria nei confronti della casa costruttrice nella quale si sceglie liberamente il comportamento del software tra diverse alternative quali, uccidere un bimbo in carrozzina sulle strisce, invece di sbattere contro un albero ed uccidere il proprio figlio che dorme dietro nell’auto……, e cosi via.
Senza una liberatoria di questo tipo, la responsabilità ricadrebbe sul costruttore dell’auto o sulla casa di software per OGNI incidente di qualunque tipo. Immaginate le cause per danni e la caduta della responsabilità civile.
Difficile pensare ad una Compagnia di Assicurazione che fornisce una polizza per questo tipo di litigations.
Quindi la cibernetica continuerà a fornirci informazioni, altrimenti non ottenibili manualmente, per essere sempre più “bravi” ma non ci rimpiazzerà almeno in questo secolo.
E’ l’informatica con le gestione degli eventi ad esiti definiti il vero pericolo, da sempre da quando è apparsa sul mercato