• Passa al contenuto principale
  • Passa alla barra laterale

Blog del CEO

  • Home
  • Chi Siamo
  • Newsletter

Verso una società frictionless

3 Ottobre 2021

Negli ultimi 20.000 anni l’essere umano ha sempre tentato di trovare un “mezzo” per eliminare, ridurre , semplificare gli ostacoli, e le difficoltà del contesto nel quale doveva operare; prima per sopravvivere, poi per vivere con meno fatiche e con maggiori agi e, successivamente, per migliorare le proprie condizioni di vita.

Dalla scoperta del fuoco e del suo mantenimento, alla costruzione di capanne al posto delle caverne, ai primi manufatti in silice e ossidiana, alla scoperta del bronzo, dell’oro e poi del ferro, l’uomo primitivo ha sempre tentato di migliorare la propria difficile esistenza ricorrendo a oggetti esterni alla propria persona per aumentare la propria efficacia e produttività.

Questo lungo e perenne tragitto dell’umanità è iniziato prima con la creazione di “macchine” per ridurre o eliminare la fatica fisica poi con la creazione di strumenti di connessione con gli altri individui (trasporti, comunicazioni, ecc.) , poi ridurre la fatica “mentale” per dominare un mondo che diventava sempre più numeroso e complesso, sempre più arduo da gestire manualmente.

In questa direzione si è iniziato verso la fine del’800 con le macchine per l’automazione dei calcoli delle vendite nei negozi (NCR ed il registratore di cassa è del 1884), seguita successivamente nel 1890 con l’utilizzo del sistema di Hollerith e della sua invenzione delle schede perforate per accelerare i risultati del censimento degli Stai Uniti di quell’anno e degli anni successivi. In seguito Hollerith fondò la sua società per lo sfruttamento del suo brevetto, società che nel 1929 diventò la IBM International Business Machines.

Era iniziata l’era della “meccanizzazione” della parte intellettuale del lavoro umano, alimentata all’inizio dalla riduzione della semplice fatica mentale di fare i calcoli per poi evolversi nella ricerca ossessiva di un aumento della produttività (riduzione del numero di ore di attività necessarie per produrre un oggetto sostituendo l’attività manuale con l’attività “meccanizzata” ) ed infine , a partire dagli anni ’50 del secolo scorso, con l’automazione nella accezione che vediamo oggi intorno a noi consentita dall’avvento dei “cervelli elettronici” come venivano chiamati i computers all’inizio del loro apparire nel mercato.

La prima discontinuità: la macchina lavora “da sola”

I “cervelli elettronici”, denominazione poi rapidamente abbandonata, prendevano questa definizione tipicamente giornalistica dal fatto che erano basati sull‘architettura di Von Neumann definita da Wikipedia come una tipologia di architettura hardware per computer digitali programmabili a programma memorizzato nella propria memoria insieme ai dati da elaborare.

Ne risultava una “macchina” con una proprietà sconosciuta fino a quel tempo e che ha provocato la prima discontinuità nell’evoluzione della tecnologia dell’automazione dei processi:
la macchina era in grado di operare autonomamente ed indefinitamente senza la necessità di alcun intervento dell’elemento umano che non fosse l’introduzione delle istruzioni (programma) una volta per tutte.

Si trattava di una “macchina” che aveva una memoria e che poteva operare in modo autonomo, tutte caratteristiche del cervello umano mentre l’automobile, la locomotiva, l’aereo, macchine potentissime già negli anni ’50 , non erano in grado di operare autonomamente senza l’intervento costante dell’essere umano.

E’ iniziata cosi l’era della sostituzione anche del lavoro “intellettuale” dell’individuo con il computer, o meglio con i programmi inseriti nella sua memoria, per eseguire le stesse funzioni in modo più rapido, efficiente e meno costoso. La sostituzione del lavoro “manuale” era iniziata secoli addietro con l’automazione della fabbrica con la prima rivoluzione industriale.

In effetti, come strumento per “aiutare” l’individuo ad essere più efficiente, produttivo, sostituibile ed infine sostituito definitivamente, il computer in realtà si è rivelato veramente potente, flessibile e pervasivo anche se almeno il 25% dei progetti di impiego dei computers falliscono ancora.

Sono passati 70 anni, la tecnologia informatica ha proseguito con innovazioni strepitose che la stanno finalmente portando verso la capacità di “imitare” veramente il cervello umano non solo nella sua capacità di “elaborare” dati e testi ma anche in quella di destreggiarsi tra enormi masse di dati ed estrarne quella eccellenza che porterà a decisioni corrette ed informate.

La seconda discontinuità: la “macchina” deduce ed agisce

La enorme capacità di calcolo attualmente disponibile ed a basso costo ha consentito negli ultimi venti anni di rinverdire e di applicare finalmente le ricerche e le scoperte degli scienziati negli anni ’50 in merito alle teorie matematiche necessarie per far si che una macchina potesse imitare il cervello umano.

Era nata la “Intelligenza Artificiale “.(AI per la diffusione dell’acronimo) un termine coniato nell’estate del 1956 ad un convegno di scienziati al Darmouth College da John Mc Carthy, pieno di speranze di realizzazioni pratiche che sarebbero apparse timidamente solo cinquanta anni dopo.

La prima applicazione industriale della AI sembra essere quella della Digital Equipment che nel 1982 che scrisse un programma per aiutare a configurare gli ordini per nuovi computer con un risparmio stimato nell’ordine di 40 milioni di dollari di quel tempo ma l’inizio della diffusione nel mercato è da iscriversi intono alla fine del secolo XX ed agli inizi del secolo in corso.

Amazon, Google e Facebook sono gli antesignani ella svolta industriale della AI agli inizi degli anni 2.000 e indicano una caratteristica peculiare della AI, è una tecnologia che non ha un prodotto ufficiale di riferimento che ne identifica l’esistenza come il computer, il Data Base, il CRM, l’ERP, ecc.

L’AI è una parte più o meno complessa all’interno di un prodotto o di un servizio che “non si vede” e tanto più è efficace e quanto meno appare all’utente.

Difficile trovare su un computer un’etichetta del tipo AI inside, poichè l’AI è una sorta di fluido che si insinua nell’applicazione tradizionale sostituendone progressivamente le parti più ripetitive o più complesse e lasciando inalterato il resto che appare tuttavia più amichevole, più semplice, più frictionless

Ogni smartphone è dotato di una quantità notevole di AI , che aumenta ogni giorno e della quale nessuno si rende conto fino a che non sorgono problemi di sicurezza od invasioni di pubblicità non richiesta.

ISSUE #1: cosa fà l’AI che non fà la IT?

La IT aiuta a fare le fatture, l’AI aiuta a prevedere quelle che non verranno pagate.

La differenza è veramente abissale, perché in realtà la IT è in grado di operare SOLAMENTE con eventi che hanno esiti predefiniti (la emissione di una fattura, il pilota automatico di un aereo, la gestione di un conto corrente, ecc.) mentre l’AI opera nel mondo degli eventi con esiti non prevedibili (la guida di un’automobile, la concessione di un credito, la fidelizzazione della clientela, ecc.) e quindi si avventura all’interno di grandi masse di dati per tentare di capire come si è comportato l’essere umano nelle diverse circostanze estraendo i comportamenti di eccellenza che vengono classificati e riutilizzati quando appaiono eventi e condizioni analoghe.

ISSUE #2: La AI migliora continuamente, apprendendo anche dal presente

Contrariamente alla IT, che necessita sempre dell’intervento umano per migliorie e modifiche, la AI ha la capacità di apprendere costantemente dai dati del passato ma anche degli eventi giornalieri, diventando autonomamente sempre più efficiente e sempre più pervasiva.

Questa caratteristica è la base di un dibattito molto serrato in merito al futuro della AI nella società poichè ha le capacità di erodere costantemente sempre più spazi all’attività dell’essere umano, diventando sempre più efficiente e senza le incertezze e le defaillances proprie dell’individuo, riducendone i costi di partecipazione allo sviluppo economico e finanziario dell’impresa

ISSUE #3: Dove stiamo andando?

Senza alcun dubbio verso un uso sempre più esteso dell’AI nella nostra vita di tutti i giorni, sia quella personale che quella lavorativa.

La AI è il comparto della tecnologia dove verranno immessi la maggior parte degli investimenti nel corso dei prossimi dieci anni ed il nostro interesse riguarda Ia evoluzione della AI nell’impresa e nel contesto economico in generale.

Oltre l’90% degli investimenti previsti dal governo nel PNRR (Piano di Resilienza e Ripresa) del governo riguardano la digitalizzazione della società italiana, la maggioranza nella pubblica amministrazione ed il resto nella PMI.

La digitalizzazione della società è la premessa indispensabile per espandere l’uso della AI perchè la gestione del “cartaceo” è un’attività che richiede ancora l’intervento della intelligenza naturale dell’individuo; quando il documento è elettronico (letto con un sistema OCR o prodotto automaticamente), sono stati identificati i metadati che vengono utilizzati, allora il processo è totalmente automatizzabile con tecnologia tradizionale e/o con AI.

Secondo quanto detto in precedenza, la AI occuperà progressivamente gli spazi secondo il principio che ogni azione che ha più di due attività ripetute, verrà automatizzata, con la IT, per le più semplici, con la AI per le più complesse o sofisticate.

I servizi frictionless: il fattore competitivo “killer”

Lo smartphone sta diventando lo strumento ideale, anche all’interno dell’impresa, come destinazione finale dell’uso dei risultati della tecnologia informatica, sia IT tradizionale che AI.

La diffusione sempre più estesa dell’AI, sovrapposta alle complesse elaborazioni di ERP, CRM BI, ecc. della IT tradizionale porterà alla naturale conclusione della interazione vocale come strumento di interazione tra utente ed AI.

Già da tempo si parla della trasformazione della “user interface” (il rapporto tra l’utente ed il computer) dalla metafora grafica attuale a quella conversazionale dove l’interattività attualmente basata sul mouse verrà sostituita dalla intenzione vocale come già avviene nella varie soluzioni per la casa.

Il tempo di questa trasformazione sarà particolarmente ridotto per i grandi vantaggi che esso porta agli utenti, per la ubiquità del mezzo con la possibilità di accedere ad informazioni importanti ovunque e senza limitazioni.

In ogni caso, già all’inizio del prossimo decennio, farà la sua comparsa la tecnologia della terza discontinuità, ma di questo ne parleremo in seguito.

Archiviato in: Tecnologia

Interazioni con il lettore

Barra laterale primaria

$53.000.000.000.000 è l’incremento della ricchezza delle famiglie USA negli ultimi 10 anni.

Circa la metà del PIL italiano ogni anno.

Categorie

  • Finanza
  • Tecnologia

Articoli recenti

  • GenAI, what’s next? La Verticalizzazione delle soluzioni
  • Le nuove sfide per i Tech Executives nel mondo della GenAI
  • Business Translator : il nuovo ruolo must-have
  • Agentic AI System: La prossima frontiera di GenAI
  • I PROMPTS, il nuovo metodo di programmazione della GenAI in linguaggio naturale
  • Home
  • Chi Siamo
  • Newsletter

Copyright © 2025 • Lorenzo Bosio • Privacy Policy