C’è un oggetto intangibile che aleggia vorticosamente in tutte le discussioni, nei corridoi delle aziende più innovative, un oggetto del desiderio e degli appetiti degli imprenditori più lungimiranti: l’algoritmo! Quando si parla della famosa “salsa segreta” dei business aziendali, quasi sempre si tratta di un algoritmo magico che nessuno ha e che farà fare il salto quantico al fatturato. 

Ma cos’è esattamente un algoritmo e com’è cambiato in questi ultimi anni, perché come vedremo, recentemente ha avuto un’evoluzione decisiva? Senza entrare in dettagli tecnici, per algoritmo si intende una procedura che partendo da alcuni dati di input e seguendo una serie di passaggi riproducibili, ma con delle diramazioni che possono dipendere dai dati iniziali e magari da qualche condizione al contorno, produce un certo risultato finale di output

L’esempio che in genere si porta per spiegare meglio questo concetto è quello di una ricetta. Abbiamo certi ingredienti (input) e abbiamo un procedimento per trattarli singolarmente e combinarli. A seconda della tipologia e quantità iniziali di questi ingredienti e degli strumenti che abbiamo a disposizione (per esempio tipologia di pentole come condizioni al contorno per i tempi di cottura) il procedimento può prendere delle strade diverse, per ottenere alla fine un certo risultato finale, ad esempio una torta. 

In che senso un algoritmo costituisce un asset aziendale? Molto è legato alla riproducibilità che può toccare due aspetti, input/ingredienti (si pensi alla Coca Cola) o lo stesso procedimento, che ha sempre una componente matematica complessa. Quando possibile ci si può tutelare con gli strumenti di protezione delle proprietà intellettuali, come i brevetti, ma non sempre è una strada praticabile, e in molti casi si tende a celare non solo gli ingredienti ma anche il segreto matematico che ha portato al fatidico algoritmo. 

Quindi sembrerebbe un ottimo investimento aziendale sviluppare attività di ricerca industriale che portino a degli algoritmi brevettabili, ma bisogna sempre considerare che le aziende concorrenti non rimarranno a guardare, cercheranno di decodificare la procedura segreta (reverse engineering), per arrivare a risultati simili se non migliori. 

Un esempio famoso di algoritmo in ambito Web è il Pagerank di Google che è stato un vero “game changer” nel settore dei motori di ricerca alla fine degli anni novanta che stagnava con procedure di classificazione di pagine Web basate su criteri poco efficaci. Il Pagerank Google si è proposto all’epoca come IL motore di ricerca, scalzando tutti i concorrenti e diventando quello che oggi tutti conosciamo e tutto questo grazie a un algoritmo. 

È stato brevettato dall’Università di Stanford, essendo Larry Page uno degli inventori, all’epoca in quella Università, ed è stata la base di innumerevoli evoluzioni che hanno portato il “‘search”del motore di Google a livelli di precisione altissimi. Oggi è noto che questo algoritmo è solo una parte della strategia complessiva di “rankizzazione” della ricerca organica, a testimoniare che in questo campo non paga rimanere fermi, ma occorre progredire continuamente in miglioramenti di performance e magari aggiunte di altre componenti che rendano sempre più personalizzato e difficilmente replicabile l’algoritmo nel suo funzionamente complessivo.

Senza contare le implementazioni infrastrutturali e lo scaling, per dire che un algoritmo meravigliosamente preciso, ma estremamente lento e non scalabile non è sicuramente una buona idea, e come sempre l’execution nel business è un fattore determinante. 

Tutto chiaro finora, questo tipo d’impostazione va avanti da decenni, ma negli ultimi anni si è messa di mezzo l’Intelligenza Artificiale a complicare le cose. La nuova generazione di algoritmi, quelli del cosiddetto Machine Learning, pone nuove sfide che non hanno precedenti. 

Per le macchine intelligenti che apprendono, non ci sono più procedure deterministiche che producono un certo output, a partire da un certo input, ma piuttosto una procedura probabilistica (per questo si parla anche di Statistical Learning), che partendo da un dataset di esempio (training set), addestra una macchina di modo che sia capace di riprodurre la conoscenza implicita nel dataset di partenza.

Il classico esempio è: fornisco alla macchina un milione di immagini di gatti (glielo dico io all’inizio che sono gatti) e altrettante immagini di cani. La macchina intelligente ha la flessibilità (una sorta di plasticità della suo cervello artificiale (Artificial Neural Networks), di apprendere il “concetto” di cane e di gatto, senza imporre particolari regole deterministiche, ma capendo da sola quali sono le caratteristiche essenziali per discernere tra i due tipi di animali, e  quindi di riconoscere l’immagine di un gatto (o di un cane) che non aveva mai visto nella fase di apprendimento. 

Questo ovviamente con un’alta probabilità, non con la certezza, infatti queste macchine, proprio come gli umani, non sono infallibili! 

Passiamo quindi da una pianificazione deterministica degli algoritmi tradizionali a un approccio statistico che risulta molto più flessibile e adattabile a situazioni decisionali molto complesse. Il punto è che si ha molto meno controllo su quello che accade in queste menti artificiali. Non si sa bene infatti come funzionino e si pone il problema di saper spiegare dove avviene la computazione di certi valori, dove sia la memoria di certi risultati e in generale la comprensione del perché certe macchine prendano certe decisioni. 

Per questo si parla di XAI per Explainable AI, cioè di un nuovo settore che cerca di rendere i modelli di Machine Learning “spiegabili” e quindi anche più controllabili anche in termini di sicurezza e replicabilità, oltre che di responsabilità (si pensi ad esempio a un’auto che si guida da sola e che deve prendere delle decisioni cruciali).

In che cosa consiste oggi il business dei sistemi intelligenti di Machine Learning? Ormai è sotto gli occhi di tutti la corsa alla creazione di macchine intelligenti addestrate con quantità colossali di dati (Big Data) che sono in grado di svolgere compiti sempre più generali e sofosticati. Macchine che riconoscono qualsiasi oggetto in un video, che creano testi sempre più indistinguibili da testi che avrebbe scritto un giornalista e macchine che creano immagini realistiche a partire da frasi descrittive (si pensi al recente Dall-e di Open AI, https://openai.com/dall-e-2/). 

Occorrono milioni di euro per addestrare questi sistemi e Petabyte di dati, immagini, video, testi, suoni, ed è questo alla fine il fattore competitivo: continuare a farle crescere indefinitamente, limitati solo dalle risorse attualmente disponibili, in termini di dati e potenza di calcolo. 

Questo è uno dei nuovi business del futuro per le grandissime aziende di Internet, ma anche il punto di partenza per moltissime altre aziende che su questi sistemi potranno costruire nuovi servizi specializzati, magari con nuovi algoritmi e altrettanti sistemi di Machine Learning. 

Probabilmente queste gigantesche macchine intelligenti diventeranno la nuova commodity del futuro, al pari del Personal Computer, di Internet e del Web, che hanno dominato il business digitale negli ultimi 40 anni.