Non si è mai sicuri di questi tempi, soprattutto considerando le dinamiche economiche del nostro paese che sempre arrancano, quanto sia opportuno sbilanciare le proprie aziende verso tematiche tecnologiche di frontiera come l’Analisi Dati, la Data Science fino ad arrivare all’Artificial Intelligence (AI) di ultima generazione.

 

Il punto è quindi capire come queste frontiere si intersechino con la nostra produttività/efficienza e se debbano sempre essere considerate un puro investimento oppure qualcosa che possa avere un ROI più o meno immediato. L’Analisi Dati non fa eccezione in questo quadro e quindi occorre trovare un compromesso per stare da un lato al passo con i tempi e dall’altro fare in modo che ci possa essere un impatto positivo sui conti aziendali in tempi brevi. 

 

Che criteri di sostenibilità economica e operativa possiamo introdurre per rendere questo processo attuabile, pensando soprattutto al segmento delle PMI che più di tutti ha a cuore questi vincoli?

 

Il primo suggerimento che mi sento di dare alle PMI è sempre: partite da uno stream di lavoro già esistente, non aprite un progetto nuovo, ma cercate di creare valore su qualcosa di importante sul quale state già lavorando. Men che mai pensare a un progetto speciale o di R&D, del quale non si capisce bene lo scopo e per il quale è molto difficile calcolare un ROI. 

 

Si deve partire da un problema che riscontrate in un’attività corrente che pensate possa essere risolta anche semplicemente gestendo meglio i dati o collegando i dati che avete con altri che sono in un altro sistema informativo aziendale. Qualcosa di ‘bloccante’ (capita molto spesso) che con le giuste tecniche di Data Analysis può essere risolto facilmente e in tempi ragionevoli. 

 

Non pensate a cose complicate e futuribili, anche se fossero potenzialmente ad alto valore aggiunto (non lo potete sapere all’inizio…). Richieste del tipo: “se prendessimo questi dati dalla linea di produzione, mettendo dei sensori, per poi farli convergere in un sistema Cloud ad alte prestazioni, per poi applicare algoritmi di Deep Learning che ci predicano le performance per 10 mesi a seguire”. 

 

Bello, utile, ma molto futuribile e soprattutto non si deve partire da quello, perché quello che ho scritto presuppone che l’azienda si sia organizzata per le operazione di base dei dati: mappatura dati, catalogazione, sistema di Data Lake base e via dicendo, senza considerare il commitment della forza lavoro su tematiche considerate ‘ostiche’. 

 

Secondo punto utilizzate gli strumenti che già utilizzate. C’è sempre l’illusione che un nuovo strumento risolva i problemi da solo. Purtroppo capita il contrario, in genere con l’introduzione di un nuovo strumento i problemi aumentano! Utilizzate Excel? Benissimo partiamo da quello e proviamo a utilizzarlo con più intelligenza ed efficacia. 

 

Avete un sistema di Dashboarding che utilizzate in maniera elementare e limitata? Cerchiamo di scoprirne le caratteristiche avanzate. Questo accorcia molto i tempi di introduzione dell’Analisi Dati nelle aziende. 

 

All’inizio è sempre un problema di riorganizzazione, reskilling delle risorse umane. Non occorre comprare nulla ma solo riguardare con occhi nuovi a ciò che già esiste. Infine ‘divide et impera’ (come dicevano i romani), un problema alla volta e gradualizziamo le attività e soprattutto gli output. 

La parola d’ordine che torna e sempre la stessa: agile! Poniamoci l’obiettivo di produrre deliverable azionabili per quanto elementari. Cicli di 2-4 settimane per tirare fuori qualcosa che magari è un piccolo prototipo o anche un MVP, che sia utilizzabile operativamente da subito.

 

Noi di Linkalab aiutiamo le aziende, soprattutto le PMI, proprio in questa direzione col nostro Data Science as a Service (DSaaS), in cui gradualizziamo in agile non solo l’affiancamente in consulenza ma anche la fatturazione dei servizi (cicli di fatturazione brevi e piccoli). 

 

In questo modo il cliente può intanto verificare che qualcosa di concretamente utilizzabile sia emerso, senza dover aspettare 6 mesi di progetto ‘waterfall’, e poi anche decidere di interrompere la collaborazione se non ritiene che venga creato sufficiente valore. 

 

Un valore aggiunto di questo modello è anche legato al fatto che in questi cicli di lavoro si può sviluppare un’attività di co-progettazione, che predispone l’azienda ai successivi stream di Data Analysis, a seconda delle necessità correnti che mano mano emergono. In questo modo si risolvono velocemente i problemi più semplici e al costo più basso, cosa che porta a un sicuro ROI di breve periodo.

 

Successivamente si può cominciare a essere ambiziosi. Pensare a tecniche di AI più sofisticate e attività di Data Meshing più spinte, che magari hanno un impatto nel medio periodo. Dipende dal grado di innovatività dell’azienda e dalle sue ambizioni.

 

Quindi in conclusione si può rimanere al passo con i tempi con grande efficacia senza grandi investimenti. Dipende anche dall’approccio aziendale da un lato e dal modello di fornitura dall’altro (DSaaS).

L’importante è non rimanere fermi!