L’importanza dei big data e la loro potenzialità nel mercato attuale

Avatar provvisorio blockchain

Pietro Bernasconi

Il termine big data indica genericamente una raccolta di dati così estesa in termini di volume, velocità e varietà da richiedere tecnologie e metodi analitici specifici per l’estrazione di valore o conoscenza. Il termine è utilizzato in riferimento alla capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati e non strutturati, allo scopo di scoprire i legami tra fenomeni diversi e prevedere quelli futuri.

Questo è ciò che spiega la madre delle enciclopedie digitali Wikipedia  se si digita la semplice parola big data.

Nel mondo digitalizzato l’espressione “Big Data” è diventata ormai di uso comune. Ma quali sono realmente le potenzialità dei dati e quale è l’utilizzo che se ne fa?

I big data e la loro crescita nel mercato

È impressionante la crescita dei dati disponibili che sta avvenendo negli ultimi anni. Come possiamo vedere nella figura 1 che si riferisce all’anno 2015 (in ambito informatico è ormai prestoria) possiamo immaginare quanto sia stato grande lo sviluppo di tecnologie in grado di raccogliere, sistemare e utilizzare la gigantesca mole di dati che il mondo del web rende a disposizione delle aziende di giorno in giorno.

Immagine con grafico sulla crescita dei big data

Analizziamo l’hype cycle (metodologia usata per rappresentare graficamente la maturità, l’adozione e l’applicazione di specifiche tecnologie) relativo ai big data e analytics di Gartner, società leader mondiale di consulenza strategica. Questa società espone ogni anno un’analisi delle nuove tecnologie, analisi che ormai è presa come riferimento da qualsiasi leader del mercato. Lo scopo di queste analisi è capire su quali tecnologie puntare nei prossimi anni, quali siano i molteplici utilizzi dei big data e a che punto della loro “vita” tecnologica si trovano.

immagine raffigurante un grafico hype cycle di Gartner sui big data

In questo “momento tecnologico” sono al massimo della loro fama la deep learning e la machine learning che, nonostante in Italia siano ancora agli albori, rappresentano a tutti gli effetti degli approcci mainstream ai dati per quanto riguarda la situazione internazionale. Ma cosa sono in poche parole questi learning di big data? Sono dei metodi che, attraverso la teoria statistica e le competenze informatiche, permettono ai dati di essere parlanti e magari prevedere le scelte di un singolo individuo o gli andamenti dei mercati.

Facile immaginare quanto questo possa essere utile a un’azienda per incrementare i propri profitti. Da questo punto di vista, stanno avvenendo degli investimenti incredibili partendo dagli Stati Uniti arrivando piano piano anche in Italia.

Ecco un breve video in lingua inglese che introduce chiaramente le differenze sostanziali, in ambito di big data, tra deep learning e machine learning.

In poche parole, la machine learning (o apprendimento automatico) rappresenta una delle strade per attuare l’intelligenza artificiale; una sorta di suo sottogruppo che si concentra sulla capacità delle macchine di ricevere una serie di dati e di apprenderle da sole, mutando ed aggiornando gli algoritmi man mano che ricevono ed elaborano più informazioni. Molto spesso, i termini artificial intelligence (AI) e machine learning (ML) vengono utilizzati in maniera alternabile, specialmente nel macro settore dei big data.

Il deep learning (o apprendimento approfondito) è invece una delle strade per l’apprendimento automatico che ha preso spunto dalla struttura del cervello, la quale come sappiamo tutti possiede l’interconnessione dei vari neuroni. Altri approcci includono il clustering (l’insieme di tecniche di analisi dati multivariate e volte alla selezione e raggruppamento di elementi omogenei in un insieme di dati), la programmazione logica induttiva (l’incontro tra programmazione logica e l’apprendimento automatico) e le reti bayesiane. Queste ultime sono basate su modelli chiamati DAG (grafo aciclico diretto) che sono costituiti da un insieme di variabili e le loro dipendenze condizionali. Il modello rappresenta solitamente le relazioni probabilistiche tra una malattia e il suo sintomo: dati i sintomi come input, è possibile stimare la probabilità di una malattia.

Ti sei perso il nostro ultimo articolo sul mercato dei podcast? Non fa niente, eccolo qui!

Share your thoughts