<iframe src="//www.googletagmanager.com/ns.html?id=GTM-KJ4LCR" height="0" width="0" style="display:none;visibility:hidden"></iframe>

Doug Ryan

La nuova ondata di Big Data: la Deep Intelligence

Le tendenze di settore ricolmano copiose le vetrine lungo la Croisette. Anticamente, sul lungomare si ergevano i sontuosi palazzi dell’ancien régime radiotelevisivo e della carta stampata. Quando un bel giorno la marea portò a riva editori digitali come AOL e Yahoo!. A questo seguirono maremoti di social network, ad tech e data companies che hanno sconquassato la costa, fino al punto di rendere Cannes più vicina alla Silicon Valley che alla Valle del Rodano. Quella del tech è ormai la lingua più parlata sulla promenade.

L’era del Big Data ha costretto la setta del marketing a disquisire sulle 4 V più che sulle tradizionali 4 P. Eppure è ancora troppo presto per capire quali saranno gli effetti di questo nuovo marketing data-centrico sulle aziende e sull’economia. Mentre gli stupidi e gli eminenti conferenzieri credono di essere in grado di predire il futuro, le tendenze a breve termine stanno già tracciando alcune direttrici chiare di cosa accadrà domani.

La qualità ha un prezzo

Attualmente esiste una certa quantità di dati che fluttua libera, praticamente pronta per essere raccolta. Questa situazione ha generato la falsa idea che ottenere i dati sia essenzialmente una faccenda economica. Tuttavia, il costo per ottenere dati di qualità è verosimilmente destinato a crescere per via di molteplici fattori che già fanno capolino. In primis, le questioni legate alla privacy continuano a pesare sul tema della proprietà dei dati.

I provvedimenti presi fuori dagli Stati Uniti dimostrano che il resto del mondo propende per politiche restrittive in materia di raccolta e conservazione dei dati personali, a cui si collega il tema dei crescenti problemi legati alla sicurezza degli stessi. Il pubblico internazionale e i vari governi tollerano sempre meno l’idea che le violazioni dei dati siano semplicemente il prezzo da pagare per stare sul mercato.
Dal momento che il costo dei furti di identità supera ormai quello dei furti di proprietà, è probabile che si moltiplichino le norme e le obbligazioni legali relative alla conservazione e all’uso dei dati.

Infine, i progressi futuri dipenderanno tanto dalla qualità quanto dalla quantità dei dati disponibili. Informazioni più affidabili e accurate richiederanno sforzi economici maggiori. Messi assieme, tutti questi fattori renderanno i dati più cari sia dal punto di vista dei costi diretti che nell’ottica dei costi indiretti, necessari per l’adeguamento a standard normativi sempre più rigidi. Insomma, i CMO vedranno i budget destinati ai dati contendersi le risorse del budget media.

I progressi futuri dipenderanno tanto dalla qualità quanto dalla quantità dei dati disponibili.

Dall’input all’output

Buona parte delle infrastrutture legate ai dati si concentra sui modi di raccogliere le informazioni utili. I data warehouse e le DMP traggono vantaggio dall’accumulazione dei dati in un unico luogo virtuale. L’imperativo della “single source of truth” mira giustamente sulla riduzione delle inefficienze causate dall’immagazzinamento di dati doppioni o contraddittori provenienti da fonti diverse.

Se è vero che questo aspetto manterrà la sua valenza, è anche vero che diventa di giorno in giorno più essenziale capire come i dati consolidati possano andare a nutrire le applicazioni potenzialmente interessate dal fenomeno. Il lavoraccio di raccogliere, ripulire e combinare i dati non è ancora completo, resta infatti da capire come le informazioni provenienti da una sorgente unificata e condivisa possano soddisfare le esigenze specifiche di funzioni aziendali come sviluppo del prodotto, comunicazione e marketing, commerciale, ecc.. Le diverse domande a cui queste ultime cercano disperatamente di dare risposta sottendono bisogni che sono diversi nella forma, nei tempi e nelle connessioni costruite all’interno dei dati. I responsabili marketing dovranno quindi monitorare con la stessa cura sia i flussi in uscita che quelli in entrata.

Apprendere realmente in modo artificiale

In una fase embrionale, il vantaggio competitivo era garantito dal semplice possesso dei dati. All’inizio, infatti, le “scorie” di dati generate dall’utilizzo di Google, Amazon, Facebook e simili erano una fonte di informazioni proprietarie pronte all’uso non reperibili altrove. In un secondo momento, il vantaggio era dato dal possesso di stack tecnologici robusti per la gestione dei dati. Ora la sfida si gioca sulla capacità di cavarsela con l’immensa mole di dati a disposizione.

La crescita continua ed esponenziale degli ingredienti dentro il pentolone delle informazioni rende questa minestra indigesta alle tecnologie più diffuse. L’intelligenza artificiale e l’apprendimento automatico sono le nostre uniche possibilità di usare appieno i dati al fine di operare a un livello autenticamente individuale. Tra non molto il vero mantra sarà “imparare ad imparare”. E se fino ad ora il carattere del brand veniva riflesso principalmente dal linguaggio utilizzato, presto quello stesso carattere emergerà piuttosto dalla tipologia di algoritmi implementati dal marchio.

Sono questi gli indizi che ci portano a prevedere la fine dell’era del Big Data e l’inizio dell’era della Deep Intelligence. Se nella prima le carte vincenti erano raccolta e conservazione, nella seconda la partita dei dati si giocherà tutta su trattamento e distribuzione. Nuove ondate stanno per abbattersi sulla costa.

Doug Ryan

Doug Ryan

PRESIDENT, NORTH AMERICA DI DIGITASLBI

Doug lavora con i leader di capacità nazionali attraverso l'Agenzia, tra cui Account Management, Media, Strategic planning, S & A, e tecnologia per creare più valore per i clienti utilizzando l'Agenzia combinato e punti di forza di base.

VAI AL SUCCESSIVO

Sette modi per salvare la pelle nel Far West del content marketing