Tante le informazioni raccolte nel web, ma chi elabora i significati?

Mi sono sempre chiesto se i dati che ci vengono forniti dalle più note piattaforme di digital marketing siano veri. Un po’ come nelle situazioni in cui ci si interroga “chi controlla chi controlla?”. In altre parole ho sempre pensato “ma queste rilevazioni sono certe, oppure sono informazioni che le piattaforme ci restituiscono per dimostrarsi necessarie?”. Soprattutto “come verificare se quei dati sono veri, reali?”. Alla fine ho risolto con la convinzione che la garanzia della veridicità di quei dati non può che essere tale perché essi si basano su dei modelli. Ora, io che appartengo al mondo della creatività con i modelli non mi trovo molto. Sono fra quelli che credono a Edward De Bono con il suo Pensiero Laterale come la capacità di cambiare modello in un sistema basato sui modelli. Ma alla fine sempre sui modelli rimaniamo. Unica differenza: nella creatività un modello può funzionare anche una sola volta, non è necessario replicarlo all’infinito: basta crearne uno nuovo. Fuori la creatività però le cose cambiano. Facciamo un salto.

Sul web i big data siamo noi

Google Analytics è un sistema che consente di analizzare statistiche basate sui dati provenienti dalle visite che vengono effettuate su un website. Tanti dati, i Big Data. Dal prossimo luglio 2023 Google cambierà il suo celebre Universal Analytics con un aggiornato Analytics 4. Pare cambieranno molte cose. Ma cosa rimarrà inalterato? Vediamola da creativi.

Intanto i Big Data. Non possono cambiare perché non sono sotto il controllo dei web analytics, neanche della sua più evoluta versione. I big data vengono da noi utenti, e rappresentano proprio noi utenti. Google può solo studiarli. Se cambia il suo sistema non vuol dire che cambierà anche il nostro modo di consultare un sito internet, il tempo che dedichiamo a una pagina piuttosto che a un’altra, le volte che ci torniamo su, etc.

Poi c’è il modello. Può cambiare, ma giusto per perfezionare se stesso. Potrà darci qualche dato in più, incrocerà più dati, creerà più significati. Ecco, i significati, proprio quelli che fanno vacillare la veridicità dei risultati. Il significato è discrezionale e Google non potrà mai dare una risposta alla domanda “perché Stefano ha visitato questo sito?”. Al massimo potrà sospettare il fatto che lui ha visitato quel sito di, che so, orologi di lusso perché è un appassionato di auto di lusso. Ma magari lo ha visitato solo per domandarsi perché qualche suo amico ha la passione di quegli orologi che lui non riesce proprio a capire. E non è più il tempo per rispondere “statisticamente il 90% di chi visita questo sito lo fa perché è appassionato al tema”. Il Web sta diventando più un posto per capire cosa c’è in giro piuttosto che un simposio per esperti, appassionati, specializzati, etc.

Cosa manca ai Big Data?

Dunque, dati e modelli sono le due componenti che generano un risultato in base al quale noi oggi, e l’intelligenza artificiale domani, utilizzeremo per attuare un certo comportamento. Proviamo a dirlo meglio: domani sarà il Machine Learning che si occuperà di utilizzarli per creare sistemi che apprendono o migliorano le performance in base ai dati che utilizzano. Tutto chiaro e soprattutto, sorprendente. Ma vale anche qui la pena di fermarci un attimo. Viviamo un momento in cui due aspetti in particolare si incontrano in maniera sempre più frequente e mai si scontrano: la componente human e l’intelligenza artificiale. Praticamente all’apparenza i due poli opposti, ma allo stato di fatto quasi gli stessi. La componente human possiede anche l’intelligenza, l’intelligenza artificiale manca solo della componente human. A pensarci bene, infatti, ogni era dell’umanità ha visto gli individui acquisire dati, creare modelli, applicarli ed evolverli. Non saremmo la specie più evoluta che si conosca, del resto. Eppure ci stupiamo oggi quando ci parlano di Big Data e modelli come se fossero la novità più imprevedibile che il futuro ci sta per porre davanti. 

Generare una reazione non è costruire un significato

Proviamo. Utilizziamo uno degli scenari che più di altri è sotto l’effetto Big Data: la mobilità. Guido un'auto, di quelle nuove, passa un pedone all’improvviso e l’auto frena in tempo per non travolgerlo. Chissà come ha fatto? Penso e deduco: lo ha visto da lontano, riconosciuto come qualcosa diverso dall’auto che mi precede, ha notato che andava in una direzione inconsueta (trasversale rispetto alla mia) e ha applicato un modello del tipo “elemento diverso da auto in mezzo ad una strada per auto, uguale qualcosa da evitare, dunque freno”.

Così, ad esempio su un sistema genericamente detto Web Analytics. Una persona entra nella pagina di un website dedicato al vino. I dati: la persona ci arriva grazie a un collegamento con una campagna display, atterra su una data landing page sulla quale permane per oltre 20 secondi; tenta di acquistare una bottiglia da 45 euro inserendola nel carrello che poi però svuota. Che modello viene applicato a quel punto? Lo spamming di DEM che ricordano al visitatore di acquistare quel prodotto, che gli propongono uno sconto, etc etc. Poco convincente.

Portentosi i due esempi, stupefacenti e soprattutto innovativi e futuribili! Ma si tratta di qualcosa di così nuovo a cui la mente umana non ha mai pensato o solo di facilitazioni e velocizzazioni di applicazione di modelli costruiti in centinaia di anni di acquisizione dati? Soprattutto, se l’auto riesce ad applicare la soluzione migliore, che vuol dire frenare, nel caso dei Web Analytics a chi la soluzione, i significati? Forse all’intelligenza naturale dell’evoluzione darwiniana?