14 Febbraio 2022

Quando fare Server Side Tagging?

Il Server Side Tagging è una soluzione di tracciamento recentemente molto discussa per i suoi vantaggi. A differenza del Client Side Tagging, una soluzione di tracciamento lato server sposta l’elaborazione e l’invio dei dati raccolti dal dispositivo finale dell’utente al server.

Il Server Side Tagging comporta diversi vantaggi, sia per gli utenti che per le aziende. In primis, le aziende che lo adottano diventano pienamente proprietarie dei dati raccolti, potendo gestire in maniera strategica cosa fare dei propri dati. Spostare l’onere di raccolta dati al server migliora inoltre le prestazioni del proprio sito, garantendo un’esperienza utente e una SEO tecniche migliori.

I dati raccolti attraverso un sistema server-side possono essere elaborati ed integrati da diverse fonti prima di inviarli ad altri servizi, aprendo nuove opportunità di analisi. Infine, una soluzione Server Side permette di non dipendere per la raccolta dati da cookie di terze parti (ormai bloccati da sempre più dispositivi); questo ovviamente dovendo rispettare i consensi espressi dagli utenti.

Tale soluzione non è priva di svantaggi: comporta un aumento dei costi per la gestione dei server ed implica la responsabilità delle aziende nel rispetto dell’utilizzo dei dati raccolti. Si tratta inoltre di una soluzione non ancora pienamente matura, ma sul quale l’attenzione crescente di grandi aziende potrebbe portare presto novità.

Capire se una soluzione Server Side fa al caso proprio deve essere una scelta strategica da valutare attentamente, avvalendosi dell’esperienza di professionisti.

Introduzione: che cosa è il Server Side Tagging?

Il termine Server Side Tagging è di sicuro uno dei più caldi per chiunque si occupi di digital analytics, e per ottime ragioni.

Si tratta di una tecnologia già da tempo sul mercato (Google l’ha annunciato nella Superweek 2020 e qui puoi leggere il nostro resoconto), ma che recentemente ha raccolto sempre più interesse. Una ragione di questo interesse è sicuramente l’attuale contesto digitale, dominato da discussioni su temi come privacy, proprietà dei dati e ruolo delle Big Tech.

In questo clima di cambiamenti inaspettati e allarmismi sull’uso di tecnologie (vedi il caso di Google Analytics “dichiarato illegale” in Austria), una soluzione di Server Side Tagging è diventata sempre più interessante per chi voglia continuare a raccogliere dati sui canali digitali, ma voglia tutelarsi da molti problemi che questo comporta.

Vediamo assieme di cosa significa utilizzare una soluzione di Server Side Tagging, quali vantaggi e svantaggi offre, e come capire se fa al caso tuo.

Qual è la differenza tra Client-side e Server-side tagging?

Per capire di cosa si tratta, occorre fare un piccolo passo indietro su come funziona a grandi linee il web.

Nella navigazione online, esistono due grandi sfere di attività: il lato client ed il lato server.

Per spiegare in che modo questi due ambiti interagiscono, può essere utile adoperare la metafora di un ristorante.

Vi sono clienti che ordinano piatti, camerieri che prendono e portano gli ordini ed una cucina che li riceve, prepara e fa uscire una volta pronti.

Il lato client, ovvero quello dei clienti, è quello dove sarà possibile vedere quanto richiesto; l’insieme di informazioni e codici che inviati al proprio dispositivo ci permette di visualizzare prodotti digitali come una pagina web.

Il lato server è invece dove vengono ricevute le richieste di informazioni dagli utenti finali, si ricercano e preparano i dati necessari, ed infine vengono inviati agli utenti finali.

Sicuramente usare un ristorante per spiegare come funziona internet è una semplificazione. Ma se applichiamo lo stesso modello per miliardi di clienti che possono mandare innumerevoli richieste a milioni di cucine e che questo scambio avviene in pochi millisecondi, si arriva a comprendere come funzioni il tutto.

Come si applica al Tagging?

Nella digital analytics, l’uso di soluzioni di tagging (i.e. Google Tag Manager) permette di impostare un sistema di raccolta dati efficiente senza il bisogno di tempi di sviluppo. Tutto questo si svolge solitamente lato client, caricando assieme al contenuto richiesto stringhe di codice necessarie per raccogliere informazioni su come l’utente utilizzi un sito. Le informazioni vengono raccolte e inviate direttamente lato client a servizi esterni come Google Analytics o Facebook, che le utilizzeranno per altri prodotti.

Fin qui sembra tutto abbastanza chiaro, ma riprendiamo la metafora del ristorante per capire in che modo questa soluzione possa fallire.

Un cliente ordina un piatto da mangiare, la cameriera porta la richiesta in cucina (il server) che si occupa di preparare il piatto richiesto. Nell’inviare il piatto al cliente, la cucina aggiunge alcuni ingredienti da assaggiare assieme a piacere (gli script di tracciamento). Questi servono per aiutare la cucina a capire cosa piace al cliente (i.e. Analytics) e permettere ad altre cucine di offrire al cliente piatti simili (i.e. servizi di advertising).

A questo punto il cliente si troverà ad avere, oltre al suo piatto, diversi ingredienti da assaggiare assieme a suo piacimento. Ma per indicare una sua preferenza dovrebbe essere lui stesso a portare indietro i piatti vuoti per indicare cosa gli è piaciuto; non ad una singola cucina ma alle diverse cucine che si occupano di quegli ingredienti!

Inutile dire che molti clienti non avranno alcun interesse a riportare indietro i piatti e dire cosa è piaciuto e cosa no. Inoltre, con troppi ingredienti extra al tavolo sarebbe più difficoltoso mangiare (o visitare un sito) e genererebbe una pessima esperienza.

Quello che abbiamo appena descritto è sostanzialmente la condizione attuale delle soluzioni di tracciamento client-side, in cui l’onere di raccogliere ed inviare le informazioni è in carico agli utenti finali; in cui aggiungere troppi servizi esterni ai propri tracciamenti può appesantire eccessivamente la navigazione, rendendo poco piacevole l’esperienza utente su un sito.

Per ovviare a questi ed altri problemi, la soluzione migliore è passare ad una soluzione lato Server

Come funziona il Server Side Tagging?

Non entreremo nel tecnico (per chi volesse, ne abbiamo parlato in un articolo dedicato), ma occorre capire in che modo il Server Side Tagging si distingua dal Client Side.

In primis, chiariamo che le due soluzioni non sono esclusive l’una dell’altra. Anzi possono e dovrebbero convivere per assicurarsi una soluzione di digital analytics completa.

Mentre nel tagging client side l’onere di elaborare ed inviare i dati viene demandato agli utenti, nel Server Side Tagging, una volta ricevute dal client le informazioni, l’intera attività di elaborazione ed invio viene gestita dai server stessi.

Per tornare alla metafora, il cliente dopo aver consumato il pasto non dovrà occuparsi personalmente di portare i piatti vuoti a diverse cucine, ma basterà che li riporti alla prima cucina a cui si è rivolto, la quale si occuperà in prima persona di capire cosa ha mangiato e cosa ha apprezzato, comunicandolo ad altre cucine interessate.

Sicuramente un bel risparmio di fatica per il cliente, che porta potenzialmente agli stessi se non a migliori risultati che nella soluzione lato client.

Come ogni cosa però una soluzione Server Side comporta alcuni svantaggi che vale la pena approfondire.

Quali sono i vantaggi del Server Side Tagging?

Vediamo nel dettaglio i vantaggi di una soluzione di tagging server side.

1. Migliori prestazioni del sito

Come già menzionato, adottare una soluzione Server Side significa ridurre la necessità lato client di caricare diversi script per inviare dati. Questa riduzione delle informazioni da inviare si traduce in una maggiore efficienza e velocità del caricamento pagine, migliorando sia l’esperienza utente che la SEO tecnica del proprio sito.

2. Pieno controllo dei dati raccolti

Implementare una soluzione server significa aggiungere un layer aggiuntivo di filtro, dove è possibile decidere come gestire i dati raccolti, quali elaborazioni svolgere e dove inviarli. Questo permette di essere certi di escludere informazioni sensibili o personali dai dati inviati a servizi terzi (come mail o password); così come essere certi di inviare la stessa informazione a diversi punti assicurando così la coerenza dei dati su diversi sistemi.

Applicare un tracciamento lato server significa non dover più dipendere obbligatoriamente da cookie di terze parti per inviare loro informazioni. Diventa infatti possibile non impostare per nulla tali cookie lato client ma gestire l’invio di informazioni totalmente lato server. Attenzione però: questa possibilità non implica che sia possibile non considerare le preferenze espresse dall’utente in termini di trattamento dei dati. Tali consensi dovranno sempre essere rispettati, ma sarà possibile non essere penalizzati da browser e sistemi operativi che blocchino a priori i cookie di terze parti.

4. Possibilità di integrare dati da diverse fonti

Infine, avere una soluzione Server Side significa poter non solo raccogliere dati dal proprio sito, ma poterli arricchire grazie ad informazioni di altri servizi utilizzati. Diventa infatti possibile collegare Analytics al proprio CRM, aggiungendo informazioni dal CRM agli Analytics e al contempo registrare le interazioni svolte dall’utente. La possibilità di incrociare ed elaborare dati da diverse fonti permette in tal modo di espandere notevolmente le capacità di analisi.

Quali sono gli svantaggi del Server Side Tagging?

Il Server Side Tagging, per quanto rappresenti diversi vantaggi rispetto al Client Side, ha alcuni importanti svantaggi da considerare:

1. Raccolta dati opaca

Le soluzioni Server Side spostano l’attività di raccolta dati nel “dietro le quinte”, rendendo effettivamente difficile per gli utenti sapere in che modo i loro dati vengano raccolti e ancora più difficile dove vengono inviati.

Se infatti con le soluzioni Client side per inviare dati a servizi esterni è necessario impostare cookie di terze parti, che permettono di risalire al servizio in questione, con una soluzione Server Side questo principio crolla, in quanto i dati raccolti saranno inviati solo successivamente dal server, non dandone visibilità chiara all’utente.

2. La gestione del consenso è in mano alle aziende

Adottando una soluzione server side, l’invio dei dati da parte del cliente passa da diversi flussi diretti a molteplici servizi, ad un singolo flusso diretto al server. Questo significa che il modo in cui i dati vengano raccolti ed inviati è completamente in carico alle aziende, che dovranno occuparsi di elaborare e smistare i dati in modo tale da rispettare il consenso espresso dagli utenti all’uso dei loro dati.

3. Costo

Per poter effettivamente usufruire di una soluzione lato server è richiesto, appunto, un server. Tale server può essere proprietario o affittato tramite servizi cloud come Google Cloud Platform, che offre inoltre il grande vantaggio di essere integrabile con l’ecosistema di servizi Google. 

In ogni caso, tali server hanno costi di mantenimento, seppur solitamente ridotti, che vanno considerati in fase di decisione.

4. Bassa maturità del servizio

Anche se si tratta di una tecnologia abbastanza consolidata, sono ancora diversi i servizi che non dispongono dell’infrastruttura web necessaria per essere integrati con le soluzioni di tracciamento lato server. Questo punto andrà sempre più a ridursi con la progressiva adozione di questa soluzione e il relativo interesse a sviluppare un ecosistema integrato attorno ad essa.

Vuoi implementare il Server Side Tracking?

Il Server Side Tracking rappresenta un'importante innovazione nel panorama del Digital Analytics, garantendo alle aziende di diventare realmente proprietari dei dati raccolti sui loro siti. Questo vantaggio chiave porta con sé grandi opportunità ma anche importanti svantaggi da considerare. 

In ultima analisi, la valutazione di fattibilità e convenienza di questa soluzione deve essere una scelta ragionata e tenere conto delle specificità della propria azienda.

Diciamo che in linea di massima il Server-Side tracking è la soluzione migliore per:

  • Chi fa investimenti consistenti in advertising ed é interessato a mantenere o migliorare le performance
  • Aziende data-driven per cui l’affidabilità del dato é importante

Se pensi che sia quello di cui hai bisogno in azienda, o semplicemente vuoi saperne di più, contattaci scrivendo a hello@digitalpills.it e saremo felici di aiutarti!

27 Gennaio 2022

Google Analytics è illegale?

In breve: che cosa è successo in Austria e che cosa dobbiamo fare

Una recente sentenza della Corte di Giustizia Europea ha riconosciuto la possibilità di proibire il trasferimento di dati verso altri Paesi, se non presenti le condizioni per garantire il rispetto del GDPR. 

Questo potrebbe compromettere l’utilizzo di Google Analytics i cui dati sono trasferiti a Google LLC, negli Stati Uniti, poiché il modo in cui questi dati vengono utilizzati in USA potrebbero non essere conformi alle normative europee.

Google però non è stata ritenuta colpevole di alcuna violazione a differenza dei gestori del sito web, rei di aver permesso il trasferimento di dati identificativi quali indirizzi IP e identificativi utenti.

Al di là dei futuri interventi che Google credibilmente metterà in campo per ridimensionare il problema, è sufficiente anonimizzare le PII e gli indirizzi IP lato client o implementando un tracking server side per ridurre il rischio di trattamento inadeguato e trasferimento di dati personali.

Privacy online: contesto e tendenze

All’interno di un contesto internazionale pieno di stravolgimenti relativi a rispetto della privacy online e sovranità dei dati, la sentenza Schrems II ha segnato un punto di svolta nella sfera del trattamento dei dati degli utenti.

La Schrems II è una sentenza della Corte di Giustizia Europea che ha riconosciuto la possibilità di interrompere o proibire il trasferimento dei dati verso stati terzi (in particolare USA) se non presenti e garantite le condizioni per rispettare gli standard di protezione dei dati.

La domanda alla base della sentenza può essere riassunta così: se i dati raccolti e storati in Europa sono obbligatoriamente gestiti secondo le normative del GDPR, cosa succede ai dati raccolti in Europa ma trasferiti all’estero, in Paesi in cui vige una legislazione diversa e potenzialmente incompatibile con quella europea?

La domanda acquista rilevanza se riferita agli USA in cui gli enti governativi hanno accesso ai dati delle società americane.

Questa sentenza sembrerebbe avere ripercussioni dirette su Google Analytics, i cui dati raccolti vengono trasferiti presso la Google LLC, negli Stati Uniti, indipendentemente dal Paese in cui vengono raccolti.

La Schrems II non ha però riconosciuto alcuna responsabilità a Google, rendendo chiaro come non sia corretto affermare che Google Analytics sia illegale in Austria o in qualsiasi altro Paese d’Europa

A essere colpita dalla sentenza è stato invece il provider del sito, reo di aver permesso il trasferimento di dati personali, compresi identificativi utente, indirizzi IP e parametri del browser a Google LLC, rendendo gli utenti identificabili.

Cosa succederà e come possiamo agire?

Come si stanno muovendo quindi gli attori in gioco e come possiamo muoverci noi per tutelarci da violazioni del GDPR?

Google ha già recentemente affermato di voler iniziare a muovere i primi passi verso una conservazione dei dati all’interno del territorio in cui vengono raccolti, per essere sicuri di non creare violazioni e contrasti con le leggi vigenti nel Paese.

Noi abbiamo la possibilità di ridurre il trattamento dei dati personali non adeguati semplicemente utilizzando tecniche di anonimizzazione dei dati legati a indirizzi IP, nomi, email, numeri di telefono o qualsiasi altra informazione che possa ricondurre a un singolo individuo.

Praticamente le armi a nostra disposizione sono:

  • Anonimizzazione delle PII all’interno degli URL o di parametri raccolti attraverso javaScript lato client o implementando GTM Server Side
  • Anonimizzazione degli indirizzi IP tramite anonimizzazione standard (che Google assicura essere efficace solo dopo che i dati sono giunti al server locale più vicino) o tramite implementazione di GTM Server Side sicura al 100%

Nessun bisogno quindi di cambiare Data Stack. Google Analytics, per performance e potenzialità, rimane il tool di riferimento per il mondo degli analytics.

12 Gennaio 2022

Product Analytics e Mixpanel: come ottimizzare il prodotto digitale

Noi tutti come utenti abbiamo aspettative sempre più alte in termini di qualità dei prodotti, di features disponibili e di facilità d’uso. Ma come fanno aziende e creatori di prodotti digitali ad essere sicuri di stare fornendo la migliore esperienza possibile ai propri utenti?

Una risposta sicuramente valida è guardare ai dati:

  • Quanto revenue ha generato il mio prodotto in un determinato periodo?
  • Quanti utenti si sono iscritti?
  • Quale contenuto è più visto?

Tutte domande importanti in ottica business, ma che non riflettono pienamente se un prodotto digitale ha successo oppure no. Non permettono insomma di capire se il proprio prodotto genera valore per gli utenti che lo usano.

Rispondere a questa domande e a tutte quelle che sottintende è l’obiettivo della Product Analytics. Si tratta di una branca del mondo analitico che ha l'obiettivo di analizzare come i clienti interagiscono con prodotti e servizi, identificando opportunità che portino benefici all’intero business. Per fare questo occorre fare uso di alcuni framework e tool specifici.

In questo articolo parleremo di cosa significhi fare Product Analytics e dei benefici che può portare alle aziende. Infine, introdurremo Mixpanel, un tool specifico per la Product Analytics leader del mercato e di cui Digital Pills é primo e unico partner in Italia.

Cosa significa fare Product Analytics?

Il mondo degli Analytics è molto vasto e racchiude al suo interno diverse categorie in cui si declina. La Product Analytics è sicuramente una delle più importanti e di valore per chiunque crei o sviluppi prodotti digitali in cui gli utenti possano interagire.

Per capire meglio in che modo questa branca si distingua dalle altre, è utile partire da due definizioni, diverse ma non in contrasto tra di loro.

Definizione per tutti

"La Product Analytics è il processo usato per comprendere come i clienti interagiscono con prodotti o servizi digitali. Si tratta di un framework per mettere i clienti al centro del business, analizzandone i dati comportamentali, identificando opportunità di alto valore e creando per essi esperienze d’impatto."

-- Amplitude - Guide to Product Analytics

Questa prima definizione di Amplitude ci permette di capire che la Product Analytics si poggia su 3 pilastri fondamentali: clienti, prodotti, business. 

Si chiarisce inoltre che la Product Analytics è un framework, ovvero un processo essenziale per mettere in relazione questi tre pilastri, ricavandone informazioni utili per generare benefici all’intera azienda.

Nella seconda frase è inoltre possibile capire quali sono gli input e gli output di questo framework: raccoglie dati comportamentali dei clienti, dai quali emergano opportunità di miglioramento che aiutino a creare esperienze migliori per i clienti stessi. 

Per riassumere, la Product Analytics è un approccio analitico che pone al centro dell’analisi il cliente e le sue interazioni con il prodotto, al fine di migliorare continuamente la sua esperienza con esso e spingerlo a usarlo di più, portando benefici all'azienda stessa.

Definizione per addetti ai lavori

"Product Analytics consiste nel non preoccuparsi della raccolta dati e usare i dati per generare intuizioni uniche riguardo utenti, uso del prodotto e business."

-- Matthew Brandt, CXL Institute

Questa seconda definizione è più tecnica, ma è molto utile perché, se approfondita, aiuta a comprendere quali sono i fattori di maggiore interesse nell’intraprendere un’analisi di prodotto.

Analizziamo insieme i punti evidenziati:

  • Per non doversi preoccupare della raccolta dati, è fondamentale avere dati affidabili, chiari e condivisi a livello aziendale. Questo primo step preliminare presenta già diverse sfide operative, in quanto presuppone un lavoro su più livelli che allinei tutti gli stakeholders di prodotto.
  • Parlare di utenti e metterli al centro nasce dalla considerazione che ignorarli è un rischio che nessuna azienda può correre, ma al contempo trattare tutti allo stesso modo o all’opposto spendere troppi sforzi in analisi approfondite sono due estremi deleteri per il business.
  • Analizzare l’uso del prodotto è un’attività non semplice ma di grande importanza. Anche se quel prodotto è stato creato con determinati pattern in mente, quasi sempre alla prova dei fatti si scopre che vengono compiute azioni e raggiunti obiettivi in modi imprevisti o non contemplati. Comprendere meglio i diversi percorsi, progettati e non, che portano gli utenti a raggiungere gli obiettivi è fondamentale per capire in che modo agire.
  • Infine parliamo di business perché la Product Analytics è fortemente collegata alle performance aziendali. La ragione è semplice: se il business si basa sull’uso di un prodotto da parte del cliente, ogni modifica di prodotto fatta avrà inevitabilmente un impatto sul business.

Adottare correttamente un framework di Product Analytics permette di analizzare questi cambiamenti e capire quali impatti portano, fino ad elaborare nuovi cambiamenti che migliorino le performance di business.

Product vs “Classic” Analytics

Una volta capito meglio come sia possibile definire la Product Analytics, è utile capire in che modo si distingue dalla “Classic” Analytics, ovvero quella non incentrata sul prodotto (esempio pratico: raccolta dati per un sito web ecommerce).

Classic AnalyticsProduct Analytics
Tempi di azione / rilascio risultatiEstesi: per vederne effetti possono essere necessari da 1 a +6 mesiRidotti: nuove features possono essere rilasciate anche in pochi giorni.
Definizione degli obiettiviPianificata: gli obiettivi e le maggiori domande sono già note in fase di implementazione.Retroattiva: i Product Owners non disporranno della definizione degli obiettivi o domande dall’inizio, ma in seguito
Focus dell’approccioTransazionale: incentrato su transazioniUser-centric: le interazioni e il comportamento degli utenti con il prodotto sono messe al centro
ReportisticaStatica: poche variazioni nel corso del tempoAd-hoc con molteplici interazioni: varia in base agli scenari e alle azioni, richiede confronto con molteplici attori
Main DriversMarketing e campagne: mirato ad ottimizzare le conversioni e performanceSpecifici obiettivi di prodotto a livello utente o di azienda: le conversioni non sono così rilevanti quando i driver di prodotto.
Tabella di comparazione tra Classic Analytics e Product Analytics

Come si vede bene dalla tabella, le differenze sono molto marcate e non lasciano molto spazio a rischi di confusione in termini di attività che comportano.

Un punto molto importante da approfondire è sicuramente sulle metriche che i due processi misurano.

Nella Classic Analytics, le metriche prese in più alta considerazione sono spesso quelle più legate al business (revenue, costi advertising, ..). Questo si spiega poiché il focus della analitica classica è transazionale, ovvero portare l’utente alla conversione, definita a priori e legata agli obiettivi di business.

Quando parliamo di Product Analytics invece le cose cambiano. Spostando il focus dalla conversione all’utente e le sue interazioni, utilizzare come unico riferimento metriche che derivano dalle azioni degli utenti (transazioni, conversioni, …) sarebbe deleterio per il corretto sviluppo del prodotto.

L’obiettivo della Product Analytics deve essere quella di allineare lo sviluppo di nuove features, e di conseguenza l’aumento dell'affezione dell’utente verso il prodotto, al raggiungimento degli obiettivi di business. 

North Star Metric

Questo punto di incontro tra quelli che sono i valori degli utenti e quelli che sono i valori del business è definito canonicamente come North Star Metric (NSM), e rappresenta il problema degli utenti che il prodotto cerca di risolvere. 

La NSM rappresenta in questo senso quella singola metrica su cui i Product Owners devono concentrarsi a migliorare per assicurare il raggiungimento degli obiettivi di business.

Questa metrica si distingue da ogni altra metrica della Classic Analytics, spesso comuni a diversi business e definibili facilmente a priori, in quanto rappresenta una vera e propria sintesi della strategia aziendale di crescita, una guida di lungo periodo che deve guidare l’intera azienda.

Qui di seguito riportiamo alcune North Star Metrics di alcune startup, così come riportate da a16z.

North Star Metric di +40 aziende tech, da a16z

I vantaggi della Product Analytics

Per capire i vantaggi che può portare la Product Analytics, è necessario capire le tipologie di business per cui è adatta e quale obiettivo è importante porsi.

A chi si rivolge?

La Product Analytics non ha vincoli in termini di industry o fase di sviluppo di un’azienda. Si tratti infatti di un insieme di strumenti utili sia per la crescita che per il mantenimento delle performance raggiunte.

L’unica vera discriminante da considerare è se sia presente uno o più prodotti digitali e che tale prodotto sia al centro dell’intersezione tra utenti e azienda. Per chiarire questo punto è utile fare alcuni esempi:

  • Un'azienda che produce prodotti fisici e li vende tramite un ecommerce.

Pur essendo classificabile come un’azienda di prodotto, non trarrà grandi benefici dall’applicare la Product Analytics. Questo perché i suoi interessi strategici si limitano ad un rapporto transazionale con il cliente.

  • Un’azienda che produce prodotti fisici dotati di interfacce digitali (ovvero che comunicano o sono accessibile grazie ad interfacce digitali) e li vende tramite ecommerce.

Non trarrà benefici dall’applicare la Product Analytics limitatamente alla porzione di vendita. Ma potrebbe avere importanti vantaggi nell’analizzare le interazioni tra utente e prodotto tramite canali digitali.

  • Un’azienda che crea un’app, che si tratti di un prodotto a se stante o in congiunzione con altri.

Avrebbe considerevoli vantaggi dall’applicare un framework di Product Analytics alle interazioni degli utenti con il proprio prodotto. Questo permetterebbe di migliorare l'esperienza utenti e di conseguenza le potenzialità di monetizzazione.

In generale è quindi utile applicare la Product Analytics ogni qual volta avvengano interazioni dirette su canali digitali tra cliente e prodotto.

Quale obiettivo porsi?

Per dare una definizione generale di obiettivo da porsi nella Product Analytics, sarebbe:

Ottimizzare l’intero Customer Journey all’interno del prodotto (e non solo), collegando ogni step del Customer Lifecycle ad un Data Point, permettendo così di migliorare l’esperienza utente, aumentare la fedeltà sul prodotto (retention), e collegare metriche digitali a metriche del business.

Si traduce nel poter mappare ogni punto di contatto tra cliente e prodotto, analizzando lo stato del cliente tramite l’invio di dati strategicamente definiti. Questi permetteranno di apportare modifiche al prodotto al fine di aumentare l'affezione del cliente verso il prodotto e di conseguenza aumentare i benefici per l’azienda.

Questo obiettivo andrà poi approfondito in base al contesto dell’azienda o prodotto, declinandolo in base alla North Star Metric più adatta al proprio business.

Il modo migliore per raggiungere i propri obiettivi e ottenere i massimi vantaggi da questo processo è dotarsi delle giuste competenze e strumenti. 

Per questo processo noi consigliamo Mixpanel, tool verticale sulla Product Analytics tra i migliori al mondo e di cui siamo Partner certificati.

Mixpanel: lo strumento giusto per la Product Analytics

L’obiettivo di Mixpanel è aiutare le aziende a costruire prodotti migliori (Build Better Products) fornendo un potente software di self-service product analytics per aiutare a convertire, coinvolgere e mantenere attivi i propri utenti.

A differenza di altri prodotti per la self-service analytics, Mixpanel nasce specificamente per rispondere al bisogno di analizzare le interazioni degli utenti con prodotti digitali e ricavarne insight ed opportunità per la crescita.

Il Data Model di Mixpanel

Mixpanel, a differenza di servizi per la marketing analytics, utilizza un data model che si basa su due elementi fondamentali:

  • Eventi: qualsiasi azione significativa che un utente esegue
  • Profili: una raccolta di informazioni su un singolo utente

Questi due elementi al loro interno contengono Proprietà che forniscono maggiori dettagli sulle interazioni a cui sono associati. Si distinguono in:

  • Proprietà Evento: coppie chiave-valore allegate a un evento che forniscono dettagli sull'azione che è stata eseguita
  • Proprietà Profilo: coppie chiave-valore allegate a un profilo che forniscono dettagli sullo stato più recente di un utente

Le Proprietà Evento e Proprietà Profilo coesistono, ma hanno comportamenti e scopi diversi.

  • Le Proprietà Evento  sono informazioni statiche registrate al momento dell’evento
  • Le Proprietà Profilo sono informazioni dinamiche sullo stato attuale dell’utente

Anche se vi sono limiti sul numero di proprietà che eventi e profili possono avere (massimo 255), non vi sono limiti al numero di properties che siano utilizzabili a livello di progetto.

Questa struttura, simile per molti versi a quella di GA4 (che è appunto basato su eventi), permette però una ricchezza di informazioni molto più elevata, che si traduce nella possibilità di svolgere analisi più dettagliate e potenzialmente valide sul prodotto.

Strategia ed implementazione 

Mixpanel è uno strumento che offre grandissime possibilità di analisi una volta che è stato correttamente installato, ma proprio perché si tratta di uno strumento molto potente richiede competenza e pianificazione per essere implementato correttamente.

Dal punto di vista tecnico, Mixpanel offre integrazioni con diverse librerie sia client-side che server-side che ne rendono possibile l’implementazione.

Il processo di implementazione standard segue una scaletta simile:

Planning

Il momento in cui il PM assieme a contributors dai team di prodotto e team a contatto con il pubblico individuano gli obiettivi e definiscono la roadmap di implementazione.

In questa fase avere nel team le competenze e conoscenze giuste è fondamentale, in quanto richiede un lavoro di volto ad identificare i business objectives, capire quali KPIs vi siano collegati ed individuare quali metriche ed azioni significative sia importante tracciare per avere una chiara panoramica. 

Il tutto confluirà poi in una pianificazione delle attività di sviluppo, nella quale ogni inaccuratezza potrà comportare ritardi, errori o disallineamenti tra teams.

La strategia con cui attuare questa pianificazione è personale e variabile da progetto a progetto, ma è indicativamente sempre utile includere queste attività:

  • Identificare gli obiettivi di business
  • Definire i KPIs collegati a tali obiettivi di business
  • Individuare una lista di azioni degli utenti che impattano i KPIs
  • Tradurre le azioni degli utenti in Eventi e Proprietà associate

Sviluppo

In questa fase il PM collaborerà con il team di sviluppo per implementare e testare la soluzione pianificata in precedenza. 

Una volta svolta con successo la fase di implementazione, sarà possibile accedere alle capacità di analisi avanzate offerte da Mixpanel.

Le potenzialità di analisi

Mixpanel offre soluzioni di analisi ad alto livello e di dettaglio, con un'interfaccia intuitiva e facilmente modificabile.

Le possibilità di analisi sono molteplici e la loro validità è fortemente legata alla tipologia di prodotto e alla tipologia di quesito.

Alcune delle analisi possibili includono:

  • Numero di utenti attivi
  • Analisi del funnel completamente customizzabile
Analisi del funnel su Mixpanel per la Product Analytics
  • Analisi della Retention degli utenti per segmenti
Analisi della Retention su Mixpanel per la Product Analytics
  • Analisi per coorti
Analisi della coorti su Mixpanel per la Product Analytics

Grazie alle capacità dello strumento e alle nostre competenze, sarà possibile sempre più conoscere i propri utenti e offrire loro esperienze uniche, generando valore per essi e per il proprio business.

29 Settembre 2021

Facebook Conversion API: cos’è e come può aiutarti

Raccogliere dati sulle proprie campagne social è una delle basi di una strategia di advertising data-driven. Ma la qualità dei dati disponibili è oggi più che mai messa a rischio da aggiornamenti di settore su privacy e cookie. Il risultato? Il concreto rischio di basare decisioni (ed investimenti) su dati poco accurati e addirittura sbagliati.

Per rispondere ai nuovi sviluppi del settore social advertising e assicurarsi di avere dati affidabili su cui basare strategie efficaci, giunge in aiuto una novità: Facebook Conversion API.

In questo articolo esploreremo perché si tratta di una novità importante nel mondo della raccolta dati, quali sono le sue caratteristiche, vantaggi e best practice, e infine vedremo come sia possibile impostarlo e verificarne il corretto funzionamento.

Privacy e dati: Apple, ATT ed il futuro dei cookie

Con il rilascio di iOS 14.5 ad Aprile 2021, Apple non ha solo introdotto nuove funzionalità, ma ha innescato un cambiamento generalizzato nel trattamento dei dati e nella tutela della privacy degli utenti.

Con quest'ultimo aggiornamento è diventato standard per i prodotti Apple il nuovo framework per la privacy, che prevede due grandi novità:

  • Intelligent Tracking Prevention (ITP), che blocca automaticamente tutti gli accessi a cookie di terze parti e limita la funzionalità di cookie di prime parti
  • App Tracking Transparency (ATT), che ha introdotto l’obbligo per tutte le app di comunicare chiaramente agli utenti quali dati collezionano e chiederne il consenso esplicito.

L’introduzione di questi due framework ha generato una forte risposta da aziende concorrenti e da chi si occupa di advertising, proprio perché minerebbe inevitabilmente una gran fetta delle attuali soluzioni per raccogliere dati e profilare efficacemente gli utenti.

Nonostante questo, è indubbio che la maggior parte degli attori nel settore tech si stiano muovendo per un futuro più orientato alla privacy e tutela degli utenti, a scapito di strumenti come cookie di terze e prime parti.

Ma per chi si occupa di dati come fare a compensare la scomparsa di questi strumenti? E in particolare, chi lavora con gli advertising sul network Facebook, quali soluzioni possono garantire affidabilità dei dati?

Per rispondere a queste esigenze, nasce il Facebook Conversion API.

Cos’è Facebook Conversion API?

Conversion API è uno strumento della suite Facebook Business che consente di condividere direttamente le azioni dei clienti o i principali eventi web e offline dal proprio server a quello di Facebook.

Si tratta nella pratica dell’evoluzione del Server-Side API di Facebook, potenziato con maggiori funzionalità, un’interfaccia più intuitiva e un più chiaro obiettivo.

Il valore aggiunto di questa soluzione rispetto al tradizionale pixel è la sua indipendenza dai cookies. Trattandosi infatti di una soluzione lato server non è soggetta alle restrizioni applicate ai cookie lato client, causa spesso di inaffidabilità dei dati raccolti.

Ma attenzione, non si tratta di una soluzione perfetta così da sola!

Questo strumento non si pone come sostituto del Pixel, quanto semmai un ulteriore strumento adottabile per la raccolta dati e miglioramento delle performance delle campagne Facebook.

Non va poi dimenticato che, come ogni altra soluzione di raccolta dati, è vincolato e regolato dalle normative di gestione della privacy. Aspetto questo ancora più importante, dato che la responsabilità di identificare quali informazioni tracciare è in carico a chi implementa questa soluzione.

Una volta capito di cosa si tratta, è il momento di approfondire meglio cosa è in grado di fare!

Funzionalità del Conversion API

Tramite Facebook Conversion API (CAPI), è possibile tracciare tre tipologie di dati:

  • Conversioni web (vendite, iscrizioni)
  • Eventi post-conversione
  • Visite alla pagina

A differenza del solo pixel, permette di migliorare l’intero funnel di vendita integrando dati da CRM e non solo. Inoltre, permette la raccolta di dati richiesti per attività come:

  • Ad targeting (come custom audiences and retargeting)
  • Ad reporting
  • Audience Insights
  • Dynamic ads
  • Conversion optimization per Facebook ads

Vi sono poi specifiche versioni del Conversion API per app e vendite offline che permettono di tracciare eventi app, vendite in negozi fisici e visite a location.

Si tratta insomma di una soluzione molto personalizzabile in base alle proprie necessità. Per capire meglio quali siano i vantaggi per gli utenti, vediamo nei dettagli quali siano i maggiori benefici e le modalità con cui implementare il tutto.

Vantaggi e best practice de Facebook Conversion API

I principali vantaggi di adottare Facebook Conversion API per il proprio sito sono tre:

  1. Più modi a disposizione per misurare le azioni degli utenti
  2. Migliore accuratezza dei dati per la targetizzazione, misurazione ed ottimizzazione (se usato assieme a pixel)
  3. Maggiore controllo dei dati condivisi con Facebook (separandolo dal pixel)

Per massimizzare i vantaggi che questa soluzione offre, le linee guida di Facebook suggeriscono di implementare le Conversions API in aggiunta al Facebook pixel.

Adottare una doppia implementazione permette infatti di collegare gli eventi raccolti da entrambi, andando a ridurre sensibilmente la potenziale perdita di dati utenti (ad esempio a causa di blocco dei cookie o errori del web browser).

Fonte: developers.facebook.com

Se correttamente implementata, pur avendo due strumenti di raccolta dati in contemporanea, non dovrebbero generarsi dati duplicati in fase di analisi. 

Facebook infatti è in grado di applicare autonomamente un processo di “deduplicazione”: se entrambi gli strumenti registrano l’evento, Facebook compara i parametri event e eventID del pixel con i parametri event_name e event_ID del conversion API. 

Parametri pixelParametri Conversion API (devono combaciare)
eventevent_name
eventIDevent_ID

Se questi parametri sono identici, verranno raccolti entrambi ma nell’analisi verrà automaticamente eliminato uno dei due, eliminando il rischio di dati duplicati.

Cosa puoi fare con i dati raccolti

I dati provenienti da pixel e conversion API possono essere raccolti congiuntamente e venire utilizzati in modi affini per:

  • Ottimizzazione delle inserzioni, compresa l’ottimizzazione delle conversioni e quella del valore
  • Analisi e visualizzazione sulla maggior parte delle stesse piattaforme, tra cui Gestione inserzioni e Gestione eventi
  • Rispettano e sono sottoposti agli stessi controlli e limitazioni di Facebook

Vediamo assieme alcuni casi pratici dove l’utilizzo dei dati raccolti tramite conversion API rappresenta un vantaggio.

Miglioramento dell’attribuzione

La capacità del pixel di tracciare dati è in costante calo (complici il prossimo abbandono dei cookie e le sempre più stringenti soluzioni per la privacy). 

Grazie al Conversions API è possibile risolvere queste mancanze, fornendo una migliore attribuzione delle conversioni.

Miglioramento della targetizzazione delle inserzioni di Facebook

Strategie come il retargeting funzionano solo se il tracking è affidabile. 

Senza il conversions API, la capacità di fare leva su queste funzioni andrà sempre più a ridursi.

Riduzione del costo per azione delle inserzioni di Facebook

L’invio di dati migliori all’algoritmo di Facebook raccolti tramite conversions API può ridurre il costo per azione (CPA) delle inserzioni. 

Conclusione

Facebook Conversion API rappresenta un nuovo strumento per la raccolta dati che permetterà sempre più di disporre di dati affidabili e non intaccati dall'abbandono di cookie e blocchi.

I vantaggi che offre sono molteplici, dalla maggiore ricchezza dei dati raccolti al miglioramente delle performance delle campagne di advertising sul network Facebook.

Per scoprire come implementare questa novità e come verificare il corretto funzionamento degli eventi settati, guarda il video a tema Facebook Conversion API caricato sul nostro canale YouTube

11 Settembre 2021

Che cosa caratterizza una buona visualizzazione dei dati?

In questo articolo vedremo cosa caratterizza un'ottima visualizzazione dei dati e daremo alcune dritte molto utili a chi lavora nel mondo della Data Visualization.

Leggi fino alla fine perché parleremo anche di uno strumento senza rivali in questo campo.

La disciplina della Visualizzazione dei Dati è in continua evoluzione, poiché se ne fa un uso sempre più ampio, in un numero di campi sempre maggiore.
Se all’inizio era solamente possibile trasformare i dati in grafici statici, l’evoluzione ha portato oggi a possibilità straordinarie.

Con tutte queste possibilità però, quali sono i principi guida o le basi che permettono di costruire buone visualizzazioni?

Gli aspetti fondamentali di una buona visualizzazione dei dati

Per costruire una buona visualizzazione, ricordati sempre questi tre aspetti fondamentali:

  1. La visualizzazione deve essere efficace.
  2. Deve evidenziare ed esplicare i dati e le connessioni tra dati troppo difficili da spiegare a parole.
  3. Deve rendere facilmente comprensibili a chiunque le informazioni presentate e le possibili soluzioni ad un problema di cui si sta presentando.

Ecco un perfetto esempio: Le vendite di Nintendo nel corso di tempo e la ripartizione tra Software e Hardware.

Queste regole di base molto generiche, devono restare un must sia quando i dati da gestire e presentare siano tanti, che quando siano pochi.
La complessità del lavoro non deve farti rinunciare a queste linee guida.  Anzi, più è alta la mole di dati da gestire maggiore si rivela la necessità di seguire queste regole per arrivare ad un buon risultato.

Dopo aver compreso questi aspetti, la prima cosa da fare quando si pensa ad una visualizzazione è di capire esattamente quale messaggio devi trasmettere e con quali dati.
E’ molto importante anche avere chiaro chi sarà il fruitore della tua dashboard, per evitare di presentare informazioni giuste alle persone sbagliate, o viceversa.

Ancora un paio di regole per Visualizzazioni Efficaci

In linea generale, in un contesto aziendale ad esempio, è molto difficile che al direttore finanziario interessino i conversion rate delle ultime campagne di marketing, è molto più probabile che sia interessato alla spesa di queste campagne messa in relazione con i profitti che ha generato.

Di solito la complessità del lavoro deriva dal numero di variabili che ci sono in gioco: scegliere il grafico giusto fa la differenza!

Una distribuzione statistica di alcune variabili rappresentata con un grafico a torta sarà praticamente inutile, perché l’utente non riesce a cogliere il messaggio.
In generale, i grafici a torta o ciambella sono da evitare se le variabili sono più di 3, perché si arriva ad un punto dove la visualizzazione non è efficace, non riesce a trasmettere in modo chiaro il messaggio.

Per la visualizzazione della distribuzione statistica dei dati numerici, solitamente un istogramma o un box plot, se c'è interesse nelle sue modalità e valori anomali, sono la scelta più adatta.

Anche il modo di usare i colori può essere significativo.

Sempre nel caso di una distribuzione statistica, in presenza di valori anomali o di outliers, per metterli in evidenza ancora meglio sarà indicato usare dei colori accessi per farli risaltare e che possibilmente comunichino dei concetti già di per sé.

Se ad esempio in un mese particolare dell’anno ci sono stati dei ricavi al di sopra della media, si potrà evidenziare questo dato con un verde, colore che comunemente richiama una cosa positiva, mentre se in un altro mese ci sono stati dei costi fuori dalla media, questo potrebbe essere evidenziato con del rosso.

Si può poi usare lo stesso colore ad esempio, ma con sfumature diverse, avendo una sfumatura più intensa per i dati maggiori e una meno intensa per quelli minori.

Un'ottima visualizzazione dovrebbe ridurre la complessità insita nelle tante variabili dei dati e nel caso si dovessero compiere delle scelte, deve aiutare il processo decisionale.

In un progetto complesso, è ancora meglio se vengono presentati in modo gerarchico seguendo le priorità aziendali.

I principi più importanti

Nel complesso, indipendentemente dalle variabili e dalle osservazioni disponibili, bastano alcune regole pratiche per rendere le tue visualizzazioni un mezzo potente per illustrare il concetto alla base dei tuoi dati.
Esistono tantissime regole per le visualizzazioni, ne riportiamo ancora alcune che pensiamo siano importanti.

  • Attenzione a non far contrastare i colori dei grafici con il background
    La regola standard è quella di avere un background abbastanza neutro che ti possa dare la massima libertà in termini si sfumature e colori per i tuoi grafici. Regolati pensando anche al fatto che le dashboard potrebbero essere stampate.
  • Dai dei punti di riferimento per ogni variabile quando necessario.
    Se ad esempio fornisci i dati in termini di vendita per quest’anno, non tutti potrebbero sapere se si tratta di buone performances o meno, indipendentemente dal fatto che la curva sia in crescita o in decrescita.
    Mostrando invece anche i dati delle vendite dello scorso anno, chiunque potrebbe capire meglio, semplicemente avendo un punto di riferimento.
  • Etichettare i grafici a barre con i numeri, ma non troppo.
    E’ bene aggiungere solo le indicazioni strettamente necessarie per far comprendere. I numeri lunghi sono generalmente difficili da visualizzare. Se la precisione del dato non si rivela fondamentale, è consentito arrotondare. Ad esempio, il valore "10,523" può essere visualizzato come "10K" su un grafico a barre.
  • Dove possibile, ordina i dati per enfatizzare la scala, ma fai attenzione a non trasmettere un messaggio sbagliato.

In questa visualizzazione viene messo in evidenza la percentuale di persone che risponde ai sondaggi per settore di appartenenza.

Conclusioni

Queste erano alcune tra le più importanti direttive di cui potevamo parlarti.

Ricorda sempre: più riesci a togliere dalle tue visualizzazioni, meglio è. Devi lavorare con l’essenziale in termini di grafica, perché questo ti aiuta a seguire anche i principi di cui abbiamo parlato durante l’articolo.

I grafici che hai visto nell’articolo, tutti meno uno, sono stati creati con Tableau, un software di Data Visualization senza eguali.
Se vuoi scoprire tutte le potenzialità di questa piattaforma, e come sfruttarle al meglio, visita la pagina dedicata a Tableau! Dagli un'occhiata, siamo sicuri che non resterai deluso/a.

Se hai domande Contattaci, saremo felici di aiutarti 🙂

12 Agosto 2021

I 5 libri più belli sulla Data Visualization

In questo articolo abbiamo deciso di selezionare alcuni tra i migliori libri sulla Data Visualization che pensiamo siano i più utili in questo ambito.

La Data Visualization è una vera e propria scienza, per questo bisogna capirne le fondamenta, la storia, l’evoluzione, ed il modo di usarla.

Grazie ai 5 migliori libri sulla Data Visualization che stiamo per mostrarti, potrai fare un ulteriore passo in avanti, attraverso il fantastico strumento della visualizzazione, capendo come comunicare metriche, storie e dati complessi in modo conciso ed efficace, ma anche stimolante.

Questi sono i libri che abbiamo selezionato:

  1. “Data Visualisation: A Handbook for Data Driven Design” di Andy Kirk
  2. “Storytelling With Data: A Data Visualization Guide for Business Professionals” di Cole Nussbaumer Knaflic
  3. "Data Visualization - A Practical Introduction" di Kieran Healy
  4. “Infographics Designers’ Sketchbooks” di Steven Heller and Rick Landers
  5. “Beautiful Visualization, Looking at Data Through the Eyes of Experts” di Julie Steele, Noah Iliinsky

Vediamoli insieme!

Data Visualisation: A Handbook for Data Driven Design” di Andy Kirk

Questo libro votato tra i "6 migliori libri per i fanatici dei dati" dal Financial Times è un ottimo punto di partenza per approcciare e avvicinarsi alla materia, presenta tantissimi esempi di visualizzazioni e casi pratici, presi dal mondo reale, per far capire bene fino a dove si può spingere l'applicazione della Data Visualization.

Scritto con un linguaggio semplice e con tanti consigli pratici, fornisce anche accesso a tanti strumenti di analisi online più alcuni esercizi per potersi esercitare.
E' uno dei migliori libri per iniziare.

“Storytelling With Data: A Data Visualization Guide for Business Professionals” di Cole Nussbaumer Knaflic

Con questo libro la missione dell'autore è quella di insegnare ai lettori che non è sufficiente mostrare i dati, bisogna raccontare una storia. Knaflic mostra come andare oltre gli strumenti ed i processi tradizionali per raggiungere l'essenza dei dati: mette in evidenza i processi per creare delle dashboard che possano raccontare delle storie con un tasso di engagement molto alto e in un modo comprensibile a chiunque.

Si parla molto dell'audience e di come questa debba essere in grado di comprendere le dashboard, il lettore viene guidato per imparare a lavorare con la Data Visualization senza rischiare di rendere vano il proprio lavoro perché gli utenti finali non sono in grado di capire.

L'autrice ha lavorato per anni con organizzazioni data-driven aiutandole a diffondere i propri messaggi e ideali in forma visiva e questo libro racchiude tutta la sua esperienza.

Data Visualization - A Practical Introduction" di Kieran Healy

Se cerchi un libro che combina teoria ed esercizi pratici in modo facile e comprensivo, questo non può di certo mancare nella tua libreria. Scritto da un professore universitario, egli fornisce i risultati delle sue ricerche e di quelle dei suoi studenti con un focus speciale su R e ggplot2.

Che tu sia agli inizia o già un esperto/a, questo libro comunque ti mostra un lato della Data Visualization divertente ed un modo di comunicare in forma visuale poco conosciuto.

“Infographics Designers’ Sketchbooks” di Steven Heller and Rick Landers

Se non fai fatica nella gestione dei dati, ma nella parte di creazione delle dashboard, questo libro fa al caso tuo!
Ci sono le linee guida per creare delle presentazioni che catturino l'attenzione di chi le guarda e le istruzioni per ogni stage di creazione della dashboard.

Si parla molto di visualizzazione esaminando i lavori dei 50 grafici/designers nel campo analytics più famosi al mondo. L'autore cerca di entrare nella loro testa e di estrapolare i processi creativi, i punti di forza, i dettagli che hanno fatto la differenza, etc.
Come lettore quindi sarai in grado di capire quali sono gli strumenti ed il modo più corretto per approcciare una nuova visualizzazione e di conseguenza il modo di presentare informazioni importanti per trasmettere chiarezza e ispirazione.

“Beautiful Visualization, Looking at Data Through the Eyes of Experts” di Julie Steele, Noah Iliinsky

Questo è uno di una serie di libri chiamata "Beautiful" nel quale gli autori descrivono il design e lo sviluppo di alcune visualizzazioni molto famose esaminando i metodi di lavoro di 24 esperti.

Combinando gli approcci alla visualizzazione di persone molto diverse tra loro: artisti, scienziati, analisti, statisti, etc. il libro riesce a dare molteplici punti di vista e una visione d'insieme riguardo la materia. I maggiori argomenti trattati sono:

  • l'importanza dello storytelling mediante la data visualization
  • l'importanza dei colori e come essi influiscano sulla percezione delle informazioni
  • un bellissimo caso studio riguardo i viaggi in aereo

In Conclusione

Questi sono alcuni tra i libri che maggiormente ti possono aiutare se vuoi lavorare nel mondo della Data Visualization o se vuoi fare un salto di qualità.

Noi per approfondire, abbiamo creato un corso su Tableau, lo strumento più utilizzato per la Data Visualization, dove mettiamo le mani in pasta e vediamo come si lavora con i dati facendo applicazione pratica.
Dai un'occhiata, siamo sicuri che non rimarrai deluso!

E se hai domande Contattaci, saremo felici di aiutarti 🙂

29 Marzo 2021

Cos’é Mixpanel e perché dovresti usarlo

Mixpanel è uno strumento che consente di analizzare come gli utenti interagiscono con un prodotto. È progettato per rendere i team più efficienti consentendo a tutti di analizzare i dati degli utenti in tempo reale per identificare le tendenze, capire il comportamento degli utenti e prendere decisioni migliori sul prodotto.

Mixpanel utilizza un modello basato su eventi e incentrato sull'utente che collega ogni interazione a un singolo utente.

Il modello di dati di Mixpanel è costruito sui concetti di users, events e properties.

Oggi ti raccontiamo cos'é Mixpanel e perché dovresti usarlo.

Arriva fino in fondo: c'é una sorpresa per te!

Cos'é Mixpanel

Mixpanel è uno strumento di analisi degli utenti che consente di tracciare come gli utenti interagiscono con un prodotto o un'applicazione. I dati vengono inviati dal dispositivo dell'utente o dal server a Mixpanel, dove possono essere analizzati in tempo reale per identificare meglio le tendenze e comprendere il comportamento dell'utente.

Mixpanel consente inoltre di utilizzare i dati di analisi comportamentale per indirizzare con precisione gli utenti con vari tipi di messaggi e esperimenti per aiutarti a ottenere il massimo coinvolgimento degli utenti.

Data Model

A differenza di altri strumenti di analisi che sono limitati al monitoraggio di misure predefinite di engagement, come le pagine viste e le sessioni del browser, Mixpanel utilizza un modello basato su eventi e incentrato sull'utente che tiene traccia delle azioni specifiche che i singoli utenti fanno all'interno del prodotto.

Questo approccio all'analisi event-based cattura una comprensione più approfondita del coinvolgimento degli utenti, che consente un'analisi più granulare e un targeting efficace di messaggi ed esperimenti.

Per quanto riguarda la struttura attuale del modello di dati Mixpanel, è costruito su tre concetti chiave: eventi, proprietà e profili utente. Discutiamo rapidamente di ciascuno di questi componenti.

Eventi

Un evento è un'azione significativa che un utente esegue in un'applicazione o su un sito web.

Gli eventi possono essere una vasta gamma di azioni. Ad esempio, un servizio musicale potrebbe tenere traccia di un nuovo utente che si iscrive a un account o di un utente che riproduce una canzone come eventi.
È importante determinare quali azioni dell'utente sono importanti da raccogliere e analizzare in seguito. Digital Pills é primo partner italiano certificato di Mixpanel e il nostro obiettivo é proprio questo: supportare chi utilizza Mixpanel nella fase di data strategy in cui si identifica la strategia di misurazione, quali cose si vogliono monitorare e di conseguenza quali dati si vogliono raccogliere. Se vuoi avere più informazioni in merito, clicca qui.

Proprietà

Una proprietà è un dettaglio su un evento.

Nello specifico, le proprietà degli eventi sono coppie descrittive di valore-chiave associate a un evento, che descrivono l'evento stesso o l'utente che ha eseguito l'evento.

Nel determinare quali eventi raccogliere, è importante specificare quali dettagli su tale evento dovrebbero essere raccolti. Le proprietà degli eventi sono incredibilmente importanti, in quanto forniscono il contesto necessario agli eventi per garantire un'analisi di valore. Le proprietà facilitano anche la dissezione dei dati, consentendo una comprensione più dettagliata dei dati determinati dagli eventi.

Profili utente

Un profilo utente è una raccolta di informazioni su un singolo utente.

Come gli eventi, i profili utente hanno proprietà che descrivono il profilo. A differenza degli eventi, tuttavia, i profili utente e le loro proprietà cambiano costantemente per riflettere le informazioni più recenti su un utente.

Una proprietà del profilo utente potrebbe essere un valore statico, come un nome, o qualcosa di più probabile che cambi, come la data dell'ultimo login o il numero di canzoni che un utente ha riprodotto.

Abbiamo in programma un webinar con il team Mixpanel: 45 minuti in cui ti spieghiamo per chi ha senso utilizzare questo tool, quali sono i vantaggi e entriamo un un demo account. Se vuoi iscriverti al webinar gratuito clicca qui.

 

 

19 Febbraio 2021

La struttura del nuovo GA4: account, property e stream

Google Analytics 4 sarà a partire da luglio 2023 l'unica versione disponibile: clicca qui per leggere tutte le novità e scoprire i nostri consigli per gestire al meglio la transizione.

In questo articolo parliamo della struttura del nuovo GA4.

Dato il recente aggiornamento che ha introdotto tantissime novità, ti parleremo oggi di com'è strutturato ora analytics e come funzionano

  1. Account
  2. Property
  3. Stream

Prima di iniziare ecco uno schema che riassume la struttura

L'organizzazione riunisce i prodotti e gli utenti. Rappresenta un'azienda e permette di accedere agli account dei vari prodotti Google (come GA, GTM, Google Optimize, etc) e di gestire le integrazioni tra prodotti (come quelle tra GTM e Analytics) e le autorizzazioni degli utenti.

La creazione di un'organizzazione non è obbligatoria, ma facoltativa. Tuttavia per crearla basta andare su Google Marketing Platform e seguire i pochi passaggi guidati.

Ora che abbiamo in chiaro la struttura del nuovo GA4, iniziamo ad analizzare gli elementi!

Account

L'account è il punto di accesso ad Analytics, ed ogni organizzazione può avere più account Analytics. Ad esempio un'azienda che vende in più paesi può avere un account GA4 per ogni paese.

Bisogna pensare all'account come un contenitore di dati, perché questo è effettivamente.

Ogni organizzazione può avere a massimo 50 account, ed ognuno di questi può contenere fino a 100 property.

Per coloro che gestiscono gli account di clienti, avere l'autorizzazione a livello account vuol dire avere accesso anche ai dati sottostanti, quindi a properties e streams. Questo infatti è il livello massimo di autorizzazione.

Property

Le proprietà sono i contenitori dei rapporti, come dei silos, basati sui dati raccolti (ora in GA4) sia da app che da sito. La property è il livello più dettagliato a cui Analytics elabora i dati.

Se hai una property per rappresentare un'app, questa deve rappresentare una singola applicazione logica: ogni applicazione logica può anche equivalere allo stesso gioco su piattaforme diverse.

Ogni property può contenere fino a 50 data stream.

Stream

L'ultimo livello della struttura del nuovo GA4 è rappresentato dagli stream.

Un data stream è un flusso di dati, da un touchpoint del cliente ad Analytics. Ricordati che è possibile connettere più data stream mobile ad una property, ma una sola data stream web.

Se raccogli i dati per un'applicazione logica su più piattaforme, sarà necessario creare uno stream per ogni piattaforma

Ovviamente è possibile visualizzare i dati di tutti gli stream nei rapporti ed anche filtrarli per vedere solo stream specifici.

Ricordati inoltre che la reporting view di Analytics non può raccogliere dati retroattivamente, ma li raccoglierà solo nel momento in cui colleghiamo il data stream alla property.

Qual'è la configurazione più adatta a te avendo presente la struttura del nuovo GA4?

Fino a qui abbiamo visto la struttura del nuovo GA4. Ma se ti stai chiedendo come configurare il tuo account al meglio ecco alcuni consigli.

Se sei una piccola organizzazione con un solo sito, una sola property con un solo data stream sarà più che sufficiente. Se invece hai anche delle app è necessario creare più data stream, almeno uno per iOS e almeno uno per Android.

Per le grandi organizzazioni invece

Ripensa all'esempio di prima dove si parlava di un'azienda che aveva più siti in lingua diversa per ogni paese.

Conclusioni

Se ti sei perso le novità del nuovo Google Analytics 4 ecco un articolo dove elenchiamo le principali novità.

Sperando che la struttura del nuovo GA4 ti sia chiara, puoi contattarci per qualsiasi domanda, saremo felici di aiutarti 😉

18 Febbraio 2021

4 tipi di analisi per il tuo sito

In questo articolo andiamo a scoprire 4 tipi di analisi che puoi fare per il tuo sito.

Queste analisi, tra il qualitativo e il quantitativo, hanno lo scopo di aiutarti a migliorare avendo presente anche qual è il punto di vista degli utenti. Immedesimarti in loro può quindi aiutarti a vedere dei problemi che altrimenti non riusciresti a vedere.

Prima di partire ti ricordiamo che l'analisi di un sito è un processo che comprende ricerca, test e confronti tra risultati. Per essere sicuro che almeno in linea generale il tuo sito funzioni bene devi fare periodicamente questi 4 tipi di analisi:

  1. Fai un audit SEO
  2. Testa la velocità del tuo sito
  3. Analizza i tuoi competitors
  4. Analizza il traffico del tuo sito

Iniziamo!

Fai un audit SEO

Fare un audit SEO è sinonimo di fare un check up dello stato di salute della propria Search Engine Optimization.

Le forme più comuni di analisi SEO sono: On-Page SEO Audits, Website search engine ranking analysis, Bachlink Analysis. Ora li vedremo uno per uno.

On-page SEO audits

Questo tipo di analisi SEO ti aiuta a individuare errori tecnici comuni che comunque influiscono, si parla ad esempio di pezzi del titolo mancanti, link che non funzionano, etc.

Questo tipo di analisi di solito vengono condotte tramite dei tool specifici come Screaming Frog che sono automatici e aiutano ad individuare gli errori in modo rapido.

Altri tool simili invece aiutano a prevenire, ad esempio Yoast SEO per chi usa WordPress.

Website search engine ranking analysis

Questo tipo di analisi specifica ti indica in che posizione appare il tuo sito in base ai vari keywords con cui ti sei inidicizzato sui vari motori di ricerca.

Alcuni tool (es. Serpbook)  ti faranno vedere qual è il tuo ranking in base alla keyword che inserisci, mentre altri (es. Ahrefs) troveranno da soli tutti i keywords grazie ai quali il tuo sito è in raking e la relativa posizione.

Analizzare i backlinks del tuo sito ti fa trovare quali pagine hanno link che reindirizzano verso il tuo sito e con quali keywords.

Un tool ottimo è Google Search Console.

Queste informazioni possono essere usate per comprare i propri backlinks con quelli dei competitors e scoprire sia i propri punti forti che quelli deboli.

Testa la velocità del tuo sito

É risaputo che gli utenti non amano affatto i siti che caricano lentamente. Li abbandonano prima ancora che finiscano di caricare se questo processo dura più di 2 secondi.

Bisogna assicurarsi quindi di analizzare questa componente del proprio sito per non perdere gli utenti e i potenziali clienti.

Esistono tanti tools gratuiti per fare questa analisi: Google's PageSpeed Insights, GTnetrix, Pingdom, WebPageTest.

Analizzando le metriche chiave come la page size, load time, http requests,etc. avrai a disposizione tutta una serie di dati che ti indicheranno con precisione dov'è il problema e su quale punto bisogna intervenire per offrire agli utenti un'esperienza migliore.

Analizza i tuoi competitors

Questo tipo di analisi viene fatto soprattutto per capire come si posizionano i propri competitors. Queste informazioni possono essere usate poi per capire cosa hanno intenzione di fare: su quali keywords puntano per farsi trovare di più, quali prodotti spingono di più, etc.

Sapere cosa fanno i propri competitors ti permette di trovare soluzioni migliori per il tuo business, potresti ispirarti ad alcuni loro servizi oppure presentarne altri per essere l'unico. Per non parlare di come potresti scovare keywords su cui potresti puntare e che non hai mai considerato.

Quando analizzi i tuoi competitors cerca di risponderti sempre a queste 2 domande:

  1. Come vengono percepiti i tuoi servizi/prodotti rispetto a quelli dei tuoi competitors  nel mercato?
  2. Che tipo di messaggio stanno cercando di trasmettere i tuoi competitors?

Questa immagine è il risultato di una ricerca manuale su un competitors. Se fino ad ora abbiamo menzionato strumenti e tools, in questo caso il manuale resta la strada più sicura.
É sufficiente riportare i dati mostrati nella foto per avere informazioni utili e fare un confronto.

Esistono comunque degli strumenti anche per analizzare i competitors: si tratta di SEMRush o SImilarWeb, questi danno informazioni sul volume del traffico dei siti e sul traffic source.

Analizza il traffico del tuo sito

Questo tipo di analisi ti aiuta a monitorare il volume dei visitatori del tuo sito, ma anche le loro attività. Oltre a questo puoi sapere quali sono le pagine più visitate, monitorarle una per una, e vedere anche i riscontri delle tue strategie per generare più traffico.

Tutte queste informazioni si possono trovare all'interno del tuo account Google Analytics.

Se per caso Analytics non ti bastasse, ci sono tools come Matomo oppure Open Web Analytics.

Ancora qualche strumento per l'analisi del tuo sito

Questi 4 tipi di analisi per il tuo sito di cui abbiamo parlato finora sono fondamentali per rimanere competitivi, ma esistono ulteriori tipologie di analisi per fare un davvero quel salto di qualità che può metterti davanti a tutti.

Si tratta infatti di analizzare in modo ancora più approfondito la prospettiva e l'esperienza del tuo utente. Quest'analisi qualitativa ti porta a scoprire tutto: come gli utenti sono arrivati sul tuo sito, che cosa cercano, che cosa si aspettano, cosa c'è che non li convince, etc.

É evidente che con informazioni di questo tipo si possano fare dei miglioramenti considerevoli al proprio sito ed in generale a tutta la propria esperienza utente.

I Behaviour analytics tools

Questi sono strumenti, si parla principalmente delle mappe di calore di HotJar o delle registrazioni di sessione. Le prime ti fanno letteralmente vedere come le persone interagiscono con gli elementi del tuo sito. Cercano di cliccare su un bottone che non è cliccabile? La loro attenzione è catturata da elementi anomali? etc. Le seconde mostrano come gli utenti navighino tra le pagine mettendo in evidenza bug, problemi, pain points, etc.

I Feedback dei tuoi utenti

Analizzare il comportamento dei tuoi utenti potrebbe farti capire molte cose, ma se avessi ancora dubbi sul perché di certe azioni?

Ecco che esiste ancora un metodo per capire i motivi che spingono a certe scelte o comportamenti : si tratta dei feedback.

Questi infatti possono essere sottoposti ai propri utenti in merito a qualsiasi cosa praticamente, dai prodotti fino all'esperienza di navigazione, design, care, e tanto altro. Sono il riscontro più diretto che si può avere dalle persone che navigano sul sito ed è una fonte di informazioni preziosissima.

Conclusioni

Abbiamo visto i 4 tipi di analisi per il tuo sito che assolutamente non possono mancare più altri 2 tipi che possono davvero fare la differenza.

Resta il fatto che comunque già sapendo usare bene i dati di Google Analytics, si possono avere una miriade di informazioni utili.

Sperando che questo articolo ti sia piaciuto e che ti sia stato utile ricordati che puoi contattarci per ogni dubbio o perplessità.

12 Gennaio 2021

Piccola guida a Google Consent Mode

Questo articolo è la guida a Google Consent Mode, un tool che recentemente Google ha rilasciato (in versione Beta) e che può essere un grande alleato per tutti noi che ci troviamo a dover creare valanghe di blocking trigger per essere sicuri che il nostro tracking rispetti il regolamento GDPR.

Premessa

Se “GDPR” e “Blocking trigger” ti sembrano parole nuove, stiamo parlando della gestione dei cookie legata al tracking.
Come saprai il nuovo regolamento GDPR impone delle regole decisamente rigide in materia di tracking, cookie e advertising online.

Per essere sicuri di rispettare le regole, la prima regole è rivolgersi a un legale che possa aiutarci, la seconda è di installare un sistema di Cookie Management come OneTrust o CookieBot.
Questi sistemi ci inviano dei dataLayer.push con dei parametri. A ogni parametro corrisponde una tipologia di cookie. Se nel dataLayer c’è il parametro, vuol dire che il cookie corrispondente è stato accettato dall’utente.

Questo comporta che tutti i tag di Google Analytics o di Advertising che passano per Google Tag Manager devono essere bloccati nel caso in cui il parametro non sia presente nel dataLayer (e quindi non accettato).
Tutto questo implica un grande sforzo da parte di noi web analyst che dobbiamo bloccare manualmente ogni tag sulla base della tipologia di cookie che viene rilasciato.

Come può aiutarci GCM

Ma torniamo alla guida per Google Consent Mode. In che modo questo può aiutarci?
Il Google Consent Mode è uno strumento attraverso cui diventa possibile gestire il comportamento dei tag di Google (esclusivamente di Google) senza essere costretti a ricorrere ai blocking trigger ma lasciando che i tag scattino liberamente.

Come detto, Google Consent Mode supporta solamente i tag di Google e della Google Platform, in particolare:

  • Google Ads
  • Floodlight
  • Google Analytics

Tutti gli altri tag dovranno essere gestiti con il cookie policy management system che si è scelto di installare sul proprio sito.
Una volta installato, Google Consent Mode rilascerà dei ping che permetteranno a Google di utilizzare i cookie sulla base delle scelte dell’utente.

Google Consent Mode analizza due tipi di consenso:

  • Ads Storage
  • Analytics Storage

Quando l’utente ha rilasciato il suo consenso a uno o entrambi i tipi di storage, Google Consent Mode automaticamente rileva la risposta e agisce di conseguenza, salvando o meno i dati degli utenti sulle piattaforme.

Come abbiamo già detto, è molto importante ricordare che Google Consent Mode non è un sistema di cookie management. Non può quindi sostituire in alcun modo uno strumento di gestione dei cookie come CookieBot o OneTrust.

Per far sì che sia funzionante, Consent Mode deve poter leggere i parametri contenuti nei dataLayer inviati dal sistema di gestione cookie.

Inoltre, ricordiamo ancora una volta che Consent Mode funziona solo sui tag di vendor Google, per fare un esempio: è inefficace sui pixel di Facebook che devono essere bloccati dal sistema di gestione cookie principale.

Piccola guida all’implementazione 

Abbiamo parlato di dataLayer che vengono letti, di tag che vengono attivati in ogni circostanza e di tool da installare. Facciamo chiarezza e vediamo quali sono gli step necessari per l’implementazione del Google Consent Mode:

  • Step 1 - Implementazione dello snippet di Google Consent Mode 

Il primo step è l’implementazione dello snippet nel codice HTML della pagina. Questo può essere fatto direttamente da codice (preferibile) o tramite Custom HTML tag.

  • Step 2 - Settare l’Analytics Storage e il default Storage di default

Google Consent Mode cambia il comportamento sulla base di due criteri:

  • analytics_storage: può essere granted o denied
  • ad_storage: può essere granted o denied

A noi e agli sviluppatori il compito di impostare i valori corretti in base alla nostra strategia di gestione cookie.

  • Step 3 - Fare in modo che Google Consent Mode risponda alla scelta dell’utente

Quando l’utente interagisce con il banner della cookie policy, Google Consent Mode, leggendo i parametri nei dataLayer, aggiornerà il consenso sulla base della scelta fatta creando un evento ad hoc.

Fatto questo, si possono cancellare, qualora siano già stati impsotati, tutti i blocking trigger presenti nei tag Google.
Per il procedimento dettagliato e per gli script da implementare, qui potete trovare la guida di google.

QA

Esistono due metodi per verificare che il Google Consent Mode sia correttamente implementato.

  1. Visitando il vostro sito e aprendo i report real time di GA, qualora non accettiate i cookie, vedrete che a ogni vostro evento sulla pagina, aumenterà di un’unità il numero di utenti attivi sul sito.
  2. Simulando una visita al vostro sito senza accettare i cookie di performance, segnate il cid (client id, lo trovate nella console alla sezione dei cookie) con cui state navigando e il giorno dopo dallo User Explorer di GA assicuratevi di non trovare nessun id corrispondente al vostro salvato.

Implementazione con Custom HTML

Per tutti quelli che non si sentono troppo sicuri con i codici HTML o che non possono accedere al codice del sito, questi sono gli step nel caso si voglia procedere con i Custom HTML.

  • Step1 - Creazione delle variabili

Il primo step consiste nella creazione di due variabili:

  • Una variabile che catturi i valori della Analytics Storage capace di leggere nella regex table come input il valore nel dataLayer (in questo caso OneTrust) che fa riferimento ai cookie di analytics e come output la stringa “granted” mantenendo la Default Value come “denied”. La versione “raccontata” della variabile in foto sarebbe: se il dataLayer OneTrust contiene C0002 (cookie analytics) restituisci come valore “granted”, altrimenti “denied” di default.

  • Una variabile che catturi i valori della Ads Storage capace di leggere nella regex table come input il valore nel dataLayer che fa riferimento ai cookie di advertising e come output la stringa “granted” mantenendo la Default Value come “denied”.

Il secondo step consiste nella creazione dei tag Custom HTML:

Dobbiamo adesso creare 4 tag custom HTML:

  • Tag che invia il valore analytics di default:

<script>

  window.dataLayer = window.dataLayer || [];

  function gtag(){dataLayer.push(arguments)};

  gtag('consent', 'default', {

    'analytics_storage': {{variabile con valore analytics}}

  });

</script> 

 

  • Tag che invia il valore analytics updated:

<script>

  window.dataLayer = window.dataLayer || [];

  function gtag(){dataLayer.push(arguments)};

  gtag('consent', 'update', {

    'analytics_storage': {{variabile con valore analytics}}

  });

</script>

 

  • Tag che invia il valore advertising di default:

<script>

  window.dataLayer = window.dataLayer || [];

  function gtag(){dataLayer.push(arguments)};

  gtag('consent', 'update', {

    'ad_storage': {{variabile con valore ads}}

  });

</script>

 

  • Tag che invia il valore ads updated:

<script>

  window.dataLayer = window.dataLayer || [];

  function gtag(){dataLayer.push(arguments)};

  gtag('consent', 'update', {

    'ads_storage': {{variabile con valore ads}}

  });

</script>

 

Perché usare il GCM?

Google Consent Mode rende sicuramente più facile l’implementazione dei tag Google, ci mette nelle condizioni di non dover bloccare manualmente i tag rischiando di commettere errori sui parametri e soprattutto errori di distrazione che, magari, ci fanno pubblicare dei tag senza rispettare le regole del GDPR.

Perché aspettare?

Google Consent Mode, purtroppo rende difficile la gestione degli eventi scattati prima di aver accettato i cookie. Questo vuol dire che ogni evento scattato prima di aver accettato i cookie viene perso, anche nel caso si tratti di una pageview.
Questo può provocare la perdita dei parametri utm e quindi delle informazioni legate a canali e campagne. Inoltre potrebbe provocare un aumento delle landing page not set.

Possiamo sperare che nei prossimi mesi venga rilasciata una versione ottimizzata del tool ma, per il momento, installandola si incorrerà in questi problemi.

In conclusione...

Speriamo che questa guida a Google Consent Mode ti sia stata utile, se hai ancora dei dubbi puoi contattarti senza problemi da qui, saremo felici di aiutarti!

NON PERDIAMOCI DI VISTA
VUOI RICEVERE AGGIORNAMENTI?
SEGUICI SUI SOCIAL

Copyright 2022, Digital Pills SRL
Via Stampatori 4, 10122 | Torino, Italia
P.IVA: IT12183450019

unnamed-3

Certificato n. 2728 QM