28 Aprile 2022

Google Analytics 4: addio Universal Analytics

Come annunciato pochi giorni fa, Google Analytics 4 diventerà a partire da luglio 2023 l'unico tool di analisi di casa Google.
Prima di tutto ci teniamo rassicurarti: questo cambiamento rappresenta una grande opportunità per i business digitali poiché Google Analytics 4 con il suo nuovo data model e le sue novità offre (quasi) illimitate possibilità di arricchimento dei dati e scoperta di insight utili per la crescita.

Se sei nuovə sul nostro Journal, ecco alcuni articolo pubblicati in precedenza su Google Analytics 4 che potrebbero interessarti:

Se vuoi lavorare con noi all'implementazione di Google Analytics 4 contattaci compilando questo form:

Perché è importante parlare di Google Analytics 4?

Google ha annunciato che a luglio 2023 Universal Analytics verrà dismesso

Google Analytics 4 diventerà lo strumento unico di Google di riferimento per le analisi multipiattaforma.

A partire dal 1° luglio 2023 tutte le proprietà standard di Universal Analytics smetteranno di processare i dati mentre quelle relative a Universal Analytics 360 cesseranno definitivamente la loro attività il 1° ottobre 2023.

I report saranno ancora visibili per pochi mesi, tuttavia lo storico dei dati raccolti su Universal Analytics non verrà migrato automaticamente sulle nuove properties GA4.

Cosa cambia da Universal Analytics?

Avevamo parlato del nuovo Google Analytics e delle differenze con la versione precedente già in questo articolo, ma in questo cerchiamo di raccontarti i cambiamenti senza entrare troppo nel dettaglio, per darti un'overview.

Vedremo quindi:

  • il data model, ovvero modello event based di Google Analytics 4
  • il modello app+web
  • i vantaggi lato advertising per la creazione di audience
  • le maggiori possibilità esplorative
  • la connessione con Google Big Query
  • le novità in ambito privacy e anonimizzazione dei dati

Modello event based

Il nuovo Data Model di GA4 è completamente diverso da quello di Universal Analytics; a differenza del precedente sistema di monitoraggio fortemente improntato sul concetto di sessione, il nuovo Data Model è stato sviluppato secondo il paradigma “event based”. In Google Analytics 4 ogni interazione rappresenta un evento, persino la classica visualizzazione di pagina e l’utente diventa fulcro delle analisi.

Modello app + web

Sicuramente una delle novità più interessanti è la possibilità di integrare all’interno della stessa property (Data Streams all’interno di Firebase) i dati del tuo sito web e di eventuali app (Android e iOS).

In questo modo sarà possibile misurare le interazioni tra diverse piattaforme e ottenere una visualizzazione olistica del proprio ecosistema. Per unificare la user journey tra i diversi ambienti sarà necessario assegnare allo user un unico identificativo comune tra le diverse piattaforme.

Creazione di audience più avanzate per le campagne tramite algoritmi di Machine Learning

Le audience di Google Analytics 4 consentono la creazione di segmenti più specifici e avanzati di utenti che possono essere automaticamente condivisi con Google Ads in maniera dinamica a seconda dell’accettazione da parte dell’utente delle funzionalità di remarketing.

Grazie all’utilizzo di avanzati sistemi di Machine Learning è anche possibile creare “predictive audience” (esempio: utenti che verosimilmente effettueranno un acquisto nei prossimi 7 giorni, utenti che verosimilmente nei prossimi 7 giorni non torneranno a visitare il sito web) in modo da affinare le campagne di remarketing e re-engagement.

Maggiori capacità esplorative

Google Analytics 4 permette di customizzare la propria interfaccia per poter mettere in risalto le metriche e i trend più in linea con le proprie necessità. Inoltre, la sezione “Explore” (precedentemente fruibile unicamente degli utenti 360) è messa a disposizione gratuitamente, dando la possibilità di creare rapidamente report custom di varia complessità favorendo l’esplorazione dei dati in modalità self-service.

Connessione nativa a BigQuery

Con Google Analytics 4 viene data inoltre la possibilità di attivare gratuitamente l’esportazione dei dati raw su Google BigQuery, uno strumento utile e potente per analizzare ancora più in dettaglio i dati grezzi provenienti dalla piattaforma.

Aggiornamenti importanti in tema privacy e anonimizzazione dati

Da un recente annuncio (23/03/2022) Google ha dichiarato che entro poche settimane introdurrà una nuova modalità di processamento dei dati per ottemperare alle esigenze privacy dettate dal GDPR. I dati raccolti su property GA4 europee infatti verranno processati su server europei, nei quali gli indirizzi IP verranno anonimizzati senza lasciare traccia degli originali, prima di essere trasferiti sui server americani.

In ogni caso, per avere il massimo livello di controllo sui propri dati e implementare tecniche di anonimizzazione ancor più forti, la soluzione di riferimento è GTM Server Side.

Come gestire la transizione?

Lavoriamo insieme ai nostri clienti al passaggio a Google Analytics 4 da ormai parecchi mesi con risultati soddisfacenti sia in ottica di qualità che di arricchimento del dato e abbiamo raccolto alcuni consigli per te:

Consiglio 1. Creazione di uno storico dei dati

Seppur la data di dismissione di Universal Analytics sembri lontana, è importante iniziare a migrare tutte le property con buon anticipo e almeno un anno prima dalle date ufficiali proposte da Google, in modo tale da avere uno storico di dati da poter poi confrontare successivamente. Se non lo si ha ancora fatto, è importante iniziare ad attivarsi per impostare sin da subito il nuovo sistema di tracciamento.

Consiglio 2. Esportazione dei dati di Universal Analytics

Quando Universal Analytics verrà dismesso, i dati collezionati fino a quel momento saranno fruibili solamente per pochi mesi dalla data di dismissione. È importante quindi, se si tiene allo storico dei propri dati, procedere con l’esportazione dei report essenziali.

Consiglio 3. Approfittare del cambiamento e rivedere la data strategy

Non accontentarsi della semplice migrazione: il cambio di strumento fornisce l’occasione di poter rivedere la strategia di tracking utilizzata fino a quel momento per poterla adattare al meglio alle proprie esigenze. È sconsigliato procedere con una semplice duplicazione degli eventi finora raccolti.

Cosa possiamo fare insieme?

Persone Vicino Al Tavolo

Il nostro obiettivo è accompagnare le aziende con cui lavoriamo in un processo di crescita data driven, ovvero sfruttare i dati per conoscere gli utenti e sviluppare una strategia digitale vincente.

Lavoriamo in un'ottica partecipativa con gli stakeholder aziendali seguendo queste fasi:

  • Definizione della Data Strategy

Supporto strategico mirato a comprendere le esigenze degli stakeholder e tradurle in KPIs del sistema di tracciamento. L’output consiste in un documento statico di linee guida in cui verranno elencati i requisiti funzionali del sistema.

  • Setup e implementazione sistema di tracking con Google Analytics 4 anonimizzato 

Implementazione di tracciamenti web tramite Google Tag Manager e Google Analytics 4. Include il QA dei dati raccolti. 

  • Implementazione GDPR compliant 

Adattamento dei tracciamenti in modo che siano in linea con le regole privacy aziendali e adeguate alla normativa vigente GDPR tramite l’implementazione anonimizzata.

Se vuoi maggiori informazioni puoi contattarci cliccando qui oppure visualizzare più dettagli sul servizio cliccando il bottone qui sotto:

Abbiamo inoltre sviluppato un workshop intensivo rivolto ai team aziendali che vogliono esplorare lo strumento e acquisire tutte le competenze per poter utilizzare Google Analytics 4 in autonomia: lo trovi qui.

Speriamo che questo articolo ti sia stato utile!
Se hai domande o dubbi scrivici: non vediamo l'ora di parlarne con te.

14 Febbraio 2022

Il Server Side Tagging fa al caso tuo?

Summary

Il Server Side Tagging è una soluzione di tracciamento recentemente molto discussa per i suoi vantaggi. A differenza del Client Side Tagging, una soluzione di tracciamento lato server sposta l’elaborazione e l’invio dei dati raccolti dal dispositivo finale dell’utente al server.

Il Server Side Tagging comporta diversi vantaggi, sia per gli utenti che per le aziende. In primis, le aziende che lo adottano diventano pienamente proprietarie dei dati raccolti, potendo gestire in maniera strategica cosa fare dei propri dati. Spostare l’onere di raccolta dati al server migliora inoltre le prestazioni del proprio sito, garantendo un’esperienza utente e una SEO tecniche migliori.

I dati raccolti attraverso un sistema server-side possono essere elaborati ed integrati da diverse fonti prima di inviarli ad altri servizi, aprendo nuove opportunità di analisi. Infine, una soluzione Server Side permette di non dipendere per la raccolta dati da cookie di terze parti (ormai bloccati da sempre più dispositivi); questo ovviamente dovendo rispettare i consensi espressi dagli utenti.

Tale soluzione non è priva di svantaggi: comporta un aumento dei costi per la gestione dei server ed implica la responsabilità delle aziende nel rispetto dell’utilizzo dei dati raccolti. Si tratta inoltre di una soluzione non ancora pienamente matura, ma sul quale l’attenzione crescente di grandi aziende potrebbe portare presto novità.

Capire se una soluzione Server Side fa al caso proprio deve essere una scelta strategica da valutare attentamente, avvalendosi dell’esperienza di professionisti.

Introduzione

Il termine Server Side Tagging è di sicuro uno dei più caldi per chiunque si occupi di digital analytics, e per ottime ragioni.

Si tratta di una tecnologia già da tempo sul mercato (Google l’ha annunciato nella Superweek 2020 e qui puoi leggere il nostro resoconto), ma che recentemente ha raccolto sempre più interesse. Una ragione di questo interesse è sicuramente l’attuale contesto digitale, dominato da discussioni su temi come privacy, proprietà dei dati e ruolo delle Big Tech.

In questo clima di cambiamenti inaspettati e allarmismi sull’uso di tecnologie (vedi il caso di Google Analytics “dichiarato illegale” in Austria), una soluzione di Server Side Tagging è diventata sempre più interessante per chi voglia continuare a raccogliere dati sui canali digitali, ma voglia tutelarsi da molti problemi che questo comporta.

Vediamo assieme di cosa significa utilizzare una soluzione di Server Side Tagging, quali vantaggi e svantaggi offre, e come capire se fa al caso tuo.

Client-side e Server-side tagging

Per capire di cosa si tratta, occorre fare un piccolo passo indietro su come funziona a grandi linee il web.

Nella navigazione online, esistono due grandi sfere di attività: il lato client ed il lato server.

Per spiegare in che modo questi due ambiti interagiscono, può essere utile adoperare la metafora di un ristorante.

Vi sono clienti che ordinano piatti, camerieri che prendono e portano gli ordini ed una cucina che li riceve, prepara e fa uscire una volta pronti.

Il lato client, ovvero quello dei clienti, è quello dove sarà possibile vedere quanto richiesto; l’insieme di informazioni e codici che inviati al proprio dispositivo ci permette di visualizzare prodotti digitali come una pagina web.

Il lato server è invece dove vengono ricevute le richieste di informazioni dagli utenti finali, si ricercano e preparano i dati necessari, ed infine vengono inviati agli utenti finali.

Sicuramente usare un ristorante per spiegare come funziona internet è una semplificazione. Ma se applichiamo lo stesso modello per miliardi di clienti che possono mandare innumerevoli richieste a milioni di cucine e che questo scambio avviene in pochi millisecondi, si arriva a comprendere come funzioni il tutto.

Come si applica al Tagging?

Nella digital analytics, l’uso di soluzioni di tagging (i.e. Google Tag Manager) permette di impostare un sistema di raccolta dati efficiente senza il bisogno di tempi di sviluppo. Tutto questo si svolge solitamente lato client, caricando assieme al contenuto richiesto stringhe di codice necessarie per raccogliere informazioni su come l’utente utilizzi un sito. Le informazioni vengono raccolte e inviate direttamente lato client a servizi esterni come Google Analytics o Facebook, che le utilizzeranno per altri prodotti.

Fin qui sembra tutto abbastanza chiaro, ma riprendiamo la metafora del ristorante per capire in che modo questa soluzione possa fallire.

Un cliente ordina un piatto da mangiare, la cameriera porta la richiesta in cucina (il server) che si occupa di preparare il piatto richiesto. Nell’inviare il piatto al cliente, la cucina aggiunge alcuni ingredienti da assaggiare assieme a piacere (gli script di tracciamento). Questi servono per aiutare la cucina a capire cosa piace al cliente (i.e. Analytics) e permettere ad altre cucine di offrire al cliente piatti simili (i.e. servizi di advertising).

A questo punto il cliente si troverà ad avere, oltre al suo piatto, diversi ingredienti da assaggiare assieme a suo piacimento. Ma per indicare una sua preferenza dovrebbe essere lui stesso a portare indietro i piatti vuoti per indicare cosa gli è piaciuto; non ad una singola cucina ma alle diverse cucine che si occupano di quegli ingredienti!

Inutile dire che molti clienti non avranno alcun interesse a riportare indietro i piatti e dire cosa è piaciuto e cosa no. Inoltre, con troppi ingredienti extra al tavolo sarebbe più difficoltoso mangiare (o visitare un sito) e genererebbe una pessima esperienza.

Quello che abbiamo appena descritto è sostanzialmente la condizione attuale delle soluzioni di tracciamento client-side, in cui l’onere di raccogliere ed inviare le informazioni è in carico agli utenti finali; in cui aggiungere troppi servizi esterni ai propri tracciamenti può appesantire eccessivamente la navigazione, rendendo poco piacevole l’esperienza utente su un sito.

Per ovviare a questi ed altri problemi, la soluzione migliore è passare ad una soluzione lato Server

Come funziona il Server Side Tagging

Non entreremo nel tecnico (per chi volesse, ne abbiamo parlato in un articolo dedicato), ma occorre capire in che modo il Server Side Tagging si distingua dal Client Side.

In primis, chiariamo che le due soluzioni non sono esclusive l’una dell’altra. Anzi possono e dovrebbero convivere per assicurarsi una soluzione di digital analytics completa.

Mentre nel tagging client side l’onere di elaborare ed inviare i dati viene demandato agli utenti, nel Server Side Tagging, una volta ricevute dal client le informazioni, l’intera attività di elaborazione ed invio viene gestita dai server stessi.

Per tornare alla metafora, il cliente dopo aver consumato il pasto non dovrà occuparsi personalmente di portare i piatti vuoti a diverse cucine, ma basterà che li riporti alla prima cucina a cui si è rivolto, la quale si occuperà in prima persona di capire cosa ha mangiato e cosa ha apprezzato, comunicandolo ad altre cucine interessate.

Sicuramente un bel risparmio di fatica per il cliente, che porta potenzialmente agli stessi se non a migliori risultati che nella soluzione lato client.

Come ogni cosa però una soluzione Server Side comporta alcuni svantaggi che vale la pena approfondire.

Vantaggi del Server Side Tagging

Vediamo nel dettaglio i vantaggi di una soluzione di tagging server side.

1. Migliori prestazioni del sito

Come già menzionato, adottare una soluzione Server Side significa ridurre la necessità lato client di caricare diversi script per inviare dati. Questa riduzione delle informazioni da inviare si traduce in una maggiore efficienza e velocità del caricamento pagine, migliorando sia l’esperienza utente che la SEO tecnica del proprio sito.

2. Pieno controllo dei dati raccolti

Implementare una soluzione server significa aggiungere un layer aggiuntivo di filtro, dove è possibile decidere come gestire i dati raccolti, quali elaborazioni svolgere e dove inviarli. Questo permette di essere certi di escludere informazioni sensibili o personali dai dati inviati a servizi terzi (come mail o password); così come essere certi di inviare la stessa informazione a diversi punti assicurando così la coerenza dei dati su diversi sistemi.

Applicare un tracciamento lato server significa non dover più dipendere obbligatoriamente da cookie di terze parti per inviare loro informazioni. Diventa infatti possibile non impostare per nulla tali cookie lato client ma gestire l’invio di informazioni totalmente lato server. Attenzione però: questa possibilità non implica che sia possibile non considerare le preferenze espresse dall’utente in termini di trattamento dei dati. Tali consensi dovranno sempre essere rispettati, ma sarà possibile non essere penalizzati da browser e sistemi operativi che blocchino a priori i cookie di terze parti.

4. Possibilità di integrare dati da diverse fonti

Infine, avere una soluzione Server Side significa poter non solo raccogliere dati dal proprio sito, ma poterli arricchire grazie ad informazioni di altri servizi utilizzati. Diventa infatti possibile collegare Analytics al proprio CRM, aggiungendo informazioni dal CRM agli Analytics e al contempo registrare le interazioni svolte dall’utente. La possibilità di incrociare ed elaborare dati da diverse fonti permette in tal modo di espandere notevolmente le capacità di analisi.

Svantaggi del Server Side Tagging

Il Server Side Tagging, per quanto rappresenti diversi vantaggi rispetto al Client Side, ha alcuni importanti svantaggi da considerare:

1. Raccolta dati opaca

Le soluzioni Server Side spostano l’attività di raccolta dati nel “dietro le quinte”, rendendo effettivamente difficile per gli utenti sapere in che modo i loro dati vengano raccolti e ancora più difficile dove vengono inviati.

Se infatti con le soluzioni Client side per inviare dati a servizi esterni è necessario impostare cookie di terze parti, che permettono di risalire al servizio in questione, con una soluzione Server Side questo principio crolla, in quanto i dati raccolti saranno inviati solo successivamente dal server, non dandone visibilità chiara all’utente.

2. La gestione del consenso è in mano alle aziende

Adottando una soluzione server side, l’invio dei dati da parte del cliente passa da diversi flussi diretti a molteplici servizi, ad un singolo flusso diretto al server. Questo significa che il modo in cui i dati vengano raccolti ed inviati è completamente in carico alle aziende, che dovranno occuparsi di elaborare e smistare i dati in modo tale da rispettare il consenso espresso dagli utenti all’uso dei loro dati.

3. Costo

Per poter effettivamente usufruire di una soluzione lato server è richiesto, appunto, un server. Tale server può essere proprietario o affittato tramite servizi cloud come Google Cloud Platform, che offre inoltre il grande vantaggio di essere integrabile con l’ecosistema di servizi Google. 

In ogni caso, tali server hanno costi di mantenimento, seppur solitamente ridotti, che vanno considerati in fase di decisione.

4. Bassa maturità del servizio

Anche se si tratta di una tecnologia abbastanza consolidata, sono ancora diversi i servizi che non dispongono dell’infrastruttura web necessaria per essere integrati con le soluzioni di tracciamento lato server. Questo punto andrà sempre più a ridursi con la progressiva adozione di questa soluzione e il relativo interesse a sviluppare un ecosistema integrato attorno ad essa.

Conclusione

Il Server Side Tracking rappresenta un'importante innovazione nel panorama del Digital Analytics, garantendo alle aziende di diventare realmente proprietari dei dati raccolti sui loro siti. Questo vantaggio chiave porta con sé grandi opportunità ma anche importanti svantaggi da considerare. 

In ultima analisi, la valutazione di fattibilità e convenienza di questa soluzione deve essere una scelta ragionata e tenere conto delle specificità della propria azienda.

Diciamo che in linea di massima il Server-Side tracking è la soluzione migliore per:

  • Chi fa investimenti consistenti in advertising ed é interessato a mantenere o migliorare le performance
  • Aziende data-driven per cui l’affidabilità del dato é importante

Se pensi che sia quello di cui hai bisogno in azienda, o semplicemente vuoi saperne di più, contattaci scrivendo a hello@digitalpills.it e saremo felici di aiutarti!

27 Gennaio 2022

Google Analytics è illegale?

In breve: che cosa è successo in Austria e che cosa dobbiamo fare

Una recente sentenza della Corte di Giustizia Europea ha riconosciuto la possibilità di proibire il trasferimento di dati verso altri Paesi, se non presenti le condizioni per garantire il rispetto del GDPR. 

Questo potrebbe compromettere l’utilizzo di Google Analytics i cui dati sono trasferiti a Google LLC, negli Stati Uniti, poiché il modo in cui questi dati vengono utilizzati in USA potrebbero non essere conformi alle normative europee.

Google però non è stata ritenuta colpevole di alcuna violazione a differenza dei gestori del sito web, rei di aver permesso il trasferimento di dati identificativi quali indirizzi IP e identificativi utenti.

Al di là dei futuri interventi che Google credibilmente metterà in campo per ridimensionare il problema, è sufficiente anonimizzare le PII e gli indirizzi IP lato client o implementando un tracking server side per ridurre il rischio di trattamento inadeguato e trasferimento di dati personali.

Leggi l'articolo oppure scarica il nostro report.

Privacy online: contesto e tendenze

All’interno di un contesto internazionale pieno di stravolgimenti relativi a rispetto della privacy online e sovranità dei dati, la sentenza Schrems II ha segnato un punto di svolta nella sfera del trattamento dei dati degli utenti.

La Schrems II è una sentenza della Corte di Giustizia Europea che ha riconosciuto la possibilità di interrompere o proibire il trasferimento dei dati verso stati terzi (in particolare USA) se non presenti e garantite le condizioni per rispettare gli standard di protezione dei dati.

La domanda alla base della sentenza può essere riassunta così: se i dati raccolti e storati in Europa sono obbligatoriamente gestiti secondo le normative del GDPR, cosa succede ai dati raccolti in Europa ma trasferiti all’estero, in Paesi in cui vige una legislazione diversa e potenzialmente incompatibile con quella europea?

La domanda acquista rilevanza se riferita agli USA in cui gli enti governativi hanno accesso ai dati delle società americane.

Questa sentenza sembrerebbe avere ripercussioni dirette su Google Analytics, i cui dati raccolti vengono trasferiti presso la Google LLC, negli Stati Uniti, indipendentemente dal Paese in cui vengono raccolti.

La Schrems II non ha però riconosciuto alcuna responsabilità a Google, rendendo chiaro come non sia corretto affermare che Google Analytics sia illegale in Austria o in qualsiasi altro Paese d’Europa

A essere colpita dalla sentenza è stato invece il provider del sito, reo di aver permesso il trasferimento di dati personali, compresi identificativi utente, indirizzi IP e parametri del browser a Google LLC, rendendo gli utenti identificabili.

Cosa succederà e come possiamo agire?

Come si stanno muovendo quindi gli attori in gioco e come possiamo muoverci noi per tutelarci da violazioni del GDPR?

Google ha già recentemente affermato di voler iniziare a muovere i primi passi verso una conservazione dei dati all’interno del territorio in cui vengono raccolti, per essere sicuri di non creare violazioni e contrasti con le leggi vigenti nel Paese.

Noi abbiamo la possibilità di ridurre il trattamento dei dati personali non adeguati semplicemente utilizzando tecniche di anonimizzazione dei dati legati a indirizzi IP, nomi, email, numeri di telefono o qualsiasi altra informazione che possa ricondurre a un singolo individuo.

Praticamente le armi a nostra disposizione sono:

  • Anonimizzazione delle PII all’interno degli URL o di parametri raccolti attraverso javaScript lato client o implementando GTM Server Side
  • Anonimizzazione degli indirizzi IP tramite anonimizzazione standard (che Google assicura essere efficace solo dopo che i dati sono giunti al server locale più vicino) o tramite implementazione di GTM Server Side sicura al 100%

Nessun bisogno quindi di cambiare Data Stack. Google Analytics, per performance e potenzialità, rimane il tool di riferimento per il mondo degli analytics.

Scarica il nostro report per avere maggiori dettagli su che cosa é successo e quali sono le soluzioni che possiamo offrire noi di Digital Pills:

Clicca sull'immagine per scaricare il report gratuito

15 Ottobre 2021

KPI: cosa sono e come sceglierli

Con questo articolo vediamo cosa sono i KPI e a cosa servono.

Scegliere e monitorare i giusto KPI é di fondamentale importanza, sia a livello generale per un business, che a livello specifico, come ad esempio per una campagna marketing.

Come avrai modo di vedere nell’articolo, usare i KPIs vuol dire usare i dati, ecco perché noi di Digital Pills ci siamo affezionati.

Vediamo allora

…e alcune considerazioni finali.

Partiamo!

Cosa sono e a cosa servono i KPI

Un KPI è un indicatore che mette in mostra il successo o l’efficacia di un’azione fatta su un progetto con lo scopo di raggiungere un determinato obiettivo.

I KPIs sono necessariamente delle metriche o dei rapporti tra metriche, ma non vale il contrario, cioè non qualsiasi metrica è, o può essere, un KPI.

Per noi che lavoriamo nel mondo del web analytics la definizione potrebbe essere questa

Un KPI é una misura che ci indica il successo o l'efficacia di un'azione con lo scopo di raggiungere un determinato obiettivo.

Un KPI si può anche definire come:

una misura che dice se un’azione compiuta porta risultati positivi o negativi in rapporto a quello che è il goal finale.

Disporre gli obiettivi in termini numerici permette davvero di usare questi indicatori al meglio, perché rende possibile confrontare i numeri con i numeri, sapendo esattamente a che punto si é.

Le Caratteristiche

Quando si sceglie un KPI va sempre tenuto a mente che, tanti o pochi che siano, bisognerà sempre considerarli in modo gerarchico, con 1 KPI guida, o alcuni MACRO KPI, e più KPIs secondari, detti anche MICRO KPI, che abbiano la caratteristica di essere più controllabili e gestibili.

Per capire meglio:

Nel caso di un sito di informazioni nato da poco, supponiamo una testata giornalistica online, con l'obiettivo di attirare sempre più visitatori e di veder letti i propri articoli di qualità.

I Macro KPIs potrebbero essere il numero di New Users ed il Avg. Time on Page, mentre i Micro KPIs porebbero essere il Bounce Rate, Sessions e Number of sessions per user. 

Lavorando infatti per migliorare Bounce Rate e Numero di sessioni, è altamente probabile che migliorino anche i Macro KPIs.

3 Criteri essenziali per i KPI

Un KPI che si rispetti dovrebbe soddisfare 3 criteri essenziali, deve essere:

RILEVANTE: deve dare un’indicazione immediata sullo stato di salute del business, o di un qualsiasi progetto a cui il KPI si riferisce, a livello generale.

FACILE: deve essere facilmente comunicabile e immediatamente trasmissibile, lo devono capire anche gli altri con facilità.

CONTROLLABILE: non soltanto deve poter essere rappresentabile come numero o trend, ma deve dare indicazioni precise su come poter agire e migliorare immediatamente.

E' molto difficile trovare un KPI dotato di tutte queste 3 caratteristiche contemporaneamente, più si avvicina ad esse, maggiore sarà l’efficacia e l’accuratezza che lo contraddistinguono.

In generale la caratteristica della rilevanza non riesce a convivere con quella della controllabilità, ecco un esempio:

Nel caso di un e-commerce che vende abbigliamento, il KPI fondamentale è ovviamente quello delle vendite, l’obiettivo è vendere sempre più prodotti, magari con un +5% sul numero di pezzi al mese. Se le vendite sono il Macro KPI, i Micro KPIs potrebbero essere il Bounce Rate, le Sessioni da social ed il Posizionamento medio, individuate come le variabili più influenti sul Macro KPI.

Ecco che per poter intervenire e controllare il KPI principale si è dovuti scendere su un secondo livello, perdendo così di rilevanza.

Supponendo che il Bounce Rate sia il Micro KPI più correlato al principale, questa metrica, una volta migliorata, porta in modo diretto miglioramenti al KPI guida. 

In generale, se riesci trovare quella singola metrica che una volta toccata influisce sul Macro KPI, questa viene definita come "that one that matters the most".

Un ultimo aspetto da considerare quando definisci i Key Performance Indicators è di scegliere delle metriche ortogonali. Questo almeno per i Micro KPI, in modo da avere toccate aree diverse del proprio business, ma soprattutto per evitare di avere più KPI che forniscono informazioni simili.

I KPIs da evitare e quelli da scegliere

Esistono anche alcune metriche che non devono essere assolutamente scelte come KPIs.

Sono detti Vanity Metrics gli indicatori che in realtà non ti dicono nulla sulle reali performance del tuo progetto, né tantomeno ti aiutano a comprendere l’efficacia dei tuoi aggiustamenti o implementazioni sul campo.

Un esempio di questa tipologia di metrica sono i followers della pagina social. Se pubblichi con regolarità o semplicemente interagisci giornalmente con i tuoi utenti, è naturale che il loro numero aumenti. Questo avviane perché guadagni in visibilità organica senza fare alcuna implementazione, quindi questa non è assolutamente una buona metrica da scegliere come KPI.

Un'altra tipologia di metriche da evitare sono le cosiddette Lagging Metrics. Queste infatti sono metriche di natura retroattiva, che non danno nessuna informazione sullo stato presente del tuo business. Lo è per esempio il numero di utenti dello scorso mese.

Sono invece da scegliere Leading Metrics. Queste sono metriche di prospettiva, su cui si può lavorare e intervenire ora per un riscontro futuro. Sono Leading metrics in sostanza tutte le metriche non appartenenti alle 2 categorie precedenti, su cui si può lavorare e osservare un risultato delle proprie implementazioni.

Infine...

Hai sicuramente capito cosa sono i KPI e che sono di fondamentale importanza, non solo per poter monitorare un progetto, ma anche per porre degli obiettivi ad un team, o ad un intero business.

Ti guidano con i dati e sono il feedback più immediato che puoi avere rispetto alle tue azioni!

Sono uno strumento potentissimo, ma dato che li scegli tu, devi essere molto attento. Segui bene tutte le indicazioni che hai letto fino a qui, scegli con cura e monitora attentamente.

Prima ancora dei KPIs capisci bene quali sono gli obiettivi del tuo sito e in quale fase di evoluzione sei, ed evita di fare gli errori più comuni leggendo questo articolo, questo ti aiuterà a partire con il piede giusto 😉

Per oggi è tutto,

se hai domande Contattaci, saremo felici di aiutarti!

29 Settembre 2021

Facebook Conversion API: cos’è e come può aiutarti

Raccogliere dati sulle proprie campagne social è una delle basi di una strategia di advertising data-driven. Ma la qualità dei dati disponibili è oggi più che mai messa a rischio da aggiornamenti di settore su privacy e cookie. Il risultato? Il concreto rischio di basare decisioni (ed investimenti) su dati poco accurati e addirittura sbagliati.

Per rispondere ai nuovi sviluppi del settore social advertising e assicurarsi di avere dati affidabili su cui basare strategie efficaci, giunge in aiuto una novità: Facebook Conversion API.

In questo articolo esploreremo perché si tratta di una novità importante nel mondo della raccolta dati, quali sono le sue caratteristiche, vantaggi e best practice, e infine vedremo come sia possibile impostarlo e verificarne il corretto funzionamento.

Privacy e dati: Apple, ATT ed il futuro dei cookie

Con il rilascio di iOS 14.5 ad Aprile 2021, Apple non ha solo introdotto nuove funzionalità, ma ha innescato un cambiamento generalizzato nel trattamento dei dati e nella tutela della privacy degli utenti.

Con quest'ultimo aggiornamento è diventato standard per i prodotti Apple il nuovo framework per la privacy, che prevede due grandi novità:

  • Intelligent Tracking Prevention (ITP), che blocca automaticamente tutti gli accessi a cookie di terze parti e limita la funzionalità di cookie di prime parti
  • App Tracking Transparency (ATT), che ha introdotto l’obbligo per tutte le app di comunicare chiaramente agli utenti quali dati collezionano e chiederne il consenso esplicito.

L’introduzione di questi due framework ha generato una forte risposta da aziende concorrenti e da chi si occupa di advertising, proprio perché minerebbe inevitabilmente una gran fetta delle attuali soluzioni per raccogliere dati e profilare efficacemente gli utenti.

Nonostante questo, è indubbio che la maggior parte degli attori nel settore tech si stiano muovendo per un futuro più orientato alla privacy e tutela degli utenti, a scapito di strumenti come cookie di terze e prime parti.

Ma per chi si occupa di dati come fare a compensare la scomparsa di questi strumenti? E in particolare, chi lavora con gli advertising sul network Facebook, quali soluzioni possono garantire affidabilità dei dati?

Per rispondere a queste esigenze, nasce il Facebook Conversion API.

Cos’è Facebook Conversion API?

Conversion API è uno strumento della suite Facebook Business che consente di condividere direttamente le azioni dei clienti o i principali eventi web e offline dal proprio server a quello di Facebook.

Si tratta nella pratica dell’evoluzione del Server-Side API di Facebook, potenziato con maggiori funzionalità, un’interfaccia più intuitiva e un più chiaro obiettivo.

Il valore aggiunto di questa soluzione rispetto al tradizionale pixel è la sua indipendenza dai cookies. Trattandosi infatti di una soluzione lato server non è soggetta alle restrizioni applicate ai cookie lato client, causa spesso di inaffidabilità dei dati raccolti.

Ma attenzione, non si tratta di una soluzione perfetta così da sola!

Questo strumento non si pone come sostituto del Pixel, quanto semmai un ulteriore strumento adottabile per la raccolta dati e miglioramento delle performance delle campagne Facebook.

Non va poi dimenticato che, come ogni altra soluzione di raccolta dati, è vincolato e regolato dalle normative di gestione della privacy. Aspetto questo ancora più importante, dato che la responsabilità di identificare quali informazioni tracciare è in carico a chi implementa questa soluzione.

Una volta capito di cosa si tratta, è il momento di approfondire meglio cosa è in grado di fare!

Funzionalità del Conversion API

Tramite Facebook Conversion API (CAPI), è possibile tracciare tre tipologie di dati:

  • Conversioni web (vendite, iscrizioni)
  • Eventi post-conversione
  • Visite alla pagina

A differenza del solo pixel, permette di migliorare l’intero funnel di vendita integrando dati da CRM e non solo. Inoltre, permette la raccolta di dati richiesti per attività come:

  • Ad targeting (come custom audiences and retargeting)
  • Ad reporting
  • Audience Insights
  • Dynamic ads
  • Conversion optimization per Facebook ads

Vi sono poi specifiche versioni del Conversion API per app e vendite offline che permettono di tracciare eventi app, vendite in negozi fisici e visite a location.

Si tratta insomma di una soluzione molto personalizzabile in base alle proprie necessità. Per capire meglio quali siano i vantaggi per gli utenti, vediamo nei dettagli quali siano i maggiori benefici e le modalità con cui implementare il tutto.

Vantaggi e best practice de Facebook Conversion API

I principali vantaggi di adottare Facebook Conversion API per il proprio sito sono tre:

  1. Più modi a disposizione per misurare le azioni degli utenti
  2. Migliore accuratezza dei dati per la targetizzazione, misurazione ed ottimizzazione (se usato assieme a pixel)
  3. Maggiore controllo dei dati condivisi con Facebook (separandolo dal pixel)

Per massimizzare i vantaggi che questa soluzione offre, le linee guida di Facebook suggeriscono di implementare le Conversions API in aggiunta al Facebook pixel.

Adottare una doppia implementazione permette infatti di collegare gli eventi raccolti da entrambi, andando a ridurre sensibilmente la potenziale perdita di dati utenti (ad esempio a causa di blocco dei cookie o errori del web browser).

Fonte: developers.facebook.com

Se correttamente implementata, pur avendo due strumenti di raccolta dati in contemporanea, non dovrebbero generarsi dati duplicati in fase di analisi. 

Facebook infatti è in grado di applicare autonomamente un processo di “deduplicazione”: se entrambi gli strumenti registrano l’evento, Facebook compara i parametri event e eventID del pixel con i parametri event_name e event_ID del conversion API. 

Parametri pixelParametri Conversion API (devono combaciare)
eventevent_name
eventIDevent_ID

Se questi parametri sono identici, verranno raccolti entrambi ma nell’analisi verrà automaticamente eliminato uno dei due, eliminando il rischio di dati duplicati.

Cosa puoi fare con i dati raccolti

I dati provenienti da pixel e conversion API possono essere raccolti congiuntamente e venire utilizzati in modi affini per:

  • Ottimizzazione delle inserzioni, compresa l’ottimizzazione delle conversioni e quella del valore
  • Analisi e visualizzazione sulla maggior parte delle stesse piattaforme, tra cui Gestione inserzioni e Gestione eventi
  • Rispettano e sono sottoposti agli stessi controlli e limitazioni di Facebook

Vediamo assieme alcuni casi pratici dove l’utilizzo dei dati raccolti tramite conversion API rappresenta un vantaggio.

Miglioramento dell’attribuzione

La capacità del pixel di tracciare dati è in costante calo (complici il prossimo abbandono dei cookie e le sempre più stringenti soluzioni per la privacy). 

Grazie al Conversions API è possibile risolvere queste mancanze, fornendo una migliore attribuzione delle conversioni.

Miglioramento della targetizzazione delle inserzioni di Facebook

Strategie come il retargeting funzionano solo se il tracking è affidabile. 

Senza il conversions API, la capacità di fare leva su queste funzioni andrà sempre più a ridursi.

Riduzione del costo per azione delle inserzioni di Facebook

L’invio di dati migliori all’algoritmo di Facebook raccolti tramite conversions API può ridurre il costo per azione (CPA) delle inserzioni. 

Conclusione

Facebook Conversion API rappresenta un nuovo strumento per la raccolta dati che permetterà sempre più di disporre di dati affidabili e non intaccati dall'abbandono di cookie e blocchi.

I vantaggi che offre sono molteplici, dalla maggiore ricchezza dei dati raccolti al miglioramente delle performance delle campagne di advertising sul network Facebook.

Per scoprire come implementare questa novità e come verificare il corretto funzionamento degli eventi settati, guarda il video a tema Facebook Conversion API caricato sul nostro canale YouTube

11 Settembre 2021

Che cosa caratterizza una buona visualizzazione dei dati?

In questo articolo vedremo cosa caratterizza un'ottima visualizzazione dei dati e daremo alcune dritte molto utili a chi lavora nel mondo della Data Visualization.

Leggi fino alla fine perché parleremo anche di uno strumento senza rivali in questo campo.

La disciplina della Visualizzazione dei Dati è in continua evoluzione, poiché se ne fa un uso sempre più ampio, in un numero di campi sempre maggiore.
Se all’inizio era solamente possibile trasformare i dati in grafici statici, l’evoluzione ha portato oggi a possibilità straordinarie.

Con tutte queste possibilità però, quali sono i principi guida o le basi che permettono di costruire buone visualizzazioni?

Gli aspetti fondamentali di una buona visualizzazione dei dati

Per costruire una buona visualizzazione, ricordati sempre questi tre aspetti fondamentali:

  1. La visualizzazione deve essere efficace.
  2. Deve evidenziare ed esplicare i dati e le connessioni tra dati troppo difficili da spiegare a parole.
  3. Deve rendere facilmente comprensibili a chiunque le informazioni presentate e le possibili soluzioni ad un problema di cui si sta presentando.

Ecco un perfetto esempio: Le vendite di Nintendo nel corso di tempo e la ripartizione tra Software e Hardware.

Queste regole di base molto generiche, devono restare un must sia quando i dati da gestire e presentare siano tanti, che quando siano pochi.
La complessità del lavoro non deve farti rinunciare a queste linee guida.  Anzi, più è alta la mole di dati da gestire maggiore si rivela la necessità di seguire queste regole per arrivare ad un buon risultato.

Dopo aver compreso questi aspetti, la prima cosa da fare quando si pensa ad una visualizzazione è di capire esattamente quale messaggio devi trasmettere e con quali dati.
E’ molto importante anche avere chiaro chi sarà il fruitore della tua dashboard, per evitare di presentare informazioni giuste alle persone sbagliate, o viceversa.

Ancora un paio di regole per Visualizzazioni Efficaci

In linea generale, in un contesto aziendale ad esempio, è molto difficile che al direttore finanziario interessino i conversion rate delle ultime campagne di marketing, è molto più probabile che sia interessato alla spesa di queste campagne messa in relazione con i profitti che ha generato.

Di solito la complessità del lavoro deriva dal numero di variabili che ci sono in gioco: scegliere il grafico giusto fa la differenza!

Una distribuzione statistica di alcune variabili rappresentata con un grafico a torta sarà praticamente inutile, perché l’utente non riesce a cogliere il messaggio.
In generale, i grafici a torta o ciambella sono da evitare se le variabili sono più di 3, perché si arriva ad un punto dove la visualizzazione non è efficace, non riesce a trasmettere in modo chiaro il messaggio.

Per la visualizzazione della distribuzione statistica dei dati numerici, solitamente un istogramma o un box plot, se c'è interesse nelle sue modalità e valori anomali, sono la scelta più adatta.

Anche il modo di usare i colori può essere significativo.

Sempre nel caso di una distribuzione statistica, in presenza di valori anomali o di outliers, per metterli in evidenza ancora meglio sarà indicato usare dei colori accessi per farli risaltare e che possibilmente comunichino dei concetti già di per sé.

Se ad esempio in un mese particolare dell’anno ci sono stati dei ricavi al di sopra della media, si potrà evidenziare questo dato con un verde, colore che comunemente richiama una cosa positiva, mentre se in un altro mese ci sono stati dei costi fuori dalla media, questo potrebbe essere evidenziato con del rosso.

Si può poi usare lo stesso colore ad esempio, ma con sfumature diverse, avendo una sfumatura più intensa per i dati maggiori e una meno intensa per quelli minori.

Un'ottima visualizzazione dovrebbe ridurre la complessità insita nelle tante variabili dei dati e nel caso si dovessero compiere delle scelte, deve aiutare il processo decisionale.

In un progetto complesso, è ancora meglio se vengono presentati in modo gerarchico seguendo le priorità aziendali.

I principi più importanti

Nel complesso, indipendentemente dalle variabili e dalle osservazioni disponibili, bastano alcune regole pratiche per rendere le tue visualizzazioni un mezzo potente per illustrare il concetto alla base dei tuoi dati.
Esistono tantissime regole per le visualizzazioni, ne riportiamo ancora alcune che pensiamo siano importanti.

  • Attenzione a non far contrastare i colori dei grafici con il background
    La regola standard è quella di avere un background abbastanza neutro che ti possa dare la massima libertà in termini si sfumature e colori per i tuoi grafici. Regolati pensando anche al fatto che le dashboard potrebbero essere stampate.
  • Dai dei punti di riferimento per ogni variabile quando necessario.
    Se ad esempio fornisci i dati in termini di vendita per quest’anno, non tutti potrebbero sapere se si tratta di buone performances o meno, indipendentemente dal fatto che la curva sia in crescita o in decrescita.
    Mostrando invece anche i dati delle vendite dello scorso anno, chiunque potrebbe capire meglio, semplicemente avendo un punto di riferimento.
  • Etichettare i grafici a barre con i numeri, ma non troppo.
    E’ bene aggiungere solo le indicazioni strettamente necessarie per far comprendere. I numeri lunghi sono generalmente difficili da visualizzare. Se la precisione del dato non si rivela fondamentale, è consentito arrotondare. Ad esempio, il valore "10,523" può essere visualizzato come "10K" su un grafico a barre.
  • Dove possibile, ordina i dati per enfatizzare la scala, ma fai attenzione a non trasmettere un messaggio sbagliato.

In questa visualizzazione viene messo in evidenza la percentuale di persone che risponde ai sondaggi per settore di appartenenza.

Conclusioni

Queste erano alcune tra le più importanti direttive di cui potevamo parlarti.

Ricorda sempre: più riesci a togliere dalle tue visualizzazioni, meglio è. Devi lavorare con l’essenziale in termini di grafica, perché questo ti aiuta a seguire anche i principi di cui abbiamo parlato durante l’articolo.

I grafici che hai visto nell’articolo, tutti meno uno, sono stati creati con Tableau, un software di Data Visualization senza eguali.
Se vuoi scoprire tutte le potenzialità di questa piattaforma, e come sfruttarle al meglio, visita la pagina dedicata a Tableau! Dagli un'occhiata, siamo sicuri che non resterai deluso/a.

Se hai domande Contattaci, saremo felici di aiutarti 🙂

12 Agosto 2021

I 5 libri più belli sulla Data Visualization

In questo articolo abbiamo deciso di selezionare alcuni tra i migliori libri sulla Data Visualization che pensiamo siano i più utili in questo ambito.

La Data Visualization è una vera e propria scienza, per questo bisogna capirne le fondamenta, la storia, l’evoluzione, ed il modo di usarla.

Grazie ai 5 migliori libri sulla Data Visualization che stiamo per mostrarti, potrai fare un ulteriore passo in avanti, attraverso il fantastico strumento della visualizzazione, capendo come comunicare metriche, storie e dati complessi in modo conciso ed efficace, ma anche stimolante.

Questi sono i libri che abbiamo selezionato:

  1. “Data Visualisation: A Handbook for Data Driven Design” di Andy Kirk
  2. “Storytelling With Data: A Data Visualization Guide for Business Professionals” di Cole Nussbaumer Knaflic
  3. "Data Visualization - A Practical Introduction" di Kieran Healy
  4. “Infographics Designers’ Sketchbooks” di Steven Heller and Rick Landers
  5. “Beautiful Visualization, Looking at Data Through the Eyes of Experts” di Julie Steele, Noah Iliinsky

Vediamoli insieme!

Data Visualisation: A Handbook for Data Driven Design” di Andy Kirk

Questo libro votato tra i "6 migliori libri per i fanatici dei dati" dal Financial Times è un ottimo punto di partenza per approcciare e avvicinarsi alla materia, presenta tantissimi esempi di visualizzazioni e casi pratici, presi dal mondo reale, per far capire bene fino a dove si può spingere l'applicazione della Data Visualization.

Scritto con un linguaggio semplice e con tanti consigli pratici, fornisce anche accesso a tanti strumenti di analisi online più alcuni esercizi per potersi esercitare.
E' uno dei migliori libri per iniziare.

“Storytelling With Data: A Data Visualization Guide for Business Professionals” di Cole Nussbaumer Knaflic

Con questo libro la missione dell'autore è quella di insegnare ai lettori che non è sufficiente mostrare i dati, bisogna raccontare una storia. Knaflic mostra come andare oltre gli strumenti ed i processi tradizionali per raggiungere l'essenza dei dati: mette in evidenza i processi per creare delle dashboard che possano raccontare delle storie con un tasso di engagement molto alto e in un modo comprensibile a chiunque.

Si parla molto dell'audience e di come questa debba essere in grado di comprendere le dashboard, il lettore viene guidato per imparare a lavorare con la Data Visualization senza rischiare di rendere vano il proprio lavoro perché gli utenti finali non sono in grado di capire.

L'autrice ha lavorato per anni con organizzazioni data-driven aiutandole a diffondere i propri messaggi e ideali in forma visiva e questo libro racchiude tutta la sua esperienza.

Data Visualization - A Practical Introduction" di Kieran Healy

Se cerchi un libro che combina teoria ed esercizi pratici in modo facile e comprensivo, questo non può di certo mancare nella tua libreria. Scritto da un professore universitario, egli fornisce i risultati delle sue ricerche e di quelle dei suoi studenti con un focus speciale su R e ggplot2.

Che tu sia agli inizia o già un esperto/a, questo libro comunque ti mostra un lato della Data Visualization divertente ed un modo di comunicare in forma visuale poco conosciuto.

“Infographics Designers’ Sketchbooks” di Steven Heller and Rick Landers

Se non fai fatica nella gestione dei dati, ma nella parte di creazione delle dashboard, questo libro fa al caso tuo!
Ci sono le linee guida per creare delle presentazioni che catturino l'attenzione di chi le guarda e le istruzioni per ogni stage di creazione della dashboard.

Si parla molto di visualizzazione esaminando i lavori dei 50 grafici/designers nel campo analytics più famosi al mondo. L'autore cerca di entrare nella loro testa e di estrapolare i processi creativi, i punti di forza, i dettagli che hanno fatto la differenza, etc.
Come lettore quindi sarai in grado di capire quali sono gli strumenti ed il modo più corretto per approcciare una nuova visualizzazione e di conseguenza il modo di presentare informazioni importanti per trasmettere chiarezza e ispirazione.

“Beautiful Visualization, Looking at Data Through the Eyes of Experts” di Julie Steele, Noah Iliinsky

Questo è uno di una serie di libri chiamata "Beautiful" nel quale gli autori descrivono il design e lo sviluppo di alcune visualizzazioni molto famose esaminando i metodi di lavoro di 24 esperti.

Combinando gli approcci alla visualizzazione di persone molto diverse tra loro: artisti, scienziati, analisti, statisti, etc. il libro riesce a dare molteplici punti di vista e una visione d'insieme riguardo la materia. I maggiori argomenti trattati sono:

  • l'importanza dello storytelling mediante la data visualization
  • l'importanza dei colori e come essi influiscano sulla percezione delle informazioni
  • un bellissimo caso studio riguardo i viaggi in aereo

In Conclusione

Questi sono alcuni tra i libri che maggiormente ti possono aiutare se vuoi lavorare nel mondo della Data Visualization o se vuoi fare un salto di qualità.

Noi per approfondire, abbiamo creato un corso su Tableau, lo strumento più utilizzato per la Data Visualization, dove mettiamo le mani in pasta e vediamo come si lavora con i dati facendo applicazione pratica.
Dai un'occhiata, siamo sicuri che non rimarrai deluso!

E se hai domande Contattaci, saremo felici di aiutarti ðŸ™‚

29 Marzo 2021

Cos’é Mixpanel e perché dovresti usarlo

Mixpanel è uno strumento che consente di analizzare come gli utenti interagiscono con un prodotto. È progettato per rendere i team più efficienti consentendo a tutti di analizzare i dati degli utenti in tempo reale per identificare le tendenze, capire il comportamento degli utenti e prendere decisioni migliori sul prodotto.

Mixpanel utilizza un modello basato su eventi e incentrato sull'utente che collega ogni interazione a un singolo utente.

Il modello di dati di Mixpanel è costruito sui concetti di users, events e properties.

Oggi ti raccontiamo cos'é Mixpanel e perché dovresti usarlo.

Arriva fino in fondo: c'é una sorpresa per te!

Cos'é Mixpanel

Mixpanel è uno strumento di analisi degli utenti che consente di tracciare come gli utenti interagiscono con un prodotto o un'applicazione. I dati vengono inviati dal dispositivo dell'utente o dal server a Mixpanel, dove possono essere analizzati in tempo reale per identificare meglio le tendenze e comprendere il comportamento dell'utente.

Mixpanel consente inoltre di utilizzare i dati di analisi comportamentale per indirizzare con precisione gli utenti con vari tipi di messaggi e esperimenti per aiutarti a ottenere il massimo coinvolgimento degli utenti.

Data Model

A differenza di altri strumenti di analisi che sono limitati al monitoraggio di misure predefinite di engagement, come le pagine viste e le sessioni del browser, Mixpanel utilizza un modello basato su eventi e incentrato sull'utente che tiene traccia delle azioni specifiche che i singoli utenti fanno all'interno del prodotto.

Questo approccio all'analisi event-based cattura una comprensione più approfondita del coinvolgimento degli utenti, che consente un'analisi più granulare e un targeting efficace di messaggi ed esperimenti.

Per quanto riguarda la struttura attuale del modello di dati Mixpanel, è costruito su tre concetti chiave: eventi, proprietà e profili utente. Discutiamo rapidamente di ciascuno di questi componenti.

Eventi

Un evento è un'azione significativa che un utente esegue in un'applicazione o su un sito web.

Gli eventi possono essere una vasta gamma di azioni. Ad esempio, un servizio musicale potrebbe tenere traccia di un nuovo utente che si iscrive a un account o di un utente che riproduce una canzone come eventi.
È importante determinare quali azioni dell'utente sono importanti da raccogliere e analizzare in seguito. Digital Pills é primo partner italiano certificato di Mixpanel e il nostro obiettivo é proprio questo: supportare chi utilizza Mixpanel nella fase di data strategy in cui si identifica la strategia di misurazione, quali cose si vogliono monitorare e di conseguenza quali dati si vogliono raccogliere. Se vuoi avere più informazioni in merito, clicca qui.

Proprietà

Una proprietà è un dettaglio su un evento.

Nello specifico, le proprietà degli eventi sono coppie descrittive di valore-chiave associate a un evento, che descrivono l'evento stesso o l'utente che ha eseguito l'evento.

Nel determinare quali eventi raccogliere, è importante specificare quali dettagli su tale evento dovrebbero essere raccolti. Le proprietà degli eventi sono incredibilmente importanti, in quanto forniscono il contesto necessario agli eventi per garantire un'analisi di valore. Le proprietà facilitano anche la dissezione dei dati, consentendo una comprensione più dettagliata dei dati determinati dagli eventi.

Profili utente

Un profilo utente è una raccolta di informazioni su un singolo utente.

Come gli eventi, i profili utente hanno proprietà che descrivono il profilo. A differenza degli eventi, tuttavia, i profili utente e le loro proprietà cambiano costantemente per riflettere le informazioni più recenti su un utente.

Una proprietà del profilo utente potrebbe essere un valore statico, come un nome, o qualcosa di più probabile che cambi, come la data dell'ultimo login o il numero di canzoni che un utente ha riprodotto.

Abbiamo in programma un webinar con il team Mixpanel: 45 minuti in cui ti spieghiamo per chi ha senso utilizzare questo tool, quali sono i vantaggi e entriamo un un demo account. Se vuoi iscriverti al webinar gratuito clicca qui.

 

 

19 Febbraio 2021

La struttura del nuovo GA4: account, property e stream

Google Analytics 4 sarà a partire da luglio 2023 l'unica versione disponibile: clicca qui per leggere tutte le novità e scoprire i nostri consigli per gestire al meglio la transizione.

In questo articolo parliamo della struttura del nuovo GA4.

Dato il recente aggiornamento che ha introdotto tantissime novità, ti parleremo oggi di com'è strutturato ora analytics e come funzionano

  1. Account
  2. Property
  3. Stream

Prima di iniziare ecco uno schema che riassume la struttura

L'organizzazione riunisce i prodotti e gli utenti. Rappresenta un'azienda e permette di accedere agli account dei vari prodotti Google (come GA, GTM, Google Optimize, etc) e di gestire le integrazioni tra prodotti (come quelle tra GTM e Analytics) e le autorizzazioni degli utenti.

La creazione di un'organizzazione non è obbligatoria, ma facoltativa. Tuttavia per crearla basta andare su Google Marketing Platform e seguire i pochi passaggi guidati.

Ora che abbiamo in chiaro la struttura del nuovo GA4, iniziamo ad analizzare gli elementi!

Account

L'account è il punto di accesso ad Analytics, ed ogni organizzazione può avere più account Analytics. Ad esempio un'azienda che vende in più paesi può avere un account GA4 per ogni paese.

Bisogna pensare all'account come un contenitore di dati, perché questo è effettivamente.

Ogni organizzazione può avere a massimo 50 account, ed ognuno di questi può contenere fino a 100 property.

Per coloro che gestiscono gli account di clienti, avere l'autorizzazione a livello account vuol dire avere accesso anche ai dati sottostanti, quindi a properties e streams. Questo infatti è il livello massimo di autorizzazione.

Property

Le proprietà sono i contenitori dei rapporti, come dei silos, basati sui dati raccolti (ora in GA4) sia da app che da sito. La property è il livello più dettagliato a cui Analytics elabora i dati.

Se hai una property per rappresentare un'app, questa deve rappresentare una singola applicazione logica: ogni applicazione logica può anche equivalere allo stesso gioco su piattaforme diverse.

Ogni property può contenere fino a 50 data stream.

Stream

L'ultimo livello della struttura del nuovo GA4 è rappresentato dagli stream.

Un data stream è un flusso di dati, da un touchpoint del cliente ad Analytics. Ricordati che è possibile connettere più data stream mobile ad una property, ma una sola data stream web.

Se raccogli i dati per un'applicazione logica su più piattaforme, sarà necessario creare uno stream per ogni piattaforma

Ovviamente è possibile visualizzare i dati di tutti gli stream nei rapporti ed anche filtrarli per vedere solo stream specifici.

Ricordati inoltre che la reporting view di Analytics non può raccogliere dati retroattivamente, ma li raccoglierà solo nel momento in cui colleghiamo il data stream alla property.

Qual'è la configurazione più adatta a te avendo presente la struttura del nuovo GA4?

Fino a qui abbiamo visto la struttura del nuovo GA4. Ma se ti stai chiedendo come configurare il tuo account al meglio ecco alcuni consigli.

Se sei una piccola organizzazione con un solo sito, una sola property con un solo data stream sarà più che sufficiente. Se invece hai anche delle app è necessario creare più data stream, almeno uno per iOS e almeno uno per Android.

Per le grandi organizzazioni invece

Ripensa all'esempio di prima dove si parlava di un'azienda che aveva più siti in lingua diversa per ogni paese.

Conclusioni

Se ti sei perso le novità del nuovo Google Analytics 4 ecco un articolo dove elenchiamo le principali novità.

Sperando che la struttura del nuovo GA4 ti sia chiara, puoi contattarci per qualsiasi domanda, saremo felici di aiutarti 😉

18 Febbraio 2021

4 tipi di analisi per il tuo sito

In questo articolo andiamo a scoprire 4 tipi di analisi che puoi fare per il tuo sito.

Queste analisi, tra il qualitativo e il quantitativo, hanno lo scopo di aiutarti a migliorare avendo presente anche qual è il punto di vista degli utenti. Immedesimarti in loro può quindi aiutarti a vedere dei problemi che altrimenti non riusciresti a vedere.

Prima di partire ti ricordiamo che l'analisi di un sito è un processo che comprende ricerca, test e confronti tra risultati. Per essere sicuro che almeno in linea generale il tuo sito funzioni bene devi fare periodicamente questi 4 tipi di analisi:

  1. Fai un audit SEO
  2. Testa la velocità del tuo sito
  3. Analizza i tuoi competitors
  4. Analizza il traffico del tuo sito

Iniziamo!

Fai un audit SEO

Fare un audit SEO è sinonimo di fare un check up dello stato di salute della propria Search Engine Optimization.

Le forme più comuni di analisi SEO sono: On-Page SEO Audits, Website search engine ranking analysis, Bachlink Analysis. Ora li vedremo uno per uno.

On-page SEO audits

Questo tipo di analisi SEO ti aiuta a individuare errori tecnici comuni che comunque influiscono, si parla ad esempio di pezzi del titolo mancanti, link che non funzionano, etc.

Questo tipo di analisi di solito vengono condotte tramite dei tool specifici come Screaming Frog che sono automatici e aiutano ad individuare gli errori in modo rapido.

Altri tool simili invece aiutano a prevenire, ad esempio Yoast SEO per chi usa WordPress.

Website search engine ranking analysis

Questo tipo di analisi specifica ti indica in che posizione appare il tuo sito in base ai vari keywords con cui ti sei inidicizzato sui vari motori di ricerca.

Alcuni tool (es. Serpbook)  ti faranno vedere qual è il tuo ranking in base alla keyword che inserisci, mentre altri (es. Ahrefs) troveranno da soli tutti i keywords grazie ai quali il tuo sito è in raking e la relativa posizione.

Analizzare i backlinks del tuo sito ti fa trovare quali pagine hanno link che reindirizzano verso il tuo sito e con quali keywords.

Un tool ottimo è Google Search Console.

Queste informazioni possono essere usate per comprare i propri backlinks con quelli dei competitors e scoprire sia i propri punti forti che quelli deboli.

Testa la velocità del tuo sito

É risaputo che gli utenti non amano affatto i siti che caricano lentamente. Li abbandonano prima ancora che finiscano di caricare se questo processo dura più di 2 secondi.

Bisogna assicurarsi quindi di analizzare questa componente del proprio sito per non perdere gli utenti e i potenziali clienti.

Esistono tanti tools gratuiti per fare questa analisi: Google's PageSpeed Insights, GTnetrix, Pingdom, WebPageTest.

Analizzando le metriche chiave come la page size, load time, http requests,etc. avrai a disposizione tutta una serie di dati che ti indicheranno con precisione dov'è il problema e su quale punto bisogna intervenire per offrire agli utenti un'esperienza migliore.

Analizza i tuoi competitors

Questo tipo di analisi viene fatto soprattutto per capire come si posizionano i propri competitors. Queste informazioni possono essere usate poi per capire cosa hanno intenzione di fare: su quali keywords puntano per farsi trovare di più, quali prodotti spingono di più, etc.

Sapere cosa fanno i propri competitors ti permette di trovare soluzioni migliori per il tuo business, potresti ispirarti ad alcuni loro servizi oppure presentarne altri per essere l'unico. Per non parlare di come potresti scovare keywords su cui potresti puntare e che non hai mai considerato.

Quando analizzi i tuoi competitors cerca di risponderti sempre a queste 2 domande:

  1. Come vengono percepiti i tuoi servizi/prodotti rispetto a quelli dei tuoi competitors  nel mercato?
  2. Che tipo di messaggio stanno cercando di trasmettere i tuoi competitors?

Questa immagine è il risultato di una ricerca manuale su un competitors. Se fino ad ora abbiamo menzionato strumenti e tools, in questo caso il manuale resta la strada più sicura.
É sufficiente riportare i dati mostrati nella foto per avere informazioni utili e fare un confronto.

Esistono comunque degli strumenti anche per analizzare i competitors: si tratta di SEMRush o SImilarWeb, questi danno informazioni sul volume del traffico dei siti e sul traffic source.

Analizza il traffico del tuo sito

Questo tipo di analisi ti aiuta a monitorare il volume dei visitatori del tuo sito, ma anche le loro attività. Oltre a questo puoi sapere quali sono le pagine più visitate, monitorarle una per una, e vedere anche i riscontri delle tue strategie per generare più traffico.

Tutte queste informazioni si possono trovare all'interno del tuo account Google Analytics.

Se per caso Analytics non ti bastasse, ci sono tools come Matomo oppure Open Web Analytics.

Ancora qualche strumento per l'analisi del tuo sito

Questi 4 tipi di analisi per il tuo sito di cui abbiamo parlato finora sono fondamentali per rimanere competitivi, ma esistono ulteriori tipologie di analisi per fare un davvero quel salto di qualità che può metterti davanti a tutti.

Si tratta infatti di analizzare in modo ancora più approfondito la prospettiva e l'esperienza del tuo utente. Quest'analisi qualitativa ti porta a scoprire tutto: come gli utenti sono arrivati sul tuo sito, che cosa cercano, che cosa si aspettano, cosa c'è che non li convince, etc.

É evidente che con informazioni di questo tipo si possano fare dei miglioramenti considerevoli al proprio sito ed in generale a tutta la propria esperienza utente.

I Behaviour analytics tools

Questi sono strumenti, si parla principalmente delle mappe di calore di HotJar o delle registrazioni di sessione. Le prime ti fanno letteralmente vedere come le persone interagiscono con gli elementi del tuo sito. Cercano di cliccare su un bottone che non è cliccabile? La loro attenzione è catturata da elementi anomali? etc. Le seconde mostrano come gli utenti navighino tra le pagine mettendo in evidenza bug, problemi, pain points, etc.

I Feedback dei tuoi utenti

Analizzare il comportamento dei tuoi utenti potrebbe farti capire molte cose, ma se avessi ancora dubbi sul perché di certe azioni?

Ecco che esiste ancora un metodo per capire i motivi che spingono a certe scelte o comportamenti : si tratta dei feedback.

Questi infatti possono essere sottoposti ai propri utenti in merito a qualsiasi cosa praticamente, dai prodotti fino all'esperienza di navigazione, design, care, e tanto altro. Sono il riscontro più diretto che si può avere dalle persone che navigano sul sito ed è una fonte di informazioni preziosissima.

Conclusioni

Abbiamo visto i 4 tipi di analisi per il tuo sito che assolutamente non possono mancare più altri 2 tipi che possono davvero fare la differenza.

Resta il fatto che comunque già sapendo usare bene i dati di Google Analytics, si possono avere una miriade di informazioni utili.

Sperando che questo articolo ti sia piaciuto e che ti sia stato utile ricordati che puoi contattarci per ogni dubbio o perplessità.

NON PERDIAMOCI DI VISTA
VUOI RICEVERE AGGIORNAMENTI?
SEGUICI SUI SOCIAL

Copyright 2022, Digital Pills SRL
Via Stampatori 4, 10122 | Torino, Italia
P.IVA: IT12183450019