Web analytics: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Aggiornamento della voce |
Funzionalità collegamenti suggeriti: 3 collegamenti inseriti. Etichette: Modifica visuale Modifica da mobile Modifica da web per mobile Attività per i nuovi utenti Suggerito: aggiungi collegamenti |
||
(15 versioni intermedie di 12 utenti non mostrate) | |||
Riga 5:
[[Matomo (software)|Matomo]] è un esempio di [[software libero]] per effettuare web analytics.<ref>{{Cita web|https://matomo.org/|Free Web Analytics Software|30 dicembre 2020|lingua=en}}</ref>
Consiste nella misurazione, raccolta, analisi e reporting dei dati web per comprendere e ottimizzare l'
== Passaggi di base del processo di analisi dei dati web ==
[[File:Basic Steps of Web Analytics Process.png|alt=Passaggi di base del processo di analisi web|centro|
La maggior parte dei processi di analisi dei dati web si riduce a quattro fasi o passaggi essenziali, che sono<ref>Jansen, B. J. (2009). Understanding user-web interactions via web analytics. Synthesis Lectures on Information Concepts, Retrieval, and Services, 1(1), 1-102.</ref>:
Riga 14:
* Elaborazione dei dati in informazioni: questa fase di solito prende i conteggi e li rende rapporti, sebbene possano esserci ancora alcuni conteggi. L'obiettivo di questa fase è prendere i dati e conformarli in informazioni, in particolare metriche.
* Sviluppo di KPI: questa fase si concentra sull'utilizzo dei rapporti (e conteggi) e sull'infusione di essi con strategie aziendali, denominate indicatori chiave di prestazione (KPI). Molte volte, i KPI si occupano degli aspetti di conversione, ma non sempre. Dipende dall'organizzazione.
* Formulazione della strategia online: questa fase riguarda gli obiettivi, gli obiettivi e gli standard online per l'organizzazione o l'azienda. Queste strategie sono generalmente correlate al guadagno, al risparmio o all'aumento della [[quota di mercato]].
Un'altra funzione essenziale sviluppata dagli analisti per l'ottimizzazione dei siti web sono gli esperimenti
Riga 28:
* '''Off-site web analytics''' si riferisce alla misurazione e all'analisi del web indipendentemente dal fatto che una persona possieda o gestisca un sito web. Include la misurazione del pubblico ''potenziale'' di un sito Web (opportunità), della condivisione della voce (visibilità) e del buzz (commenti) che si verificano su Internet nel suo complesso.
* '''On-site web analytics''', la più comune delle due, misura il comportamento di un visitatore una volta ''su un sito web specifico''. Ciò include i suoi driver e conversioni; ad esempio, il grado in cui le [[
Storicamente, l'analisi dei dati web è stata utilizzata per fare riferimento alla misurazione dei visitatori sul sito. Tuttavia, questo significato è diventato sfumato, principalmente perché i fornitori stanno producendo strumenti che abbracciano entrambe le categorie. Molti fornitori diversi forniscono software e servizi di analisi on-site. Esistono due modi tecnici principali per raccogliere i dati. Il primo e tradizionale metodo, l{{'
=== Fonti di dati di analisi dei dati web ===
L'obiettivo fondamentale dell'analisi dei dati web è raccogliere e analizzare i dati relativi al traffico web e ai modelli di utilizzo. I dati provengono principalmente da quattro fonti:
# Dati di richiesta HTTP diretti: provengono direttamente dai messaggi di richiesta HTTP (intestazioni di richiesta HTTP).
# Dati a [[livello di rete]] e generati dal server associati alle richieste HTTP: non fanno parte di una richiesta HTTP, ma sono necessari per la corretta trasmissione delle richieste, ad esempio l'indirizzo IP di un richiedente.
# Dati a [[livello di applicazione]] inviati con richieste HTTP: generati ed elaborati da programmi a livello di applicazione (come JavaScript, PHP e [[ASP.NET|ASP.Net]]), incluse sessioni e riferimenti. Questi vengono solitamente acquisiti da log interni piuttosto che da servizi di analisi web pubblici.
# Dati esterni: possono essere combinati con i dati sul sito per aiutare ad aumentare i dati sul comportamento del sito web descritti sopra e interpretare l'utilizzo del web. Ad esempio, gli indirizzi IP sono generalmente associati a regioni geografiche e provider di servizi Internet, percentuali di clic e di apertura della [[posta elettronica]], dati delle campagne di direct mail, cronologia delle vendite e dei lead o altri tipi di dati secondo necessità.
=== Analisi dei logfiles del server web ===
I server Web registrano alcune delle loro transazioni in un logfile. Ci si rese presto conto che questi logfiles potevano essere letti da un programma per fornire dati sulla popolarità del sito web. Così è nato il software di analisi dei log web.
All'inizio degli anni '90, le statistiche del sito web consistevano principalmente nel conteggio del numero di richieste (o ''visite'') dei client effettuate al server web. Inizialmente si trattava di un metodo ragionevole, poiché ogni sito Web era spesso costituito da un singolo file HTML. Tuttavia, con l'introduzione di immagini in HTML e di siti Web che si estendevano su più file HTML, questo conteggio è diventato meno utile. Il primo vero analizzatore di log commerciale è stato rilasciato da IPRO nel 1994<ref name="web-data-sources">[http://www.advanced-web-metrics.com/docs/web-data-sources.pdf Web Traffic Data Sources and Vendor Comparison] {{Webarchive|url=https://web.archive.org/web/20080905133710/http://www.advanced-web-metrics.com/docs/web-data-sources.pdf |date=5 settembre 2008 }} by Brian Clifton and Omega Digital Media Ltd</ref>.
Due unità di misura sono state introdotte a metà degli anni '90 per misurare con maggiore precisione la quantità di attività umana sui server web. Si trattava di ''visualizzazioni di pagina'' e ''visite'' (o ''sessioni''). Una ''visualizzazione di pagina'' era definita come una richiesta fatta al web server per una pagina, al contrario di un grafico, mentre una ''visita'' era definita come una sequenza di richieste da un client identificato in modo univoco che scadeva dopo un certo periodo di inattività, solitamente 30 minuti.
Riga 49:
L'emergere di spider e robot dei motori di ricerca alla fine degli anni '90, insieme a proxy web e indirizzi IP assegnati dinamicamente per grandi aziende e ISP, ha reso più difficile identificare i visitatori umani unici di un sito web.
L'ampio uso di cache Web ha anche presentato un problema per l'analisi dei logfiles. Se una persona visita nuovamente una pagina, la seconda richiesta verrà spesso recuperata dalla cache del browser, quindi nessuna richiesta verrà ricevuta dal server web. Ciò significa che il percorso della persona attraverso il sito è perso. La memorizzazione nella cache può essere annullata configurando il server Web, ma ciò può comportare una riduzione delle prestazioni per il visitatore e un carico maggiore sui server<ref>Marketing Management: A Value-Creation Process (2nd Edition) by Alain Jolibert, Pierre-Louis Dubois, Hans Mühlbacher, Laurent Flores, Pierre-Louis Jolibert Dubois, 2012, p. 359.</ref>.
=== Codifica della pagina ===
Riga 63:
=== Logfile analysis e page tagging ===
Sia i programmi di logfile che le soluzioni di tagging delle pagine sono prontamente disponibili per le aziende che desiderano eseguire analisi web. In alcuni casi, la stessa società di analisi dei dati web offrirà entrambi gli approcci. Ci sono vantaggi e svantaggi per ogni approccio<ref>[http://www.advanced-web-metrics.com/blog/2008/02/16/accuracy-whitepaper/ Increasing Accuracy for Online Business Growth] - a web analytics accuracy whitepaper</ref>.
==== Vantaggi dell'analisi dei logfiles ====
Riga 70:
* Il server Web normalmente produce già logfiles, quindi i dati grezzi sono già disponibili. Non sono richieste modifiche al sito web.
* I dati si trovano sui server dell'azienda e sono in un formato standard, piuttosto che proprietario. Ciò rende facile per un'azienda cambiare programma in un secondo momento, utilizzare diversi programmi diversi e analizzare i dati storici con un nuovo programma.
* I logfiles contengono informazioni sulle visite degli spider dei [[Motore di ricerca|motori di ricerca]], che generalmente sono esclusi dagli strumenti di analisi che utilizzano la codifica JavaScript. Sebbene questi non debbano essere segnalati come parte dell'attività umana, si tratta di informazioni utili per l'
* I logfiles non richiedono ulteriori ricerche DNS o avviamenti lenti TCP. Pertanto non ci sono chiamate al server esterno che possono rallentare la velocità di caricamento della pagina o comportare un numero illimitato di visualizzazioni di pagina.
* Il server web registra in modo affidabile ogni transazione che effettua, ad esempio, servendo documenti PDF e contenuti generati da script, e non si basa sulla collaborazione dei browser dei visitatori.
Riga 82:
* Il servizio di tagging delle pagine gestisce il processo di assegnazione dei cookie ai visitatori; con l'analisi del logfiles, il server deve essere configurato per farlo.
* La codifica delle pagine è disponibile per le aziende che non hanno accesso ai propri server web.
* Ultimamente, la codifica delle pagine è diventata uno standard nell'analisi dei dati web.
==== Fattori economici ====
Riga 96:
=== Geolocalizzazione dei visitatori ===
Con la geolocalizzazione IP è possibile tracciare la posizione dei visitatori. Utilizzando il database di geolocalizzazione IP o l'API, i visitatori possono essere geolocalizzati a livello di città, regione o paese.
IP Intelligence, o Internet Protocol (IP) Intelligence, è una tecnologia che mappa Internet e classifica gli indirizzi IP in base a parametri quali posizione geografica (paese, regione, stato, città e codice postale), tipo di connessione, provider di servizi Internet (ISP), informazioni proxy e altro ancora. La prima generazione di IP Intelligence era denominata tecnologia di targeting geografico o geolocalizzazione. Queste informazioni vengono utilizzate dalle aziende per la segmentazione del pubblico online in applicazioni quali pubblicità online, targeting comportamentale, localizzazione di contenuti (o localizzazione di siti Web), gestione dei diritti digitali, personalizzazione, rilevamento di frodi online, ricerca localizzata, analisi avanzate, gestione del traffico globale e distribuzione dei contenuti.
Riga 104:
L'analisi dei clic è un tipo speciale di analisi dei dati web che presta particolare attenzione ai clic.
Comunemente, l'
Inoltre, l'
I dati sui clic possono essere raccolti in almeno due modi. Idealmente, un clic viene "registrato" quando si verifica e questo metodo richiede alcune funzionalità che raccolgono le informazioni rilevanti quando si verifica l'evento. In alternativa, si può ipotizzare che una visualizzazione di pagina sia il risultato di un clic e quindi registrare un clic simulato che ha portato a quella visualizzazione di pagina.
Riga 146:
== Fonti comuni di confusione nell'analisi dei dati web ==
=== Il problema dell'hotel ===
Il problema dell'hotel è generalmente il primo problema riscontrato da un utente di web analytics. Il problema è che i visitatori unici per ogni giorno in un mese non si sommano allo stesso totale dei visitatori unici per quel mese. A un utente inesperto questo sembra essere un problema in qualunque software di analisi stia utilizzando. In effetti è una semplice proprietà delle definizioni metriche.
Riga 183 ⟶ 182:
== Metodi di analisi dei dati web ==
=== Problemi con i cookie ===
Storicamente, i fornitori di soluzioni di analisi dei tag delle pagine hanno utilizzato cookie di terze parti inviati dal dominio del fornitore invece del dominio del sito web che si sta navigando. I cookie di terze parti possono gestire i visitatori che attraversano più domini non correlati all'interno del sito dell'azienda, poiché il cookie è sempre gestito dai server del fornitore.
Tuttavia, i cookie di terze parti in linea di principio consentono di tracciare un singolo utente attraverso i siti di diverse società, consentendo al fornitore di analisi di raccogliere l'attività dell'utente sui siti in cui ha fornito informazioni personali con la sua attività su altri siti in cui pensava di essere anonimo. Sebbene le società di analisi dei dati web neghino di farlo, altre società come le società che forniscono banner pubblicitari lo hanno fatto. Le preoccupazioni in materia di privacy relative ai cookie hanno quindi portato una notevole minoranza di utenti a bloccare o eliminare i cookie di terze parti. Nel 2005, alcuni rapporti hanno mostrato che circa il 28% degli utenti di Internet ha bloccato i cookie di terze parti e il 22% li ha cancellati almeno una volta al mese<ref>{{
Un altro problema è l'eliminazione dei cookie. Quando l'analisi web dipende dai cookie per identificare i visitatori unici, le statistiche dipendono da un cookie persistente per contenere un ID visitatore univoco. Quando gli utenti eliminano i cookie, di solito eliminano sia i cookie proprietari che quelli di terze parti. Se questo viene fatto tra le interazioni con il sito, l'utente apparirà come visitatore per la prima volta al successivo punto di interazione. Senza un ID visitatore unico e persistente, le conversioni, l'analisi del flusso di clic e altre metriche dipendenti dalle attività di un visitatore unico nel tempo non possono essere accurate.
I cookie vengono utilizzati perché gli indirizzi IP non sono sempre univoci per gli utenti e possono essere condivisi da grandi gruppi o proxy. In alcuni casi, l'indirizzo IP viene combinato con l'agente utente al fine di identificare più accuratamente un visitatore se i cookie non sono disponibili. Tuttavia, questo risolve solo parzialmente il problema perché spesso gli utenti dietro un server proxy hanno lo stesso agente utente. Altri metodi per identificare in modo univoco un utente sono tecnicamente impegnativi e limiterebbero il pubblico tracciabile o sarebbero considerati sospetti. I cookie raggiungono il minimo comune denominatore senza utilizzare tecnologie considerate [[spyware]]<ref>{{
== Metodi di analisi
Potrebbe essere utile essere consapevoli del fatto che la raccolta di informazioni di terze parti è soggetta a limitazioni di rete e sicurezza applicate. Paesi, fornitori di servizi e reti private possono impedire che i dati sulle visite al sito vadano a terze parti. Tutti i metodi sopra descritti (e alcuni altri metodi non menzionati qui, come il campionamento) hanno il problema centrale di essere vulnerabili alla manipolazione (sia inflazione che deflazione). Ciò significa che questi metodi sono imprecisi e insicuri (in qualsiasi ragionevole modello di sicurezza). Questo problema è stato affrontato in una serie di articoli<ref>{{
== Note ==
Riga 202 ⟶ 200:
* [[Sistema di tracciamento]]
== Altri progetti ==
{{interprogetto}}
== Collegamenti esterni ==
* {{Collegamenti esterni}}
{{Controllo di autorità}}
{{Portale|informatica}}
|