Web analytics: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Inseritore (discussione | contributi)
Aggiornamento della voce
Funzionalità collegamenti suggeriti: 3 collegamenti inseriti.
 
(15 versioni intermedie di 12 utenti non mostrate)
Riga 5:
[[Matomo (software)|Matomo]] è un esempio di [[software libero]] per effettuare web analytics.<ref>{{Cita web|https://matomo.org/|Free Web Analytics Software|30 dicembre 2020|lingua=en}}</ref>
 
Consiste nella misurazione, raccolta, analisi e reporting dei dati web per comprendere e ottimizzare l' utilizzo del web. La web analytics web non è solo un processo per misurare il traffico web, ma può essere utilizzata come strumento per ricerche commerciali e di mercato e per valutare e migliorare l' efficacia del sito web. Le applicazioni di [[analisi dei dati]] web possono anche aiutare le aziende a misurare i risultati delle tradizionali campagne pubblicitarie su stampa o trasmissione. Può essere utilizzato per stimare come cambia il traffico verso un sito web dopo il lancio di una nuova campagna pubblicitaria. L'analisi dei dati web fornisce informazioni sul numero di visitatori di un sito Web e sul numero di visualizzazioni di pagina. Aiuta a misurare le tendenze del traffico e della popolarità, il che è utile per le ricerche di mercato.
 
== Passaggi di base del processo di analisi dei dati web ==
[[File:Basic Steps of Web Analytics Process.png|alt=Passaggi di base del processo di analisi web|centro|miniaturathumb|300x300pxupright=1.4|Passaggi di base del processo di analisi web]]
La maggior parte dei processi di analisi dei dati web si riduce a quattro fasi o passaggi essenziali, che sono<ref>Jansen, B. J. (2009). Understanding user-web interactions via web analytics. Synthesis Lectures on Information Concepts, Retrieval, and Services, 1(1), 1-102.</ref>:
 
Riga 14:
* Elaborazione dei dati in informazioni: questa fase di solito prende i conteggi e li rende rapporti, sebbene possano esserci ancora alcuni conteggi. L'obiettivo di questa fase è prendere i dati e conformarli in informazioni, in particolare metriche.
* Sviluppo di KPI: questa fase si concentra sull'utilizzo dei rapporti (e conteggi) e sull'infusione di essi con strategie aziendali, denominate indicatori chiave di prestazione (KPI). Molte volte, i KPI si occupano degli aspetti di conversione, ma non sempre. Dipende dall'organizzazione.
* Formulazione della strategia online: questa fase riguarda gli obiettivi, gli obiettivi e gli standard online per l'organizzazione o l'azienda. Queste strategie sono generalmente correlate al guadagno, al risparmio o all'aumento della [[quota di mercato]].
 
Un'altra funzione essenziale sviluppata dagli analisti per l'ottimizzazione dei siti web sono gli esperimenti
Riga 28:
 
* '''Off-site web analytics''' si riferisce alla misurazione e all'analisi del web indipendentemente dal fatto che una persona possieda o gestisca un sito web. Include la misurazione del pubblico ''potenziale'' di un sito Web (opportunità), della condivisione della voce (visibilità) e del buzz (commenti) che si verificano su Internet nel suo complesso.
* '''On-site web analytics''', la più comune delle due, misura il comportamento di un visitatore una volta ''su un sito web specifico''. Ciò include i suoi driver e conversioni; ad esempio, il grado in cui le [[Landinglanding page|landing pages]]s sono associate agli acquisti online. L'analisi on-site misura le prestazioni di un sito web specifico in un contesto commerciale. Questi dati vengono in genere confrontati con gli indicatori chiave di prestazione per le prestazioni e vengono utilizzati per migliorare la risposta del pubblico di un sito Web o di una campagna di marketing. [[Google Analytics]] e Adobe Analytics sono il servizio di analisi on-site più utilizzato; sebbene stiano emergendo nuovi strumenti che forniscono ulteriori livelli di informazioni, comprese le mappe termiche e la riproduzione della sessione.
 
Storicamente, l'analisi dei dati web è stata utilizzata per fare riferimento alla misurazione dei visitatori sul sito. Tuttavia, questo significato è diventato sfumato, principalmente perché i fornitori stanno producendo strumenti che abbracciano entrambe le categorie. Molti fornitori diversi forniscono software e servizi di analisi on-site. Esistono due modi tecnici principali per raccogliere i dati. Il primo e tradizionale metodo, l{{' }}''analisi dei logfiles del server'', legge i logfiles in cui il [[server web]] registra le richieste di file dai browser. Il secondo metodo, la ''codifica delle pagine'', utilizza [[JavaScript]] incorporato nella pagina Web per effettuare richieste di immagini a un server dedicato all'analisi di terze parti, ogni volta che una pagina Web viene visualizzata da un browser web o, se lo si desidera, quando si verifica un clic del mouse. Entrambi raccolgono dati che possono essere elaborati per produrre report sul traffico web.
 
=== Fonti di dati di analisi dei dati web ===
L'obiettivo fondamentale dell'analisi dei dati web è raccogliere e analizzare i dati relativi al traffico web e ai modelli di utilizzo. I dati provengono principalmente da quattro fonti:
 
# Dati di richiesta HTTP diretti: provengono direttamente dai messaggi di richiesta HTTP (intestazioni di richiesta HTTP).
# Dati a [[livello di rete]] e generati dal server associati alle richieste HTTP: non fanno parte di una richiesta HTTP, ma sono necessari per la corretta trasmissione delle richieste, ad esempio l'indirizzo IP di un richiedente.
# Dati a [[livello di applicazione]] inviati con richieste HTTP: generati ed elaborati da programmi a livello di applicazione (come JavaScript, PHP e [[ASP.NET|ASP.Net]]), incluse sessioni e riferimenti. Questi vengono solitamente acquisiti da log interni piuttosto che da servizi di analisi web pubblici.
# Dati esterni: possono essere combinati con i dati sul sito per aiutare ad aumentare i dati sul comportamento del sito web descritti sopra e interpretare l'utilizzo del web. Ad esempio, gli indirizzi IP sono generalmente associati a regioni geografiche e provider di servizi Internet, percentuali di clic e di apertura della [[posta elettronica]], dati delle campagne di direct mail, cronologia delle vendite e dei lead o altri tipi di dati secondo necessità.
 
=== Analisi dei logfiles del server web ===
I server Web registrano alcune delle loro transazioni in un logfile. Ci si rese presto conto che questi logfiles potevano essere letti da un programma per fornire dati sulla popolarità del sito web. Così è nato il software di analisi dei log web.
 
All'inizio degli anni '90, le statistiche del sito web consistevano principalmente nel conteggio del numero di richieste (o ''visite'') dei client effettuate al server web. Inizialmente si trattava di un metodo ragionevole, poiché ogni sito Web era spesso costituito da un singolo file HTML. Tuttavia, con l'introduzione di immagini in HTML e di siti Web che si estendevano su più file HTML, questo conteggio è diventato meno utile. Il primo vero analizzatore di log commerciale è stato rilasciato da IPRO nel 1994<ref name="web-data-sources">[http://www.advanced-web-metrics.com/docs/web-data-sources.pdf Web Traffic Data Sources and Vendor Comparison] {{Webarchive|url=https://web.archive.org/web/20080905133710/http://www.advanced-web-metrics.com/docs/web-data-sources.pdf |date=5 settembre 2008 }} by Brian Clifton and Omega Digital Media Ltd</ref>.
 
Due unità di misura sono state introdotte a metà degli anni '90 per misurare con maggiore precisione la quantità di attività umana sui server web. Si trattava di ''visualizzazioni di pagina'' e ''visite'' (o ''sessioni''). Una ''visualizzazione di pagina'' era definita come una richiesta fatta al web server per una pagina, al contrario di un grafico, mentre una ''visita'' era definita come una sequenza di richieste da un client identificato in modo univoco che scadeva dopo un certo periodo di inattività, solitamente 30 minuti.
Riga 49:
L'emergere di spider e robot dei motori di ricerca alla fine degli anni '90, insieme a proxy web e indirizzi IP assegnati dinamicamente per grandi aziende e ISP, ha reso più difficile identificare i visitatori umani unici di un sito web.
 
L'ampio uso di cache Web ha anche presentato un problema per l'analisi dei logfiles. Se una persona visita nuovamente una pagina, la seconda richiesta verrà spesso recuperata dalla cache del browser, quindi nessuna richiesta verrà ricevuta dal server web. Ciò significa che il percorso della persona attraverso il sito è perso. La memorizzazione nella cache può essere annullata configurando il server Web, ma ciò può comportare una riduzione delle prestazioni per il visitatore e un carico maggiore sui server<ref>Marketing Management: A Value-Creation Process (2nd Edition) by Alain Jolibert, Pierre-Louis Dubois, Hans Mühlbacher, Laurent Flores, Pierre-Louis Jolibert Dubois, 2012, p. 359.</ref>.
 
=== Codifica della pagina ===
Riga 63:
 
=== Logfile analysis e page tagging ===
Sia i programmi di logfile che le soluzioni di tagging delle pagine sono prontamente disponibili per le aziende che desiderano eseguire analisi web. In alcuni casi, la stessa società di analisi dei dati web offrirà entrambi gli approcci. Ci sono vantaggi e svantaggi per ogni approccio<ref>[http://www.advanced-web-metrics.com/blog/2008/02/16/accuracy-whitepaper/ Increasing Accuracy for Online Business Growth] - a web analytics accuracy whitepaper</ref>.
 
==== Vantaggi dell'analisi dei logfiles ====
Riga 70:
* Il server Web normalmente produce già logfiles, quindi i dati grezzi sono già disponibili. Non sono richieste modifiche al sito web.
* I dati si trovano sui server dell'azienda e sono in un formato standard, piuttosto che proprietario. Ciò rende facile per un'azienda cambiare programma in un secondo momento, utilizzare diversi programmi diversi e analizzare i dati storici con un nuovo programma.
* I logfiles contengono informazioni sulle visite degli spider dei [[Motore di ricerca|motori di ricerca]], che generalmente sono esclusi dagli strumenti di analisi che utilizzano la codifica JavaScript. Sebbene questi non debbano essere segnalati come parte dell'attività umana, si tratta di informazioni utili per l' ottimizzazione dei motori di ricerca.
* I logfiles non richiedono ulteriori ricerche DNS o avviamenti lenti TCP. Pertanto non ci sono chiamate al server esterno che possono rallentare la velocità di caricamento della pagina o comportare un numero illimitato di visualizzazioni di pagina.
* Il server web registra in modo affidabile ogni transazione che effettua, ad esempio, servendo documenti PDF e contenuti generati da script, e non si basa sulla collaborazione dei browser dei visitatori.
Riga 82:
* Il servizio di tagging delle pagine gestisce il processo di assegnazione dei cookie ai visitatori; con l'analisi del logfiles, il server deve essere configurato per farlo.
* La codifica delle pagine è disponibile per le aziende che non hanno accesso ai propri server web.
* Ultimamente, la codifica delle pagine è diventata uno standard nell'analisi dei dati web.
 
==== Fattori economici ====
Riga 96:
 
=== Geolocalizzazione dei visitatori ===
Con la geolocalizzazione IP è possibile tracciare la posizione dei visitatori. Utilizzando il database di geolocalizzazione IP o l'API, i visitatori possono essere geolocalizzati a livello di città, regione o paese.
 
IP Intelligence, o Internet Protocol (IP) Intelligence, è una tecnologia che mappa Internet e classifica gli indirizzi IP in base a parametri quali posizione geografica (paese, regione, stato, città e codice postale), tipo di connessione, provider di servizi Internet (ISP), informazioni proxy e altro ancora. La prima generazione di IP Intelligence era denominata tecnologia di targeting geografico o geolocalizzazione. Queste informazioni vengono utilizzate dalle aziende per la segmentazione del pubblico online in applicazioni quali pubblicità online, targeting comportamentale, localizzazione di contenuti (o localizzazione di siti Web), gestione dei diritti digitali, personalizzazione, rilevamento di frodi online, ricerca localizzata, analisi avanzate, gestione del traffico globale e distribuzione dei contenuti.
Riga 104:
L'analisi dei clic è un tipo speciale di analisi dei dati web che presta particolare attenzione ai clic.
 
Comunemente, l' analisi dei clic si concentra sull'analisi on-site. Un editore di un sito web utilizza l'analisi dei clic per determinare le prestazioni del suo particolare sito, rispetto a dove gli utenti del sito stanno facendo clic.
 
Inoltre, l' analisi dei clic può avvenire in tempo reale o "irreale", a seconda del tipo di informazioni ricercate. In genere, gli editori di prima pagina sui siti di notizie ad alto traffico vorranno monitorare le loro pagine in tempo reale, per ottimizzare il contenuto. Editori, designer o altri tipi di stakeholder possono analizzare i clic su un arco di tempo più ampio per aiutarli a valutare le prestazioni di scrittori, elementi di design o pubblicità, ecc.
 
I dati sui clic possono essere raccolti in almeno due modi. Idealmente, un clic viene "registrato" quando si verifica e questo metodo richiede alcune funzionalità che raccolgono le informazioni rilevanti quando si verifica l'evento. In alternativa, si può ipotizzare che una visualizzazione di pagina sia il risultato di un clic e quindi registrare un clic simulato che ha portato a quella visualizzazione di pagina.
Riga 146:
 
== Fonti comuni di confusione nell'analisi dei dati web ==
 
=== Il problema dell'hotel ===
Il problema dell'hotel è generalmente il primo problema riscontrato da un utente di web analytics. Il problema è che i visitatori unici per ogni giorno in un mese non si sommano allo stesso totale dei visitatori unici per quel mese. A un utente inesperto questo sembra essere un problema in qualunque software di analisi stia utilizzando. In effetti è una semplice proprietà delle definizioni metriche.
Riga 183 ⟶ 182:
 
== Metodi di analisi dei dati web ==
 
=== Problemi con i cookie ===
Storicamente, i fornitori di soluzioni di analisi dei tag delle pagine hanno utilizzato cookie di terze parti inviati dal dominio del fornitore invece del dominio del sito web che si sta navigando. I cookie di terze parti possono gestire i visitatori che attraversano più domini non correlati all'interno del sito dell'azienda, poiché il cookie è sempre gestito dai server del fornitore.
 
Tuttavia, i cookie di terze parti in linea di principio consentono di tracciare un singolo utente attraverso i siti di diverse società, consentendo al fornitore di analisi di raccogliere l'attività dell'utente sui siti in cui ha fornito informazioni personali con la sua attività su altri siti in cui pensava di essere anonimo. Sebbene le società di analisi dei dati web neghino di farlo, altre società come le società che forniscono banner pubblicitari lo hanno fatto. Le preoccupazioni in materia di privacy relative ai cookie hanno quindi portato una notevole minoranza di utenti a bloccare o eliminare i cookie di terze parti. Nel 2005, alcuni rapporti hanno mostrato che circa il 28% degli utenti di Internet ha bloccato i cookie di terze parti e il 22% li ha cancellati almeno una volta al mese<ref>{{citecita web|lastcognome=McGann|firstnome=Rob|titletitolo=Study: Consumers Delete Cookies at Surprising Rate|url=http://www.clickz.com/clickz/news/1691871/study-consumers-delete-cookies-surprising-rate|access-dateaccesso=3 Aprilaprile 2014}}</ref>. La maggior parte dei fornitori di soluzioni per la codifica delle pagine si è ora spostata per fornire almeno l'opzione di utilizzo cookie di prima parte (cookie assegnati dal sottodominio del cliente).
 
Un altro problema è l'eliminazione dei cookie. Quando l'analisi web dipende dai cookie per identificare i visitatori unici, le statistiche dipendono da un cookie persistente per contenere un ID visitatore univoco. Quando gli utenti eliminano i cookie, di solito eliminano sia i cookie proprietari che quelli di terze parti. Se questo viene fatto tra le interazioni con il sito, l'utente apparirà come visitatore per la prima volta al successivo punto di interazione. Senza un ID visitatore unico e persistente, le conversioni, l'analisi del flusso di clic e altre metriche dipendenti dalle attività di un visitatore unico nel tempo non possono essere accurate.
 
I cookie vengono utilizzati perché gli indirizzi IP non sono sempre univoci per gli utenti e possono essere condivisi da grandi gruppi o proxy. In alcuni casi, l'indirizzo IP viene combinato con l'agente utente al fine di identificare più accuratamente un visitatore se i cookie non sono disponibili. Tuttavia, questo risolve solo parzialmente il problema perché spesso gli utenti dietro un server proxy hanno lo stesso agente utente. Altri metodi per identificare in modo univoco un utente sono tecnicamente impegnativi e limiterebbero il pubblico tracciabile o sarebbero considerati sospetti. I cookie raggiungono il minimo comune denominatore senza utilizzare tecnologie considerate [[spyware]]<ref>{{citecita web|titletitolo=Home News Access the Guide Tools Education Shopping Internet Cookies- Spyware or Neutral Technology?|url=http://news.cnet.com/Clueless-about-cookies-or-spyware/2100-1029_3-5561063.html|websitesito=CNET|publishereditore=February 2, 2005|access-dateaccesso=24 Aprilaprile 2017}}</ref>.
 
== Metodi di analisi sicuri (misurazione) ==
Potrebbe essere utile essere consapevoli del fatto che la raccolta di informazioni di terze parti è soggetta a limitazioni di rete e sicurezza applicate. Paesi, fornitori di servizi e reti private possono impedire che i dati sulle visite al sito vadano a terze parti. Tutti i metodi sopra descritti (e alcuni altri metodi non menzionati qui, come il campionamento) hanno il problema centrale di essere vulnerabili alla manipolazione (sia inflazione che deflazione). Ciò significa che questi metodi sono imprecisi e insicuri (in qualsiasi ragionevole modello di sicurezza). Questo problema è stato affrontato in una serie di articoli<ref>{{CiteCita booklibro|pagespp=[https://archive.org/details/advancesincrypto0000euro_o1s1/page/576 576]|yearanno=1998|isbn=978-3-540-64518-4|doi=10.1007/BFb0054155|volume=1403|seriestrasmissione=Lecture Notes in Computer Science|titletitolo=Advances in Cryptology — EUROCRYPT'98|first1url=https://archive.org/details/advancesincrypto0000euro_o1s1|nome1=M.|chaptercapitolo=Secure and efficient metering|last2cognome2=Pinkas|first2nome2=B.|last1cognome1=Naor}}</ref><ref>{{CiteCita journalpubblicazione|volume=30|issuenumero=1–7|pagespp=541–550541-550|yearanno=1998|doi=10.1016/S0169-7552(98)00116-0|journalrivista=Computer Networks and ISDN Systems|titletitolo=Secure accounting and auditing on the Web|first1nome1=M.|last2cognome2=Pinkas|first2nome2=B.|last1cognome1=Naor}}</ref><ref>{{CiteCita booklibro|pagespp=[https://archive.org/details/financialcryptog0000fcco/page/151 151]|last2=Malkhi|chapter-url-access=registration|citeseerx=10.1.1.46.7786|author1-linkautore1=Matthew K. Franklin|last1=Franklin|author2-linkautore2=Dahlia Malkhi|first2=D.|chaptercapitolo=Auditable metering with lightweight security|yearanno=1997|first1=M. K.|titletitolo=Financial Cryptography|seriestrasmissione=Lecture Notes in Computer Science|volume=1318|doi=10.1007/3-540-63594-7_75|isbn=978-3-540-63594-9|chapter-urlurlcapitolo=https://archive.org/details/financialcryptog0000fcco/page/151}}</ref><ref>{{CiteCita journalpubblicazione|volume=1|pagesp=39|yearanno=2007|doi=10.1504/IJICS.2007.012244|journalrivista=International Journal of Information and Computer Security|titletitolo=Deflation-secure web metering|first1nome1=R.|last2cognome2=Staddon|first2nome2=J.|last1cognome1=Johnson|citeseerx=10.1.1.116.3451}}</ref>, ma le soluzioni suggerite in questi documenti rimangono teoriche, forse per mancanza di interesse da parte della comunità ingegneristica, o per guadagni finanziari che la situazione attuale offre ai proprietari di grandi siti web. Per maggiori dettagli, consultare i suddetti documenti.
 
== Note ==
Riga 202 ⟶ 200:
* [[Sistema di tracciamento]]
 
== Altri progetti ==
{{interprogetto}}
 
== Collegamenti esterni ==
* {{Collegamenti esterni}}
 
{{Controllo di autorità}}
{{Portale|informatica}}