Big data analytics: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Funzionalità collegamenti suggeriti: 2 collegamenti inseriti.
 
(46 versioni intermedie di 22 utenti non mostrate)
Riga 1:
[[File:BDA.png|BDA|destra]]
'''Big data analytics''' è il processo di raccolta e [[Analisi dei dati|analisi]] di grandi volumi di [[dati]] ([[big data]]) per estrarre [[informazione|informazioni]] nascoste. Associati a sofisticate analisi di business, i [[big data]] hanno il potenziale di dare alle [[impresa|imprese]] [[Insight#Nelle discipline di marketing|intuizioni]] sulle condizioni di [[mercato]]<ref>{{Cita pubblicazione|nome=Claudio|cognome=Vitari|data=9 settembre 2019|titolo=Big data analytics business value and firm performance: linking with environmental context|rivista=International Journal of Production Research|pp=1-21|lingua=en|accesso=23 ottobre 2019|doi=10.1080/00207543.2019.1660822|url=https://www.tandfonline.com/doi/full/10.1080/00207543.2019.1660822|nome2=Elisabetta|cognome2=Raguseo}}</ref>, sul comportamento dei clienti, rendendo l’attività decisionale più efficace e veloce rispetto alla [[concorrenza. Oggi(economia)|concorrenza]]<ref>{{Cita sonopubblicazione|nome=Elisabetta|cognome=Raguseo|data=3 forniteagosto diverse2018|titolo=Investments tecnologiein ebig tecnichedata dianalytics analisiand perfirm scoprireperformance: patternsan nascostiempirical einvestigation connessioniof tradirect iand dati.mediating Essieffects|rivista=International siJournal discostanoof Production Research|volume=56|numero=15|pp=5206-5221|lingua=en|accesso=23 ottobre 2019|doi=10.1080/00207543.2018.1427900|url=https://www.tandfonline.com/doi/full/10.1080/00207543.2018.1427900|nome2=Claudio|cognome2=Vitari}}</ref>, discostandosi dalle tradizionali soluzioni di [[business intelligence]] perché operano suisu biggrandi datavolumi di dati e richiedono pertanto richiedonoun’[[elaborazione un’elaborazionedati|elaborazione]] più lenta e meno efficiente. Oggi sono fornite diverse tecnologie e tecniche di analisi per scoprire patterns nascosti e connessioni tra i dati.
 
EssoTale permetteprocesso di conoscereanalisi anticipatamentepermette cosadi accadrà.operare Ciò rientra nell’un’[[analisi predittiva]], ovvero permette di conoscere anticipatamente cosa accadrà: ciò diventa possibile poiché se abbiamo un modello e abbiamo dati storici a sufficienza possiamo determinare cosa succederà in un futuro prossimo (una tendenza) con basi o fondamenti [[statistica|statistici]]. Sulla base di queste previsioni è possibile poi intervenire sul futuro mediante un'analisi prescrittiva, ovvero si vanno a cercare le condizioni affinché un certo evento accada.
 
Quindi, i big data rappresentano il nuovo strumento che rende "misurabile" la [[società. Spingono(sociologia)|società]]: spingono verso una nuova [[scienza dei dati]], in grado di misurare e, in prospettiva, prevedere crisi economiche, [[epidemie]], diffusione di opinioni, distribuzione delle risorse economiche, bisogni di mobilità.<ref>{{cita pubblicazione|autore1=Dino Pedreschi|lingua=EN|anno=2012|titolo=Siamo tutti pollicini digitali|url=http://novareview.ilsole24ore.com/lavitanova/230787|accesso=2017-06-30 giugno 2017|dataarchivio=10 aprile 2018|urlarchivio=https://web.archive.org/web/20180410072437/http://novareview.ilsole24ore.com/lavitanova/230787|urlmorto=sì}}</ref>
 
== Storia ==
Per molti anni si è parlato di Big Data, ma solo recentemente molte organizzazioni hanno compreso la loro importanza. Catturare l’innumerevole mole di dati, che viene condivisa ogni giorno nel proprio business, permette ad un’azienda di analizzare ed estrarre informazioni significative e talvolta vitali per le proprie [[decisione|decisioni. Inizialmente, prima ancora che il termine “Big Data” venisse usato, le attività commerciali erano basate su semplici analisi numeriche per scoprire informazioni e andamenti nascosti. Oggi invece le informazioni sono recuperate da enormi volumi di dati, dove l’analisi, ormai diventata veloce, permette di anticipare le scelte future in modo più accurato]].
 
Inizialmente, prima ancora che il termine “Big Data” venisse usato, le attività commerciali erano basate su semplici analisi numeriche per scoprire informazioni e andamenti nascosti. Oggi invece le informazioni sono recuperate da enormi volumi di dati, dove l’analisi, ormai diventata veloce, permette di anticipare le scelte future in modo più accurato. Negli ultimi, il ricorso ai Big Data Analytics prevede progettualità e metodologie sempre più complesse e avanzate ([[Analisi predittiva|analisi predittive]] e [[Real time analytics|real time]], ricorso a [[data lake]] o [[Data integration|modelli integrati di archiviazione dati]], team dedicati alla gestione della [[Scienza dei dati|data science]]) in grado di impattare su tutti i processi di un'organizzazione: comunicazioni personalizzate, ottimizzazione dei processi produttivi, gestione delle emergenze, etc...
 
== Descrizione ==
=== Definizione e caratteristiche ===
Si tratta di un processo di Business Intelligence adattato ai Big Data. Sono, quindi, necessari strumenti automatici che possano aiutare i [[manager]] ed i responsabili dell'azienda a prendere le decisioni giuste per massimizzare i profitti ed evitare gli sprechi dovuti a scelte sbagliate, soprattutto negli ultimi anni in cui la [[Grande recessione|crisi economica]] lascia ancora meno margini per gli errori.
 
La presenza di dati non strutturati, rende necessario un diverso approccio nell’analisi che differisce dai tradizionali sistemi di gestione delle basi di dati. In questo contesto bisogna disporre di architetture software predisposte alla gestione di grossi volumi di dati, capaci di elaborazioni parallele su sistemi [[computer cluster|cluster]]. [[Tecnologie emergenti]] come [[Hadoop]], [[MapReduce]] e [[NoSQL]] databases.
 
I principali obiettivi della Big Data analytics<ref>{{Cita pubblicazione|nome=Elisabetta|cognome=Raguseo|data=2018-2|titolo=Big data technologies: An empirical investigation on their adoption, benefits and risks for companies|rivista=International Journal of Information Management|volume=38|numero=1|pp=187-195|lingua=en|accesso=23 ottobre 2019|doi=10.1016/j.ijinfomgt.2017.07.008|url=https://linkinghub.elsevier.com/retrieve/pii/S0268401217300063}}</ref> sono:
I principali obiettivi della Big Data analytics sono:
* ''Ridurre i costi'': sono introdotte nuove tecnologie per ridurre i costi di gestione e analisi di grandi volumi di dati.
* ''Velocità'': le analisi condotte devono essere capaci di produrre un risultato in breve tempo, oggi si fa sempre più riferimento ad analisi real time.
Line 24 ⟶ 26:
=== Differenze con la business intelligence ===
La crescente maturità del concetto dei Big Data mette in evidenza le differenze con la [[Business Intelligence]], in materia di dati e del loro utilizzo:
* la ''Business Intelligence'' utilizza la [[statistica descrittiva]] con dati ad alta densità di informazione per misurare cose, rilevare tendenze, ecc., utilizza cioè [[dataset]] limitati, dati puliti e modelli semplici per scoprire cosa è successo e perché è successo;<ref name="emc">{{cita pubblicazione|titolo=I Big Data vi parlano. Li state ascoltando?|anno=2012|editore=[[EMC Corporation]]|url=http://italy.emc.com/microsites/cio/articles/big-data-pwf/pwf.pdf|accesso=17 luglio 2017}}</ref>
* i ''Big Data'' utilizzano la [[statistica inferenziale]] e concetti di identificazione di [[Sistema non lineare|sistemi non lineari]]<ref name="billings">{{cita libro|titolo=Nonlinear system identification: NARMAX methods in the time, frequency, and spatio-temporal domains|autore=Stephen A. Billings|lingua=EN|città=New York|data=2013-09-23 settembre 2013|editore=Wiley|isbn=978-1119943594}}</ref> per dedurre leggi ([[Analisi della regressione|regressioni]], relazioni non lineari ed effetti [[Causalità naturale|causali]]) da grandi insiemi di dati<ref>{{cita web|url=http://www.andsi.fr/tag/dsi-big-data|autore=Pierre Delort|titolo=Big data Paris 2013|lingua=FR|accesso=2017-06-25 giugno 2017}}</ref>, e per rivelare rapporti e dipendenze ed effettuare previsioni di risultati e comportamenti<ref name="billings" /><ref>
{{cita web|url=http://lecercle.lesechos.fr/entrepreneur/tendances-innovation/221169222/big-data-low-density-data-faible-densite-information-com|autore=Pierre Delort|titolo=Big Data car Low-Density Data? La faible densité en information comme facteur discriminant|lingua=FR|accesso=2017-06-25 giugno 2017}}</ref>, in altre parole utilizzano dataset eterogenei (non [[Correlazione (statistica)|correlati]] tra loro), dati raw e modelli predittivi complessi.<ref name="emc"/><ref>
 
{{cita pubblicazione|url=http://iopscience.iop.org/article/10.1088/1742-6596/626/1/012005/pdf|autore1=Mario Rasetti|autore2=Emanuela Merelli|titolo=The Topological Field Theory of Data: a program towards a novel strategy for data mining through data language|editore=IOP Publishing Ltd|rivista=Journal of Physics: Conference Series|volume=626|città=Torino|anno=2015|doi=10.1088/1742-6596/626/1/012005|accesso=2017-06-25 giugno 2017}}</ref>
 
L'autore Jonathan Koomey, autore della [[Legge di Koomey]]<ref>{{Cita pubblicazione|data=1º ottobre 2008|titolo=Recommended Best Practices|url=http://dx.doi.org/10.14217/9781848590151-8-en|accesso=3 giugno 2021|sito=dx.doi.org|doi=10.14217/9781848590151-8-en}}</ref>, ha raccomandato una serie di buone pratiche per comprendere i dati quantitativi. Questi includono:
== Note ==
<references/>
 
*Verificare la presenza di [[Anomalia media|anomalie]] nei dati grezzi prima di eseguire un'analisi;
== Bibliografia ==
*Eseguire nuovamente calcoli importanti, come la verifica di colonne di dati basate su formule;
* Arshdeep Bahga, Vijay Madisetti, Big Data Science & Analytics: A Hands-On Approach, ISBN 978-0996025539, VPT, 2016
*Confermare che i totali principali sono la somma dei subtotali;
* Alessandro Rezzani, Big Data Analytics. Il manuale del data scientist, ISBN 978-8891621856, Apogeo Education, 2017
*Controlla le relazioni tra i numeri che dovrebbero essere [[Correlazione (statistica)|correlati]] in modo prevedibile, come i rapporti nel tempo;
*Normalizzare i numeri per facilitare i confronti, come analizzare gli importi per persona o relativi al PIL o come valore dell'indice relativo a un anno base;
*Suddividi i problemi in parti componenti analizzando i fattori che hanno portato ai risultati, come l'analisi DuPont del rendimento del capitale.
 
Per le variabili in esame, gli analisti in genere ottengono per esse statistiche descrittive, come media (media), mediana e deviazione standard. Possono anche analizzare la distribuzione delle variabili chiave per vedere come i singoli valori si raggruppano attorno alla media.<ref>{{Cita libro|titolo=Python Data Science Handbook|autore=Jake VanderPlas|url=https://python.engineering/python-data-science-handbook/|ISBN=978-1491912058|data=2016|editore=O'Reilly Media}}</ref>
 
== Note ==
<references />
== Voci correlate ==
* [[Analisi dei dati]]
Line 42 ⟶ 50:
* [[Business intelligence]]
* [[Data mining]]
* [[Extract, transform, load]]
* [[Privacy]]
 
== Altri progetti ==
{{interprogetto}}
 
== Collegamenti esterni ==
 
{{Controllo di autorità}}
{{portale|informatica|statistica}}