Big data analytics: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
m smistamento lavoro sporco e fix vari |
||
Riga 1:
[[File:BDA.png|BDA|destra]]
'''Big data analytics''' è il processo di raccolta e [[Analisi dei dati|analisi]] di grandi volumi di [[dati]] ([[big data]]) per estrarre [[informazione|informazioni]] nascoste. Associati a sofisticate analisi di business, i [[big data]] hanno il potenziale di dare alle [[impresa|imprese]] intuizioni sulle condizioni di [[mercato]]<ref>{{Cita pubblicazione|nome=Claudio|cognome=Vitari|data=9 settembre 2019
Tale processo di analisi permette di operare un’[[analisi predittiva]], ovvero permette di conoscere anticipatamente cosa accadrà: ciò diventa possibile poiché se abbiamo un modello e abbiamo dati storici a sufficienza possiamo determinare cosa succederà in un futuro prossimo (una tendenza) con basi o fondamenti [[statistica|statistici]]. Sulla base di queste previsioni è possibile poi intervenire sul futuro mediante un'analisi prescrittiva, ovvero si vanno a cercare le condizioni affinché un certo evento accada.
Quindi i big data rappresentano il nuovo strumento che rende "misurabile" la [[società (sociologia)|società]]: spingono verso una nuova [[scienza dei dati]], in grado di misurare e, in prospettiva, prevedere [[Crisi economica|crisi economiche]], [[epidemie]], diffusione di opinioni, distribuzione delle risorse economiche, bisogni di mobilità.<ref>{{cita pubblicazione|autore1=Dino Pedreschi|lingua=EN|anno=2012|titolo=Siamo tutti pollicini digitali|url=http://novareview.ilsole24ore.com/lavitanova/230787|accesso=
== Storia ==
Riga 17:
La presenza di dati non strutturati, rende necessario un diverso approccio nell’analisi che differisce dai tradizionali sistemi di gestione delle basi di dati. In questo contesto bisogna disporre di architetture software predisposte alla gestione di grossi volumi di dati, capaci di elaborazioni parallele su sistemi [[computer cluster|cluster]]. Tecnologie emergenti come [[Hadoop]], [[MapReduce]] e [[NoSQL]] databases.
I principali obiettivi della Big Data analytics<ref>{{Cita pubblicazione|nome=Elisabetta|cognome=Raguseo|data=2018-2|titolo=Big data technologies: An empirical investigation on their adoption, benefits and risks for companies|rivista=International Journal of Information Management|volume=38|numero=1|pp=187–195|lingua=en|accesso=
* ''Ridurre i costi'': sono introdotte nuove tecnologie per ridurre i costi di gestione e analisi di grandi volumi di dati.
* ''Velocità'': le analisi condotte devono essere capaci di produrre un risultato in breve tempo, oggi si fa sempre più riferimento ad analisi real time.
Riga 27:
La crescente maturità del concetto dei Big Data mette in evidenza le differenze con la [[Business Intelligence]], in materia di dati e del loro utilizzo:
* la ''Business Intelligence'' utilizza la [[statistica descrittiva]] con dati ad alta densità di informazione per misurare cose, rilevare tendenze, ecc., utilizza cioè dataset limitati, dati puliti e modelli semplici per scoprire cosa è successo e perché è successo;<ref name="emc">{{cita pubblicazione|titolo=I Big Data vi parlano. Li state ascoltando?|anno=2012|editore=[[EMC Corporation]]|url=http://italy.emc.com/microsites/cio/articles/big-data-pwf/pwf.pdf|accesso=17 luglio 2017}}</ref>
* i ''Big Data'' utilizzano la [[statistica inferenziale]] e concetti di identificazione di [[Sistema non lineare|sistemi non lineari]]<ref name="billings">{{cita libro|titolo=Nonlinear system identification: NARMAX methods in the time, frequency, and spatio-temporal domains|autore=Stephen A. Billings|lingua=EN|città=New York|data=
{{cita web|url=http://lecercle.lesechos.fr/entrepreneur/tendances-innovation/221169222/big-data-low-density-data-faible-densite-information-com|autore=Pierre Delort|titolo=Big Data car Low-Density Data? La faible densité en information comme facteur discriminant|lingua=FR|accesso=
{{cita pubblicazione|url=http://iopscience.iop.org/article/10.1088/1742-6596/626/1/012005/pdf|autore1=Mario Rasetti|autore2=Emanuela Merelli|titolo=The Topological Field Theory of Data: a program towards a novel strategy for data mining through data language|editore=IOP Publishing Ltd|rivista=Journal of Physics: Conference Series|volume=626|città=Torino|anno=2015|doi=10.1088/1742-6596/626/1/012005|accesso=
L'autore Jonathan Koomey<ref>{{
*Verificare la presenza di [[Anomalia media|anomalie]] nei dati grezzi prima di eseguire un'analisi;
Riga 41:
*Suddividi i problemi in parti componenti analizzando i fattori che hanno portato ai risultati, come l'analisi DuPont del rendimento del capitale.
Per le variabili in esame, gli analisti in genere ottengono per esse statistiche descrittive, come media (media), mediana e deviazione standard. Possono anche analizzare la distribuzione delle variabili chiave per vedere come i singoli valori si raggruppano attorno alla media.<ref>{{
== Note ==
|