Informazione: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Annullate le modifiche di 54.82.102.6 (discussione), riportata alla versione precedente di Vituzzu |
m Annullate le modifiche di 109.52.226.36 (discussione), riportata alla versione precedente di BashonUbuntuonWindows Etichetta: Rollback |
||
(219 versioni intermedie di 96 utenti non mostrate) | |||
Riga 1:
{{nota disambigua|il quotidiano|Informazione (quotidiano)}}
{{NN|Informatica|luglio 2023}}
[[File:Red traffic signal, Stamford Road, Singapore - 20111210-02.jpg|miniatura|verticale=0.7|Il [[semaforo]] è un classico esempio di [[dato]].<br>In questo caso di tipo ''colore'', cardinalità ''3'' e valore ''rosso''. L'informazione [[codifica]]ta è quella relativa allo stato della viabilità locale.]]
In generale può essere descritta come '''informazione''' qualsiasi ''"notizia, [[dato]] o elemento che consente di avere [[conoscenza]] più o meno esatta di fatti, situazioni, modi di essere''".<ref>{{Treccani|informazione}}</ref>
Nella pratica il concetto di informazione non è ben definito e tende ad assumere sfumature diverse in base al contesto di applicazione.<ref name="cita Jianfeng et al 2023">{{cita|Jianfeng et al 2023|p. v}}.</ref>
In [[biblioteconomia]] è comune definire l{{'}}informazione come l'insieme di [[dati]], correlati tra loro, con cui un'[[idea]] (o un fatto) prende forma ed è comunicata.<ref>Giuliano Vigini, ''Glossario di biblioteconomia e scienza dell'informazione'', Editrice Bibliografica, Milano 1985, p. 62.</ref>
In [[ingegneria]] ed [[informatica]] si è invece consolidata una [[teoria dell'informazione|teoria quantitativa dell'informazione]], che pur essendo costruita con rigore e formalismo matematico poggia comunque su una definizione [[assioma]]tica e circolare del concetto.<ref>
{{cita pubblicazione
|titolo = International Encyclopedia of the Social & Behavioral Sciences
|url = https://archive.org/details/internationalenc0024unse
|articolo = Information Theory
|autore-articolo = L. Martignon
|editore = Elsevier
|anno = 2001
|DOI = 10.1016/B0-08-043076-7/00608-2
|ISBN = 978-0-08-043076-8
}}
</ref><ref>
{{cita pubblicazione
|titolo = A mathematical theory of communication
|autore = [[Claude Elwood Shannon]]
|rivista = ACM SIGMOBILE Mobile Computing and Communications Review
|volume = 5
|numero = 1
|editore = [[Association for Computing Machinery]]
|città = New York (NY, USA)
|data = 1º gennaio 2001
|annooriginale = prima pubblicazione 1948
|lingua = en
|issn = 1559-1662
|doi = 10.1145/584091.584093
}}
</ref><ref name="cita Jianfeng et al 2023"/>
In ogni caso l'informazione è un [[trascendenza|concetto trascendente]], il cui studio risulta di notevole interesse in numerosi ambiti: ad esempio in campo tecnico è oggetto di studio dell'[[ingegneria dell'informazione]], sul fronte delle [[scienze sociali]] è oggetto d'indagine delle [[scienze della comunicazione]] e in generale della [[sociologia]], con particolare riguardo agli aspetti legati alla diffusione dei [[mezzi di comunicazione di massa]] nell'attuale [[società dell'informazione]] (o [[era dell'informazione]]).<ref name="cita Jianfeng et al 2023"/>
== Etimologia ==
La parola informazione deriva dal sostantivo [[Lingua latina|latino]] ''informatio(-nis)'' (dal verbo ''informare'', nel significato di "dare forma
Inoltre la parola greca corrispondente era "μορφή" (''morfè'', da cui il latino ''forma'' per [[metatesi (linguistica)|metatesi]]), oppure "εἶδος" (''éidos'', da cui il latino ''idea''), cioè "idea", "concetto" o "forma", "immagine"; la seconda parola fu notoriamente usata tecnicamente in ambito filosofico da [[Platone]] e [[Aristotele]] per indicare l'identità ideale o [[essenza (filosofia)|essenza]] di qualcosa (vedi [[Teoria delle
== Descrizione ==
In generale un'informazione ha valore in quanto potenzialmente utile al fruitore per i suoi molteplici scopi: nell'informazione, infatti, è spesso contenuta [[conoscenza]] o [[esperienza]] di fatti reali vissuti da altri soggetti e che possono risultare utili senza dover necessariamente attendere di sperimentare ognuno ogni determinata situazione.
Sotto questo punto di vista il concetto utile di informazione e la parallela necessità di comunicare o scambiare informazione tra individui nasce, nella [[Storia dell'uomo|storia dell'umanità]], con l'elaborazione di [[codice (semiotica)|codici]] condivisi come il [[linguaggio]] e la successiva [[invenzione]] della [[scrittura]] come mezzo per tramandare l'informazione ai posteri. Secondo quest'ottica la storia e l'evoluzione della società umana sono frutto dell'accumulazione di conoscenza sotto forma di informazione. Nell'informazione ad esempio è contenuto ''[[know how]]'' utile per eseguire una determinata attività o compito, cosa che la rende ad esempio una risorsa strategica in ambito [[economia|economico]] dell'[[economia aziendale]].
L'informazione e la sua elaborazione attraverso i [[computer]] hanno avuto certamente un impatto notevole nella nostra attuale vita quotidiana. L'importanza è testimoniata, ad esempio, dai sistemi di protezione escogitati mediante la [[crittografia]] e dal valore commerciale della borsa tecnologica. L'uso appropriato dell'informazione pone anche problemi etici di rilievo, come nel caso della [[riservatezza]] riguardo alle informazioni cliniche che potrebbero altrimenti avvantaggiare le compagnie di assicurazioni mediche e danneggiare i pazienti.
L'importanza e la diffusione dell'informazione nella società moderna è tale che a questa spesso ci si riferisce come la [[Era dell'Informazione|Società dell'Informazione]].
== Nei vari contesti ==
{{Vedi anche|Ingegneria dell'informazione}}
Col progredire delle conoscenze umane l'[[ingegneria dell'informazione]] ha trovato applicazioni sempre più vaste e differenziate.
I dati in un [[archivio]] sono informazioni, ma anche la configurazione degli atomi di un [[gas]] può venire considerata informazione. L'informazione può essere quindi misurata come le altre entità fisiche ed è sempre esistita, anche se la sua importanza è stata riconosciuta solo nel [[XX secolo]].
Per esempio, la fondamentale scoperta della “doppia elica” del [[DNA]] nel [[1953]] da parte di [[James Dewey Watson|James Watson]] e [[Francis Crick]] ha posto le basi biologiche per la comprensione della struttura degli esseri viventi da un punto di vista ''informativo''. La doppia elica è costituita da due filamenti accoppiati e avvolti su se stessi, a formare una struttura elicoidale tridimensionale. Ciascun filamento può essere ricondotto a una [[sequenza di DNA|sequenza]] di [[acidi nucleici]] (adenina, citosina, guanina, timina). Per rappresentarlo, si usa un alfabeto finito come nei calcolatori, quaternario invece che [[Sistema numerico binario|binario]], dove le lettere sono scelte tra A, C, G e T, le iniziali delle quattro componenti fondamentali. Il [[DNA]] rappresenta quindi il contenuto informativo delle funzionalità e della struttura degli esseri viventi.
Altre definizioni provengono dall'[[informatica]] e dalla [[telematica]]:
* Nel [[Comunicazione#La formazione del processo di comunicazione|modello di Shannon e Weaver]], l'informazione è considerata parte integrante del processo comunicativo;
* La [[teoria dell'informazione]] ha come scopo quello di fornire metodi per comprimere al massimo l'informazione prodotta da una sorgente eliminando tutta la ridondanza.
== Aspetti tecnici ==
{{vedi anche|Teoria dell'informazione|Bit|Dato}}
{{Organizzare|La sezione va troppo in profondità rispetto al resto della voce, bisognerebbe adottare un punto di vista più generale e delegare i dettagli alle voci citate sopra|Informatica|luglio 2023}}
L'informazione è generalmente associata a [[segnale (fisica)|segnali]], trasmissibili da un [[sistema di telecomunicazioni]] e memorizzabili su [[memoria (informatica)|supporti di memorizzazione]].
===
{{vedi anche|Quantità di informazione}}
Secondo la [[Teoria dell'Informazione]] in una comunicazione, che avviene attraverso un dato [[alfabeto]] di simboli, l'informazione viene associata a ciascun simbolo trasmesso e viene definita come ''la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso''.
In particolare, la ''quantità di informazione'' collegata
:<math> I = -\log_2 P_i</math>
dove ''<math>P_i</math>'' è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata a un simbolo è misurata in [[bit]]. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente riferito alla sorgente di simboli, è detto [[Entropia (teoria dell'informazione)|entropia]] della sorgente, misurata in bit/simbolo. La velocità di informazione di una sorgente, che non coincide con la [[frequenza]] di emissione dei simboli, dato che non è detto che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione).
Quanto sopra può essere generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata a un simbolo codificato in base <math>a</math> è per definizione pari a
:<math> I_a = -\log_a P_i</math>
con ''<math>P_i</math>'' pari alla probabilità di trasmissione associata a quel simbolo. L'[[Entropia (teoria dell'informazione)|entropia]] della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui <math>a</math> sia 10 l'entropia della sorgente è misurata in [[Hartley (unità di misura)|hartley]], se invece <math>a</math> è pari al [[Numero di Eulero (fisica)|Numero di Eulero]] <math>e</math> si misura in [[nat (unità di misura)|nat]].
Dalla formula si evince che se la probabilità <math>P_i</math> di trasmettere il simbolo è pari a uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di <math>P_i = 0</math> la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con sé alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di ''Innovazione''. I [[segnale (fisica)|segnali]] che trasportano informazione non sono dunque segnali deterministici, ma [[processo stocastico|processi stocastici]]. Nella [[teoria dei segnali]] e della trasmissione questa informazione affidata a processi aleatori è la [[modulazione|modulante]] (in ampiezza, fase o frequenza) di [[portante|portanti]] fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.
=== Rappresentazione e stoccaggio ===
{{vedi anche|Dato|Memoria (elettronica)}}
{{...|informatica}}
=== Trasmissione ===
{{vedi anche|Comunicazione|Velocità di trasmissione}}
{{...|informatica}}
=== Elaborazione ===
{{vedi anche|Calcolo (matematica)|Informatica}}
{{...|informatica}}
== Altre teorie dell'informazione ==
Lo storico [[Yuval Noah Harari]] distingue tre visioni dell'informazione:
*''la visione ingenua dell'informazione'', mutuata dal concetto psicologico di [[realismo ingenuo]], presuppone che: «raccogliendo ed elaborando molte più informazioni di quanto possano fare i singoli individui, le grandi reti raggiungono una migliore comprensione della medicina, della fisica, dell'economia e di numerosi altri campi del sapere, e questo rende la rete non solo potente ma anche sapiente.»
*''la visione populista dell'informazione'', per la quale l'informazione è solo un'arma a servizio del potere.
*''la visione complessa dell'informazione'', presuppone che le reti informative per prosperare devono contemporaneamente divulgare la verità e creare ordine, due cose spesso in antitesi.<ref>Yuval Noah Harari,''Nexus: Breve storia delle reti di informazioni dall'età della pietra all'IA'' (''Nexus: A Brief History of Information Networks from the Stone Age to AI'', 2024), trad. di Marco Piani, Collana Saggi, Milano-Firenze, 2024, ISBN 978-88-301-3799-8</ref>
Il fisico computazionale [[Federico Faggin]], inventore della tecnologia [[Metal-oxide-semiconductor|MOS]], distingue nettamente l'informazione di tipo tecnologico informatico, dipendente dall'uomo e dal [[silicio]], che è basata su gestione di dati attraverso la modalità [[meccanica classica|meccanicistica classica]], dall'informazione di tipo biologico, dipendente dal [[carbonio]], che invece si basa su modalità [[meccanica quantistica|quantistiche]] probabilistiche, che chiama ''informazione viva'', attinente organismi individualmente unici, capaci di evolvere fisicamente, con [[consapevolezza]] di sé ovvero [[coscienza]].<ref>Federico Faggin, ''Irriducibile. La coscienza, la vita, i computer e la nostra natura'', Milano, Mondadori, 2022, ISBN 9788804739036</ref>
== Note ==
Riga 78 ⟶ 114:
== Bibliografia ==
* {{cita libro
|autore = Hans Christian von Baeyer
|titolo = [[Informazione. Il nuovo linguaggio della scienza]]
|editore = Edizioni Dedalo
|anno = 2005
|ISBN = 978-88-220-0226-6
}}
* {{cita libro
|autore = Antonio Teti
|titolo = Il potere delle informazioni. Comunicazione globale, Cyberspazio, Intelligence della conoscenza
|editore = Il Sole 24 Ore Editore
|anno = 2012
|ISBN = 978-88-6345-446-8
}}
* {{cita pubblicazione
|titolo = The Scientific Conceptualization of Information: A survey
|autore = William Aspray
|rivista = Annals of History of Computing
|volume = 7
|numero = 2
|editore = American Federation of Information Processing Societies
|città = Minneapolis–Saint Paul (MN, USA)
|anno = 1985
|mese = Aprile
|lingua = en
|ISSN = 0164-1239
|DOI = 10.1109/MAHC.1985.10018
|url = https://monoskop.org/images/9/94/Aspray_William_1985_Scientific_Conceptualization_of_Information_A_Survey.pdf
|urlarchivio = https://web.archive.org/web/20161005205210/https://monoskop.org/images/9/94/Aspray_William_1985_Scientific_Conceptualization_of_Information_A_Survey.pdf
}}
* {{cita libro
|autore = Xu Jianfeng
|autore2 = Wang Shuliang
|autore3 = Liu Zhenyu
|autore4 = Yashi Wang
|autore5 = Wang Yingfei
|autore6 = Dang Yingxu
|titolo = Objective information theory
|editore = Springer
|anno = 2023
|lingua = en
|ISBN = 978-981-19-9929-1
|DOI = 10.1007/978-981-19-9929-1
|ISSN = 2191-5776
|cid = Jianfeng et al 2023
}}
* {{cita libro
|autore = Giampio Bracchi
|autore2 = Chiara Francalaci
|autore3 = Gianmario Motta
|titolo = Sistemi informativi d'impresa
|editore = McGraw-Hill
|anno = 2010
|edizione = 2
|città = Milano
|ISBN = 978-88-386-6328-4
}}
* {{cita libro
|autore = Paolo Atzeni
|autore2 = Stefano Ceri
|autore3 = Piero Fraternali
|autore4 = Stefano Paraboschi
|autore5 = Riccardo Torlone
|titolo = Basi di dati
|editore = McGraw-Hill
|anno = 2018
|edizione = 5
|città = Milano
|ISBN = 978-88-386-9445-5
}}
* [[Yuval Noah Harari]], ''Nexus: Breve storia delle reti di informazioni dall'età della pietra all'IA'', (Nexus: A Brief History of Information Networks from the Stone Age to AI, 2024) , trad. di Marco Piani, Collana Saggi, Milano-Firenze, 2024, ISBN 978-88-301-3799-8.
== Voci correlate ==
{{Div col|cols=2}}
* [[Codice (semiotica)]]
* [[Comunicazione]]
* [[Conoscenza]]
* [[
* [[
* [[Disinformazione]]
* [[Guerra dell'informazione]]
* [[Manipolazione dell'informazione]]
* [[Infodemiologia]]
* [[Informatica]]
* [[Infodemia]]
* [[Sovraccarico cognitivo]]
* [[Teoria dell'informazione integrata]]
* [[Teoria dell'informazione]]
* [[Teoria dei codici]]
* [[Teoria dei segnali]]
{{Div col end}}
== Altri progetti ==
{{
== Collegamenti esterni ==
* {{
* {{FOLDOC|information|information}}
* {{cita web|http://plato.stanford.edu/entries/information/|Stanford Encyclopedia of Philosophy - Information}}
* {{Youtube|autore=[[Jim Al-Khalili]]|id=qj7HH0PCqIE|titolo=Harnessing The Power Of Information | Order and Disorder | Spark|produttore=Spark|lingua=en|data=4 novembre 2019}}
{{Controllo di autorità}}
{{Portale|diritto|informatica|psicologia|scienza e tecnica}}
[[Categoria:Informazione| ]]
|