Informazione: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Annullate le modifiche di 109.52.226.36 (discussione), riportata alla versione precedente di BashonUbuntuonWindows
Etichetta: Rollback
 
(327 versioni intermedie di oltre 100 utenti non mostrate)
Riga 1:
{{nota disambigua|il quotidiano|Informazione (quotidiano)}}
{{Avvisounicode}}
{{NN|Informatica|luglio 2023}}
{{nota disambigua|il quotidiano |[[Informazione (Quotidiano)]]}}
{{S|informatica}}
 
[[File:Red traffic signal, Stamford Road, Singapore - 20111210-02.jpg|miniatura|verticale=0.7|Il [[semaforo]] è un classico esempio di [[dato]].<br>In questo caso di tipo ''colore'', cardinalità ''3'' e valore ''rosso''. L'informazione [[codifica]]ta è quella relativa allo stato della viabilità locale.]]
L''''informazione''' è ciò che, per un osservatore o un recettore posto in una situazione in cui si hanno almeno due occorrenze possibili, supera un'incertezza e risolve un'alternativa, cioè sostituisce il noto all'ignoto, il certo all'incerto. <br />
 
In altre parole, essa riguarda il contesto in cui i dati sono raccolti, la loro [[codifica]] in forma intellegibile ed in definitiva il [[significato]] attribuito a tali dati.
In generale può essere descritta come '''informazione''' qualsiasi ''"notizia, [[dato]] o elemento che consente di avere [[conoscenza]] più o meno esatta di fatti, situazioni, modi di essere''".<ref>{{Treccani|informazione}}</ref>
Nella pratica il concetto di informazione non è ben definito e tende ad assumere sfumature diverse in base al contesto di applicazione.<ref name="cita Jianfeng et al 2023">{{cita|Jianfeng et al 2023|p. v}}.</ref>
 
In [[biblioteconomia]] è comune definire l{{'}}informazione come l'insieme di [[dati]], correlati tra loro, con cui un'[[idea]] (o un fatto) prende forma ed è comunicata.<ref>Giuliano Vigini, ''Glossario di biblioteconomia e scienza dell'informazione'', Editrice Bibliografica, Milano 1985, p. 62.</ref>
 
In [[ingegneria]] ed [[informatica]] si è invece consolidata una [[teoria dell'informazione|teoria quantitativa dell'informazione]], che pur essendo costruita con rigore e formalismo matematico poggia comunque su una definizione [[assioma]]tica e circolare del concetto.<ref>
{{cita pubblicazione
|titolo = International Encyclopedia of the Social & Behavioral Sciences
|url = https://archive.org/details/internationalenc0024unse
|articolo = Information Theory
|autore-articolo = L. Martignon
|editore = Elsevier
|anno = 2001
|DOI = 10.1016/B0-08-043076-7/00608-2
|ISBN = 978-0-08-043076-8
}}
</ref><ref>
{{cita pubblicazione
|titolo = A mathematical theory of communication
|autore = [[Claude Elwood Shannon]]
|rivista = ACM SIGMOBILE Mobile Computing and Communications Review
|volume = 5
|numero = 1
|editore = [[Association for Computing Machinery]]
|città = New York (NY, USA)
|data = 1º gennaio 2001
|annooriginale = prima pubblicazione 1948
|lingua = en
|issn = 1559-1662
|doi = 10.1145/584091.584093
}}
</ref><ref name="cita Jianfeng et al 2023"/>
 
In ogni caso l'informazione è un [[trascendenza|concetto trascendente]], il cui studio risulta di notevole interesse in numerosi ambiti: ad esempio in campo tecnico è oggetto di studio dell'[[ingegneria dell'informazione]], sul fronte delle [[scienze sociali]] è oggetto d'indagine delle [[scienze della comunicazione]] e in generale della [[sociologia]], con particolare riguardo agli aspetti legati alla diffusione dei [[mezzi di comunicazione di massa]] nell'attuale [[società dell'informazione]] (o [[era dell'informazione]]).<ref name="cita Jianfeng et al 2023"/>
 
== Etimologia ==
La parola informazione deriva dal sostantivo [[Lingua latina|latino]] ''informatio(-nis)'' (dal verbo ''informare'', nel significato di "dare forma", "disciplinare", "istruire", "insegnare"). Già in latino la parola veniva usata anche per indicare un "[[concetto]]" o un'"[[idea]]", ma non è chiaro se questa parola possa avere influenzato lo sviluppo della parola ''informazione''<ref>https://disf.org/informazione</ref>.
 
Inoltre la parola greca corrispondente era "μορφή" (''morfè'', da cui il latino ''forma'' per [[metatesi (linguistica)|metatesi]]), oppure "εἶδος" (''éidos'', da cui il latino ''idea''), cioè "idea", "concetto" o "forma", "immagine"; la seconda parola fu notoriamente usata tecnicamente in ambito filosofico da [[Platone]] e [[Aristotele]] per indicare l'identità ideale o [[essenza (filosofia)|essenza]] di qualcosa (vedi [[Teoria delle forme]]). ''Eidos'' si può anche associare a "pensiero", "asserzione" o "concetto".<ref>Il termine indicava originariamente "ciò che appare alla vista", derivando dalla radice [[Lingue indoeuropee|indoeuropea]] *''weid-''/''wid-''/''woid-'', "vedere" (confronta il latino ''video''). Esso venne però ad assumere in seguito una grande molteplicità di significati (per esempio, in [[Isocrate]] esso indica il "modello teorico" di un'[[orazione (retorica)|orazione]]).</ref>
La parola deriva dal sostantivo latino ''informatione(m)'' (confronta il verbo ''informare'', nel significato di "dare forma alla mente", "disciplinare", "istruire", "insegnare"). Già in latino la parola veniva usata per indicare un "concetto" o un'"idea", ma non è chiaro se questa parola possa avere influenzato lo sviluppo della parola ''informazione''.
 
== Descrizione ==
Inoltre la parola greca corrispondente era "μορφή" (''morfè'', da cui il latino ''forma'' per [[metatesi]]), oppure "εἶδος" (''éidos'', da cui il latino ''idea''), cioè "idea", "concetto" o "forma", "immagine"; la seconda parola fu notoriamente usata tecnicamente in ambito filosofico da [[Platone]] e [[Aristotele]] per indicare l'identità ideale o [[essenza]] di qualcosa (vedi [[Teoria delle idee]]). ''Eidos'' si può anche associare a "pensiero", "asserzione" o "concetto".<ref>Il termine indicava originariamente "ciò che appare alla vista", derivando dalla radice [[indoeuropeo|indoeuropea]] *''weid-''/''wid-''/''woid-'', "vedere" (confronta il latino ''video''). Esso venne però ad assumere in seguito una grande molteplicità di significati (per esempio, in [[Isocrate]] esso indica il "modello teorico" di un'[[orazione]]).</ref>
In generale un'informazione ha valore in quanto potenzialmente utile al fruitore per i suoi molteplici scopi: nell'informazione, infatti, è spesso contenuta [[conoscenza]] o [[esperienza]] di fatti reali vissuti da altri soggetti e che possono risultare utili senza dover necessariamente attendere di sperimentare ognuno ogni determinata situazione.
 
Sotto questo punto di vista il concetto utile di informazione e la parallela necessità di comunicare o scambiare informazione tra individui nasce, nella [[Storia dell'uomo|storia dell'umanità]], con l'elaborazione di [[codice (semiotica)|codici]] condivisi come il [[linguaggio]] e la successiva [[invenzione]] della [[scrittura]] come mezzo per tramandare l'informazione ai posteri. Secondo quest'ottica la storia e l'evoluzione della società umana sono frutto dell'accumulazione di conoscenza sotto forma di informazione. Nell'informazione ad esempio è contenuto ''[[know how]]'' utile per eseguire una determinata attività o compito, cosa che la rende ad esempio una risorsa strategica in ambito [[economia|economico]] dell'[[economia aziendale]].
== Aspetti generali ==
Il concetto di '''informazione''' è vasto e differenziato: informazione è in generale qualunque [[notizia]] o [[racconto]], inoltre qualunque [[comunicazione]] scritta o orale contiene informazione. I dati in un [[archivio]] sono informazioni, ma anche la configurazione degli atomi di un [[gas]] può venire considerata informazione. L’informazione può essere quindi misurata come le altre entità fisiche ed è sempre esistita, anche se la sua importanza è stata riconosciuta solo nel [[XX secolo]].
 
L'informazione e la sua elaborazione attraverso i [[computer]] hanno avuto certamente un impatto notevole nella nostra attuale vita quotidiana. L'importanza è testimoniata, ad esempio, dai sistemi di protezione escogitati mediante la [[crittografia]] e dal valore commerciale della borsa tecnologica. L'uso appropriato dell'informazione pone anche problemi etici di rilievo, come nel caso della [[riservatezza]] riguardo alle informazioni cliniche che potrebbero altrimenti avvantaggiare le compagnie di assicurazioni mediche e danneggiare i pazienti.
Per esempio, la fondamentale scoperta della “doppia elica” del [[DNA]] nel [[1953]] da parte di [[James Watson]] e [[Francis Crick]] ha posto le basi biologiche per la comprensione della struttura degli esseri viventi da un punto di vista ''informativo''. La doppia elica è costituita da due filamenti accoppiati e avvolti su se stessi, a formare una struttura elicoidale tridimensionale. Ciascun filamento può essere ricondotto a una [[sequenza]] di [[acidi nucleici]] (adenina, citosina, guanina, timina). Per rappresentarlo, si usa un alfabeto finito come nei calcolatori, quaternario invece che [[Sistema numerico binario|binario]], dove le lettere sono scelte tra A, C, G e T, le iniziali delle quattro componenti fondamentali. Il [[DNA]] rappresenta quindi il contenuto informativo delle funzionalità e della struttura degli esseri viventi.
 
L'importanza e la diffusione dell'informazione nella società moderna è tale che a questa spesso ci si riferisce come la [[Era dell'Informazione|Società dell'Informazione]].
L’informazione e la sua elaborazione attraverso i [[computer]] hanno certamente un impatto notevole nella vita quotidiana. L’importanza è testimoniata, per esempio, dai sistemi di protezione escogitati mediante la [[crittografia]] e dal valore commerciale della borsa tecnologica. L’uso appropriato dell’informazione pone problemi etici di rilievo, come nel caso della [[riservatezza]] riguardo le informazioni cliniche che potrebbero altrimenti avvantaggiare le compagnie di assicurazioni mediche e danneggiare i pazienti.
 
== MisuraNei dell'informazionevari contesti ==
{{Vedi anche|Ingegneria dell'informazione}}
Secondo la [[Teoria dell'Informazione]] in una comunicazione, che avviene attraverso un dato alfabeto di simboli, l'informazione viene associata a ciascun simbolo trasmesso e viene definita come ''la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso''.
 
Col progredire delle conoscenze umane l'[[ingegneria dell'informazione]] ha trovato applicazioni sempre più vaste e differenziate.
In particolare, la ''quantità di informazione'' collegata ad un simbolo è definita come</br>
</br>
:<math> \operatorname I = -log_2 P_i</math></br>
</br>
dove ''<math>P_i</math>'' è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata ad un simbolo è misurata in [[bit]]. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente riferito alla sorgente di simboli, è detto [[Entropia (teoria dell'informazione)|entropia]] della sorgente, misurata in bit/simbolo. La velocità di informazione di una sorgente, che non coincide con la [[frequenza]] di emissione dei simboli, dato che non è detto che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione).
Quanto sopra può essere generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata ad un simbolo codificato in base <math>a</math> è per definizione pari a</br>
</br>
:<math> \operatorname I_a = -log_a P_i</math></br>
</br>
con ''<math>P_i</math>'' pari alla probabilità di trasmissione associata a quel simbolo. L'[[Entropia (teoria dell'informazione)|entropia]] della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui <math>a</math> sia 10 l'entropia della sorgente è misurata in [[hartley]], se invece <math>a</math> è pari al [[Numero di Eulero]] <math>e</math> si misura in [[nat (unità di misura)|nat]].
Dalla formula si evince che se la probabilità Pi di trasmettere il simbolo è pari ad uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di Pi=0 la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con se alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di ''Innovazione''. I [[segnale|segnali]] che trasportano informazione non sono dunque segnali deterministici, ma [[processo stocastico|processi stocastici]]. Nella [[teoria dei segnali]] e della trasmissione questa informazione affidata a processi aleatori è la [[modulazione|modulante]] (in ampiezza, fase o frequenza) di portanti fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.
 
I dati in un [[archivio]] sono informazioni, ma anche la configurazione degli atomi di un [[gas]] può venire considerata informazione. L'informazione può essere quindi misurata come le altre entità fisiche ed è sempre esistita, anche se la sua importanza è stata riconosciuta solo nel [[XX secolo]].
===Velocità di trasmissione===
Il concetto di informazione può essere messo in analogia con quello della portata in idrodinamica mentre la velocità del flusso rappresenta la velocità di propagazione del segnale trasportante l'informazione sulla linea.
A riguardo ogni linea di trasmissione o [[mezzo trasmissivo]] ha un sua massimo quantitativo di informazione trasportabile espresso dalla [[velocità di trasmissione]] della linea stessa secondo il Teorema di Shannon.
 
Per esempio, la fondamentale scoperta della “doppia elica” del [[DNA]] nel [[1953]] da parte di [[James Dewey Watson|James Watson]] e [[Francis Crick]] ha posto le basi biologiche per la comprensione della struttura degli esseri viventi da un punto di vista ''informativo''. La doppia elica è costituita da due filamenti accoppiati e avvolti su se stessi, a formare una struttura elicoidale tridimensionale. Ciascun filamento può essere ricondotto a una [[sequenza di DNA|sequenza]] di [[acidi nucleici]] (adenina, citosina, guanina, timina). Per rappresentarlo, si usa un alfabeto finito come nei calcolatori, quaternario invece che [[Sistema numerico binario|binario]], dove le lettere sono scelte tra A, C, G e T, le iniziali delle quattro componenti fondamentali. Il [[DNA]] rappresenta quindi il contenuto informativo delle funzionalità e della struttura degli esseri viventi.
== Codifica dell'informazione ==
La [[codifica]] dell'informazione consiste nel trasformare una informazione generica in una informazione comprensibile da un dispositivo o che sia adatta alla successiva elaborazione.
 
Altre definizioni provengono dall'[[informatica]] e dalla [[telematica]]:
Il primo problema da affrontare nei processi di elaborazione dell'informazione è la rappresentazione dell'informazione. L'informazione consiste nella ricezione di un [[messaggio]] tra un insieme di possibili messaggi. La definizione esatta è che l'informazione si rappresenta usando un numero finito di simboli affidabili e facilmente distinguibili.
 
* Nel [[Comunicazione#La formazione del processo di comunicazione|modello di Shannon e Weaver]], l'informazione è considerata parte integrante del processo comunicativo;
All'interno delle apparecchiature digitali l'informazione è rappresentata mediante livelli di [[tensione elettrica|tensione]] o mediante magnetizzazione di dispositivi appropriati. Le richieste di affidabilità ci impongono che tali simboli per una maggiore efficienza siano due o al massimo tre: nel primo caso si hanno solo 0 e 1, corrispondenti a 2 livelli di tensione (standard TTL: 0/5 V; standard RS-232: +12 / -12 V) che vanno a formare la numerazione binaria; nel secondo caso si ha un terzo stadio che è indicato come HZ (alta impedenza) che non è altro che un livello indeterminato causato dal filo "scollegato".
* La [[teoria dell'informazione]] ha come scopo quello di fornire metodi per comprimere al massimo l'informazione prodotta da una sorgente eliminando tutta la ridondanza.
 
== BibliografiaAspetti tecnici ==
{{vedi anche|Teoria dell'informazione|Bit|Dato}}
* [[Hans Christian von Baeyer]], ''[[Informazione. Il nuovo linguaggio della scienza]]'', [[Edizioni Dedalo]], 2005, ISBN 978-88-220-0226-6
{{Organizzare|La sezione va troppo in profondità rispetto al resto della voce, bisognerebbe adottare un punto di vista più generale e delegare i dettagli alle voci citate sopra|Informatica|luglio 2023}}
 
L'informazione è generalmente associata a [[segnale (fisica)|segnali]], trasmissibili da un [[sistema di telecomunicazioni]] e memorizzabili su [[memoria (informatica)|supporti di memorizzazione]].
== Altri progetti ==
{{Interprogetto|etichetta=informazione|q|q_preposizione=sull'|commons=Category:Information|commons_preposizione=sull'|wikt=informazione}}
 
=== Misurazione ===
[[Categoria:Informazione| ]]
[[Categoria:Teoria{{vedi anche|Quantità di dell'informazione]]}}
 
Secondo la [[Teoria dell'Informazione]] in una comunicazione, che avviene attraverso un dato [[alfabeto]] di simboli, l'informazione viene associata a ciascun simbolo trasmesso e viene definita come ''la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso''.
==Collegamenti esterni==
 
*[http://www.ecofoundation.it/ ECO Foundation - Portale sulla libera informazione]
In particolare, la ''quantità di informazione'' collegata a un simbolo è definita come
 
:<math> I = -\log_2 P_i</math>
 
dove ''<math>P_i</math>'' è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata a un simbolo è misurata in [[bit]]. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente riferito alla sorgente di simboli, è detto [[Entropia (teoria dell'informazione)|entropia]] della sorgente, misurata in bit/simbolo. La velocità di informazione di una sorgente, che non coincide con la [[frequenza]] di emissione dei simboli, dato che non è detto che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione).
Quanto sopra può essere generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata a un simbolo codificato in base <math>a</math> è per definizione pari a
 
:<math> I_a = -\log_a P_i</math>
 
con ''<math>P_i</math>'' pari alla probabilità di trasmissione associata a quel simbolo. L'[[Entropia (teoria dell'informazione)|entropia]] della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui <math>a</math> sia 10 l'entropia della sorgente è misurata in [[Hartley (unità di misura)|hartley]], se invece <math>a</math> è pari al [[Numero di Eulero (fisica)|Numero di Eulero]] <math>e</math> si misura in [[nat (unità di misura)|nat]].
Dalla formula si evince che se la probabilità <math>P_i</math> di trasmettere il simbolo è pari a uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di <math>P_i = 0</math> la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con sé alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di ''Innovazione''. I [[segnale (fisica)|segnali]] che trasportano informazione non sono dunque segnali deterministici, ma [[processo stocastico|processi stocastici]]. Nella [[teoria dei segnali]] e della trasmissione questa informazione affidata a processi aleatori è la [[modulazione|modulante]] (in ampiezza, fase o frequenza) di [[portante|portanti]] fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.
 
=== Rappresentazione e stoccaggio ===
{{vedi anche|Dato|Memoria (elettronica)}}
{{...|informatica}}
 
=== Trasmissione ===
{{vedi anche|Comunicazione|Velocità di trasmissione}}
{{...|informatica}}
 
=== Elaborazione ===
{{vedi anche|Calcolo (matematica)|Informatica}}
{{...|informatica}}
 
== Altre teorie dell'informazione ==
Lo storico [[Yuval Noah Harari]] distingue tre visioni dell'informazione:
*''la visione ingenua dell'informazione'', mutuata dal concetto psicologico di [[realismo ingenuo]], presuppone che: «raccogliendo ed elaborando molte più informazioni di quanto possano fare i singoli individui, le grandi reti raggiungono una migliore comprensione della medicina, della fisica, dell'economia e di numerosi altri campi del sapere, e questo rende la rete non solo potente ma anche sapiente.»
*''la visione populista dell'informazione'', per la quale l'informazione è solo un'arma a servizio del potere.
*''la visione complessa dell'informazione'', presuppone che le reti informative per prosperare devono contemporaneamente divulgare la verità e creare ordine, due cose spesso in antitesi.<ref>Yuval Noah Harari,''Nexus: Breve storia delle reti di informazioni dall'età della pietra all'IA'' (''Nexus: A Brief History of Information Networks from the Stone Age to AI'', 2024), trad. di Marco Piani, Collana Saggi, Milano-Firenze, 2024, ISBN 978-88-301-3799-8</ref>
 
Il fisico computazionale [[Federico Faggin]], inventore della tecnologia [[Metal-oxide-semiconductor|MOS]], distingue nettamente l'informazione di tipo tecnologico informatico, dipendente dall'uomo e dal [[silicio]], che è basata su gestione di dati attraverso la modalità [[meccanica classica|meccanicistica classica]], dall'informazione di tipo biologico, dipendente dal [[carbonio]], che invece si basa su modalità [[meccanica quantistica|quantistiche]] probabilistiche, che chiama ''informazione viva'', attinente organismi individualmente unici, capaci di evolvere fisicamente, con [[consapevolezza]] di sé ovvero [[coscienza]].<ref>Federico Faggin, ''Irriducibile. La coscienza, la vita, i computer e la nostra natura'', Milano, Mondadori, 2022, ISBN 9788804739036</ref>
 
== Note ==
<references/>
 
== Bibliografia ==
[[af:Inligting]]
 
[[an:Información]]
* {{cita libro
[[ar:معلومة]]
|autore = Hans Christian von Baeyer
[[az:İnformasiya]]
|titolo = [[Informazione. Il nuovo linguaggio della scienza]]
[[be-x-old:Інфармацыя]]
|editore = Edizioni Dedalo
[[bg:Информация]]
|anno = 2005
[[bn:তথ্য]]
|ISBN = 978-88-220-0226-6
[[bs:Informacija]]
}}
[[ca:Informació]]
* {{cita libro
[[ckb:زانیاری]]
|autore = Antonio Teti
[[cs:Informace]]
|titolo = Il potere delle informazioni. Comunicazione globale, Cyberspazio, Intelligence della conoscenza
[[cy:Gwybodaeth]]
|editore = Il Sole 24 Ore Editore
[[da:Information]]
|anno = 2012
[[de:Information]]
|ISBN = 978-88-6345-446-8
[[el:Πληροφορία]]
}}
[[en:Information]]
* {{cita pubblicazione
[[eo:Informo]]
|titolo = The Scientific Conceptualization of Information: A survey
[[es:Información]]
|autore = William Aspray
[[et:Informatsioon]]
|rivista = Annals of History of Computing
[[eu:Informazio]]
|volume = 7
[[fa:اطلاعات]]
|numero = 2
[[fi:Informaatio]]
|editore = American Federation of Information Processing Societies
[[fr:Information]]
|città = Minneapolis–Saint Paul (MN, USA)
[[gl:Información]]
|anno = 1985
[[he:מידע]]
|mese = Aprile
[[hi:सूचना]]
|lingua = en
[[hr:Informacija]]
|ISSN = 0164-1239
[[hu:Információ]]
|DOI = 10.1109/MAHC.1985.10018
[[ia:Information]]
|url = https://monoskop.org/images/9/94/Aspray_William_1985_Scientific_Conceptualization_of_Information_A_Survey.pdf
[[id:Informasi]]
|urlarchivio = https://web.archive.org/web/20161005205210/https://monoskop.org/images/9/94/Aspray_William_1985_Scientific_Conceptualization_of_Information_A_Survey.pdf
[[io:Informo]]
}}
[[is:Upplýsingar]]
* {{cita libro
[[ja:情報]]
|autore = Xu Jianfeng
[[ka:ინფორმაცია]]
|autore2 = Wang Shuliang
[[kk:Ақпарат]]
|autore3 = Liu Zhenyu
[[ko:정보]]
|autore4 = Yashi Wang
[[lb:Informatioun]]
|autore5 = Wang Yingfei
[[lt:Informacija]]
|autore6 = Dang Yingxu
[[lv:Informācija]]
|titolo = Objective information theory
[[mhr:Информаций]]
|editore = Springer
[[mk:Информација]]
|anno = 2023
[[ml:ഇൻഫർമേഷൻ]]
|lingua = en
[[mn:Мэдээлэл]]
|ISBN = 978-981-19-9929-1
[[ms:Maklumat]]
|DOI = 10.1007/978-981-19-9929-1
[[new:जानकरी]]
|ISSN = 2191-5776
[[nl:Informatie]]
|cid = Jianfeng et al 2023
[[nn:Informasjon]]
}}
[[no:Informasjon]]
* {{cita libro
[[pl:Informacja]]
|autore = Giampio Bracchi
[[pt:Informação]]
|autore2 = Chiara Francalaci
[[qu:Willa]]
|autore3 = Gianmario Motta
[[ro:Informație]]
|titolo = Sistemi informativi d'impresa
[[ru:Информация]]
|editore = McGraw-Hill
[[sah:Иһитиннэрии]]
|anno = 2010
[[scn:Nfurmazzioni]]
|edizione = 2
[[si:සිංහල]]
|città = Milano
[[simple:Information]]
|ISBN = 978-88-386-6328-4
[[sk:Informácia]]
}}
[[sl:Informacija]]
* {{cita libro
[[sq:Informacioni]]
|autore = Paolo Atzeni
[[sr:Информација]]
|autore2 = Stefano Ceri
[[su:Informasi]]
|autore3 = Piero Fraternali
[[sv:Information]]
|autore4 = Stefano Paraboschi
[[ta:தகவல்]]
|autore5 = Riccardo Torlone
[[tg:Иттиолот]]
|titolo = Basi di dati
[[th:สารสนเทศ]]
|editore = McGraw-Hill
[[tr:Bilişim]]
|anno = 2018
[[uk:Інформація]]
|edizione = 5
[[vi:Thông tin]]
|città = Milano
[[war:Impormasyon]]
|ISBN = 978-88-386-9445-5
[[wo:Xibaar]]
}}
[[yi:אינפארמאציע]]
* [[Yuval Noah Harari]], ''Nexus: Breve storia delle reti di informazioni dall'età della pietra all'IA'', (Nexus: A Brief History of Information Networks from the Stone Age to AI, 2024) , trad. di Marco Piani, Collana Saggi, Milano-Firenze, 2024, ISBN 978-88-301-3799-8.
[[zh:信息]]
 
[[zh-yue:資訊]]
== Voci correlate ==
{{Div col|cols=2}}
* [[Codice (semiotica)]]
* [[Comunicazione]]
* [[Conoscenza]]
* [[Bit]]
* [[Dato]]
* [[Disinformazione]]
* [[Guerra dell'informazione]]
* [[Manipolazione dell'informazione]]
* [[Infodemiologia]]
* [[Informatica]]
* [[Infodemia]]
* [[Sovraccarico cognitivo]]
* [[Teoria dell'informazione integrata]]
* [[Teoria dell'informazione]]
* [[Teoria dei codici]]
* [[Teoria dei segnali]]
{{Div col end}}
 
== Altri progetti ==
{{interprogetto|q|q_preposizione=sull'|commons_preposizione=sull'|wikt=informazione}}
 
== Collegamenti esterni ==
* {{Collegamenti esterni}}
* {{FOLDOC|information|information}}
* {{cita web|http://plato.stanford.edu/entries/information/|Stanford Encyclopedia of Philosophy - Information}}
* {{Youtube|autore=[[Jim Al-Khalili]]|id=qj7HH0PCqIE|titolo=Harnessing The Power Of Information &#124; Order and Disorder &#124; Spark|produttore=Spark|lingua=en|data=4 novembre 2019}}
 
{{Controllo di autorità}}
{{Portale|diritto|informatica|psicologia|scienza e tecnica}}
 
[[Categoria:Informazione| ]]
[[Categoria:Teoria dell'informazione]]