Informazione: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Annullate le modifiche di 54.82.102.6 (discussione), riportata alla versione precedente di Vituzzu
Nessun oggetto della modifica
Riga 7:
*Nel [[Comunicazione#La_formazione_del_processo_di_comunicazione|modello di Shannon e Weaver]], l'informazione è considerata parte integrante del processo comunicativo;
*La [[teoria dell'informazione]] ha come scopo quello di fornire metodi per comprimere al massimo l'informazione prodotta da una sorgente eliminando tutta la ridondanza;
*Nella teoria delle [[basi di dati]] (ad esempio nel [[modello relazionale]], ma non solo), un'informazione è una relazione tra due dati. Fondamentale da questo punto di vista è la distinzione tra il [[dato]] (un numero, una data, una parola...) ede il significato che si può dare a tale dato, mettendolo in relazione con uno o più dati o rappresentazioni di concetti. In un [[computer]] quindi, le informazioni sono numerabili, e a seconda del sistema di interpretazione e della rappresentazione possiamo distinguere tra informazioni esplicite, relativamente facili da quantificare (come la data di nascita del signor Rossi) e informazioni dedotte, il cui numero dipende dalle capacità di calcolo delle informazioni fornite al sistema (ad esempio l'età del signor Rossi, ottenibile mediante sottrazione della data odierna e la data di nascita). È questo un esempio di informazione dedotta esatta, ma ci sono anche metodi per dedurre delle informazioni che non sono certe: ad esempio un [[servizio di rete sociale]] può stabilire con una certa precisione che due persone che hanno frequentato la stessa scuola ede hanno conoscenze in comune si conoscono, ma non può dare la certezza matematica di ciò.
 
In lingua inglese manca il plurale per la parola "informazione"; si va diffondendo in italiano l'errore di usare quindi al singolare questa parola anche quando è il plurale ada essere corretto.
 
L'informazione è oggetto di studio e applicazione in vari settori della conoscenza e dell'agire umano: sul fronte tecnico è oggetto di studio dell'[[ingegneria dell'informazione]]; sul fronte delle [[scienze sociali]] è oggetto d'indagine delle [[scienze della comunicazione]] e in generale della [[sociologia]], con particolare riguardo agli aspetti legati alla diffusione dei [[mezzi di comunicazione di massa]] nell'attuale [[società dell'informazione]] (o [[era dell'informazione]]).
Riga 26:
Ad esempio, 1492 è un numero che da solo non significa niente: potrebbe essere una quantità di mele (se correlato mediante la relazione di quantità con l'oggetto mela), il costo di un anello o l'anno in cui [[Cristoforo Colombo]] si imbarcò e scoprì l'[[America]]. La parola "calcio" può essere uno sport, un elemento chimico o un colpo dato col piede. In genere le basi di dati che contengono informazioni relative ad un determinato campo del sapere non risentono molto del problema dell'ambiguità: in una base dati di chimica la parola calcio indicherà certamente l'elemento chimico. Nelle basi di dati relazionali, sistemi di tabelle e relazioni permettono di organizzare i dati per poter ottenere delle informazioni senza ambiguità: se la tabella "elementi_chimici" contiene la parola calcio, questo sarà senza dubbio l'elemento chimico. La semplice immissione del dato nella tabella "elementi_chimici" ha implicitamente classificato la parola "calcio", conferendole un significato, dato dalla '''scelta''' della tabella in cui inserire un dato (la scelta della tabella rappresenta il trasferimento di conoscenza da una persona alla base dati). Inoltre, le basi di dati relazionali permettono la creazione di relazioni tra dati di diverse tabelle.
 
Oltre alle relazioni esplicite, ci possono essere delle relazioni dedotte. Supponiamo di avere la tabella "figlio_di": se abbiamo che Antonio è figlio di Luigi (informazione 1), e che Luigi è figlio di Nicola (informazione 2), allora possiamo dedurre che Nicola è il nonno di Antonio (informazione 3). È quindi possibile formalizzare la relazione ede inserirla nella base di dati, ottenendo la tabella nonno_di senza dover immettere altri dati:
se '''A è figlio di B''' e '''B è figlio di C''', allora '''C è nonno di A'''
oppure, ogni volta che si ha bisogno di conoscere eventuali nipoti/nonni di qualcuno, analizzare la relazione figlio_di. E le informazioni possono essere maggiori: analizzando il sesso di B, si potrà sapere se C è nonno paterno o materno.
Riga 51:
Secondo la [[Teoria dell'Informazione]] in una comunicazione, che avviene attraverso un dato [[alfabeto]] di simboli, l'informazione viene associata a ciascun simbolo trasmesso e viene definita come ''la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso''.
 
In particolare, la ''quantità di informazione'' collegata ada un simbolo è definita come<br />
<br />
:<math> \operatorname I = -log_2 P_i</math>
<br />
dove ''<math>P_i</math>'' è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata ada un simbolo è misurata in [[bit]]. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente riferito alla sorgente di simboli, è detto [[Entropia (teoria dell'informazione)|entropia]] della sorgente, misurata in bit/simbolo. La velocità di informazione di una sorgente, che non coincide con la [[frequenza]] di emissione dei simboli, dato che non è detto che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione).
Quanto sopra può essere generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata ada un simbolo codificato in base <math>a</math> è per definizione pari a<br />
<br />
:<math> \operatorname I_a = -log_a P_i</math>
<br />
con ''<math>P_i</math>'' pari alla probabilità di trasmissione associata a quel simbolo. L'[[Entropia (teoria dell'informazione)|entropia]] della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui <math>a</math> sia 10 l'entropia della sorgente è misurata in [[hartley]], se invece <math>a</math> è pari al [[Numero di Eulero (fisica)|Numero di Eulero]] <math>e</math> si misura in [[nat (unità di misura)|nat]].
Dalla formula si evince che se la probabilità Pi di trasmettere il simbolo è pari ada uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di Pi=0 la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con sé alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di ''Innovazione''. I [[segnale (fisica)|segnali]] che trasportano informazione non sono dunque segnali deterministici, ma [[processo stocastico|processi stocastici]]. Nella [[teoria dei segnali]] e della trasmissione questa informazione affidata a processi aleatori è la [[modulazione|modulante]] (in ampiezza, fase o frequenza) di [[portante|portanti]] fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.
 
====Informazione e portata====