Informazione: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m →Misurazione: Eliminato vari tag "br /" |
m →Misurazione: Eliminato un collegamento che portava a una "pagina di disambiguazione" Etichette: Annullato Modifica visuale |
||
Riga 104:
:<math> I_a = -\log_a P_i</math>
con ''<math>P_i</math>'' pari alla probabilità di trasmissione associata a quel simbolo. L'[[Entropia (teoria dell'informazione)|entropia]] della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui <math>a</math> sia 10 l'entropia della sorgente è misurata in
Dalla formula si evince che se la probabilità <math>P_i</math> di trasmettere il simbolo è pari a uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di <math>P_i = 0</math> la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con sé alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di ''Innovazione''. I [[segnale (fisica)|segnali]] che trasportano informazione non sono dunque segnali deterministici, ma [[processo stocastico|processi stocastici]]. Nella [[teoria dei segnali]] e della trasmissione questa informazione affidata a processi aleatori è la [[modulazione|modulante]] (in ampiezza, fase o frequenza) di [[portante|portanti]] fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.
|