Informazione: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Misurazione: Eliminato vari tag "br /"
m Misurazione: Eliminato un collegamento che portava a una "pagina di disambiguazione"
Riga 104:
:<math> I_a = -\log_a P_i</math>
 
con ''<math>P_i</math>'' pari alla probabilità di trasmissione associata a quel simbolo. L'[[Entropia (teoria dell'informazione)|entropia]] della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui <math>a</math> sia 10 l'entropia della sorgente è misurata in [[hartley]], se invece <math>a</math> è pari al [[Numero di Eulero (fisica)|Numero di Eulero]] <math>e</math> si misura in [[nat (unità di misura)|nat]].
Dalla formula si evince che se la probabilità <math>P_i</math> di trasmettere il simbolo è pari a uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di <math>P_i = 0</math> la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con sé alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di ''Innovazione''. I [[segnale (fisica)|segnali]] che trasportano informazione non sono dunque segnali deterministici, ma [[processo stocastico|processi stocastici]]. Nella [[teoria dei segnali]] e della trasmissione questa informazione affidata a processi aleatori è la [[modulazione|modulante]] (in ampiezza, fase o frequenza) di [[portante|portanti]] fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.