Informazione: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Riga 34:
Dalla formula si evince che se la probabilità Pi di trasmettere il simbolo è pari ad uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di Pi=0 la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con se alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di ''Innovazione''. I [[segnale|segnali]] che trasportano informazione non sono dunque segnali deterministici, ma [[processo stocastico|processi stocastici]]. Nella [[teoria dei segnali]] e della trasmissione questa informazione affidata a processi aleatori è la [[modulazione|modulante]] (in ampiezza, fase o frequenza) di portanti fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.
 
===VelocitàInformazione die trasmissioneportata===
Il concetto di informazione può essere messo in analogia con quello della portata in idrodinamica mentre la velocità del flusso rappresenta la velocità di propagazione del segnale trasportante l'informazione sulla linea.
A riguardo ogni linea di trasmissione o [[mezzo trasmissivo]] ha un sua massimo quantitativo di informazione trasportabile espresso dalla [[velocità di trasmissione]] della linea stessa secondo il Teorema di Shannon.