Informazione e Doukouyo: differenze tra le pagine

(Differenze fra le pagine)
Contenuto cancellato Contenuto aggiunto
wut
 
m +template
 
Riga 1:
{{Divisione amministrativa
{{Avvisounicode}}
|Nome = Doukouyo
{{nota disambigua|il quotidiano |Informazione (quotidiano)}}
|Panorama =
|Didascalia =
|Bandiera =
|Stemma =
|Stato = CIV
|Grado amministrativo = 4
|Tipo = città e sottoprefettura
|Divisione amm grado 1 = Gôh-Djiboua
|Divisione amm grado 2 = Gôh
|Divisione amm grado 3 = Gagnoa
|Amministratore locale =
|Partito =
|Data elezione =
|Data istituzione =
|Data soppressione =
|Altitudine =
|Superficie =
|Note superficie =
|Abitanti = {{ formatnum: 21,361}}
|Aggiornamento abitanti = [[2014]]
|Sottodivisioni =
|Divisioni confinanti =
|Lingue =
|Codice postale =
|Codice statistico =
|Nome abitanti =
|Patrono =
|Festivo =
|Mappa =
|Didascalia mappa =
}}
 
'''Doukouyo''' è una città e [[Sottoprefetture della Costa d'Avorio|sottoprefettura]] della [[Costa d'Avorio]] appartenente al [[dipartimento di Gagnoa]]. Conta una popolazione di {{formatnum: 21,361}} abitanti <small>(censimento 2014)</small>.
S'intende per '''informazione''' l'insieme di dati, correlati tra loro, con cui un'idea (o un fatto) prende forma ed è comunicata<ref>Giuliano Vigini, ''Glossario di biblioteconomia e scienza dell'informazione'', Editrice Bibliografica, Milano 1985, p. 62.</ref>.
 
== Voci correlate ==
Altre definizioni provengono dall'informatica e dalla telematica:
* [[Sottoprefetture della Costa d'Avorio]]
*Nel [[Comunicazione#La_formazione_del_processo_di_comunicazione|modello di Shannon e Weaver]], l'informazione è considerata parte integrante del processo comunicativo;
*La [[teoria dell'informazione]] ha come scopo quello di fornire metodi per comprimere al massimo l'informazione prodotta da una sorgente eliminando tutta la ridondanza;
*Nella teoria delle [[basi di dati]] (ad esempio nel [[modello relazionale]], ma non solo), un'informazione è una relazione tra due dati. Fondamentale da questo punto di vista è la distinzione tra il [[dato]] (un numero, una data, una parola...) ed il significato che si può dare a tale dato, mettendolo in relazione con uno o più dati o rappresentazioni di concetti. In un [[computer]] quindi, le informazioni sono numerabili, e a seconda del sistema di interpretazione e della rappresentazione possiamo distinguere tra informazioni esplicite, relativamente facili da quantificare (come la data di nascita del signor Rossi) e informazioni dedotte, il cui numero dipende dalle capacità di calcolo delle informazioni fornite al sistema (ad esempio l'età del signor Rossi, ottenibile mediante sottrazione della data odierna e la data di nascita). È questo un esempio di informazione dedotta esatta, ma ci sono anche metodi per dedurre delle informazioni che non sono certe: ad esempio un [[servizio di rete sociale]] può stabilire con una certa precisione che due persone che hanno frequentato la stessa scuola ed hanno conoscenze in comune si conoscono, ma non può dare la certezza matematica di ciò.
 
{{Dipartimenti e sottoprefetture della regione di Gôh}}
In lingua inglese manca il plurale per la parola "informazione"; si va diffondendo in italiano l'errore di usare quindi al singolare questa parola anche quando è il plurale ad essere corretto.
{{Portale|Africa Occidentale}}
 
[[Categoria:Sottoprefetture del dipartimento di Gagnoa]]
L'informazione è oggetto di studio e applicazione in vari settori della conoscenza e dell'agire umano: sul fronte tecnico è oggetto di studio dell'[[ingegneria dell'informazione]]; sul fronte delle [[scienze sociali]] è oggetto d'indagine delle [[scienze della comunicazione]] e in generale della [[sociologia]], con particolare riguardo agli aspetti legati alla diffusione dei [[mezzi di comunicazione di massa]] nell'attuale [[società dell'informazione]] (o [[era dell'informazione]]).
 
== Etimologia ==
La parola deriva dal sostantivo [[Lingua latina|latino]] ''informatio(-nis)'' (dal verbo ''informare'', nel significato di "dare forma alla mente", "disciplinare", "istruire", "insegnare"). Già in latino la parola veniva usata per indicare un "[[concetto]]" o un'"[[idea]]", ma non è chiaro se questa parola possa avere influenzato lo sviluppo della parola ''informazione''.
 
Inoltre la parola greca corrispondente era "μορφή" (''morfè'', da cui il latino ''forma'' per [[metatesi (linguistica)|metatesi]]), oppure "εἶδος" (''éidos'', da cui il latino ''idea''), cioè "idea", "concetto" o "forma", "immagine"; la seconda parola fu notoriamente usata tecnicamente in ambito filosofico da [[Platone]] e [[Aristotele]] per indicare l'identità ideale o [[essenza (filosofia)|essenza]] di qualcosa (vedi [[Teoria delle idee]]). ''Eidos'' si può anche associare a "pensiero", "asserzione" o "concetto".<ref>Il termine indicava originariamente "ciò che appare alla vista", derivando dalla radice [[Lingue indoeuropee|indoeuropea]] *''weid-''/''wid-''/''woid-'', "vedere" (confronta il latino ''video''). Esso venne però ad assumere in seguito una grande molteplicità di significati (per esempio, in [[Isocrate]] esso indica il "modello teorico" di un'[[orazione (retorica)|orazione]]).</ref>
 
==Informazioni in informatica==
I computer, nati come semplici calcolatori, sono diventati col tempo dei potenti strumenti per memorizzare, elaborare e analizzare informazioni. La diffusione di internet come rete globale ha d'altro canto messo a disposizione una mole di informazioni mai prima d'ora a disposizione dell'umanità.
 
===Rappresentazione e concetto di informazione e dato===
Alla base di ogni informazione in un computer c'è il concetto di dato. Fermandosi ai tipi di base abbiamo essenzialmente numeri e stringhe (successioni finite di caratteri). Tali dati devono essere messi in relazione tra di loro per avere un significato; se invece le relazioni valide possibili sono più di una, si può generare ambiguità.
 
Ad esempio, 1492 è un numero che da solo non significa niente: potrebbe essere una quantità di mele (se correlato mediante la relazione di quantità con l'oggetto mela), il costo di un anello o l'anno in cui [[Cristoforo Colombo]] si imbarcò e scoprì l'[[America]]. La parola "calcio" può essere uno sport, un elemento chimico o un colpo dato col piede. In genere le basi di dati che contengono informazioni relative ad un determinato campo del sapere non risentono molto del problema dell'ambiguità: in una base dati di chimica la parola calcio indicherà certamente l'elemento chimico. Nelle basi di dati relazionali, sistemi di tabelle e relazioni permettono di organizzare i dati per poter ottenere delle informazioni senza ambiguità: se la tabella "elementi_chimici" contiene la parola calcio, questo sarà senza dubbio l'elemento chimico. La semplice immissione del dato nella tabella "elementi_chimici" ha implicitamente classificato la parola "calcio", conferendole un significato, dato dalla '''scelta''' della tabella in cui inserire un dato (la scelta della tabella rappresenta il trasferimento di conoscenza da una persona alla base dati). Inoltre, le basi di dati relazionali permettono la creazione di relazioni tra dati di diverse tabelle.
 
Oltre alle relazioni esplicite, ci possono essere delle relazioni dedotte. Supponiamo di avere la tabella "figlio_di": se abbiamo che Antonio è figlio di Luigi (informazione 1), e che Luigi è figlio di Nicola (informazione 2), allora possiamo dedurre che Nicola è il nonno di Antonio (informazione 3). È quindi possibile formalizzare la relazione ed inserirla nella base di dati, ottenendo la tabella nonno_di senza dover immettere altri dati:
se '''A è figlio di B''' e '''B è figlio di C''', allora '''C è nonno di A'''
oppure, ogni volta che si ha bisogno di conoscere eventuali nipoti/nonni di qualcuno, analizzare la relazione figlio_di. E le informazioni possono essere maggiori: analizzando il sesso di B, si potrà sapere se C è nonno paterno o materno.
 
Le basi di conoscenza pensate per la deduzione sono più elastiche delle tradizionali basi di dati relazionali. Un esempio sono le [[ontologia (informatica)|ontologie]].
 
Analisi particolarmente ricercate per il loro valore economico ai fini commerciali sono quelle che analizzano grandi flussi di informazioni per scoprire tendenze che permettono dedurre delle informazioni che hanno una buona probabilità di essere vere riguardo utenti singoli o categorie di utenti. Supponendo che Antonio ha sempre acquistato in internet dei libri di [[fantascienza]], allora la pubblicità che gli si mostrerà potrà mostrare dei libri di fantascienza o simili, che molto probabilmente lo interesseranno. Questi tipi di analisi possono talvolta fornire informazioni talvolta sorprendenti: una catena di supermercati in un paese anglosassone avrebbe scoperto, analizzando gli scontrini, qualcosa altrimenti difficilmente immaginabile: le persone che acquistavano pannolini spesso compravano più birra degli altri, per cui mettendo la birra più costosa non lontano dai pannolini, poteva incrementarne le vendite. Infatti quelle persone che avevano figli piccoli passavano più serate in casa a guardare la TV bevendo birra in casa non potendo andare nei locali con gli amici. L'esempio dell'associazione tra pannolini e birra è spesso usato nei corsi universitari di [[data mining]]; tuttavia c'è da precisare che non è chiaro quale sia la catena di supermercati in questione, e l'esempio, seppur ottimo per scopi didattici, potrebbe essere stato inventato.
 
== Descrizione ==
In generale un'informazione ha valore in quanto potenzialmente utile al fruitore per i suoi molteplici scopi: nell'informazione, infatti, è spesso contenuta [[conoscenza]] o [[esperienza]] di fatti reali vissuti da altri soggetti e che possono risultare utili senza dover necessariamente attendere di sperimentare ognuno ogni determinata situazione. Sotto questo punto di vista il concetto utile di informazione e la parallela necessità di comunicare o scambiare informazione tra individui nasce, nella [[Storia dell'uomo|storia dell'umanità]], con l'elaborazione del [[linguaggio]] da parte della [[mente]] umana e si sviluppa con la successiva [[invenzione (tecnologia)|invenzione]] della [[scrittura]] come mezzo per tramandare l'informazione ai posteri. Secondo quest'ottica la storia e l'evoluzione della società umana sono frutto dell'accumulazione di conoscenza sotto forma di informazione. Nell'informazione ad esempio è contenuto ''[[know how]]'' utile per eseguire una determinata attività o compito, cosa che la rende ad esempio una risorsa strategica in ambito [[economia|economico]] dell'[[economia aziendale]].
 
Col progredire delle conoscenze umane il concetto di informazione si è evoluto divenendo via via più vasto e differenziato: informazione è in generale qualunque [[notizia]] o [[racconto]], inoltre qualunque [[comunicazione]] scritta o orale contiene informazione. I dati in un [[archivio]] sono informazioni, ma anche la configurazione degli atomi di un [[gas]] può venire considerata informazione. L'informazione può essere quindi misurata come le altre entità fisiche ed è sempre esistita, anche se la sua importanza è stata riconosciuta solo nel [[XX secolo]].
 
Per esempio, la fondamentale scoperta della “doppia elica” del [[DNA]] nel [[1953]] da parte di [[James Dewey Watson|James Watson]] e [[Francis Crick]] ha posto le basi biologiche per la comprensione della struttura degli esseri viventi da un punto di vista ''informativo''. La doppia elica è costituita da due filamenti accoppiati e avvolti su se stessi, a formare una struttura elicoidale tridimensionale. Ciascun filamento può essere ricondotto a una [[sequenza di DNA|sequenza]] di [[acidi nucleici]] (adenina, citosina, guanina, timina). Per rappresentarlo, si usa un alfabeto finito come nei calcolatori, quaternario invece che [[Sistema numerico binario|binario]], dove le lettere sono scelte tra A, C, G e T, le iniziali delle quattro componenti fondamentali. Il [[DNA]] rappresenta quindi il contenuto informativo delle funzionalità e della struttura degli esseri viventi.
 
L'informazione e la sua elaborazione attraverso i [[computer]] hanno avuto certamente un impatto notevole nella nostra attuale vita quotidiana. L'importanza è testimoniata, ad esempio, dai sistemi di protezione escogitati mediante la [[crittografia]] e dal valore commerciale della borsa tecnologica. L'uso appropriato dell'informazione pone anche problemi etici di rilievo, come nel caso della [[riservatezza]] riguardo alle informazioni cliniche che potrebbero altrimenti avvantaggiare le compagnie di assicurazioni mediche e danneggiare i pazienti.
 
L'importanza e la diffusione dell'informazione nella società moderna è tale che a questa spesso ci si riferisce come la [[Era dell'Informazione|Società dell'Informazione]].
 
==Aspetti tecnici==
L'informazione è generalmente associata a [[segnale (fisica)|segnali]], trasmissibili da un [[sistema di telecomunicazioni]] e memorizzabili su [[memoria (informatica)|supporti di memorizzazione]].
 
=== Misura dell'informazione ===
Secondo la [[Teoria dell'Informazione]] in una comunicazione, che avviene attraverso un dato [[alfabeto]] di simboli, l'informazione viene associata a ciascun simbolo trasmesso e viene definita come ''la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso''.
 
In particolare, la ''quantità di informazione'' collegata ad un simbolo è definita come<br />
<br />
:<math> \operatorname I = -log_2 P_i</math>
<br />
dove ''<math>P_i</math>'' è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata ad un simbolo è misurata in [[bit]]. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente riferito alla sorgente di simboli, è detto [[Entropia (teoria dell'informazione)|entropia]] della sorgente, misurata in bit/simbolo. La velocità di informazione di una sorgente, che non coincide con la [[frequenza]] di emissione dei simboli, dato che non è detto che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione).
Quanto sopra può essere generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata ad un simbolo codificato in base <math>a</math> è per definizione pari a<br />
<br />
:<math> \operatorname I_a = -log_a P_i</math>
<br />
con ''<math>P_i</math>'' pari alla probabilità di trasmissione associata a quel simbolo. L'[[Entropia (teoria dell'informazione)|entropia]] della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui <math>a</math> sia 10 l'entropia della sorgente è misurata in [[hartley]], se invece <math>a</math> è pari al [[Numero di Eulero (fisica)|Numero di Eulero]] <math>e</math> si misura in [[nat (unità di misura)|nat]].
Dalla formula si evince che se la probabilità Pi di trasmettere il simbolo è pari ad uno, la quantità di informazione associata è nulla; viceversa se nel caso limite ideale di Pi=0 la quantità di informazione sarebbe infinita. Ciò vuol dire in sostanza che tanto più un simbolo è probabile tanto meno informazione esso trasporta e viceversa: un segnale costante o uguale a se stesso non porta con sé alcuna nuova informazione essendo sempre il medesimo: si dice allora che l'informazione viaggia sotto forma di ''Innovazione''. I [[segnale (fisica)|segnali]] che trasportano informazione non sono dunque segnali deterministici, ma [[processo stocastico|processi stocastici]]. Nella [[teoria dei segnali]] e della trasmissione questa informazione affidata a processi aleatori è la [[modulazione|modulante]] (in ampiezza, fase o frequenza) di [[portante|portanti]] fisiche tipicamente sinusoidali che traslano poi in banda il segnale informativo.
 
====Informazione e portata====
Il concetto di informazione trasportato su un [[canale (telecomunicazioni)|canale]] di comunicazione può essere messo in analogia con quello della [[portata]] in [[idrodinamica]], mentre la velocità del flusso rappresenta la velocità di propagazione del segnale trasportante l'informazione sulla linea.
Al riguardo ogni linea di trasmissione o [[mezzo trasmissivo]] ha un sua massimo quantitativo di informazione trasportabile espresso dalla [[velocità di trasmissione]] della linea stessa secondo il Teorema di Shannon.
 
=== Codifica dell'informazione ===
La [[codifica]] dell'informazione consiste nel trasformare una informazione generica in una informazione comprensibile da un dispositivo o che sia adatta alla successiva elaborazione.
 
Il primo problema da affrontare nei processi di elaborazione dell'informazione è la rappresentazione dell'informazione. L'informazione consiste nella ricezione di un [[messaggio]] tra un insieme di possibili messaggi. La definizione esatta è che l'informazione si rappresenta usando un numero finito di simboli affidabili e facilmente distinguibili.
 
All'interno delle apparecchiature digitali l'informazione è rappresentata mediante livelli di [[tensione elettrica|tensione]] o mediante magnetizzazione di dispositivi appropriati. Le esigenze di affidabilità impongono che tali simboli, per una maggiore efficienza, siano due o al massimo tre: nel primo caso si hanno solo 0 e 1, corrispondenti a 2 livelli di tensione (standard TTL: 0/5&nbsp;V; standard RS-232: +12/-12&nbsp;V) che vanno a formare la numerazione binaria; nel secondo caso si può avere un terzo stadio, indicato come ''HiZ'' (alta impedenza), che rappresenta un livello indeterminato, causato ad esempio dal filo "scollegato".
 
== Note ==
<references/>
 
== Bibliografia ==
* [[Hans Christian von Baeyer]], ''[[Informazione. Il nuovo linguaggio della scienza]]'', [[Edizioni Dedalo]], 2005, ISBN 978-88-220-0226-6
* Antonio Teti, ''Il potere delle informazioni. Comunicazione globale, Cyberspazio, Intelligence della conoscenza'', Il Sole 24 Ore Editore, 2012, ISBN 978-88-6345-446-8
* William Aspray, [https://monoskop.org/images/9/94/Aspray_William_1985_Scientific_Conceptualization_of_Information_A_Survey.pdf ''The Scientific Conceptualization of Information: A survey''], Annals of History of Computing, vol. 7- n. 2, Aprile 1985
 
==Voci correlate==
* [[Conoscenza]]
* [[Esperienza]]
* [[Dati]]
* [[Disinformazione]]
 
== Altri progetti ='
=
{{Interprogetto|etich etta=informazioa@ne|q|q_preposizionae=sull'|commons=Category:Information|commons_prneposizione=sull'|wikt t=-}}-33''--W9 t y.tags 9e-0.02'
 
==Collegamenti esterni==
* {{Thesaurus BNCF}}
* {{cita web|http://www.ecofoundation.it/|ECO Foundation - Portale sulla libera informazione}}
* {{cita web|http://plato.stanford.edu/entries/information/|Stanford Encyclopedia of Philosophy - Information}}
 
{{Controllo di autorità}}
{{Portale|informatica}}
 
[[Categoria:Informazione| ]]
[[Categoria:Teoria dell'informazione]]