Content-control software: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
|||
Riga 4:
Un '''''content-control software''''' è un [[software]] progettato per limitare o controllare il contenuto a cui un lettore è autorizzato ad accedere. È soprattutto utilizzato per limitare l'invio di materiale su [[Internet]] tramite il [[World Wide Web|Web]], [[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili o, solitamente, quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: queste possono essere applicate a livello nazionale dal governo, o possono, per esempio, essere applicate da un provider di servizi Internet ai propri clienti, o dal datore di lavoro al proprio personale, o da una scuola ai suoi studenti, o da una biblioteca ai suoi visitatori, o da un genitore al computer di un bambino, oppure da un singolo utente al proprio computer. Spesso il motivo che spinge ad utilizzare tali software, è quello di impedire l'accesso a contenuti che, il proprietario o altre autorità del/dei computer, possono ritenere discutibili. Quando imposto senza il consenso dell'utente, il controllo dei contenuti può essere considerato una forma di censura di internet. Alcuni content-control software includono funzioni di controllo del tempo, utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o usate per la riproduzione di giochi o altre attività del computer.
In alcuni paesi, tali software sono onnipresenti. [[
==Terminologia==
Riga 11:
Le aziende realizzatrici di prodotti che bloccano selettivamente i siti Web non fanno riferimento a questi prodotti come ''censorware'', e preferiscono termini come "Internet filter" or "URL Filter"; nel caso specifico di software progettati per consentire ai genitori di monitorare e limitare l'accesso dei loro figli al web, è usato anche il termine "parental control software" (software di controllo parentale). Alcuni prodotti memorizzano tutti i siti a cui un utente accede e li valuta in base al tipo di contenuti per poi segnalare ad un "accountability partner” delle scelte dell'utente, ed è quindi usato il termine ''accountability software''. Filtri Internet, software di controllo parentale, e / o software di responsabilità possono anche essere combinati in un unico prodotto.
Coloro che criticano tale software, tuttavia, usano liberamente il termine "censorware": si consideri, ad esempio, il Progetto Censorware.
In generale, al di fuori delle pagine editoriali come sopra descritto, i giornali tradizionali non usano il termine censorware nelle loro relazioni, preferendo invece utilizzare termini controversi meno apertamente come ''content filter'', ''content control'', o ''web filtering''; il New York Times e il ''[[Wall Street Journal]]'' sembrano entrambi seguire questa pratica. D'altra parte, i giornali web-based come [[CNET]] usano il termine in entrambi i contesti, editoriale e giornalistico, ad esempio "Windows Live to Get Censorware".<ref>{{Cita web|url=http://www.techbeta.org/news/windows-live-to-get-censorware/ |titolo=Windows Live to get censorware - ZDNet.co.uk |editore=News.zdnet.co.uk |data=14 marzo 2006 |accesso=25 ottobre 2009}}</ref>
Riga 25:
;Filtri lato client
:<ref>{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html |titolo=Client-side filters |sito=NetSafekids |editore=National Academy of Sciences |anno=2003 |accesso=24 giugno 2013}}</ref> Questo tipo di filtro prevede l’installazione del software su ogni computer in cui è richiesto il filtraggio.
;Content-limited (o filtered) ISP
Riga 31:
;Filtraggio basato sulla rete
:Questo tipo di filtro viene implementato a [[livello di trasporto]] come [[Proxy|transparent proxy]], o a [[livello applicativo]] come [[Proxy|web proxy]].<ref>{{Cita web|url=http://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|titolo=Explicit and Transparent Proxy Deployments|editore=Websense|accesso=30 marzo 2012|anno=2010}}</ref> Rispetto al content-control software può includere funzionalità di prevenzione della perdita di dati ([[Data loss prevention]]), per filtrare le informazioni sia in uscita che in entrata. Tutti gli utenti sono soggetti alla politica di accesso definita dall'istituzione. Il filtro può essere personalizzato, in modo che ad esempio, la biblioteca delle scuole superiori del distretto scolastico abbia un profilo diverso da quello di filtraggio della biblioteca della scuola media del quartiere.
;Filtri dei motori di ricerca
:Molti motori di ricerca, come Google e Alta Vista, offrono agli utenti la possibilità di accendere un filtro di sicurezza. Quando questo filtro di sicurezza è attivato, sono filtrati da tutti i risultati della ricerca i collegamenti non appropriati. Se gli utenti conoscono l'URL reale di un sito web che offre contenuti espliciti o di tipo adulto, hanno la possibilità di accedere a tali contenuti senza l'utilizzo di un motore di ricerca. Motori come Lycos, Yahoo e Bing offrono delle loro versioni orientate ai bambini, che permettono la visita dei soli siti web adatti a loro.
==Causa del filtraggio==
Gli [[Internet Service Provider]] (ISP), che bloccano materiale che include [[pornografia]], o contenuto controverso di tipo religioso, politico, o notizie relative a questi argomenti, sono spesso utilizzati dai genitori per vietare ai loro figli di accedere a contenuti non conformi alle loro convinzioni personali. I content-control software possono anche essere utilizzati per bloccare i [[malware]] e altri contenuti che possono contenere materiale ostile, invadente o fastidioso tra cui [[adware]], [[spam]], [[Virus (informatica)|virus
La maggior parte dei content-control software sono rivolti a organizzazioni o genitori. È, tuttavia, commercializzato anche al fine di facilitare l'auto-censura, per esempio da parte di persone che lottano contro la dipendenza da [[Pornografia|pornografia online]], gioco d'azzardo, chat, ecc. Il software di auto-censura può essere utilizzato anche per evitare la visualizzazione di contenuti che vengono considerati immorali, inadeguati, o semplicemente di distrazione. Un certo numero di prodotti accountability software sono commercializzati come ''self-censorship'' (autocensura) or ''accountability software'' (software responsabilità). Questi sono spesso promossi dai media religiosi e alle riunioni religiose.
== Criticità ==
Riga 49:
==== Under-blocking ====
Ogni volta che vengono caricate in Internet nuove informazioni, i filtri possono under-blocking (sotto-bloccare) o sotto-censurare i contenuti, se le parti responsabili del mantenimento dei filtri non li aggiornano rapidamente e con precisione, e non adottano una “lista nera” piuttosto che una politica di filtraggio basata sulle “liste bianche”.
=== Moralità e opinioni ===
Molti <ref>{{Cita web|url=http://www.arnnet.com.au/article/340550/microsoft_google_yahoo_speak_isp_filter_consultation/?fp=16&fpid=1 |titolo=Microsoft, Google and Yahoo! speak out in ISP filter consultation
|nome=Spandas |cognome=Lui |data=23 marzo 2010 |editore=arnnet.com |accesso=22 novembre 2010}}</ref> avrebbero disapprovato i punti di vista del governo relativi al filtraggio di questioni morali o politiche, concordando sul fatto che questo sarebbe potuto diventare un supporto per la [[propaganda]]. Molti <ref>{{Cita news|url=http://news.bbc.co.uk/2/hi/technology/8517829.stm |pubblicazione=BBC News |titolo=Google and Yahoo raise doubts over planned net filters |data=16 febbraio 2010 |accesso=30 aprile 2010}}</ref> avrebbero trovato inaccettabile che un ISP, o per legge o per scelta del provider, debba essere distribuito come software senza consentire agli utenti di disabilitare il filtraggio per le proprie connessioni. Negli Stati Uniti, è stato citato il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Ememndamento]] al fine di criminalizzare la censura di Internet forzata. (Vedere la [[Content-control software#Azioni legali|sezione seguente]])
Senza un'adeguata supervisione governativa, i software di content-filtering potrebbero consentire alle aziende private di censurare a loro piacimento. (Vedere [[#Religioso, anti-religioso e politica di censura
=== Azioni legali ===
Nel 1998 negli Stati Uniti, il tribunale distrettuale federale della Virginia ha stabilito che l'imposizione obbligatoria di filtraggio in una biblioteca pubblica viola il Primo Emendamento della Bill of Rights degli Stati Uniti.
Nel 1996 il Congresso degli Stati Uniti ha approvato il Communications Decency Act, che vieta indecenza su Internet. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel 1997 la [[Corte Suprema]] ha stabilito a loro favore.
Alla fine del 1990, i gruppi come il Censorware Project iniziarono una riproduzione di questi software e decifrarono le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha portato ad azioni legali attinenti alla violazione del contratto di licenza "Cyber Patrol" [[EULA|license agreement]],<ref>{{Cita web|url=http://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |titolo=Microsystems v Scandinavia Online, Verified Complaint |sito=Civil No. 00CV10488, United States District Court, District of Massachusetts |autore=Attorneys for Microsystems Software, Inc. and Mattel, Inc. |editore=Electronic Frontier Foundation |data=15 marzo 2000 |accesso=25 ottobre 2009}}</ref>, le quali hanno scoperto che tali strumenti bloccavano di routine siti ineccepibili, mentre non riuscivano a bloccare gli obiettivi previsti.
Alcune società di content-control software hanno risposto sostenendo che i loro criteri di filtraggio erano supportati da un intenso controllo manuale. Le società oppositrici hanno sostenuto, d'altra parte, che eseguire la necessaria verifica richiederebbe risorse superiori a quelle in possesso delle società e che quindi le loro affermazioni non erano valide.
La [[Motion Picture Association]] ha ottenuto con successo una legge nel Regno Unito per rafforzare gli ISP per usare tali software con lo scopo di arginare la violazione del copyright da parte degli abbonati.<ref>{{Cita news|titolo=Sky, Virgin Media Asked to Block Piracy Site Newzbin2|url=http://www.bbc.co.uk/news/technology-15653434 |editore=[[BBC News]] |data=9 novembre 2011 |accesso=26 marzo 2012 }}</ref>
=== Censura religiosa, anti-religiosa e politica ===
Si è dimostrato che molti tipi di content-control software bloccano i siti in base alle inclinazioni religiose e politiche dei proprietari dell'azienda di questi ultimi. Gli esempi includono il blocco di diversi siti religiosi <ref>{{Cita web|autore=Kelly Wilson |url=http://hometown.aol.com/Mjolnir13/test.htm |titolo=Hometown Has Been Shutdown - People Connection Blog: AIM Community Network |editore=Hometown.aol.com |data=6 novembre 2008 |accesso=25 ottobre 2009}}</ref><ref>{{Cita web|url=http://members.tripod.com/~Trifold/NOTICE.html |titolo=Notice!! |editore=Members.tripod.com |data= |accesso=25 ottobre 2009}}</ref> (compreso il sito web del Vaticano), molti siti politici e siti per gay/lesbiche.
È stato dimostrato che ''X-Stop'' blocca, ad esempio, il sito web Quaker, il National Journal of Sexual Orientation Law, la Heritage Foundation e parti di The Ethical Spectacle.
CYBERsitter blocca siti come [[National Organization of Women]].
Nancy Willard, una ricercatrice universitaria e avvocato, ha sottolineato che molte scuole pubbliche e biblioteche degli Stati Uniti utilizzano lo stesso software di filtraggio usato da molte organizzazioni cristiane.
Si è riscontrato che Cyber Patrol, un prodotto sviluppato da The Anti-Defamation League e The Learning Company di Mattel,
== Etichettatura dei contenuti ==
L’etichettatura dei contenuti può essere considerata un'altra forma di content-control software. Nel 1994, l'[[ICRANet|Internet Content Rating Association]] (ICRA) - ora parte della Family Online Safety Institute - ha sviluppato un sistema di classificazione dei contenuti per i fornitori di contenuti online. Utilizzando un questionario online un webmaster descrive la natura dei suoi contenuti web. Viene generato un piccolo file che contiene un computer readable digest di tale descrizione che può essere utilizzato da un content-control software per bloccare o consentire quel sito.
Le etichette ICRA sono disponibili in una varietà di formati.
Le etichette ICRA sono un esempio di auto-etichettatura. Allo stesso modo, nel 2006, la Association of Sites Advocating Child Protection (ASACP) ha avviato la [http://rtalabel.org Restricted to Adults] (iniziativa di auto-etichettatura ristretta agli adulti). I membri di ASACP erano preoccupati che le varie forme di legislazione proposte negli [[Stati Uniti]] producessero l'effetto di costringere le aziende “per adulti” a etichettare il loro contenuto.
L'etichetta RTA, a differenza dell’etichette ICRA, non richiede al webmaster per poterla utilizzare di compilare un questionario o registrarsi. Come ICRA, l'etichetta RTA è libera. Entrambe le etichette sono riconosciute da una vasta gamma di software di content-control.
Riga 82:
=== Stati Uniti ===
L'uso di filtri Internet o dei software per il controllo dei contenuti varia ampiamente nelle biblioteche pubbliche negli Stati Uniti, dal momento che le politiche di utilizzo di Internet sono stabilite dal consiglio locale della biblioteca. Molte biblioteche adottavano filtri Internet dopo che il Congresso ha condizionato la ricezione di sconti di servizio universale per l'uso di filtri Internet attraverso il Children’s Internet Protection Act (CIPA). Altre biblioteche non installano software per il controllo dei contenuti, credendo che politiche sul giusto utilizzo e sforzi educativi risolvano la questione dell’accesso a contenuti inadeguati per i bambini pur garantendo il diritto degli utenti adulti di accedere liberamente alle informazioni. Alcune librerie usano filtri Internet sui computer utilizzati solo da bambini. Alcune librerie che utilizzano il software per il controllo dei contenuti consentono al software di essere disattivato caso per caso, su richiesta di un bibliotecario; le biblioteche sono soggette a CIPA sono tenute ad avere una politica che richiesta che permette ad un adulto di richiedere la rimozione di un filtro essere senza dover spiegare la ragione della loro richiesta.
Molti giuristi ritengono che un certo numero di cause legali, in particolare il ''[[:en:Reno v. American Civil Liberties Union|Reno v. American Civil Liberties Union]]'', hanno stabilito l'uso dei software di content-control nelle biblioteche è una violazione del Primo Emendamento.
Nel marzo 2007, la Virginia ha approvato una legge simile a CIPA che richiede fondi statali per le biblioteche pubbliche al fine di utilizzare i content-control software. Come CIPA, la legge richiede alle librerie di disattivare i filtri su richiesta di un utente adulto della biblioteca.
=== Australia ===
L’Australian Internet Safety Advisory Body ha disposto "consigli pratici sulla sicurezza Internet, controllo parentale e filtri per la protezione dei bambini, studenti e famiglie" che comprende anche le biblioteche pubbliche.
NetAlert, il software messo a disposizione gratuitamente dal governo australiano, sarebbe stato incrinato da uno studente di 16 anni, Tom Wood, meno di una settimana dopo il suo rilascio nel mese di agosto 2007. Wood ha presumibilmente bypassato il filtro da $ 84000000 in circa mezzora per evidenziare i problemi dell'approccio del governo al filtraggio dei contenuti Internet.
Il governo australiano ha introdotto una normativa che richiede agli ISP di "limitare l'accesso ai contenuti in Australia o forniti dall'Australia, limitandolo per età (contenuti commerciali MA15+ e contenuti R18+)", che sarebbe entrata in vigore dal 20 gennaio del 2008, conosciuta come Cleanfeed.<ref>{{Cita web|url=http://www.acma.gov.au/webwr/_assets/main/lib310563/ras_declaration_2007.pdf |titolo=Restricted Access Systems Declaration 2007 |editore=Australian Communications and Media Authority (ACMA) |anno=2007 |accesso=24 giugno 2013}}</ref>
Cleanfeed è un sistema di filtraggio dei contenuti che propone un livello ISP obbligatorio. È stato proposto da Kim Beazley leader del partito di opposizione laburista australiano (ALP), in un comunicato stampa del 2006, con l'intento di proteggere i bambini vulnerabili a causa dell’analfabetismo informatico dei genitori. È stato annunciato il 31 dicembre 2007 come una politica da attuare da parte del governo Kevin Rudd, e primi test in [[Tasmania]] hanno prodotto una relazione nel 2008. Cleanfeed è finanziato dal bilancio corrente, e sono state avviate le prove concrete con gli ISP nel 2008. L’opposizione pubblica e la critica a questo progetto sono emersi, guidati da Electronic Frontiers Australia (EFA), con una maggioranza di australiani dichiaratasi "fortemente contro" la sua attuazione.
=== Danimarca ===
In Danimarca si afferma la politica che "eviterà che i bambini possano accedere dalle biblioteche a siti Internet inappropriati in tutta la Danimarca".<ref>{{Cita web|url=http://www.prnewswire.com/cgi-bin/stories.pl?ACCT=104&STORY=/www/story/07-27-2006/0004404991&EDATE= |titolo=Danish Ministry of Culture Chooses SonicWALL CMS 2100 Content Filter to Keep Children's Libraries Free of Unacceptable Material |editore=Prnewswire.com |data= |accesso=25 ottobre 2009}}</ref> "È importante che ogni biblioteca del paese abbia la possibilità di proteggere i bambini contro materiale pornografico quando stanno utilizzando computer della biblioteca. È una priorità per me, come ministro della Cultura, assicurarsi che i bambini possano navigare in modo sicuro sulla rete presso le biblioteche ", afferma Brian Mikkelsen in un comunicato stampa del Ministero della Cultura danese.
=== Regno Unito ===
Molte librerie nel Regno Unito come la British Library <ref>{{Cita web|url=http://www.bbc.com/news/technology-23680689 |titolo="British Library's wi-fi service blocks 'violent' Hamlet"|editore=BBC News|data=13 agosto 2013}}</ref> e autorità locali delle biblioteche pubbliche applicano filtri per l'accesso a Internet. Alcune biblioteche pubbliche bloccano siti web di prestito.
==Bypassare i filtri ==
In generale, il filtraggio dei contenuti, può "essere interamente bypassato da individui tech-savy". Le informazioni riguardanti l’elusione dei blocco dei contenuti "[non] ... garantiranno che gli utenti non finiranno per essere in grado di trovare un modo per aggirare il filtro." <ref name="techsoup">{{Cita web|url=http://www.cityvision.edu/wiki/understanding-content-filtering-faq-nonprofits |titolo=Understanding Content Filtering: An FAQ for Nonprofits |cognome=Satterfield |nome=Brian |data=4 giugno 2007 |editore=Techsoup.org |accesso=24 giugno 2013}}</ref>
Alcuni software possono essere bypassati con successo utilizzando protocolli alternativi come [[File Transfer Protocol|FTP]] o [[telnet]] o [[HTTPS]], conducendo le ricerche in una lingua diversa, utilizzando un [[Proxy|server proxy]] o un bypass come [[Psiphon]]. Anche le pagine web cache restituite da Google o da altre ricerche potrebbero aggirare alcuni controlli. I servizi Web syndication possono fornire percorsi alternativi per i contenuti. Alcuni dei programmi progettati nel peggiore dei modi possono essere fermati uccidendo i loro processi: per esempio, in [[Microsoft Windows]] tramite il [[Task Manager]] di Windows, o in [[
Molti filtri hanno un’opzione che prevede la possibilità che persone autorizzate possano bypassare il filtro dei contenuti. Questo è particolarmente utile in ambienti in cui il computer deve essere sorvegliato e il filtro dei contenuti blocca aggressivamente siti web a cui è necessario accedere.
Una [[Virtual Private Network|VPN]] cifrata può essere utilizzata come mezzo per bypassare i content-control software, in particolare se è stato installato il software di monitoraggio su un gateway Internet o un firewall.
|