Un ''content-control software'' è un [[software]] progettato per limitare o controllare il contenuto a cui un lettore è autorizzato ad accedere, è soprattutto utilizzato per limitare la consegna di materiale su [[Internet]] tramite il [[World Wide Web|Web]], [[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili o solitamente quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: un governo può tentare di applicarle a livello nazionale (vedi la censura di Internet), o possono, per esempio, essere applicate da un provider di servizi Internet ai propri clienti, dal datore di lavoro al proprio personale, da una scuola per suoi studenti, da una biblioteca ai suoi visitatori, da un genitore al computer di un bambino oppure un singolo utente per il proprio computer. Spesso il motivo è quello di impedire l'accesso ai contenuti che, il proprietario del computer (s) o di altre autorità, possono essere considerati discutibili. Quando imposto senza il consenso dell'utente, il controllo dei contenuti può essere considerato una forma di censura di internet. Alcuni content-control software includono le funzioni di controllo del tempo utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o per la riproduzione di giochi o altre attività del computer.
In alcuni paesi, tale software è onnipresente. [[:en:Censorship in Cuba#Internet|A Cuba]], se un utente di un computer in un [[Internet café]] controllato dal governo digita determinate parole, il word processor o il browser si chiude automaticamente, e viene dato un avvertimento "Sicurezza dello stato". <ref name="cubaonline">{{citeCita web|url=http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|titletitolo=Going online in Cuba: Internet under surveillance|publishereditore=Reporters Without Borders|yearanno=2006}}</ref>
==Terminologia==
Il termine ''content-control'' è stato usato in alcune occasioni dalla [[CNN]],<ref>{{citeCita news|url=http://edition.cnn.com/2005/WORLD/asiapcf/04/27/eyeonchina.internet/ |titletitolo= Young, angry ... and wired - May 3, 2005 |publishereditore=Edition.cnn.com |datedata=3 Maymaggio 2005|accessdateaccesso=25 Octoberottobre 2009}}</ref> dalla rivista ''[[Playboy]]'' <ref>{{citeCita news |url=http://www.multichannel.com/policy/playboy-preaches-control/12883 |titletitolo=Playboy Preaches Control |firstnome=R. Thomas |lastcognome=Umstead |newspapergiornale=Multichannel News |datedata=20 Maymaggio 2006 |accessdateaccesso=25 Junegiugno 2013}}</ref>, dal ''[[San Francisco Chronicle]]''<ref>{{citeCita web|url=http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |titletitolo=http://web.archive.org/web/20030708220938/http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |deadurlurlmorto=yes |archiveurlurlarchivio=https://web.archive.org/20030708220938/http://www.sfgate.com:80/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |archivedatedataarchivio=8 Julyluglio 2003 }}</ref> e dal ''[[New York Times]]'';<ref>{{citeCita news|lastcognome=Bickerton |firstnome=Derek |url=http://query.nytimes.com/gst/fullpage.html?res=9403E1D8143BF933A05752C1A961958260 |titletitolo=Digital Dreams - The |publishereditore=New York Times |datedata=30 Novembernovembre 1997 |accessdateaccesso=25 Octoberottobre 2009}}</ref>; tuttavia, sono utilizzati spesso anche altri termini, compreso ''content filtering software'', ''secure web gateways'', ''censorware'', ''content security and control'', ''web filtering software'', ''content-censoring software'' e ''content-blocking software''. Il termine ''Nannyware'' è stato utilizzato sia nella commercializzazione di prodotti che dai media. Ad esempio la società di ricerca [[Gartner]] Industry utilizza un ''secure web gateway'' (SWG) per descrivere il segmento di mercato.<ref name="Gartner">{{citeCita web|url=http://www.gartner.com/it-glossary/secure-web-gateway/|titletitolo=IT Glossary: Secure Web Gateway|publishereditore=[[Gartner]]|accessdateaccesso=27 Marchmarzo 2012}}</ref>
Le aziende realizzatrici di prodotti che bloccano selettivamente i siti Web non fanno riferimento a questi prodotti come censorware, e preferiscono termini come "Internet filter" or "URL Filter"; nel caso specializzato di software progettato specificamente per consentire ai genitori di monitorare e limitare l'accesso dei loro figli al web, è usato anche il termine "parental control software" (software di controllo parentale). Alcuni prodotti memorizzano tutti i siti a cui un utente accede e li valuta in base al tipo di contenuti per riportarle in un "accountability partner” (socio di responsabilità) per le scelte della persona, ed è usato il termine [[:en:accountability software|accountability software]]. Filtri Internet, software di controllo parentale, e / o software di responsabilità possono anche essere combinati in un unico prodotto.
Coloro che criticano tale software, tuttavia, usano il termine "censorware" liberamente: considerare il progetto Censorware, per esempio. <ref>{{citeCita web|url=http://censorware.net/ |titletitolo=Censorware Project |publishereditore=censorware.net |deadurlurlmorto=yes |archiveurlurlarchivio=https://web.archive.org/20150620042654/http://www.censorware.net/ |archivedatedataarchivio=20 Junegiugno 2015 }}</ref> L'uso del termine ''censorware'' negli editoriali, al fine di criticare i responsabili di tale software, è molto diffuso e copre molte varietà e applicazioni diverse.: [[:en:Xeni Jardin|Xeni Jardin]] usato il termine in un 9 marzo 2006 editoriale del New York Times, quando si discute l'uso di software di filtraggio di fabbricazione americana per sopprimere il contenuto in Cina; nello stesso mese uno studente del liceo ha usato il termine per discutere il dispiegamento di tale software nel suo distretto scolastico. <ref>{{citeCita web|url=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |titletitolo=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |deadurlurlmorto=yes |archiveurlurlarchivio=https://web.archive.org/20071019020114/http://159.54.226.83:80/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |archivedatedataarchivio=19 Octoberottobre 2007 }}</ref><ref>{{citeCita web|url=http://sethf.com/anticensorware/hearing_dc.php |titletitolo=DMCA 1201 Exemption Transcript, April 11 - Censorware |publishereditore=Sethf.com |datedata=11 Aprilaprile 2003 |accessdateaccesso=25 Octoberottobre 2009}}</ref>
In generale, al di fuori delle pagine editoriali come sopra descritto, i giornali tradizionali non usano il termine censorware nelle loro relazioni, preferendo invece utilizzare meno apertamente termini controversi come ''content filter'', ''content control'', o ''web filtering''; il New York Times e il ''[[Wall Street Journal]]'' sembrano entrambi seguire questa pratica. D'altra parte, i giornali web-based come [[CNET]] usano il termine in entrambi i contesti, editoriale e giornalistico, ad esempio "Windows Live to Get Censorware."<ref>{{citeCita web|url=http://www.techbeta.org/news/windows-live-to-get-censorware/ |titletitolo=Windows Live to get censorware - ZDNet.co.uk |publishereditore=News.zdnet.co.uk |datedata=14 Marchmarzo 2006 |accessdateaccesso=25 Octoberottobre 2009}}</ref>
==Tipi di filtri==
;Filtri basati su browser
:<ref>{{citeCita web |url=https://addons.mozilla.org/en-US/firefox/search/?q=content+filtering&appver=9.0.1&platform=linux |titletitolo=Search Results for "content filtering" |worksito=Firefox Add-Ons |publishereditore=Mozilla |accessdateaccesso=25 Junegiugno 2013}}</ref> La soluzione basata su browser è la soluzione più leggera per fare il filtraggio dei contenuti, ed è implementata tramite un estensione per il browser di terze parti.
;Filtri di posta elettronica
;Filtri lato client
:<ref>{{citeCita web |url=http://www.nap.edu/netsafekids/pro_fm_filter.html |titletitolo=Client-side filters |worksito=NetSafekids |publishereditore=National Academy of Sciences |yearanno=2003 |accessdateaccesso=24 Junegiugno 2013}}</ref> Questo tipo di filtro prevede l’installazione del software su ogni computer in cui è richiesto il filtraggio. <ref>{{citeCita web|url=http://windows.microsoft.com/en-us/windows-vista/Protecting-your-kids-with-Family-Safety|titletitolo=Protecting Your Kids with Family Safety|datedata=|accessdateaccesso=10 Julyluglio 2012|publishereditore=[[Microsoft]]}}</ref> Questo filtro in genere può essere gestito, disabilitato o disinstallato da chiunque abbia i privilegi a livello di amministratore di sistema.
;Content-limited (o filtered) ISP
:I Content-limited o Filtered ISP sono fornitori di servizi Internet che offrono l'accesso a solo una parte dell’insieme di contenuti Internet relativi ad un opt-in o a una base obbligatoria. Chi sottoscrive questo tipo di servizio è soggetto a restrizioni. Il tipo di filtro può essere utilizzato per implementare controllo di tipo governativo <ref>{{citeCita web|url=http://pam2011.gatech.edu/papers/pam2011--Xu.pdf|formatformato=pdf|titletitolo=Internet Censorship in China: Where Does the Filtering Occur?|firstnome=Xueyang|lastcognome=Xu|first2nome2=Z. Morley|last2cognome2=Mao|first3nome3=J. Alex|last3cognome3=Halderman|publishereditore=[[University of Michigan]]|datedata=5 Jangennaio 2011}}</ref>, normativo <ref>{{citeCita web |url=http://www.telegraph.co.uk/technology/broadband/9242729/The-Pirate-Bay-cut-off-from-millions-of-Virgin-Media-customers.html |titletitolo=The Pirate Bay cut off from millions of Virgin Media customers |authorautore= Christopher Williams |datedata=3 Maymaggio 2012 |accessdateaccesso=8 Maymaggio 2012 |worksito=The Telegraph}}</ref> o parentale sugli abbonati.
;Filtraggio basato sulla rete
:Questo tipo di filtro viene implementato a [[livello di trasporto]] come [[Proxy|transparent proxy]], o a [[livello applicativo]] come [[Proxy|web proxy]].<ref>{{citeCita web|url=http://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|titletitolo=Explicit and Transparent Proxy Deployments|publishereditore=Websense|accessdateaccesso=30 Marchmarzo 2012|yearanno=2010}}</ref> Rispetto al software di filtraggio può includere funzionalità di prevenzione della perdita di dati ([[:en:data loss prevention software|data loss prevention]]), per filtrare le informazioni sia in uscita che in entrata. Tutti gli utenti sono soggetti alla politica di accesso definita dall'istituzione. Il filtro può essere personalizzato, in modo che ad esempio, la biblioteca delle scuole superiori del distretto scolastico abbia un profilo diverso da quello di filtraggio della biblioteca della scuola media del quartiere.
;Filtri dei motori di ricerca
:Molti motori di ricerca, come Google e Alta Vista, offrono agli utenti la possibilità di accendere un filtro di sicurezza. Quando questo filtro di sicurezza è attivato, si filtrano i collegamenti non appropriati da tutti i risultati della ricerca. Se gli utenti conoscono l'URL reale di un sito web che offre contenuti espliciti o di tipo adulto, hanno la possibilità di accedere a tali contenuti senza l'utilizzo di un motore di ricerca. Motori come Lycos, Yahoo e Bing offrono versioni dei loro motori orientate ai bambini che permettono la visita dei soli siti web adatti a loro. <ref>{{citeCita web |url=http://www.nap.edu/netsafekids/pro_fm_filter.html |titletitolo=Filtering |worksito=NetSafekids |publishereditore=National Academy of Sciences |yearanno=2003 |accessdateaccesso=22 Novembernovembre 2010}}</ref>
==Causa del filtraggio==
Il [[Internet Service Provider]] (ISP) che blocca il materiale contenente [[pornografia]], o controverso contenuto religioso, politico, o notizie relative a questi argomenti, sono spesso utilizzati dai genitori per vietare ai loro figli di accedere a contenuti non conformi alle loro convinzioni personali. I software di filtraggio contenuti possono però anche essere utilizzati per bloccare i [[malware]] e altri contenuti che possono possono materiale ostile, invadente o fastidioso tra cui [[adware]], [[Spam|spam]], [[Virus (informatica)|virus ]], [[Worm|worms]], [[Trojan (informatica)|trojan horses]] e [[spyware]].
La maggior parte dei software di controllo dei contenuti sono rivolti a organizzazioni o genitori. E ', tuttavia, commercializzato anche al fine di facilitare l'auto-censura, per esempio da parte di persone che lottano con dipendenza da [[Pornografia|pornografia online]], gioco d'azzardo, chat, ecc. Il software di auto-censura può essere utilizzato anche da alcuni per evitare la visualizzazione di contenuti che considerano immorale, inadeguato, o semplicemente di distrazione. Un certo numero di prodotti [[:en:accountability software|acoountability software]] (software di responsabilità) sono commercializzati come ''self-censorship'' (autocensura) or ''accountability software'' (software responsabilità). Questi sono spesso promosse dai media religiosi e alle riunioni religiose. <ref>{{citeCita web |url=http://www.urbanministry.org/wiki/accountability-software |titletitolo=Accountability Software: Accountability and Monitoring Software Reviews |worksito=TechMission, Safe Families |publishereditore=UrbanMinistry.org |datedata= |accessdateaccesso=25 Octoberottobre 2009}}</ref>
== Criticità ==
Utilizzare un filtro che è eccessivamente zelante sul filtraggio dei contenuti o i cui contenuti etichettati erroneamente non destinati ad essere censurati, può risultare al di sopra del blocco o della censura. Un sovra bloccaggio può filtrare materiale che dovrebbero essere accettabile in base alla politica di filtraggio effettiva, ad esempio informazioni riguardanti la salute possono essere filtrate inavvertitamente insieme ad altro materiale porno ([[:en:Scunthorpe problem]]).
Gli amministratori del filtraggio possono preferire lo sbaglio sul lato della cautela, accettando l’over-blocking per prevenire qualsiasi rischio di accesso ai siti che questi hanno determinato come indesiderati. Questo problema si è riscontrato ad esempio nel caso del blocco dell'accesso al Beaver college prima del suo cambio di nome in [[:en:Arcadia University|Arcadia University]].<ref>{{citeCita web |url=http://slashdot.org/article.pl?sid=00/03/01/2230240&tid=146 |titletitolo=Web Censors Prompt College To Consider Name Change |publishereditore=Slashdot |datedata=2 Marchmarzo 2000 |accessdateaccesso=22 Novembernovembre 2010}}</ref> e nel filtraggio del [[:en:Horniman Museum|museo Horniman]].<ref>{{citeCita news |url=http://www.theregister.co.uk/2004/10/08/horniman_museum_filtered/ |titletitolo=Porn filters have a field day on Horniman Museum |authorautore=Lester Haines |datedata=8 Octoberottobre 2004 |newspapergiornale=The Register}}</ref> Tutto ciò provoca l’incoraggiamento agli utenti affinché bypassino il filtro del tutto.
==== Underblocking ====
Ogni volta che vengono caricate in Internet nuove informazioni, i filtri possono sotto-bloccare o sotto-censurare contenuti, se le parti responsabili del mantenimento dei filtri non li aggiornano rapidamente e con precisione, e non adottano una “lista nera” piuttosto che una politica di filtraggio basata sulle “liste bianche”. <ref>{{citeCita web |url=http://www.stat.berkeley.edu/~stark/Preprints/filter07.pdf |titletitolo=The Effectiveness of Internet Content Filters |firstnome=Philip B. |lastcognome=Stark |publishereditore=[[University of California, Berkeley]] |datedata=10 Novembernovembre 2007 |accessdateaccesso=22 Novembernovembre 2010 }}</ref>
=== Moralità e opinioni ===
Molti <ref>{{citeCita web |url=http://www.arnnet.com.au/article/340550/microsoft_google_yahoo_speak_isp_filter_consultation/?fp=16&fpid=1 |titletitolo=Microsoft, Google and Yahoo! speak out in ISP filter consultation
|firstnome=Spandas |lastcognome=Lui |datedata=23 Marchmarzo 2010 |publishereditore=arnnet.com |accessdateaccesso=22 Novembernovembre 2010}}</ref> avrebbero disapprovato i punti di vista relativi al filtraggio del governo su questioni morali o politiche, concordando sul fatto che questo sarebbe potuto diventare un supporto per la [[propaganda]]. Molti <ref>{{citeCita news| url=http://news.bbc.co.uk/2/hi/technology/8517829.stm | workpubblicazione=BBC News | titletitolo=Google and Yahoo raise doubts over planned net filters | datedata=16 Februaryfebbraio 2010 | accessdateaccesso=30 Aprilaprile 2010}}</ref> avrebbero trovato inaccettabile che un ISP, o per legge o per scelta del provider, debba essere distribuito come software senza consentire agli utenti di disabilitare il filtraggio per le proprie connessioni. Negli Stati Uniti, il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Ememndamento]] è stato citato nelle chiamate per criminalizzare la censura di Internet forzata. (Vedere la [[Content-control software#Azioni legali|sezione seguente]])
Senza un'adeguata supervisione governativa, i software di content filtering potrebbero consentire alle aziende private di censurare a loro piacimento. (Vedere [[#Religioso, anti-religioso e politica di censura |Censura religiosa o politica]], di seguito). L’utilizzo e l’incoraggiamento governativo all’uso dei software di content-control è un componente della [[:en:Internet censorship|censura di Internet]] (da non confondere con [[PRISM|Internet Surveillance]], in cui il contenuto viene monitorato e non necessariamente limitato). I governi dei paesi come la [[:en:Internet Censorship in China|Repubblica Popolare Cinese]] e [[Cuba]] sono esempi attuali di paesi sospettati di aver dato luogo a questa attività eticamente controversa.
=== Azioni legali ===
Nel 1998 negli Stati Uniti, il tribunale distrettuale federale della Virginia ha stabilito che l'imposizione obbligatoria di filtraggio in una biblioteca pubblica viola il Primo Emendamento della Bill of Rights degli Stati Uniti. <ref>{{citeCita web|url=http://www.tomwbell.com/NetLaw/Ch04/Loudoun.html |titletitolo=Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (E.D. Va. 1998) |publishereditore=Tomwbell.com |datedata= |accessdateaccesso=25 Octoberottobre 2009}}</ref>
Nel 1996 il Congresso degli Stati Uniti ha approvato il [[:en:Communications Decency Act|Communications Decency Act]], che vieta indecenza su Internet. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel 1997 la [[Corte Suprema]] ha stabilito a loro favore. <ref>{{citeCita news |url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titletitolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |workpubblicazione=U.S. Reports |datedata=26 Junegiugno 1997 |publishereditore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, specialmente quelle di gruppi come la [[Electronic Frontier Foundation]], riguardava il fatto che i genitori che volevano bloccare i siti potevano usare i propri software di filtraggio dei contenuti, rendendo inutile un coinvolgimento del governo.
Alla fine del 1990, i gruppi come il Censoware Project iniziarono una riproduzione di questi software e decifrarono le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha portato ad azioni legali attinenti alla violazione del contratto di licenza "Cyber Patrol" [[EULA|license agreement]].<ref>{{citeCita web|url=http://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |titletitolo=Microsystems v Scandinavia Online, Verified Complaint |worksito=Civil No. 00CV10488, United States District Court, District of Massachusetts |authorautore=Attorneys for Microsystems Software, Inc. and Mattel, Inc. |publishereditore=Electronic Frontier Foundation |datedata=15 Marchmarzo 2000 |accessdateaccesso=25 Octoberottobre 2009}}</ref>, le quali hanno scoperto che tali strumenti bloccavano di routine siti ineccepibili, mentre non riuscivano a bloccare gli obiettivi previsti. (Vedi [[#Over-zealous filtering|Over-zealous filtering]], di seguito).
Alcune società di software per il controllo dei contenuti hanno risposto sostenendo che i loro criteri di filtraggio erano sopportati da un intenso controllo manuale. Le società oppositrici hanno sostenuto, d'altra parte, che eseguire la necessaria verifica richiederebbe risorse superiori a quelle in possesso delle società e che quindi la loro affermazioni non erano valide. <ref>{{citeCita web |url=http://www7.nationalacademies.org/itas/whitepaper_1.html |titletitolo=Electronic Frontier Foundation White Paper 1 for NRC project on Tools and Strategies for Protecting Kids from Pornography and Their Applicability to Other Inappropriate Internet Content |authorautore=Seth Finkelstein, Consulting Programmer; Lee Tien, Senior Staff Attorney, EFF |publishereditore=National Academy of Sciences |archiveurl urlarchivio= http://web.archive.org/web/20060419190143/http://www7.nationalacademies.org/itas/whitepaper_1.html |archivedatedataarchivio=19 Aprilaprile 2006}}</ref>
La [[Motion Picture Association]] ha ottenuto con successo una legge del Regno Unito per rafforzare gli ISP per usare tali software con lo scopo di arginare la violazione del copyright da parte degli abbonati.<ref>{{citeCita news |titletitolo=Sky, Virgin Media Asked to Block Piracy Site Newzbin2|url=http://www.bbc.co.uk/news/technology-15653434 |publishereditore=[[BBC News]] |datedata=9 Novembernovembre 2011 |accessdateaccesso=26 Marchmarzo 2012 }}</ref>
=== Censura religiosa, anti-religiosa e politica ===
Si è dimostrato che molti tipi di content-control software bloccano i siti in base alle inclinazioni religiose e politiche dei proprietari dell'azienda di questi ultimi. Gli esempi includono il blocco di diversi siti religiosi <ref>{{citeCita web|authorautore=Kelly Wilson |url=http://hometown.aol.com/Mjolnir13/test.htm |titletitolo=Hometown Has Been Shutdown - People Connection Blog: AIM Community Network |publishereditore=Hometown.aol.com |datedata=6 novembre 2008-11-06 |accessdateaccesso=2009-10-25 ottobre 2009}}</ref><ref>{{citeCita web|url=http://members.tripod.com/~Trifold/NOTICE.html |titletitolo=Notice!! |publishereditore=Members.tripod.com |datedata= |accessdateaccesso=2009-10-25 ottobre 2009}}</ref> (compreso il sito web del Vaticano), molti siti politici e siti per gay/lesbiche. <ref>{{citeCita web|url=http://www.glaad.org/media/archive_detail.php?id=103& |titletitolo=http://www.glaad.org/media/archive_detail.php?id=103& |deadurlurlmorto=yes |archiveurlurlarchivio=https://web.archive.org/web/20080607224912/http://www.glaad.org/media/archive_detail.php?id=103& |archivedatedataarchivio=June7 7,giugno 2008 }}</ref> ''X-Stop'' è stato mostrato per bloccare i siti, ad esempio il sito web [[:en:Quaker Oats Company|Quaker]], il [[:en:National Journal of Sexual Orientation Law|National Journal of Sexual Orientation Law]], la [[:en:Heritage Foundation]] e parti di The Ethical Spectacle. <ref>{{citeCita web|url=http://www.spectacle.org/cs/burt.html |titletitolo=The Mind of a Censor |publishereditore=Spectacle.org |datedata= |accessdateaccesso=2009-10-25 ottobre 2009}}</ref> CYBERsitter blocca siti come [[National Organization of Women]]. <ref>{{citeCita web|url=http://www.spectacle.org/alert/peace.html |titletitolo=CYBERsitter: Where do we not want you to go today? |publishereditore=Spectacle.org |datedata= |accessdateaccesso=2009-10-25 ottobre 2009}}</ref> Nancy Willard, una ricercatrice universitaria e avvocato, ha sottolineato che molte scuole pubbliche e biblioteche degli Stati Uniti utilizzano lo stesso software di filtraggio usato da molte organizzazioni cristiane. <ref>{{citeCita web|url=http://www.csriu.org/onlinedocs/documents/religious2.html |titletitolo=See: Filtering Software: The Religious Connection |publishereditore=Csriu.org |datedata= |accessdateaccesso=2009-10-25 ottobre 2009}}</ref> Si è trovato che Cyber Patrol, un prodotto sviluppato da The Anti-Defamation League e The Learning Company di Mattel, <ref>{{citeCita web|url=http://www.adl.org/presrele/mise_00/3081-00.asp |titletitolo=See: ADL and The Learning Company Develop Educational Software |publishereditore=adl.org |datedata= |accessdateaccesso=2011-08-26 agosto 2011}}</ref> blocca non solo i siti politici che ritiene essere affascinati da 'hate speech' (incitamento all’odio), ma anche i siti web sui diritti umani, come la pagina web di Amnesty International su Israele e siti web inerenti ai diritti dei gay come ad esempio glaad.org <ref>{{citeCita web|url=http://www.peacefire.org/censorware/Cyber_Patrol/ |titletitolo=See: Cyber Patrol Examined |publishereditore=peacefire.org |datedata= |accessdateaccesso=2011-08-26 agosto 2011}}</ref>
== Etichettatura dei contenuti ==
L’etichettatura dei contenuti può essere considerata un'altra forma di software per controllo dei contenuti. Nel 1994, l'[[ICRANet|Internet Content Rating Association]] (ICRA) - ora parte della [[:en:Family Online Safety Institute|Family Online Safety Institute]] - ha sviluppato un sistema di classificazione dei contenuti per i fornitori di contenuti online. Utilizzando un questionario online un webmaster descrive la natura dei suoi contenuti web. Viene generato un piccolo file che contiene un condensato, computer readable digest di tale descrizione che può essere utilizzato da un software di filtraggio dei contenuti per bloccare o consentire quel sito.
Le etichette ICRA sono disponibili in una varietà di formati. <ref>{{citeCita web |url=http://www.fosi.org/icra/#tech |titletitolo=ICRA: Technical standards used |accessdateaccesso=4 luglio 2008-07-04 |work= |publishereditore=FOSI |datedata= }}</ref> Questi includono [[Resource Description Framework]] del World Wide Web Consortium (RDF), così come etichette [[PICS|Platform for Internet Content Selection]] (PICS) utilizzate da consulente dei contenuti di [[Internet Explorer]] di [[Microsoft]]. <ref>{{citeCita web |url=http://www.microsoft.com/windows/ie/ie6/using/howto/security/contentadv/config.mspx |titletitolo=Browse the Web with Internet Explorer 6 and Content Advisor |accessdateaccesso= |work= |publishereditore=Microsoft |datedata=March26 26,marzo 2003 }}</ref>
Le etichette ICRA sono un esempio di auto-etichettatura. Allo stesso modo, nel 2006, la [[:en:Association of Sites Advocating Child Protection (ASACP)|ASACP]] ha avviato la [http://rtalabel.org Restricted to Adults] (iniziativa di auto-etichettatura ristretta agli adulti). I membri di ASACP erano preoccupati che le varie forme di legislazione proposte negli [[Stati Uniti]] stavano per produrre l'effetto di costringere le aziende “per adulti” a etichettare il loro contenuto. <ref>{{citeCita web |url=http://www.asacp.org/page.php?content=news&item=511 |titletitolo=ASACP Participates in Financial Coalition Against Child Pornography |accessdateaccesso=2008-07-044 |work=luglio |publisher=2008 |datedata=November20 20,novembre 2007 }}</ref> L'etichetta RTA, a differenza dell’etichette ICRA, non richiede al webmaster di compilare un questionario o registrarsi per poterla utilizzare. Come ICRA l'etichetta RTA è libera. Entrambe le etichette sono riconosciute da [[:en:List of Content Control Software|una vasta gamma di software di content-control]].
Il Voluntary Content Rating (VCR) è stato ideato da Solid Oak Software per il loro software di filtraggio [[:en:CYBERsitter]], come alternativa al sistema PICS, che alcuni critici consideravano troppo complesso. Questo sistema impiega dei tag metadati di [[HTML]] incorporati nei documenti web per specificare il tipo di contenuto presente nella pagina. Sono specificati solo due livelli, ''mature'' e ''adult'', rendendo la specifica estremamente semplice.
=== Stati Uniti ===
L'uso di filtri Internet o dei software per il controllo dei contenuti varia ampiamente nelle biblioteche pubbliche negli Stati Uniti, dal momento che le politiche di utilizzo di Internet sono stabilite dal consiglio locale della biblioteca. Molte biblioteche adottavano filtri Internet dopo che il Congresso ha condizionato la ricezione di sconti di servizio universale per l'uso di filtri Internet attraverso il [[:en:Children’s Internet Protection Act]] (CIPA). Altre biblioteche non installano software per il controllo dei contenuti, credendo che politiche sul giusto utilizzo e sforzi educativi risolvano la questione dell’accesso a contenuti inadeguati per i bambini pur garantendo il diritto degli utenti adulti di accedere liberamente alle informazioni. Alcune librerie usano filtri Internet sui computer utilizzati solo da bambini. Alcune librerie che utilizzano il software per il controllo dei contenuti consentono al software di essere disattivato caso per caso, su richiesta di un bibliotecario; le biblioteche sono soggette a CIPA sono tenute ad avere una politica che richiesta che permette ad un adulto di richiedere la rimozione di un filtro essere senza dover spiegare la ragione della loro richiesta.
Molti giuristi ritengono che un certo numero di cause legali, in particolare il ''[[:en:Reno v. American Civil Liberties Union|Reno v. American Civil Liberties Union]]'', hanno stabilito l'uso dei software di content-control nelle biblioteche è una violazione del Primo Emendamento. <ref>{{citeCita web |url=http://www.spectacle.org/cs/library.bak |titletitolo=Purchase of blocking software by public libraries is unconstitutional |accessdateaccesso= |lastcognome=Wallace |firstnome=Jonathan D. |coauthorsdata=9 |date=November 9,novembre 1997 |work= |publisher=}}</ref> I Children's Internet Protection Act [CIPA] e il caso di giugno 2003 ''[[:en:United States v. American Library Association|United States v. American Library Association]]'' ha rilevato il CIPA costituzionale come condizione per ricevere il finanziamento federale, affermando che i riferimenti del Primo Emendamento sono stati dilapidati dalla disposizione della legge che permetteva agli utenti adulti di biblioteche di richiedere la disabilitazione del software di filtraggio, senza dover spiegare le ragioni delle loro richiesta. Il pluralismo di questa decisione, tuttavia, lascia aperta per il futuro la sfida costituzione sul "come applicarla". Nel novembre 2006, è stata intentata una causa contro il distretto di North Central Regional Library (NCRL) nello Stato di Washington per la sua politica di rifiuto di disabilitare le restrizioni su richieste di avventori adulti, ma CIPA non è stata contestata in questa faccenda. <ref>{{citeCita web |url=http://www.aclu-wa.org/detail.cfm?id=557 |titletitolo=ACLU Suit Seeks Access to Information on Internet for Library Patrons |accessdateaccesso= |work= |publishereditore=ACLU of Washington |datedata=November16 16,novembre 2006 }}</ref> Nel maggio 2010, la Corte Suprema dello Stato di Washington ha fornito una parere dopo che è stato chiesto di certificare un questione sollevata dal tribunale distrettuale degli Stati Uniti per il Distretto Orientale di Washington: "Se una biblioteca pubblica, in linea con l'articolo I, § 5 della Costituzione di Washington, può filtrare l'accesso a Internet per tutti i clienti senza disabilitare siti web contenenti parole costituzionalmente protette, su richiesta di un utente adulto della biblioteca". La Corte Suprema dello Stato di Washington ha stabilito che la politica di filtraggio Internet di NCRL non violava l'articolo I, sezione 5 del Washington Costituzione dello Stato. La Corte ha dichiarato: "Ci sembra che la politica di filtraggio di NCRL sia ragionevole e che si accordi con la sua missione e con queste politiche ed è un punto di vista neutrale. Sembra che non esista nessuna violazione del contenuto di base dell’articolo I, sezione 5, in questo caso. La missione essenziale di NCRL è quello di promuovere la lettura e l'apprendimento permanente. Come sostiene NCRL, è ragionevole imporre restrizioni in materia di accesso a Internet al fine di mantenere un ambiente favorevole che è quello di studiare e di pensiero contemplativo”. Il caso torna ora alla corte federale.
Nel marzo 2007, la Virginia ha approvato una legge simile a CIPA che richiede la ricezione di fondi statali per le biblioteche pubbliche al fine di utilizzare i software di content-control. Come CIPA, la legge richiede alle librerie di disattivare i filtri su richiesta di un utente adulto della biblioteca. <ref>{{citeCita news |firstnome=Michael |lastcognome=Sluss |authorlink= |coauthors= |titletitolo=Kaine signs library bill: The legislation requires public libraries to block obscene material with Internet filters |url=http://www.roanoke.com/politics/wb/wb/xp-109919 |work= |publishereditore=The Roanoke Times |datedata=March 23, marzo 2007 |accessdate= }}</ref>
=== Australia ===
L’Australian Internet Safety Advisory Body ha disposto "consigli pratici sulla sicurezza Internet, controllo parentale e filtri per la protezione dei bambini, studenti e famiglie" che comprende anche le biblioteche pubbliche. <ref>{{citeCita web |url=http://www.pcw.vic.edu.au/Our%20School/Parents%20Guide%20to%20Internet%20Safety.pdf |titletitolo=NetAlert: Parents Guide to Internet Safety |publishereditore=Australian Communications and Media Authority |datedata=2 Augustagosto 2007 |accessdateaccesso=24 Junegiugno 2013}}</ref>
NetAlert, il software messo a disposizione gratuitamente dal governo australiano, sarebbe stato incrinato da uno studente di 16 anni, Tom Wood, meno di una settimana dopo il suo rilascio nel mese di agosto 2007. Wood ha presumibilmente bypassato il filtro da $ 84000000 in circa mezzora per evidenziare i problemi dell'approccio del governo al filtraggio dei contenuti Internet. <ref>{{citeCita news |url=http://www.smh.com.au/news/National/Teenager-cracks-govts-84m-porn-filter/2007/08/25/1187462562907.html |titletitolo=Teenager cracks govt's $84m porn filter |agencyeditore=Australian Associated Press (AAP) |workpubblicazione=Sydney Morning Herald |publishereditore=Fairfax Digital |datedata=25 Augustagosto 2007 |accessdateaccesso=24 Junegiugno 2013}}</ref>
Il governo australiano ha introdotto una normativa che richiede agli ISP di "limitare l'accesso ai contenuti in Australia o fornito dall'Australia, limitandolo per età (contenuti commerciali MA15+ e contenuti R18+)", che avrebbe dovuto iniziare dal 20 gennaio del 2008, conosciuta come [[:en:Cleanfeed (content blocking system)|Cleanfeed]].<ref>{{citeCita web |url=http://www.acma.gov.au/webwr/_assets/main/lib310563/ras_declaration_2007.pdf |titletitolo=Restricted Access Systems Declaration 2007 |publishereditore=Australian Communications and Media Authority (ACMA) |yearanno=2007 |accessdateaccesso=24 Junegiugno 2013}}</ref>
Cleanfeed è un sistema di filtraggio dei contenuti che propone un livello ISP obbligatorio. È stato proposto da [[:en:Kim Beazley|Beazley]] guidato dal partito di opposizione [[:en:Australian Labor Party|laburista australiano]], in un comunicato stampa del 2006, con l'intento di proteggere i bambini vulnerabili a causa dell’analfabetismo informatico dei genitori. È stato annunciato il 31 dicembre 2007 come una politica da attuare da parte del governo [[:en:Kevin Rudd|Rudd]], e primi test in [[Tasmania]] hanno prodotto una relazione nel 2008. Cleanfeed è finanziato dal bilancio corrente, e si sta avviando verso le prove concrete con gli ISP nel 2008. L’opposizione pubblica e la critica a questo progetto sono emersi, guidati da [[:en:Electronic Frontiers Australia|EFA]], e guadagnando irregolarmente l'attenzione dei media tradizionali, con una maggioranza di australiani dichiaratasi "fortemente contro" la sua attuazione. <ref name="nocleanfeed.com">{{citeCita web|url=http://nocleanfeed.com/learn.html |titletitolo=Learn - No Clean Feed - Stop Internet Censorship in Australia |publishereditore=Electronic Frontiers Australia |datedata= |accessdateaccesso=25 Octoberottobre 2009}}</ref> Le critiche includono la sua spesa, l’imprecisione (sarà impossibile assicurare che solo i siti illegali siano bloccati) e il fatto che sarà obbligatorio, che può essere visto come un'intrusione sui diritti di libertà di parola. <ref name="nocleanfeed.com"/> Un altro principale punto di critica è stato che, anche se il filtro è stato dichiarato con lo scopo di fermare determinati materiali, le cerchie clandestine che si occupano di questi materiali non saranno interessate. Il filtro potrebbe fornire anche un falso senso di sicurezza ai genitori, che potrebbero sorvegliare di meno i bambini durante l'utilizzo di Internet, ottenendo l'effetto esattamente opposto. Cleanfeed è una responsabilità del portafoglio del [[:en:Stephen Conroy|senatore Conroy]].
=== Danimarca ===
In Danimarca si afferma la politica che "eviterà che i bambini possano accedere dalle biblioteche a siti Internet inappropriati in tutta la Danimarca".<ref>{{citeCita web|url=http://www.prnewswire.com/cgi-bin/stories.pl?ACCT=104&STORY=/www/story/07-27-2006/0004404991&EDATE= |titletitolo=Danish Ministry of Culture Chooses SonicWALL CMS 2100 Content Filter to Keep Children's Libraries Free of Unacceptable Material |publishereditore=Prnewswire.com |datedata= |accessdateaccesso=2009-10-25 ottobre 2009}}</ref> " “E' importante che ogni biblioteca del paese abbia la possibilità di proteggere i bambini contro materiale pornografico quando sono utilizzando computer della biblioteca. E 'una priorità per me, come ministro della Cultura per assicurarsi che i bambini possono navigare in modo sicuro sulla rete presso le biblioteche ", afferma Brian Mikkelsen in un comunicato stampa del Ministero della Cultura danese. <ref>{{citeCita web|url=http://www.saferinternet.org/ww/en/pub/insafe/news/articles/0606/dk.htm |titletitolo=Danish Minister of Culture offers Internet filters to libraries |publishereditore=Saferinternet.org |datedata= |accessdateaccesso=2009-10-25 ottobre 2009}}</ref>
=== Regno Unito ===
Molte librerie nel Regno Unito come la British Library <ref>{{citeCita web|url=http://www.bbc.com/news/technology-23680689 |titletitolo="British Library's wi-fi service blocks 'violent' Hamlet"| publishereditore=BBC News|datedata=13 agosto 2013-08-13}}</ref> e autorità locali delle biblioteche pubbliche applicano filtri per l'accesso a Internet. Alcune biblioteche pubbliche bloccano siti web di prestito. <ref> {{ citeCita web | url=https://www.pirateparty.org.uk/blogs/adrian-short/should-public-libraries-block-payday-loan-websites|titletitolo="Should public libraries block payday loan websites?" |data=3 aprile date=2014-04-03|publishereditore=Pirate Party UK}}</ref>
==Bypassare i filtri ==
{{Main |:en:Internet censorship circumvention}}
Il filtraggio dei contenuti in generale, può "essere interamente bypassato da individui tech-savy". Le informazioni riguardanti l’elusione dei blocco dei contenuti "[non] ... garantiranno che gli utenti non finiranno per essere in grado di trovare un modo per aggirare il filtro." <ref name="techsoup">{{citeCita web |url=http://www.cityvision.edu/wiki/understanding-content-filtering-faq-nonprofits |titletitolo=Understanding Content Filtering: An FAQ for Nonprofits |lastcognome=Satterfield |firstnome=Brian |datedata=4 Junegiugno 2007 |publishereditore=Techsoup.org |accessdateaccesso=24 Junegiugno 2013}}</ref>
Alcuni software possono essere bypassati con successo utilizzando protocolli alternativi come [[File Transfer Protocol|FTP]] o [[telnet]] o [[HTTPS]], conducendo le ricerche in una lingua diversa, utilizzando un [[Proxy|server proxy]] o un bypass come [[Psiphon]]. Anche le pagine web cache restituite da Google o da altre ricerche potrebbero aggirare alcuni controlli. I servizi Web syndication possono fornire percorsi alternativi per i contenuti. Alcuni dei programmi progettati nel peggiore dei modi possono essere fermati uccidendo i loro processi: per esempio, in [[Microsoft Windows]] tramite il [[Task Manager]] di Windows, o in [[Mac OS X]] utilizzando l’uscita forzata o [[:en:Activity Monitor]]. Esistono numerose soluzioni alternative e contatori di queste soluzioni realizzate dai creatori dei software di controllo dei contenuti. Spesso i servizi di [[Google]] sono bloccati dai filtri, ma il più delle volte questi possono essere aggirati utilizzando ''https://'' al posto di ''http://'' dato che i software di filtraggio dei contenuti non sono in grado di interpretare il contenuto sotto connessioni sicure(in questo caso SSL).
|