Content-control software: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
replaced: →, typos fixed: E' → È using AWB
m Terminologia: Refuso
 
(54 versioni intermedie di 26 utenti non mostrate)
Riga 1:
[[ImageFile:Screenshot-whitehouse com.png|thumb|upright=1.4||[[DansGuardian]] blocking [[whitehouse.com]].]]
{{Correggere|argomento=informatica|data=luglio 2016|commento=alcune parti del testo sembrano tradotte in modo automatico; inoltre, persistono vari collegamenti a voci di enwiki}}
[[Image:Screenshot-whitehouse com.png|thumb|upright=1.4||[[DansGuardian]] blocking [[whitehouse.com]].]]
 
Un '''''Content-control software''''' è un programma informatico progettato per limitare o controllare i contenuti ai quali un utente è autorizzato ad accedere. Viene soprattutto utilizzato per limitare l'invio e la ricezione di materiale su [[Internet]] tramite il [[World Wide Web|Web]], l'[[e-mail]], o in altro modo.
Un '''''content-control software''''' è un [[software]] progettato per limitare o controllare il contenuto a cui un lettore è autorizzato ad accedere. È soprattutto utilizzato per limitare l'invio di materiale su [[Internet]] tramite il [[World Wide Web|Web]], [[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili o, solitamente, quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: queste possono essere applicate a livello nazionale dal governo, o possono, per esempio, essere applicate da un provider di servizi Internet ai propri clienti, o dal datore di lavoro al proprio personale, o da una scuola ai suoi studenti, o da una biblioteca ai suoi visitatori, o da un genitore al computer di un bambino, oppure da un singolo utente al proprio computer. Spesso il motivo che spinge ad utilizzare tali software, è quello di impedire l'accesso a contenuti che, il proprietario o altre autorità del/dei computer, possono ritenere discutibili. Quando imposto senza il consenso dell'utente, il controllo dei contenuti può essere considerato una forma di censura di internet. Alcuni content-control software includono funzioni di controllo del tempo, utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o usate per la riproduzione di giochi o altre attività del computer.
 
In alcuni paesiStati del mondo, tali software sono onnipresentimassiciamente utilizzati. [[:en:CensorshipDiritti inumani a Cuba#Internet|A Cuba]], se un utente di un computer in un [[Internet café]] controllato dal governo digita determinate parole, il word processor o il browser si chiude automaticamente, e viene dato un avvertimento: "Sicurezza dello stato". <ref name="cubaonline">{{Cita web|url=http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|titolo=Going online in Cuba: Internet under surveillance|editore=Reporters Without Borders|anno=2006|urlmorto=sì|urlarchivio=https://web.archive.org/web/20090303221407/http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|dataarchivio=3 marzo 2009}}</ref>
 
== Terminologia ==
Il termine ''content-control'' è stato usato in alcune occasioni dalla [[CNN]],<ref>{{Cita news|url=httphttps://edition.cnn.com/2005/WORLD/asiapcf/04/27/eyeonchina.internet/ |titolo= Young, angry ... and wired - May 3, 2005 |editore=Edition.cnn.com |data=3 maggio 2005|accesso=25 ottobre 2009}}</ref> dalla rivista ''[[Playboy (periodico)|Playboy]]'' <ref>{{Cita news |url=http://www.multichannel.com/policy/playboy-preaches-control/12883 |titolo=Playboy Preaches Control |nome=R. Thomas |cognome=Umstead |giornale=Multichannel News |data=20 maggio 2006 |accesso=25 giugno 2013 |dataarchivio=22 settembre 2013 |urlarchivio=https://web.archive.org/web/20130922193106/http://www.multichannel.com/policy/playboy-preaches-control/12883 |urlmorto=sì }}</ref>, dal ''[[San Francisco Chronicle]]''<ref>{{Cita web |url=http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |titolo=httphttps://web.archive.org/web/20030708220938/http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |urlmorto=yes |urlarchivio=https://web.archive.org/web/20030708220938/http://www.sfgate.com:80/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155%2Fnews%2Farchive%2F2002%2F10%2F25%2Ffinancial1400EDT0155.DTL&type=printable |dataarchivio=8 luglio 2003 }}</ref> e dal ''[[New York Times]]''<ref>{{Cita news|cognome=Bickerton |nome=Derek |url=httphttps://query.nytimes.com/gst/fullpage.html?res=9403E1D8143BF933A05752C1A961958260 |titolo=Digital Dreams - The |editore=New York Times |data=30 novembre 1997 |accesso=25 ottobre 2009}}</ref>;. tuttaviaTuttavia, sono utilizzati spesso anche altri termini, compreso, ''content filtering software''<ref>Trad.Ing.:"''software di filtraggio dei contenuti".''</ref>'','' ''secure web [[Gateway (informatica)|gateways]]''<ref>Mod.Trad.:"''gateway web protetti''"</ref>, ''censorware'', ''content security and control''<ref>Trad.Ing.:"''controllo e sicurezza dei contenuti''"</ref>, ''web filtering software''<ref>Trad.Ing.:"''software di filtraggio web"''</ref>, ''content-censoring software''<ref>Trad.Ing.:"''software di censura dei contenuti''"</ref> e ''content-blocking software''<ref>Trad.Ing.:"''software di blocco dei contenuti''"</ref>. Il termine ''Nannyware'' è statovenne utilizzato sia dai media che nella commercializzazione di prodotti. Ad esempio la società di ricerca [[Gartner]] Industry utilizza un ''secure web gateway'' (SWG) per descrivere ilun segmento di mercato.<ref name="Gartner">{{Cita web|url=httphttps://www.gartner.com/it-glossary/secure-web-gateway/|titolo=IT Glossary: Secure Web Gateway|editore=[[Gartner]]|accesso=27 marzo 2012}}</ref>
 
Le aziende realizzatrici di prodotti che bloccano selettivamente i siti Web non fanno riferimento a questi prodotti come ''censorware'', e preferiscono termini come "''Internet filter''<ref>Trad.Ing.:"''Filtro internet''"</ref> or "''URL Filter''.<ref>Trad.Ing.:";''Filtro URL''"</ref> nelNel caso specifico di software progettati per consentire ai genitori di monitorare e limitare l'accesso dei loro figli al web, è usato anche il termine, "''parental control software''<ref>Trad.Ing.:" (''software di controllo parentale)genitoriale''"</ref>. Alcuni prodotti memorizzano tutti i siti a cui un utente accede e li valuta in base al tipo di contenuti per poi segnalare ad un "''accountability partner”partner''<ref>''Trad. Ing.:"partner di responsabilità"''</ref> delle scelte dell'utente, ed è quindi usato il termine [[:en:''accountability software|accountability''<ref>Trad.Ing.:"''Software software]]responsabile''"</ref>. Filtri Internet, software di controllo parentale, e / o software di responsabilità, possono anche essere combinati in un unico prodotto.
 
Coloro che criticano tale software, tuttavia, usano liberamente il termine c''ensorware''<ref>Trad.Ing.:"censorware''Software di censura''"</ref>: si consideri, ad esempio, il ''Progetto Censorware''. <ref>{{Cita web |url=http://censorware.net/ |titolo=Censorware Project |editore=censorware.net |urlmorto=yes |urlarchivio=https://web.archive.org/web/20150620042654/http://www.censorware.net/ |dataarchivio=20 giugno 2015 }}</ref> L'uso deldi questo termine ''censorware'' negli editoriali, al fine di criticare i responsabili di tali software, è molto diffuso ed è stato applicato in varie situazioni: [[:en:Xenila Jardin|web-blogger, ''Xeni Jardin]]'', ha usato il termine il 9 marzo 2006 in un editoriale del New York Time, il 9 marzo 2006Times, quando si discusse l'uso di ''content-control software'' di fabbricazione americana in Cina;. nelloNello stesso mese uno studente del liceo usò il termine per discutere la dislocazione di tale software nel suo distretto scolastico. <ref>{{Cita web |url=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |titolo=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |urlmorto=yes |urlarchivio=https://web.archive.org/web/20071019020114/http://159.54.226.83:80/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064%2F20060319%2FCOLUMN0203%2F603190309%2F1064 |dataarchivio=19 ottobre 2007 }}</ref><ref>{{Cita web|url=http://sethf.com/anticensorware/hearing_dc.php |titolo=DMCA 1201 Exemption Transcript, April 11 - Censorware |editore=Sethf.com |data=11 aprile 2003 |accesso=25 ottobre 2009}}</ref>
 
In generale, al di fuori delle pagine editoriali come sopra descritto, i giornali tradizionali non usano il termine censorware nelle loro relazioni, preferendo invece utilizzare termini controversi meno apertamente controversi, come ''content filter'', ''content control'', o ''web filtering'';. ilIl New York Times e il ''[[Wall Street Journal]]'' sembrano entrambi seguire questa pratica. D'altra parte, i giornali web-based, come [[CNET]], usano il termine in entrambi i contesti, editoriale e giornalistico, ad esempio "''Windows Live to Get Censorware"''.<ref>{{Cita web |url=http://www.techbeta.org/news/windows-live-to-get-censorware/ |titolo=Windows Live to get censorware - ZDNet.co.uk |editore=News.zdnet.co.uk |data=14 marzo 2006 |accesso=25 ottobre 2009 |urlarchivio=https://web.archive.org/web/20081205010436/http://www.techbeta.org/news/windows-live-to-get-censorware/ |dataarchivio=5 dicembre 2008 |urlmorto=sì }}</ref>
 
==Tipi diFunzionamento filtri==
Un '''''content-control software''''' è un [[software]] progettato per limitare o controllare il contenuto a cui un lettore è autorizzato ad accedere. È soprattutto utilizzato per limitare l'invio di materiale su [[Internet]] tramite il [[World Wide Web|Web]], [[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili, o, solitamente, quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: queste possono essere applicate a livello nazionale dal governo, oda possono,un per[[Internet esempio, essere applicate da unservice provider|provider]] di servizi Internet ai propri clienti, o dal [[datore di lavoro]] al proprio personale, o da una scuola ai suoi studenti, o da una biblioteca ai suoi visitatori, o da un genitore al computer di un bambino, oppuree da un singolo utente al proprio computer. Spesso il motivo che spinge ad utilizzare tali software, è quello diconsiste nell'impedire l'accesso a contenuti che, il proprietario o altre autorità del/dei computer, possono ritenere discutibiliillegali o in grado di ridurre, nel caso di un'azienda la produttività. Quando imposto senza il consenso dell'utente, il controllo dei contenuti può essereviene considerato una forma di [[Censura di Internet|censura di internet]]. Alcuni ''content-control software'' includono funzioni di controllo del tempo, utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o usate per la riproduzione di giochi o altre attività del computer.
I filtri possono essere implementati in molti modi diversi: da un software su un personal computer, tramite l'infrastruttura di rete, come [[Proxy|server proxy]], o server [[Domain Name System|DNS]], o [[firewall]] che forniscono l'accesso a Internet.
 
== Tipi di filtri ==
;Filtri basati su browser
I filtri possono essere implementatiinstallati in molti modi diversi: da un software su un [[personal computer]], tramite l'infrastruttura di rete, come [[Proxy|server proxy]], o server [[Domain Name System|DNS]], o [[firewall]] che forniscono l'accesso a Internet.
:<ref>{{Cita web|url=https://addons.mozilla.org/en-US/firefox/search/?q=content+filtering&appver=9.0.1&platform=linux |titolo=Search Results for "content filtering" |sito=Firefox Add-Ons |editore=Mozilla |accesso=25 giugno 2013}}</ref> La soluzione basata su browser è la soluzione più leggera per realizzare il filtraggio dei contenuti, ed è implementata tramite un'estensione di terze parti del browser.
 
;Filtri basati sul software<ref name=":0">{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html|titolo=Client-side filters|sito=NetSafekids|editore=National Academy of Sciences|accesso=24 giugno 2013|anno=2003}}</ref>
:La soluzione basata su [[browser]]. È la soluzione più leggera per realizzare il filtraggio dei contenuti, ed è implementata tramite un'[[Plugin (informatica)|estensione di terze parti]] del browser.
 
;Filtri di posta elettronica
:I filtri di [[posta elettronica]] agiscono sulle informazioni contenute nel corpo del messaggio, nelle intestazioni, come il mittente e l'oggetto, e sugli allegati per classificare, accettare o rifiutare i messaggi. Sono comunemente usati dei filtri di tipo statistico come i [[Filtro bayesiano|filtri Bayesiani]]. Sono disponibili sia filtri [[client]] che [[server]] based.
 
;Filtri lato client<ref name=":0" />
:<ref>{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html |titolo=Client-side filters |sito=NetSafekids |editore=National Academy of Sciences |anno=2003 |accesso=24 giugno 2013}}</ref> Questo tipo di filtro prevede l’installazione del software su ogni computer in cui è richiesto il filtraggio. <ref>{{Cita web|url=http://windows.microsoft.com/en-us/windows-vista/Protecting-your-kids-with-Family-Safety|titolo=Protecting Your Kids with Family Safety|data=|accesso=10 luglio 2012|editore=[[Microsoft]]}}</ref> Questo filtro in genere può essere gestito, disabilitato o disinstallato da chiunque abbia i privilegi a livello di amministratore di sistema.
 
;Content-limited (o filtered) ISP
:I Content-limited o ''Filtered ISP'' sono ''fornitori di servizi Internet'' che offrono l'accesso a solo una parte dell’insieme di contenuti Internet relativi ad un [[opt-in]] o a una base obbligatoria. Chi sottoscrive questo tipo di servizio è soggetto a restrizioni. Il tipo di filtro può essere utilizzato per implementare un controllo di tipo governativo <ref>{{Cita web|url=http://pam2011.gatech.edu/papers/pam2011--Xu.pdf|formato=pdf|titolo=Internet Censorship in China: Where Does the Filtering Occur?|nome=Xueyang|cognome=Xu|nome2=Z. Morley|cognome2=Mao|nome3=J. Alex|cognome3=Halderman|editore=[[University of Michigan]]|data=5 gennaio 2011|urlmorto=sì|urlarchivio=https://web.archive.org/web/20120324172922/http://pam2011.gatech.edu/papers/pam2011--Xu.pdf|dataarchivio=24 marzo 2012}}</ref>, normativo <ref>{{Cita web|url=httphttps://www.telegraph.co.uk/technology/broadband/9242729/The-Pirate-Bay-cut-off-from-millions-of-Virgin-Media-customers.html |titolo=The Pirate Bay cut off from millions of Virgin Media customers |autore= Christopher Williams |data=3 maggio 2012 |accesso=8 maggio 2012 |sito=The Telegraph}}</ref> o parentale sui clienti.
 
;Filtraggio basato sulla rete
:Questo tipo di filtro viene implementato a [[livello di trasporto]] come [[Proxy#Proxy trasparenti .28Trasparent Proxies.29|transparent proxy]], o a [[livello applicativo]] come [[Proxy#Proxy Server Web|web proxy]].<ref>{{Cita web|url=httphttps://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|titolo=Explicit and Transparent Proxy Deployments|editore=Websense|accesso=30 marzo 2012|anno=2010|urlmorto=sì|urlarchivio=https://web.archive.org/web/20120418150020/http://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|dataarchivio=18 aprile 2012}}</ref> Rispetto al content-control software può includere funzionalità di prevenzione della perdita di dati ([[:en:data loss prevention software|dataData loss prevention]]), per filtrare le informazioni, sia in uscita, che in entrata. Tutti gli utenti sono soggetti alla politica di accesso definita dall'istituzione. Il filtro può essere personalizzato, in modo che ad esempio, la biblioteca delle scuole superiori del distretto scolastico abbia un profilo diverso da quello di filtraggio della biblioteca della scuola media del quartiere.
 
;Filtri dei motori di ricerca
:Molti [[Motore di ricerca|motori di ricerca]], come [[Google]] e [[AltaVista|Alta Vista]], offrono agli utenti la possibilità di accendere un filtro di sicurezza. Quando questo filtro di sicurezza è attivato, sono filtrati da tutti i risultati della ricerca i collegamenti non appropriati. Se gli utenti conoscono l'URL reale di un sito web che offre contenuti espliciti o di tipo adulto, hanno la possibilità di accedere a tali contenuti senza l'utilizzo di un motore di ricerca. Motori come [[Lycos]], [[Yahoo!|Yahoo]] e [[Bing]] offrono delle loro versioni orientate ai bambini, che permettono la visita dei soli siti web adatti a loro. <ref>{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html |titolo=Filtering |sito=NetSafekids |editore=National Academy of Sciences |anno=2003 |accesso=22 novembre 2010}}</ref>
 
== Causa del filtraggio ==
Gli [[Internet Service Provider]] (ISP), che bloccano materiale, tipo, [[pornografia]], contenuti religiosi controversi, politici, o notizie relative a determinati argomenti, sono spesso utilizzati dai genitori per vietare ai loro figli di accedere a contenuti non conformi alle loro convinzioni personali. ''I content-control software'' possono anche essere utilizzati per bloccare i [[malware]] e altri contenuti in grado di contenere materiale ostile, invadente o fastidioso tra cui, [[adware]], [[spam]], [[Virus (informatica)|virus]], [[worm]]s, [[Trojan (informatica)|trojan horses]] e [[spyware]]. La maggior parte dei ''content-control software'' sono rivolti a organizzazioni o genitori. È,Viene tuttavia, commercializzato anche al fine di facilitare l'auto-censura, per esempio, da parte di personecoloro che lottano contro la dipendenza da [[Pornografia|pornografia online]], gioco d'azzardo, chat, ecc. Il software di auto-censura può essere utilizzato anche per evitare la visualizzazione di contenuti che vengono considerati immorali, inadeguati, o semplicemente di distrazione. Un certo numero di prodotti [[:en:''accountability software|accountability software]] (software di responsabilità)'' sono commercializzati come ''self-censorship'' (autocensura) or ''accountability software'' (software responsabilità). Questi sono spesso promossi dai media religiosi e alle riunioni religiose. <ref>{{Cita web|url=http://www.urbanministry.org/wiki/accountability-software |titolo=Accountability Software: Accountability and Monitoring Software Reviews |sito=TechMission, Safe Families |editore=UrbanMinistry.org |data= |accesso=25 ottobre 2009}}</ref>
 
Gli [[Internet Service Provider]] (ISP), che bloccano materiale che include [[pornografia]], o contenuto controverso di tipo religioso, politico, o notizie relative a questi argomenti, sono spesso utilizzati dai genitori per vietare ai loro figli di accedere a contenuti non conformi alle loro convinzioni personali. I content-control software possono anche essere utilizzati per bloccare i [[malware]] e altri contenuti che possono contenere materiale ostile, invadente o fastidioso tra cui [[adware]], [[spam]], [[Virus (informatica)|virus ]], [[Worm|worms]], [[Trojan (informatica)|trojan horses]] e [[spyware]].
La maggior parte dei content-control software sono rivolti a organizzazioni o genitori. È, tuttavia, commercializzato anche al fine di facilitare l'auto-censura, per esempio da parte di persone che lottano contro la dipendenza da [[Pornografia|pornografia online]], gioco d'azzardo, chat, ecc. Il software di auto-censura può essere utilizzato anche per evitare la visualizzazione di contenuti che vengono considerati immorali, inadeguati, o semplicemente di distrazione. Un certo numero di prodotti [[:en:accountability software|accountability software]] (software di responsabilità) sono commercializzati come ''self-censorship'' (autocensura) or ''accountability software'' (software responsabilità). Questi sono spesso promossi dai media religiosi e alle riunioni religiose. <ref>{{Cita web|url=http://www.urbanministry.org/wiki/accountability-software |titolo=Accountability Software: Accountability and Monitoring Software Reviews |sito=TechMission, Safe Families |editore=UrbanMinistry.org |data= |accesso=25 ottobre 2009}}</ref>
 
== Criticità ==
Riga 45:
==== Over-blocking ====
 
Utilizzare un filtro che è eccessivamentetroppo zelanteefficiente sul filtraggio dei contenuti o che etichetta erroneamente contenuti non destinati ad essere censurati, puòviene risultareconsiderato over-blocking (<ref>Trad.Ing.:"''al di sopra del blocco)''".</ref> o al di sopra della censura. Un ''over-blocking (''<ref>Trad.Ing.:"''sovra-bloccaggio)''"</ref> può filtrare materiale che dovrebbe esserepresumibilmente accettabile in base alla politica di filtraggio effettiva, ad esempio, informazioni riguardanti la salute possono essere filtrate inavvertitamente insieme ad altro materiale porno ([[:en:ScunthorpeProblema problemdi Scunthorpe]]). Gli amministratori del filtraggio possono optare per lo sbaglio, prediligendo una linea di cautela, accettando l’over-blocking per prevenire qualsiasi rischio di accesso ai siti che questi hanno determinato come indesiderati. Questo problema si è riscontrato ad esempio nel caso del blocco dell'accesso al Beaver college prima del suo cambio di nome in Arcadia University,<ref>{{Cita web|url=https://slashdot.org/article.pl?sid=00/03/01/2230240&tid=146 |titolo=Web Censors Prompt College To Consider Name Change |editore=Slashdot |data=2 marzo 2000 |accesso=22 novembre 2010}}</ref> e nel filtraggio del Horniman Museum.<ref>{{Cita news|url=https://www.theregister.co.uk/2004/10/08/horniman_museum_filtered/ |titolo=Porn filters have a field day on Horniman Museum |autore=Lester Haines |data=8 ottobre 2004 |giornale=The Register}}</ref> Tutto ciò provoca l’incoraggiamento degli utenti affinché bypassino il filtro del tutto.
Gli amministratori del filtraggio possono optare per lo sbaglio, prediligendo una linea di cautela, accettando l’over-blocking per prevenire qualsiasi rischio di accesso ai siti che questi hanno determinato come indesiderati. Questo problema si è riscontrato ad esempio nel caso del blocco dell'accesso al Beaver college prima del suo cambio di nome in [[:en:Arcadia University|Arcadia University]],<ref>{{Cita web|url=http://slashdot.org/article.pl?sid=00/03/01/2230240&tid=146 |titolo=Web Censors Prompt College To Consider Name Change |editore=Slashdot |data=2 marzo 2000 |accesso=22 novembre 2010}}</ref> e nel filtraggio del [[:en:Horniman Museum|museo Horniman]].<ref>{{Cita news|url=http://www.theregister.co.uk/2004/10/08/horniman_museum_filtered/ |titolo=Porn filters have a field day on Horniman Museum |autore=Lester Haines |data=8 ottobre 2004 |giornale=The Register}}</ref> Tutto ciò provoca l’incoraggiamento degli utenti affinché bypassino il filtro del tutto.
 
==== Under-blocking ====
Ogni volta che vengono caricate in Internet nuove informazioni, i filtri possono rendersi ''under-blocking''<ref>Trad. (Ing.:"''sotto-bloccare)''"</ref> o sotto-censurare i contenuti, se le parti responsabili del mantenimento dei filtri non li aggiornano rapidamente e con precisione, e non adottano una “lista[[Lista nera”nera (informatica)|lista nera]], piuttosto che una politica di filtraggio basata sulle “liste''liste bianche”bianche''. <ref>{{Cita web|url=http://www.stat.berkeley.edu/~stark/Preprints/filter07.pdf |titolo=The Effectiveness of Internet Content Filters |nome=Philip B. |cognome=Stark |editore=[[University of California, Berkeley]] |data=10 novembre 2007 |accesso=22 novembre 2010 }}</ref>
 
=== Moralità e opinioni ===
MoltiIn un articolo scritto dal giornalista Spandas Lui,<ref>{{Cita web|url=http://www.arnnet.com.au/article/340550/microsoft_google_yahoo_speak_isp_filter_consultation/?fp=16&fpid=1 |titolo=Microsoft, Google and Yahoo! speak out in ISP filter consultation
|nome=Spandas |cognome=Lui |data=23 marzo 2010 |editore=arnnet.com |accesso=22 novembre 2010}}</ref> diversi soggetti avrebbero disapprovatomanifestato ila propria disapprovazione nei confronti dei punti di vista del governo relativi al filtraggio disu questioni morali o politiche, concordando sul fatto che questo sarebbeavrebbe potuto diventare un supporto per la [[propaganda]]. Molti <ref>{{Cita news|url=http://news.bbc.co.uk/2/hi/technology/8517829.stm |pubblicazione=BBC News |titolo=Google and Yahoo raise doubts over planned net filters |data=16 febbraio 2010 |accesso=30 aprile 2010}}</ref> Inoltre avrebbero trovato inaccettabile che un ISP, o per legge o per scelta del provider, debba essere distribuito come software, senza consentire agli utenti di disabilitare il filtraggio per ledelle proprie connessioni. Negli Stati Uniti, è stato citato il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo EmemndamentoEmendamento]] al fine di criminalizzare la censura di Internet forzata. (<ref>Vedere la voce [[Content-control software#Azioni legali|sezione seguente]]</ref> Senza un'adeguata supervisione governativa, i software di ''content-filtering'' potrebbero consentire alle aziende private di attivare una censura personalizzata.<ref>Vedere [[Content-control software#Religioso, anti-religioso e politica di censura|Censura religiosa o politica]].</ref> L’utilizzo e l’incoraggiamento governativo all'uso di software ''content-control'' è un componente della [[Censura di Internet]]<ref>Da non confondere con [[PRISM (programma di sorveglianza)|Internet Surveillance]], in cui il contenuto viene monitorato e non necessariamente limitato.</ref>. I governi dei paesi come la [[Cina|Repubblica Popolare Cinese]] e [[Cuba]] sono esempi attuali di paesi sospettati di aver dato luogo a questa attività eticamente controversa.
Senza un'adeguata supervisione governativa, i software di content-filtering potrebbero consentire alle aziende private di censurare a loro piacimento. (Vedere [[#Religioso, anti-religioso e politica di censura |Censura religiosa o politica]], di seguito). L’utilizzo e l’incoraggiamento governativo all'uso di software di content-control è un componente della [[:en:Internet censorship|censura di Internet]] (da non confondere con [[PRISM (programma di sorveglianza)|Internet Surveillance]], in cui il contenuto viene monitorato e non necessariamente limitato). I governi dei paesi come la [[:en:Internet Censorship in China|Repubblica Popolare Cinese]] e [[Cuba]] sono esempi attuali di paesi sospettati di aver dato luogo a questa attività eticamente controversa.
 
=== Azioni legali ===
Nel [[1998]] negli [[Stati Uniti d'America|Stati Uniti]], il tribunale distrettuale federale della [[Virginia]] ha stabilito che l'imposizione obbligatoria di filtraggio dei contenuti presso una biblioteca pubblica, viola il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] della [[Bill of Rights]] degli Stati Uniti.<ref>{{Cita web|url=http://www.tomwbell.com/NetLaw/Ch04/Loudoun.html |titolo=Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (E.D. Va. 1998) |editore=Tomwbell.com |data= |accesso=25 ottobre 2009}}</ref> Nel [[1996]] il Congresso degli Stati Uniti ha approvato il ''Communications Decency Act'', che vieta su [[internet]] la presenza di contenuti indecenti. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel [[1997]] la [[Corte Suprema]] ha stabilito in loro favore.<ref>{{Cita news|url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |pubblicazione=U.S. Reports |data=26 giugno 1997 |editore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, in particolare modo quelle collegate a gruppi come la [[Electronic Frontier Foundation]] affrontava la necessità dei genitori di bloccare i siti riconoscendo che potevano utilizzare propri software di filtraggio dei contenuti, rendendo inutile il coinvolgimento del governo. Alla fine del [[1990]], gruppi come il ''Censorware Project'' iniziarono una riproduzione di questi software decifrando le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha condotto ad azioni legali attinenti alla violazione del contratto di licenza ''Cyber Patrol'' [[EULA|license agreement]],<ref>{{Cita web |url=https://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |titolo=Microsystems v Scandinavia Online, Verified Complaint |sito=Civil No. 00CV10488, United States District Court, District of Massachusetts |autore=Attorneys for Microsystems Software, Inc. and Mattel, Inc. |editore=Electronic Frontier Foundation |data=15 marzo 2000 |accesso=25 ottobre 2009 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20090212065108/http://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |dataarchivio=12 febbraio 2009 }}</ref>, le quali hanno scoperto che tali strumenti bloccavano di routine siti ineccepibili, mentre non riuscivano a bloccare gli obiettivi previsti. Alcune società di ''content-control software'' hanno risposto sostenendo che i loro criteri di filtraggio erano anche supportati da un intenso controllo manuale. Le società oppositrici hanno sostenuto, d'altra parte, che eseguire la necessaria verifica richiederebbe risorse superiori a quelle in possesso delle società e che quindi le loro affermazioni non erano valide.<ref>{{Cita web |url=http://www7.nationalacademies.org/itas/whitepaper_1.html |titolo=Electronic Frontier Foundation White Paper 1 for NRC project on Tools and Strategies for Protecting Kids from Pornography and Their Applicability to Other Inappropriate Internet Content |autore=Seth Finkelstein, Consulting Programmer; Lee Tien, Senior Staff Attorney, EFF |editore=National Academy of Sciences |urlarchivio=https://web.archive.org/web/20060419190143/http://www7.nationalacademies.org/itas/whitepaper_1.html |dataarchivio=19 aprile 2006 |urlmorto=sì }}</ref> La [[Motion Picture Association]] ha ottenuto con successo l'approvazione di una legge nel Regno Unito in grado di rafforzare l'uso di tali software di filtraggio da parte degli ISP, allo scopo di arginare le violazioni del [[copyright]] da parte degli abbonati.<ref>{{Cita news|titolo=Sky, Virgin Media Asked to Block Piracy Site Newzbin2|url=https://www.bbc.co.uk/news/technology-15653434 |editore=[[BBC News]] |data=9 novembre 2011 |accesso=26 marzo 2012 }}</ref>
Nel 1998 negli Stati Uniti, il tribunale distrettuale federale della Virginia ha stabilito che l'imposizione obbligatoria di filtraggio in una biblioteca pubblica viola il Primo Emendamento della Bill of Rights degli Stati Uniti. <ref>{{Cita web|url=http://www.tomwbell.com/NetLaw/Ch04/Loudoun.html |titolo=Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (E.D. Va. 1998) |editore=Tomwbell.com |data= |accesso=25 ottobre 2009}}</ref>
Nel 1996 il Congresso degli Stati Uniti ha approvato il [[:en:Communications Decency Act|Communications Decency Act]], che vieta indecenza su Internet. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel 1997 la [[Corte Suprema]] ha stabilito a loro favore. <ref>{{Cita news|url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |pubblicazione=U.S. Reports |data=26 giugno 1997 |editore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, specialmente quelle di gruppi come la [[Electronic Frontier Foundation]], riguardava il fatto che i genitori che volevano bloccare i siti potevano usare i propri software di filtraggio dei contenuti, rendendo inutile un coinvolgimento del governo.
Alla fine del 1990, i gruppi come il Censorware Project iniziarono una riproduzione di questi software e decifrarono le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha portato ad azioni legali attinenti alla violazione del contratto di licenza "Cyber Patrol" [[EULA|license agreement]],<ref>{{Cita web|url=http://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |titolo=Microsystems v Scandinavia Online, Verified Complaint |sito=Civil No. 00CV10488, United States District Court, District of Massachusetts |autore=Attorneys for Microsystems Software, Inc. and Mattel, Inc. |editore=Electronic Frontier Foundation |data=15 marzo 2000 |accesso=25 ottobre 2009}}</ref>, le quali hanno scoperto che tali strumenti bloccavano di routine siti ineccepibili, mentre non riuscivano a bloccare gli obiettivi previsti. (Vedi [[#Over-zealous filtering|Over-zealous filtering]], di seguito).
Alcune società di content-control software hanno risposto sostenendo che i loro criteri di filtraggio erano supportati da un intenso controllo manuale. Le società oppositrici hanno sostenuto, d'altra parte, che eseguire la necessaria verifica richiederebbe risorse superiori a quelle in possesso delle società e che quindi le loro affermazioni non erano valide. <ref>{{Cita web|url=http://www7.nationalacademies.org/itas/whitepaper_1.html |titolo=Electronic Frontier Foundation White Paper 1 for NRC project on Tools and Strategies for Protecting Kids from Pornography and Their Applicability to Other Inappropriate Internet Content |autore=Seth Finkelstein, Consulting Programmer; Lee Tien, Senior Staff Attorney, EFF |editore=National Academy of Sciences |urlarchivio= http://web.archive.org/web/20060419190143/http://www7.nationalacademies.org/itas/whitepaper_1.html |dataarchivio=19 aprile 2006}}</ref>
La [[Motion Picture Association]] ha ottenuto con successo una legge nel Regno Unito per rafforzare gli ISP per usare tali software con lo scopo di arginare la violazione del copyright da parte degli abbonati.<ref>{{Cita news|titolo=Sky, Virgin Media Asked to Block Piracy Site Newzbin2|url=http://www.bbc.co.uk/news/technology-15653434 |editore=[[BBC News]] |data=9 novembre 2011 |accesso=26 marzo 2012 }}</ref>
 
=== Censura religiosa, anti-religiosa e politica ===
Si è dimostrato che molti tipi di ''content-control software'' bloccano i siti in base alle inclinazioni religiose e politiche dei proprietari dell'aziendadelle diaziende che questili ultimiproducono. Gli esempi includono il blocco di diversi siti religiosi <ref>{{Cita web |autore=Kelly Wilson |url=http://hometown.aol.com/Mjolnir13/test.htm |titolo=Hometown Has Been Shutdown - People Connection Blog: AIM Community Network |editore=Hometown.aol.com |data=6 novembre 2008 |accesso=25 ottobre 2009 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20080509055959/http://hometown.aol.com/Mjolnir13/test.htm |dataarchivio=9 maggio 2008 }}</ref><ref>{{Cita web|url=http://members.tripod.com/~Trifold/NOTICE.html |titolo=Notice!! |editore=Members.tripod.com |data= |accesso=25 ottobre 2009}}</ref>, (compreso il sito web del Vaticano), molti siti politici e siti per gay/lesbiche. <ref>{{Cita web|url=httphttps://www.glaad.org/media/archive_detail.php?id=103& |titolo=httphttps://www.glaad.org/media/archive_detail.php?id=103& |urlmorto=yes |urlarchivio=https://web.archive.org/web/20080607224912/http://www.glaad.org/media/archive_detail.php?id=103& |dataarchivio=7 giugno 2008 }}</ref> È stato dimostrato che '''''X-Stop''''' blocca, ad esempio, il sito ''Web Quaker'', il ''National Journal of Sexual Orientation Law'' , la ''Heritage Foundation'' e parti di ''The Ethical Spectacle''.<ref>{{Cita web|url=http://www.spectacle.org/cs/burt.html |titolo=The Mind of a Censor |editore=Spectacle.org |data= |accesso=25 ottobre 2009}}</ref> '''CYBERsitte'''r blocca siti come la [[National Organization of Women]].<ref>{{Cita web|url=http://www.spectacle.org/alert/peace.html |titolo=CYBERsitter: Where do we not want you to go today? |editore=Spectacle.org |data= |accesso=25 ottobre 2009}}</ref> Nancy Willard, una ricercatrice universitaria e avvocato, ha sottolineato che molte scuole pubbliche e biblioteche degli Stati Uniti utilizzano lo stesso software di filtraggio usato da molte organizzazioni cristiane.<ref>{{Cita web |url=http://www.csriu.org/onlinedocs/documents/religious2.html |titolo=See: Filtering Software: The Religious Connection |editore=Csriu.org |data= |accesso=25 ottobre 2009 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20080705102418/http://csriu.org/onlinedocs/documents/religious2.html |dataarchivio=5 luglio 2008 }}</ref>
È stato dimostrato che ''X-Stop'' blocca, ad esempio, il sito web [[:en:Quaker Oats Company|Quaker]], il [[:en:National Journal of Sexual Orientation Law|National Journal of Sexual Orientation Law]], la [[:en:Heritage Foundation]] e parti di The Ethical Spectacle. <ref>{{Cita web|url=http://www.spectacle.org/cs/burt.html |titolo=The Mind of a Censor |editore=Spectacle.org |data= |accesso=25 ottobre 2009}}</ref>
CYBERsitter blocca siti come [[National Organization of Women]]. <ref>{{Cita web|url=http://www.spectacle.org/alert/peace.html |titolo=CYBERsitter: Where do we not want you to go today? |editore=Spectacle.org |data= |accesso=25 ottobre 2009}}</ref>
Nancy Willard, una ricercatrice universitaria e avvocato, ha sottolineato che molte scuole pubbliche e biblioteche degli Stati Uniti utilizzano lo stesso software di filtraggio usato da molte organizzazioni cristiane. <ref>{{Cita web|url=http://www.csriu.org/onlinedocs/documents/religious2.html |titolo=See: Filtering Software: The Religious Connection |editore=Csriu.org |data= |accesso=25 ottobre 2009}}</ref>
 
Si è riscontrato che '''Cyber Patrol''', un prodotto sviluppato da Thedalla [[Anti-Defamation League]] e The Learning Company didella Mattel, <ref>{{Cita web |url=http://www.adl.org/presrele/mise_00/3081-00.asp |titolo=See: ADL and The Learning Company Develop Educational Software |editore=adl.org |data= |accesso=26 agosto 2011 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20110209112430/http://www.adl.org/PresRele/Mise_00/3081-00.asp |dataarchivio=9 febbraio 2011 }}</ref> blocca non solo i siti politici che ritiene essere affascinati da dall’''hate speech, o'' (incitamento all’odio), ma anche i siti web sui diritti umani, come la [[pagina web]] di [[Amnesty International]] su [[Israele]] e siti web inerenti ai diritti dei gay come ad esempio glaad.org <ref>{{Cita web|url=http://www.peacefire.org/censorware/Cyber_Patrol/ |titolo=See: Cyber Patrol Examined |editore=peacefire.org |data= |accesso=26 agosto 2011}}</ref>
 
== Etichettatura dei contenuti ==
L’etichettatura dei contenuti può essere considerata un'altra forma di ''content-control software''. Nel [[1994]], l'[[ICRANet|Internet Content Rating Association]] (ICRA) -, ora parte della [[:en:Family Online Safety Institute|Family Online Safety Institute]] -, ha sviluppato un sistema di classificazione dei contenuti per i fornitori di contenuti online. Utilizzando un questionario online un [[webmaster]] descrive la natura dei suoi contenuti web. Viene generato un piccolo file che contiene un ''computer readable digest.'' di taleTale descrizione che può essere utilizzatoutilizzata da un ''content-control software'' per bloccare o consentire quel sito. Le etichette ICRA sono disponibili in una varietà di formati.<ref>{{Cita web|url=http://www.fosi.org/icra/#tech |titolo=ICRA: Technical standards used |accesso=4 luglio 2008 |editore=FOSI |data= }}</ref> Questi includono la, [[Resource Description Framework]] del [[World Wide Web Consortium]] (RDF), così come etichette come la, [[PICS|Platform for Internet Content Selection]] (PICS) utilizzate dai consulenti dei contenuti di [[Internet Explorer]] di [[Microsoft]].<ref>{{Cita web|url=https://www.microsoft.com/windows/ie/ie6/using/howto/security/contentadv/config.mspx |titolo=Browse the Web with Internet Explorer 6 and Content Advisor |accesso= |editore=Microsoft |data=26 marzo 2003 }}</ref> Le etichette ICRA sono un esempio di auto-etichettatura. Allo stesso modo, nel [[2006]], la ''Association of Sites Advocating Child Protection'' (ASACP) ha avviato la [http://rtalabel.org Restricted to Adults]<ref>Trad.Ing.:"''iniziativa di auto-etichettatura ristretta agli adulti''".</ref> I membri di ASACP erano preoccupati che le varie forme di legislazione proposte negli [[Stati Uniti]] producessero l'effetto di costringere le aziende "per adulti" a etichettare il loro contenuto.<ref>{{Cita web|url=https://www.asacp.org/page.php?content=news&item=511 |titolo=ASACP Participates in Financial Coalition Against Child Pornography |accesso=4 luglio 2008 |data=20 novembre 2007 }}</ref>
Le etichette ICRA sono disponibili in una varietà di formati. <ref>{{Cita web|url=http://www.fosi.org/icra/#tech |titolo=ICRA: Technical standards used |accesso=4 luglio 2008 |editore=FOSI |data= }}</ref> Questi includono [[Resource Description Framework]] del World Wide Web Consortium (RDF), così come etichette [[PICS|Platform for Internet Content Selection]] (PICS) utilizzate dai consulenti dei contenuti di [[Internet Explorer]] di [[Microsoft]]. <ref>{{Cita web|url=http://www.microsoft.com/windows/ie/ie6/using/howto/security/contentadv/config.mspx |titolo=Browse the Web with Internet Explorer 6 and Content Advisor |accesso= |editore=Microsoft |data=26 marzo 2003 }}</ref>
Le etichette ICRA sono un esempio di auto-etichettatura. Allo stesso modo, nel 2006, la [[:en:Association of Sites Advocating Child Protection (ASACP)|ASACP]] ha avviato la [http://rtalabel.org Restricted to Adults] (iniziativa di auto-etichettatura ristretta agli adulti). I membri di ASACP erano preoccupati che le varie forme di legislazione proposte negli [[Stati Uniti]] producessero l'effetto di costringere le aziende “per adulti” a etichettare il loro contenuto. <ref>{{Cita web|url=http://www.asacp.org/page.php?content=news&item=511 |titolo=ASACP Participates in Financial Coalition Against Child Pornography |accesso=4 luglio 2008 |data=20 novembre 2007 }}</ref>
 
L'etichetta RTA, a differenza dell’etichette ICRA, non richiede al webmaster per poterla utilizzare di compilare un questionario o registrarsi. Come ICRA, l'etichetta RTA è libera. Entrambe le etichette sono riconosciute da una vasta gamma di software di content-control. Il Voluntary Content Rating (VCR) è stato ideato dalla Solid Oak Software per il loro software di filtraggio CYBERsitter, come alternativa al sistema PICS, che alcuni critici consideravano troppo complesso. Questo sistema impiega dei [[meta tag]] [[HTML]] incorporati nei documenti web per specificare il tipo di contenuto presente nella pagina. Sono specificati solo due livelli, ''mature'' e ''adult'', rendendo la specifica estremamente semplice.
Il Voluntary Content Rating (VCR) è stato ideato da Solid Oak Software per il loro software di filtraggio [[:en:CYBERsitter]], come alternativa al sistema PICS, che alcuni critici consideravano troppo complesso. Questo sistema impiega dei meta tag di [[HTML]] incorporati nei documenti web per specificare il tipo di contenuto presente nella pagina. Sono specificati solo due livelli, ''mature'' e ''adult'', rendendo la specifica estremamente semplice.
 
== Utilizzo nelle biblioteche pubbliche ==
=== Stati Uniti ===
L'uso di filtri Internet o dei software per il controllo dei contenuti, varia ampiamente nelle biblioteche pubbliche negli Stati Uniti, dal momento che le politiche di utilizzo di Internet sono stabilite dal consiglio locale della biblioteca. Molte bibliotechedi esse adottavano filtri Internet dopo che il Congresso ha condizionato la ricezionel'applicazione di sconti di [[servizio universale]] per l'uso di filtri Internet attraverso il ''Children’s Internet Protection Act'' (CIPA). Altre biblioteche non installano software per il controllo dei contenuti, credendo che politiche sul giusto utilizzo e sforzi educativi risolvano la questione dell’accesso a contenuti inadeguati per i bambini, pur garantendo il diritto degli utenti adulti di accedere liberamente alle informazioni. Alcune librerie usano filtri Internet sui computer utilizzati solo da bambini. Alcune librerie che utilizzano il software per il controllo dei contenuti consentono al software di essere disattivato caso per caso, su richiesta di un bibliotecario;. leLe biblioteche sono soggette aal CIPA''Children’s Internet Protection Act'', sono tenute ada averemantenere una politica che richiesta che permetteconsente ad un adulto di richiedere la rimozione del filtro, senza che debba fornire il motivo di tale richiesta. Molti [[Giurista|giuristi]] ritengono che un filtrocerto esserenumero di cause legali, in particolare la ''Reno versus American Civil Liberties Union'', hanno stabilito che l'uso dei software di ''content-control'' nelle biblioteche è una violazione del [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]].<ref>{{Cita web|url=http://www.spectacle.org/cs/library.bak |titolo=Purchase of blocking software by public libraries is unconstitutional |accesso= |cognome=Wallace |nome=Jonathan D. |data=9 novembre 1997 }}</ref> I ''Children’s Internet Protection Act'' e il caso del giugno 2003, ''United States versus American Library Association'' hanno rilevato l'obbligo di l'installazione del CIPA, come condizione costituzionale per ricevere un finanziamento federale, affermando che i riferimenti del Primo Emendamento sono stati annullati dalla disposizione della legge che permetteva agli utenti adulti di biblioteche di richiedere la disabilitazione del software di filtraggio, senza dover spiegare le ragioni delle loro richiesta. Il pluralismo di questa decisione, tuttavia, lascia aperta per il futuro la ragionesfida costituzione sul "''come applicarla''". Nel novembre [[2006]], è stata intentata una causa contro il distretto della loroNorth Central Regional Library nello [[Washington (stato)|Stato di Washington]] per la sua politica di rifiuto di disabilitare le restrizioni su richieste di avventori adulti, ma al ''Children’s Internet Protection Act'' non è stata contestata in questa faccenda.<ref>{{Cita web |url=https://www.aclu-wa.org/detail.cfm?id=557 |titolo=ACLU Suit Seeks Access to Information on Internet for Library Patrons |accesso= |editore=ACLU of Washington |data=16 novembre 2006 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20061205220253/http://www.aclu-wa.org/detail.cfm?id=557 |dataarchivio=5 dicembre 2006 }}</ref> Nel maggio [[2010]], la Corte Suprema dello Stato di Washington ha fornito un parere dopo che è stato chiesto di certificare una questione sollevata dal tribunale distrettuale degli Stati Uniti per il Distretto Orientale di Washington: "''Se una biblioteca pubblica, in linea con l'articolo I, § 5 della Costituzione di Washington, può filtrare l'accesso a Internet per tutti i clienti senza disabilitare siti web contenenti parole costituzionalmente protette, su richiesta di un utente adulto della biblioteca''". La Corte Suprema dello Stato di Washington ha stabilito che la politica di filtraggio Internet della Nord Central Regional Library, non violava l'articolo I°, sezione 5 della Costituzione dello Stato di Washington. La Corte ha dichiarato: "''Secondo il nostro parere la politica di filtraggio della Nord Central Regional Library è ragionevole e si accorda con la sua missione da un punto di vista neutrale. In questo caso ci sembra che non esista nessuna violazione del contenuto di base dell’articolo I, sezione 5. La nostra missione principale è di promuovere la lettura e l'apprendimento permanente, pertanto è ragionevole imporre restrizioni in materia di accesso a Internet, al fine di mantenere un ambiente favorevole : ossia lo studio e il pensiero contemplativo''”. Il caso torna ora alla corte federale. Nel marzo [[2007]], la [[Virginia]] ha approvato una legge simile a''l Children’s Internet Protection Act'' che richiede fondi statali per le biblioteche pubbliche al fine di utilizzare i content-control software. Come ''il Children’s Internet Protection Act'', la legge richiede alle librerie di disattivare i filtri su richiesta di un utente adulto della biblioteca.<ref>{{Cita news |nome=Michael |cognome=Sluss |titolo=Kaine signs library bill: The legislation requires public libraries to block obscene material with Internet filters |url=http://www.roanoke.com/politics/wb/wb/xp-109919 |editore=The Roanoke Times |data=23 marzo 2007 |accesso=5 luglio 2016 |dataarchivio=29 febbraio 2012 |urlarchivio=https://web.archive.org/web/20120229022017/http://www.roanoke.com/politics/wb/wb/xp-109919 |urlmorto=sì }}</ref>
Molti giuristi ritengono che un certo numero di cause legali, in particolare il ''[[:en:Reno v. American Civil Liberties Union|Reno v. American Civil Liberties Union]]'', hanno stabilito l'uso dei software di content-control nelle biblioteche è una violazione del Primo Emendamento. <ref>{{Cita web|url=http://www.spectacle.org/cs/library.bak |titolo=Purchase of blocking software by public libraries is unconstitutional |accesso= |cognome=Wallace |nome=Jonathan D. |data=9 novembre 1997 }}</ref> I Children's Internet Protection Act [CIPA] e il caso del giugno 2003 ''[[:en:United States v. American Library Association|United States v. American Library Association]]'' hanno rilevato il CIPA come condizione costituzionale per ricevere il finanziamento federale, affermando che i riferimenti del Primo Emendamento sono stati dilapidati dalla disposizione della legge che permetteva agli utenti adulti di biblioteche di richiedere la disabilitazione del software di filtraggio, senza dover spiegare le ragioni delle loro richiesta. Il pluralismo di questa decisione, tuttavia, lascia aperta per il futuro la sfida costituzione sul "come applicarla". Nel novembre 2006, è stata intentata una causa contro il distretto di North Central Regional Library (NCRL) nello Stato di Washington per la sua politica di rifiuto di disabilitare le restrizioni su richieste di avventori adulti, ma CIPA non è stata contestata in questa faccenda. <ref>{{Cita web|url=http://www.aclu-wa.org/detail.cfm?id=557 |titolo=ACLU Suit Seeks Access to Information on Internet for Library Patrons |accesso= |editore=ACLU of Washington |data=16 novembre 2006 }}</ref> Nel maggio 2010, la Corte Suprema dello Stato di Washington ha fornito una parere dopo che è stato chiesto di certificare un questione sollevata dal tribunale distrettuale degli Stati Uniti per il Distretto Orientale di Washington: "Se una biblioteca pubblica, in linea con l'articolo I, § 5 della Costituzione di Washington, può filtrare l'accesso a Internet per tutti i clienti senza disabilitare siti web contenenti parole costituzionalmente protette, su richiesta di un utente adulto della biblioteca". La Corte Suprema dello Stato di Washington ha stabilito che la politica di filtraggio Internet di NCRL non violava l'articolo I, sezione 5 della Costituzione dello Stato di Washington. La Corte ha dichiarato: "Ci sembra che la politica di filtraggio di NCRL sia ragionevole e che si accordi con la sua missione e con queste politiche ed è un punto di vista neutrale. Sembra che non esista nessuna violazione del contenuto di base dell’articolo I, sezione 5, in questo caso. La missione essenziale di NCRL è quello di promuovere la lettura e l'apprendimento permanente. Come sostiene NCRL, è ragionevole imporre restrizioni in materia di accesso a Internet al fine di mantenere un ambiente favorevole che è quello di studiare e di pensiero contemplativo”. Il caso torna ora alla corte federale.
Nel marzo 2007, la Virginia ha approvato una legge simile a CIPA che richiede fondi statali per le biblioteche pubbliche al fine di utilizzare i content-control software. Come CIPA, la legge richiede alle librerie di disattivare i filtri su richiesta di un utente adulto della biblioteca. <ref>{{Cita news|nome=Michael |cognome=Sluss |titolo=Kaine signs library bill: The legislation requires public libraries to block obscene material with Internet filters |url=http://www.roanoke.com/politics/wb/wb/xp-109919 |editore=The Roanoke Times |data=23 marzo 2007 }}</ref>
 
=== Australia ===
L’''Australian Internet Safety Advisory Body''<ref>Trad.Ing.:"''organo consultivo di sicurezza sulla rete internet australiana''"</ref> ha disposto "consigli pratici sulla sicurezza Internet, controllo parentale e filtri per la protezione dei bambini, studenti e famiglie" che comprende anche le biblioteche pubbliche.<ref>{{Cita web |url=http://www.pcw.vic.edu.au/Our%20School/Parents%20Guide%20to%20Internet%20Safety.pdf |titolo=NetAlert: Parents Guide to Internet Safety |editore=Australian Communications and Media Authority |data=2 agosto 2007 |accesso=24 giugno 2013 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20130419184113/http://www.pcw.vic.edu.au/Our%20School/Parents%20Guide%20to%20Internet%20Safety.pdf |dataarchivio=19 aprile 2013 }}</ref> NetAlert, il software messo a disposizione gratuitamente dal governo australiano, sarebbe stato violato, nell'agosto del 2007, da uno studente di 16 anni, un certo Tom Wood, meno di una settimana dopo il suo rilascio. Wood ha presumibilmente bypassato il filtro da $ 84.000.000 in circa mezzora evidenziando i problemi dell'approccio del governo australiano in relazione al filtraggio dei contenuti Internet.<ref>{{Cita news|url=http://www.smh.com.au/news/National/Teenager-cracks-govts-84m-porn-filter/2007/08/25/1187462562907.html |titolo=Teenager cracks govt's $84m porn filter <!--|editore=Australian Associated Press (AAP)--> |pubblicazione=Sydney Morning Herald |editore=Fairfax Digital |data=25 agosto 2007 |accesso=24 giugno 2013}}</ref> Le autorità hanno pertanto introdotto una normativa che richiede agli ISP di "''limitare l'accesso ai contenuti australiani o forniti all'Australia, limitandolo per età, tra i contenuti commerciali MA15+, e i contenuti R18+''". La normativa, avrebbe dovuto entrare in vigore dal 20 gennaio del 2008, è conosciuta e come '''Normativa Cleanfeed'''.<ref>{{Cita web |url=https://www.acma.gov.au/webwr/_assets/main/lib310563/ras_declaration_2007.pdf |titolo=Restricted Access Systems Declaration 2007 |editore=Australian Communications and Media Authority (ACMA) |anno=2007 |accesso=24 giugno 2013 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20120324222418/http://acma.gov.au/webwr/_assets/main/lib310563/ras_declaration_2007.pdf |dataarchivio=24 marzo 2012 }}</ref> Il Cleanfeed è un sistema di filtraggio dei contenuti che propone un livello ISP obbligatorio. Venne proposto da ''Kim Beazley,'' leader del partito di opposizione laburista australiano (ALP), tramite un comunicato stampa del 2006, con l'intento di proteggere i bambini vulnerabili a causa dell’analfabetismo informatico dei genitori. Venne annunciato il 31 dicembre 2007 come politica da attuare da parte del governo del primier [[Kevin Michael Rudd|Kevin Rudd]], e, nel 2008, i primi test condotti in [[Tasmania]] hanno prodotto una relazione. Il Cleanfeed venne finanziato dal governo australiano, attraverso prove concrete effettuate nel 2008 con la collaborazione degli [[Internet service provider|Internet Service Provider]].
L’Australian Internet Safety Advisory Body ha disposto "consigli pratici sulla sicurezza Internet, controllo parentale e filtri per la protezione dei bambini, studenti e famiglie" che comprende anche le biblioteche pubbliche. <ref>{{Cita web|url=http://www.pcw.vic.edu.au/Our%20School/Parents%20Guide%20to%20Internet%20Safety.pdf |titolo=NetAlert: Parents Guide to Internet Safety |editore=Australian Communications and Media Authority |data=2 agosto 2007 |accesso=24 giugno 2013}}</ref>
 
NetAlert, il software messo a disposizione gratuitamente dal governo australiano, sarebbe stato incrinato da uno studente di 16 anni, Tom Wood, meno di una settimana dopo il suo rilascio nel mese di agosto 2007. Wood ha presumibilmente bypassato il filtro da $ 84000000 in circa mezzora per evidenziare i problemi dell'approccio del governo al filtraggio dei contenuti Internet. <ref>{{Cita news|url=http://www.smh.com.au/news/National/Teenager-cracks-govts-84m-porn-filter/2007/08/25/1187462562907.html |titolo=Teenager cracks govt's $84m porn filter <!--|editore=Australian Associated Press (AAP)--> |pubblicazione=Sydney Morning Herald |editore=Fairfax Digital |data=25 agosto 2007 |accesso=24 giugno 2013}}</ref>
Attraverso la Electronic Frontiers Australia (EFA ) la maggioranza degli australiani si è dichiarata "''fortemente contro''" alla sua approvazione.<ref name="nocleanfeed.com">{{Cita web |url=http://nocleanfeed.com/learn.html |titolo=Learn - No Clean Feed - Stop Internet Censorship in Australia |editore=Electronic Frontiers Australia |data= |accesso=25 ottobre 2009 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20100107170517/http://nocleanfeed.com/learn.html |dataarchivio=7 gennaio 2010 }}</ref> Le critiche includono i costi, l’imprecisione, essendo impossibile assicurare che solo i siti illegali siano bloccati, ed il fatto che sarà obbligatorio, il che può essere visto come un'intrusione sui diritti di libertà di parola.<ref name="nocleanfeed.com" /> Il filtro potrebbe inoltre fornire anche un falso senso di sicurezza ai genitori, che potrebbero allentare la sorveglianza, ottenendo l'effetto esattamente opposto.
Il governo australiano ha introdotto una normativa che richiede agli ISP di "limitare l'accesso ai contenuti in Australia o forniti dall'Australia, limitandolo per età (contenuti commerciali MA15+ e contenuti R18+)", che sarebbe entrata in vigore dal 20 gennaio del 2008, conosciuta come [[:en:Cleanfeed (content blocking system)|Cleanfeed]].<ref>{{Cita web|url=http://www.acma.gov.au/webwr/_assets/main/lib310563/ras_declaration_2007.pdf |titolo=Restricted Access Systems Declaration 2007 |editore=Australian Communications and Media Authority (ACMA) |anno=2007 |accesso=24 giugno 2013}}</ref>
Cleanfeed è un sistema di filtraggio dei contenuti che propone un livello ISP obbligatorio. È stato proposto da [[:en:Kim Beazley|Beazley]] leader del partito di opposizione [[:en:Australian Labor Party|laburista australiano]] (ALP), in un comunicato stampa del 2006, con l'intento di proteggere i bambini vulnerabili a causa dell’analfabetismo informatico dei genitori. È stato annunciato il 31 dicembre 2007 come una politica da attuare da parte del governo [[:en:Kevin Rudd|Rudd]], e primi test in [[Tasmania]] hanno prodotto una relazione nel 2008. Cleanfeed è finanziato dal bilancio corrente, e sono state avviate le prove concrete con gli ISP nel 2008. L’opposizione pubblica e la critica a questo progetto sono emersi, guidati da [[:en:Electronic Frontiers Australia|EFA]], con una maggioranza di australiani dichiaratasi "fortemente contro" la sua attuazione. <ref name="nocleanfeed.com">{{Cita web|url=http://nocleanfeed.com/learn.html |titolo=Learn - No Clean Feed - Stop Internet Censorship in Australia |editore=Electronic Frontiers Australia |data= |accesso=25 ottobre 2009}}</ref> Le critiche includono la sua spesa, l’imprecisione (sarà impossibile assicurare che solo i siti illegali siano bloccati) e il fatto che sarà obbligatorio, che può essere visto come un'intrusione sui diritti di libertà di parola. <ref name="nocleanfeed.com"/> Un altro principale punto di critica è stato che, nonostante il filtro sia stato dichiarato con lo scopo di fermare determinati materiali, le cerchie clandestine che si occupano di questi materiali non ne saranno interessate. Il filtro potrebbe fornire anche un falso senso di sicurezza ai genitori, che potrebbero sorvegliare di meno i bambini durante l'utilizzo di Internet, ottenendo l'effetto esattamente opposto. Cleanfeed è una responsabilità del portafoglio del [[:en:Stephen Conroy|senatore Conroy]].
 
=== Danimarca ===
In [[Danimarca]] si affermadefinisce la politica che "''eviterà che in tutta la Danimarca i bambini possano accedere dalle biblioteche a siti Internet inappropriati in tutta la Danimarca''".<ref>{{Cita web |url=http://www.prnewswire.com/cgi-bin/stories.pl?ACCT=104&STORY=/www/story/07-27-2006/0004404991&EDATE= |titolo=Danish Ministry of Culture Chooses SonicWALL CMS 2100 Content Filter to Keep Children's Libraries Free of Unacceptable Material |editore=Prnewswire.com |data= |accesso=25 ottobre 2009 |urlarchivio=https://web.archive.org/web/20090212111413/http://www.prnewswire.com/cgi-bin/stories.pl?ACCT=104&STORY=%2Fwww%2Fstory%2F07-27-2006%2F0004404991&EDATE= |dataarchivio=12 febbraio 2009 |urlmorto=sì }}</ref> Brian Mikkelsen in un comunicato stampa del Ministero della Cultura danese, afferma : "''È importante che ogni biblioteca del paese abbia la possibilità di proteggere i bambini contro materiale [[Pornografia|pornografico]], quandonel momento in stannocui utilizzandoutilizzano computer della biblioteca. È una priorità per me, come ministro della Cultura, assicurarsi che i bambini, possanoall'interno navigaredi inuna modo sicuro sulla rete presso le biblioteche "biblioteca, affermapossano Brian Mikkelsennavigare in unInternet comunicatoin stampamodo delsicuro"'' Ministero della Cultura danese. <ref>{{Cita web |url=http://www.saferinternet.org/ww/en/pub/insafe/news/articles/0606/dk.htm |titolo=Danish Minister of Culture offers Internet filters to libraries |editore=Saferinternet.org |data= |accesso=25 ottobre 2009 |dataarchivio=12 febbraio 2009 |urlarchivio=https://web.archive.org/web/20090212173122/http://www.saferinternet.org/ww/en/pub/insafe/news/articles/0606/dk.htm |urlmorto=sì }}</ref>
 
=== Regno Unito ===
Molte librerie nel Regno Unito come la [[British Library ]]<ref>{{Cita web|url=httphttps://www.bbc.com/news/technology-23680689 |titolo="British Library's wi-fi service blocks 'violent' Hamlet"|editore=BBC News|data=13 agosto 2013}}</ref> e le autorità locali delle biblioteche pubbliche applicano filtri per l'accesso a Internet. AlcuneAddirittura alcune biblioteche pubbliche bloccano siti web di prestito. <ref> {{Cita web|url=https://www.pirateparty.org.uk/blogs/adrian-short/should-public-libraries-block-payday-loan-websites|titolo="Should public libraries block payday loan websites?" |data=3 aprile 2014|editore=Pirate Party UK|accesso=5 luglio 2016|dataarchivio=11 settembre 2016|urlarchivio=https://web.archive.org/web/20160911215359/http://www.pirateparty.org.uk/blogs/adrian-short/should-public-libraries-block-payday-loan-websites|urlmorto=sì}}</ref>
 
== Bypassare i filtri ==
Nonostante tutto, il filtraggio dei contenuti può "''essere interamente bypassato da individui tech-savvy''<ref>Trad.Ing.:"''Esperti di tecnologia''"</ref>". Le informazioni riguardanti l’elusione dei blocco dei contenuti "''non garantiranno la possibilità che molti utenti saranno in grado di trovare un modo per aggirare il filtro''."<ref name="techsoup">{{Cita web|url=http://www.cityvision.edu/wiki/understanding-content-filtering-faq-nonprofits |titolo=Understanding Content Filtering: An FAQ for Nonprofits |cognome=Satterfield |nome=Brian |data=4 giugno 2007 |editore=Techsoup.org |accesso=24 giugno 2013}}</ref> Alcuni software possono essere bypassati con successo utilizzando protocolli alternativi come [[File Transfer Protocol|FTP]], [[telnet]] o [[HTTPS]], conducendo le ricerche in una lingua diversa, utilizzando un [[Proxy|server proxy]] o un bypass come [[Psiphon]]. Anche le pagine [[web cache]] restituite da Google o da altre ricerche potrebbero aggirare alcuni controlli. I servizi [[Web syndication]] possono fornire percorsi alternativi per i contenuti. Alcuni programmi, mal progettati, possono essere fermati disabilitando i loro processi: per esempio, in [[Microsoft Windows]] tramite il [[Task Manager]] di Windows, o in [[macOS]] utilizzando l’uscita forzata o Activity Monitor. Spesso i servizi di [[Google]] sono bloccati dai filtri, ma il più delle volte questi possono essere aggirati utilizzando ''<nowiki>https://</nowiki>'' al posto di ''<nowiki>http://</nowiki>'' dato che i software di filtraggio dei contenuti non sono in grado di interpretare il contenuto sotto connessioni sicure (in questo caso [[Transport Layer Security|SSL]]). Molti filtri hanno un’opzione che prevede la possibilità di autorizzare alcune persone a bypassare il filtro dei contenuti. Questo è particolarmente utile in ambienti in cui il computer deve essere sorvegliato e il filtro dei contenuti blocca indistintamente siti web a cui è necessario accedere. Un altro esempio per bypassare i content-control software avviene attraverso l'uso di un [[Virtual Private Network|VPN]] cifrato, in particolare se è stato installato il software di monitoraggio su un [[Gateway (informatica)|gateway]] Internet o su un firewall. A volte, anche un software [[antivirus]] con una protezione web è in grado di arrestare il filtro per il controllo dei contenuti.
 
In generale, il filtraggio dei contenuti, può "essere interamente bypassato da individui tech-savy". Le informazioni riguardanti l’elusione dei blocco dei contenuti "[non] ... garantiranno che gli utenti non finiranno per essere in grado di trovare un modo per aggirare il filtro." <ref name="techsoup">{{Cita web|url=http://www.cityvision.edu/wiki/understanding-content-filtering-faq-nonprofits |titolo=Understanding Content Filtering: An FAQ for Nonprofits |cognome=Satterfield |nome=Brian |data=4 giugno 2007 |editore=Techsoup.org |accesso=24 giugno 2013}}</ref>
Alcuni software possono essere bypassati con successo utilizzando protocolli alternativi come [[File Transfer Protocol|FTP]] o [[telnet]] o [[HTTPS]], conducendo le ricerche in una lingua diversa, utilizzando un [[Proxy|server proxy]] o un bypass come [[Psiphon]]. Anche le pagine web cache restituite da Google o da altre ricerche potrebbero aggirare alcuni controlli. I servizi Web syndication possono fornire percorsi alternativi per i contenuti. Alcuni dei programmi progettati nel peggiore dei modi possono essere fermati uccidendo i loro processi: per esempio, in [[Microsoft Windows]] tramite il [[Task Manager]] di Windows, o in [[Mac OS X]] utilizzando l’uscita forzata o [[:en:Activity Monitor]]. Esistono numerose soluzioni alternative e contatori di queste soluzioni realizzate dai creatori dei content-control software. Spesso i servizi di [[Google]] sono bloccati dai filtri, ma il più delle volte questi possono essere aggirati utilizzando ''https://'' al posto di ''http://'' dato che i software di filtraggio dei contenuti non sono in grado di interpretare il contenuto sotto connessioni sicure (in questo caso SSL).
Molti filtri hanno un’opzione che prevede la possibilità che persone autorizzate possano bypassare il filtro dei contenuti. Questo è particolarmente utile in ambienti in cui il computer deve essere sorvegliato e il filtro dei contenuti blocca aggressivamente siti web a cui è necessario accedere.
Una [[Virtual Private Network|VPN]] cifrata può essere utilizzata come mezzo per bypassare i content-control software, in particolare se è stato installato il software di monitoraggio su un gateway Internet o un firewall.
A volte, un software antivirus con una protezione web può arrestare il filtro per il controllo dei contenuti.
 
== Prodotti e servizi ==
Alcuni ISP<ref>Internet Service Provider. </ref> offrono opzioni di controllo parentale., Alcunimentre altri offrono software di protezione. cheI includonopiù controlliimportanti parentalisistemi operativi offrono anch'essi delle soluzioni di controllo parentale.
 
Dalla versione [[Mac OS X Tiger]], [[Apple]] offre il controllo parentale per svariate applicazioni, quali Mail, Finder, iChat, Safari e Dictionary, semplicemente accedendo alle Preferenze di Sistema. L'ultima versione, [[OS X El Capitan]] offre anch'esso questi servizi nominandoli non più Controlli di censura come nelle versioni precedenti, ma Controlli Parentali.<ref>[https://support.apple.com/en-us/HT201813|titolo=Mac OS X v10.5, 10.6: About the Parental Controls Internet content filter]</ref>
[[Mac OS X v10.4]] offre il controllo genitori per svariate applicazioni ([[:en:Mail (OS X)|Mail]], [[:en:Macintosh Finder|Finder]], [[:en:iChat]], [[:n:Safari (web browser)|Safari]] e [[:en:Dictionary (software)|Dictionary]]).
 
Nel sistema operativo [[Microsoft]], [[Windows 7]], oltre ad uno strumento aggiuntivo denominato Controllo genitoriale con cui applicare restrizioni sui vari account utente, si può usufruire di [[Windows Live Family Safety Filter|Windows Live Family Safety]]: programma parte integrante del pacchetto [[Windows Live]] che si interfaccia direttamente con la funzionalità Controllo genitoriale. A differenza di quest'ultimo, in [[Windows 8]] tale funzionalità Family Safety è stata direttamente integrata nel sistema operativo. Usato anche nella più recente versione, [[Windows 10]], grazie alla possibilità di creare una ''Microsoft Family'' con più account, anche per i più piccoli, le impostazioni della famiglia verranno applicate a qualsiasi dispositivo Windows 10 a cui accedono.
Il sistema operativo Microsoft [[Windows Vista]] comprende anche content-control software.
 
Anche l'ambiente Linux offre diverse soluzioni per il controllo parentale, come per esempio, il filtraggio basato su browser attraverso le estensioni di Firefox, quello basato su DNS utilizzando il servizio gratuito [[OpenDNS]], o attraverso un set di applicazioni gratuite, da configurare, per lavorare in modo specifico sul filtraggio dei contenuti web. Tra gli strumenti più utilizzati troviamo: [[DansGuardian]], [[Privoxy]], [[Squid]], ed anche content-control software con [[GUI]] come ''Web Content Control'', Nanny e [[OpenDNS|Open DNS]].<ref>[https://help.ubuntu.com/community/ParentalControls#Parental_Content_Control|titolo= Ubuntu Parental Controls]</ref>
La tecnologia di filtraggio dei contenuti esiste principalmente in due forme: [[Application-level gateway|application gateway]] o packet inspection. Per l'accesso HTTP le applicazioni gateway sono chiamate web-proxy o semplicemente proxy. Tali web proxy possono ispezionare sia la richiesta iniziale che la pagina web restituita utilizzando regole arbitrariamente complesse e non restituire alcuna parte della pagina richiesta fino a quando non si è presa una decisione. Inoltre essi possono fare sostituzioni in tutto o in qualsiasi parte del risultato restituito. I filtri che ispezionano i pacchetti inizialmente non interferiscono con la connessione al server, ma ispeziona i dati passati, ad un certo punto il filtro può decidere che la connessione debba essere filtrata e sarà poi disconnesso iniettando un TCP-Reset o un pacchetto simulato analogo. Le due tecniche possono essere utilizzate insieme al filtro dei pacchetti monitorando un link finché non si ha l’inizio di una connessione HTTP a un indirizzo IP che ha un contenuto che necessita di filtraggio. Il filtro dei pacchetti poi reindirizza la connessione al [[Proxy|web-proxy]] in grado di effettuare un filtraggio dettagliato sul sito, senza dover passare attraverso tutte le connessioni non filtrate. Questa combinazione è [[:en:Cleanfeed (content blocking system)|molto popolare]] perché può ridurre significativamente il costo del sistema.
 
Il software di controllo dei contenuti basato su gateway può essere più difficile da bypassare di un software desktop, in quanto l'utente non ha accesso fisico al dispositivo di filtraggio. Tuttavia, molte tecniche della sezione [[Content-control software#Bypassare i filtri|filtri di bypass]] sono in corso d’opera.
La tecnologia di filtraggio dei contenuti esisteavviene principalmente in due forme: [[Application-level gateway|application gateway]] o packet inspection. Per l'accesso [[Http|HTTP]], le applicazioni [[Gateway (informatica)|gateway]] sonovengono chiamate [[Web Proxy Auto-Discovery Protocol|web-proxy]] o semplicemente [[proxy]]. Tali web proxy possono ispezionare sia la richiesta iniziale che la pagina web restituita, utilizzando regole arbitrariamente complesse e non restituirerestituendo alcuna parte della pagina richiesta fino a quando non si è presa una decisione. Inoltre essi possono fare sostituzioni in tutto o in qualsiasi parte del risultato restituito. I filtri che ispezionano i pacchetti inizialmente non interferiscono con la connessione al server, ma ispezionaispezionano i dati passati,: ad un certo punto il filtro può decidere che la connessione debba essere filtrata e saràprovvederà poialla disconnessodisconnessione iniettandolanciando un [[Transmission Control Protocol|TCP]] - Reset o un pacchetto simulato analogo. Le due tecniche possono essere utilizzate insieme al filtro dei pacchetti monitorando un link finchéaffinché non si ha l’inizioinizio di unala connessione HTTP aad un indirizzo IP che ha un, contenuto che necessita di filtraggio. IlSuccessivamente il filtro dei pacchetti poi reindirizza la connessione al [[Proxy|web-proxy]] in grado di effettuare un filtraggio dettagliato sul sito, senza dover passare attraverso tutte le connessioni non filtrate. Questa combinazione è [[:en:Cleanfeed (content blocking system)|molto popolare]] perché può ridurre significativamente il costo del sistema. Il content-control software basato su gateway può essere più difficile da bypassare attraverso un software desktop, in quanto l'utente non ha accesso fisico al dispositivo di filtraggio. Tuttavia, molte tecniche della sezione [[Content-control software#Bypassare i filtri|filtri di bypass]] sono in corso d’opera.
 
== Note ==
<references/>
 
== Voci correlate ==
* [[Filtro (software)]]
* [[Censura di Internet]]
* [[Filtro famiglia]]
 
== Altri progetti ==
{{interprogetto}}
 
{{Censura}}
{{portale|informatica}}