[[File:Screenshot-whitehouse com.png|thumb|upright=1.4||[[DansGuardian]] blocking [[whitehouse.com]].]]
Un '''''content-control''''' è un [[software]] progettato per limitare o controllare i contenutIcontenuti ai quali un lettoreutente è autorizzato ad accedere. Viene soprattutto utilizzato per limitare l'invio e la ricezione di materiale su [[Internet]] tramite il [[World Wide Web|Web]], l'[[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili, o, solitamente, quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: a livello nazionale dal governo, o possono, per esempio, essere applicate da un [[Internet service provider|provider]] di servizi Internet ai propri clienti, o dal [[datore di lavoro]] al proprio personale, o da una scuola ai suoi studenti, o da una biblioteca ai suoi visitatori, o da un genitore al computer di un bambino, oppuree da un singolo utente al proprio computer. Spesso il motivo che spinge ad utilizzare tali software, consiste nell' impedire l'accesso a contenuti che, il proprietario o altre autorità del/dei computer, possono ritenere illegali o in grado di ridurre, nel caso di un'azienda la produttività. Quando imposto senza il consenso dell'utente, il controllo dei contenuti puòviene essere considerato una forma di [[Censura di Internet|censura di internet]]. Alcuni ''content-control software'' includono funzioni di controllo del tempo, utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o usate per la riproduzione di giochi o altre attività del computer.
In alcuni paesi, tali software sono onnipresenti. [[Diritti umani a Cuba#Internet|A Cuba]], se un utente di un computer in un [[Internet café]] controllato dal governo digita determinate parole, il word processor o il browser si chiude automaticamente, e viene dato un avvertimento: "Sicurezza dello stato".<ref name="cubaonline">{{Cita web|url=http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|titolo=Going online in Cuba: Internet under surveillance|editore=Reporters Without Borders|anno=2006}}</ref>
== Terminologia ==
Il termine ''content-control'' è stato usato in alcune occasioni dalla [[CNN]],<ref>{{Cita news|url=http://edition.cnn.com/2005/WORLD/asiapcf/04/27/eyeonchina.internet/ |titolo= Young, angry ... and wired - May 3, 2005 |editore=Edition.cnn.com |data=3 maggio 2005|accesso=25 ottobre 2009}}</ref> dalla rivista ''[[Playboy]]'' <ref>{{Cita news|url=http://www.multichannel.com/policy/playboy-preaches-control/12883 |titolo=Playboy Preaches Control |nome=R. Thomas |cognome=Umstead |giornale=Multichannel News |data=20 maggio 2006 |accesso=25 giugno 2013}}</ref>, dal ''[[San Francisco Chronicle]]''<ref>{{Cita web|url=http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |titolo=http://web.archive.org/web/20030708220938/http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |urlmorto=yes |urlarchivio=https://web.archive.org/20030708220938/http://www.sfgate.com:80/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |dataarchivio=8 luglio 2003 }}</ref> e dal ''[[New York Times]]''<ref>{{Cita news|cognome=Bickerton |nome=Derek |url=http://query.nytimes.com/gst/fullpage.html?res=9403E1D8143BF933A05752C1A961958260 |titolo=Digital Dreams - The |editore=New York Times |data=30 novembre 1997 |accesso=25 ottobre 2009}}</ref>. Tuttavia, sono utilizzati spesso anche altri termini, compreso ,''content filtering software'' <ref>Trad.Ing.:"''software di filtraggio dei contenuti".''</ref>'','' ''secure web [[Gateway (informatica)|gateways]]'' <ref>Mod.Trad.:"''gateway web protetti''"</ref>, ''censorware'', ''content security and control'' <ref>Trad.Ing.:"''controllo e sicurezza dei contenuti''"</ref>, ''web filtering software'' <ref>Trad.Ing.:"''software di filtraggio web"''</ref> , ''content-censoring software'' <ref>Trad.Ing.:"''software di censura dei contenuti''"</ref> e ''content-blocking software'' <ref>Trad.Ing.:"''software di blocco dei contenuti''"</ref>. Il termine ''Nannyware'' venne utilizzato sia dai media che nella commercializzazione di prodotti. Ad esempio la società di ricerca [[Gartner]] Industry utilizza un ''secure web gateway'' (SWG) per descrivere ilun segmento di mercato.<ref name="Gartner">{{Cita web|url=http://www.gartner.com/it-glossary/secure-web-gateway/|titolo=IT Glossary: Secure Web Gateway|editore=[[Gartner]]|accesso=27 marzo 2012}}</ref>
Le aziende realizzatrici di prodotti che bloccano selettivamente i siti Web non fanno riferimento a questi prodotti come ''censorware'', e preferiscono termini come "''Internet filter'' <ref>Trad.Ing.:"''Filtro internet''"</ref> or "''URL Filter''". <ref>Trad.Ing.:"''Filtro URL''"</ref> Nel caso specifico di software progettati per consentire ai genitori di monitorare e limitare l'accesso dei loro figli al web, è usato anche il termine, ''parental control software'' <ref>Trad.Ing.:"''software di controllo parentalegenitoriale''"</ref>. Alcuni prodotti memorizzano tutti i siti a cui un utente accede e li valuta in base al tipo di contenuti per poi segnalare ad un ''accountability partner'' <ref>''Trad. Ing.:"partner di responsabilità"''</ref> delle scelte dell'utente, ed è quindi usato il termine ''accountability software'' <ref>Trad.Ing.:"''Software responsabile''"</ref>. Filtri Internet, software di controllo parentale, e/o software di responsabilità, possono anche essere combinati in un unico prodotto.
Coloro che criticano tale software, tuttavia, usano liberamente il termine c''ensorware'' <ref>Trad.Ing.:"''Software di censura''"</ref>: si consideri, ad esempio, il ''Progetto Censorware''.<ref>{{Cita web|url=http://censorware.net/ |titolo=Censorware Project |editore=censorware.net |urlmorto=yes |urlarchivio=https://web.archive.org/20150620042654/http://www.censorware.net/ |dataarchivio=20 giugno 2015 }}</ref> L'uso di questo termine negli editoriali, al fine di criticare i responsabili di tali software, è molto diffuso ed è stato applicato in varie situazioni: la web-blogger, ''Xeni Jardin'', ha usato il termine il 9 marzo 2006 in un editoriale del New York Times, quando si discusse l'uso di ''content-control software'' di fabbricazione americana in Cina. Nello stesso mese uno studente del liceo usò il termine per discutere la dislocazione di tale software nel suo distretto scolastico.<ref>{{Cita web|url=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |titolo=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |urlmorto=yes |urlarchivio=https://web.archive.org/20071019020114/http://159.54.226.83:80/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |dataarchivio=19 ottobre 2007 }}</ref><ref>{{Cita web|url=http://sethf.com/anticensorware/hearing_dc.php |titolo=DMCA 1201 Exemption Transcript, April 11 - Censorware |editore=Sethf.com |data=11 aprile 2003 |accesso=25 ottobre 2009}}</ref>
In generale, al di fuori delle pagine editoriali, i giornali tradizionali non usano il termine censorware nelle loro relazioni, preferendo invece utilizzare termini meno apertamente controversi, come ''content filter'', ''content control'', o ''web filtering''. Il New York Times e il ''[[Wall Street Journal]]'' sembrano entrambi seguire questa pratica. D'altra parte, i giornali web-based, come [[CNET]], usano il termine in entrambi i contesti, editoriale e giornalistico, ad esempio "''Windows Live to Get Censorware"''.<ref>{{Cita web|url=http://www.techbeta.org/news/windows-live-to-get-censorware/ |titolo=Windows Live to get censorware - ZDNet.co.uk |editore=News.zdnet.co.uk |data=14 marzo 2006 |accesso=25 ottobre 2009}}</ref>
== Tipi di filtri ==
;Filtri basati sul software <ref name=":0">{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html|titolo=Client-side filters|sito=NetSafekids|editore=National Academy of Sciences|accesso=24 giugno 2013|anno=2003}}</ref>
:La soluzione basata su [[browser]]. èE' la soluzione più leggera per realizzare il filtraggio dei contenuti, ed è implementata tramite un'[[Plugin (informatica)|estensione di terze parti]] del browser.
;Filtri di posta elettronica
;Content-limited (o filtered) ISP
:I Content-limited o ''Filtered ISP'' sono ''fornitori di servizi Internet'' che offrono l'accesso a solo una parte dell’insieme di contenuti Internet relativi ad un [[opt-in]] o a una base obbligatoria. Chi sottoscrive questo tipo di servizio è soggetto a restrizioni. Il tipo di filtro può essere utilizzato per implementare un controllo di tipo governativo <ref>{{Cita web|url=http://pam2011.gatech.edu/papers/pam2011--Xu.pdf|formato=pdf|titolo=Internet Censorship in China: Where Does the Filtering Occur?|nome=Xueyang|cognome=Xu|nome2=Z. Morley|cognome2=Mao|nome3=J. Alex|cognome3=Halderman|editore=[[University of Michigan]]|data=5 gennaio 2011}}</ref>, normativo <ref>{{Cita web|url=http://www.telegraph.co.uk/technology/broadband/9242729/The-Pirate-Bay-cut-off-from-millions-of-Virgin-Media-customers.html |titolo=The Pirate Bay cut off from millions of Virgin Media customers |autore= Christopher Williams |data=3 maggio 2012 |accesso=8 maggio 2012 |sito=The Telegraph}}</ref> o parentale sui clienti.
;Filtraggio basato sulla rete
:Questo tipo di filtro viene implementato a [[livello di trasporto]] come [[Proxy#Proxy trasparenti .28Trasparent Proxies.29|transparent proxy]], o a [[livello applicativo]] come [[Proxy#Proxy Server Web|web proxy]].<ref>{{Cita web|url=http://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|titolo=Explicit and Transparent Proxy Deployments|editore=Websense|accesso=30 marzo 2012|anno=2010}}</ref> Rispetto al content-control software può includere funzionalità di prevenzione della perdita di dati ([[Data loss prevention]]), per filtrare le informazioni, sia in uscita, che in entrata. Tutti gli utenti sono soggetti alla politica di accesso definita dall'istituzione. Il filtro può essere personalizzato, in modo che ad esempio, la biblioteca delle scuole superiori del distretto scolastico abbia un profilo diverso da quello di filtraggio della biblioteca della scuola media del quartiere.
;Filtri dei motori di ricerca
:Molti motori di ricerca, come [[Google]] e [[AltaVista|Alta Vista]], offrono agli utenti la possibilità di accendere un filtro di sicurezza. Quando questo filtro di sicurezza è attivato, sono filtrati da tutti i risultati della ricerca i collegamenti non appropriati. Se gli utenti conoscono l'URL reale di un sito web che offre contenuti espliciti o di tipo adulto, hanno la possibilità di accedere a tali contenuti senza l'utilizzo di un motore di ricerca. Motori come [[Lycos]], [[Yahoo!|Yahoo]] e [[Bing]] offrono delle loro versioni orientate ai bambini, che permettono la visita dei soli siti web adatti a loro.<ref>{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html |titolo=Filtering |sito=NetSafekids |editore=National Academy of Sciences |anno=2003 |accesso=22 novembre 2010}}</ref>
== Causa del filtraggio ==
Gli [[Internet Service Provider]] (ISP), che bloccano materiale, che includetipo, [[pornografia]], ocontenuti contenuto controverso di tiporeligiosi religiosocontroversi, politicopolitici, o notizie relative a questideterminati argomenti, sono spesso utilizzati dai genitori per vietare ai loro figli di accedere a contenuti non conformi alle loro convinzioni personali. ''I content-control software'' possono anche essere utilizzati per bloccare i [[malware]] e altri contenuti chein possonogrado di contenere materiale ostile, invadente o fastidioso tra cui, [[adware]], [[spam]], [[Virus (informatica)|virus]], [[worm]]s, [[Trojan (informatica)|trojan horses]] e [[spyware]]. La maggior parte dei ''content-control software'' sono rivolti a organizzazioni o genitori. Viene tuttavia commercializzato al fine di facilitare l'auto-censura, per esempio, da parte di coloro che lottano contro la dipendenza da [[Pornografia|pornografia online]], gioco d'azzardo, chat, ecc. Il software di auto-censura può essere utilizzato anche per evitare la visualizzazione di contenuti considerati immorali, inadeguati, o semplicemente di distrazione. Un certo numero di prodotti ''accountability software'' sono commercializzati come ''self-censorship'' (autocensura) or ''accountability software'' (software responsabilità). Questi sono spesso promossi dai media religiosi e alle riunioni religiose.<ref>{{Cita web|url=http://www.urbanministry.org/wiki/accountability-software |titolo=Accountability Software: Accountability and Monitoring Software Reviews |sito=TechMission, Safe Families |editore=UrbanMinistry.org |data= |accesso=25 ottobre 2009}}</ref>
La maggior parte dei content-control software sono rivolti a organizzazioni o genitori. È, tuttavia, commercializzato anche al fine di facilitare l'auto-censura, per esempio da parte di persone che lottano contro la dipendenza da [[Pornografia|pornografia online]], gioco d'azzardo, chat, ecc. Il software di auto-censura può essere utilizzato anche per evitare la visualizzazione di contenuti che vengono considerati immorali, inadeguati, o semplicemente di distrazione. Un certo numero di prodotti accountability software sono commercializzati come ''self-censorship'' (autocensura) or ''accountability software'' (software responsabilità). Questi sono spesso promossi dai media religiosi e alle riunioni religiose.<ref>{{Cita web|url=http://www.urbanministry.org/wiki/accountability-software |titolo=Accountability Software: Accountability and Monitoring Software Reviews |sito=TechMission, Safe Families |editore=UrbanMinistry.org |data= |accesso=25 ottobre 2009}}</ref>
== Criticità ==
==== Over-blocking ====
Utilizzare un filtro che è eccessivamentetroppo zelanteefficiente sul filtraggio dei contenuti o che etichetta erroneamente contenuti non destinati ad essere censurati, puòviene risultareconsiderato over-blocking (<ref>Trad.Ing.:"''al di sopra del blocco)''".</ref> o al di sopra della censura. Un ''over-blocking'' (<ref>Trad.Ing.:"''sovra-bloccaggio)''"</ref> può filtrare materiale che dovrebbe esserepresumibilmente accettabile in base alla politica di filtraggio effettiva, ad esempio, informazioni riguardanti la salute possono essere filtrate inavvertitamente insieme ad altro materiale porno ([[Problema di Scunthorpe]]). Gli amministratori del filtraggio possono optare per lo sbaglio, prediligendo una linea di cautela, accettando l’over-blocking per prevenire qualsiasi rischio di accesso ai siti che questi hanno determinato come indesiderati. Questo problema si è riscontrato ad esempio nel caso del blocco dell'accesso al Beaver college prima del suo cambio di nome in Arcadia University,<ref>{{Cita web|url=http://slashdot.org/article.pl?sid=00/03/01/2230240&tid=146 |titolo=Web Censors Prompt College To Consider Name Change |editore=Slashdot |data=2 marzo 2000 |accesso=22 novembre 2010}}</ref> e nel filtraggio del Horniman Museum.<ref>{{Cita news|url=http://www.theregister.co.uk/2004/10/08/horniman_museum_filtered/ |titolo=Porn filters have a field day on Horniman Museum |autore=Lester Haines |data=8 ottobre 2004 |giornale=The Register}}</ref> Tutto ciò provoca l’incoraggiamento degli utenti affinché bypassino il filtro del tutto.
Gli amministratori del filtraggio possono optare per lo sbaglio, prediligendo una linea di cautela, accettando l’over-blocking per prevenire qualsiasi rischio di accesso ai siti che questi hanno determinato come indesiderati. Questo problema si è riscontrato ad esempio nel caso del blocco dell'accesso al Beaver college prima del suo cambio di nome in Arcadia University,<ref>{{Cita web|url=http://slashdot.org/article.pl?sid=00/03/01/2230240&tid=146 |titolo=Web Censors Prompt College To Consider Name Change |editore=Slashdot |data=2 marzo 2000 |accesso=22 novembre 2010}}</ref> e nel filtraggio del Horniman Museum.<ref>{{Cita news|url=http://www.theregister.co.uk/2004/10/08/horniman_museum_filtered/ |titolo=Porn filters have a field day on Horniman Museum |autore=Lester Haines |data=8 ottobre 2004 |giornale=The Register}}</ref> Tutto ciò provoca l’incoraggiamento degli utenti affinché bypassino il filtro del tutto.
==== Under-blocking ====
Ogni volta che vengono caricate in Internet nuove informazioni, i filtri possono rendersi ''under-blocking'' (<ref>Trad. Ing.:"''sotto-bloccare)''"</ref> o sotto-censurare i contenuti, se le parti responsabili del mantenimento dei filtri non li aggiornano rapidamente e con precisione, e non adottano una “lista[[Lista nera”nera (informatica)|lista nera]], piuttosto che una politica di filtraggio basata sulle “liste''liste bianche”bianche''.<ref>{{Cita web|url=http://www.stat.berkeley.edu/~stark/Preprints/filter07.pdf |titolo=The Effectiveness of Internet Content Filters |nome=Philip B. |cognome=Stark |editore=[[University of California, Berkeley]] |data=10 novembre 2007 |accesso=22 novembre 2010 }}</ref>
=== Moralità e opinioni ===
MoltiIn un articolo scritto dal giornalista Spandas Lui, <ref>{{Cita web|url=http://www.arnnet.com.au/article/340550/microsoft_google_yahoo_speak_isp_filter_consultation/?fp=16&fpid=1 |titolo=Microsoft, Google and Yahoo! speak out in ISP filter consultation
|nome=Spandas |cognome=Lui |data=23 marzo 2010 |editore=arnnet.com |accesso=22 novembre 2010}}</ref> diversi soggetti avrebbero disapprovatomanifestato ila propria disapprovazione nei confronti dei punti di vista del governo relativi al filtraggio disu questioni morali o politiche, concordando sul fatto che questo sarebbeavrebbe potuto diventare un supporto per la [[propaganda]]. Molti <ref>{{Cita news|url=http://news.bbc.co.uk/2/hi/technology/8517829.stm |pubblicazione=BBC News |titolo=Google and Yahoo raise doubts over planned net filters |data=16 febbraio 2010 |accesso=30 aprile 2010}}</ref> Inoltre avrebbero trovato inaccettabile che un ISP, o per legge o per scelta del provider, debba essere distribuito come software, senza consentire agli utenti di disabilitare il filtraggio per ledelle proprie connessioni. Negli Stati Uniti, è stato citato il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo EmemndamentoEmendamento]] al fine di criminalizzare la censura di Internet forzata. (<ref>Vedere la voce [[Content-control software#Azioni legali|sezione seguente]]</ref> Senza un'adeguata supervisione governativa, i software di ''content-filtering'' potrebbero consentire alle aziende private di attivare una censura personalizzata. <ref>Vedere [[Content-control software#Religioso, anti-religioso e politica di censura|Censura religiosa o politica]].</ref> L’utilizzo e l’incoraggiamento governativo all'uso di software ''content-control'' è un componente della [[Censura di Internet]] <ref>Da non confondere con [[PRISM (programma di sorveglianza)|Internet Surveillance]], in cui il contenuto viene monitorato e non necessariamente limitato.</ref>. I governi dei paesi come la [[Cina|Repubblica Popolare Cinese]] e [[Cuba]] sono esempi attuali di paesi sospettati di aver dato luogo a questa attività eticamente controversa.
Senza un'adeguata supervisione governativa, i software di content-filtering potrebbero consentire alle aziende private di censurare a loro piacimento. (Vedere [[#Religioso, anti-religioso e politica di censura|Censura religiosa o politica]], di seguito). L’utilizzo e l’incoraggiamento governativo all'uso di software di content-control è un componente della [[Censura di Internet]] (da non confondere con [[PRISM (programma di sorveglianza)|Internet Surveillance]], in cui il contenuto viene monitorato e non necessariamente limitato). I governi dei paesi come la [[Cina|Repubblica Popolare Cinese]] e [[Cuba]] sono esempi attuali di paesi sospettati di aver dato luogo a questa attività eticamente controversa.
=== Azioni legali ===
Nel [[1998]] negli [[Stati Uniti d'America|Stati Uniti]], il tribunale distrettuale federale della [[Virginia]] ha stabilito che l'imposizione obbligatoria di filtraggio indei contenuti presso una biblioteca pubblica, viola il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] della [[Bill of Rights]] degli Stati Uniti.<ref>{{Cita web|url=http://www.tomwbell.com/NetLaw/Ch04/Loudoun.html |titolo=Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (E.D. Va. 1998) |editore=Tomwbell.com |data= |accesso=25 ottobre 2009}}</ref> Nel [[1996]] il Congresso degli Stati Uniti ha approvato il ''Communications Decency Act'', che vieta indecenza su [[Internet]]. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel [[1997]] la [[Corte Suprema]] ha stabilito a loro favore.<ref>{{Cita news|url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |pubblicazione=U.S. Reports |data=26 giugno 1997 |editore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, specialmente quelle di gruppi come la Electronic Frontier Foundation. affrontava il desiderio dei genitori di bloccare i siti potevano usare i propri software di filtraggio dei contenuti, rendendo inutile un coinvolgimento del governo.
Nel 1996 il Congresso degli Stati Uniti ha approvato il Communications Decency Act, che vieta indecenza su Internet. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel 1997 la [[Corte Suprema]] ha stabilito a loro favore.<ref>{{Cita news|url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |pubblicazione=U.S. Reports |data=26 giugno 1997 |editore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, specialmente quelle di gruppi come la [[Electronic Frontier Foundation]], riguardava il fatto che i genitori che volevano bloccare i siti potevano usare i propri software di filtraggio dei contenuti, rendendo inutile un coinvolgimento del governo.
Alla fine del 1990, i gruppi come il Censorware Project iniziarono una riproduzione di questi software e decifrarono le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha portato ad azioni legali attinenti alla violazione del contratto di licenza "Cyber Patrol" [[EULA|license agreement]],<ref>{{Cita web|url=http://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |titolo=Microsystems v Scandinavia Online, Verified Complaint |sito=Civil No. 00CV10488, United States District Court, District of Massachusetts |autore=Attorneys for Microsystems Software, Inc. and Mattel, Inc. |editore=Electronic Frontier Foundation |data=15 marzo 2000 |accesso=25 ottobre 2009}}</ref>, le quali hanno scoperto che tali strumenti bloccavano di routine siti ineccepibili, mentre non riuscivano a bloccare gli obiettivi previsti.
Alcune società di content-control software hanno risposto sostenendo che i loro criteri di filtraggio erano supportati da un intenso controllo manuale. Le società oppositrici hanno sostenuto, d'altra parte, che eseguire la necessaria verifica richiederebbe risorse superiori a quelle in possesso delle società e che quindi le loro affermazioni non erano valide.<ref>{{Cita web|url=http://www7.nationalacademies.org/itas/whitepaper_1.html |titolo=Electronic Frontier Foundation White Paper 1 for NRC project on Tools and Strategies for Protecting Kids from Pornography and Their Applicability to Other Inappropriate Internet Content |autore=Seth Finkelstein, Consulting Programmer; Lee Tien, Senior Staff Attorney, EFF |editore=National Academy of Sciences |urlarchivio= http://web.archive.org/web/20060419190143/http://www7.nationalacademies.org/itas/whitepaper_1.html |dataarchivio=19 aprile 2006}}</ref>
|