Content-control software: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Zorro55 (discussione | contributi)
dopo correzioni SOS tolgo banner
FrescoBot (discussione | contributi)
m Bot: spazio unificatore unicode e modifiche minori
Riga 1:
[[File:Screenshot-whitehouse com.png|thumb|upright=1.4||[[DansGuardian]] blocking [[whitehouse.com]].]]
 
Un '''''content-control''''' è un [[software]] progettato per limitare o controllare i contenuti ai quali un utente è autorizzato ad accedere. Viene soprattutto utilizzato per limitare l'invio e la ricezione di materiale su [[Internet]] tramite il [[World Wide Web|Web]], l'[[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili, o, solitamente, quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: a livello nazionale dal governo, da un [[Internet service provider|provider]] di servizi Internet ai propri clienti, dal [[datore di lavoro]] al proprio personale, da una scuola ai suoi studenti, da una biblioteca ai suoi visitatori, da un genitore al computer di un bambino, e da un singolo utente al proprio computer. Spesso il motivo che spinge ad utilizzare tali software, consiste nell' impedire l'accesso a contenuti che, il proprietario o altre autorità del/dei computer, possono ritenere illegali o in grado di ridurre, nel caso di un'azienda la produttività. Quando imposto senza il consenso dell'utente, il controllo dei contenuti viene considerato una forma di [[Censura di Internet|censura di internet]]. Alcuni ''content-control software'' includono funzioni di controllo del tempo, utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o usate per la riproduzione di giochi o altre attività del computer.
 
In alcuni paesi, tali software sono onnipresenti. [[Diritti umani a Cuba#Internet|A Cuba]], se un utente di un computer in un [[Internet café]] controllato dal governo digita determinate parole, il word processor o il browser si chiude automaticamente, e viene dato un avvertimento: "Sicurezza dello stato".<ref name="cubaonline">{{Cita web|url=http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|titolo=Going online in Cuba: Internet under surveillance|editore=Reporters Without Borders|anno=2006}}</ref>
 
== Terminologia ==
Il termine ''content-control'' è stato usato in alcune occasioni dalla [[CNN]],<ref>{{Cita news|url=http://edition.cnn.com/2005/WORLD/asiapcf/04/27/eyeonchina.internet/ |titolo= Young, angry ... and wired - May 3, 2005 |editore=Edition.cnn.com |data=3 maggio 2005|accesso=25 ottobre 2009}}</ref> dalla rivista ''[[Playboy]]'' <ref>{{Cita news|url=http://www.multichannel.com/policy/playboy-preaches-control/12883 |titolo=Playboy Preaches Control |nome=R. Thomas |cognome=Umstead |giornale=Multichannel News |data=20 maggio 2006 |accesso=25 giugno 2013}}</ref>, dal ''[[San Francisco Chronicle]]''<ref>{{Cita web|url=http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |titolo=http://web.archive.org/web/20030708220938/http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |urlmorto=yes |urlarchivio=https://web.archive.org/20030708220938/http://www.sfgate.com:80/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |dataarchivio=8 luglio 2003 }}</ref> e dal ''[[New York Times]]''<ref>{{Cita news|cognome=Bickerton |nome=Derek |url=http://query.nytimes.com/gst/fullpage.html?res=9403E1D8143BF933A05752C1A961958260 |titolo=Digital Dreams - The |editore=New York Times |data=30 novembre 1997 |accesso=25 ottobre 2009}}</ref>. Tuttavia, sono utilizzati spesso anche altri termini, compreso ,''content filtering software'' <ref>Trad.Ing.:"''software di filtraggio dei contenuti".''</ref>'','' ''secure web [[Gateway (informatica)|gateways]]'' <ref>Mod.Trad.:"''gateway web protetti''"</ref>, ''censorware'', ''content security and control'' <ref>Trad.Ing.:"''controllo e sicurezza dei contenuti''"</ref>, ''web filtering software'' <ref>Trad.Ing.:"''software di filtraggio web"''</ref> , ''content-censoring software'' <ref>Trad.Ing.:"''software di censura dei contenuti''"</ref> e ''content-blocking software'' <ref>Trad.Ing.:"''software di blocco dei contenuti''"</ref>. Il termine ''Nannyware'' venne utilizzato sia dai media che nella commercializzazione di prodotti. Ad esempio la società di ricerca [[Gartner]] Industry utilizza un ''secure web gateway'' (SWG) per descrivere un segmento di mercato.<ref name="Gartner">{{Cita web|url=http://www.gartner.com/it-glossary/secure-web-gateway/|titolo=IT Glossary: Secure Web Gateway|editore=[[Gartner]]|accesso=27 marzo 2012}}</ref>
 
Le aziende realizzatrici di prodotti che bloccano selettivamente i siti Web non fanno riferimento a questi prodotti come ''censorware'', e preferiscono termini come ''Internet filter'' <ref>Trad.Ing.:"''Filtro internet''"</ref> or ''URL Filter''. <ref>Trad.Ing.:"''Filtro URL''"</ref> Nel caso specifico di software progettati per consentire ai genitori di monitorare e limitare l'accesso dei loro figli al web, è usato anche il termine, ''parental control software'' <ref>Trad.Ing.:"''software di controllo genitoriale''"</ref>. Alcuni prodotti memorizzano tutti i siti a cui un utente accede e li valuta in base al tipo di contenuti per poi segnalare ad un ''accountability partner'' <ref>''Trad. Ing.:"partner di responsabilità"''</ref> delle scelte dell'utente, ed è quindi usato il termine ''accountability software'' <ref>Trad.Ing.:"''Software responsabile''"</ref>. Filtri Internet, software di controllo parentale, e/o software di responsabilità, possono anche essere combinati in un unico prodotto.
 
Coloro che criticano tale software, tuttavia, usano liberamente il termine c''ensorware'' <ref>Trad.Ing.:"''Software di censura''"</ref>: si consideri, ad esempio, il ''Progetto Censorware''.<ref>{{Cita web|url=http://censorware.net/ |titolo=Censorware Project |editore=censorware.net |urlmorto=yes |urlarchivio=https://web.archive.org/20150620042654/http://www.censorware.net/ |dataarchivio=20 giugno 2015 }}</ref> L'uso di questo termine negli editoriali, al fine di criticare i responsabili di tali software, è molto diffuso ed è stato applicato in varie situazioni: la web-blogger, ''Xeni Jardin'', ha usato il termine il 9 marzo 2006 in un editoriale del New York Times, quando si discusse l'uso di ''content-control software'' di fabbricazione americana in Cina. Nello stesso mese uno studente del liceo usò il termine per discutere la dislocazione di tale software nel suo distretto scolastico.<ref>{{Cita web|url=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |titolo=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |urlmorto=yes |urlarchivio=https://web.archive.org/20071019020114/http://159.54.226.83:80/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |dataarchivio=19 ottobre 2007 }}</ref><ref>{{Cita web|url=http://sethf.com/anticensorware/hearing_dc.php |titolo=DMCA 1201 Exemption Transcript, April 11 - Censorware |editore=Sethf.com |data=11 aprile 2003 |accesso=25 ottobre 2009}}</ref>
 
In generale, al di fuori delle pagine editoriali, i giornali tradizionali non usano il termine censorware nelle loro relazioni, preferendo invece utilizzare termini meno apertamente controversi, come ''content filter'' ''content control'', o ''web filtering''. Il New York Times e il ''[[Wall Street Journal]]'' sembrano entrambi seguire questa pratica. D'altra parte, i giornali web-based, come [[CNET]], usano il termine in entrambi i contesti, editoriale e giornalistico, ad esempio ''Windows Live to Get Censorware''.<ref>{{Cita web|url=http://www.techbeta.org/news/windows-live-to-get-censorware/ |titolo=Windows Live to get censorware - ZDNet.co.uk |editore=News.zdnet.co.uk |data=14 marzo 2006 |accesso=25 ottobre 2009}}</ref>
Riga 17:
I filtri possono essere installati in molti modi diversi: da un software su un personal computer, tramite l'infrastruttura di rete, come [[Proxy|server proxy]], o server [[Domain Name System|DNS]], o [[firewall]] che forniscono l'accesso a Internet.
 
;Filtri basati sul software <ref name=":0">{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html|titolo=Client-side filters|sito=NetSafekids|editore=National Academy of Sciences|accesso=24 giugno 2013|anno=2003}}</ref>
:La soluzione basata su [[browser]]. E' la soluzione più leggera per realizzare il filtraggio dei contenuti, ed è implementata tramite un'[[Plugin (informatica)|estensione di terze parti]] del browser.
 
;Filtri di posta elettronica
:I filtri di [[posta elettronica]] agiscono sulle informazioni contenute nel corpo del messaggio, nelle intestazioni, come il mittente e l'oggetto, e sugli allegati per classificare, accettare o rifiutare i messaggi. Sono comunemente usati dei filtri di tipo statistico come i [[Filtro bayesiano|filtri Bayesiani]]. Sono disponibili sia filtri [[client]] che [[server]] based.
 
;Filtri lato client <ref name=":0" />
:Questo tipo di filtro prevede l’installazione del software su ogni computer in cui è richiesto il filtraggio.<ref>{{Cita web|url=http://windows.microsoft.com/en-us/windows-vista/Protecting-your-kids-with-Family-Safety|titolo=Protecting Your Kids with Family Safety|data=|accesso=10 luglio 2012|editore=[[Microsoft]]}}</ref> Questo filtro in genere può essere gestito, disabilitato o disinstallato da chiunque abbia i privilegi a livello di amministratore di sistema.
 
;Content-limited (o filtered) ISP
:I Content-limited o ''Filtered ISP'' sono ''fornitori di servizi Internet'' che offrono l'accesso a solo una parte dell’insieme di contenuti Internet relativi ad un [[opt-in]] o a una base obbligatoria. Chi sottoscrive questo tipo di servizio è soggetto a restrizioni. Il tipo di filtro può essere utilizzato per implementare un controllo di tipo governativo <ref>{{Cita web|url=http://pam2011.gatech.edu/papers/pam2011--Xu.pdf|formato=pdf|titolo=Internet Censorship in China: Where Does the Filtering Occur?|nome=Xueyang|cognome=Xu|nome2=Z. Morley|cognome2=Mao|nome3=J. Alex|cognome3=Halderman|editore=[[University of Michigan]]|data=5 gennaio 2011}}</ref>, normativo <ref>{{Cita web|url=http://www.telegraph.co.uk/technology/broadband/9242729/The-Pirate-Bay-cut-off-from-millions-of-Virgin-Media-customers.html |titolo=The Pirate Bay cut off from millions of Virgin Media customers |autore= Christopher Williams |data=3 maggio 2012 |accesso=8 maggio 2012 |sito=The Telegraph}}</ref> o parentale sui clienti.
 
;Filtraggio basato sulla rete
Riga 43:
==== Over-blocking ====
 
Utilizzare un filtro troppo efficiente sul filtraggio dei contenuti o che etichetta erroneamente contenuti non destinati ad essere censurati, viene considerato over-blocking <ref>Trad.Ing.:"''al di sopra del blocco''".</ref> o al di sopra della censura. Un ''over-blocking'' <ref>Trad.Ing.:"''sovra-bloccaggio''"</ref> può filtrare materiale presumibilmente accettabile in base alla politica di filtraggio effettiva, ad esempio, informazioni riguardanti la salute possono essere filtrate inavvertitamente insieme ad altro materiale porno ([[Problema di Scunthorpe]]). Gli amministratori del filtraggio possono optare per lo sbaglio, prediligendo una linea di cautela, accettando l’over-blocking per prevenire qualsiasi rischio di accesso ai siti che questi hanno determinato come indesiderati. Questo problema si è riscontrato ad esempio nel caso del blocco dell'accesso al Beaver college prima del suo cambio di nome in Arcadia University,<ref>{{Cita web|url=http://slashdot.org/article.pl?sid=00/03/01/2230240&tid=146 |titolo=Web Censors Prompt College To Consider Name Change |editore=Slashdot |data=2 marzo 2000 |accesso=22 novembre 2010}}</ref> e nel filtraggio del Horniman Museum.<ref>{{Cita news|url=http://www.theregister.co.uk/2004/10/08/horniman_museum_filtered/ |titolo=Porn filters have a field day on Horniman Museum |autore=Lester Haines |data=8 ottobre 2004 |giornale=The Register}}</ref> Tutto ciò provoca l’incoraggiamento degli utenti affinché bypassino il filtro del tutto.
 
==== Under-blocking ====
Ogni volta che vengono caricate in Internet nuove informazioni, i filtri possono rendersi ''under-blocking'' <ref>Trad. Ing.:"''sotto-bloccare''"</ref> o sotto-censurare i contenuti, se le parti responsabili del mantenimento dei filtri non li aggiornano rapidamente e con precisione, e non adottano una [[Lista nera (informatica)|lista nera]], piuttosto che una politica di filtraggio basata sulle ''liste bianche''.<ref>{{Cita web|url=http://www.stat.berkeley.edu/~stark/Preprints/filter07.pdf |titolo=The Effectiveness of Internet Content Filters |nome=Philip B. |cognome=Stark |editore=[[University of California, Berkeley]] |data=10 novembre 2007 |accesso=22 novembre 2010 }}</ref>
 
=== Moralità e opinioni ===
In un articolo scritto dal giornalista Spandas Lui, <ref>{{Cita web|url=http://www.arnnet.com.au/article/340550/microsoft_google_yahoo_speak_isp_filter_consultation/?fp=16&fpid=1 |titolo=Microsoft, Google and Yahoo! speak out in ISP filter consultation
|nome=Spandas |cognome=Lui |data=23 marzo 2010 |editore=arnnet.com |accesso=22 novembre 2010}}</ref> diversi soggetti avrebbero manifestato la propria disapprovazione nei confronti dei punti di vista del governo relativi al filtraggio su questioni morali o politiche, concordando sul fatto che questo avrebbe potuto diventare un supporto per la [[propaganda]]. <ref>{{Cita news|url=http://news.bbc.co.uk/2/hi/technology/8517829.stm |pubblicazione=BBC News |titolo=Google and Yahoo raise doubts over planned net filters |data=16 febbraio 2010 |accesso=30 aprile 2010}}</ref> Inoltre avrebbero trovato inaccettabile che un ISP, o per legge o per scelta del provider, debba essere distribuito come software, senza consentire agli utenti di disabilitare il filtraggio delle proprie connessioni. Negli Stati Uniti, è stato citato il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] al fine di criminalizzare la censura di Internet forzata.<ref>Vedere la voce [[Content-control software#Azioni legali|sezione seguente]]</ref> Senza un'adeguata supervisione governativa, i software di ''content-filtering'' potrebbero consentire alle aziende private di attivare una censura personalizzata. <ref>Vedere [[Content-control software#Religioso, anti-religioso e politica di censura|Censura religiosa o politica]].</ref> L’utilizzo e l’incoraggiamento governativo all'uso di software ''content-control'' è un componente della [[Censura di Internet]] <ref>Da non confondere con [[PRISM (programma di sorveglianza)|Internet Surveillance]], in cui il contenuto viene monitorato e non necessariamente limitato.</ref>. I governi dei paesi come la [[Cina|Repubblica Popolare Cinese]] e [[Cuba]] sono esempi attuali di paesi sospettati di aver dato luogo a questa attività eticamente controversa.
 
=== Azioni legali ===
Riga 56:
 
=== Censura religiosa, anti-religiosa e politica ===
Si è dimostrato che molti tipi di ''content-control software'' bloccano i siti in base alle inclinazioni religiose e politiche dei proprietari dei proprietari delle aziende che li producono. Gli esempi includono il blocco di diversi siti religiosi <ref>{{Cita web|autore=Kelly Wilson |url=http://hometown.aol.com/Mjolnir13/test.htm |titolo=Hometown Has Been Shutdown - People Connection Blog: AIM Community Network |editore=Hometown.aol.com |data=6 novembre 2008 |accesso=25 ottobre 2009}}</ref><ref>{{Cita web|url=http://members.tripod.com/~Trifold/NOTICE.html |titolo=Notice!! |editore=Members.tripod.com |data= |accesso=25 ottobre 2009}}</ref> , compreso il sito web del Vaticano, molti siti politici e siti per gay/lesbiche.<ref>{{Cita web|url=http://www.glaad.org/media/archive_detail.php?id=103& |titolo=http://www.glaad.org/media/archive_detail.php?id=103& |urlmorto=yes |urlarchivio=https://web.archive.org/web/20080607224912/http://www.glaad.org/media/archive_detail.php?id=103& |dataarchivio=7 giugno 2008 }}</ref> È stato dimostrato che '''''X-Stop''''' blocca, ad esempio, il sito ''Web Quaker'', il ''National Journal of Sexual Orientation Law'' , la ''Heritage Foundation'' e parti di ''The Ethical Spectacle''.<ref>{{Cita web|url=http://www.spectacle.org/cs/burt.html |titolo=The Mind of a Censor |editore=Spectacle.org |data= |accesso=25 ottobre 2009}}</ref> '''CYBERsitte'''r blocca siti come la [[National Organization of Women]].<ref>{{Cita web|url=http://www.spectacle.org/alert/peace.html |titolo=CYBERsitter: Where do we not want you to go today? |editore=Spectacle.org |data= |accesso=25 ottobre 2009}}</ref> Nancy Willard, una ricercatrice universitaria e avvocato, ha sottolineato che molte scuole pubbliche e biblioteche degli Stati Uniti utilizzano lo stesso software di filtraggio usato da molte organizzazioni cristiane.<ref>{{Cita web|url=http://www.csriu.org/onlinedocs/documents/religious2.html |titolo=See: Filtering Software: The Religious Connection |editore=Csriu.org |data= |accesso=25 ottobre 2009}}</ref>
 
Si è riscontrato che '''Cyber Patrol''', un prodotto sviluppato dalla Anti-Defamation League e The Learning Company della Mattel,<ref>{{Cita web|url=http://www.adl.org/presrele/mise_00/3081-00.asp |titolo=See: ADL and The Learning Company Develop Educational Software |editore=adl.org |data= |accesso=26 agosto 2011}}</ref> blocca non solo i siti politici che ritiene essere affascinati dall' ''hate speech, o'' incitamento all’odio, ma anche i siti web sui diritti umani, come la pagina web di [[Amnesty International]] su [[Israele]] e siti web inerenti ai diritti dei gay come ad esempio glaad.org <ref>{{Cita web|url=http://www.peacefire.org/censorware/Cyber_Patrol/ |titolo=See: Cyber Patrol Examined |editore=peacefire.org |data= |accesso=26 agosto 2011}}</ref>
 
== Etichettatura dei contenuti ==
L’etichettatura dei contenuti può essere considerata un'altra forma di ''content-control software''. Nel [[1994]], l'[[ICRANet|Internet Content Rating Association]] (ICRA), ora parte della Family Online Safety Institute, ha sviluppato un sistema di classificazione dei contenuti. Utilizzando un questionario online un webmaster descrive la natura dei suoi contenuti web. Viene generato un piccolo file che contiene un ''computer readable digest.'' Tale descrizione può essere utilizzata da un ''content-control software'' per bloccare o consentire quel sito. Le etichette ICRA sono disponibili in una varietà di formati.<ref>{{Cita web|url=http://www.fosi.org/icra/#tech |titolo=ICRA: Technical standards used |accesso=4 luglio 2008 |editore=FOSI |data= }}</ref> Questi includono la, [[Resource Description Framework]] del World Wide Web Consortium (RDF), così come etichette come la, [[PICS|Platform for Internet Content Selection]] (PICS) utilizzate dai consulenti dei contenuti di [[Internet Explorer]] di [[Microsoft]].<ref>{{Cita web|url=http://www.microsoft.com/windows/ie/ie6/using/howto/security/contentadv/config.mspx |titolo=Browse the Web with Internet Explorer 6 and Content Advisor |accesso= |editore=Microsoft |data=26 marzo 2003 }}</ref> Le etichette ICRA sono un esempio di auto-etichettatura. Allo stesso modo, nel [[2006]], la ''Association of Sites Advocating Child Protection'' (ASACP) ha avviato la [http://rtalabel.org Restricted to Adults] <ref>Trad.Ing.:"''iniziativa di auto-etichettatura ristretta agli adulti''".</ref> I membri di ASACP erano preoccupati che le varie forme di legislazione proposte negli [[Stati Uniti]] producessero l'effetto di costringere le aziende "per adulti" a etichettare il loro contenuto.<ref>{{Cita web|url=http://www.asacp.org/page.php?content=news&item=511 |titolo=ASACP Participates in Financial Coalition Against Child Pornography |accesso=4 luglio 2008 |data=20 novembre 2007 }}</ref>
 
L'etichetta RTA, a differenza dell’etichette ICRA, non richiede al webmaster per poterla utilizzare di compilare un questionario o registrarsi. Come ICRA, l'etichetta RTA è libera. Entrambe le etichette sono riconosciute da una vasta gamma di software di content-control. Il Voluntary Content Rating (VCR) è stato ideato dalla Solid Oak Software per il loro software di filtraggio CYBERsitter, come alternativa al sistema PICS, che alcuni critici consideravano troppo complesso. Questo sistema impiega dei [[meta tag]] [[HTML]] incorporati nei documenti web per specificare il tipo di contenuto presente nella pagina. Sono specificati solo due livelli, ''mature'' e ''adult'', rendendo la specifica estremamente semplice.
 
== Utilizzo nelle biblioteche pubbliche ==
Riga 70:
 
=== Australia ===
L’''Australian Internet Safety Advisory Body'' <ref>Trad.Ing.:"''organo consultivo  di sicurezza sulla rete internet australiana''"</ref> ha disposto "consigli pratici sulla sicurezza Internet, controllo parentale e filtri per la protezione dei bambini, studenti e famiglie" che comprende anche le biblioteche pubbliche.<ref>{{Cita web|url=http://www.pcw.vic.edu.au/Our%20School/Parents%20Guide%20to%20Internet%20Safety.pdf |titolo=NetAlert: Parents Guide to Internet Safety |editore=Australian Communications and Media Authority |data=2 agosto 2007 |accesso=24 giugno 2013}}</ref> NetAlert, il software messo a disposizione gratuitamente dal governo australiano, sarebbe stato violato, nell'agosto del 2007, da uno studente di 16 anni, un certo Tom Wood, meno di una settimana dopo il suo rilascio. Wood ha presumibilmente bypassato il filtro da $ 84.000.000 in circa mezzora evidenziando i problemi dell'approccio del governo australiano in relazione al filtraggio dei contenuti Internet.<ref>{{Cita news|url=http://www.smh.com.au/news/National/Teenager-cracks-govts-84m-porn-filter/2007/08/25/1187462562907.html |titolo=Teenager cracks govt's $84m porn filter <!--|editore=Australian Associated Press (AAP)--> |pubblicazione=Sydney Morning Herald |editore=Fairfax Digital |data=25 agosto 2007 |accesso=24 giugno 2013}}</ref> Le autorità hanno pertanto introdotto una normativa che richiede agli ISP di "''limitare l'accesso ai contenuti australiani o forniti all'Australia, limitandolo per età, tra i contenuti commerciali MA15+, e i contenuti R18+''". La normativa, avrebbe dovuto entrare in vigore dal 20 gennaio del 2008, è conosciuta e come '''Normativa Cleanfeed'''.<ref>{{Cita web|url=http://www.acma.gov.au/webwr/_assets/main/lib310563/ras_declaration_2007.pdf |titolo=Restricted Access Systems Declaration 2007 |editore=Australian Communications and Media Authority (ACMA) |anno=2007 |accesso=24 giugno 2013}}</ref> Il Cleanfeed è un sistema di filtraggio dei contenuti che propone un livello ISP obbligatorio. Venne proposto da ''Kim Beazley,'' leader del partito di opposizione laburista australiano (ALP), tramite un comunicato stampa del 2006, con l'intento di proteggere i bambini vulnerabili a causa dell’analfabetismo informatico dei genitori. Venne annunciato il 31 dicembre 2007 come politica da attuare da parte del governo del primier [[Kevin Michael Rudd|Kevin Rudd]], e, nel 2008, i primi test condotti in [[Tasmania]] hanno prodotto una relazione. Il Cleanfeed venne finanziato dal governo australiano, attraverso prove concrete effettuate nel 2008 con la collaborazione degli [[Internet service provider|Internet Service Provider]].
 
Attraverso la Electronic Frontiers Australia (EFA ) la maggioranza degli australiani si è dichiarata "''fortemente contro''" alla sua approvazione. <ref name="nocleanfeed.com">{{Cita web|url=http://nocleanfeed.com/learn.html |titolo=Learn - No Clean Feed - Stop Internet Censorship in Australia |editore=Electronic Frontiers Australia |data= |accesso=25 ottobre 2009}}</ref> Le critiche includono i costi, l’imprecisione, essendo impossibile assicurare che solo i siti illegali siano bloccati, ed il fatto che sarà obbligatorio, il che può essere visto come un'intrusione sui diritti di libertà di parola.<ref name="nocleanfeed.com" /> Il filtro potrebbe inoltre fornire anche un falso senso di sicurezza ai genitori, che potrebbero allentare la sorveglianza, ottenendo l'effetto esattamente opposto.
 
=== Danimarca ===
Riga 78:
 
=== Regno Unito ===
Molte librerie nel Regno Unito come la [[British Library]] <ref>{{Cita web|url=http://www.bbc.com/news/technology-23680689 |titolo="British Library's wi-fi service blocks 'violent' Hamlet"|editore=BBC News|data=13 agosto 2013}}</ref> e le autorità locali delle biblioteche pubbliche applicano filtri per l'accesso a Internet. Addirittura alcune biblioteche pubbliche bloccano siti web di prestito.<ref>{{Cita web|url=https://www.pirateparty.org.uk/blogs/adrian-short/should-public-libraries-block-payday-loan-websites|titolo="Should public libraries block payday loan websites?" |data=3 aprile 2014|editore=Pirate Party UK}}</ref>
 
== Bypassare i filtri ==
 
Nonostante tutto, il filtraggio dei contenuti può "''essere interamente bypassato da individui tech-savy'' <ref>Trad.Ing.:"''Esperti di tecnologia''"</ref>". Le informazioni riguardanti l’elusione dei blocco dei contenuti "''non garantiranno la possibilità che molti utenti saranno in grado di trovare un modo per aggirare il filtro''." <ref name="techsoup">{{Cita web|url=http://www.cityvision.edu/wiki/understanding-content-filtering-faq-nonprofits |titolo=Understanding Content Filtering: An FAQ for Nonprofits |cognome=Satterfield |nome=Brian |data=4 giugno 2007 |editore=Techsoup.org |accesso=24 giugno 2013}}</ref> Alcuni software possono essere bypassati con successo utilizzando protocolli alternativi come [[File Transfer Protocol|FTP]] , [[telnet]] o [[HTTPS]], conducendo le ricerche in una lingua diversa, utilizzando un [[Proxy|server proxy]] o un bypass come [[Psiphon]]. Anche le pagine [[web cache]] restituite da Google o da altre ricerche potrebbero aggirare alcuni controlli. I servizi [[Web syndication]] possono fornire percorsi alternativi per i contenuti. Alcuni programmi, mal progettati, possono essere fermati disabilitando i loro processi: per esempio, in [[Microsoft Windows]] tramite il [[Task Manager]] di Windows, o in [[macOS]] utilizzando l’uscita forzata o Activity Monitor. Spesso i servizi di [[Google]] sono bloccati dai filtri, ma il più delle volte questi possono essere aggirati utilizzando ''https://'' al posto di ''http://'' dato che i software di filtraggio dei contenuti non sono in grado di interpretare il contenuto sotto connessioni sicure (in questo caso [[Transport Layer Security|SSL]]). Molti filtri hanno un’opzione che prevede la possibilità di autorizzare alcune persone a bypassare il filtro dei contenuti. Questo è particolarmente utile in ambienti in cui il computer deve essere sorvegliato e il filtro dei contenuti blocca indistintamente siti web a cui è necessario accedere. Un altro esempio per bypassare i content-contro software avviene attraverso l'uso di un [[Virtual Private Network|VPN]] cifrato, in particolare se è stato installato il software di monitoraggio su un [[Gateway (informatica)|gateway]] Internet o su un firewall. A volte, anche un software [[antivirus]] con una protezione web è in grado di arrestare il filtro per il controllo dei contenuti.
 
== Prodotti e servizi ==
Alcuni ISP <ref>Internet Service Provider. </ref> offrono opzioni di controllo parentale, mentre altri offrono software di protezione. I più importanti sistemi operativi offrono anch'essi delle soluzioni di controllo parentale.
 
Dalla versione [[Mac OS X 10.4 Tiger]], la [[Apple]] offre il controllo parentale per svariate applicazioni, quali Mail, Finder, iChat, Safari e Dictionary, semplicemente accedendo alle Preferenze di Sistema. L'ultima versione, [[OS X El Capitan]] offre anch'esso questi servizi nominandoli non più Controlli di censura come nelle versione precedenti, ma Controlli Parentali. <ref>[https://support.apple.com/en-us/HT201813|titolo=Mac OS X v10.5, 10.6: About the Parental Controls Internet content filter]</ref>
 
Nel sistema operativo [[Microsoft]], [[Windows 7]], oltre ad uno strumento aggiuntivo denominato Controllo genitoriale con cui applicare restrizioni sui vari account utente, si può usufruire di [[Windows Live Family Safety Filter|Windows Live Family Safety]]: programma parte integrante del pacchetto [[Windows Live]] che si interfaccia direttamente con la funzionalità Controllo genitoriale. A differenza di quest'ultimo, in [[Windows 8]] tale funzionalità Family Safety è stata direttamente integrata nel sistema operativo. Usato anche nella più recente versione, [[Windows 10]], grazie alla possibilità di creare una ''Microsoft Family'' con più account, anche per i più piccoli, le impostazioni della famiglia verranno applicate a qualsiasi dispositivo Windows 10 a cui accedono.
 
Anche l'ambiente Linux offre diverse soluzioni per il controllo parentale, come per esempio, il filtraggio basato su browser attraverso le estensioni di Firefox, quello basato su DNS utilizzando il servizio gratuito [[OpenDNS]], o attraverso un set di applicazioni gratuite, da configurare, per lavorare in modo specifico sul filtraggio dei contenuti web. Tra gli strumenti più utilizzati troviamo: [[DansGuardian]], [[Privoxy]], [[Squid|Squid,]] ed anche content-control software con [[GUI]] come ''Web Content Control'', Nanny e [[OpenDNS|Open DNS]]. <ref>[https://help.ubuntu.com/community/ParentalControls#Parental_Content_Control|titolo= Ubuntu Parental Controls]</ref>
 
La tecnologia di filtraggio dei contenuti avviene principalmente in due forme: [[Application-level gateway|application gateway]] o packet inspection. Per l'accesso [[Http|HTTP]], le applicazioni [[Gateway (informatica)|gateway]] vengono chiamate [[Web Proxy Auto-Discovery Protocol|web-proxy]] o semplicemente [[proxy]]. Tali web proxy possono ispezionare sia la richiesta iniziale che la pagina web restituita, utilizzando regole arbitrariamente complesse e non restituendo alcuna parte della pagina richiesta fino a quando non si è presa una decisione. I filtri che ispezionano i pacchetti inizialmente non interferiscono con la connessione al server, ma ispezionano i dati passati: ad un certo punto il filtro può decidere che la connessione debba essere filtrata e provvederà alla disconnessione lanciando un [[Transmission Control Protocol|TCP]] - Reset o un pacchetto analogo. Le due tecniche possono essere utilizzate insieme al filtro dei pacchetti monitorando un link affinché non ha inizio la connessione HTTP ad un indirizzo IP, contenuto che necessita di filtraggio. Successivamente il filtro dei pacchetti reindirizza la connessione al [[Proxy|web-proxy]] in grado di effettuare un filtraggio dettagliato sul sito, senza dover passare attraverso tutte le connessioni non filtrate. Questa combinazione è molto popolare perché può ridurre significativamente il costo del sistema. Il content-control software basato su gateway può essere più difficile da bypassare attraverso un software desktop, in quanto l'utente non ha accesso fisico al dispositivo di filtraggio. Tuttavia, molte tecniche della sezione [[Content-control software#Bypassare i filtri|filtri di bypass]] sono in corso d’opera.
Riga 102:
* [[Censura di Internet]]
* [[Filtro famiglia]]
 
 
{{portale|informatica}}