Content-control software: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Bot: sintassi dei link |
m →Terminologia: Refuso |
||
(34 versioni intermedie di 21 utenti non mostrate) | |||
Riga 1:
[[File:Screenshot-whitehouse com.png|thumb|upright=1.4
Un '''''Content-control software''''' è un programma informatico progettato per limitare o controllare i contenuti ai quali un utente è autorizzato ad accedere. Viene soprattutto utilizzato per limitare l'invio e la ricezione di materiale su [[Internet]] tramite il [[World Wide Web|Web]], l'[[e-mail]], o in altro modo.
Un '''''content-control''''' è un [[software]] progettato per limitare o controllare i contenuti ai quali un utente è autorizzato ad accedere. Viene soprattutto utilizzato per limitare l'invio e la ricezione di materiale su [[Internet]] tramite il [[World Wide Web|Web]], l'[[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili, o, solitamente, quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: a livello nazionale dal governo, da un [[Internet service provider|provider]] di servizi Internet ai propri clienti, dal [[datore di lavoro]] al proprio personale, da una scuola ai suoi studenti, da una biblioteca ai suoi visitatori, da un genitore al computer di un bambino, e da un singolo utente al proprio computer. Spesso il motivo che spinge ad utilizzare tali software, consiste nell' impedire l'accesso a contenuti che, il proprietario o altre autorità del/dei computer, possono ritenere illegali o in grado di ridurre, nel caso di un'azienda la produttività. Quando imposto senza il consenso dell'utente, il controllo dei contenuti viene considerato una forma di [[Censura di Internet|censura di internet]]. Alcuni ''content-control software'' includono funzioni di controllo del tempo, utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o usate per la riproduzione di giochi o altre attività del computer.▼
In alcuni
== Terminologia ==
Il termine ''content-control'' è stato usato in alcune occasioni dalla [[CNN]],<ref>{{Cita news|url=
Le aziende realizzatrici di prodotti che bloccano selettivamente i siti Web non fanno riferimento a questi prodotti come ''censorware'', e preferiscono termini come ''Internet filter''<ref>Trad.Ing.:"''Filtro internet''"</ref> or ''URL Filter''.<ref>Trad.Ing.:"''Filtro URL''"</ref> Nel caso specifico di software progettati per consentire ai genitori di monitorare e limitare l'accesso dei loro figli al web, è usato anche il termine, ''parental control software''<ref>Trad.Ing.:"''software di controllo genitoriale''"</ref>. Alcuni prodotti memorizzano tutti i siti a cui un utente accede e li valuta in base al tipo di contenuti per poi segnalare ad un ''accountability partner''<ref>''Trad. Ing.:"partner di responsabilità"''</ref> delle scelte dell'utente, ed è quindi usato il termine ''accountability software''<ref>Trad.Ing.:"''Software responsabile''"</ref>. Filtri Internet, software di controllo parentale, e/o software di responsabilità, possono anche essere combinati in un unico prodotto.
Coloro che criticano tale software, tuttavia, usano liberamente il termine c''ensorware''<ref>Trad.Ing.:"''Software di censura''"</ref>: si consideri, ad esempio, il ''Progetto Censorware''.<ref>{{Cita web |url=http://censorware.net/ |titolo=Censorware Project |editore=censorware.net |urlmorto=
In generale, al di fuori delle pagine editoriali, i giornali tradizionali non usano il termine censorware nelle loro relazioni, preferendo invece utilizzare termini meno apertamente controversi, come ''content filter'' ''content control'', o ''web filtering''. Il New York Times e il ''[[Wall Street Journal]]'' sembrano entrambi seguire questa pratica. D'altra parte, i giornali web-based, come [[CNET]], usano il termine in entrambi i contesti, editoriale e giornalistico, ad esempio ''Windows Live to Get Censorware''.<ref>{{Cita web |url=http://www.techbeta.org/news/windows-live-to-get-censorware/ |titolo=Windows Live to get censorware - ZDNet.co.uk |editore=News.zdnet.co.uk |data=14 marzo 2006 |accesso=25 ottobre 2009 |urlarchivio=https://web.archive.org/web/20081205010436/http://www.techbeta.org/news/windows-live-to-get-censorware/ |dataarchivio=5 dicembre 2008 |urlmorto=sì }}</ref>
== Funzionamento ==
▲
== Tipi di filtri ==
I filtri possono essere installati in molti modi diversi: da un software su un [[personal computer]], tramite l'infrastruttura di rete, come [[Proxy|server proxy]], o server [[Domain Name System|DNS]], o [[firewall]] che forniscono l'accesso a Internet.
;Filtri basati sul software<ref name=":0">{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html|titolo=Client-side filters|sito=NetSafekids|editore=National Academy of Sciences|accesso=24 giugno 2013|anno=2003}}</ref>
:La soluzione basata su [[browser]].
;Filtri di posta elettronica
Riga 27 ⟶ 30:
;Content-limited (o filtered) ISP
:I Content-limited o ''Filtered ISP'' sono ''fornitori di servizi Internet'' che offrono l'accesso a solo una parte dell’insieme di contenuti Internet relativi ad un [[opt-in]] o a una base obbligatoria. Chi sottoscrive questo tipo di servizio è soggetto a restrizioni. Il tipo di filtro può essere utilizzato per implementare un controllo di tipo governativo<ref>{{Cita web|url=http://pam2011.gatech.edu/papers/pam2011--Xu.pdf|formato=pdf|titolo=Internet Censorship in China: Where Does the Filtering Occur?|nome=Xueyang|cognome=Xu|nome2=Z. Morley|cognome2=Mao|nome3=J. Alex|cognome3=Halderman|editore=[[University of Michigan]]|data=5 gennaio 2011|urlmorto=sì|urlarchivio=https://web.archive.org/web/20120324172922/http://pam2011.gatech.edu/papers/pam2011--Xu.pdf|dataarchivio=24 marzo 2012}}</ref>, normativo<ref>{{Cita web|url=
;Filtraggio basato sulla rete
:Questo tipo di filtro viene implementato a [[livello di trasporto]] come [[Proxy#Proxy trasparenti .28Trasparent Proxies.29|transparent proxy]], o a [[livello applicativo]] come [[Proxy#Proxy Server Web|web proxy]].<ref>{{Cita web|url=
;Filtri dei motori di ricerca
:Molti [[Motore di ricerca|motori di ricerca]], come [[Google]] e [[AltaVista|Alta Vista]], offrono agli utenti la possibilità di accendere un filtro di sicurezza. Quando questo filtro di sicurezza è attivato, sono filtrati da tutti i risultati della ricerca i collegamenti non appropriati. Se gli utenti conoscono l'URL reale di un sito web che offre contenuti espliciti o di tipo adulto, hanno la possibilità di accedere a tali contenuti senza l'utilizzo di un motore di ricerca. Motori come [[Lycos]], [[Yahoo!|Yahoo]] e [[Bing]] offrono delle loro versioni orientate ai bambini, che permettono la visita dei soli siti web adatti a loro.<ref>{{Cita web|url=http://www.nap.edu/netsafekids/pro_fm_filter.html |titolo=Filtering |sito=NetSafekids |editore=National Academy of Sciences |anno=2003 |accesso=22 novembre 2010}}</ref>
== Causa del filtraggio ==
Gli [[Internet Service Provider]] (ISP), che bloccano materiale, tipo, [[pornografia]], contenuti religiosi controversi, politici, o notizie relative a determinati argomenti, sono spesso utilizzati dai genitori per vietare ai loro figli di accedere a contenuti non conformi alle loro convinzioni personali. ''I content-control software'' possono anche essere utilizzati per bloccare i [[malware]] e altri contenuti in grado di contenere materiale ostile, invadente o fastidioso tra cui, [[adware]], [[spam]], [[Virus (informatica)|virus]], [[worm]]s, [[Trojan (informatica)|trojan horses]] e [[spyware]]. La maggior parte dei ''content-control software'' sono rivolti a organizzazioni o genitori. Viene tuttavia commercializzato al fine di facilitare l'auto-censura, per esempio, da parte di coloro che lottano contro la dipendenza da [[Pornografia|pornografia online]], gioco d'azzardo, chat, ecc. Il software di auto-censura può essere utilizzato anche per evitare la visualizzazione di contenuti considerati immorali, inadeguati, o semplicemente di distrazione. Un certo numero di prodotti ''accountability software'' sono commercializzati come ''self-censorship'' (autocensura) or ''accountability software'' (software responsabilità). Questi sono spesso promossi dai media religiosi e alle riunioni religiose.<ref>{{Cita web|url=http://www.urbanministry.org/wiki/accountability-software |titolo=Accountability Software: Accountability and Monitoring Software Reviews |sito=TechMission, Safe Families |editore=UrbanMinistry.org |data= |accesso=25 ottobre 2009}}</ref>
Riga 43 ⟶ 45:
==== Over-blocking ====
Utilizzare un filtro troppo efficiente sul filtraggio dei contenuti o che etichetta erroneamente contenuti non destinati ad essere censurati, viene considerato over-blocking<ref>Trad.Ing.:"''al di sopra del blocco''".</ref> o al di sopra della censura. Un ''over-blocking''<ref>Trad.Ing.:"''sovra-bloccaggio''"</ref> può filtrare materiale presumibilmente accettabile in base alla politica di filtraggio effettiva, ad esempio, informazioni riguardanti la salute possono essere filtrate inavvertitamente insieme ad altro materiale porno ([[Problema di Scunthorpe]]). Gli amministratori del filtraggio possono optare per lo sbaglio, prediligendo una linea di cautela, accettando l’over-blocking per prevenire qualsiasi rischio di accesso ai siti che questi hanno determinato come indesiderati. Questo problema si è riscontrato ad esempio nel caso del blocco dell'accesso al Beaver college prima del suo cambio di nome in Arcadia University,<ref>{{Cita web|url=
==== Under-blocking ====
Riga 53 ⟶ 55:
=== Azioni legali ===
Nel [[1998]] negli [[Stati Uniti d'America|Stati Uniti]], il tribunale distrettuale federale della [[Virginia]] ha stabilito che l'imposizione obbligatoria di filtraggio dei contenuti presso una biblioteca pubblica, viola il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] della [[Bill of Rights]] degli Stati Uniti.<ref>{{Cita web|url=http://www.tomwbell.com/NetLaw/Ch04/Loudoun.html |titolo=Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (E.D. Va. 1998) |editore=Tomwbell.com |data= |accesso=25 ottobre 2009}}</ref> Nel [[1996]] il Congresso degli Stati Uniti ha approvato il ''Communications Decency Act'', che vieta su [[internet]] la presenza di contenuti indecenti. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel [[1997]] la [[Corte Suprema]] ha stabilito in loro favore.<ref>{{Cita news|url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |pubblicazione=U.S. Reports |data=26 giugno 1997 |editore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, in particolare modo quelle collegate a gruppi come la [[Electronic Frontier Foundation]] affrontava la necessità dei genitori di bloccare i siti riconoscendo che potevano utilizzare propri software di filtraggio dei contenuti, rendendo inutile il coinvolgimento del governo. Alla fine del [[1990]], gruppi come il ''Censorware Project'' iniziarono una riproduzione di questi software decifrando le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha condotto ad azioni legali attinenti alla violazione del contratto di licenza ''Cyber Patrol'' [[EULA|license agreement]],<ref>{{Cita web |url=
=== Censura religiosa, anti-religiosa e politica ===
Si è dimostrato che molti tipi di ''content-control software'' bloccano i siti in base alle inclinazioni religiose e politiche
Si è riscontrato che '''Cyber Patrol''', un prodotto sviluppato dalla [[Anti-Defamation League]] e The Learning Company della Mattel,<ref>{{Cita web |url=http://www.adl.org/presrele/mise_00/3081-00.asp |titolo=See: ADL and The Learning Company Develop Educational Software |editore=adl.org |data= |accesso=26 agosto 2011 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20110209112430/http://www.adl.org/PresRele/Mise_00/3081-00.asp |dataarchivio=9 febbraio 2011 }}</ref> blocca non solo i siti politici che ritiene essere affascinati
== Etichettatura dei contenuti ==
L’etichettatura dei contenuti può essere considerata un'altra forma di ''content-control software''. Nel [[1994]], l'[[ICRANet|Internet Content Rating Association]] (ICRA), ora parte della Family Online Safety Institute, ha sviluppato un sistema di classificazione dei contenuti. Utilizzando un questionario online un [[webmaster]] descrive la natura dei suoi contenuti web. Viene generato un piccolo file che contiene un ''computer readable digest.'' Tale descrizione può essere utilizzata da un ''content-control software'' per bloccare o consentire quel sito. Le etichette ICRA sono disponibili in una varietà di formati.<ref>{{Cita web|url=http://www.fosi.org/icra/#tech |titolo=ICRA: Technical standards used |accesso=4 luglio 2008 |editore=FOSI |data= }}</ref> Questi includono la, [[Resource Description Framework]] del [[World Wide Web Consortium]] (RDF), così come etichette come la, [[PICS|Platform for Internet Content Selection]] (PICS) utilizzate dai consulenti dei contenuti di [[Internet Explorer]] di [[Microsoft]].<ref>{{Cita web|url=
L'etichetta RTA, a differenza dell’etichette ICRA, non richiede al webmaster per poterla utilizzare di compilare un questionario o registrarsi. Come ICRA, l'etichetta RTA è libera. Entrambe le etichette sono riconosciute da una vasta gamma di software di content-control. Il Voluntary Content Rating (VCR) è stato ideato dalla Solid Oak Software per il loro software di filtraggio CYBERsitter, come alternativa al sistema PICS, che alcuni critici consideravano troppo complesso. Questo sistema impiega dei [[meta tag]] [[HTML]] incorporati nei documenti web per specificare il tipo di contenuto presente nella pagina. Sono specificati solo due livelli, ''mature'' e ''adult'', rendendo la specifica estremamente semplice.
Riga 67 ⟶ 69:
== Utilizzo nelle biblioteche pubbliche ==
=== Stati Uniti ===
L'uso di filtri Internet o dei software per il controllo dei contenuti, varia ampiamente nelle biblioteche pubbliche negli Stati Uniti, dal momento che le politiche di utilizzo di Internet sono stabilite dal consiglio locale della biblioteca. Molte di esse adottavano filtri Internet dopo che il Congresso ha condizionato l'applicazione di sconti di [[servizio universale]] per l'uso di filtri Internet attraverso il ''Children’s Internet Protection Act'' (CIPA). Altre biblioteche non installano software per il controllo dei contenuti, credendo che politiche sul giusto utilizzo e sforzi educativi risolvano la questione dell’accesso a contenuti inadeguati per i bambini, pur garantendo il diritto degli utenti adulti di accedere liberamente alle informazioni. Alcune librerie usano filtri Internet sui computer utilizzati solo da bambini. Alcune librerie che utilizzano il software per il controllo dei contenuti consentono al software di essere disattivato caso per caso, su richiesta di un bibliotecario. Le biblioteche soggette al ''Children’s Internet Protection Act'', sono tenute a mantenere una politica che consente ad un adulto di richiedere la rimozione del filtro, senza che debba fornire il motivo di tale richiesta. Molti [[Giurista|giuristi]] ritengono che un certo numero di cause legali, in particolare la ''Reno versus American Civil Liberties Union'', hanno stabilito che l'uso dei software di ''content-control'' nelle biblioteche è una violazione del [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]].<ref>{{Cita web|url=http://www.spectacle.org/cs/library.bak |titolo=Purchase of blocking software by public libraries is unconstitutional |accesso= |cognome=Wallace |nome=Jonathan D. |data=9 novembre 1997 }}</ref> I ''Children’s Internet Protection Act'' e il caso del giugno 2003, ''United States versus American Library Association'' hanno rilevato l'obbligo di l'installazione del CIPA, come condizione costituzionale per ricevere un finanziamento federale, affermando che i riferimenti del Primo Emendamento sono stati annullati dalla disposizione della legge che permetteva agli utenti adulti di biblioteche di richiedere la disabilitazione del software di filtraggio, senza dover spiegare le ragioni delle loro richiesta. Il pluralismo di questa decisione, tuttavia, lascia aperta per il futuro la sfida costituzione sul "''come applicarla''". Nel novembre [[2006]], è stata intentata una causa contro il distretto della North Central Regional Library nello [[Washington (stato)|Stato di Washington]] per la sua politica di rifiuto di disabilitare le restrizioni su richieste di avventori adulti, ma al ''Children’s Internet Protection Act'' non è stata contestata in questa faccenda.<ref>{{Cita web |url=
=== Australia ===
L’''Australian Internet Safety Advisory Body''<ref>Trad.Ing.:"''organo consultivo di sicurezza sulla rete internet australiana''"</ref> ha disposto "consigli pratici sulla sicurezza Internet, controllo parentale e filtri per la protezione dei bambini, studenti e famiglie" che comprende anche le biblioteche pubbliche.<ref>{{Cita web |url=http://www.pcw.vic.edu.au/Our%20School/Parents%20Guide%20to%20Internet%20Safety.pdf |titolo=NetAlert: Parents Guide to Internet Safety |editore=Australian Communications and Media Authority |data=2 agosto 2007 |accesso=24 giugno 2013 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20130419184113/http://www.pcw.vic.edu.au/Our%20School/Parents%20Guide%20to%20Internet%20Safety.pdf |dataarchivio=19 aprile 2013 }}</ref> NetAlert, il software messo a disposizione gratuitamente dal governo australiano, sarebbe stato violato, nell'agosto del 2007, da uno studente di 16 anni, un certo Tom Wood, meno di una settimana dopo il suo rilascio. Wood ha presumibilmente bypassato il filtro da $ 84.000.000 in circa mezzora evidenziando i problemi dell'approccio del governo australiano in relazione al filtraggio dei contenuti Internet.<ref>{{Cita news|url=http://www.smh.com.au/news/National/Teenager-cracks-govts-84m-porn-filter/2007/08/25/1187462562907.html |titolo=Teenager cracks govt's $84m porn filter <!--|editore=Australian Associated Press (AAP)--> |pubblicazione=Sydney Morning Herald |editore=Fairfax Digital |data=25 agosto 2007 |accesso=24 giugno 2013}}</ref> Le autorità hanno pertanto introdotto una normativa che richiede agli ISP di "''limitare l'accesso ai contenuti australiani o forniti all'Australia, limitandolo per età, tra i contenuti commerciali MA15+, e i contenuti R18+''". La normativa, avrebbe dovuto entrare in vigore dal 20 gennaio del 2008, è conosciuta e come '''Normativa Cleanfeed'''.<ref>{{Cita web |url=
Attraverso la Electronic Frontiers Australia (EFA ) la maggioranza degli australiani si è dichiarata "''fortemente contro''" alla sua approvazione.<ref name="nocleanfeed.com">{{Cita web |url=http://nocleanfeed.com/learn.html |titolo=Learn - No Clean Feed - Stop Internet Censorship in Australia |editore=Electronic Frontiers Australia |data= |accesso=25 ottobre 2009 |urlmorto=sì |urlarchivio=https://web.archive.org/web/20100107170517/http://nocleanfeed.com/learn.html |dataarchivio=7 gennaio 2010 }}</ref> Le critiche includono i costi, l’imprecisione, essendo impossibile assicurare che solo i siti illegali siano bloccati, ed il fatto che sarà obbligatorio, il che può essere visto come un'intrusione sui diritti di libertà di parola.<ref name="nocleanfeed.com" /> Il filtro potrebbe inoltre fornire anche un falso senso di sicurezza ai genitori, che potrebbero allentare la sorveglianza, ottenendo l'effetto esattamente opposto.
=== Danimarca ===
In [[Danimarca]] si definisce la politica che "''eviterà che in tutta la Danimarca i bambini possano accedere dalle biblioteche a siti Internet inappropriati''".<ref>{{Cita web |url=http://www.prnewswire.com/cgi-bin/stories.pl?ACCT=104&STORY=/www/story/07-27-2006/0004404991&EDATE= |titolo=Danish Ministry of Culture Chooses SonicWALL CMS 2100 Content Filter to Keep Children's Libraries Free of Unacceptable Material |editore=Prnewswire.com |data= |accesso=25 ottobre 2009 |urlarchivio=https://web.archive.org/web/20090212111413/http://www.prnewswire.com/cgi-bin/stories.pl?ACCT=104&STORY=%2Fwww%2Fstory%2F07-27-2006%2F0004404991&EDATE= |dataarchivio=12 febbraio 2009 |urlmorto=sì }}</ref> Brian Mikkelsen in un comunicato stampa del Ministero della Cultura danese, afferma : "''È importante che ogni biblioteca del paese abbia la possibilità di proteggere i bambini contro materiale [[Pornografia|pornografico]], nel momento in cui utilizzano computer della biblioteca. È una priorità per me, come ministro della Cultura, assicurarsi che i bambini, all'interno di una biblioteca, possano navigare in Internet in modo sicuro"'' .<ref>{{Cita web |url=http://www.saferinternet.org/ww/en/pub/insafe/news/articles/0606/dk.htm |titolo=Danish Minister of Culture offers Internet filters to libraries |editore=Saferinternet.org |data= |accesso=25 ottobre 2009 |dataarchivio=12 febbraio 2009 |urlarchivio=https://web.archive.org/web/20090212173122/http://www.saferinternet.org/ww/en/pub/insafe/news/articles/0606/dk.htm |urlmorto=sì }}</ref>
=== Regno Unito ===
Molte librerie nel Regno Unito come la [[British Library]]<ref>{{Cita web|url=
== Bypassare i filtri ==
Nonostante tutto, il filtraggio dei contenuti può "''essere interamente bypassato da individui tech-
▲Nonostante tutto, il filtraggio dei contenuti può "''essere interamente bypassato da individui tech-savy''<ref>Trad.Ing.:"''Esperti di tecnologia''"</ref>". Le informazioni riguardanti l’elusione dei blocco dei contenuti "''non garantiranno la possibilità che molti utenti saranno in grado di trovare un modo per aggirare il filtro''."<ref name="techsoup">{{Cita web|url=http://www.cityvision.edu/wiki/understanding-content-filtering-faq-nonprofits |titolo=Understanding Content Filtering: An FAQ for Nonprofits |cognome=Satterfield |nome=Brian |data=4 giugno 2007 |editore=Techsoup.org |accesso=24 giugno 2013}}</ref> Alcuni software possono essere bypassati con successo utilizzando protocolli alternativi come [[File Transfer Protocol|FTP]], [[telnet]] o [[HTTPS]], conducendo le ricerche in una lingua diversa, utilizzando un [[Proxy|server proxy]] o un bypass come [[Psiphon]]. Anche le pagine [[web cache]] restituite da Google o da altre ricerche potrebbero aggirare alcuni controlli. I servizi [[Web syndication]] possono fornire percorsi alternativi per i contenuti. Alcuni programmi, mal progettati, possono essere fermati disabilitando i loro processi: per esempio, in [[Microsoft Windows]] tramite il [[Task Manager]] di Windows, o in [[macOS]] utilizzando l’uscita forzata o Activity Monitor. Spesso i servizi di [[Google]] sono bloccati dai filtri, ma il più delle volte questi possono essere aggirati utilizzando ''https://'' al posto di ''http://'' dato che i software di filtraggio dei contenuti non sono in grado di interpretare il contenuto sotto connessioni sicure (in questo caso [[Transport Layer Security|SSL]]). Molti filtri hanno un’opzione che prevede la possibilità di autorizzare alcune persone a bypassare il filtro dei contenuti. Questo è particolarmente utile in ambienti in cui il computer deve essere sorvegliato e il filtro dei contenuti blocca indistintamente siti web a cui è necessario accedere. Un altro esempio per bypassare i content-contro software avviene attraverso l'uso di un [[Virtual Private Network|VPN]] cifrato, in particolare se è stato installato il software di monitoraggio su un [[Gateway (informatica)|gateway]] Internet o su un firewall. A volte, anche un software [[antivirus]] con una protezione web è in grado di arrestare il filtro per il controllo dei contenuti.
== Prodotti e servizi ==
Alcuni ISP<ref>Internet Service Provider. </ref> offrono opzioni di controllo parentale, mentre altri offrono software di protezione. I più importanti sistemi operativi offrono anch'essi delle soluzioni di controllo parentale.
Dalla versione [[Mac OS X
Nel sistema operativo [[Microsoft]], [[Windows 7]], oltre ad uno strumento aggiuntivo denominato Controllo genitoriale con cui applicare restrizioni sui vari account utente, si può usufruire di [[Windows Live Family Safety Filter|Windows Live Family Safety]]: programma parte integrante del pacchetto [[Windows Live]] che si interfaccia direttamente con la funzionalità Controllo genitoriale. A differenza di quest'ultimo, in [[Windows 8]] tale funzionalità Family Safety è stata direttamente integrata nel sistema operativo. Usato anche nella più recente versione, [[Windows 10]], grazie alla possibilità di creare una ''Microsoft Family'' con più account, anche per i più piccoli, le impostazioni della famiglia verranno applicate a qualsiasi dispositivo Windows 10 a cui accedono.
Anche l'ambiente Linux offre diverse soluzioni per il controllo parentale, come per esempio, il filtraggio basato su browser attraverso le estensioni di Firefox, quello basato su DNS utilizzando il servizio gratuito [[OpenDNS]], o attraverso un set di applicazioni gratuite, da configurare, per lavorare in modo specifico sul filtraggio dei contenuti web. Tra gli strumenti più utilizzati troviamo: [[DansGuardian]], [[Privoxy]], [[Squid]], ed anche content-control software con [[GUI]] come ''Web Content Control'', Nanny e [[OpenDNS|Open DNS]].<ref>[https://help.ubuntu.com/community/ParentalControls#Parental_Content_Control|titolo= Ubuntu Parental Controls]</ref>
Riga 103 ⟶ 104:
* [[Filtro famiglia]]
== Altri progetti ==
{{interprogetto}}
{{Censura}}
{{portale|informatica}}
|