Content-control software: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Messbot (discussione | contributi)
top: fix file, replaced: || → | using AWB
Recupero di 6 fonte/i e segnalazione di 2 link interrotto/i. #IABot (v1.5.2)
Riga 3:
Un '''''content-control''''' è un [[software]] progettato per limitare o controllare i contenuti ai quali un utente è autorizzato ad accedere. Viene soprattutto utilizzato per limitare l'invio e la ricezione di materiale su [[Internet]] tramite il [[World Wide Web|Web]], l'[[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili, o, solitamente, quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: a livello nazionale dal governo, da un [[Internet service provider|provider]] di servizi Internet ai propri clienti, dal [[datore di lavoro]] al proprio personale, da una scuola ai suoi studenti, da una biblioteca ai suoi visitatori, da un genitore al computer di un bambino, e da un singolo utente al proprio computer. Spesso il motivo che spinge ad utilizzare tali software, consiste nell' impedire l'accesso a contenuti che, il proprietario o altre autorità del/dei computer, possono ritenere illegali o in grado di ridurre, nel caso di un'azienda la produttività. Quando imposto senza il consenso dell'utente, il controllo dei contenuti viene considerato una forma di [[Censura di Internet|censura di internet]]. Alcuni ''content-control software'' includono funzioni di controllo del tempo, utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o usate per la riproduzione di giochi o altre attività del computer.
 
In alcuni paesi, tali software sono onnipresenti. [[Diritti umani a Cuba#Internet|A Cuba]], se un utente di un computer in un [[Internet café]] controllato dal governo digita determinate parole, il word processor o il browser si chiude automaticamente, e viene dato un avvertimento: "Sicurezza dello stato".<ref name="cubaonline">{{Cita web|url=http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|titolo=Going online in Cuba: Internet under surveillance|editore=Reporters Without Borders|anno=2006|urlmorto=sì|urlarchivio=https://web.archive.org/web/20090303221407/http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|dataarchivio=3 marzo 2009}}</ref>
 
== Terminologia ==
Il termine ''content-control'' è stato usato in alcune occasioni dalla [[CNN]],<ref>{{Cita news|url=http://edition.cnn.com/2005/WORLD/asiapcf/04/27/eyeonchina.internet/ |titolo= Young, angry ... and wired - May 3, 2005 |editore=Edition.cnn.com |data=3 maggio 2005|accesso=25 ottobre 2009}}</ref> dalla rivista ''[[Playboy]]''<ref>{{Cita news|url=http://www.multichannel.com/policy/playboy-preaches-control/12883 |titolo=Playboy Preaches Control |nome=R. Thomas |cognome=Umstead |giornale=Multichannel News |data=20 maggio 2006 |accesso=25 giugno 2013}}</ref>, dal ''[[San Francisco Chronicle]]''<ref>{{Cita web |url=http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |titolo=http://web.archive.org/web/20030708220938/http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |urlmorto=yes |urlarchivio=https://web.archive.org/web/20030708220938/http://www.sfgate.com:80/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155%2Fnews%2Farchive%2F2002%2F10%2F25%2Ffinancial1400EDT0155.DTL&type=printable |dataarchivio=8 luglio 2003 }}</ref> e dal ''[[New York Times]]''<ref>{{Cita news|cognome=Bickerton |nome=Derek |url=http://query.nytimes.com/gst/fullpage.html?res=9403E1D8143BF933A05752C1A961958260 |titolo=Digital Dreams - The |editore=New York Times |data=30 novembre 1997 |accesso=25 ottobre 2009}}</ref>. Tuttavia, sono utilizzati spesso anche altri termini, compreso ,''content filtering software''<ref>Trad.Ing.:"''software di filtraggio dei contenuti".''</ref>'','' ''secure web [[Gateway (informatica)|gateways]]''<ref>Mod.Trad.:"''gateway web protetti''"</ref>, ''censorware'', ''content security and control''<ref>Trad.Ing.:"''controllo e sicurezza dei contenuti''"</ref>, ''web filtering software''<ref>Trad.Ing.:"''software di filtraggio web"''</ref>, ''content-censoring software''<ref>Trad.Ing.:"''software di censura dei contenuti''"</ref> e ''content-blocking software''<ref>Trad.Ing.:"''software di blocco dei contenuti''"</ref>. Il termine ''Nannyware'' venne utilizzato sia dai media che nella commercializzazione di prodotti. Ad esempio la società di ricerca [[Gartner]] Industry utilizza un ''secure web gateway'' (SWG) per descrivere un segmento di mercato.<ref name="Gartner">{{Cita web|url=http://www.gartner.com/it-glossary/secure-web-gateway/|titolo=IT Glossary: Secure Web Gateway|editore=[[Gartner]]|accesso=27 marzo 2012}}</ref>
 
Le aziende realizzatrici di prodotti che bloccano selettivamente i siti Web non fanno riferimento a questi prodotti come ''censorware'', e preferiscono termini come ''Internet filter''<ref>Trad.Ing.:"''Filtro internet''"</ref> or ''URL Filter''.<ref>Trad.Ing.:"''Filtro URL''"</ref> Nel caso specifico di software progettati per consentire ai genitori di monitorare e limitare l'accesso dei loro figli al web, è usato anche il termine, ''parental control software''<ref>Trad.Ing.:"''software di controllo genitoriale''"</ref>. Alcuni prodotti memorizzano tutti i siti a cui un utente accede e li valuta in base al tipo di contenuti per poi segnalare ad un ''accountability partner''<ref>''Trad. Ing.:"partner di responsabilità"''</ref> delle scelte dell'utente, ed è quindi usato il termine ''accountability software''<ref>Trad.Ing.:"''Software responsabile''"</ref>. Filtri Internet, software di controllo parentale, e/o software di responsabilità, possono anche essere combinati in un unico prodotto.
 
Coloro che criticano tale software, tuttavia, usano liberamente il termine c''ensorware''<ref>Trad.Ing.:"''Software di censura''"</ref>: si consideri, ad esempio, il ''Progetto Censorware''.<ref>{{Cita web |url=http://censorware.net/ |titolo=Censorware Project |editore=censorware.net |urlmorto=yes |urlarchivio=https://web.archive.org/web/20150620042654/http://www.censorware.net/ |dataarchivio=20 giugno 2015 }}</ref> L'uso di questo termine negli editoriali, al fine di criticare i responsabili di tali software, è molto diffuso ed è stato applicato in varie situazioni: la web-blogger, ''Xeni Jardin'', ha usato il termine il 9 marzo 2006 in un editoriale del New York Times, quando si discusse l'uso di ''content-control software'' di fabbricazione americana in Cina. Nello stesso mese uno studente del liceo usò il termine per discutere la dislocazione di tale software nel suo distretto scolastico.<ref>{{Cita web |url=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |titolo=http://159.54.226.83/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064 |urlmorto=yes |urlarchivio=https://web.archive.org/web/20071019020114/http://159.54.226.83:80/apps/pbcs.dll/article?AID=/20060319/COLUMN0203/603190309/1064%2F20060319%2FCOLUMN0203%2F603190309%2F1064 |dataarchivio=19 ottobre 2007 }}</ref><ref>{{Cita web|url=http://sethf.com/anticensorware/hearing_dc.php |titolo=DMCA 1201 Exemption Transcript, April 11 - Censorware |editore=Sethf.com |data=11 aprile 2003 |accesso=25 ottobre 2009}}</ref>
 
In generale, al di fuori delle pagine editoriali, i giornali tradizionali non usano il termine censorware nelle loro relazioni, preferendo invece utilizzare termini meno apertamente controversi, come ''content filter'' ''content control'', o ''web filtering''. Il New York Times e il ''[[Wall Street Journal]]'' sembrano entrambi seguire questa pratica. D'altra parte, i giornali web-based, come [[CNET]], usano il termine in entrambi i contesti, editoriale e giornalistico, ad esempio ''Windows Live to Get Censorware''.<ref>{{Cita web|url=http://www.techbeta.org/news/windows-live-to-get-censorware/ |titolo=Windows Live to get censorware - ZDNet.co.uk |editore=News.zdnet.co.uk |data=14 marzo 2006 |accesso=25 ottobre 2009}}</ref>
Riga 30:
 
;Filtraggio basato sulla rete
:Questo tipo di filtro viene implementato a [[livello di trasporto]] come [[Proxy#Proxy trasparenti .28Trasparent Proxies.29|transparent proxy]], o a [[livello applicativo]] come [[Proxy#Proxy Server Web|web proxy]].<ref>{{Cita web|url=http://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|titolo=Explicit and Transparent Proxy Deployments|editore=Websense|accesso=30 marzo 2012|anno=2010|urlmorto=sì|urlarchivio=https://web.archive.org/web/20120418150020/http://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|dataarchivio=18 aprile 2012}}</ref> Rispetto al content-control software può includere funzionalità di prevenzione della perdita di dati ([[Data loss prevention]]), per filtrare le informazioni, sia in uscita, che in entrata. Tutti gli utenti sono soggetti alla politica di accesso definita dall'istituzione. Il filtro può essere personalizzato, in modo che ad esempio, la biblioteca delle scuole superiori del distretto scolastico abbia un profilo diverso da quello di filtraggio della biblioteca della scuola media del quartiere.
 
;Filtri dei motori di ricerca
Riga 53:
 
=== Azioni legali ===
Nel [[1998]] negli [[Stati Uniti d'America|Stati Uniti]], il tribunale distrettuale federale della [[Virginia]] ha stabilito che l'imposizione obbligatoria di filtraggio dei contenuti presso una biblioteca pubblica, viola il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] della [[Bill of Rights]] degli Stati Uniti.<ref>{{Cita web|url=http://www.tomwbell.com/NetLaw/Ch04/Loudoun.html |titolo=Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (E.D. Va. 1998) |editore=Tomwbell.com |data= |accesso=25 ottobre 2009}}</ref> Nel [[1996]] il Congresso degli Stati Uniti ha approvato il ''Communications Decency Act'', che vieta su [[internet]] la presenza di contenuti indecenti. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel [[1997]] la [[Corte Suprema]] ha stabilito in loro favore.<ref>{{Cita news|url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |pubblicazione=U.S. Reports |data=26 giugno 1997 |editore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, in particolare modo quelle collegate a gruppi come la [[Electronic Frontier Foundation]] affrontava la necessità dei genitori di bloccare i siti riconoscendo che potevano utilizzare propri software di filtraggio dei contenuti, rendendo inutile il coinvolgimento del governo. Alla fine del [[1990]], gruppi come il ''Censorware Project'' iniziarono una riproduzione di questi software decifrando le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha condotto ad azioni legali attinenti alla violazione del contratto di licenza ''Cyber Patrol'' [[EULA|license agreement]],<ref>{{Cita web|url=http://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |titolo=Microsystems v Scandinavia Online, Verified Complaint |sito=Civil No. 00CV10488, United States District Court, District of Massachusetts |autore=Attorneys for Microsystems Software, Inc. and Mattel, Inc. |editore=Electronic Frontier Foundation |data=15 marzo 2000 |accesso=25 ottobre 2009}}</ref>, le quali hanno scoperto che tali strumenti bloccavano di routine siti ineccepibili, mentre non riuscivano a bloccare gli obiettivi previsti. Alcune società di ''content-control software'' hanno risposto sostenendo che i loro criteri di filtraggio erano anche supportati da un intenso controllo manuale. Le società oppositrici hanno sostenuto, d'altra parte, che eseguire la necessaria verifica richiederebbe risorse superiori a quelle in possesso delle società e che quindi le loro affermazioni non erano valide.<ref>{{Cita web |url=http://www7.nationalacademies.org/itas/whitepaper_1.html |titolo=Electronic Frontier Foundation White Paper 1 for NRC project on Tools and Strategies for Protecting Kids from Pornography and Their Applicability to Other Inappropriate Internet Content |autore=Seth Finkelstein, Consulting Programmer; Lee Tien, Senior Staff Attorney, EFF |editore=National Academy of Sciences |urlarchivio= httphttps://web.archive.org/web/20060419190143/http://www7.nationalacademies.org/itas/whitepaper_1.html |dataarchivio=19 aprile 2006 |urlmorto=sì }}</ref> La [[Motion Picture Association]] ha ottenuto con successo l'approvazione di una legge nel Regno Unito in grado di rafforzare l'uso di tali software di filtraggio da parte degli ISP, allo scopo di arginare le violazioni del copyright da parte degli abbonati.<ref>{{Cita news|titolo=Sky, Virgin Media Asked to Block Piracy Site Newzbin2|url=http://www.bbc.co.uk/news/technology-15653434 |editore=[[BBC News]] |data=9 novembre 2011 |accesso=26 marzo 2012 }}</ref>
 
=== Censura religiosa, anti-religiosa e politica ===
Riga 82:
== Bypassare i filtri ==
 
Nonostante tutto, il filtraggio dei contenuti può "''essere interamente bypassato da individui tech-savvy''<ref>Trad.Ing.:"''Esperti di tecnologia''"</ref>". Le informazioni riguardanti l’elusione dei blocco dei contenuti "''non garantiranno la possibilità che molti utenti saranno in grado di trovare un modo per aggirare il filtro''."<ref name="techsoup">{{Cita web|url=http://www.cityvision.edu/wiki/understanding-content-filtering-faq-nonprofits |titolo=Understanding Content Filtering: An FAQ for Nonprofits |cognome=Satterfield |nome=Brian |data=4 giugno 2007 |editore=Techsoup.org |accesso=24 giugno 2013}}</ref> Alcuni software possono essere bypassati con successo utilizzando protocolli alternativi come [[File Transfer Protocol|FTP]], [[telnet]] o [[HTTPS]], conducendo le ricerche in una lingua diversa, utilizzando un [[Proxy|server proxy]] o un bypass come [[Psiphon]]. Anche le pagine [[web cache]] restituite da Google o da altre ricerche potrebbero aggirare alcuni controlli. I servizi [[Web syndication]] possono fornire percorsi alternativi per i contenuti. Alcuni programmi, mal progettati, possono essere fermati disabilitando i loro processi: per esempio, in [[Microsoft Windows]] tramite il [[Task Manager]] di Windows, o in [[macOS]] utilizzando l’uscita forzata o Activity Monitor. Spesso i servizi di [[Google]] sono bloccati dai filtri, ma il più delle volte questi possono essere aggirati utilizzando ''{{collegamento interrotto|1=https://'' |date=settembre 2017 |bot=InternetArchiveBot }} al posto di ''{{collegamento interrotto|1=http://'' |date=settembre 2017 |bot=InternetArchiveBot }} dato che i software di filtraggio dei contenuti non sono in grado di interpretare il contenuto sotto connessioni sicure (in questo caso [[Transport Layer Security|SSL]]). Molti filtri hanno un’opzione che prevede la possibilità di autorizzare alcune persone a bypassare il filtro dei contenuti. Questo è particolarmente utile in ambienti in cui il computer deve essere sorvegliato e il filtro dei contenuti blocca indistintamente siti web a cui è necessario accedere. Un altro esempio per bypassare i content-contro software avviene attraverso l'uso di un [[Virtual Private Network|VPN]] cifrato, in particolare se è stato installato il software di monitoraggio su un [[Gateway (informatica)|gateway]] Internet o su un firewall. A volte, anche un software [[antivirus]] con una protezione web è in grado di arrestare il filtro per il controllo dei contenuti.
 
== Prodotti e servizi ==