Content-control software: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Recupero di 6 fonte/i e segnalazione di 2 link interrotto/i. #IABot (v1.5.2) |
|||
Riga 3:
Un '''''content-control''''' è un [[software]] progettato per limitare o controllare i contenuti ai quali un utente è autorizzato ad accedere. Viene soprattutto utilizzato per limitare l'invio e la ricezione di materiale su [[Internet]] tramite il [[World Wide Web|Web]], l'[[e-mail]], o in altro modo. Un software di controllo dei contenuti determina quali contenuti saranno disponibili, o, solitamente, quali contenuti saranno bloccati. Tali restrizioni possono essere applicate a vari livelli: a livello nazionale dal governo, da un [[Internet service provider|provider]] di servizi Internet ai propri clienti, dal [[datore di lavoro]] al proprio personale, da una scuola ai suoi studenti, da una biblioteca ai suoi visitatori, da un genitore al computer di un bambino, e da un singolo utente al proprio computer. Spesso il motivo che spinge ad utilizzare tali software, consiste nell' impedire l'accesso a contenuti che, il proprietario o altre autorità del/dei computer, possono ritenere illegali o in grado di ridurre, nel caso di un'azienda la produttività. Quando imposto senza il consenso dell'utente, il controllo dei contenuti viene considerato una forma di [[Censura di Internet|censura di internet]]. Alcuni ''content-control software'' includono funzioni di controllo del tempo, utilizzate per consentire ai genitori di impostare la quantità di tempo che il proprio bambino può trascorrere su Internet o usate per la riproduzione di giochi o altre attività del computer.
In alcuni paesi, tali software sono onnipresenti. [[Diritti umani a Cuba#Internet|A Cuba]], se un utente di un computer in un [[Internet café]] controllato dal governo digita determinate parole, il word processor o il browser si chiude automaticamente, e viene dato un avvertimento: "Sicurezza dello stato".<ref name="cubaonline">{{Cita web|url=http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|titolo=Going online in Cuba: Internet under surveillance|editore=Reporters Without Borders|anno=2006|urlmorto=sì|urlarchivio=https://web.archive.org/web/20090303221407/http://www.rsf.org/IMG/pdf/rapport_gb_md_1.pdf|dataarchivio=3 marzo 2009}}</ref>
== Terminologia ==
Il termine ''content-control'' è stato usato in alcune occasioni dalla [[CNN]],<ref>{{Cita news|url=http://edition.cnn.com/2005/WORLD/asiapcf/04/27/eyeonchina.internet/ |titolo= Young, angry ... and wired - May 3, 2005 |editore=Edition.cnn.com |data=3 maggio 2005|accesso=25 ottobre 2009}}</ref> dalla rivista ''[[Playboy]]''<ref>{{Cita news|url=http://www.multichannel.com/policy/playboy-preaches-control/12883 |titolo=Playboy Preaches Control |nome=R. Thomas |cognome=Umstead |giornale=Multichannel News |data=20 maggio 2006 |accesso=25 giugno 2013}}</ref>, dal ''[[San Francisco Chronicle]]''<ref>{{Cita web |url=http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |titolo=http://web.archive.org/web/20030708220938/http://www.sfgate.com/cgi-bin/article.cgi?file=/news/archive/2002/10/25/financial1400EDT0155.DTL&type=printable |urlmorto=
Le aziende realizzatrici di prodotti che bloccano selettivamente i siti Web non fanno riferimento a questi prodotti come ''censorware'', e preferiscono termini come ''Internet filter''<ref>Trad.Ing.:"''Filtro internet''"</ref> or ''URL Filter''.<ref>Trad.Ing.:"''Filtro URL''"</ref> Nel caso specifico di software progettati per consentire ai genitori di monitorare e limitare l'accesso dei loro figli al web, è usato anche il termine, ''parental control software''<ref>Trad.Ing.:"''software di controllo genitoriale''"</ref>. Alcuni prodotti memorizzano tutti i siti a cui un utente accede e li valuta in base al tipo di contenuti per poi segnalare ad un ''accountability partner''<ref>''Trad. Ing.:"partner di responsabilità"''</ref> delle scelte dell'utente, ed è quindi usato il termine ''accountability software''<ref>Trad.Ing.:"''Software responsabile''"</ref>. Filtri Internet, software di controllo parentale, e/o software di responsabilità, possono anche essere combinati in un unico prodotto.
Coloro che criticano tale software, tuttavia, usano liberamente il termine c''ensorware''<ref>Trad.Ing.:"''Software di censura''"</ref>: si consideri, ad esempio, il ''Progetto Censorware''.<ref>{{Cita web |url=http://censorware.net/ |titolo=Censorware Project |editore=censorware.net |urlmorto=
In generale, al di fuori delle pagine editoriali, i giornali tradizionali non usano il termine censorware nelle loro relazioni, preferendo invece utilizzare termini meno apertamente controversi, come ''content filter'' ''content control'', o ''web filtering''. Il New York Times e il ''[[Wall Street Journal]]'' sembrano entrambi seguire questa pratica. D'altra parte, i giornali web-based, come [[CNET]], usano il termine in entrambi i contesti, editoriale e giornalistico, ad esempio ''Windows Live to Get Censorware''.<ref>{{Cita web|url=http://www.techbeta.org/news/windows-live-to-get-censorware/ |titolo=Windows Live to get censorware - ZDNet.co.uk |editore=News.zdnet.co.uk |data=14 marzo 2006 |accesso=25 ottobre 2009}}</ref>
Riga 30:
;Filtraggio basato sulla rete
:Questo tipo di filtro viene implementato a [[livello di trasporto]] come [[Proxy#Proxy trasparenti .28Trasparent Proxies.29|transparent proxy]], o a [[livello applicativo]] come [[Proxy#Proxy Server Web|web proxy]].<ref>{{Cita web|url=http://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|titolo=Explicit and Transparent Proxy Deployments|editore=Websense|accesso=30 marzo 2012|anno=2010|urlmorto=sì|urlarchivio=https://web.archive.org/web/20120418150020/http://www.websense.com/content/support/library/web/v75/wcg_deploy/WCG_Deploy.1.3.aspx|dataarchivio=18 aprile 2012}}</ref> Rispetto al content-control software può includere funzionalità di prevenzione della perdita di dati ([[Data loss prevention]]), per filtrare le informazioni, sia in uscita, che in entrata. Tutti gli utenti sono soggetti alla politica di accesso definita dall'istituzione. Il filtro può essere personalizzato, in modo che ad esempio, la biblioteca delle scuole superiori del distretto scolastico abbia un profilo diverso da quello di filtraggio della biblioteca della scuola media del quartiere.
;Filtri dei motori di ricerca
Riga 53:
=== Azioni legali ===
Nel [[1998]] negli [[Stati Uniti d'America|Stati Uniti]], il tribunale distrettuale federale della [[Virginia]] ha stabilito che l'imposizione obbligatoria di filtraggio dei contenuti presso una biblioteca pubblica, viola il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] della [[Bill of Rights]] degli Stati Uniti.<ref>{{Cita web|url=http://www.tomwbell.com/NetLaw/Ch04/Loudoun.html |titolo=Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (E.D. Va. 1998) |editore=Tomwbell.com |data= |accesso=25 ottobre 2009}}</ref> Nel [[1996]] il Congresso degli Stati Uniti ha approvato il ''Communications Decency Act'', che vieta su [[internet]] la presenza di contenuti indecenti. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel [[1997]] la [[Corte Suprema]] ha stabilito in loro favore.<ref>{{Cita news|url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |pubblicazione=U.S. Reports |data=26 giugno 1997 |editore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, in particolare modo quelle collegate a gruppi come la [[Electronic Frontier Foundation]] affrontava la necessità dei genitori di bloccare i siti riconoscendo che potevano utilizzare propri software di filtraggio dei contenuti, rendendo inutile il coinvolgimento del governo. Alla fine del [[1990]], gruppi come il ''Censorware Project'' iniziarono una riproduzione di questi software decifrando le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha condotto ad azioni legali attinenti alla violazione del contratto di licenza ''Cyber Patrol'' [[EULA|license agreement]],<ref>{{Cita web|url=http://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |titolo=Microsystems v Scandinavia Online, Verified Complaint |sito=Civil No. 00CV10488, United States District Court, District of Massachusetts |autore=Attorneys for Microsystems Software, Inc. and Mattel, Inc. |editore=Electronic Frontier Foundation |data=15 marzo 2000 |accesso=25 ottobre 2009}}</ref>, le quali hanno scoperto che tali strumenti bloccavano di routine siti ineccepibili, mentre non riuscivano a bloccare gli obiettivi previsti. Alcune società di ''content-control software'' hanno risposto sostenendo che i loro criteri di filtraggio erano anche supportati da un intenso controllo manuale. Le società oppositrici hanno sostenuto, d'altra parte, che eseguire la necessaria verifica richiederebbe risorse superiori a quelle in possesso delle società e che quindi le loro affermazioni non erano valide.<ref>{{Cita web |url=http://www7.nationalacademies.org/itas/whitepaper_1.html |titolo=Electronic Frontier Foundation White Paper 1 for NRC project on Tools and Strategies for Protecting Kids from Pornography and Their Applicability to Other Inappropriate Internet Content |autore=Seth Finkelstein, Consulting Programmer; Lee Tien, Senior Staff Attorney, EFF |editore=National Academy of Sciences |urlarchivio=
=== Censura religiosa, anti-religiosa e politica ===
Riga 82:
== Bypassare i filtri ==
Nonostante tutto, il filtraggio dei contenuti può "''essere interamente bypassato da individui tech-savvy''<ref>Trad.Ing.:"''Esperti di tecnologia''"</ref>". Le informazioni riguardanti l’elusione dei blocco dei contenuti "''non garantiranno la possibilità che molti utenti saranno in grado di trovare un modo per aggirare il filtro''."<ref name="techsoup">{{Cita web|url=http://www.cityvision.edu/wiki/understanding-content-filtering-faq-nonprofits |titolo=Understanding Content Filtering: An FAQ for Nonprofits |cognome=Satterfield |nome=Brian |data=4 giugno 2007 |editore=Techsoup.org |accesso=24 giugno 2013}}</ref> Alcuni software possono essere bypassati con successo utilizzando protocolli alternativi come [[File Transfer Protocol|FTP]], [[telnet]] o [[HTTPS]], conducendo le ricerche in una lingua diversa, utilizzando un [[Proxy|server proxy]] o un bypass come [[Psiphon]]. Anche le pagine [[web cache]] restituite da Google o da altre ricerche potrebbero aggirare alcuni controlli. I servizi [[Web syndication]] possono fornire percorsi alternativi per i contenuti. Alcuni programmi, mal progettati, possono essere fermati disabilitando i loro processi: per esempio, in [[Microsoft Windows]] tramite il [[Task Manager]] di Windows, o in [[macOS]] utilizzando l’uscita forzata o Activity Monitor. Spesso i servizi di [[Google]] sono bloccati dai filtri, ma il più delle volte questi possono essere aggirati utilizzando ''{{collegamento interrotto|1=https://'' |date=settembre 2017 |bot=InternetArchiveBot }} al posto di ''{{collegamento interrotto|1=http://'' |date=settembre 2017 |bot=InternetArchiveBot }} dato che i software di filtraggio dei contenuti non sono in grado di interpretare il contenuto sotto connessioni sicure (in questo caso [[Transport Layer Security|SSL]]). Molti filtri hanno un’opzione che prevede la possibilità di autorizzare alcune persone a bypassare il filtro dei contenuti. Questo è particolarmente utile in ambienti in cui il computer deve essere sorvegliato e il filtro dei contenuti blocca indistintamente siti web a cui è necessario accedere. Un altro esempio per bypassare i content-contro software avviene attraverso l'uso di un [[Virtual Private Network|VPN]] cifrato, in particolare se è stato installato il software di monitoraggio su un [[Gateway (informatica)|gateway]] Internet o su un firewall. A volte, anche un software [[antivirus]] con una protezione web è in grado di arrestare il filtro per il controllo dei contenuti.
== Prodotti e servizi ==
|