Content-control software: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 39:
{{main|:en:Internet_censorship }}
 
IlGli [[Internet Service Provider]] (ISP), che blocca ilbloccano materiale contenenteche include [[pornografia]], o contenuto controverso contenutodi tipo religioso, politico, o notizie relative a questi argomenti, sono spesso utilizzati dai genitori per vietare ai loro figli di accedere a contenuti non conformi alle loro convinzioni personali. I content-control software di filtraggio contenuti possono però anche essere utilizzati per bloccare i [[malware]] e altri contenuti che possono possonocontenere materiale ostile, invadente o fastidioso tra cui [[adware]], [[spam]], [[Virus (informatica)|virus ]], [[Worm|worms]], [[Trojan (informatica)|trojan horses]] e [[spyware]].
La maggior parte dei content-control software di controllo dei contenuti sono rivolti a organizzazioni o genitori. E ', tuttavia, commercializzato anche al fine di facilitare l'auto-censura, per esempio da parte di persone che lottano concontro la dipendenza da [[Pornografia|pornografia online]], gioco d'azzardo, chat, ecc. Il software di auto-censura può essere utilizzato anche da alcuni per evitare la visualizzazione di contenuti che consideranovengono immoraleconsiderati immorali, inadeguatoinadeguati, o semplicemente di distrazione. Un certo numero di prodotti [[:en:accountability software|acoountabilityaccountability software]] (software di responsabilità) sono commercializzati come ''self-censorship'' (autocensura) or ''accountability software'' (software responsabilità). Questi sono spesso promossepromossi dai media religiosi e alle riunioni religiose. <ref>{{Cita web|url=http://www.urbanministry.org/wiki/accountability-software |titolo=Accountability Software: Accountability and Monitoring Software Reviews |sito=TechMission, Safe Families |editore=UrbanMinistry.org |data= |accesso=25 ottobre 2009}}</ref>
 
== Criticità ==
=== Errori di filtraggio ===
==== OverblockingOver-blocking ====
 
Utilizzare un filtro che è eccessivamente zelante sul filtraggio dei contenuti o i cui contenutiche etichettatietichetta erroneamente contenuti non destinati ad essere censurati, può risultare over-blocking (al di sopra del blocco) o al di sopra della censura. Un sovraover-blocking (sovra-bloccaggio) può filtrare materiale che dovrebberodovrebbe essere accettabile in base alla politica di filtraggio effettiva, ad esempio informazioni riguardanti la salute possono essere filtrate inavvertitamente insieme ad altro materiale porno ([[:en:Scunthorpe problem]]).
Gli amministratori del filtraggio possono preferireoptare per lo sbaglio, sulprediligendo latouna dellalinea di cautela, accettando l’over-blocking per prevenire qualsiasi rischio di accesso ai siti che questi hanno determinato come indesiderati. Questo problema si è riscontrato ad esempio nel caso del blocco dell'accesso al Beaver college prima del suo cambio di nome in [[:en:Arcadia University|Arcadia University]].,<ref>{{Cita web|url=http://slashdot.org/article.pl?sid=00/03/01/2230240&tid=146 |titolo=Web Censors Prompt College To Consider Name Change |editore=Slashdot |data=2 marzo 2000 |accesso=22 novembre 2010}}</ref> e nel filtraggio del [[:en:Horniman Museum|museo Horniman]].<ref>{{Cita news|url=http://www.theregister.co.uk/2004/10/08/horniman_museum_filtered/ |titolo=Porn filters have a field day on Horniman Museum |autore=Lester Haines |data=8 ottobre 2004 |giornale=The Register}}</ref> Tutto ciò provoca l’incoraggiamento aglidegli utenti affinché bypassino il filtro del tutto.
 
==== UnderblockingUnder-blocking ====
Ogni volta che vengono caricate in Internet nuove informazioni, i filtri possono under-blocking (sotto-bloccare) o sotto-censurare i contenuti, se le parti responsabili del mantenimento dei filtri non li aggiornano rapidamente e con precisione, e non adottano una “lista nera” piuttosto che una politica di filtraggio basata sulle “liste bianche”. <ref>{{Cita web|url=http://www.stat.berkeley.edu/~stark/Preprints/filter07.pdf |titolo=The Effectiveness of Internet Content Filters |nome=Philip B. |cognome=Stark |editore=[[University of California, Berkeley]] |data=10 novembre 2007 |accesso=22 novembre 2010 }}</ref>
 
=== Moralità e opinioni ===
Molti <ref>{{Cita web|url=http://www.arnnet.com.au/article/340550/microsoft_google_yahoo_speak_isp_filter_consultation/?fp=16&fpid=1 |titolo=Microsoft, Google and Yahoo! speak out in ISP filter consultation
|nome=Spandas |cognome=Lui |data=23 marzo 2010 |editore=arnnet.com |accesso=22 novembre 2010}}</ref> avrebbero disapprovato i punti di vista del governo relativi al filtraggio del governo sudi questioni morali o politiche, concordando sul fatto che questo sarebbe potuto diventare un supporto per la [[propaganda]]. Molti <ref>{{Cita news|url=http://news.bbc.co.uk/2/hi/technology/8517829.stm |pubblicazione=BBC News |titolo=Google and Yahoo raise doubts over planned net filters |data=16 febbraio 2010 |accesso=30 aprile 2010}}</ref> avrebbero trovato inaccettabile che un ISP, o per legge o per scelta del provider, debba essere distribuito come software senza consentire agli utenti di disabilitare il filtraggio per le proprie connessioni. Negli Stati Uniti, è stato citato il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Ememndamento]] èal statofine citato nelle chiamate perdi criminalizzare la censura di Internet forzata. (Vedere la [[Content-control software#Azioni legali|sezione seguente]])
Senza un'adeguata supervisione governativa, i software di content -filtering potrebbero consentire alle aziende private di censurare a loro piacimento. (Vedere [[#Religioso, anti-religioso e politica di censura |Censura religiosa o politica]], di seguito). L’utilizzo e l’incoraggiamento governativo all’usoall'uso deidi software di content-control è un componente della [[:en:Internet censorship|censura di Internet]] (da non confondere con [[PRISM|Internet Surveillance]], in cui il contenuto viene monitorato e non necessariamente limitato). I governi dei paesi come la [[:en:Internet Censorship in China|Repubblica Popolare Cinese]] e [[Cuba]] sono esempi attuali di paesi sospettati di aver dato luogo a questa attività eticamente controversa.
 
=== Azioni legali ===
Nel 1998 negli Stati Uniti, il tribunale distrettuale federale della Virginia ha stabilito che l'imposizione obbligatoria di filtraggio in una biblioteca pubblica viola il Primo Emendamento della Bill of Rights degli Stati Uniti. <ref>{{Cita web|url=http://www.tomwbell.com/NetLaw/Ch04/Loudoun.html |titolo=Mainstream Loudon v. Board of Trustees of the Loudon County Library, 24 F. Supp. 2d 552 (E.D. Va. 1998) |editore=Tomwbell.com |data= |accesso=25 ottobre 2009}}</ref>
 
Nel 1996 il Congresso degli Stati Uniti ha approvato il [[:en:Communications Decency Act|Communications Decency Act]], che vieta indecenza su Internet. I gruppi per le libertà civili hanno contestato la legge sotto il [[I emendamento della Costituzione degli Stati Uniti d'America|Primo Emendamento]] e nel 1997 la [[Corte Suprema]] ha stabilito a loro favore. <ref>{{Cita news|url=https://supreme.justia.com/cases/federal/us/521/844/case.html |titolo=Reno v. American Civil Liberties Union - 521 U.S. 844 (1997) |pubblicazione=U.S. Reports |data=26 giugno 1997 |editore=Justia.com}}</ref> Una parte della discussione inerente alle libertà civili, specialmente quelle di gruppi come la [[Electronic Frontier Foundation]], riguardava il fatto che i genitori che volevano bloccare i siti potevano usare i propri software di filtraggio dei contenuti, rendendo inutile un coinvolgimento del governo.
Alla fine del 1990, i gruppi come il CensowareCensorware Project iniziarono una riproduzione di questi software e decifrarono le liste nere per determinare quale tipo di siti fossero bloccati. Ciò ha portato ad azioni legali attinenti alla violazione del contratto di licenza "Cyber Patrol" [[EULA|license agreement]].,<ref>{{Cita web|url=http://w2.eff.org/legal/cases/Microsystems_v_Scandinavia_Online/?f=20000316_verif_complaint.html |titolo=Microsystems v Scandinavia Online, Verified Complaint |sito=Civil No. 00CV10488, United States District Court, District of Massachusetts |autore=Attorneys for Microsystems Software, Inc. and Mattel, Inc. |editore=Electronic Frontier Foundation |data=15 marzo 2000 |accesso=25 ottobre 2009}}</ref>, le quali hanno scoperto che tali strumenti bloccavano di routine siti ineccepibili, mentre non riuscivano a bloccare gli obiettivi previsti. (Vedi [[#Over-zealous filtering|Over-zealous filtering]], di seguito).
Alcune società di content-control software per il controllo dei contenuti hanno risposto sostenendo che i loro criteri di filtraggio erano sopportatisupportati da un intenso controllo manuale. Le società oppositrici hanno sostenuto, d'altra parte, che eseguire la necessaria verifica richiederebbe risorse superiori a quelle in possesso delle società e che quindi lale loro affermazioni non erano valide. <ref>{{Cita web|url=http://www7.nationalacademies.org/itas/whitepaper_1.html |titolo=Electronic Frontier Foundation White Paper 1 for NRC project on Tools and Strategies for Protecting Kids from Pornography and Their Applicability to Other Inappropriate Internet Content |autore=Seth Finkelstein, Consulting Programmer; Lee Tien, Senior Staff Attorney, EFF |editore=National Academy of Sciences |urlarchivio= http://web.archive.org/web/20060419190143/http://www7.nationalacademies.org/itas/whitepaper_1.html |dataarchivio=19 aprile 2006}}</ref>
La [[Motion Picture Association]] ha ottenuto con successo una legge delnel Regno Unito per rafforzare gli ISP per usare tali software con lo scopo di arginare la violazione del copyright da parte degli abbonati.<ref>{{Cita news|titolo=Sky, Virgin Media Asked to Block Piracy Site Newzbin2|url=http://www.bbc.co.uk/news/technology-15653434 |editore=[[BBC News]] |data=9 novembre 2011 |accesso=26 marzo 2012 }}</ref>
 
=== Censura religiosa, anti-religiosa e politica ===