Wikipedia:Intelligenza artificiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Test e bot: tolgo riferimento ai bot come da discussione
testuale, l'enfasi è del parlante, altrimenti sembra limitata solo la prima
 
(31 versioni intermedie di 6 utenti non mostrate)
Riga 1:
{{wikibozza}}
{{Succo|Evita di usare strumenti che facciano uso di intelligenza artificiale (IA) per generare nuovo contenuto originale, per generare note, o per scrivere da zero commenti. Fonti che facciano uso di testi prodotti da IA non sono attendibili. I risultati ottenuti da IA non sono utilizzabili come prova a sostegno di un'argomentazione in una discussione. Nei casi in cui l'uso di IA è ammesso, controlla sempre il risultato prima di pubblicare.}}
{{Abbreviazioni|WP:IA}}
PerNella "presente linea guida, per «strumenti che fanno uso di '''intelligenza artificiale'''" in questa linea guida» si intendono i [[Modello linguistico di grandi dimensioni|modelli linguistici di grandi dimensioni]] ({{inglese|Large Language Models}}, d'ora in avanti '''LLM''') e i generatori di contenuti multimediali (ad esempio, immagini, video e musica).
 
Tra glile usiapplicazioni più diffusidiffuse dei modelli linguistici di grandi dimensioni vifigurano, sono adper esempio, i [[Chatchat bot|chatbot]] generatifrutto dadi [[intelligenza artificiale generativa]] (come [[ChatGPT]], [[Gemini (chat bot)|Gemini]], [[DeepSeek|Deepseek]], ecc). Questi strumenti, nelle parole di Michael Osborne, professore di [[apprendimento automatico]] all'Università di Oxford, hanno una "affidabilità, abilità di comprensione e autonomia limitate, e necessitano perciò di una supervisione umana".<ref>{{Cita web|lingua=en|autore=Adam Smith|url=https://www.context.news/ai/what-is-chatgpt-and-will-it-steal-our-jobs|titolo=What is ChatGPT? And will it steal our jobs? {{!}} Context by TRF|sito=www.context.news|accesso=2025-04-18}}</ref>
Secondo Michael Osborne, professore di [[apprendimento automatico]] a [[Università di Oxford|Oxford]], tali strumenti sono caratterizzati da «affidabilità limitata, abilità di comprensione limitata, autonomia limitata, e necessitano quindi di supervisione umana»<ref>{{Cita web | lingua = en | autore = Adam Smith | url = https://www.context.news/ai/what-is-chatgpt-and-will-it-steal-our-jobs | titolo = What is ChatGPT? And will it steal our jobs? | accesso = 2025-04-18 | data = 2023-02-07 | editore = Thomson Reuters Foundation | citazione = Large language models have limited reliability, limited understanding, limited range, and hence need human supervision }}</ref>.
Gli LLM possono generare [[Wikipedia:Niente ricerche originali|ricerche originali]], vale a dire affermazioni non presenti su alcuna fonte attendibile, o, nei casi peggiori, "[[Allucinazione (intelligenza artificiale)|allucinazioni]]", ovverosia fatti inventati e non corrispondenti al vero, talora corredati da fonti falsificate o inesistenti.
Gli LLM potrebbero inoltre generare affermazioni e risposte [[:Wikipedia:Punto di vista neutrale|non neutrali]] e/o in violazione delle [[:Wikipedia:Biografie di persone viventi|linee guida sulle biografie di persone viventi]] o di quelle sul [[WP:Copyright|diritto d'autore]].
 
Per tutto quanto sopra esposto, l'uso dell'intelligenza artificiale su Wikipedia
Gli LLM possono generare [[Wikipedia:RO|ricerche originali]], ossia affermazioni non presenti su alcuna fonte attendibile, o, nei casi peggiori, "[[Allucinazione (intelligenza artificiale)|allucinazioni]]", ossia fatti inventati e non corrispondenti al vero, talvolta accompagnati da fonti falsificate o inesistenti. Possono inoltre generare risposte [[WP:NPOV|non neutrali]] o che non rispettano le [[WP:BDV|linee guida sulle biografie dei viventi]], o che violano il [[WP:Copyright|diritto d'autore]]. Per questo motivo '''l'uso dell'intelligenza artificiale su Wikipedia è limitato a casistiche specifiche delineate da questa linea guida''' e '''non ne è ammesso l'utilizzo per la creazione da zero di nuovi contenuti originali'''. Gli utenti che non siano pienamente consapevoli dei rischi e dei limiti di questi strumenti dovrebbero evitarne completamente l'utilizzo.
* è limitato a casistiche specifiche delineate dalla presente linea guida;
* non è ammesso per la creazione da zero di nuovi contenuti originali.
Gli utenti non pienamente consapevoli dei rischi e dei limiti di tali strumenti dovrebbero evitarne completamente l'utilizzo.
 
L'utilizzo di LLM o di altri strumenti che facciano uso di intelligenza artificiale vadeve sempre essere segnalato in modo trasparente sia nell'[[Aiuto:Campo oggetto|oggetto della modifica]] eche nella [[Aiuto:Pagina di discussione della voce|pagina di discussione della voce]].
È inoltre da evitare l'uso di LLM nelle interazioni con gli altri utenti, ad esempio per scrivere gli interventi in pagine di discussione, o lo svolgimento dieffettuare test per sperimentare sull'enciclopedia strumenti di intelligenza artificiale.
 
RaccomandazioniLe analoghestesse raccomandazioni valgono anche per i generatoril'utilizzo di immagini,strumenti che possonocreano generarecontenuti multimediali tramite intelligenza artificiale, in quanto le immagini cone i video da essi prodotti possono contenere dettagli errati, inesistenti o assurdi.
 
== Principali rischi ==
 
=== Ricerche originali e allucinazioni ===
Gli LLM sono programmi di ''pattern completion''. In altre parole, generano un testo inserendo le parole che più facilmente vengono inserite dopo le precedenti. Questi schemi vengono "appresi" dai testi che vengono utilizzati per allenare gli LLM. Tra di essi vi sono testi disponibili su internet di ogni tipo, tra cuicompresi testi di narrativa o di fantasia, o anche [[Wikipedia:FA|fonti poco o scarsamente attendibili]], come blog o forum. Per questo motivo gli LLM a volte traggono conclusioni che, anche se possono sembrare in apparenza sensate, non sono in realtà presenti su alcuna fonte attendibile. In altri casi infine possono inventarsi cose dal nulla, creando le cosiddette "allucinazioni". Queste sono statisticamente ineliminabili. Inserire questi testi su wikipedia significa quindi inserire [[WP:RO|ricerche originali]] o, nel peggiore dei casi, vere e proprie [[bufala|bufale]].
 
Identificare tali problemi è spesso complicato. I testi generati spesso sembrano a prima vista plausibili, e sono scritti in un tono sicuro. Spesso inoltre informazioni inventate sono inserite in mezzo ad altre informazioni vere, ragione per cui possono sfuggire facilmente a controlli superficiali. La presenza di tali problemi è tuttavia molto probabile e, anche nel caso in cui la gran parte del testo sia corretta e solo poche righe siano errate, per Wikipedia la presenza di tali parti non è accettabile, a maggior ragione se inserite in un testo a prima vista plausibile, e perciò difficili da identificare.
Riga 25 ⟶ 31:
 
=== Punto di vista neutrale ===
Gli LLM producono testi che di solito appaiono [[Wikipedia:NPOVPunto di vista neutrale|neutrali]] nel tono, ma che potrebbero non esserlo nei contenuti.
Ad esempio potrebbepotrebbero essere stato dato undare [[Wikipedia:Punto di vista neutrale#Ingiusto rilievo|ingiusto rilievo]] a teorie e posizioniopinioni in realtà minoritarie, o potrebbepotrebbero darerestituire esiti che non rispettano le [[Wikipedia:BDVBiografie di persone viventi|linee guida in materia di biografie di viventi]].
 
=== Violazioni del diritto d'autore ===
Gli LLM possono generare contenuti in [[Wikipedia:Copyright|violazione del diritto d'autore]].
Gli LLM possono generare [[Wikipedia:Copyviol|violazioni del diritto d'autore]]. In alcuni casi possono citare letteralmente materiale coperto da diritto d'autore, o possono generare [[Aiuto:Riformulare un testo|parafrasi insufficienti]]. Ad esempio è probabile che nel caso in cui venga chiesto qual è il testo di una canzone, esso venga riprodotto, nonostante costituisca un copyviol. Se questo è un caso relativamente immediato, altre violazioni del diritto d'autore possono non essere segnalate e nascondersi in testi più lunghi. '''Bisogna quindi sempre controllare che il testo prodotto dagli LLM non sia stato copiato e/o sia stato riformulato a un livello sufficiente.'''
In alcuni casi possono riportare alla lettera materiale coperto da diritto d'autore o generare [[Aiuto:Riformulare un testo|parafrasi insufficienti]].
A titolo d'esempio, è probabile che qualora interrogato sul testo di un brano musicale, l'LLM lo riproduca, nonostante ciò sia una violazione di diritto d'autore.
Se quello citato è un caso di facile e immediata individuazione, altre violazioni del diritto d'autore possono non essere segnalate e nascondersi in testi più lunghi.
'''Bisogna quindi sempre controllare che il testo prodotto dagli LLM non sia stato copiato e/o sia stato riformulato a un livello sufficiente.'''
 
Tolti questi casi, la questione se i testi generati dagli LLM siano coperti o meno da [[copyright]] è aperta.
Tolti questi casi, la questione se i testi generati dagli LLM siano coperti o meno da [[copyright]] è aperta. A causa della novità della materia esistono ancora relativamente pochi casi, ma già stanno emergendo orientamenti diversi tra i vari paesi. Negli Stati Uniti lo US copyright office ha negato la possibilità di registrare un'opera generata da procedimenti totalmente automatici o casuali, ma ciò non vale per tutte le giurisdizioni. Nel Regno Unito ad esempio le opere create da processi totalmente automatizzati sono protette. L'autore è considerato "''the person by whom the arrangements necessary for the creation of the work are undertaken''" (traducibile come "l'autore dei preparativi necessari per la creazione dell'opera"). Se si risiede in un paese che riconosce il diritto d'autore anche sulle opere generate da macchine, è propria responsabilità evitare di pubblicare su Wikipedia tali contenuti.
Benché esistano in materia relativamente pochi casi per via della sua novità, ciononostante stanno emergendo orientamenti diversi a seconda degli ordinamenti giuridici.
Negli Stati Uniti, per esempio, [[United States Patent and Trademark Office|l'ufficio brevetti e marchi]] nega la possibilità di registrare opere generate da procedimenti totalmente automatici o casuali, laddove altresì nel Regno Unito ad esempio esse sono protette: infatti, in quest'ultimo caso, l'autore è considerato «[…] the person by whom the arrangements necessary for the creation of the work are undertaken» (traducibile come «[…] la persona che intraprende i preparativi necessari per la creazione dell'opera»).
Se si risiede in un Paese che protegge il diritto d'autore di opere generate da macchine, è propria responsabilità evitare di pubblicare su Wikipedia tali contenuti.
 
La questione se l'utilizzo di questi testi sia compatibile o meno con la [[Wikipedia:LicenzaCopyright|licenza CC-BY-SA usata da Wikipedia]] rimane aperta, inper quantomancanza nondi esistonoun ancoranumero sufficientisignificativo di precedenti legali.
Su [[Wikimedia Commons]] è accettatoammesso l'utilizzo del template di licenza [[:commons:Template:PD-algorithm|PD-Algorithm]] per le immagini generate da intelligenza artificiale.
 
== Usi ammessi e non ammessi ==
Gli LLM sono strumenti ausiliari eche non possono sostituire il ruolo umano.
Prima di impiegarli bisogna attentamente valutarne i potenziali rischi e ci si assumeassumersi la responsabilità di assicurarsi digarantirne un loro uso corretto che rispetti le linee guida di Wikipedia.
L'onere di controlli e sistemazioni non va mai scaricato sugli altri utenti.
 
Chi utilizza taligli strumentiLLM deve innanzitutto conoscere bene il modello che sta utilizzando ed essere pienamente consapevole dei rischi connessi al loro uso e dei limiti dello strumentistrumento.
Se nonsi seè neprivi ha unadi conoscenza approfondita del mezzo, o si hanno dubbi sul fattoritiene che l'uso che sise ne ha in mente non rispettirispetta le linee guida di Wikipedia, è bene evitare di utilizzarliutilizzarlo.
 
=== Scrittura di voci ===
'''Fare copia-e-incolla di nuovi contenuti originali creati da strumenti che fanno uso di intelligenza artificiale nelle voci di Wikipedia è un comportamento da evitare tassativamente'''. Analogamente vanno evitate traduzioni effettuate tramite tali strumenti, considerate alla stregua di traduzioni automatiche. Questi strumenti possono invece essere utilizzati per alcuni tipi di [[Aiuto:Lavoro sporco|lavoro sporco]], come ad esempio:
* la [[Aiuto:Manuale di stile|revisione stilistica]] e la correzione di un testo esistente (già presente su Wikipedia o creato dall'autore);
* la [[Aiuto:Riformulare un testo|riformulazione di un testo]];
* la creazione in una propria [[Aiuto:Sandbox|sandbox]] di una prima stesura di un contenuto non discorsivo e non originale, ad esempio per la creazione di lunghe [[Wikipedia:Liste|liste]] o tabelle in wikitesto.
Possono essere usati inoltre per suggerire idee per la scrittura di nuovi articoli o l'espansione di voci esistenti. Per le [[Wikipedia:Traduzioni|traduzioni]] l'uso di IA è equiparato agli strumenti di traduzione automatica: copia-e-incolla dalla versione tradotta dalla IA a wikipedia sono tassativamente da evitare, mentre è ammesso come ausilio preliminare alla traduzione, previo controllo finale. Nel caso in cui si traduca da un testo coperto da copyright, esso va in ogni caso riformulato in maniera sufficiente.
 
L'utente deve comunque sempre essere consapevole che gli LLM non danno garanzia di [[affidabilità]]:
Riga 50 ⟶ 68:
* qualora li si usino per correggere un testo o per revisioni stilistiche, potrebbero non rilevare errori grammaticali, non comprendere quanto scritto precedentemente, o modificarne il significato;
* qualora vengano usati per riformulare un testo, la riformulazione potrebbe essere insufficiente, o potrebbe essere stato alterato il significato originario;
* qualora li si usino per generare liste, queste ultime potrebbero essere errate.;
* qualora li si usino per tradurre, potrebbe cambiare il significato originario.
È possibile chiedere agli LLM di correggere i loro stessi testi, ma anche tali correzioni potrebbero essere errate e non sostituiscono in alcun caso la necessaria revisione umana. '''L'utente è in ogni caso il solo responsabile del fatto che le proprie modifiche siano corrette e rispettino le linee guida di Wikipedia''': l'autore deve quindi sempre valutare attentamente se il nuovo testo riformulato rispetti la verificabilità e la neutralità richieste alle voci dell'enciclopedia e che non sia stato modificato il significato del testo originale.
 
Riga 64 ⟶ 83:
I risultati ottenuti con strumenti di Intelligenza Artificiale inoltre '''non si possono usare''' o portare come dati di fatto o argomentazioni, sia pro che contro, nelle discussioni relative a rilevanza enciclopedica, [[Wikipedia:Pagine da cancellare|procedure di cancellazione]], [[Wikipedia:Riconoscimenti di qualità/Segnalazioni|valutazioni di qualità]], ricerca o attendibilità di fonti o dati, verifica di neutralità e così via.
 
=== Test e botstrumenti semiautomatici ===
L'utilizzo di [[Wikipedia:Uso di strumenti|strumenti semiautomatici]] manovrati da modelli di intelligenza artificiale non è mai ammesso. L'utilizzo di LLM per tali strumenti genera infatti molto facilmente falsi positivi ed errori, che, a causa dell'elevato numero di edit in questione, è estremamente difficile e dispendioso correggere.
 
Riga 80 ⟶ 99:
 
== Contromisure in caso di violazione ==
Qualsiasi contenuto generato da strumenti che fanno uso di intelligenza artificiale in violazione di questa o di altre linee guida di Wikipedia va eliminato. Voci interamente costituite da testi scritti da intelligenza artificiale in violazione di questa linea guida vengono [[Wikipedia:Cancellazioni immediate|cancellati in immediata]] per [[WP:C3|C3]]. La cancellazione può essere richiesta da qualsiasi utente attraverso l'apposizione del [[Template:cancella subito]].
 
Per avvisare un utente che abbia fatto un uso non consentito di strumenti di intelligenza artificiale si possono usare [[Template:AvvisoIA]] e [[Template:AvvisoIA sospetta]] (per i casi dubbi). L'uso reiterato degli strumenti di intelligenza artificiale in modo non conforme alle linee guida può portare al [[Wikipedia:Blocco|blocco in scrittura]] dell'utente o all'apertura di una [[Wikipedia:Utenti problematici|procedura di problematicità]].
 
=== Tool perCome identificare testi generati da intelligenza artificiale ===
Il metodo principale per identificare testi scritti da IA è verificare se vi siano allucinazioni, sia nel testo (es. informazioni non vere), sia nel rapporto tra fonti e testo (con fonti che non riportano le informazioni presenti nel testi che dovrebbero fontare). In aggiunta a questo metodo "analogico", esistono anche tool automatici. Va tenuto conto che questi tool hanno a loro volta vari livelli di affidabilità e potrebbero dare sia falsi positivi che falsi negativi. Ricorda quindi che i tool automatici sono a loro volta solo un ausilio, ma che non possono essere usati da soli per determinare se un testo sia frutto di IA o meno. Per determinarlo andrà quindi sempre fatto un controllo umano, valutando elementi come la presenza di allucinazioni, la concordanza tra testo e fonti e lo stile del testo.
 
* [https://www.zerogpt.com ZeroGPT]
* [https://github.com/ahans30/Binoculars Binoculars]
* [https://copyleaks.com/ai-content-detector AI Detector By Copyleaks]
 
== Note ==