Wikipedia:Intelligenza Artificiale

Per "strumenti che fanno uso di Intelligenza Artificiale" in questa linea guida si intendono i modelli linguistici di grandi dimensioni (in inglese Large Language Models, LLM) e i generatori di immagini.

Tra gli usi più diffusi dei modelli linguistici di grandi dimensioni vi sono ad esempio i chatbot generati da intelligenza artificiale generativa (come ChatGPT, Gemini, Deepseek, ecc). Questi strumenti, nelle parole di Michael Osborne, professore di apprendimento automatico all'Università di Oxford, hanno una "affidabilità, abilità di comprensione e autonomia limitate, e necessitano perciò di una supervisione umana".[1]

Gli LLM possono generare ricerche originali, ossia affermazioni non presenti su alcuna fonte attendibile, o, nei casi peggiori, "allucinazioni", ossia fatti inventati e non corrispondenti al vero, talvolta accompagnati da fonti falsificate o inesistenti. Possono inoltre generare risposte non neutrali o che non rispettano le linee guida sulle biografie dei viventi, o che violano il diritto d'autore. Per questo motivo l'uso dell'intelligenza artificiale su wikipedia è strettamente limitato a casistiche specifiche delineate da questa linea guida e non ne è ammesso l'utilizzo per la creazione da zero di nuovi contenuti originali. Gli utenti che non siano pienamente consapevoli dei rischi e dei limiti di questi strumenti dovrebbero evitarne completamente l'utilizzo.

L'utilizzo di LLM o di altri strumenti che facciano uso di intelligenza artificiale va sempre segnalato in modo trasparente nell'oggetto della modifica e nella pagina di discussione della voce. È inoltre da evitare l'uso di LLM nelle interazioni con gli altri utenti, ad esempio per scrivere gli interventi in pagine di discussione, o lo svolgimento di test per sperimentare sull'enciclopedia strumenti di intelligenza artificiale.

Raccomandazioni analoghe valgono anche per i generatori di immagini, che possono generare immagini con dettagli errati, inesistenti o assurdi.

Principali rischi

modifica

Ricerche originali e allucinazioni

modifica

Gli LLM sono programmi di pattern completion. In altre parole, generano un testo inserendo le parole che più facilmente vengono inserite dopo le precedenti. Questi schemi vengono "appresi" dai testi che vengono utilizzati per allenare gli LLM. Tra di essi vi sono testi disponibili su internet di ogni tipo, tra cui testi di narrativa o di fantasia, o anche fonti poco o scarsamente attendibili, come blog o forum. Per questo motivo gli LLM a volte traggono conclusioni che, anche se possono sembrare in apparenza sensate, non sono in realtà presenti su alcuna fonte attendibile. In altri casi infine possono inventarsi cose dal nulla, creando le cosiddette "allucinazioni". Queste sono statisticamente ineliminabili. Inserire questi testi su wikipedia significa quindi inserire ricerche originali o, nel peggiore dei casi, vere e proprie bufale.

Identificare tali problemi è spesso complicato. I testi generati spesso sembrano a prima vista plausibili, e sono scritti in un tono sicuro. Spesso inoltre informazioni inventate sono inserite in mezzo ad altre informazioni vere, ragione per cui possono sfuggire facilmente a controlli superficiali. La presenza di tali problemi è tuttavia molto probabile e, anche nel caso in cui la gran parte del testo sia corretta e solo poche righe siano errate, per Wikipedia la presenza di tali parti non è accettabile, a maggior ragione se inserite in un testo a prima vista plausibile, e perciò difficili da identificare.

La qualità dei testi generati da LLM peggiora quando vengono poste loro domande su argomenti poco noti o complessi, o che richiedono vaste conoscenze e capacità analitiche. Ad esempio, alla domanda se i pademelon dai grandi denti si possano trovare nelle foreste del Queensland, gli LLM risponderanno che "Questi animali sono più difficili da osservare rispetto ad altre specie più comuni di marsupiali, ma possono essere trovati in alcune riserve naturali del Queensland", continuando poi a fornire molti dettagli al riguardo, nonostante tale specie sia inesistente. Il LLM per rispondere ha infatti preso le informazioni relative al padelemon dal collo rosso.

Uso delle fonti da parte degli LLM

modifica

Gli LLM non rispettano le linee guida di wikipedia in materia di citazione delle fonti e di verificabilità del contenuto. Buona parte di essi le esclude in toto producendo testi totalmente senza fonti. Quelli che le includono possono citare fonti non considerate attendibili su wikipedia, come blog, siti personali, o siti liberamente modificabili (come wikipedia stessa), e talvolta possono creare allucinazioni di fonti inesistenti, di cui inventano titoli, autori o indirizzi web.

Punto di vista neutrale

modifica

Gli LLM producono testi che di solito risultano neutrali nel tono, ma che potrebbero non esserlo nei contenuti. Ad esempio potrebbe essere stato dato un ingiusto rilievo a teorie e posizioni in realtà minoritarie, o potrebbe dare esiti che non rispettano le linee guida in materia di biografie di viventi.

Violazioni del diritto d'autore

modifica

Gli LLM possono generare violazioni del diritto d'autore. In alcuni casi possono citare letteralmente materiale coperto da diritto d'autore, o possono generare parafrasi insufficienti. Ad esempio è probabile che nel caso in cui venga chiesto qual è il testo di una canzone, esso venga riprodotto, nonostante costituisca un copyviol. Se questo è un caso relativamente immediato, altre violazioni del diritto d'autore possono non essere segnalate e nascondersi in testi più lunghi. Bisogna quindi sempre controllare che il testo prodotto dagli LLM non sia stato copiato e/o sia stato riformulato a un livello sufficiente.

Tolti questi casi, la questione se i testi generati dagli LLM siano coperti o meno da copyright è aperta. A causa della novità della materia esistono ancora relativamente pochi casi, ma già stanno emergendo orientamenti diversi tra i vari paesi. Negli Stati Uniti lo US copyright office ha negato la possibilità di registrare un'opera generata da procedimenti totalmente automatici o casuali, ma ciò non vale per tutte le giurisdizioni. Nel Regno Unito ad esempio le opere create da processi totalmente automatizzati sono protette. L'autore è considerato "the person by whom the arrangements necessary for the creation of the work are undertaken" (traducibile come "l'autore dei preparativi necessari per la creazione dell'opera"). Se si risiede in un paese che riconosce il diritto d'autore anche sulle opere generate da macchine, è propria responsabilità evitare di pubblicare su Wikipedia tali contenuti.

La questione se l'utilizzo di questi testi sia compatibile con la licenza CC-BY-SA usata da Wikipedia rimane aperta, in quanto non esistono ancora sufficienti precedenti legali. Su Wikimedia Commons è accettato l'utilizzo del template di licenza commons:Template:PD-algorithm per le immagini generate da intelligenza artificiale.

Usi ammessi e non ammessi

modifica

Gli LLM sono strumenti ausiliari e non possono sostituire il ruolo umano. Prima di utilizzarli bisogna attentamente valutarne i potenziali rischi e ci si assume la responsabilità di assicurarsi di un loro utilizzo corretto che rispetti le linee guida di Wikipedia. L'onere di controlli e sistemazioni non va mai scaricato sugli altri utenti.

Chi utilizza tali strumenti deve innanzitutto conoscere bene il modello che sta utilizzando ed essere pienamente consapevole dei rischi connessi al loro uso e dei limiti dello strumenti. Se hai dubbi sul fatto che l'uso che hai in mente rispetti le linee guida di Wikipedia e non hai una conoscenza approfondita, evita di utilizzarli.

Gli utenti che dovessero ripetutamente utilizzare tali strumenti in un modo non conforme alle linee guida di Wikipedia, potrebbero essere bloccati in scrittura o sottoposti a procedure di problematicità.

Scrittura di articoli

modifica

Fare copia-e-incolla di nuovi contenuti originali creati da strumenti che fanno uso di intelligenza artificiale nelle voci di Wikipedia è un comportamento da evitare tassativamente. Analogamente vanno evitate traduzioni effettuate tramite tali strumenti, considerate alla stregua di traduzioni automatiche. Questi strumenti possono invece essere utilizzati per revisionare stilisticamente un testo esistente (già presente su Wikipedia o creato dall'autore) o per suggerire idee per la scrittura di nuovi articoli o l'espansione di voci esistenti. Possono essere usati inoltre per creare nella propria sandbox una prima stesura di un contenuto non discorsivo e non originale, ad esempio per la creazione di lunghe liste o tabelle in wikitesto.

L'utente deve comunque sempre essere consapevole che gli LLM non danno garanzia di affidabilità. Qualora li si usino per fornire suggerimenti, bisogna tenere a mente che essi potrebbero essere errati. Qualora li si usino per revisioni stilistiche, bisogna ricordarsi che potrebbero non rilevare errori grammaticali, non comprendere quanto scritto precedentemente, o modificarne il significato. Qualora li si usino per generare liste, queste ultime potrebbero essere errate. È possibile chiedere agli LLM di correggere i loro stessi testi, ma anche tali correzioni potrebbero essere errate e non sostituiscono in alcun caso la necessaria revisione umana. L'utente è in ogni caso il solo responsabile del fatto che le proprie modifiche siano corrette e rispettino le linee guida di Wikipedia: l'autore deve quindi sempre valutare attentamente se il nuovo testo riformulato rispetti la verificabilità e la neutralità richieste alle voci dell'enciclopedia e che le modifiche siano soltanto stilistiche e non sia stato modificato il significato del testo preesistente.

Nuovi testi generati da zero da tali strumenti non vanno inseriti nemmeno nel namespace bozza. Le bozze nascono come spazio in cui migliorare in modo collaborativo gli articoli per arrivare alla pubblicazione, ma la sistemazione di testi generati da zero da intelligenza artificiale non rientra negli obiettivi del namespace.

L'utilizzo di strumenti che facciano uso di Intelligenza Artificiale va sempre dichiarato nel campo oggetto della modifica e nella pagina di discussione della voce modificata.

Comunicazioni

modifica

L'utilizzo di LLM per comunicare con gli altri utenti va evitato. La capacità di comunicare con gli altri utenti rientra tra le competenze minime richieste per la redazione dell'enciclopedia ed è centrale nel meccanismo della scrittura sulla base del consenso. Per questo motivo commenti che non rispecchiano ciò che un utente realmente pensa costituiscono soltanto un elemento di disturbo nella discussione e sono assimilabili al trolling. È ammesso l'uso di tali strumenti per riformulare propri interventi.

Test e bot

modifica

L'utilizzo di bot manovrati da modelli di intelligenza artificiale non è mai ammesso. Lo stesso discorso vale per tutti gli strumenti semiautomatici. L'utilizzo di LLM per tali strumenti genera infatti molto facilmente falsi positivi ed errori, che, a causa dell'elevato numero di edit in questione, è estremamente difficile e dispendioso correggere.

Wikipedia non è un banco di prova per lo sviluppo di strumenti di intelligenza artificiale: le modifiche effettuate devono essere finalizzate alla sola crescita dell'enciclopedia. Vanno evitate quindi modifiche effettuate in Ns0 allo scopo di testare questi sistemi. Eventuali test che abbiano come obiettivo il miglioramento dell'enciclopedia andranno svolti in sandbox.

Fonti prodotte da intelligenza artificiale

modifica

Le fonti che facciano uso di testi prodotti da LLM non sono considerate attendibili e il loro utilizzo su Wikipedia va evitato.

Immagini prodotte da intelligenza artificiale

modifica

Le immagini andrebbero sempre caricate su Wikimedia Commons, il regolamento relativo alle immagini generate da AI si trova in Commons:AI-generated media. Nel caso in cui sia necessario caricare l'immagine localmente, utilizzare {{PD-Requisiti|commons=no}}. L'AI deve figurare come autore dell'opera, indicare anche l'utente che ha fornito all'AI le istruzioni.

L'utilizzo di immagini prodotte da intelligenza artificiale va evitato, in quanto, come per i testi, sono sottoposte al rischio di allucinazioni o di altre alterazioni. È permesso il loro utilizzo in quanto immagini prodotte da intelligenza artificiale negli articoli relativi a tali argomenti. Tali immagini non dovranno in ogni caso raffigurare persone viventi.

Tutte le immagini generate o modificate da intelligenza artificiale vanno segnalate con gli appositi template e la loro origine va segnalata nella didascalia.

Contromisure in caso di violazione

modifica

Qualsiasi testo generato da LLM e introdotto in violazione di questa o di altre linee guida va eliminato.

Tool per identificare testi generati da intelligenza artificiale

modifica
  1. ^ (EN) Adam Smith, What is ChatGPT? And will it steal our jobs? | Context by TRF, su www.context.news. URL consultato il 18 aprile 2025.