Wikipedia:Intelligenza artificiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
testuale, l'enfasi è del parlante, altrimenti sembra limitata solo la prima
 
(14 versioni intermedie di 4 utenti non mostrate)
Riga 4:
 
Tra le applicazioni più diffuse dei modelli linguistici di grandi dimensioni figurano, per esempio, i [[chat bot]] frutto di [[intelligenza artificiale generativa]] (come [[ChatGPT]], [[Gemini (chat bot)|Gemini]], [[DeepSeek|Deepseek]], ecc).
Secondo Michael Osborne, professore di [[apprendimento automatico]] a [[Università di Oxford|Oxford]], tali strumenti sono caratterizzati da «limitate affidabilità limitata, abilità di comprensione edlimitata, autonomia limitata, e necessitano quindi di supervisione umana»<ref>{{Cita web | lingua = en | autore = Adam Smith | url = https://www.context.news/ai/what-is-chatgpt-and-will-it-steal-our-jobs | titolo = What is ChatGPT? And will it steal our jobs? | accesso = 2025-04-18 | data = 2023-02-07 | editore = Thomson Reuters Foundation | citazione = Large language models have limited reliability, limited understanding, limited range, and hence need human supervision }}</ref>.
Gli LLM possono generare [[Wikipedia:Niente ricerche originali|ricerche originali]], vale a dire affermazioni non presenti su alcuna fonte attendibile, o, nei casi peggiori, "[[Allucinazione (intelligenza artificiale)|allucinazioni]]", ovverosia fatti inventati e non corrispondenti al vero, talora corredati da fonti falsificate o inesistenti.
Gli LLM potrebbero inoltre generare affermazioni e risposte [[:Wikipedia:Punto di vista neutrale|non neutrali]] e/o in violazione delle [[:Wikipedia:Biografie di persone viventi|linee guida sulle biografie di persone viventi]] o di quelle sul [[WP:Copyright|diritto d'autore]].
Riga 35:
 
=== Violazioni del diritto d'autore ===
Gli LLM possono generare contenuti in [[Wikipedia:Copyright|violazione del diritto d'autore]].
Gli LLM possono generare [[Wikipedia:Copyviol|violazioni del diritto d'autore]]. In alcuni casi possono citare letteralmente materiale coperto da diritto d'autore, o possono generare [[Aiuto:Riformulare un testo|parafrasi insufficienti]]. Ad esempio è probabile che nel caso in cui venga chiesto qual è il testo di una canzone, esso venga riprodotto, nonostante costituisca un copyviol. Se questo è un caso relativamente immediato, altre violazioni del diritto d'autore possono non essere segnalate e nascondersi in testi più lunghi. '''Bisogna quindi sempre controllare che il testo prodotto dagli LLM non sia stato copiato e/o sia stato riformulato a un livello sufficiente.'''
In alcuni casi possono riportare alla lettera materiale coperto da diritto d'autore o generare [[Aiuto:Riformulare un testo|parafrasi insufficienti]].
A titolo d'esempio, è probabile che qualora interrogato sul testo di un brano musicale, l'LLM lo riproduca, nonostante ciò sia una violazione di diritto d'autore.
Se quello citato è un caso di facile e immediata individuazione, altre violazioni del diritto d'autore possono non essere segnalate e nascondersi in testi più lunghi.
'''Bisogna quindi sempre controllare che il testo prodotto dagli LLM non sia stato copiato e/o sia stato riformulato a un livello sufficiente.'''
 
Tolti questi casi, la questione se i testi generati dagli LLM siano coperti o meno da [[copyright]] è aperta.
Tolti questi casi, la questione se i testi generati dagli LLM siano coperti o meno da [[copyright]] è aperta. A causa della novità della materia esistono ancora relativamente pochi casi, ma già stanno emergendo orientamenti diversi tra i vari paesi. Negli Stati Uniti lo US copyright office ha negato la possibilità di registrare un'opera generata da procedimenti totalmente automatici o casuali, ma ciò non vale per tutte le giurisdizioni. Nel Regno Unito ad esempio le opere create da processi totalmente automatizzati sono protette. L'autore è considerato "''the person by whom the arrangements necessary for the creation of the work are undertaken''" (traducibile come "l'autore dei preparativi necessari per la creazione dell'opera"). Se si risiede in un paese che riconosce il diritto d'autore anche sulle opere generate da macchine, è propria responsabilità evitare di pubblicare su Wikipedia tali contenuti.
Benché esistano in materia relativamente pochi casi per via della sua novità, ciononostante stanno emergendo orientamenti diversi a seconda degli ordinamenti giuridici.
Negli Stati Uniti, per esempio, [[United States Patent and Trademark Office|l'ufficio brevetti e marchi]] nega la possibilità di registrare opere generate da procedimenti totalmente automatici o casuali, laddove altresì nel Regno Unito ad esempio esse sono protette: infatti, in quest'ultimo caso, l'autore è considerato «[…] the person by whom the arrangements necessary for the creation of the work are undertaken» (traducibile come «[…] la persona che intraprende i preparativi necessari per la creazione dell'opera»).
Se si risiede in un Paese che protegge il diritto d'autore di opere generate da macchine, è propria responsabilità evitare di pubblicare su Wikipedia tali contenuti.
 
La questione se l'utilizzo di questi testi sia compatibile o meno con la [[Wikipedia:LicenzaCopyright|licenza CC-BY-SA usata da Wikipedia]] rimane aperta, inper quantomancanza nondi esistonoun ancoranumero sufficientisignificativo di precedenti legali.
Su [[Wikimedia Commons]] è accettatoammesso l'utilizzo del template di licenza [[:commons:Template:PD-algorithm|PD-Algorithm]] per le immagini generate da intelligenza artificiale.
 
== Usi ammessi e non ammessi ==
Gli LLM sono strumenti ausiliari eche non possono sostituire il ruolo umano.
Prima di impiegarli bisogna attentamente valutarne i potenziali rischi e ci si assumeassumersi la responsabilità di assicurarsi digarantirne un loro uso corretto che rispetti le linee guida di Wikipedia.
L'onere di controlli e sistemazioni non va mai scaricato sugli altri utenti.
 
Chi utilizza taligli strumentiLLM deve innanzitutto conoscere bene il modello che sta utilizzando ed essere pienamente consapevole dei rischi connessi al loro uso e dei limiti dello strumentistrumento.
Se nonsi seè neprivi ha unadi conoscenza approfondita del mezzo, o si hanno dubbi sul fattoritiene che l'uso che sise ne ha in mente non rispettirispetta le linee guida di Wikipedia, è bene evitare di utilizzarliutilizzarlo.
 
=== Scrittura di voci ===
Riga 51 ⟶ 62:
* la [[Aiuto:Riformulare un testo|riformulazione di un testo]];
* la creazione in una propria [[Aiuto:Sandbox|sandbox]] di una prima stesura di un contenuto non discorsivo e non originale, ad esempio per la creazione di lunghe [[Wikipedia:Liste|liste]] o tabelle in wikitesto.
Possono essere usati inoltre per suggerire idee per la scrittura di nuovi articoli o l'espansione di voci esistenti. Per le [[Wikipedia:Traduzioni|traduzioni]] l'uso di IA è equiparato agli strumenti di traduzione automatica: copia-e-incolla dalla versione tradotta dalla IA a wikipedia sono tassativamente da evitare, mentre è ammesso come ausilio preliminare alla traduzione, previo controllo finale. Nel caso in cui si traduca da un testo coperto da copyright, esso va in ogni caso riformulato in maniera sufficiente.
 
L'utente deve comunque sempre essere consapevole che gli LLM non danno garanzia di [[affidabilità]]:
Riga 88 ⟶ 99:
 
== Contromisure in caso di violazione ==
Qualsiasi contenuto generato da strumenti che fanno uso di intelligenza artificiale in violazione di questa o di altre linee guida di Wikipedia va eliminato. Voci interamente costituite da testi scritti da intelligenza artificiale in violazione di questa linea guida vengono [[Wikipedia:Cancellazioni immediate|cancellati in immediata]] per [[WP:C3|C3]]. La cancellazione può essere richiesta da qualsiasi utente attraverso l'apposizione del [[Template:cancella subito]].
 
Per avvisare un utente che abbia fatto un uso non consentito di strumenti di intelligenza artificiale si possono usare [[Template:AvvisoIA]] e [[Template:AvvisoIA sospetta]] (per i casi dubbi). L'uso reiterato degli strumenti di intelligenza artificiale in modo non conforme alle linee guida può portare al [[Wikipedia:Blocco|blocco in scrittura]] dell'utente o all'apertura di una [[Wikipedia:Utenti problematici|procedura di problematicità]].
 
=== Tool perCome identificare testi generati da intelligenza artificiale ===
PerIl identificaremetodo iprincipale per identificare testi generatiscritti da intelligenzaIA artificialeè verificare se vi siano allucinazioni, sia nel testo (es. informazioni non vere), sia nel rapporto tra fonti e testo (con fonti che non riportano le informazioni presenti nel testi che dovrebbero fontare). In aggiunta a questo metodo "analogico", esistono anche tool automatici. TieniVa tenuto conto che questi tool hanno a loro volta vari livelli di affidabilità e potrebbero dare sia falsi positivi. Inche tuttifalsi inegativi. casiRicorda oltrequindi alche i tool vaautomatici fattosono semprea ancheloro unvolta controllosolo umanoun ausilio, perma esempioche valutandonon lopossono stileessere ousati seda lesoli fontiper riportatedeterminare nellase voceun che si sospettatesto sia scrittafrutto dadi IA fontinoo effettivamente quanto riportato nel testomeno. NelPer casodeterminarlo inandrà cuiquindi lesempre fontifatto riportinoun cosecontrollo cheumano, nonvalutando c'entranoelementi colcome testola chepresenza dovrebberodi fontareallucinazioni, allorala èconcordanza probabiletra chetesto sie siafonti effettivamentee dilo frontestile a undel testo scritto da IA.
* [https://github.com/ahans30/Binoculars Binoculars]
* [https://copyleaks.com/ai-content-detector AI Detector By Copyleaks]
 
== Note ==