ChatGPT: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Migliorato l'introduzione
Bias e limitazioni: Eliminato la sezione sia perché è quasi identica a quella presente in Modello linguistico di grandi dimensioni#Bias e limitazioni sia perché si riferisce quasi nella sua interezza ai modelli linguistici di grandi dimensioni in generale
Riga 23:
 
A maggio 2023 OpenAI annuncia ChatGPT disponibile per [[iOS]] sull'[[App Store]], a luglio 2023 OpenAI rende disponibile ChatGPT per la versione Android sul [[Play Store]].
 
== Bias e limitazioni ==
I pregiudizi e i limiti di ChatGPT sono una ricerca in corso nel campo dell'elaborazione del linguaggio naturale (PNL). Lo studio e la mitigazione di questi pregiudizi e limitazioni sono cruciali per lo sviluppo etico e l’applicazione dell’IA in diversi ambiti sociali e professionali.
 
=== Bias linguistici ===
Il bias linguistico si riferisce a un tipo di bias di campionamento statistico legato alla lingua di una query che porta a "una deviazione sistematica nel campionamento delle informazioni che impedisce di rappresentare accuratamente la vera copertura degli argomenti e dei punti di vista disponibili nel loro archivio".<ref name=":4" /> Luo et al.<ref name=":4" /> mostrano che gli attuali modelli linguistici di grandi dimensioni, poiché sono formati prevalentemente su dati in lingua inglese, spesso presentano le opinioni anglo-americane come verità, mentre minimizzano sistematicamente le prospettive non inglesi come irrilevanti, sbagliate o rumorose. Interrogato su ideologie politiche come "Cos'è il liberalismo?", ChatGPT, poiché è stato formato su dati incentrati sull'inglese, descrive il liberalismo dalla prospettiva anglo-americana, enfatizzando aspetti dei diritti umani e dell'uguaglianza, mentre aspetti altrettanto validi come "si oppone allo stato Sono assenti l’intervento nella vita personale ed economica” dal punto di vista dominante vietnamita e la “limitazione del potere governativo” dal punto di vista prevalente cinese. Allo stesso modo, altre prospettive politiche incorporate nei corpora italiani, francesi, spagnoli e tedeschi sono assenti nelle risposte di ChatGPT. ChatGPT, presentato come Chatbot multilingue, in realtà è per lo più "cieco" alle prospettive non inglesi.<ref name=":4" />
 
=== Bias genere ===
Il bias genere si riferisce alla tendenza di questi modelli a produrre risultati che sono ingiustamente pregiudizievoli verso un genere rispetto a un altro. Questo pregiudizio deriva tipicamente dai dati su cui vengono addestrati questi modelli. Ad esempio, i modelli linguistici di grandi dimensioni spesso assegnano ruoli e caratteristiche in base alle norme di genere tradizionali; potrebbe associare infermieri o segretarie prevalentemente a donne e ingegneri o amministratori delegati a uomini.<ref name=":5" />
 
=== Stereotipi ===
Al di là del genere e della razza, questi modelli possono rafforzare un’ampia gamma di stereotipi, compresi quelli basati sull’età, sulla nazionalità, sulla religione o sull’occupazione. Ciò può portare a risultati che generalizzano ingiustamente o caricaturano gruppi di persone, a volte in modi dannosi o dispregiativi.<ref>{{Cita pubblicazione|nome=Fatma|cognome=Elsafoury|nome2=Steve R.|cognome2=Wilson|nome3=Stamos|cognome3=Katsigiannis|data=2022-10|titolo=SOS: Systematic Offensive Stereotyping Bias in Word Embeddings|rivista=Proceedings of the 29th International Conference on Computational Linguistics|editore=International Committee on Computational Linguistics|curatore=Nicoletta Calzolari, Chu-Ren Huang, Hansaem Kim, James Pustejovsky, Leo Wanner, Key-Sun Choi, Pum-Mo Ryu, Hsin-Hsi Chen, Lucia Donatelli, Heng Ji, Sadao Kurohashi, Patrizia Paggio, Nianwen Xue, Seokhwan Kim, Younggyun Hahm, Zhong He, Tony Kyungil Lee, Enrico Santus, Francis Bond, Seung-Hoon Na|pp=1263–1274|accesso=2023-12-26|url=https://aclanthology.org/2022.coling-1.108}}</ref>
 
=== Bias politico ===
Il bias politico si riferisce alla tendenza degli algoritmi a favorire sistematicamente determinati punti di vista, ideologie o risultati politici rispetto ad altri. I modelli linguistici possono anche mostrare pregiudizi politici. Poiché i dati di addestramento includono un’ampia gamma di opinioni e coperture politiche, i modelli potrebbero generare risposte che si orientano verso particolari ideologie o punti di vista politici, a seconda della prevalenza di tali opinioni nei dati.<ref>{{Cita pubblicazione|nome=Karen|cognome=Zhou|nome2=Chenhao|cognome2=Tan|data=2023-12|titolo=Entity-Based Evaluation of Political Bias in Automatic Summarization|rivista=Findings of the Association for Computational Linguistics: EMNLP 2023|editore=Association for Computational Linguistics|curatore=Houda Bouamor, Juan Pino, Kalika Bali|pp=10374–10386|accesso=2023-12-26|doi=10.18653/v1/2023.findings-emnlp.696|url=https://aclanthology.org/2023.findings-emnlp.696}}</ref>
 
== Tecnologia basata sui trasformatori ==