ChatGPT: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 15:
}}
 
'''ChatGPT''' (acronimo di ''Chat Generative Pre-trained Transformer'') è un ''[[Chat bot|chatbot]]'' basato su [[intelligenza artificiale]] e [[apprendimento automatico]] sviluppato da [[OpenAI]] specializzato nella conversazione con un utente umano<ref name=":2">{{Cita libro|autore=David Franklin|autore2=ChatGPT|titolo=The Chatbot Revolution: ChatGPT: An In-Depth Exploration|lingua=en|url=https://www.amazon.it/Chatbot-Revolution-ChatGPT-Depth-Exploration/dp/B0BQG3HBX2|annooriginale=2023|ISBN=979-8370255281|accesso=10 marzo 2023|urlarchivio=https://web.archive.org/web/20230102085915/https://www.amazon.it/Chatbot-Revolution-ChatGPT-Depth-Exploration/dp/B0BQG3HBX2|urlmorto=no}}</ref><ref>{{Cita web|url=https://www.ilpost.it/2022/12/06/chatgpt-open-ai-intelligenza-artificiale/|titolo=È arrivato un “chatbot” diverso da tutti gli altri|sito=Il Post|data=6 dicembre 2022|lingua=it|accesso=18 febbraio 2023|urlarchivio=https://web.archive.org/web/20230218224335/https://www.ilpost.it/2022/12/06/chatgpt-open-ai-intelligenza-artificiale/|urlmorto=no}}</ref>. La sigla GPT sta per ''Generative Pre-trained Transformer''<ref>{{Cita web|url=https://www.digitaldictionary.it/blog/introduzione-chatgpt|titolo=Introduzione a Chat GPT: cos'è, vantaggi e casi studio|autore=Pierfilippo Pierucci|sito=www.digitaldictionary.it|lingua=it|accesso=2023-11-27}}</ref>, ovvero "[[Trasformatore (informatica)|trasformatore]] generativo pre-addestrato". Sebbene ChatGPT abbia mostrato notevoli capacità nel generare testo simile a quello umano, è suscettibile di ereditare e amplificare i pregiudizi presenti nei loro dati di addestramento. Ciò può manifestarsi in rappresentazioni distorte o in un trattamento ingiusto di diversi dati demografici, come quelli basati su razza,<ref>{{Cita pubblicazione|nome=Thomas|cognome=Davidson|nome2=Debasmita|cognome2=Bhattacharya|nome3=Ingmar|cognome3=Weber|data=2019-08|titolo=Racial Bias in Hate Speech and Abusive Language Detection Datasets|rivista=Proceedings of the Third Workshop on Abusive Language Online|editore=Association for Computational Linguistics|curatore=Sarah T. Roberts, Joel Tetreault, Vinodkumar Prabhakaran, Zeerak Waseem|pp=25–35|accesso=2023-12-26|doi=10.18653/v1/W19-3504|url=https://aclanthology.org/W19-3504}}</ref> genere,<ref name=":5">{{Cita pubblicazione|nome=Hadas|cognome=Kotek|nome2=Rikker|cognome2=Dockum|nome3=David|cognome3=Sun|data=2023-11-05|titolo=Gender bias and stereotypes in Large Language Models|rivista=Proceedings of The ACM Collective Intelligence Conference|editore=Association for Computing Machinery|pp=12–24|accesso=2023-12-25|doi=10.1145/3582269.3615599|url=https://dl.acm.org/doi/10.1145/3582269.3615599}}</ref> lingua<ref name=":4">{{Cita pubblicazione|autore=Queenie Luo|autore2=Michael J. Puett|autore3=Michael D. Smith|titolo=A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube|rivista=arXiv|url=https://arxiv.org/abs/2303.16281}}</ref> e gruppi culturali.<ref name=":4" /> Inoltre, questi modelli spesso presentano limitazioni in termini di accuratezza fattuale.<ref>{{Cita pubblicazione|nome=Jan|cognome=Kocoń|nome2=Igor|cognome2=Cichecki|nome3=Oliwier|cognome3=Kaszyca|data=2023-11-01|titolo=ChatGPT: Jack of all trades, master of none|rivista=Information Fusion|volume=99|pp=101861|accesso=2023-12-26|doi=10.1016/j.inffus.2023.101861|url=https://www.sciencedirect.com/science/article/pii/S156625352300177X}}</ref>
 
== Descrizione ==
Riga 23:
 
A maggio 2023 OpenAI annuncia ChatGPT disponibile per [[iOS]] sull'[[App Store]], a luglio 2023 OpenAI rende disponibile ChatGPT per la versione Android sul [[Play Store]].
 
== Bias e limitazioni ==
I pregiudizi e i limiti di ChatGPT sono una ricerca in corso nel campo dell'elaborazione del linguaggio naturale (PNL). Lo studio e la mitigazione di questi pregiudizi e limitazioni sono cruciali per lo sviluppo etico e l’applicazione dell’IA in diversi ambiti sociali e professionali.
 
=== Bias linguistici ===
Il bias linguistico si riferisce a un tipo di bias di campionamento statistico legato alla lingua di una query che porta a "una deviazione sistematica nel campionamento delle informazioni che impedisce di rappresentare accuratamente la vera copertura degli argomenti e dei punti di vista disponibili nel loro archivio".<ref name=":4" /> Luo et al.<ref name=":4" /> mostrano che gli attuali modelli linguistici di grandi dimensioni, poiché sono formati prevalentemente su dati in lingua inglese, spesso presentano le opinioni anglo-americane come verità, mentre minimizzano sistematicamente le prospettive non inglesi come irrilevanti, sbagliate o rumorose. Interrogato su ideologie politiche come "Cos'è il liberalismo?", ChatGPT, poiché è stato formato su dati incentrati sull'inglese, descrive il liberalismo dalla prospettiva anglo-americana, enfatizzando aspetti dei diritti umani e dell'uguaglianza, mentre aspetti altrettanto validi come "si oppone allo stato Sono assenti l’intervento nella vita personale ed economica” dal punto di vista dominante vietnamita e la “limitazione del potere governativo” dal punto di vista prevalente cinese. Allo stesso modo, altre prospettive politiche incorporate nei corpora italiani, francesi, spagnoli e tedeschi sono assenti nelle risposte di ChatGPT. ChatGPT, presentato come Chatbot multilingue, in realtà è per lo più "cieco" alle prospettive non inglesi.<ref name=":4" />
 
=== Bias genere ===
Il bias genere si riferisce alla tendenza di questi modelli a produrre risultati che sono ingiustamente pregiudizievoli verso un genere rispetto a un altro. Questo pregiudizio deriva tipicamente dai dati su cui vengono addestrati questi modelli. Ad esempio, i modelli linguistici di grandi dimensioni spesso assegnano ruoli e caratteristiche in base alle norme di genere tradizionali; potrebbe associare infermieri o segretarie prevalentemente a donne e ingegneri o amministratori delegati a uomini.<ref name=":5" />
 
=== Stereotipi ===
Al di là del genere e della razza, questi modelli possono rafforzare un’ampia gamma di stereotipi, compresi quelli basati sull’età, sulla nazionalità, sulla religione o sull’occupazione. Ciò può portare a risultati che generalizzano ingiustamente o caricaturano gruppi di persone, a volte in modi dannosi o dispregiativi.<ref>{{Cita pubblicazione|nome=Fatma|cognome=Elsafoury|nome2=Steve R.|cognome2=Wilson|nome3=Stamos|cognome3=Katsigiannis|data=2022-10|titolo=SOS: Systematic Offensive Stereotyping Bias in Word Embeddings|rivista=Proceedings of the 29th International Conference on Computational Linguistics|editore=International Committee on Computational Linguistics|curatore=Nicoletta Calzolari, Chu-Ren Huang, Hansaem Kim, James Pustejovsky, Leo Wanner, Key-Sun Choi, Pum-Mo Ryu, Hsin-Hsi Chen, Lucia Donatelli, Heng Ji, Sadao Kurohashi, Patrizia Paggio, Nianwen Xue, Seokhwan Kim, Younggyun Hahm, Zhong He, Tony Kyungil Lee, Enrico Santus, Francis Bond, Seung-Hoon Na|pp=1263–1274|accesso=2023-12-26|url=https://aclanthology.org/2022.coling-1.108}}</ref>
 
=== Bias politico ===
Il bias politico si riferisce alla tendenza degli algoritmi a favorire sistematicamente determinati punti di vista, ideologie o risultati politici rispetto ad altri. I modelli linguistici possono anche mostrare pregiudizi politici. Poiché i dati di addestramento includono un’ampia gamma di opinioni e coperture politiche, i modelli potrebbero generare risposte che si orientano verso particolari ideologie o punti di vista politici, a seconda della prevalenza di tali opinioni nei dati.<ref>{{Cita pubblicazione|nome=Karen|cognome=Zhou|nome2=Chenhao|cognome2=Tan|data=2023-12|titolo=Entity-Based Evaluation of Political Bias in Automatic Summarization|rivista=Findings of the Association for Computational Linguistics: EMNLP 2023|editore=Association for Computational Linguistics|curatore=Houda Bouamor, Juan Pino, Kalika Bali|pp=10374–10386|accesso=2023-12-26|doi=10.18653/v1/2023.findings-emnlp.696|url=https://aclanthology.org/2023.findings-emnlp.696}}</ref>
 
== Tecnologia basata sui trasformatori ==