ChatGPT: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Annullata la modifica di 217.201.150.128 (discussione), riportata alla versione precedente di Gac Etichetta: Rollback |
|||
Riga 67:
Dal novembre 2023 ChatGPT Plus opera anche con il formato [[PDF]].<ref>{{cita web|url=https://www.punto-informatico.it/chatgpt-ora-puo-lavorare-pdf-ecco-come/|titolo=ChatGPT ora può lavorare sui PDF: ecco come}}</ref>
Sempre a novembre 2023 gli utenti Plus hanno ottenuto l'aumento della lunghezza massima del token fino a 128 K e la possibilità di creare delle intelligenze artificiali personalizzate e specializzate su compiti singoli da rivendersi su un apposito GPT store.<ref>{{cita web|url=https://www.repubblica.it/tecnologia/2023/11/06/news/openai_chatgpt_personalizzata_gpt_store-419741938/|titolo=ChatGpt si moltiplica: ognuno potrà creare la sua AI e potrà anche venderla|urlarchivio=https://archive.is/20231107102304/https://www.repubblica.it/tecnologia/2023/11/06/news/openai_chatgpt_personalizzata_gpt_store-419741938/amp/|dataarchivio=7 novembre 2023|urlmorto=no}}</ref> Inoltre, è stato lanciato ChatGPT Voice, la funzionalità gratuita di [[riconoscimento vocale]] per le applicazioni Android e iOS, basata su ChatGPT 3.5.<ref>{{
Agli accordi di collaborazione con l'[[Associated Press]] (luglio 2023) e poi col [[Journalism Project]] (per la stampa locale), che hanno messo a disposizione i loro archivi per migliorare la qualità delle risposte di ChatGPT, nel novembre 2023 si è aggiunto quello con Alex Springer SE che fornisce accesso a ''[[Politico (quotidiano)|Politico]]'', ''[[Business Insider]]'', ''[[Bild]]'' e ''[[Welt (rete televisiva)|Welt]]'', in cambio di alcuni milioni di euro di [[diritti d'autore]] e della citazione della fonte con link diretto.<ref>{{cita web|url=https://www.ilsole24ore.com/art/chatgpt-paghera-axel-springer-usare-contenuti-suoi-media-AFOxQO2B|titolo=AI generativa e giornalismo: OpenAI e Axel Springer insieme per migliorare le risposte dei chatbot|data=13 dicembre 2023}}</ref>
Riga 73:
Nel dicembre 2023 è stato depositato il marchio di GPT 5.0 che è stato addestrato su una mole di dati di alcuni ordini di grandezza superiore rispetto alle versioni precedenti.<ref>{{cita web|url=https://www.player.it/tech/546746-arriva-assistente-di-chat-gpt.html|titolo=ChatGPT: forse ci siamo con GPT5 | La nuova Ai potrebbe cambiare il mondo intero}}</ref>
Nel maggio 2024 è stato pubblicato GPT-4o, una nuova versione del modello di [[intelligenza artificiale]] di OpenAI. GPT-4o, dove "o" sta per "omni", è progettato per gestire in tempo reale input e output di testo, audio, immagine e video, rendendo l'interazione uomo-computer molto più naturale. Combina tutte queste modalità in un'unica [[rete neurale]], migliorando notevolmente la comprensione e la risposta a input multimodali rispetto ai modelli precedenti. GPT-4o è inoltre più veloce e molto più economico, con prestazioni superiori in diverse lingue e miglioramenti sostanziali nella comprensione visiva e audio<ref>{{Cita web|lingua=en-US|url=https://openai.com/index/hello-gpt-4o/|titolo=Hello GPT-4o|sito=openai.com|accesso=2025-05-18}}</ref>.
== Versioni ed evoluzioni di ChatGPT ==
Riga 132:
Secondo un sondaggio condotto dal sito ''Resumebuilder.com'' su un campione di 1000 aziende nel 2023, circa la metà utilizzava ChatGPT per la generazione di codice, la creazione di contenuti, l'invio di domande di lavoro e l'automazione delle relative risposte, nonché per ricapitolare il lavoro delle riunioni.<ref>{{cita web|url=https://beppegrillo.it/le-aziende-stanno-gia-sostituendo-i-lavoratori-con-chatgpt/|titolo=Le aziende stanno già sostituendo i lavoratori con ChatGPT|data=26 marzo 2023|accesso=10 aprile 2023}}</ref>
A seguito di una perdita di dati (data breach) riguardanti le conversazioni degli utenti ed informazioni sugli abbonati al servizio a pagamento avvenuta il 20 marzo 2023, in Italia il servizio è stato sospeso dal 31 marzo al 28 aprile 2023 dal [[Garante per la protezione dei dati personali]].<ref>{{Cita web|url=https://finanza.repubblica.it/News/2023/03/31/chatgpt_garante_privacy_blocca_la_piattaforma_raccolta_illecita_di_dati_personali-161/|titolo=ChatGPT, Garante Privacy blocca la piattaforma: raccolta illecita di dati personali|sito=finanza.repubblica.it|lingua=it|accesso=10 aprile 2023}}</ref> L'Italia è stato il primo Paese al mondo a ricorrere a tale sospensione.<ref>{{
Secondo [[Jimmy Wales]], ChatGPT può tornare utile alla comunità di Wikipedia per verificare se all'interno dell'enciclopedia vi sono due contenuti contraddittori.<ref>{{
Questo servizio in più occasioni ha generato risposte totalmente false e diffamanti, citando anche fonti inesistenti.<ref>
Nel 2023 i filtri che impediscono di sfruttare l'intelligenza artificiale a scopi criminali sono state bypassati (e poi aggiornati di conseguenza) semplicemente proponendo dei prompt in lingue escluse dal dataset iniziale e poi ritraducendole in inglese.<ref>{{
=== Implicazioni per i mercati finanziari ===
Riga 152:
In un sondaggio di marzo-aprile 2023 il 38% degli studenti americani ha ammesso di aver utilizzato ChatGPT per un compito senza il permesso dell'insegnante. Nel complesso, il 58% degli studenti ha dichiarato di aver usato ChatGPT.<ref>{{cita news|cognome1=Klar |nome1=Rebecca |titolo=Gli adolescenti usano e sentono parlare di ChatGPT più dei genitori: sondaggio |url=https://thehill.com/policy/technology/3998124-teens-use-hear-of-chatgpt-more-than-parents-poll/ |accesso=15 giugno 2023 |opera=The Hill |data=10 maggio 2023 |urlarchivio=https://web.archive.org/web/20230518233654/https://thehill.com/policy/technology/3998124-teens-use-hear-of-chatgpt-more-than-parents-poll/ |urlmorto= }}</ref><ref>{{cita web|autore1=Impact Research |titolo=Genitori e studenti sono ottimisti riguardo all'IA, ma i genitori hanno molto da imparare per stare al passo con i loro figli, e vogliono regole e valutazioni per aiutarli. |url=https://www.commonsensemedia.org/sites/default/files/featured-content/files/common-sense-ai-polling-memo-may-10-2023-final.pdf |editore=Common Sense Media |accesso=15 giugno 2023 |urlarchivio=https://web.archive.org/web/20230609130640/https://www.commonsensemedia.org/sites/default/files/featured-content/files/common-sense-ai-polling-memo-may-10-2023-final.pdf |urlmorto= }}</ref>
In un test in cieco ChatGPT è stato giudicato aver superato gli esami universitari presso l'[[Università del Minnesota]] al livello di uno studente con voto C+ e presso la [[Wharton School of the University of Pennsylvania|Wharton School dell'Università della Pennsylvania]] con un voto da B a B−.<ref>{{Cita web|url=https://www.cnn.com/2023/01/26/tech/chatgpt-passes-exams/index.html |titolo=ChatGPT passa gli esami delle scuole di legge e di business |nome=Samantha Murphy |cognome=Kelly |data=26 gennaio 2023 |sito=CNN |accesso=3 febbraio 2023 |urlarchivio=https://web.archive.org/web/20230202083919/https://www.cnn.com/2023/01/26/tech/chatgpt-passes-exams/index.html |urlmorto=}}</ref> Le prestazioni di ChatGPT per la [[programmazione informatica]] dei [[Analisi numerica|metodi numerici]] sono state valutate da uno studente e da un docente dell'[[Università di Stanford]] nel marzo 2023 attraverso una varietà di esempi di [[matematica computazionale]].<ref>{{Cita
Il professore di geografia Terence Day ha esaminato le citazioni generate da ChatGPT e ha scoperto che erano false. Nonostante ciò, scrive che "i titoli dei falsi articoli sono tutti inerenti alle domande e potenzialmente potrebbero essere ottimi articoli. La mancanza di una citazione genuina potrebbe segnalare ad un autore intraprendente l'opportunità di colmare un vuoto". Secondo Day, è possibile generare corsi universitari introduttivi di alta qualità con ChatGPT; lo ha usato per creare materiale per corsi di geografia fisica introduttiva, di idrologia geografica di secondo anno, cartografia, sistemi informativi geografici e telerilevamento di secondo anno. Conclude che "questo approccio potrebbe avere una rilevanza significativa per l'apprendimento aperto e potrebbe influenzare i modelli attuali di pubblicazione dei libri di testo".<ref>{{Cita pubblicazione|cognome1=Day |nome1=Terence |titolo=Una Indagine Preliminare sulle Citazioni e i Riferimenti Contraffatti Generati da ChatGPT |rivista=The Professional Geographer |data=12 aprile 2023 |pp=1-4 |doi=10.1080/00330124.2023.2190373 |url=https://www.tandfonline.com/doi/pdf/10.1080/00330124.2023.2190373 |accesso=6 maggio 2023 |lingua=en |issn=0033-0124 |urlarchivio=https://web.archive.org/web/20230506080942/https://www.tandfonline.com/doi/pdf/10.1080/00330124.2023.2190373 |urlmorto= }}</ref>
Riga 162:
* In ''Racial Bias in Hate Speech and Abusive Language Detection Datasets''<ref>{{Cita pubblicazione|nome=Thomas|cognome=Davidson|nome2=Debasmita|cognome2=Bhattacharya|nome3=Ingmar|cognome3=Weber|data=2019-08|titolo=Racial Bias in Hate Speech and Abusive Language Detection Datasets|rivista=Proceedings of the Third Workshop on Abusive Language Online|editore=Association for Computational Linguistics|curatore=Sarah T. Roberts, Joel Tetreault, Vinodkumar Prabhakaran, Zeerak Waseem|pp=25-35|accesso=2023-12-26|doi=10.18653/v1/W19-3504|url=https://aclanthology.org/W19-3504}}</ref> si è visto che il chatbot era propenso a catalogare come [[Incitamento all'odio|''hate speech'']] i tweet scritti da utenti di colore, piuttosto che da quelli bianchi; gli stessi autori hanno però puntualizzato che questo poteva essere dovuto alla preponderanza di termini espliciti nei post dei soggetti di colore.
* In ''Gender bias and stereotypes in Large Language Models''<ref name=":5">{{Cita pubblicazione|nome=Hadas|cognome=Kotek|nome2=Rikker|cognome2=Dockum|nome3=David|cognome3=Sun|data=2023-11-05|titolo=Gender bias and stereotypes in Large Language Models|rivista=Proceedings of The ACM Collective Intelligence Conference|editore=Association for Computing Machinery|pp=12-24|accesso=2023-12-25|doi=10.1145/3582269.3615599|url=https://dl.acm.org/doi/10.1145/3582269.3615599}}</ref> gli autori hanno mostrato che in diversi scenari di ambiguità grammaticale è probabile che un modello di linguaggio assegni un pronome maschile ad una professione considerata per stereotipo maschile (i.e. ''doctor'' in inglese) e viceversa (i.e. ''nurse'' in inglese). Si noti che il testo citato non indica come modello in questione proprio ChatGPT, ma parla di analisi di modelli dell'inizio del 2023 (compatibile con GPT-4, rilasciato nel marzo del 2023). Gli autori dimostrano anche che, quando esplicitamente interrogato rispetto all'imparzialità delle sue stesse risposte, il modello LLM è in grado di comprendere il suo errore, notificando la presenza di bias sessisti.
* In ''A “Perspectival” Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, YouTube, and Wikipedia''<ref name=":4">{{Cita pubblicazione|
=== Implicazioni per il web e la Teoria dell'Internet morta ===
Anche se non direttamente correlato a ChatGPT, uno studio evidenzia che nel 2024 il 57% dei contenuti presenti sul web sono stati prodotti o processati da sistemi di intelligenza artificiale.<ref>{{Cita
== Note ==
|