Intelligenza artificiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Giopogib (discussione | contributi)
Riga 135:
* [[Macchine a vettori di supporto]] (SVM): Classificano dati separando le classi con iperpiani.
* [[Rete bayesiana|Reti bayesiane]]: Modelli probabilistici che gestiscono l’incertezza.
 
==== Token e finestra di contesto ====
Un [[Token (testo)|token]] è un’unità che il modello elabora. Può essere: Una output intero (1 token), Una output scomposto ( 2 token), Un segno, uno spazio, un simbolo, un' azione.
 
L’estensione del contesto di un modello di intelligenza artificiale si riferisce alla quantità di token che può “ricordare” o "generare" contemporaneamente durante la sua funzione. Una finestra di contesto più ampia permette al modello di gestire input più lunghi. Modelli con finestre di contesto più ampie sono utili per compiti che richiedono l’elaborazione di grandi quantità di dati in un'unica sessione.<ref>{{Cita web|url=https://cloud.google.com/vertex-ai/generative-ai/docs/long-context?hl=it|titolo=Contesto Lungo|accesso=20 febbraio 2025}}</ref>
 
=== Tipologie di apprendimento automatico ===
Line 163 ⟶ 158:
=== Elaborazione del linguaggio naturale ===
{{vedi anche|Elaborazione del linguaggio naturale}}
La capacità di elaborare il linguaggio naturale fornisce ai modelli di intelligenza artificiale di stimare con ottime probabilità la parola o la frase che segue il testo fornito in input, e di estrarne il contesto. Questa tecnica consente di ottenere risultati migliori rispetto a tecniche tradizionali quando si tratta di svolgere ricerca di informazioni, ottenere risposta a domande, tradurre o analizzare testi. L'architettura tipicamente impiegata per questo compito è il Transformer,<ref>{{Cita pubblicazione|autore=Vaswani A , Shazeer N , Uszkoreit J et alii|titolo=Attention is all you need|pubblicazione=Advances in neural information processing systems|data=30 ottobre 2017}}</ref> che grazie al meccanismo dell'attenzione è in grado di catturare appieno il contesto del testo fornito in input.
 
La difficoltà principale di questo processo è l'intrinseca [[ambiguità]] che caratterizza i linguaggi naturali, per questo motivo le soluzioni richiedono un'estesa conoscenza del mondo e una notevole abilità nel manipolarlo.
Line 263 ⟶ 258:
Il 10 è l'11 febbraio 2025 si è svolto al [[Grand Palais]] di [[Parigi]] il [[Vertice internazionale sull'intelligenza artificiale]]<ref>{{Cita web|lingua=it|url=https://it.euronews.com/next/2025/02/10/tutto-quello-che-ce-da-sapere-sul-vertice-sullintelligenza-artificiale-a-parigi|titolo=Tutto quello che c'è da sapere sul vertice di Parigi sull'AI|sito=euronews|data=10 febbraio 2025|accesso=13 febbraio 2025|urlarchivio =https://archive.is/wip/KZ8IU|dataarchivio =13 febbraio 2025|urlmorto =no}}</ref>, co-presieduto da Francia e India,<ref>{{Cita web|lingua=it|url=https://www.osservatoreromano.va/it/news/2025-02/quo-034/strumento-per-contrastare-la-poverta-e-tutelare-le-culture-e-le.html|titolo=Messaggio di Papa Francesco al vertice sull’intelligenza artificiale che si conclude l'11 febbraio a Parigi - Strumento per contrastare la povertà e tutelare le culture e le lingue locali - L'Osservatore Romano|accesso=13 febbraio 2025|urlarchivio =https://archive.is/wip/96XQZ|dataarchivio =13 febbraio 2025|urlmorto =no}}</ref> nell'ambito del quale è stata sottoscritta una dichiarazione da 61 paesi; il documento, intitolato ''Statement on Inclusive and Sustainable Artificial Intelligence for People and the Planet,''<ref>{{Cita web|lingua=en|url=https://www.elysee.fr/en/emmanuel-macron/2025/02/11/statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and-the-planet|titolo=Statement on Inclusive and Sustainable Artificial Intelligence for People and the Planet.|sito=elysee.fr|data=11 febbraio 2025|accesso=13 febbraio 2025}}</ref> prevede la creazione di un'intelligenza artificiale aperta, inclusiva ed etica, nonché di un coordinamento è dialogo mondiale per prevenire un'eccessiva concentrazione di mercato.<ref>{{Cita web|lingua=it|url=https://www.rtvslo.si/capodistria/radio-capodistria/notizie/europa/chiuso-il-vertice-sull-intelligenza-artificiale/736288|titolo=Chiuso il vertice sull'intelligenza artificiale|sito=rtvslo.si|accesso=13 febbraio 2025|urlarchivio =https://archive.is/9DAup|dataarchivio =13 febbraio 2025|urlmorto =no}}</ref> Il vertice ha sollevato per la prima volta il tema della sostenibilità ambientale dell'intelligenza artificiale e dei relativi costi energetici.<ref>{{Cita web|lingua=it|autore=Riccardo Piccolo|url=https://www.wired.it/article/intelligenza-artificiale-ai-action-summit-2025-parigi-accordo-cina-stati-uniti-regno-unito/|titolo=Stati Uniti e Regno Unito hanno detto no all'accordo globale sull'intelligenza artificiale|sito=Wired Italia|data=11 febbraio 2025|accesso=13 febbraio 2025}}</ref>
 
=== Critiche e controversie ===
== L'intelligenza artificiale e le scienze umane ==
Una maggiore attenzione è rivolta alle implicazioni etiche, ambientali e sociali dell'intelligenza artificiale e alla necessità di aumentare la trasparenza e la responsabilità delle grandi aziende tecnologiche per i loro algoritmi. Le principali critiche si riferiscono a:
 
* Pregiudizio algoritmico<ref>{{Cita web|lingua=en|autore2=Tom van Nuenen|autore3=Jose M. Such|autore4=Mark Coté|autore5=Natalia Criado|url=https://arxiv.org/abs/2008.07309|titolo=Bias and Discrimination in AI: a cross-disciplinary perspective|autore1= Xavier Ferrer|autore2=Tom van Nuenen|autore3=Jose M. Such|autore4=Mark Coté|autore5=Natalia Criado|sito=arXiv (Cornell University)|data=11 agosto 2020|lingua=en|accesso=9 febbraio 2025|urlarchivio= https://web.archive.org/web/20240613055053/https://arxiv.org/abs/2008.07309|urlmorto=no|autore1=Xavier Ferrer}}</ref>
* La mancanza di responsabilità per i risultati generati dagli algoritmi "[[Modello black box|black-box]]”<ref>{{Cita pubblicazione|autore=Kirsten Martin|anno=2018|titolo=Ethical Implications and Accountability of Algorithms|rivista=Journal of Business Ethics|doi=10.1007/s10551-018-3921-3}}</ref>
* Approvvigionamento non etico di minerali rari utilizzati nei dispositivi alimentati dall'intelligenza artificiale<ref>{{Cita pubblicazione|autore=Kate Crawford|autore2=Vladan Joler|anno=2018|titolo=Anatomy of an AI System|url=https://anatomyof.ai/}}</ref>
* Impronta ambientale dei datacenter, il loro utilizzo di energia e acqua<ref name=":1">{{Cita libro|autore=Kate Crawford|titolo=The Atlas of AI.|data=2021|editore=Yale University Press|doi=10.12987/9780300252392}}</ref><ref>{{Cita pubblicazione|nome=Mél|cognome=Hogan|data=1º dicembre 2015|titolo=Data flows and water woes: The Utah Data Center|rivista=Big Data & Society|volume=2|numero=2|p=2053951715592429|lingua=en|accesso=24 giugno 2021|doi=10.1177/2053951715592429|url=https://doi.org/10.1177/2053951715592429}}</ref>
* Sfruttamento del lavoro digitale "clickwork" coinvolto nell'etichettatura dei dati per allenamento di intelligenza artificiale e nella moderazione dei contenuti<ref name=":1" />
* Manipolazione algoritmica delle preferenze di consumo e di voto degli utenti<ref>{{Cita libro|autore=Shoshana Zuboff|titolo=The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power|anno=2019|url=https://archive.org/details/ageofsurveillanc0000zubo|data=2019|anno=2019}}</ref>
 
==== Trasparenza algoritmica e segreto industriale ====
Negli ultimi anni, a causa della crescente presenza di intelligenza artificiale nella società, ci sono stati dei tentativi di normare e integrare l'utilizzo delle intelligenze artificiali all'interno del quadro normativo europeo, con particolare attenzione al principio di ''trasparenza algoritmica'', che può essere definito come "l'obbligo, gravante sui soggetti che adottano decisioni con l'ausilio di sistemi automatizzati di trattamento dei dati, di fornire ai destinatari una spiegazione comprensibile delle procedure utilizzate e di motivare sotto questo profilo le decisioni assunte".<ref>{{Cita pubblicazione|autore=Paolo Zuddas|titolo=Brevi note sulla trasparenza algoritmica|rivista=Amministrazione in cammino}}</ref> Il mancato rispetto della trasparenza violerebbe espressamente l'art. 111 della {{chiarire|Costituzione|quale costituzione?}} e il diritto alla difesa ex art. 24 della {{chiarire|Costituzione|quale costituzione?}}. Inoltre, è stata ribadita nel 2017, dalla [[Conferenza di Asilomar sulla IA Benefica|Dichiarazione di Asilomar]], l'esigenza di garantire la massima trasparenza in ambito di decisioni giudiziarie, in caso di coinvolgimento di sistemi autonomi.
 
==== Disoccupazione ====
Secondo il report intitolato ''The Potentially Large Effects of Artificial Intelligence on Economic Growth'', pubblicato da [[Goldman Sachs]] nel marzo 2023, l'intelligenza artificiale in particolare la sua capacità di generare contenuti senza l'intervento umano potranno garantire una crescita del 7% del PIL globale nei prossimi 10 anni. Tuttavia, essa è anche la causa prevedibile della perdita di 300 milioni di posti di lavoro nei settori amministrativo, legale, finanziario e bancario.<ref>{{cita web|url=https://www.open.online/2023/03/28/usa-studio-goldman-sachs-ai-lavoro/|titolo=Con l’intelligenza artificiale addio a 300 milioni di posti di lavoro, lo studio di Goldman Sachs: quali ruoli rischiano di più|data=28 marzo 2023}}</ref>
 
Secondo un rapporto del [[World Economic Forum]] del 2023, nei successivi 5 anni il 23% dei posti di lavoro a livello mondiale subirà dei mutamenti a causa dell'intelligenza artificiale. L'automazione sostituirà l'81% delle attività lavorative di intermediari di prestito, supervisori e impiegati d’ufficio.<ref>{{cita web|url=https://www.redhotcyber.com/post/lintelligenza-artificiale-e-il-futuro-del-lavoro-il-wef-riporta-che-il-23-delle-professioni-verranno-assorbite-dalle-ia/?utm_content=cmp-true#google_vignette|titolo=IA è futuro del Lavoro: il WEF riporta che il 23% delle professioni verranno assorbite dalle Intelligenza Artificiale|data=12 ottobre 2023}}</ref>
 
Tuttavia, storicamente non sempre l'automazione è sinonimo di disoccupazione. Un precedente storico è rappresentato dall'introduzione del [[Telaio (meccanica)|telaio meccanico]] che nel 1800 moltiplicò per 50 volte la [[produttività del lavoro]], riducendo negli Stati Uniti il fabbisogno di manodopera del 98%. Eppure il crollo dei costi causò un'[[elasticità della domanda|inaspettata esplosione]] della domanda, generando una quantità e varietà di posti di lavoro fino ad allora impensabile.<ref>{{cita web|url=https://www.corriere.it/economia/lavoro/23_aprile_03/intelligenza-artificiale-perche-chatgpt-meta-posti-lavoro-sono-rischio-a8913f80-d1f4-11ed-89c0-c0954998de15.shtml|titolo=Intelligenza artificiale, perché ChatGPT mette a rischio metà dei posti di lavoro nei paesi ricchi|data=3 aprile 2023}}</ref>
=== Dibattito filosofico ===
 
Rispondere alla domanda “Può una macchina pensare?” "la macchina è inanimata?" è dibattito tuttora aperto a causa di argomentazioni a favore ([[Daniel Dennett]], [[Hilary Putnam]], [[Roger Penrose]]) e contro ([[Hubert Dreyfus]], [[John Searle]], [[Gerald Edelman]], [[Jerry Fodor]]).
== L'intelligenza artificiale e le scienze umane ==
Rispondere alla domanda “Può una macchina pensare?” "la macchina è inanimata?" è dibattito tuttora aperto a causa di argomentazioni a favore ([[Daniel Dennett]], [[Hilary Putnam]], [[Roger Penrose]]) e contro ([[Hubert Dreyfus]], [[John Searle]], [[Gerald Edelman]], [[Jerry Fodor]]). Alcuni studiosi ritengono che il connubio intelligenza artificiale-intelligenza umana possa dar luogo ad un nuovo Sistemasistema cognitivo di tipo 0., affiancando ai sistemi cognitivi 1 e 2 teorizzati da [[Daniel Kahneman]], <ref>{{Cita pubblicazione|nome=Massimo|cognome=Chiriatti|nome2=Marianna|cognome2=Ganapini|nome3=Enrico|cognome3=Panai|data=2024-10|titolo=The case for human–AI interaction as system 0 thinking|rivista=Nature Human Behaviour|volume=8|numero=10|pp=1829-1830|lingua=en|accesso=2025-02-20|doi=10.1038/s41562-024-01995-5|url=https://www.nature.com/articles/s41562-024-01995-5}}</ref>
 
==== Test di Turing ====
Line 285 ⟶ 298:
In seguito, [[John Searle]] descrive nell'articolo "Minds, Brains and Programs"<ref>{{Cita web|url=http://cogprints.org/7150/1/10.1.1.83.5248.pdf|titolo=Minds, brains, and programs|autore=John R. Searle|lingua=en|formato=pdf|accesso=9 febbraio 2025|urlarchivio= https://web.archive.org/web/20111215214145/http://cogprints.org/7150/1/10.1.1.83.5248.pdf|urlmorto=no}}</ref> un esperimento mentale contro l'intelligenza artificiale forte, chiamato “la [[stanza cinese]]”. Egli vuole dimostrare che una macchina in grado di superare il test di Turing, non è capace di capire cosa succede al suo interno; non è, quindi, cosciente di come agisce. L'esperimento consiste in una persona che conosce solo l’inglese, munita di un libro di grammatica cinese scritto in inglese e vari fogli, alcuni bianchi e alcuni con dei simboli. La persona è dentro alla stanza con una piccola finestra verso l'esterno. Attraverso la finestra appaiono simboli indecifrabili.
La persona trova delle corrispondenze con i simboli del libro delle regole e segue le istruzioni. Le istruzioni possono includere scrivere simboli su un nuovo foglio, trovare nuovi simboli, ecc. Infine, questi fogli scritti verranno passati al mondo esterno, attraverso la finestra. Per un osservatore esterno, la macchina sta ricevendo simboli cinesi, li sta elaborando e sta rispondendo con altri simboli, esattamente come farebbe un uomo cosciente. In questo senso, secondo il test di Turing dovrebbe essere ritenuta intelligente. Il problema, che sottolinea Searle, è che in realtà al suo interno, niente della macchina conosce effettivamente il cinese, per cui non è cosciente di quello che sta effettivamente facendo. Secondo Searle essa sta semplicemente seguendo un insieme di regole descritte nel libro. Secondo Daniel Dennett il dibattito rimane però aperto in quanto Searle non riesce a dimostrare pragmaticamente la sua tesi, dovendo far così ricorso alla intuizione.
 
=== Teoria del Sistema 0 ===
 
Alcuni studiosi ritengono che il connubio intelligenza artificiale-intelligenza umana possa dar luogo ad un nuovo Sistema 0.<ref>{{Cita pubblicazione|nome=Massimo|cognome=Chiriatti|nome2=Marianna|cognome2=Ganapini|nome3=Enrico|cognome3=Panai|data=2024-10|titolo=The case for human–AI interaction as system 0 thinking|rivista=Nature Human Behaviour|volume=8|numero=10|pp=1829-1830|lingua=en|accesso=2025-02-20|doi=10.1038/s41562-024-01995-5|url=https://www.nature.com/articles/s41562-024-01995-5}}</ref>
 
I Sistemi 1 e 2 sono stati teorizzati da [[Daniel Kahneman]], nell'opera "[[Pensieri lenti e veloci]]", Sistema 1: veloce, automatico, emozionale, inconscio; Sistema 2: lento, pigro, logico/matematico, conscio.
 
L’IA agisce come un’estensione cognitiva – un Sistema 0 artificiale che precede i Sistemi 1 e 2 umani – esternalizzando e analizzando autonomamente la realtà, potenziando il processo decisionale tradizionale grazie alle sue capacità computazionali. L’integrazione inizia con un supporto cognitivo di base come il potenziamento della memoria; quindi, passa a compiti collaborativi più complessi man mano che si sviluppano fiducia e familiarità, raggiungendo infine una profonda integrazione in aree in cui la sinergia si dimostra efficace. Il potenziale del Sistema 0 come estensione cognitiva può essere pienamente realizzato quando ci concentriamo sull'integrazione complementare piuttosto che su quella competitiva, adeguiamo il livello di integrazione ai requisiti delle attività e consentiamo uno sviluppo progressivo della relazione umano-IA.
 
L’integrazione del Sistema 0 avviene attraverso un ciclo di feedback continuo: le decisioni umane informano l’IA, che a sua volta modella i comportamenti e l’attenzione umana. Man mano che questa integrazione si approfondisce diventa cruciale considerare le implicazioni per la conoscenza e la cognizione umana. Il Sistema 0, infatti, sta ridefinendo i confini tra pensiero umano e artificiale, emergendo come partner cognitivo adattivo che potenzia – anziché sostituire – le capacità umane. Questo approccio simbiotico massimizza i benefici dell’IA riducendo al minimo i rischi, offrendo l’opportunità di progettare interfacce e modelli di interazione sempre più efficaci.
 
==== La scelta e la responsabilità ====
Line 317 ⟶ 320:
 
Oltre al mondo del cinema, anche i mondi della televisione, dei cartoni animati, dei fumetti ,e dei videogiochi hanno sfruttato il tema dell'intelligenza artificiale.
 
=== L'intelligenza artificiale nelle arti grafiche e nella Memetica ===
{{vedi anche|Memetica|Filosofia della mente|Filosofia del linguaggio}}
 
La [[memetica]] e le immagini generate artificialmente (o anche solo crittografate) si stanno inserendo prepotentemente nei manuali di arte. Questo mette in luce come l'arte sia talvolta ante segnale nei tempi e nelle vicende umane. Oggi se dovessimo chiederci chi risponderebbe più velocemente ad un meme se un'intelligenza artificiale o un novantenne. Ma si veda anche il riconoscimento di meme come termine proprio stesso o l'uso delle [[emoji]] come forma di linguaggio.
 
==== L'intelligenza Artificiale nelle arti Musicali ====
{{...|scienza}}
 
== Critiche e controversie ==
Una maggiore attenzione è rivolta alle implicazioni etiche, ambientali e sociali dell'intelligenza artificiale e alla necessità di aumentare la trasparenza e la responsabilità delle grandi aziende tecnologiche per i loro algoritmi. Le principali critiche si riferiscono a:
 
* Pregiudizio algoritmico<ref>{{Cita web|url=https://arxiv.org/abs/2008.07309|titolo=Bias and Discrimination in AI: a cross-disciplinary perspective|autore1= Xavier Ferrer|autore2=Tom van Nuenen|autore3=Jose M. Such|autore4=Mark Coté|autore5=Natalia Criado|sito=arXiv (Cornell University)|data=11 agosto 2020|lingua=en|accesso=9 febbraio 2025|urlarchivio= https://web.archive.org/web/20240613055053/https://arxiv.org/abs/2008.07309|urlmorto=no}}</ref>
* La mancanza di responsabilità per i risultati generati dagli algoritmi "[[Modello black box|black-box]]”<ref>{{Cita pubblicazione|autore=Kirsten Martin|anno=2018|titolo=Ethical Implications and Accountability of Algorithms|rivista=Journal of Business Ethics|doi=10.1007/s10551-018-3921-3}}</ref>
* Approvvigionamento non etico di minerali rari utilizzati nei dispositivi alimentati dall'intelligenza artificiale<ref>{{Cita pubblicazione|autore=Kate Crawford|autore2=Vladan Joler|anno=2018|titolo=Anatomy of an AI System|url=https://anatomyof.ai/}}</ref>
* Impronta ambientale dei datacenter, il loro utilizzo di energia e acqua<ref name=":1">{{Cita libro|autore=Kate Crawford|titolo=The Atlas of AI.|data=2021|editore=Yale University Press|doi=10.12987/9780300252392}}</ref><ref>{{Cita pubblicazione|nome=Mél|cognome=Hogan|data=1º dicembre 2015|titolo=Data flows and water woes: The Utah Data Center|rivista=Big Data & Society|volume=2|numero=2|p=2053951715592429|lingua=en|accesso=24 giugno 2021|doi=10.1177/2053951715592429|url=https://doi.org/10.1177/2053951715592429}}</ref>
* Sfruttamento del lavoro digitale "clickwork" coinvolto nell'etichettatura dei dati per allenamento di intelligenza artificiale e nella moderazione dei contenuti<ref name=":1" />
* Manipolazione algoritmica delle preferenze di consumo e di voto degli utenti<ref>{{Cita libro|autore=Shoshana Zuboff|titolo=The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power|anno=2019|url=https://archive.org/details/ageofsurveillanc0000zubo|data=2019}}</ref>
 
=== Trasparenza algoritmica e segreto industriale ===
Negli ultimi anni, a causa della crescente presenza di intelligenza artificiale nella società, ci sono stati dei tentativi di normare e integrare l'utilizzo delle intelligenze artificiali all'interno del quadro normativo europeo, con particolare attenzione al principio di ''trasparenza algoritmica'', che può essere definito come "l'obbligo, gravante sui soggetti che adottano decisioni con l'ausilio di sistemi automatizzati di trattamento dei dati, di fornire ai destinatari una spiegazione comprensibile delle procedure utilizzate e di motivare sotto questo profilo le decisioni assunte".<ref>{{Cita pubblicazione|autore=Paolo Zuddas|titolo=Brevi note sulla trasparenza algoritmica|rivista=Amministrazione in cammino}}</ref> Il mancato rispetto della trasparenza violerebbe espressamente l'art. 111 della {{chiarire|Costituzione|quale costituzione?}} e il diritto alla difesa ex art. 24 della {{chiarire|Costituzione|quale costituzione?}}. Inoltre, è stata ribadita nel 2017, dalla [[Conferenza di Asilomar sulla IA Benefica|Dichiarazione di Asilomar]], l'esigenza di garantire la massima trasparenza in ambito di decisioni giudiziarie, in caso di coinvolgimento di sistemi autonomi.
 
=== Disoccupazione ===
Secondo il report intitolato ''The Potentially Large Effects of Artificial Intelligence on Economic Growth'', pubblicato da [[Goldman Sachs]] nel marzo 2023, l'intelligenza artificiale in particolare la sua capacità di generare contenuti senza l'intervento umano potranno garantire una crescita del 7% del PIL globale nei prossimi 10 anni. Tuttavia, essa è anche la causa prevedibile della perdita di 300 milioni di posti di lavoro nei settori amministrativo, legale, finanziario e bancario.<ref>{{cita web|url=https://www.open.online/2023/03/28/usa-studio-goldman-sachs-ai-lavoro/|titolo=Con l’intelligenza artificiale addio a 300 milioni di posti di lavoro, lo studio di Goldman Sachs: quali ruoli rischiano di più|data=28 marzo 2023}}</ref>
 
Secondo un rapporto del [[World Economic Forum]] del 2023, nei successivi 5 anni il 23% dei posti di lavoro a livello mondiale subirà dei mutamenti a causa dell'intelligenza artificiale. L'automazione sostituirà l'81% delle attività lavorative di intermediari di prestito, supervisori e impiegati d’ufficio.<ref>{{cita web|url=https://www.redhotcyber.com/post/lintelligenza-artificiale-e-il-futuro-del-lavoro-il-wef-riporta-che-il-23-delle-professioni-verranno-assorbite-dalle-ia/?utm_content=cmp-true#google_vignette|titolo=IA è futuro del Lavoro: il WEF riporta che il 23% delle professioni verranno assorbite dalle Intelligenza Artificiale|data=12 ottobre 2023}}</ref>
 
Tuttavia, storicamente non sempre l'automazione è sinonimo di disoccupazione. Un precedente storico è rappresentato dall'introduzione del [[Telaio (meccanica)|telaio meccanico]] che nel 1800 moltiplicò per 50 volte la [[produttività del lavoro]], riducendo negli Stati Uniti il fabbisogno di manodopera del 98%. Eppure il crollo dei costi causò un'[[elasticità della domanda|inaspettata esplosione]] della domanda, generando una quantità e varietà di posti di lavoro fino ad allora impensabile.<ref>{{cita web|url=https://www.corriere.it/economia/lavoro/23_aprile_03/intelligenza-artificiale-perche-chatgpt-meta-posti-lavoro-sono-rischio-a8913f80-d1f4-11ed-89c0-c0954998de15.shtml|titolo=Intelligenza artificiale, perché ChatGPT mette a rischio metà dei posti di lavoro nei paesi ricchi|data=3 aprile 2023}}</ref>
 
== Regolamentazione ==