Intelligenza artificiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Giopogib (discussione | contributi)
Giopogib (discussione | contributi)
Riga 278:
Tuttavia, storicamente non sempre l'automazione è sinonimo di disoccupazione. Un precedente storico è rappresentato dall'introduzione del [[Telaio (meccanica)|telaio meccanico]] che nel 1800 moltiplicò per 50 volte la [[produttività del lavoro]], riducendo negli Stati Uniti il fabbisogno di manodopera del 98%. Eppure il crollo dei costi causò un'[[elasticità della domanda|inaspettata esplosione]] della domanda, generando una quantità e varietà di posti di lavoro fino ad allora impensabile.<ref>{{cita web|url=https://www.corriere.it/economia/lavoro/23_aprile_03/intelligenza-artificiale-perche-chatgpt-meta-posti-lavoro-sono-rischio-a8913f80-d1f4-11ed-89c0-c0954998de15.shtml|titolo=Intelligenza artificiale, perché ChatGPT mette a rischio metà dei posti di lavoro nei paesi ricchi|data=3 aprile 2023}}</ref>
 
==== La responsabilità legali delle macchine a guida autonoma ====
== L'intelligenza artificiale e le scienze umane ==
Man man che le intelligenze artificiali acquistano autonomia, si fa sempre più pressante le necessità di chiarire su chi ricadono le conseguenze legali e non delle "scelte" che l'intelligenza artificiale è portata ad attuare; spesso necessariamente, o durante una richiesta dell'utente o comunque nel corso del conseguimento della propria funzione (in base ai dati in cui è stata educata o informata). Vi possono essere casi ed eventi del mondo reale nei quali l'intelligenza artificiale non sa come agire, specialmente in determinate situazioni che richiedono scelta immediata, questo magari poiché non educata ad una scelta in tale ambito o perché i programmatori non sapevano nemmeno loro "cosa era meglio". Un esempio calzante di questo lo si vede nelle [[Autovettura autonoma|vetture autonome]], dove la macchina deve portare i passeggeri (o merci) da un punto ad un altro, senza sapere tutti i possibili ostacoli che incontrerà nel suo cammino. Si educa quindi per probabilità dell'avverarsi delle situazioni, cercando di prevedere ogni scenario possibile. Una macchina a guida autonoma deve sapere prendere azioni che massimizzano la sopravvivenza dei suoi passeggeri ma anche degli utenti terzi che usano la strada.
Questi dilemmi etici legati alla scelta, così come il classico [[Problema del carrello ferroviario|dilemma ferroviario,]] applicato alle Intelligenze Artificiali possono essere visti come un ante segnale della problematica di gestione dati nei sistemi complessi.<ref>{{Cita web|lingua=en|autore=Patrick Lin|url=https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360/|titolo=The Ethics of Autonomous Cars|sito=The Atlantic|data=8 ottobre 2013|accesso=4 febbraio 2025}}</ref><ref>{{Cita web|lingua=en|autore=Tim Worstall|url=https://www.forbes.com/sites/timworstall/2014/06/18/when-should-your-driverless-car-from-google-be-allowed-to-kill-you/|titolo=When Should Your Driverless Car From Google Be Allowed To Kill You?|sito=Forbes|accesso=4 febbraio 2025}}</ref><ref>{{Cita pubblicazione|nome=Jean-François|cognome=Bonnefon|nome2=Azim|cognome2=Shariff|nome3=Iyad|cognome3=Rahwan|data=4 luglio 2016|titolo=The social dilemma of autonomous vehicles|accesso=4 febbraio 2025|doi=10.48550/arXiv.1510.03346|url=https://arxiv.org/abs/1510.03346}}</ref><ref>{{Cita web|lingua=en|url=https://www.technologyreview.com/2015/10/22/165469/why-self-driving-cars-must-be-programmed-to-kill/|titolo=Why Self-Driving Cars Must Be Programmed to Kill|sito=MIT Technology Review|accesso=4 febbraio 2025}}</ref>L'intelligenza artificiale e le scienze umane
 
Rispondere alla domanda “Può una macchina pensare?” "la macchina è inanimata?" è dibattito tuttora aperto a causa di argomentazioni a favore ([[Daniel Dennett]], [[Hilary Putnam]], [[Roger Penrose]]) e contro ([[Hubert Dreyfus]], [[John Searle]], [[Gerald Edelman]], [[Jerry Fodor]]). Alcuni studiosi ritengono che il connubio intelligenza artificiale-intelligenza umana possa dar luogo ad un nuovo sistema cognitivo di tipo 0, affiancando ai sistemi cognitivi 1 e 2 teorizzati da [[Daniel Kahneman]], <ref>{{Cita pubblicazione|nome=Massimo|cognome=Chiriatti|nome2=Marianna|cognome2=Ganapini|nome3=Enrico|cognome3=Panai|data=2024-10|titolo=The case for human–AI interaction as system 0 thinking|rivista=Nature Human Behaviour|volume=8|numero=10|pp=1829-1830|lingua=en|accesso=2025-02-20|doi=10.1038/s41562-024-01995-5|url=https://www.nature.com/articles/s41562-024-01995-5}}</ref>
 
Line 298 ⟶ 301:
In seguito, [[John Searle]] descrive nell'articolo "Minds, Brains and Programs"<ref>{{Cita web|url=http://cogprints.org/7150/1/10.1.1.83.5248.pdf|titolo=Minds, brains, and programs|autore=John R. Searle|lingua=en|formato=pdf|accesso=9 febbraio 2025|urlarchivio= https://web.archive.org/web/20111215214145/http://cogprints.org/7150/1/10.1.1.83.5248.pdf|urlmorto=no}}</ref> un esperimento mentale contro l'intelligenza artificiale forte, chiamato “la [[stanza cinese]]”. Egli vuole dimostrare che una macchina in grado di superare il test di Turing, non è capace di capire cosa succede al suo interno; non è, quindi, cosciente di come agisce. L'esperimento consiste in una persona che conosce solo l’inglese, munita di un libro di grammatica cinese scritto in inglese e vari fogli, alcuni bianchi e alcuni con dei simboli. La persona è dentro alla stanza con una piccola finestra verso l'esterno. Attraverso la finestra appaiono simboli indecifrabili.
La persona trova delle corrispondenze con i simboli del libro delle regole e segue le istruzioni. Le istruzioni possono includere scrivere simboli su un nuovo foglio, trovare nuovi simboli, ecc. Infine, questi fogli scritti verranno passati al mondo esterno, attraverso la finestra. Per un osservatore esterno, la macchina sta ricevendo simboli cinesi, li sta elaborando e sta rispondendo con altri simboli, esattamente come farebbe un uomo cosciente. In questo senso, secondo il test di Turing dovrebbe essere ritenuta intelligente. Il problema, che sottolinea Searle, è che in realtà al suo interno, niente della macchina conosce effettivamente il cinese, per cui non è cosciente di quello che sta effettivamente facendo. Secondo Searle essa sta semplicemente seguendo un insieme di regole descritte nel libro. Secondo Daniel Dennett il dibattito rimane però aperto in quanto Searle non riesce a dimostrare pragmaticamente la sua tesi, dovendo far così ricorso alla intuizione.
 
==== La scelta e la responsabilità ====
Man man che le intelligenze artificiali acquistano autonomia, si fa sempre più pressante le necessità di chiarire su chi ricadono le conseguenze legali e non delle "scelte" che l'intelligenza artificiale è portata ad attuare; spesso necessariamente, o durante una richiesta dell'utente o comunque nel corso del conseguimento della propria funzione (in base ai dati in cui è stata educata o informata). Vi possono essere casi ed eventi del mondo reale nei quali l'intelligenza artificiale non sa come agire, specialmente in determinate situazioni che richiedono scelta immediata, questo magari poiché non educata ad una scelta in tale ambito o perché i programmatori non sapevano nemmeno loro "cosa era meglio". Un esempio calzante di questo lo si vede nelle [[Autovettura autonoma|vetture autonome]], dove la macchina deve portare i passeggeri (o merci) da un punto ad un altro, senza sapere tutti i possibili ostacoli che incontrerà nel suo cammino. Si educa quindi per probabilità dell'avverarsi delle situazioni, cercando di prevedere ogni scenario possibile. Una macchina a guida autonoma deve sapere prendere azioni che massimizzano la sopravvivenza dei suoi passeggeri ma anche degli utenti terzi che usano la strada.
Questi dilemmi etici legati alla scelta, così come il classico [[Problema del carrello ferroviario|dilemma ferroviario,]] applicato alle Intelligenze Artificiali possono essere visti come un ante segnale della problematica di gestione dati nei sistemi complessi.<ref>{{Cita web|lingua=en|autore=Patrick Lin|url=https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360/|titolo=The Ethics of Autonomous Cars|sito=The Atlantic|data=8 ottobre 2013|accesso=4 febbraio 2025}}</ref><ref>{{Cita web|lingua=en|autore=Tim Worstall|url=https://www.forbes.com/sites/timworstall/2014/06/18/when-should-your-driverless-car-from-google-be-allowed-to-kill-you/|titolo=When Should Your Driverless Car From Google Be Allowed To Kill You?|sito=Forbes|accesso=4 febbraio 2025}}</ref><ref>{{Cita pubblicazione|nome=Jean-François|cognome=Bonnefon|nome2=Azim|cognome2=Shariff|nome3=Iyad|cognome3=Rahwan|data=4 luglio 2016|titolo=The social dilemma of autonomous vehicles|accesso=4 febbraio 2025|doi=10.48550/arXiv.1510.03346|url=https://arxiv.org/abs/1510.03346}}</ref><ref>{{Cita web|lingua=en|url=https://www.technologyreview.com/2015/10/22/165469/why-self-driving-cars-must-be-programmed-to-kill/|titolo=Why Self-Driving Cars Must Be Programmed to Kill|sito=MIT Technology Review|accesso=4 febbraio 2025}}</ref>
 
==== Tra essere e non essere ====