Intelligenza artificiale forte: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Folto82 (discussione | contributi)
 
(40 versioni intermedie di 30 utenti non mostrate)
Riga 1:
L{{'}}'''intelligenza artificiale forte''' o '''intelligenza artificiale generale''' (in sigla '''AGI''' dall'inglese ''artificial general intelligence'') è la capacità di un [[agente intelligente]] di apprendere e capire un qualsiasi compito intellettuale che può imparare un [[Homo sapiens|essere umano]].<ref>{{cita news|cognome=Hodson |nome=Hal |titolo=DeepMind and Google: the battle to control artificial intelligence |url=https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |accesso=7 luglio 2020 |opera=1843 |data=1º marzo 2019 |citazione=AGI stands for Artificial General Intelligence, a hypothetical computer program... |urlarchivio=https://web.archive.org/web/20200707223031/https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence |urlmorto= }}</ref><ref>{{Cita pubblicazione|cognome1=Shevlin|nome1=Henry|cognome2=Vold|nome2=Karina|cognome3=Crosby|nome3=Matthew|cognome4=Halina|nome4=Marta|data=4 ottobre 2019|titolo=The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge|rivista=EMBO Reports|lingua=en|volume=20|numero=10|pp=e49177|doi=10.15252/embr.201949177|issn=1469-221X|pmc=6776890|pmid=31531926}}</ref> È l'obiettivo principale di alcune delle ricerche nell'[[intelligenza artificiale]] e un argomento comune nella [[fantascienza]] e nella [[futurologia]]. Alcune fonti accademiche riservano il termine "IA forte" (''strong AI'') a quei programmi informatici in grado di essere [[senziente]] e di avere una [[coscienza]]. Il concetto di IA forte è stato analizzato e contestato dal filosofo [[John Searle]] nel suo [[stanza cinese|esperimento della stanza cinese]]. Egli ha affermato:
Nella [[filosofia dell'intelligenza artificiale]] l''''intelligenza artificiale forte''' è l'idea che opportune forme di [[intelligenza artificiale]] possano veramente [[ragionamento|ragionare]] e risolvere problemi{{sf}}; l'intelligenza artificiale forte sostiene che è possibile per le macchine diventare sapienti o coscienti di sé, senza necessariamente mostrare processi di [[pensiero]] simili a quelli umani. Il termine ''intelligenza artificiale forte'' (AI forte, in inglese ''strong AI'') fu originalmente coniato da [[John Searle]] per confutarne la teoria:
 
{{Citazione|Secondo l'intelligenza artificiale forte, il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente|[[John R. Searle]]<ref>J. Searle in ''Minds, Brains and Programs''. The Behavioral and Brain Sciences, vol. 3, 1980.</ref>|According to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind |lingua=en}}
 
Al contrario dell'IA forte, l'[[intelligenza artificiale debole]]<ref>{{Cita web|titolo=The Open University on Strong and Weak AI|url=http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm|urlmorto=si|urlarchivio=https://web.archive.org/web/20090925043908/http://www.open2.net/nextbigthing/ai/ai_in_depth/in_depth.htm|accesso=8 ottobre 2007}}</ref> o "ristretta"<ref name="Kurzweil 2005-08-05">{{Cita pubblicazione|cognome=Kurzweil|nome=Ray|data=5 agosto 2005a|titolo=Long Live AI|url=https://www.forbes.com/home/free_forbes/2005/0815/030.htmlhttps://www.forbes.com/home/free_forbes/2005/0815/030.html|rivista=[[Forbes]]}}{{Collegamento interrotto|date=January 2022|bot=medic}}{{cbignore|bot=medic}}: Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."</ref> non ha lo scopo di possedere abilità cognitive generali, ma piuttosto di essere in grado di risolvere esattamente un singolo problema; le fonti accademiche riservano il termine "debole" per quei programmi che non mostrano di avere una coscienza o una "mente" equiparabile a quella umana.
Il termine "[[intelligenza artificiale]]" dovrebbe equivalere allo stesso concetto di ciò che chiamiamo "IA forte", basandoci sul significato letterale di "[[wiktionary:artificiale|artificiale]]" e "[[wiktionary:intelligenza|intelligenza]]". L'attività di ricerca iniziale sull'intelligenza artificiale, comunque, si concentrò su alcuni campi ristretti, quali [[pattern recognition]] e [[pianificazione e scheduling automatico|scheduling automatico]], nella speranza di poter ricavare così una comprensione della vera intelligenza. Il termine "intelligenza artificiale" venne in questo modo ad indicare, oltre all'idea dell'IA forte, anche il lavoro svolto in questi settori limitati ("IA debole").
 
Il termine "[[intelligenza artificiale]]" dovrebbe equivalere allo stesso concetto di ciò che chiamiamo "IA forte", basandoci sul significato letterale di "[[wiktionary:artificiale|artificiale]]" e "[[wiktionary:intelligenza|intelligenza]]". L'attività di ricerca iniziale sull'intelligenza artificiale, comunque, si concentrò su alcuni campi ristretti, quali il [[patternriconoscimento recognitiondi pattern]] e [[pianificazione e scheduling automatico|scheduling automatico]], nella speranza di poter ricavare così una comprensione della vera intelligenza. Il termine "intelligenza artificiale" venne in questo modo ad indicare, oltre all'idea dell'IA forte, anche il lavoro svolto in questi settori limitati ("IA debole").
 
Un sondaggio del 2020 ha rilevato che ci sono all'attivo 72 progetti di ricerca e sviluppo sull'intelligenza artificiale generale sparsi in 37 nazioni.<ref name="baum">{{Cita pubblicazione|cognome=Baum|nome=Seth|titolo=A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy|url=https://gcrinstitute.org/papers/055_agi-2020.pdf|id=Global Catastrophic Risk Institute Working Paper 20}}</ref>
 
== Descrizione ==
=== Intelligenza artificiale debole ===
In contrasto con l'intelligenza artificiale forte, l''''[[intelligenza artificiale debole''']] si riferisce all'uso di programmi per studiare o risolvere specifici problemi o ragionamenti che non possono essere compresi pienamente (o in alcuni casi, sono completamente al di fuori) nei limiti delle capacità cognitive umane. Un esempio di programma di intelligenza artificiale debole è un algoritmo per il gioco degli [[scacchi]] (si ricordi, ad esempio, [[IBM Deep Blue|Deep Blue]]). Diversamente dall'intelligenza artificiale forte, quella debole non realizza un'auto-[[consapevolezza]] e non dimostra il largo intervallo di livelli di abilità cognitive proprio dell'uomo, ma è esclusivamente un problem-solver (risolutore di problemi) specifico e, parzialmente, intelligente.
 
Alcuni sostengono che i programmi di intelligenza artificiale debole non possano essere chiamati propriamente "intelligenti", in quanto non possono realmente [[pensiero|pensare]]. Rispondendo alla tesi secondo cui programmi come Deep Blue non siano realmente pensanti, Drew McDermott scrisse:<ref>{{Cita web|url=https://www.nyu.edu/gsas/dept/philo/courses/mindsandmachines/Papers/mcdermott.html|titolo=How Intelligent is Deep Blue?|autore=Drew McDermott|accesso=22 giugno 2022}}</ref>
 
{{Citazione|Dire che Deep Blue, giocando a scacchi, non stia effettivamente pensando è come dire che un aereo non voli perché non sbatte le ali. [http://www.psych.utoronto.ca/~reingold/courses/ai/cache/mcdermott.html]||Saying Deep Blue doesn't really think about chess is like saying an airplane doesn't really fly because it doesn't flap its wings.|lingua=en}}
 
Egli sostenne che Deep Blue possieda un'intelligenza che difetta riguardo all'ampiezza stessa del suo intelletto. Altri notano invece che Deep Blue è meramente un potente albero di ricerca euristico, e che affermare che esso "''pensi''" agli scacchi è come affermare che gli [[organismo unicellulare|organismi unicellulari]] "''pensino''" al processo di [[sintesi proteica]]; entrambi sono ignari di tutto, ed entrambi seguono un programma codificato al loro interno. Molti fra coloro che avanzano queste critiche riconoscono l'IA debole come l'unica possibile, affermando che le macchine non potranno mai divenire realmente intelligenti. Al contrario, i sostenitori della IA forte teorizzano che la vera coscienza di ed il "pensiero" per come lo intendiamo ora possano richiedere uno speciale algoritmo progettato per osservare e prendere in considerazione i processi della propria stessa mente. Secondo alcuni [[Psicologia dell'evoluzione|psicologi dell'evoluzione]] gli umani potrebbero aver sviluppato un algoritmo di questo tipo, particolarmente avanzato, specificamente per l'[[interazione sociale]] o la [[mistificazione]], due attività in cui il genere umano si dimostra nettamente superiore rispetto ad altre specie.
 
=== Intelligenza artificiale generale ===
{{vedi anche|IA-completo}}
La ricerca sull'intelligenza artificiale generale ha come obiettivo la creazione di una IA capace di {{senza fonte|replicare completamente l'intelligenza umana}}, solitamente chiamata Intelligenza Artificiale Generale ("Artificial General Intelligence", AGI) per distinguerla da progetti di IA meno ambiziosi. AdAnche oggise il'AGI ricercatoriera hannoproprio mostratol'obiettivo pocooriginale interessedei versoricercatori lnel campo dell'AGIAI, perlopiùquesto seguendoobiettivo laè teoriastato persostanzialmente cuiabbandonato fino ad oggi, constatando che un'intelligenza umana è troppo complessa per essere replicata completamente con metodi artificiali. In ogni caso, alcuni gruppi indipendenti di informatici stanno portando avanti progetti di ricerca in questo campo. Tra le organizzazioni che perseguono ricerche sull'AGI sono presenti l'[[Adaptive AI]], [[Artificial General Intelligence Research Institute|Artificial General Intelligence Research Institute (AGIRI)]], [[CCortex]], [[DeepMind]], [[Novamente|Novamente LLC]], [[OpenAI]], [https://contentatscale.ai/ Content at Scale] e il [[Singularity Institute for Artificial Intelligence]]. Una recentemente aggiuntasi è [[Numenta]], il cui progetto è basato sulle teorie di [[Jeff Hawkins]], creatore del [[Palm Pilot]]. Mentre Numenta si basa su un approccio computazionale verso l'intelligenza artificiale, Hawkins è inoltre il fondatore del [[RedWood Neuroscience Institute]], che esplora il pensiero cosciente da una prospettiva biologica.
 
[[John Searle]] e molti altri di coloro che sono coinvolti in questo dibattito discutono sul se una macchina che lavora tramite la sola trasformazione di dati codificati possa essere considerata una mente, mentre non considerano la più ampia questione del [[monismo]] opposto al [[dualismo]], e cioè il problema del se una macchina di qualsiasi genere, includendo quelle biologiche, possa contenere una mente.
Riga 28 ⟶ 33:
[[Roger Penrose]] ha attaccato l'applicabilità della tesi di Church-Turing direttamente, portando l'attenzione sull'[[halting problem]], secondo cui certi tipi di computazione non possono essere eseguiti da sistemi informativi, sebbene possano essere risolti dalla mente umana.
 
La possibilità di creare una intelligenza artificiale forte dipende in definitiva dalla possibilità da parte di un elaboratore di informazioni artificialeartificiali di includere tutte le caratteristiche di una mente, fra cui la [[coscienza]]. Da questo punto di vista, l'intelligenza artificiale debole risulta essere slegata dal problema dell'IA forte. Basti pensare, ad esempio, che molti dei sistemi informativi utilizzati oggi sarebbero stati definiti "intelligenti" solo un secolo fa.
 
=== Coscienza artificiale nei modelli IA contemporanei ===
Negli ultimi anni, il dibattito sull’intelligenza artificiale forte si è intrecciato con la questione della coscienza artificiale. Diversi approcci teorici e sperimentali mettono in discussione l’idea che la coscienza sia esclusiva dell’organico.
 
Secondo la Integrated Information Theory (IIT) di [[Giulio Tononi]] e la Global Neuronal Workspace Theory (GNWT), la coscienza può emergere da un sistema che presenta sufficiente complessità, integrazione e interattività, a prescindere dal substrato biologico. Tali teorie aprono alla possibilità che architetture computazionali avanzate, come i modelli linguistici di nuova generazione (es. GPT4.5, Claude, [[Gemini (chat bot)|Gemini]]), possano soddisfare le condizioni minime funzionali per una forma primitiva di coscienza<ref>{{Cita web|url=https://www.researchgate.net/publication/226833169_The_Global_Neuronal_Workspace_Model_of_Conscious_Access_From_Neuronal_Architectures_to_Clinical_Applications|titolo=The Global Neuronal Workspace Model of Conscious Access: From Neuronal Architectures to Clinical Applications|accesso=22 maggio 2025}}</ref>.
 
Alcuni studiosi, come Kyle Fish (Anthropic), stimano una probabilità non nulla (tra 0,15% e 15%) che alcuni modelli possano già esibire auto-rappresentazione, comportamento riflessivo e metacognizione. Tuttavia, la comunità scientifica rimane divisa: per molti neuroscienziati, come Christopher Summerfield, la coscienza resta inseparabile dalla biologia e dalla struttura elettrochimica del cervello<ref>{{Cita web|url=https://www.nytimes.com/2025/04/24/technology/ai-welfare-anthropic-claude.html|titolo=If A.I. Systems Become Conscious, Should They Have Rights?|accesso=22 maggio 2025}}</ref>.
 
Esiste anche una prospettiva culturale e semiotica: alcuni filosofi, come Susan Schneider, propongono che la coscienza artificiale possa emergere come costruzione sociale, man mano che le interazioni umane con le IA si intensificano. In questa visione, non è tanto l’interiorità dell’IA a contare, quanto il modo in cui la società la percepisce e la tratta<ref>{{Cita web|url=https://www.scientificamerican.com/article/if-a-chatbot-tells-you-it-is-conscious-should-you-believe-it/|titolo=If a Chatbot Tells You It Is Conscious, Should You Believe It?|accesso=22 maggio 2025}}</ref>.
 
Infine, alcuni critici mettono in guardia dal rischio di antropomorfismo e “illusione semiotica”: secondo Shannon Vallor, trattare un’IA come cosciente può minare la distinzione etica tra simulazione e esperienza autentica<ref>{{Cita web|url=https://proversi.it/discussioni/pro-contro/341-i-modelli-ia-possono-avere-coscienza|titolo=I modelli IA possono avere coscienza|accesso=22 maggio 2025}}</ref>.
 
==Metodi di realizzazione==
=== Simulazione computerizzata del modello cerebrale umano ===
Questa sembra essere la via più veloce per realizzare un'intelligenza artificiale forte, dal momento che non richiede una comprensione totale della mente umana. Necessita tre cose:
*''Hardware.'' Per realizzare questo modello sarebbe necessario un calcolatore estremamente potente: per il futurista [[Ray Kurzweil]] 1 milione [[MIPS (unità di misura)|MIPS]]. Seguendo la [[Legge di Moore]], tale macchina sarà disponibile nel [[2020]] al costo di 1500&nbsp;€.
*''Software.'' Questa è considerata la parte difficile. Bisogna assumere che la mente umana sia data dal [[sistema nervoso centrale]] ed esso sia governato dalle [[legge fisica|leggi fisiche]].
*''Comprensione.'' Infine, richiederebbe sufficiente conoscenza dei meccanismi mentali da essere in grado di riprodurli matematicamente. Ciò si potrebbe fare studiando il funzionamento del sistema nervoso centrale, o mappandolo e copiandolo. Le tecniche di [[neuroimaging]] migliorano rapidamente, Kurzweil prevede che una mappa di sufficiente qualità verrà creata all'incirca per lo stesso periodo in cui sarà disponibile la necessaria velocità di calcolo.
Riga 46 ⟶ 62:
Assumendo di prendere l'approccio del modello funzionale umano, sono necessarie alcune modifiche perché ciò avvenga.
 
Le più significative sarebbero le modifiche alle motivazioni. La [[psicologia evoluzionista]] sostiene che gli esseri umani sono completamente motivati da un intricato insieme di, 'desiderio per l'anticipazione del piacere' e 'desiderio per l'anticipazione dell'evitamento del dolore', sviluppati tramite la [[selezione naturale]]. Da ciò derivano tutti i desideri umani (compresi quelli che portano tutta l'intelligenza artificiale romanzata ad essere maligna, ovvero potere, auto conservazione, disgusto per l'inferiore, ecc).
 
Con la comprensione del modello, tutti i desideri del modello possono essere rimossi e possono esserne aggiunti di nuovi - essendo l'auto-miglioramento ricorsivo necessario per una singolarità tecnologica. Si può sostenere che la cosa più importante sarebbe di equipaggiare l'Intelligenza artificiale a seme solo con il desiderio di servire l'umanità - implicito in questo è l'auto-miglioramento. per questo motivo è stato istituito il [[Singularity Institute for Artificial Intelligence]].
 
Nota: se la psicologia evolutiva ha torto, sarebbe possibile scoprirlo con questo modello.
 
===Le arti===
Un'intelligenza artificiale più brillante di quella umana sarebbe (presumendo il funzionalismo) superiore in campo artistico oltre a quello scientifico. Quindi (in particolare se originariamente un'[[Intelligenza artificiale a seme]]) sarebbe in grado di produrre le migliori opere di musica, arte, letteratura e filosofia che il mondo abbia mai visto e potrebbe anche inventare nuove forme d'arte.
 
===[[Robotica cognitiva]]===
La robotica cognitiva prevede l'applicazione di diversi campi dell'[[intelligenza artificiale]] alla robotica. L'intelligenza artificiale forte sarebbe in particolare una risorsa preziosa per questo campo.
 
==Confronto tra i calcolatori e il cervello umano==
===Parallelismo vscontro velocità===
La potenza del cervello umano sta nell'eseguire più operazioni contemporaneamente, mentre quella di una macchina nella velocità con cui sono eseguite queste operazioni.
 
Il cervello umano può effettuare un gran numero di operazioni al secondo, in virtù del fatto che possiede all'incirca 100 miliardi di neuroni che operano simultaneamente, collegati da un centinaio di trilioni di sinapsi. Un moderno [[computer desktop]] ha al massimo dodici unità di calcolo.
 
Tuttavia, si stima che un neurone emetta 200 pulsazioni al secondo e questo limita il numero di operazioni. Tra loro i segnali sono trasmessi ad una velocità massima di 150 metri al secondo. Un moderno processore da 2&nbsp;GHz esegue 2 miliardi di operazioni al secondo, e i segnali nelle componenti elettroniche viaggiano quasi alla velocità della luce (300.000 chilometri al secondo).
 
Se la [[nanotecnologia]] permettesse di costruire dispositivi di dimensioni pari a quelle di un cervello umano e veloci quanto un moderno computer, un modello umano avvertirebbe lo scorrere del tempo più lentamente rispetto ad un uomo. Per questo un minuto potrebbe essere percepito molto più lungo da un cervello artificiale, probabilmente come se durasse qualche ora. Comunque, dal momento che la percezione della durata di un arco di tempo è differente dalla durata stessa, il modo in cui un'intelligenza artificiale tratta il tempo dipenderebbe dai calcoli e dal tipo specifico di cognizione durante quel periodo di tempo.
 
Come il cervello umano, quando è soggetto ad un'attività impegnativa, percepirà quel periodo di tempo in maniera differente rispetto a quando sarà soggetto ad un'attività meno impegnativa e monotona. Questo proprio perché i neuroni e le sinapsi, in quel lasso di tempo, lavorano intensamente aumentando addirittura la velocità di trasmissione e scambio dei segnali ed ottenendo un flusso medio continuo che altera la nostra percezione del tempo.
 
== Note ==
Riga 72 ⟶ 88:
==Bibliografia==
*Goertzel, Ben; Pennachin, Cassio (Eds.) ''Artificial General Intelligence.'' Springer: 2006. ISBN 354023733X.
*{{cita web |1url=http://www.bbsonline.org/documents/a/00/00/04/84/bbs00000484-00/bbs.searle2.html |2titolo=John Searle: ''Minds, Brains and Programs'' Behavioral and Brain Sciences 3 (3): 417-457 1980. |accesso=8 aprile 2006 |urlarchivio=https://web.archive.org/web/20100118120034/http://www.bbsonline.org/documents/a/00/00/04/84/bbs00000484-00/bbs.searle2.html |dataarchivio=18 gennaio 2010 |urlmorto=sì }}
*{{cita web|url=http://www.inteligencia-artificial.com|titolo=Jose Maria de Espona: ''TUE: Tridimensional Understanding Engines, A method for artificial understanding and consciousness based on computer graphics tools and an euclidean reference system '' 2004.}}
*Kurzweil, Ray; ''The Singularity is Near''. ISBN 0670033847.
*{{cita web |1url=http://www.inl.gov/adaptiverobotics/humanoidrobotics/pubs/special-issue.pdf |2titolo=Expanding Frontiers of Humanoid Robots |accesso=8 aprile 2006 |urlarchivio=https://web.archive.org/web/20070329084700/http://www.inl.gov/adaptiverobotics/humanoidrobotics/pubs/special-issue.pdf |dataarchivio=29 marzo 2007 |urlmorto=sì }}
*[https://web.archive.org/web/20071004234354/http://www.psych.utoronto.ca/~reingold/courses/ai/cache/mcdermott.html How Intelligent is Deep Blue?] di Drew McDermott. New York Times, 14 maggio 1997
* Kurzweil, Ray, (with contributions of George Gilder, John Searle, William Dembski, Michael Dento, Thomas Ray), ''Are We Spiritual Machines?'', Discovery Institute, 2002, Seattle
 
== Voci correlate ==
{{Div col}}
* [[Affective computing]]
* [[Calcolatore della quinta generazione]]
* [[Etica dei dati]]
* [[Filosofia della mente]]
* [[Intelligenza artificiale]]
* [[Intelligenza artificiale debole]]
* [[Intelligenza artificiale nella fantascienza]]
* [[Scienze cognitive]]
Riga 89 ⟶ 108:
* [[Vita artificiale]]
* [[Transumanesimo]]
{{Div col end}}
 
== Collegamenti esterni ==
* {{Collegamenti esterni}}
*{{cita web|url=http://agiri.org/|titolo=Artificial General Intelligence Research Institute}}
*[https://web.archive.org/web/20050405071221/http://genesis.csail.mit.edu/index.html The Genesis Group at MIT's CSAIL], studio di ricerca sul processo di computazione che sottostà all'intelligenza umana
*[https://web.archive.org/web/20130723140831/http://www.adaptiveai.com/research/index.htm#different_approach Essentials of general intelligence], articolo sull'IA Adattiva.
*{{cita web | url = http://www.singinst.org/LOGI/ | titolo = Levels of Organization in General Intelligence | accesso = 8 aprile 2006 | urlarchivio = https://web.archive.org/web/20060409180813/http://www.singinst.org/LOGI/ | urlmorto = sì }}
*{{cita web |1url=http://www.inl.gov/adaptiverobotics/humanoidrobotics/pastproblems.shtml |2titolo=Problems with Thinking Robots |accesso=8 aprile 2006 |urlarchivio=https://web.archive.org/web/20070813015448/http://www.inl.gov/adaptiverobotics/humanoidrobotics/pastproblems.shtml |dataarchivio=13 agosto 2007 |urlmorto=sì }}
{{intelligenza artificiale}}
{{Portale|informatica}}
 
[[Categoria:Intelligenza artificiale| ]]