Intelligenza artificiale forte: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
(5 versioni intermedie di 4 utenti non mostrate) | |||
Riga 17:
{{Citazione|Dire che Deep Blue, giocando a scacchi, non stia effettivamente pensando è come dire che un aereo non voli perché non sbatte le ali.||Saying Deep Blue doesn't really think about chess is like saying an airplane doesn't really fly because it doesn't flap its wings.|lingua=en}}
Egli sostenne che Deep Blue possieda un'intelligenza che difetta riguardo all'ampiezza stessa del suo intelletto. Altri notano invece che Deep Blue è meramente un potente albero di ricerca euristico, e che affermare che esso "''pensi''" agli scacchi è come affermare che gli [[organismo unicellulare|organismi unicellulari]] "''pensino''" al processo di [[sintesi proteica]]; entrambi sono ignari di tutto, ed entrambi seguono un programma codificato al loro interno. Molti fra coloro che avanzano queste critiche riconoscono l'IA debole come l'unica possibile, affermando che le macchine non potranno mai divenire realmente intelligenti. Al contrario, i sostenitori della IA forte teorizzano che la vera coscienza di
=== Intelligenza artificiale generale ===
Riga 34:
La possibilità di creare una intelligenza artificiale forte dipende in definitiva dalla possibilità da parte di un elaboratore di informazioni artificiali di includere tutte le caratteristiche di una mente, fra cui la [[coscienza]]. Da questo punto di vista, l'intelligenza artificiale debole risulta essere slegata dal problema dell'IA forte. Basti pensare, ad esempio, che molti dei sistemi informativi utilizzati oggi sarebbero stati definiti "intelligenti" solo un secolo fa.
=== Coscienza artificiale nei modelli IA contemporanei ===
Negli ultimi anni, il dibattito sull’intelligenza artificiale forte si è intrecciato con la questione della coscienza artificiale. Diversi approcci teorici e sperimentali mettono in discussione l’idea che la coscienza sia esclusiva dell’organico.
Secondo la Integrated Information Theory (IIT) di [[Giulio Tononi]] e la Global Neuronal Workspace Theory (GNWT), la coscienza può emergere da un sistema che presenta sufficiente complessità, integrazione e interattività, a prescindere dal substrato biologico. Tali teorie aprono alla possibilità che architetture computazionali avanzate, come i modelli linguistici di nuova generazione (es. GPT4.5, Claude, [[Gemini (chat bot)|Gemini]]), possano soddisfare le condizioni minime funzionali per una forma primitiva di coscienza<ref>{{Cita web|url=https://www.researchgate.net/publication/226833169_The_Global_Neuronal_Workspace_Model_of_Conscious_Access_From_Neuronal_Architectures_to_Clinical_Applications|titolo=The Global Neuronal Workspace Model of Conscious Access: From Neuronal Architectures to Clinical Applications|accesso=22 maggio 2025}}</ref>.
Alcuni studiosi, come Kyle Fish (Anthropic), stimano una probabilità non nulla (tra 0,15% e 15%) che alcuni modelli possano già esibire auto-rappresentazione, comportamento riflessivo e metacognizione. Tuttavia, la comunità scientifica rimane divisa: per molti neuroscienziati, come Christopher Summerfield, la coscienza resta inseparabile dalla biologia e dalla struttura elettrochimica del cervello<ref>{{Cita web|url=https://www.nytimes.com/2025/04/24/technology/ai-welfare-anthropic-claude.html|titolo=If A.I. Systems Become Conscious, Should They Have Rights?|accesso=22 maggio 2025}}</ref>.
Esiste anche una prospettiva culturale e semiotica: alcuni filosofi, come Susan Schneider, propongono che la coscienza artificiale possa emergere come costruzione sociale, man mano che le interazioni umane con le IA si intensificano. In questa visione, non è tanto l’interiorità dell’IA a contare, quanto il modo in cui la società la percepisce e la tratta<ref>{{Cita web|url=https://www.scientificamerican.com/article/if-a-chatbot-tells-you-it-is-conscious-should-you-believe-it/|titolo=If a Chatbot Tells You It Is Conscious, Should You Believe It?|accesso=22 maggio 2025}}</ref>.
Infine, alcuni critici mettono in guardia dal rischio di antropomorfismo e “illusione semiotica”: secondo Shannon Vallor, trattare un’IA come cosciente può minare la distinzione etica tra simulazione e esperienza autentica<ref>{{Cita web|url=https://proversi.it/discussioni/pro-contro/341-i-modelli-ia-possono-avere-coscienza|titolo=I modelli IA possono avere coscienza|accesso=22 maggio 2025}}</ref>.
==Metodi di realizzazione==
Riga 100 ⟶ 111:
== Collegamenti esterni ==
* {{Collegamenti esterni}}
*{{cita web|url=http://agiri.org/|titolo=Artificial General Intelligence Research Institute}}
*[https://web.archive.org/web/20050405071221/http://genesis.csail.mit.edu/index.html The Genesis Group at MIT's CSAIL], studio di ricerca sul processo di computazione che sottostà all'intelligenza umana
|