Probabilismo: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Riga 24:
Attualmente per probabilismo si intende correntemente ciò che concerne la sfera del "fisico", ovvero della ''materia'' nel suo ''essere'' soggetto alle leggi della fisica, quando è non-deterministico. Nella filosofia contemporanea il ''probabilismo ontico'' è l'indirizzo gnoeologico-scientifico per il quale il carattere di probabilità viene riconosciuto ad un certo numero di settori del conoscere, soggetti a indeterminismo. Sistemi indeterministici sono in primo luogo tutti quelli biologici, ma anche molti tipi di sistemi fisici lo sono, sia di tipo semplice che complesso.
 
Tali sistemi vanno soggetti ad approcci conoscitivi che devono abbandonare l'idea delle possibilità di "definire" i loro caratteri dinamici, ma solo di accertarne l'evoluzione "probabile". Ciò avviene perché le variabili in gioco o sono instabili o sono in numero così elevato da rendere impossiblie distrircarnedistricarne la complessità, ovvero gli intrichi causali che determinano una [[Non-linearità]] delle cause coinvolte nel sistema.
 
===Sistemi semplici elementari===
Il primo a intravedere il carattere probabilistico della realtà fisica del molto piccolo era stato [[Ludwig Boltzmann]] (1844-1906), il quale aveva già capito che il mondo dell'elementarità fisica non sarebbe mai potuto rientrarorientrare nelle leggi della fisica del macroscopico, soggetto alla [[meccanica classica]].<ref>N.Zanghì, ''I fondamenti concettuali dell’approccio statistico in fisica'', in: Aa.Vv., ''La natura delle cose'', Roma, Carocci 2006, p.139.
</ref>
 
Riga 35:
In riferimento ai sistemi fisici semplici il ''probabilismo'' concerne specialmente gli oggetti del mondo subatomico, le [[Particelle elementari]], indagati dalla [[Meccanica quantistica]] ed alcuni aspetti fenomenici nella [[cosmogonia]] del [[Modello Standard]].
Il probabilismo del mondo quantistico, già sostenuto implicitamente da [[Niels Bohr]] sin dal 1920, si rafforzava nel 1927 allorché [[Werner Heisenberg]] con il [[Principio di indeterminazione]] confermava come inoppugnabile l'[[indeterminismo]] del mondo quantistico e quindi il probabilismo ontico che lo concerneva.
Nel l9531953 [[Louis Dede Broglie]], che era un determinista con forti accenti religiosi, tentava di ruimescolarerimescolare le carte proponendo per il ''probabilismo'' l'espressione sostitutiva di "determinismo debole-imperfetto".
 
[[Max Born]] già nel 1927 in ''Natural Philosophy Of Cause And Chance'' (Oxford: Clarendon Press, 1927), affermava: {{quote| Quando una teoria scientifica è saldamente stabilita e confermata, essa muta di carattere, ed entra a far parte del sostrato metafisico della sua epoca: la dottrina si trasforma così in un dogma. La verità è invece che nessuna dottrina scientifica possiede un valore che vada oltre quello probabilistico, ed essa è sempre suscettibile di venir modificata alla luce di nuove esperienze. | ''Filosofia naturale della causalità e del caso'', Torino, Boringhieri 1962, p.65 }}
 
Nel 1967 [[Richard Feynman]] in ''The Character of Physical Law'' (1964 Messenger Lectures; 1967 MIT Press) precisava meglio i termini del probabilismo ontico sostenendo:
 
{{quote| Non è la nostra ignoranza degli ingranaggi e delle complicazioni interne che fa apparire nella natura la probabilità, la quale sembra invece essere una caratteristica intrinseca di essa. Qualcuno ha espresso quest’idea così: ”La natura stessa non sa da che parte andrà l’elettrone.” Una volta un filosofo ha detto: “È necessario per l’esistenza stessa della scienza che le stesse condizioni producano sempre gli stessi risultati”. Bèh, non è vero. Anche quando le condizioni rimangono eguali, non si può predire dietro a quale foro si vedrà l’elettrone. Eppure la scienza, nonostante tutto, continua ad andare avanti, anche se le stesse condizioni non producono sempre gli stessi risultati. Certo, il fatto di non poter predire esattamente quello che succederà ci rende un po’ infelici. […] Quello che è necessario “per l’esistenza stessa della scienza” e quelle che sono le caratteristiche della natura non devono essere determinate da pretenziose condizioni aprioristiche, ma dal materiale con cui lavoriamo, cioè dalla natura. Noi guardiamo, vediamo, troviamo, e non possiamo decidere in precedenza quello che deve essere. Le possibilità più plausibili spesso risultano non essere vere. | ''La legge fisica'', Torino, Bollati Boringhieri 1993, pp.165-166. }}
 
Poche pagine più avanti Feynman precisava che il probabilismo non è solo nell’essere della materia subatomica in quanto tale, ma anche nell’approccio scientifico stesso ad essa:
 
{{quote| In genere, per cercare una nuova legge usiamo il seguente procedimento. Anzitutto tiriamo a indovinare la forma della legge e poi calcoliamo le conseguenze della nostra supposizione per vedere quello che ne deriverebbe se la legge che abbiamo cercato di indovinare fosse giusta. Poi confrontiamo il risultato del calcolo con la natura per mezzo di esperimenti, paragonandolo direttamente con l’osservazione e vediamo se funziona. Se non concorda con l’esperimento, allora la nostra legge è sbagliata, e in questa semplice affermazione sta la chiave della scienza. | ‘’Idem’’, pag.171 }}
 
Murray Gell-Mann, lo scopritore dei quark nel 1964 (Premio Nobel 1969), in ''The Quark and the Jaguar'' sul fondamentale probabilismo della materia elementare dichiara:
Riga 57:
 
===Sistemi macroscopici complessi===
Per quanto riguarda i sistemi fisici [[complessità|complessi]], come quelli studiati da [[Ilja Prigogine]] (Premio Nobel 1977), si tratta di situazioni fisiche che possono evolvere in stati di [[non-equilibrio]] da lui chiamati [[Strutture dissipative]] , tali da determionaredeterminare delle [[biforcazione|biforcazioni]] evolutive verso equilibri nuovi e differenti più o meno probabili.
Prigogine può perciò esser considerato il maggior esponente del probabilismo della complessità, avendo speso la maggior parte della sua vita ad occuparsi dei sistemi complessi e indirettamente del probabilismo ontico. Infatti, in situazioni di disequilibrio, allorché le possibilità evolutive entrano in un processo di successive biforcazioni, queste sono tutte governate unicamente da probabilità del tipo ‘’aut/aut’’. Alla fine del processo, quando il sistema si assesta in un nuovo equilibrio, l’unica domanda che lo scienziato può farsi in termini gnoseologici è la seguente: «Era da ritenersi probabile o improbabile che finisse così? » .
 
Prigogine scrive (con Isabelle Stengers) in ''La Nouvelle Alliance'' (1979):
Riga 65:
Prigogine in ''Les Lois du Cas'' si sofferma ancora sulla miscela probabilistica caso/necessità, notando:
 
{{quote| Comunque le considerazioni statistiche della meccanica quantistica si applicano solo a livello macroscopico. Ecco uno dei punti interessanti dello studio sui punti di biforcazione che ho appena menzionato. Questi dimostrano che persino a livello macroscopico la nostra predizione del futuro mescola insieme determinismo e probabilità. Nel punto della biforcazione la predizione ha carattere probabilistico, mentre tra punti di biforcazione possiamo parlare di leggi deterministiche. }} <ref>I.Prigogine, Le leggi del caos, Roma-Bari, Laterza 2006, p.23</ref>
}} <ref>I.Prigogine, Le leggi del caos, Roma-Bari, Laterza 2006, p.23</ref>
 
In ''La fine des certitudes'' (èd.Odile Jacob, Paris 1996) Prigogine precisa ancora meglio il suo probabilismo:
 
{{quote| La nozione di probabilità, introdotta empiricamente da Boltzmann, fu un atto di coraggio estremamente fecondo. A più di un secolo di distanza cominciamo a capire in che modo essa emerga attraverso l’instabilità: questa distrugge il livello individuale e quello statistico, e di conseguenza le probabilità vengono ad assumere un significato intrinseco, irriducibile a un’interpretazione in termini di ignoranza o di approssimazione }} <ref>I.Prigogine, La fine delle certezze, il tempo, il dcasoscaos e le leggi della natura, Torino, Bollati-Boringhieri 2003, pp. 34-35</ref>
 
Dal momento che l’[[entropia]] è uno degli aspetti più rilevanti della complessità, e indirettamente del probabilismo, il fisico Lee Smolin così ne parla in ''The Life of the Cosmos'' (Oxford University Press 1997):
 
{{quote| È a causa di questo semplice fatto che ci sono molte più configurazioni di atomi in disordine di quante ce ne siano di organizzate in modo interessante. Una collezione di atomi, ciascuno dei quali si muove in modo casuale, assumerà uno stato disordinato con molta più probabilità di una configurazione organizzata, per il semplice motivo che di stati disordinati ce n’è un sacco di più. È per questo che lo stato disordinato è lo stato di equilibrio, perché una volta che tale stato venga raggiunto, è molto improbabile che il sistema possa per conto suo ritornare ad una configurazione più ordinata. L’essenza della legge di crescita dell’entropia è tutta qui }} <ref>L.Smolin, La vita del cosmo, Torino, Einaudi 1998, pp. 191-192</ref>