Mi è stato segnalato – nell’ambito di una discussione sulla valicità del metodo falsificazionista – questo articolo:
Ho notato come alcuni sostenitori di teorie pseudoscientifiche spesso si avvalgano di queste posizioni.
COMUNQUE,
C’è molto di buono in questo articolo.
Per esempio, dove dice: <<So, when anti-vaxxers or anti-evolutionists or climate change deniers point to this or that result to argue that they have falsified the scientific consensus, they are making a meaningless statement. What they need to do is produce a preponderance of evidence in support of their case, and they have not done so.>> heart …. come non applaudire (aspettate, traduco per chi non sa l’inglese <<Quindi, quando gli anti-vaxx o gli anti-evoluzionisti o i negazionisti del cambiamento climatico indicano questo o quel risultato per sostenere di aver falsificato il consenso scientifico, stanno facendo un’affermazione priva di significato. Quello che devono fare è produrre una preponderanza di prove a sostegno della loro tesi, e non l’hanno fatto.>>
Comunque questo articolo si SPOSA dolcemente con alcune posizioni riconosciutissime.
La comunità scientifica riconosce come scienza ciò che segue un certo protocollo, ma il protocollo è estremamente complesso. Il riduzionismo stretto è un ideale non pienamente raggiungibile, questo è EVIDENTE e lo sappiamo. Il falsificazionismo, essenzialmente, si può esprimere come l’idea che quando ci si confronta con una Teoria non è bene cercare prove scientifiche che la sostengano, ma è più saggio cercare prove che la contraddicano, quindi che la falsifichino. E ok… Questo approccio, però, ha un limite enome: l’impossibilità di confermare per vera la maggior parte delle verità, in quanto per farlo dovrei avere dei punti fissi e non li ho! Non li ha nessuno! Per farlo posso dare per fissi (veri) dei punti precedentemente falsificati, ma questi non possono a loro volta che poggiare sullo stesso limite. Questo va benissimo: rientra nel limite della conoscenza. Karl Popper é stato il prototipo del “pensatore critico”, infatti egli ha posto il “dubbio” ad architrave di tutto il suo pensiero, sostenendo l’asimmetricità che esiste tra la verifica di una teoria e la prova definitiva della sua correttezza scientifica: ciò è impossibile per Popper! Per Popper una teoria non potrà mai essere ritenuta vera, ma solo falsificata…in attesa di ulteriori fatti che la smentiscano (se mai arriveranno).
Richard Feynman espresse già correttamente questo concetto, disse (e portate un minimo di riconoscimento, questo non ce l’ho in copia-ed-incolla e devo copiarlo a mano) : “Immaginate di aver avuto una buona intuizione; di aver calcolato che tutte le conseguenze della vostra premessa sono in accordo con gli esperimenti. La teoria è giusta? No, semplicemente non si è potuto dimostrare che sia sbagliata. Perché in futuro, un numero maggiore di esperimenti potrebbe scoprire una discrepanza e la teoria si rivelerebbe sbagliata. E’ per questo che le leggi di Newton per il moto dei pianeti sono rimaste valide per così tanto tempo: ha ipotizzato la legge della gravitazione e con questa ha calcolato i moti dei pianeti e li ha confrontati con gli esperimenti e ci sono volute diverse centinaia di anni prima che un minuscolo errore nel moto di mercurio fosse osservato. Durante tutto quel tempo nessuno era stato in grado di dimostrare che la teoria fosse sbagliata e poteva essere considerata temporaneamente giusta. Ma non può mai essere DIMOSTRATA giusta perché le osservazioni di domani possono svelare che quello che credevamo giusto in realtà era sbagliato. Per cui non abbiamo mai la certezza di essere nel giusto, possiamo solo essere sicuri di quando ci accorgiamo di esserci sbagliati.”
Tuttavia, l’auto-correzione scientifica ed il rischio di non poter essere mai certi non è una debolezza della scienza ma una forza: la possibilità di auto-correggersi e non dover mantenere posizioni che si scoprono scorrette non implica una mancanza di conoscenza, infatti l’osservazione del percorso di auto-correzione scientifica mostra una riduzione sistematica del margine d’errore. In tal senso la correzione va intesa come una riduzione dell’errore: le leggi di Newton non erano sbagliate per assoluto (l’assolutismo in scienza va abbandonato proprio come idea) ma tali leggi possedevano un margine di errore maggiore di altre descrizioni più accurate; stabilito il margine d’errore accettabile si possono definire le leggi valide per quel margine. Il margine però non è sempre uguale in ogni misurazione: abbiamo visto come con l’aumentare della gravità o della velocità il margine di errore delle leggi di Newton si alza, pertanto le leggi di Einstein diventano migliori perché, anche a velocità e gravità tanto alte mantengono (per le misurazioni che abbiamo potuto fare ad oggi) un basso margine d’errore, ad oggi individuato solo nei limiti di misurazione, un domani chissà.
Questo significa che è sbagliato parlare di assoluta correttezza od assoluta scorrettezza di una legge.
Lo stesso Lamark, che oggi riteniamo confutato, descrive l’evoluzione con un principio all’opposto di quella oggi utilizzata, ma entro certi margini di errore (altissimi in rapporto alle attuali misurazioni) funziona.
Spesso si fa l’errore di ritenere il sistema copernicano assolutamente diverso da quello tolemaico: non è vero; il sistema copernicano pone il sole al centro, quello tolemaico pone la Terra; se però prendiamo le equazioni di uno o dell’altro troviamo che dai valori di uno si ottengono quelli dell’altro: ciò che cambia realmente è il punto di riferimento. E’ sempre un problema di insieme di definizione o margine di validità.
Il riduzionismo spesso viene attaccato sulla base della non riducibilità dei fenomeni a fenomeni di tipo chimco o fisico, ma questo non è l’essenza di ciò che di riduzionistico oggi è composta la scienza: Il riduzionismo in generale sostiene che gli enti, le metodologie o i concetti di una scienza debbano essere ridotti a dei minimi comuni denominatori o a delle entità il più elementari possibili.
Ma questa riduzione non è possibile in modo illimitato, questo lo sappiamo e lo accettiamo.
Resta però il principio della attendibilità di una asserzione: una asserzione afferma una potenziale verità tanto più probabile quante meno solo le verità che siamo costretti ad assumere arbitrariamente per vera, ma esiste sempre un margine d’errore legato alla fallibilità delle verità che assumiamo.
Ciò a cui si deve rinunciare è la certezza: in scienza non esistono certezze! (e mi sorprende doverlo precisare). Non esistono in scienza ed è scientifico e logico-razionale dire che non ci sono campi e fonti che hanno dimostrato di poterne fornire. Posto questo, ciò a cui si punta è la riduzione del margine di errore e solo quello.
La prova scientifica, lo stesso metodo Galileiano basa su quello:
In una realtà immaginaria possiamo assumere con certezza sia assiomi che logica.
In una realtà imposta dal fatto di non averla inventata noi, come quella fisica in cui viviamo e di cui siamo parte, non possiamo scegliere noi gli assiomi né la logica. Possiamo solo assumere la logica (quella razionale, con tutte le sue conseguenze; se sbagliamo non avremo garanzie. La logica razionale ha assunto un bel po’ di attendibilità, ma liberissimi di scegliere diversamente, sebbene abbia osservato che non sono tanti a volersi dire irrazionali, però il termine quello è)… e poi ci sono le premesse: noi possiamo cercare di desumerle ma, ahimè, proprio per il principio sollevato dall’articolo MAI possiamo esserne certi: ogni nostra assunzione si basa su altre “sicurezze” che certe non sono mai.
Possiamo solo RIDURRE il margine di errore: deduciamo le conseguenze della nostra intuizione e poi tentiamo di costruire prove basandoci su ciò che abbiamo dedotto.
Le prove ideali sarebbero falsificazioniste, ma non è sempre possibile.
Esistono poi prove di tipo verificazioniste, che però non sono altrettanto forti
Si può anche ottenere una conclusione non sufficientemente provata; ma ciò la logica della scienza applica è l’assunzione che tra n possibili spiegazioni, quella che assume meno variabili concorrenti, di cui meno arbitrarie possibili e che abbiano meno potenziali valori diversi è quella più probabile.
Le prove falsificazioniste o verificazioniste servono a scartare alcune di queste ipotesi: se per esempio sulla scala riduzionistica ho 5 ipotesi, io sono intuitivamente portato alla terza, ma vi sono 2 ipotesi prima meno complesse, solo delle prove che smontino quella e confermino la terza possono far avanzare verso la teoria.
In tutto questo il principio è nella riduzione del margine di errore. Questo si semplifica nell’applicazione del rasoio di Occam in un contesto di accettazione della mancanza di certezza e che sfocia in quella che chiamiamo scienza galileiana: il metodo di Galileo, che esprime una riduzione del margine d’errore ideale. A questo Popper e Kuhn hanno dato un valido apporto, ma l’approccio olistico in questo senso inteso è quello tutt’oggi applicato. Esistono diverse posizioni su cui si discute liberamente, ma ad oggi la comunità scientifica (che poi è colei che detiene l’arbitrato sulla questione) abbraccia questo metodo.
E’ normale che si formino correnti che spingano per perfezionamenti ipotetici, ma questo non invalida il sistema.
Il falsificazionismo non è la risposta a tutto, su questo concordiamo anche in ambito CICAP.
E’ possibile, parzialmente, adoperarlo per distinguere tra scienza e pseudoscienza.
proviamo a usare il criterio della falsificabilità in negativo, cioè definiamo come pseudoscienze le discipline che non lo applicano. Dovremmo dire che le affermazioni pseudoscientifiche per definizione non sono confutabili, ma questo non è sempre vero. L’astrologia, per esempio, fa affermazioni falsificabili, e infatti è stata messa alla prova sperimentalmente e ha totalmente fallito.
la mancanza di falsificabilità può essere una caratteristica delle teorie pseudoscientifiche, ma non sempre lo è: più che una condizione necessaria, sembra essere quella che i logici chiamano una condizione sufficiente.
Tuttavia, per definire qualcosa scienza (ad oggi) è necessario che attraverso dei metodi verificabili trasponibili in un confronto alla pari, in cui valgano alcune regole ben precise, si riduca il margine di errore.
La falsificazione, come il verificazionismo ed il riduzionismo hanno dei limiti ma il gioco è tutto in quei limiti ed un approccio olistico accettato e abbracciato dalla comunità scientifica si muove comunque su dei paletti ben precisi: lo scopo è tenere alto il livello di sgrossamento dai margini alti di errore.
Le pseudoscienze ricorrono spesso a vari stratagemmi per evadere la confutazione sperimentale o per eludere l’applicazione dei corretti principi riduzionistici.
Il fatto che un elemento poggi su un altro di cui non si ha certezza costituisce un margine d’errore e di rischio, ma non può essere sostituito con una arbitraria selezione di parametri allo scopo di costruire le premesse con un ragionamento abduttivo mancante, poi, della struttura suddetta.
O meglio, tutto si può fare, ci si può anche riunire in gruppi di discussione e parlarne. Ma questo non avallerà ugualmente la cosa alla luce della comunità scientifica.
Su ScientiaNexus: https://www.scientianexus.com/2023/12/22/la-questione-del-metodo-riduzionismo-falsificazionismo-verificazionismo-metodo-olistico/