|
Appunti universita |
|
Visite: 1037 | Gradito: | [ Medio appunti ] |
Leggi anche appunti:Il genere della favola (dal iii millennio a.c. ad oggi)IL GENERE DELLA FAVOLA (dal III millennio a.C. ad oggi) Favola: narrazione Riassunti di geografia turistica - i mezzi di comunicazione e il turismo, i flussi turistici, le tipologie, le aree turisticheRiassunti di geografia turistica i mezzi di comunicazione e il turismo, HeideggerHEIDEGGER Origine del problema dell'essere Essere e tempo, 1927, è analisi |
La causazione come scienza ingenua
Il tema della causalità, o meglio del principio di causa, dominante in tutte le scienze deterministiche classiche, viene definito da John Norton, una scienza ingenua, messa radicalmente in questione dalla scienza contemporanea, con gli sviluppi della meccanica quantistica, ma ancor prima dalla termodinamica e dall'elettromagnetismo. La nozione più comune di causa è la connessione tra due eventi, condizione necessaria e sufficiente affinchè dal primo derivi inevitabilmente il secondo.
Nel mondo antico, l'Ellenismo segnò il momento di massimo vigore delle scienze definite "esatte". Tranne la matematica, considerata la scienza esatta per eccellenza, l'astronomia, la fisica e soprattutto la meccanica presentavano all'interno del paradigma una serie di tesi e principi formulati alla luce dei nessi causali esistenti tra i fenomeni. Per quanto riguarda la matematica il più importante fu Euclide, autore dell'opera "Elementi". Quest'opera è una raccolta di assiomi, teoremi, corollari e definizioni che costituivano, nell'accezione khuniana, un paradigma: corpo fondamentale di proposizioni universali riconoscibili e un modello per i requisiti cui ogni ulteriore insieme di proposizioni deve soddisfare. Quindi alla matematica fu affidato un ruolo di giudice della validità della produzione scientifica. In particolare, tale giudizio riguardava la correttezza dei teoremi proposti e ciò era ottenuto o mediante il controllo della loro compatibilità con altri teoremi correttamente dimostrati, o mediante un controllo dell'effettiva deducibilità dei teoremi proposti. Anche Archimede di Siracusa, genio nel campo della fisica, si occupò di matematica: resta fondamentale la sua misura della circonferenza, mediante la determinazione del valore di p, che esprime il rapporto tra diametro e circonferenza, e la formulazione del volume della sfera. Dal punto di vista fisico studiò il galleggiamento dei corpi, secondo la nota spinta di Archimede, il piano inclinato, i principi della leva e il moto rettilineo uniforme.(opere: Arenario, sull'equilibrio dei piani, sui galleggianti).Un altro matematico importante fu Erone, divenuto famoso per le formule di misurazione dei poligoni regolari e per la formula trigonometrica dell'area di un triangolo. Per quanto riguarda l'astronomia, essa, secondo la cultura ellenistica non era una vera disciplina scientifica: i cieli e i loro fenomeni furono, per gli ellenisti, la sede del divino e il piano di manifestazione dell'ordine del mondo. Sta qui la principale ragione della varietà tipologica dei testi antichi sui cieli: ogni astronomo, secondo la sua conoscenza scientifica, dava un'interpretazione diversa al fenomeno. I più importanti da ricordare sono Ipparco di Nicea, produttore del catalogo di stelle, classificate secondo la loro magnitudine apparente, ad Aristarco di Samo si deve la prima teoria eliocentrica dell'antichità. Come riferito da Archimede, egli suppose che le stelle fisse stiano immutabili e che la terra giri intorno al Sole descrivendo un cerchio. Importante fu anche Eratostene, che utilizzò le sue conoscenze di matematica non solo per disegnare la prima carta del mondo con il criterio dei meridiani e dei paralleli, ma riuscì a calcolare le dimensioni della terra con un'approssimazione di poche decine di chilometri inferiore al calcolo moderno. Un ultimo nome importante è Conone, famoso per la scoperta della costellazione da lui detta Chioma di Berenice.
Alla fine del'700, dopo le rivoluzioni scientifiche e la formulazione del paradigma Newtoniano, in cui gli eventi erano spigati mediante un nesso causa-effetto, si ebbe la prima crisi del concetto di causa con Hume, nell'opera "Trattato sulla natura umana". Secondo quest'ultimo, l'idea che esista un rapporto di causa-effetto fra gli eventi deriva solo dall'abitudine. Ciò che figura come la causazione in realtà non è altro che una congiunzione costante all'interno delle nostre esperienze effettive. Laddove Hume vedeva una congiunzione costante, Mach, membro del circolo di Vienna, esponente dell'empirio-criticismo e autore dell'opera "Analisi delle sensazioni e distinzione tra fisico e psichico", scorgeva una dipendenza funzionale. Il concetto di causa viene sostituito da quello di funzione. La funzione, per Mach, è l'insieme dei fatti fisici e psichici, elementi chiamati sensazioni. Questa funzione ha l'ufficio di richiamare l'insieme di tutte le reazioni relative all'oggetto designato e di attirare questi ricordi nella coscienza. La funzione scientifica realizza in pieno queste caratteristiche e le funzioni di cui la scienza si avvale sono semplici segni riassuntivi, da cui possono scaturire reazioni possibili. Inoltre Mach conserva il concetto di scienza come descrizione di fatti e precisamente di ciò che nei fatti c'è di uniforme e costante, ovvero le leggi intese come strumenti di previsione. Questi due punti fondamentali costituiscono i due punti cardini della fase critica della fisica che la teoria della relatività e la meccanica quantistica porteranno a compimento.
A mettere in crisi la fisica classica Newtoniana è stata sicuramente la meccanica quantistica, poiché essa descrive il comportamento della materia a livello microscopico e permette di interpretare e quantificare fenomeni che non possono essere giustificati dalla meccanica classica. A differenza di quest'ultima, che ci consegna una conoscenza certa, la meccanica quantistica ci consegna invece una conoscenza probabilistica, sostanzialmente incerta e incompleta, che ci parla di una natura indeterministica i cui eventi sono regolati non da un nesso causale, ma dal caso. Uno dei principi più esplicativi di quanto detto è il principio di indeterminazione, formulato da Werner Heisemberg, secondo cui è impossibile determinare contemporaneamente con precisione arbitraria la posizione e la quantità di moto di un elettrone. L'elettrone (o il fotone, se parliamo di radiazioni luminose, o il gravitone, se parliamo di forza di gravità) è definito quanto, ovvero la quantità minima e invisibile di una certa grandezza.
Una volta che si sia affermato il carattere sostanzialmente probabilistico della conoscenza, ci si scontra con il problema di definire la nozione stessa di probabilità. Con il termine probabilità si intendono tre cose:
In questa sua accezione, lo stesso Carnap sostiene l'importanza di utilizzare la probabilità logica per indicare il grado di conferma di una teoria scientifica. Egli ritiene che ogni ragionamento induttivo, su cui si fonda la formulazione delle leggi scientifiche, è un ragionamento in termini di probabilità. Infatti, attraverso una serie di osservazioni che possono confermare o disconfermare un'ipotesi, si fa un calcolo probabile degli eventi che la possono confermare.
Per cui, secondo la teoria della conferma, una teoria scientifica è sempre più valida ogni qual volta essa viene confermata da eventi dell'esperienza ed essa si avvale del metodo induttivo, considerato come un calcolo della probabilità logica. Per Carnap, la confermabilità è il criterio di demarcazione tra scienze empiriche e dottrine non empiriche,quali la metafisica, l'etica e l'estetica.
Questa visione è però rifiutata da Karl Popper, filosofo epistemologo e autore della "Logica della scoperta scientifica", che invece è convinto che sia la falsificabilità il criterio di demarcazione tra scienza e metafisica. Con la falsificabilità è la direzione stessa dell'indagine che si inverte: non si muove dai fatti alla costruzione delle teorie, ma dalle teorie al loro controllo mediante i fatti. E poiché questo controllo avviene traendo deduttivamente dalle teorie le loro conseguenze osservabili, Popper designa il metodo da lui proposto come <<ipotetico deduttivo>>: si parte da ipotesi e congetture per poi procedere alle osservazioni e alle formulazioni delle teorie. Quindi Popper rifiuta anche il processo induttivo,sostenuto da Carnap, in quanto un numero finito di osservazioni non può creare una legge universale, mentre un solo esempio contrario consente di dimostrare la falsità dell'ipotesi iniziale. Per quanto riguarda la probabilità, Popper pensa che più informazioni recepiamo da un dato sistema, più alcune ipotesi diventano altamente improbabili. Al contrario, l'alta probabilità di un evento è data dalla scarsità di informazioni sul sistema fisico.
Il principio di falsificabilità è stato applicato alla fine dell'800 per dimostrare che gli enunciati di Lord Kelvin e Clausius riguardo al secondo principio della termodinamica sono equivalenti. Falsificando un enunciato si arriva ad una conclusione per cui anche l'altro enunciato viene falsificato. Se il falso Kelvin implica il falso Clausius o viceversa, allora gli enunciati di Kelvin e Clausius sono equivalenti, secondo le tabelle di verità logica.
Un altro enunciato del secondo principio della termodinamica dice che in un sistema isolato, quando si raggiunge un nuovo stato di equilibrio, esso coincide con il massimo aumento di entropia. In altre parole, senza un continuo apporto di energia dall'esterno, qualsiasi struttura ordinata tenderà a disgregarsi. Al fine di rendere questo grado di disordine quantificabile, si ricorre ad una grandezza, chiamata entropia che, in base al secondo principio, tende ad aumentare continuamente. L'entropia misura dunque il disordine di un sistema, ovvero la possibilità da parte di quest'ultimo di assumere un sempre maggior numero di configurazioni interne. Essa può essere interpretata come una misura dell'informazione disponibile sul sistema. Più numerosi sono gli stati interni del sistema, e quindi più è alta la probabilità che si verifichi qualche evento, minori sono le informazioni su questo. Più è basso il numero delle informazioni, più è alta l'entropia e , viceversa, maggiore è l'informazione su un sistema, minore è la sua entropia. Per cui l'entropia misura la mancanza d'informazione di un sistema. Stephen Hawking, professore di matematica a Cambridge e autore dell'opera "Dal Big Bang ai buchi neri", descrisse un'analogia tra buchi neri ed entropia. Infatti quando materia o radiazione precipitano dentro un buco nero, ogni tipo d'informazione sulle sue proprietà interne viene completamente perduta. Questo significa che un buco nero deve possedere un'entropia. Come nel caso dei sistemi termodinamici, anche l'entropia di un buco nero misura le possibili configurazioni interne capaci di generare lo stato osservato dall'esterno ed essi nascondono un numero enorme di configurazioni interne possibili, rappresentando in tal modo uno dei più grandi serbatoi dell'universo. L'entropia aumenta nell'universo anche quando avvengono reazioni di tipo nucleare. Nel suo complesso l'universo è regolato da reazioni di tipo nucleare, sia di fusione nucleare sia di fissione nucleare. Tra i corpi celesti è importante analizzare una delle reazioni che avvengono nelle stelle, quale la catena protone-protone. Attraverso la catena protone-protone si ottiene un nucleo di elio a partire da 4 nuclei di idrogeno. I passaggi della catena sono:
H+ 1H 2H+ e+ +v+ g Il primo movimento è la fusione di due nuclei di idrogeno.Dal loro urto si forma un nucleo di deuterio( idrogeno pesante). Il deuterio presenta come nucleoni( particelle nucleari) 1 protone e 1 neutrone, mentre i preesistenti nuclei presentavano 1 protone l'uno. Quindi 1 protone si è trasformato in neutrone. Questa reazione è accompagnata dalla liberazione di energia sotto forma di raggi g( radiazione più energetica), un positrone e+, che è una particella di antimateria, ovvero ha tutte le caratteristiche del nucleone complementare( elettrone) ma presenta la carica opposta. Inoltre ogni qual volta si libera un positrone, si libera anche un neutrino, particella di piccole dimensioni molto importante perché è molto abbondante nell'universo e dalla sua massa dipende il suo destino( studi Cern).
H+1H 3He + g Nel secondo passaggio avviene la collisione del nucleo di deuterio con un altro nucleo di idrogeno leggero. Si ottiene un nucleo di He-3 e il suo nucleo contiene tre nucleoni. In questo caso non c'è stata trasformazione di protoni in neutroni e per questo non si è liberato né il positrone né il neutrino, ma solo raggi g
He+ 3He 4He + 2H+ g Il terzo passaggio è più lento degli altri due perché avviene la fusione di due nuclei di He-3, che non sono molto abbondanti come l'idrogeno e il deuterio. Si ottiene un nucleo di He-4 e si liberano 2 nuclei di idrogeno.
Si nota che si mettono in gioco 6 nuclei di H, ma solo 4 si sono fusi in un nucleo di He. Dal momento che 4 nuclei di H hanno una massa atomica di 4,032 u.m.a. e un nucleo di He 4.003, una parte di massa ( 0,7%) si è trasformata in energia secondo la nota equazione di Einstein: E= mc2 Si nota quindi che basta qualche grammo di H che si trasformi in He perché si liberi energia pari a centinaia di miliardi di calorie.
Oltre al processo di fusione nucleare, che avviene nelle stelle, esiste il processo di fissione nucleare, la cui energia è prodotta dal fenomeno della scissione, spontanea o indotta, del nucleo atomico di un elemento pesante in due o più frammenti( uranio 235 o plutonio 239). Il fondamento teorico è il principio di equivalenza massa-energia, espresso dall'equazione E=mc², espressa prima . Einstein non vide applicazioni pratiche di questa scoperta. Intuì però che il principio di equivalenza massa-energia poteva spiegare il fenomeno della radioattività, ovvero che certi elementi emettono energia spontanea, e una qualche reazione che implicasse l'equivalenza poteva essere la fonte di luminosità che accende le stelle.
Successivamente, si avanzò l'ipotesi che alcune reazioni
che implicano questo principio potevano effettivamente avvenire all'interno dei
nuclei atomici. Il 'decadimento' dei nuclei provoca un
rilascio di energia. L'idea che una reazione nucleare si potesse anche produrre
artificialmente e in misura massiccia, sotto forma cioè di reazione a catena,
fu sviluppata nella seconda metà degli anni trenta in seguito alla scoperta del
neutrone.
Alcune delle principali ricerche in questo campo furono condotte in Italia da Enrico Fermi.
Un gruppo di scienziati europei rifugiatisi negli Stati Uniti d'America, tra cui Enrico
Fermi, si preoccuparono del possibile sviluppo militare del principio. Nel Fermi e Szilard, in
base ai loro studi teorici, persuasero Albert Einstein a scrivere una lettera
al presidente Roosevelt per segnalare che c'era la possibilità
ipotetica di costruire una bomba utilizzando il principio della fissione. Il
governo statunitense cominciò così a interessarsi alle ricerche. Enrico Fermi
proseguì poi negli Stati Uniti nuove ricerche sulle proprietà di un isotopo
raro dell'uranio, l'uranio 235, fino a ottenere la prima reazione artificiale
di fissione a catena autoalimentata: il 2 dicembre
, il gruppo diretto da
Fermi assemblò a Chicago
la prima pila atomica o reattore nucleare a fissione che
raggiunse la condizione di criticità, costituito da una massa di uranio
naturale e grafite disposti in maniera eterogenea. Pochi mesi prima, nel giugno
del 1942, un gruppo di scienziati guidati da Robert Oppenheimer, era giunto alla conclusione
che era teoricamente possibile costruire una bomba che sfruttasse la reazione
di fissione a catena. Fu il presidente americano Harry Truman che decise, nel
'45, di impiegare la nuova arma bellica contro il Giappone e porre fine al
conflitto mondiale. Questa decisione aveva lo scopo di dimostrare al mondo la
potenza militare americana. L'apparizione delle armi atomiche aprì una nuova
fase storica: con la fine della guerra USA e URSS divennero i protagonisti
assoluti della scena politica internazionale. Dalla rivalità tra queste due
potenze nacque la cosiddetta "Guerra Fredda"che, oltre a
minacciare più volte la pace mondiale, ebbe a lungo profonde conseguenze sulla
vita interna de ogni stato. Si costituì allora un nuovo sistema bipolare che
caratterizzò la storia mondiale per quasi un cinquantennio: da una parte il
blocco occidentale, sostenitori degli ideali della democrazia e del libero
scambio, dall'altra il blocco orientale, ispirato ai principi del comunismo e
della pianificazione economica. Oltre agli Stati Uniti, anche l'URSS ,nel 1949,
si appropriò dell'arma atomica, creandone una diversa, quale la bomba a
idrogeno basata sul principio di fusione nucleare, e ponendo così fine al
monopolio nucleare americano. In coincidenza con l'appropriazione dell'arma
nucleare da parte dell'Unione sovietica, si scatenò negli Stati Uniti una
campagna anticomunista che ebbe il suo principale ispiratore nel senatore
repubblicano Joseph McCarthy, donde il
termine di maccartismo, con cui fu designato il fenomeno. Venne adottata una
legge per la sicurezza interna che servì per epurare o emarginare quanti, nella
pubblica amministrazione, nel mondo dello spettacolo o della cultura, fossero
sospettati di filocomunismo o di simpatie di sinistra. Questa Caccia alle
streghe (come fu polemicamente battezzata) non risparmiò Hollywood e il
mondo dello spettacolo, anzi si accanì in modo particolare contro quegli
attori, registi o sceneggiatori sospettati di essere comunisti o di esserlo
stati. Per guadagnarsi l'accusa di comunismo era sufficiente aver diretto film
di impegno civile e su tematiche sociali o averne scritto la sceneggiatura, ma
a volte bastava molto meno, come l'amicizia o la frequentazione di persone
sospette. A partire dagli anni cinquanta la coesistenza tra i due blocchi si
confermò e si consolidò, ma ciò avvenne attraverso momenti di duro scontro e di
confronto drammatico. Il periodo venne chiamato "Equilibrio del terrore",
ovvero il sostanziale equilibrio fra gli armamenti nucleari in possesso e sulla
voglia di evitare lo scoppio di un nuovo conflitto generale che mettesse a repentaglio
la sopravvivenza propria e dell'intera umanità. Negli anni sessanta mutarono i protagonisti della politica internazionale e avvenne
un lento "disgelo" nei rapporti tra le due superpotenze, che sembrava portare
alla fine della guerra fredda.
In Unione Sovietica nel 1953 morì Stalin e gli successe Nikita Kruscev. Negli
anni che seguono si aprì la strada allo svolgimento di incontri tra i capi
delle superpotenze in cui fissare principi e forme per la coesistenza del mondo
comunista e di quello occidentale. Nel 1955, con
Italo Svevo (Trieste, 1861 - Treviso, 1928) non sentì mai parlare di bomba atomica. Ma la sua acuta sensibilità lo fece diventare inconsapevole profeta di quella che sarà la paura nei confronti del nucleare. Già ai suoi tempi l'uomo aveva perso la fiducia nella tecnologia e, in un certo senso, si aspettava che, prima o poi, proprio tramite essa, si sarebbe autodistrutto a compimento della decadenza, ormai inoltrata, dell'umanità. Nelle ultime pagine de "La coscienza di Zeno", sotto riportate, Svevo annuncia l'apocalisse del mondo: La vita attuale è inquinata alle radici. L'uomo s'è messo al posto degli alberi e delle bestie ed ha inquinata l'aria, ha impedito il libero spazio. Può avvenire di peggio. Il triste e attivo animale potrebbe scoprire e mettere al proprio servizio delle altre forze. V'è una minaccia di questo genere in aria. Ne seguirà una grande ricchezza nel numero degli uomini(.) l'occhialuto uomo inventa gli ordigni fuori del suo corpo e se c'è stata salute e nobiltà in chi li inventò, quasi sempre manca in chi li usa(.)Ed è l'ordigno che crea la malattia con l'abbandono della legge che fu su tutta la terra la creatrice(.)Forse traverso una catastrofe inaudita prodotta dagli ordigni ritorneremo alla salute. Quando i gas velenosi non basteranno più, un uomo fatto come tutti gli altri, nel segreto di una stanza di questo mondo, inventerà un esplosivo incomparabile, in confronto al quale gli esplosivi attualmente esistenti saranno considerati quali innocui giocattoli. Ed un altro uomo fatto anche lui come tutti gli altri, ma degli altri un po' più ammalato, ruberà tale esplosivo e s'arrampicherà al centro della terra per porlo nel punto ove il suo effetto potrà essere il massimo. Ci sarà un'esplosione enorme che nessuno udrà e la terra ritornata alla forma di nebulosa errerà nei cieli priva di parassiti e di malattie.
Nelle pagine riportate il protagonista della "Coscienza", Zeno Cosini, proclama che la vita attuale è inquinata alle radici e che essa ha già messo in moto una spirale che la distruggerà: l'uomo, che si è messo al posto degli alberi e delle bestie, ora produce ordigni: gli ordigni si comprano e si vendono: da qui all'esplosione enorme, alla catastrofe inaudita che distrugge il pianeta il passo è breve. Il brano è da vedere, anzitutto, come approdo alla vocazione critica di Svevo nei confronti della società borghese. Molti critici insistono sul pessimismo profetico e anticipatore di queste pagine e ne prospettano una lettura in senso modernamente impegnato. La lettura di questa pagina, per mantenersi coerente col mondo poetico dello scrittore, sembra essere un'altra : Soltanto la fine del mondo potrebbe liberarci dalla malattia. L'uomo moderno, represso dalla inconsapevolezza del proprio stato, incapace d'ironia, non può produrre che catastrofi.
Bibliografia:
John Norton - La causazione come scienza ingenua.
Ida Biondi - Storia e antologia della letteratura greca, vol.3, Casa editrice G.D'Anna, Messina- Firenze.
N.Abbagnano e G.Fornero- Itinerari di Filosofia, voll.2A, 3A, 3B, Paravia.
SISSA-ISAS- Meccanica quantistica, Tessere.
U.Amaldi- La fisica per i liceo scientifici, vol.3, Zanichelli.
S.Hawking- Dal Big Bang ai buchi neri.
G.Bernardi- I Buchi neri.
M.Crippa e M.Fiorani- Geografia generale, Arnoldo mondatori scuola.
A.Giardina, G.Sabbatucci, V.Vidotto- Prospettive di storia. Spazi, percorsi, temi,vol.3, Laterza edizioni scolastiche.
Italo Svevo-
Appunti su: |
|
Appunti Economia | |
Tesine Ingegneria tecnico | |