Appunti per Scuola e Università
humanisticheUmanistiche
Appunti e tesine di tutte le materie per gli studenti delle scuole medie riguardanti le materie umanistiche: dall'italiano alla storia riguardanti le materie umanistiche: dall'italiano alla storia 
sceintificheScientifiche
Appunti, analisi, compresione per le scuole medie suddivisi per materie scientifiche, per ognuna troverai appunti, dispense, esercitazioni, tesi e riassunti in download.
tecnicheTecniche
Gli appunti, le tesine e riassunti di tecnica amministrativa, ingegneria tecnico, costruzione. Tutti gli appunti di AppuntiMania.com gratis!
Appunti
universita
AmministratoriArcheologiaCommoditiesContabilitaDiritto
Finanza bancheGeologiaGestioneIdrologiaMarketing
MedicinaMeteorologiaMusicaRicercheScienze politiche
SilvicolturaTurismo


AppuntiMania.com » Universita » Appunti di Ricerche » La causazione come scienza ingenua

La causazione come scienza ingenua




Visite: 1037Gradito:apreciate stela [ Medio appunti ]
Leggi anche appunti:

Il genere della favola (dal iii millennio a.c. ad oggi)


IL GENERE DELLA FAVOLA (dal III millennio a.C. ad oggi)   Favola: narrazione

Riassunti di geografia turistica - i mezzi di comunicazione e il turismo, i flussi turistici, le tipologie, le aree turistiche


Riassunti di geografia turistica i mezzi di comunicazione e il turismo,

Heidegger


HEIDEGGER Origine del problema dell'essere Essere e tempo, 1927, è analisi
immagine di categoria

Scarica gratis La causazione come scienza ingenua

La causazione come scienza ingenua


Il tema della causalità, o meglio del principio di causa, dominante in tutte le scienze deterministiche classiche, viene definito da John Norton, una scienza ingenua, messa radicalmente in questione dalla scienza contemporanea, con gli sviluppi della meccanica quantistica, ma ancor prima dalla termodinamica e dall'elettromagnetismo. La nozione più comune di causa è la connessione tra due eventi, condizione necessaria e sufficiente affinchè dal primo derivi inevitabilmente il secondo.

Nel mondo antico, l'Ellenismo segnò il momento di massimo vigore delle scienze definite "esatte". Tranne la matematica, considerata la scienza esatta per eccellenza, l'astronomia, la fisica e soprattutto la meccanica presentavano all'interno del paradigma una serie di tesi e principi formulati alla luce dei nessi causali esistenti tra i fenomeni. Per quanto riguarda la matematica il più importante fu Euclide, autore dell'opera "Elementi". Quest'opera è una raccolta di assiomi, teoremi, corollari e definizioni che costituivano, nell'accezione khuniana, un paradigma: corpo fondamentale di proposizioni universali riconoscibili e un modello per i requisiti cui ogni ulteriore insieme di proposizioni deve soddisfare. Quindi alla matematica fu affidato un ruolo di giudice della validità della produzione scientifica. In particolare, tale giudizio riguardava la correttezza dei teoremi proposti e ciò era ottenuto o mediante il controllo della loro compatibilità con altri teoremi correttamente dimostrati, o mediante un controllo dell'effettiva deducibilità dei teoremi proposti. Anche Archimede di Siracusa, genio nel campo della fisica, si occupò di matematica: resta fondamentale la sua misura della circonferenza, mediante la determinazione del valore di p, che esprime il rapporto tra diametro e circonferenza, e la formulazione del volume della sfera. Dal punto di vista fisico studiò il galleggiamento dei corpi, secondo la nota spinta di Archimede, il piano inclinato, i principi della leva e il moto rettilineo uniforme.(opere: Arenario, sull'equilibrio dei piani, sui galleggianti).Un altro matematico importante fu Erone, divenuto famoso per le formule di misurazione dei poligoni regolari e per la formula trigonometrica dell'area di un triangolo. Per quanto riguarda l'astronomia, essa, secondo la cultura ellenistica non era una vera disciplina scientifica: i cieli e i loro fenomeni furono, per gli ellenisti, la sede del divino e il piano di manifestazione dell'ordine del mondo. Sta qui la principale ragione della varietà tipologica dei testi antichi sui cieli: ogni astronomo, secondo la sua conoscenza scientifica, dava un'interpretazione diversa al fenomeno. I più importanti da ricordare sono Ipparco di Nicea, produttore del catalogo di stelle, classificate secondo la loro magnitudine apparente, ad Aristarco di Samo si deve la prima teoria eliocentrica dell'antichità. Come riferito da Archimede, egli suppose che le stelle fisse stiano immutabili e che la terra giri intorno al Sole descrivendo un cerchio. Importante fu anche Eratostene, che utilizzò le sue conoscenze di matematica non solo per disegnare la prima carta del mondo con il criterio dei meridiani e dei paralleli, ma riuscì a calcolare le dimensioni della terra con un'approssimazione di poche decine di chilometri inferiore al calcolo moderno. Un ultimo nome importante è Conone, famoso per la scoperta della costellazione da lui detta Chioma di Berenice.


Alla fine del'700, dopo le rivoluzioni scientifiche e la formulazione del paradigma Newtoniano, in cui gli eventi erano spigati mediante un nesso causa-effetto, si ebbe la prima crisi del concetto di causa con Hume, nell'opera "Trattato sulla natura umana". Secondo quest'ultimo, l'idea che esista un rapporto di causa-effetto fra gli eventi deriva solo dall'abitudine. Ciò che figura come la causazione in realtà non è altro che una congiunzione costante all'interno delle nostre esperienze effettive. Laddove Hume vedeva una congiunzione costante, Mach, membro del circolo di Vienna, esponente dell'empirio-criticismo e autore dell'opera "Analisi delle sensazioni e distinzione tra fisico e psichico", scorgeva una dipendenza funzionale. Il concetto di causa viene sostituito da quello di funzione. La funzione, per Mach, è l'insieme dei fatti fisici e psichici, elementi chiamati sensazioni. Questa funzione ha l'ufficio di richiamare l'insieme di tutte le reazioni relative all'oggetto designato e di attirare questi ricordi nella coscienza. La funzione scientifica realizza in pieno queste caratteristiche e le funzioni di cui la scienza si avvale sono semplici segni riassuntivi, da cui possono scaturire reazioni possibili. Inoltre Mach conserva il concetto di scienza come descrizione di fatti e precisamente di ciò che nei fatti c'è di uniforme e costante, ovvero le leggi intese come strumenti di previsione. Questi due punti fondamentali costituiscono i due punti cardini della fase critica della fisica che la teoria della relatività e la meccanica quantistica porteranno a compimento.

A mettere in crisi la fisica classica Newtoniana è stata sicuramente la meccanica quantistica, poiché essa descrive il comportamento della materia a livello microscopico e permette di interpretare e quantificare fenomeni che non possono essere giustificati dalla meccanica classica. A differenza di quest'ultima, che ci consegna una conoscenza certa, la meccanica quantistica ci consegna invece una conoscenza probabilistica, sostanzialmente incerta e incompleta, che ci parla di una natura indeterministica i cui eventi sono regolati non da un nesso causale, ma dal caso. Uno dei principi più esplicativi di quanto detto è il principio di indeterminazione, formulato da Werner Heisemberg, secondo cui è impossibile determinare contemporaneamente con precisione arbitraria la posizione e la quantità di moto di un elettrone. L'elettrone (o il fotone, se parliamo di radiazioni luminose, o il gravitone, se parliamo di forza di gravità) è definito quanto, ovvero la quantità minima e invisibile di una certa grandezza.

Una volta che si sia affermato il carattere sostanzialmente probabilistico della conoscenza, ci si scontra con il problema di definire la nozione stessa di probabilità. Con il termine probabilità si intendono tre cose:

  • Probabilità classica o logica (Laplace, Wittgenstein, Carnap): si applica ad esperimenti casuali i cui eventi elementari sono ritenuti equiprobabili. La probabilità di un evento è il rapporto tra il numero dei casi favorevoli e il numero dei casi possibili, purché questi ultimi siano ugualmente possibili.
  • Probabilità frequentistica (von Mises, Keynes): si assume che esista una probabilità e se ne fa una stima mediante una frequenza relativa osservata empiricamente. Essa è il valore del limite per k tendente a infinito del rapporto fra il numero di volte in cui un evento si è verificato e il numero delle prove effettuate.
  • Probabilità soggettivistica (Ramsey, De Finetti, Bayes): si applica ad esperimenti casuali i cui eventi elementari non sono ritenibili ugualmente possibili e l'esperimento non è ripetibile più volte sotto le stesse condizioni. La probabilità di un evento è fornita dal grado di credenza soggettivo.

In questa sua accezione, lo stesso Carnap sostiene l'importanza di utilizzare la probabilità logica per indicare il grado di conferma di una teoria scientifica. Egli ritiene che ogni ragionamento induttivo, su cui si fonda la formulazione delle leggi scientifiche, è un ragionamento in termini di probabilità. Infatti, attraverso una serie di osservazioni che possono confermare o disconfermare un'ipotesi, si fa un calcolo probabile degli eventi che la possono confermare.

Per cui, secondo la teoria della conferma, una teoria scientifica è sempre più valida ogni qual volta essa viene confermata da eventi dell'esperienza ed essa si avvale del metodo induttivo, considerato come un calcolo della probabilità logica. Per Carnap, la confermabilità è il criterio di demarcazione tra scienze empiriche e dottrine non empiriche,quali la metafisica, l'etica e l'estetica.

Questa visione è però rifiutata da Karl Popper, filosofo epistemologo e autore della "Logica della scoperta scientifica", che invece è convinto che sia la falsificabilità il criterio di demarcazione tra scienza e metafisica. Con la falsificabilità è la direzione stessa dell'indagine che si inverte: non si muove dai fatti alla costruzione delle teorie, ma dalle teorie al loro controllo mediante i fatti. E poiché questo controllo avviene traendo deduttivamente dalle teorie le loro conseguenze osservabili, Popper designa il metodo da lui proposto come <<ipotetico deduttivo>>: si parte da ipotesi e congetture per poi procedere alle osservazioni e alle formulazioni delle teorie. Quindi Popper rifiuta anche il processo induttivo,sostenuto da Carnap, in quanto un numero finito di osservazioni non può creare una legge universale, mentre un solo esempio contrario consente di dimostrare la falsità dell'ipotesi iniziale. Per quanto riguarda la probabilità, Popper pensa che più informazioni recepiamo da un dato sistema, più alcune ipotesi diventano altamente improbabili. Al contrario, l'alta probabilità di un evento è data dalla scarsità di informazioni sul sistema fisico.

Il principio di falsificabilità è stato applicato alla fine dell'800 per dimostrare che gli enunciati di Lord Kelvin e Clausius riguardo al secondo principio della termodinamica sono equivalenti. Falsificando un enunciato si arriva ad una conclusione per cui anche l'altro enunciato viene falsificato. Se il falso Kelvin implica il falso Clausius o viceversa, allora gli enunciati di Kelvin e Clausius sono equivalenti, secondo le tabelle di verità logica.

  • nella formulazione di Clausius, si afferma che è impossibile realizzare un ciclo termodinamico il cui unico risultato sia quello di trasferire calore da un corpo più freddo a uno più caldo.
  • Nella formulazione di Kelvin, si afferma che è impossibile realizzare un ciclo termodinamico il cui unico risultato preveda che tutto il calore assorbito da una sola sorgente sia interamente trasformato in lavoro.

Supponiamo che l'enunciato di Clausius sia falso, ovvero che esista una macchina frigorifera ciclica in grado di trasferire calore da una sorgente fredda ad una calda, senza apporto di lavoro esterno.La sorgente a temperatura più bassa in un primo momento ha ceduto calore all'altra sorgente ma poi l'ha riacquistato:quindi l'effetto è nullo. La sorgente a temperatura più alta ha assorbito una quantità di calore Q2 dalla sorgente a temperatura più bassa e poi ha ceduto alla macchina termica una quantità di calore Q1-Q2, che è stata trasformata interamente in lavoro. Questo è stato l'unico risultato:la macchina termica ha assorbito tutto il calore da una sola sorgente e lo ha trasformato in lavoro. Ma ciò contraddice l'enunciato di Kelvin.                                  Supponiamo ora di poter convertire integralmente il calore in lavoro, estratto per mezzo di una macchina ciclica da una sola sorgente T1 a temperatura costante. Il lavoro viene utilizzato per far funzionare una macchina di joule, che contiene un gas a temperatura T3>T1. Quindi vengono alzati i pesetti della macchina che poi vengono fatti cadere per mettere in moto le pale del mulinello interno alla macchina.Tutto ciò viene fatto a velocità costante poiché se la velocità aumentasse, si farebbe lavoro. Per cui l'unico risultato è stato far passare calore da una sorgente a temperatura più bassa a una a temperatura più alta. Ma ciò contraddice l'enunciato di Clausius.

Un altro enunciato del secondo principio della termodinamica dice che in un sistema isolato, quando si raggiunge un nuovo stato di equilibrio, esso coincide con il massimo aumento di entropia. In altre parole, senza un continuo apporto di energia dall'esterno, qualsiasi struttura ordinata tenderà a disgregarsi. Al fine di rendere questo grado di disordine quantificabile, si ricorre ad una grandezza, chiamata entropia che, in base al secondo principio, tende ad aumentare continuamente. L'entropia misura dunque il disordine di un sistema, ovvero la possibilità da parte di quest'ultimo di assumere un sempre maggior numero di configurazioni interne. Essa può essere interpretata come una misura dell'informazione disponibile sul sistema. Più numerosi sono gli stati interni del sistema, e quindi più è alta la probabilità che si verifichi qualche evento, minori sono le informazioni su questo. Più è basso il numero delle informazioni, più è alta l'entropia e , viceversa, maggiore è l'informazione su un sistema, minore è la sua entropia. Per cui l'entropia misura la mancanza d'informazione di un sistema. Stephen Hawking, professore di matematica a Cambridge e autore dell'opera "Dal Big Bang ai buchi neri", descrisse un'analogia tra buchi neri ed entropia. Infatti quando materia o radiazione precipitano dentro un buco nero, ogni tipo d'informazione sulle sue proprietà interne viene completamente perduta. Questo significa che un buco nero deve possedere un'entropia. Come nel caso dei sistemi termodinamici, anche l'entropia di un buco nero misura le possibili configurazioni interne capaci di generare lo stato osservato dall'esterno ed essi nascondono un numero enorme di configurazioni interne possibili, rappresentando in tal modo uno dei più grandi serbatoi dell'universo. L'entropia aumenta nell'universo anche quando avvengono reazioni di tipo nucleare. Nel suo complesso l'universo è regolato da reazioni di tipo nucleare, sia di fusione nucleare sia di fissione nucleare. Tra i corpi celesti è importante analizzare una delle reazioni che avvengono nelle stelle, quale la catena protone-protone. Attraverso la catena protone-protone si ottiene un nucleo di elio a partire da 4 nuclei di idrogeno. I passaggi della catena sono:

H+ 1H 2H+ e+ +v+ g Il primo movimento è la fusione di due nuclei di idrogeno.Dal loro urto si forma un nucleo di deuterio( idrogeno pesante). Il deuterio presenta come nucleoni( particelle nucleari) 1 protone e 1 neutrone, mentre i preesistenti nuclei presentavano 1 protone l'uno. Quindi 1 protone si è trasformato in neutrone. Questa reazione è accompagnata dalla liberazione di energia sotto forma di raggi g( radiazione più energetica), un positrone e+, che è una particella di antimateria, ovvero ha tutte le caratteristiche del nucleone complementare( elettrone) ma presenta la carica opposta. Inoltre ogni qual volta si libera un positrone, si libera anche un neutrino, particella di piccole dimensioni molto importante perché è molto abbondante nell'universo e dalla sua massa dipende il suo destino( studi Cern).

H+1H 3He + g Nel secondo passaggio avviene la collisione del nucleo di deuterio con un altro nucleo di idrogeno leggero. Si ottiene un nucleo di He-3 e il suo nucleo contiene tre nucleoni. In questo caso non c'è stata trasformazione di protoni in neutroni e per questo non si è liberato né il positrone né il neutrino, ma solo raggi g

He+ 3He 4He + 2H+ g Il terzo passaggio è più lento degli altri due perché avviene la fusione di due nuclei di He-3, che non sono molto abbondanti come l'idrogeno e il deuterio. Si ottiene un nucleo di He-4 e si liberano 2 nuclei di idrogeno.

Si nota che si mettono in gioco 6 nuclei di H, ma solo 4 si sono fusi in un nucleo di He. Dal momento che 4 nuclei di H hanno una massa atomica di 4,032 u.m.a. e un nucleo di He 4.003, una parte di massa ( 0,7%) si è trasformata in energia secondo la nota equazione di Einstein:                 E= mc2 Si nota quindi che basta qualche grammo di H che si trasformi in He perché si liberi energia pari a centinaia di miliardi di calorie.

Oltre al processo di fusione nucleare, che avviene nelle stelle, esiste il processo di fissione nucleare, la cui energia è prodotta dal fenomeno della scissione, spontanea o indotta, del nucleo atomico di un elemento pesante in due o più frammenti( uranio 235 o plutonio 239). Il fondamento teorico è il principio di equivalenza massa-energia, espresso dall'equazione E=mc², espressa prima . Einstein non vide applicazioni pratiche di questa scoperta. Intuì però che il principio di equivalenza massa-energia poteva spiegare il fenomeno della radioattività, ovvero che certi elementi emettono energia spontanea, e una qualche reazione che implicasse l'equivalenza poteva essere la fonte di luminosità che accende le stelle.

Successivamente, si avanzò l'ipotesi che alcune reazioni che implicano questo principio potevano effettivamente avvenire all'interno dei nuclei atomici. Il 'decadimento' dei nuclei provoca un rilascio di energia. L'idea che una reazione nucleare si potesse anche produrre artificialmente e in misura massiccia, sotto forma cioè di reazione a catena, fu sviluppata nella seconda metà degli anni trenta in seguito alla scoperta del neutrone. Alcune delle principali ricerche in questo campo furono condotte in Italia da Enrico Fermi. Un gruppo di scienziati europei rifugiatisi negli Stati Uniti d'America, tra cui Enrico Fermi, si preoccuparono del possibile sviluppo militare del principio. Nel Fermi e Szilard, in base ai loro studi teorici, persuasero Albert Einstein a scrivere una lettera al presidente Roosevelt per segnalare che c'era la possibilità ipotetica di costruire una bomba utilizzando il principio della fissione. Il governo statunitense cominciò così a interessarsi alle ricerche. Enrico Fermi proseguì poi negli Stati Uniti nuove ricerche sulle proprietà di un isotopo raro dell'uranio, l'uranio 235, fino a ottenere la prima reazione artificiale di fissione a catena autoalimentata: il 2 dicembre , il gruppo diretto da Fermi assemblò a Chicago la prima pila atomica o reattore nucleare a fissione che raggiunse la condizione di criticità, costituito da una massa di uranio naturale e grafite disposti in maniera eterogenea. Pochi mesi prima, nel giugno del 1942, un gruppo di scienziati guidati da Robert Oppenheimer, era giunto alla conclusione che era teoricamente possibile costruire una bomba che sfruttasse la reazione di fissione a catena. Fu il presidente americano Harry Truman che decise, nel '45, di impiegare la nuova arma bellica contro il Giappone e porre fine al conflitto mondiale. Questa decisione aveva lo scopo di dimostrare al mondo la potenza militare americana. L'apparizione delle armi atomiche aprì una nuova fase storica: con la fine della guerra USA e URSS divennero i protagonisti assoluti della scena politica internazionale. Dalla rivalità tra queste due potenze nacque la cosiddetta "Guerra Fredda"che, oltre a minacciare più volte la pace mondiale, ebbe a lungo profonde conseguenze sulla vita interna de ogni stato. Si costituì allora un nuovo sistema bipolare che caratterizzò la storia mondiale per quasi un cinquantennio: da una parte il blocco occidentale, sostenitori degli ideali della democrazia e del libero scambio, dall'altra il blocco orientale, ispirato ai principi del comunismo e della pianificazione economica. Oltre agli Stati Uniti, anche l'URSS ,nel 1949, si appropriò dell'arma atomica, creandone una diversa, quale la bomba a idrogeno basata sul principio di fusione nucleare, e ponendo così fine al monopolio nucleare americano. In coincidenza con l'appropriazione dell'arma nucleare da parte dell'Unione sovietica, si scatenò negli Stati Uniti una campagna anticomunista che ebbe il suo principale ispiratore nel senatore repubblicano Joseph McCarthy, donde il termine di maccartismo, con cui fu designato il fenomeno. Venne adottata una legge per la sicurezza interna che servì per epurare o emarginare quanti, nella pubblica amministrazione, nel mondo dello spettacolo o della cultura, fossero sospettati di filocomunismo o di simpatie di sinistra. Questa Caccia alle streghe (come fu polemicamente battezzata) non risparmiò Hollywood e il mondo dello spettacolo, anzi si accanì in modo particolare contro quegli attori, registi o sceneggiatori sospettati di essere comunisti o di esserlo stati. Per guadagnarsi l'accusa di comunismo era sufficiente aver diretto film di impegno civile e su tematiche sociali o averne scritto la sceneggiatura, ma a volte bastava molto meno, come l'amicizia o la frequentazione di persone sospette. A partire dagli anni cinquanta la coesistenza tra i due blocchi si confermò e si consolidò, ma ciò avvenne attraverso momenti di duro scontro e di confronto drammatico. Il periodo venne chiamato "Equilibrio del terrore", ovvero il sostanziale equilibrio fra gli armamenti nucleari in possesso e sulla voglia di evitare lo scoppio di un nuovo conflitto generale che mettesse a repentaglio la sopravvivenza propria e dell'intera umanità. Negli anni sessanta mutarono i protagonisti della politica internazionale e avvenne un lento "disgelo" nei rapporti tra le due superpotenze, che sembrava portare alla fine della guerra fredda.
In Unione Sovietica nel 1953 morì Stalin e gli successe Nikita Kruscev. Negli anni che seguono si aprì la strada allo svolgimento di incontri tra i capi delle superpotenze in cui fissare principi e forme per la coesistenza del mondo comunista e di quello occidentale. Nel 1955, con la Conferenza di Ginevra, alla quale partecipano i vincitori alla Seconda guerra mondiale, si aprì la prima possibilità di dialogo dopo il periodo staliniano. Nel 1956 Kruscev, nel corso del XX congresso del Partito comunista sovietico denunciò i crimini commessi da Stalin. Ebbe così inizio il processo di "destalinizzazione" (vengono abbandonati i metodi e la politica dell'ex dittatore)
anche se l'URSS rimase un regime politico duro e intransigente La marcia verso il disgelo fu accelerata dall'elezione del Presidente John Kennedy negli USA nel 1961. Il dialogo tra le due superpotenze divenne più facile e il nuovo presidente mostrò disponibilità a proseguire il cammino nel solco della distensione. Il primo incontro fra Kennedy e Krucev, avvenuto a Vienna nel 1961 e dedicato al problema di Berlino ovest, si risolse in un fallimento: gli statunitensi riaffermarono il loro impegno in difesa di Berlino Ovest e i sovietici risposero innalzando un muro che separava le due parti della città, che poi cadde nel 1989, 28 anni dopo. In questo periodo il confronto più drammatico fra i due blocchi ebbe per teatro Cuba. All'inizio della sua presidenza, Kennedy tentò di soffocare il regime socialista a Cuba, appoggiando i guppi esuli anticastristi, che tentarono nel 1961, una spedizione armata nell'isola, sbarcando in una località chiamata baia dei porci. In questo scontro si inserì l'Unione sovietica, che iniziò l'installazione di alcune basi di lancio per missili nucleari. Quando le basi furono scoperte dai nordamericani, Kennedy ordinò un blocco navale attorno a Cuba per impedire alle navi sovietiche di raggiungere l'isola. Per sei drammatici giorni si rischiò la guerra atomica. Ma alla fine Kruscev cedette e acconsentì a smantellare le basi missilistiche in cambio dell'impegno americano di astenersi da azioni militari contro Cuba. Nel 1963 USA e URSS firmarono un trattato per la messa al bando degli esperimenti nucleari nell'atmosfera (continuarono invece quelli sotterranei, meno pericolosi per l'ambiente e l'uomo). Kruscev accentuò il tono pacifista dei suoi interventi e interpretò il confronto tra blocchi in chiave di competizione economica fra i due sistemi: la vittoria sarebbe andata a quello capace di assicurare al popolo il più alto grado di benessere e giustizia sociale. Questo eccesso di ottimismo non fu estraneo all'improvvisa caduta di Kruscev che nel 1964 fu estromesso da tutte le sue cariche. Un anno prima era scomparso tragicamente Kennedy, che fu ucciso a Dallas in un attentato di cui non si giunse mai a scoprire i mandanti. Dagli anni Sessanta cominciarono le difficili trattative per fermare la proliferazione delle armi nucleari. Entrambe le superpotenze erano divenute sempre più sicure di poter annientare l'altra, tanto che iniziarono a concludere accordi per controllare in vari modi la corsa alle armi nucleari. Nel 1972, quando erano al potere Nixon e Breznev, fu stipulato il trattato SALT (Strategics arms limitations Talks), che stabiliva un numero limite di missili balistici intercontinentali per ciascuna potenza e proibiva ai sovietici la costruzione di un sistema anti- missili. Nel 1975 si ebbero gli accordi di Helsinki, presi da Stati Uniti, URSS e altri stati europei. Tali accordi confermavano l'assetto territoriale creato dopo la seconda guerra mondiale e impegnavano al regolamento pacifico delle controversie, al non intervento negli affari interni dei singoli paesi e al rispetto dei diritti dell'uomo e delle libertà fondamentali. I passi avanti sulla strada di un disarmo controllato furono resi possibili da Gorbacev, che nel 1986 lanciò l'appello per l'eliminazione delle armi nucleari entro il 2000 e nel 1987 fu firmato a Washington da Gorbacev e Reagan un trattato per la riduzione degli armamenti.

Italo Svevo (Trieste, 1861 - Treviso, 1928) non sentì mai parlare di bomba atomica. Ma la sua acuta sensibilità lo fece diventare inconsapevole profeta di quella che sarà la paura nei confronti del nucleare. Già ai suoi tempi l'uomo aveva perso la fiducia nella tecnologia e, in un certo senso, si aspettava che, prima o poi, proprio tramite essa, si sarebbe autodistrutto a compimento della decadenza, ormai inoltrata, dell'umanità. Nelle ultime pagine de "La coscienza di Zeno", sotto riportate, Svevo annuncia l'apocalisse del mondo:                                                                              La vita attuale è inquinata alle radici. L'uomo s'è messo al posto degli alberi e delle bestie ed ha inquinata l'aria, ha impedito il libero spazio. Può avvenire di peggio. Il triste e attivo animale potrebbe scoprire e mettere al proprio servizio delle altre forze. V'è una minaccia di questo genere in aria. Ne seguirà una grande ricchezza nel numero degli uomini(.) l'occhialuto uomo inventa gli ordigni fuori del suo corpo e se c'è stata salute e nobiltà in chi li inventò, quasi sempre manca in chi li usa(.)Ed è l'ordigno che crea la malattia con l'abbandono della legge che fu su tutta la terra la creatrice(.)Forse traverso una catastrofe inaudita prodotta dagli ordigni ritorneremo alla salute. Quando i gas velenosi non basteranno più, un uomo fatto come tutti gli altri, nel segreto di una stanza di questo mondo, inventerà un esplosivo incomparabile, in confronto al quale gli esplosivi attualmente esistenti saranno considerati quali innocui giocattoli. Ed un altro uomo fatto anche lui come tutti gli altri, ma degli altri un po' più ammalato, ruberà tale esplosivo e s'arrampicherà al centro della terra per porlo nel punto ove il suo effetto potrà essere il massimo. Ci sarà un'esplosione enorme che nessuno udrà e la terra ritornata alla forma di nebulosa errerà nei cieli priva di parassiti e di malattie.

Nelle pagine riportate il protagonista della "Coscienza", Zeno Cosini, proclama che la vita attuale è inquinata alle radici e che essa ha già messo in moto una spirale che la distruggerà: l'uomo, che si è messo al posto degli alberi e delle bestie, ora produce ordigni: gli ordigni si comprano e si vendono: da qui all'esplosione enorme, alla catastrofe inaudita che distrugge il pianeta il passo è breve. Il brano è da vedere, anzitutto, come approdo alla vocazione critica di Svevo nei confronti della società borghese. Molti critici insistono sul pessimismo profetico e anticipatore di queste pagine e ne prospettano una lettura in senso modernamente impegnato. La lettura di questa pagina, per mantenersi coerente col mondo poetico dello scrittore, sembra essere un'altra : Soltanto la fine del mondo potrebbe liberarci dalla malattia. L'uomo moderno, represso dalla inconsapevolezza del proprio stato, incapace d'ironia, non può produrre che catastrofi.

Bibliografia:

John Norton - La causazione come scienza ingenua.

Ida Biondi - Storia e antologia della letteratura greca, vol.3, Casa editrice G.D'Anna, Messina- Firenze.

N.Abbagnano e G.Fornero- Itinerari di Filosofia, voll.2A, 3A, 3B, Paravia.

SISSA-ISAS- Meccanica quantistica, Tessere.

U.Amaldi- La fisica per i liceo scientifici, vol.3, Zanichelli.

S.Hawking- Dal Big Bang ai buchi neri.

G.Bernardi- I Buchi neri.

M.Crippa e M.Fiorani- Geografia generale, Arnoldo mondatori scuola.

A.Giardina, G.Sabbatucci, V.Vidotto- Prospettive di storia. Spazi, percorsi, temi,vol.3, Laterza edizioni scolastiche.

Italo Svevo- La Coscienza di Zeno.

Scarica gratis La causazione come scienza ingenua
Appunti su:



Scarica 100% gratis e , tesine, riassunti



Registrati ora

Password dimenticata?
  • Appunti superiori
  • In questa sezione troverai sunti esame, dispense, appunti universitari, esercitazioni e tesi, suddivisi per le principali facoltà.
  • Università
  • Appunti, dispense, esercitazioni, riassunti direttamente dalla tua aula Universitaria
  • all'Informatica
  • Introduzione all'Informatica, Information and Comunication Tecnology, componenti del computer, software, hardware ...

Appunti Economia Economia
Tesine Ingegneria tecnico Ingegneria tecnico