|
Appunti scientifiche |
|
Visite: 2035 | Gradito: | [ Medio appunti ] |
Leggi anche appunti:L'atomoL'ATOMO CARATTERISTICHE GENERALI L'atomo è la più piccola Relatività, Meccanica quantistica e crisi della Fisica ClassicaRelatività, Meccanica quantistica e crisi della Fisica Classica Fino agli La teoria della relativitÀ ristrettaLa Teoria della Relatività Ristretta Einstein baso la relatività ristretta |
TESINA DI MATURITÀ
L'astrofisica, una nuova frontiera nell'avanguardia della scienza
«Lo Sforzo di capire l'universo è tra le pochissime cose che innalzano la vita umana al di sopra del livello di farsa, conferendole un po' della dignità di una tragedia»
Steven Weinberg
L'astrofisica: storia, scopi e strumenti.
Nel 1830 il filosofo francese Auguste Comte scrisse, nel Corso di Filosofia Positiva, che l'astronomia fu la prima scienza ad entrare nello stadio positivo negli anni tra il XVI e il XVII secolo, grazie al genio di figure quali Copernico, Keplero e Galileo Galilei. Tale svolta segnò il cambio di un'era, e la spinta necessaria all'evoluzione positiva delle scienze applicative. Tuttavia, tale scienza si limitava ad osservare i moti dei corpi, prevalentemente appartenenti al sistema solare, e a descriverne la traiettoria tramite formule e leggi più o meno empiriche. Una svolta ben maggiore, che condusse ad uno studio profondo delle caratteristiche fisico-chimiche dell'universo, quali densità, temperatura, luminosità e composizione, oltre che l'analisi delle strutture cosmiche e i rapporti (gravitazionali e non) tra esse, fu possibile solo molto più recentemente. L'inizio di tali studi è datato verso l'inizio del XX secolo, ma la vera rivoluzione risale all'anno 1933, quando Karl Jansky annunciò che una sua antenna aveva, per puro caso, captato frequenze radio provenienti dalla Via Lattea, e al 1964, quando i premi Nobel Arno Penzias e Robert Woodrow Wilson scoprirono la CMB. In entrambi i casi, i ricercatori lavoravano ai Laboratori Bell, ed in entrambi i casi stavano sperimentando un nuovo tipo di antenna, totalmente ignari di quello che stavano per scoprire. Tali scoperte, frutto della capacità di saper cogliere quello che il caso forniva loro e trasformarlo in scoperte innovative, portarono alla nascita della moderna Radioastronomia e a tutte le discipline ad essa collegata, riguardanti lo studio delle emissioni elettromagnetiche dei corpi celesti.
In particolare, la scoperta di Penzias e Wilson, interpretata tramite la legge di Hubble, fu una delle maggiori prove della teoria espansionistica dell'universo, nota oggi come teoria del Big Bang. Tale teoria, a tutt'oggi estremamente ma non universalmente condivisa, spiega la nascita dell'universo a partire da un singolo punto, chiamato Singolarità Gravitazionale o Atomo Primordiale; dalla "deflagrazione" di tale singolarità si è generata tutta la materia esistente. L'energia dello scoppio era talmente alta che la materia, originariamente di densità elevatissima e di volume infinitesimo, cominciò ad espandersi e a perdere energia, raffreddandosi. Grazie a tale processo di raffreddamento l'energia libera, sotto forma di fotoni, dopo un periodo durato circa 300.000 anni perse la capacità di rompere i legami atomici che si venivano a creare per collisioni spontanee di particelle elementari, e subì quello che viene chiamato "ultimo scattering" o disaccoppiamento: in breve, la materia era diventata trasparente alla radiazione. Tale radiazione si propagò quindi praticamente indisturbata ed in modo quasi isotropo fino ad oggi, raffreddandosi e diminuendo di frequenza (relazione prevista dalla legge di Wien): noi oggi la rileviamo come CMB. Analizzandola, è possibile ottenere molte informazioni riguardo alle condizioni dell'universo al momento del disaccoppiamento: con lo scopo di ottenere una conoscenza sempre più vasta di tale argomento, anche grazie ai contributi della Relatività Generale, è nata la Cosmologia moderna, scienza che studia l'universo nel suo processo di evoluzione dal Big Bang ad oggi. L'Astrofisica nel suo complesso venne dunque a configurarsi come una scienza che studia l'universo intero, unendo le conoscenze dell'infinitamente grande date dall'osservazione telescopica e dalle teoria derivanti dalla Relatività Generale, e dell'infinitamente piccolo date dallo studio fotometrico e dalle teoria della Meccanica Quantistica.
Le radiazioni elettromagnetiche, emesse dai corpi celesti e studiate per ottenere informazioni su questi ultimi, sono caratterizzate da una specifica lunghezza d'onda che ne determina le proprietà; per questo, lo studio astronomico è differenziato a seconda della lunghezza d'onda della radiazione analizzata, e necessita di differenti tecniche e differenti strumenti. Così, l'astrofisica si suddivide in varie discipline, dalla radioastronomia (lunghezze d'onda dell'ordine dei millimetri), all'astronomia ottica (400-700 nm), all'astronomia X e gamma (10 nm-1 pm).
Per studiare la banda ottica, detta anche banda del visibile, ci si serve di grandi telescopi dotati di uno specchio concavo paraboloide che concentra tutti i raggi ricevuti nel punto focale, dove è situato uno strumento di ricezione; solitamente, una telecamera collegata ad un dispositivo Charge Coupled Device (CCD) mantenuto ad una temperatura di circa -80°C, per evitare il più possibile il "rumore termico"; tali dispositivi permettono una risoluzione molto elevata, dando la possibilità di studiare oggetti anche molto lontani. Ovviamente, maggiore è il diametro dello specchio e maggiore sarà il potere risolutore**; tuttavia, vi sono numerose difficoltà tecniche nel produrre specchi sempre più grandi, dal peso sempre crescente dello specchio e della struttura del telescopio, che deve essere sempre più grande e lungo per adattarsi proporzionalmente al diametro, al problema, forse il maggiore, di mantenere costante in ogni punto la temperatura dello schermo, per evitare alterazioni impreviste dei dati.
Una risoluzione certamente maggiore e con minor sforzo si può ottenere nella Radioastronomia, dove lo strumento di ricezione delle onde elettromagnetiche è una grossa antenna (radiotelescopio) puntata nella direzione del segnale; grazie alle tecniche interferometriche, poco usate in ottica ma largamente utilizzate nell'ambito di lunghezze d'onda più elevate, è possibile sfruttare un complesso di antenne per aumentare il potere risolutore dell'apparato, come se invece di molte grandi antenne ci fosse un'enorme antenna di diametro pari alla distanza tra le due antenne agli estremi, pur senza la necessità di creare tale enorme antenna, di altrettanta enorme difficoltà pratica a costruirsi. L'utilizzo di interferometri, però, se da un lato migliora di molto il potere risolutore, dall'altro aumenta enormemente la pesantezza dell'elaborazione dei dati, necessaria per ricondurre i dati osservativi ad un'immagine analizzabile. A tutt'oggi, il più potente gruppo di radiotelescopi esistente è il Very Long Baseline Array, negli USA, composto da dieci radiotelescopi disposti lungo tutta la superficie dell'America settentrionale, per un diametro totale di 8000 km.
Nel caso di radiazioni più energetiche, caratterizzate da una lunghezza d'onda più piccola, come i raggi X e i raggi Gamma, le cose si complicano assai. L'atmosfera terrestre infatti filtra tali radiazioni, in misura sempre maggiore quanto più piccola è la lunghezza d'onda, rendendo molto arduo, se non impossibile, analizzare tali radiazioni da terra. Pertanto si è visto necessario il lancio nello spazio di telescopi in grado di rilevare tali radiazioni, cosa che è stata possibile solo negli ultimi vent'anni. L'osservazione dall'orbita, se necessaria per gli strumenti di osservazione X-γ, è altresì utile per l'osservazione ottica e radio. Il primo telescopio ad essere mandato in orbita, il telescopio Hubble, infatti, di soli 2.4 metri di diametro ha lo stesso potere risolvente che avrebbe un telescopio di diametro cinque volte più grande se posto sulla superficie terrestre. Grazie a questo, il telescopio Hubble è stato per molti anni la miglior fonte di immagini spaziali esistente, finché i progressi tecnologici non lo hanno reso in ogni caso obsoleto. Inoltre, sebbene mandare telescopi nello spazio permetterebbe di ottimizzare la larghezza del diametro dello specchio di base, permettendoci di costruirne di dimensioni più o meno contenute, anche tale progetto è stato scartato a causa dell'enormità dei costi, a favore di sviluppi tecnologici che migliorino le prestazioni dei telescopi a terra; un esempio è l'ottica adattativa, tecniche che consente, tramite analisi della turbolenza atmosferica, di flettere lo specchio in modo da correggere il fronte d'onda e di ottenere risultati simili a quelli di un telescopio spaziale. È altresì in corso lo sviluppo di tecniche interferometriche per dispositivi ottici: il principale esempio è dato dal VLT, in Cile, che conta ben quattro telescopi situati sulla cima di un altopiano, per un potere risolutore eguale a quello di un telescopio di 130 metri; tuttavia, i risultati sono ancora ben lontani da quelli ottenuti con l'osservazione con antenne radio.
Come già detto, tramite l'osservazione degli oggetti celesti è possibile ricavarne le caratteristiche, per poi procedere ad una efficiente classificazione. Per le stelle, tale classificazione è rappresentata in massima parte dal cosiddetto "diagramma H-R", ideato nel 1910 indipendentemente dal fisico danese Ejnar Hertzsprung e dal fisico statunitense Henry Russell; il diagramma mette in relazione magnitudine assoluta, luminosità assoluta, temperatura superficiale e indice di colore, permettendo un collocamento univoco di una stella al suo interno. La temperatura e l'indice di colore vengono ricavati dall'analisi dello spettro, così come la magnitudine apparente. Tramite il calcolo della distanza dell'oggetto, poi, si ottiene la magnitudine assoluta.
Un esempio pratico: fotometria e diagramma H-R di una galassia
Analizziamo ora a titolo di esempio l'analisi e la determinazione del diagramma H-R di una galassia satellite della Via Lattea, osservata tramite un telescopio ottico, con l'utilizzo del programma di elaborazione astrometrica IRAF. Il primo passo da compiere è ottenere l'immagine dell'oggetto celeste analizzato, compito eseguito dal telescopio, a cui è collegata una fotocamera dotata di un dispositivo CCD. Tramite elaborazione informatica, si ottiene quindi un'immagine digitale che contiene per ogni pixel il conteggio dei fotoni catturati, corrispondente, una volta diviso per il tempo di esposizione, all'intensità luminosa del singolo punto. Da questa immagine è possibile ricavare il numero di stelle della galassia ed ottenerne la magnitudine apparente. Ciò viene eseguito tramite la "fotometria di apertura", tecnica utilizzata per distinguere le stelle della galassia dal fondo celeste; in primis, consiste nel prendere come campione un punto del cielo e calcolarne la luminosità; a questo punto viene stabilita dall'utente una soglia di intensità, fattore della luminosità del cielo, e viene ordinato al calcolatore di individuare ogni singolo pixel con intensità maggiore del numero di soglia, ottenendo così un conteggio delle stelle. Tale tecnica è utilizzata in concomitanza alla "fotometria PSF", necessaria per minimizzare gli effetti di seeing atmosferico e per permettere al calcolatore di distinguere come separate due stelle molto vicine.
Il seeing è un effetto molto dannoso per l'analisi astronomica, in quanto deforma e distorce l'immagine in modo del tutto casuale. È dovuto ai moti turbolenti dell'atmosfera sovrastante il punto di osservazione, che portano ad una variazione casuale di densità, e quindi di indice di rifrazione, dell'aria, durante il periodo di esposizione. Cambiando l'indice di rifrazione, cambia di conseguenza la deflessione che subisce il raggio di luce, che si imprime sul dispositivo ottico utilizzato per la registrazione del segnale in un punto leggermente spostato rispetto agli altri, generando una densità di punti descritta da una curva gaussiana invece che da un picco puntiforme. Questo implica che ad ogni stella è associata una gaussiana e che due stelle molto vicine verranno visualizzate come una sovrapposizione delle loro curve. Per riuscire a distinguere questa tipologia di stelle, si procede campionando alcune stelle la cui curva di densità viene visualizzata e accettata dall'utente; interpolando i dati di tali stelle campione viene generata la gaussiana di riferimento, e il programma la confronta col grafico tridimensionale di tutta l'immagine, sottraendo via via le curve delle stelle riconosciute. In tal modo, si ottiene un conteggio molto preciso del numero di stelle appartenenti alla galassia.
Questo è un tipico esempio dell'utilizzo pratico di una funzione gaussiana. Tale funzione corrisponde alla funzione densità di probabilità di una variabile aleatoria casuale in una distribuzione di Gauss o "Normale". La distribuzione gaussiana è particolarmente importante nell'analisi dei fenomeni casuali empirici, in quanto si riconduce alla maggior parte degli eventi: nella grande maggioranza dei casi, gli "eventi" (per esempio, il fatto che la statura di uomini tra i 30 e i 50 anni sia pari ad un certo valore) tendono a rientrare in un limitato intervallo attorno ad uno specifico valore, chiamato "valor medio", indicato con μ. Vi è inoltre un altro parametro chiamato "scarto quadratico medio", indicato con σ, collegato al suo quadrato, la "varianza" (σ2), che indica quanto la totalità degli eventi si discosti dalla media. In una distribuzione gaussiana, la probabilità che si verifichi un evento nell'intervallo [μ-σ, μ+σ] è del 67%, un valore molto alto. Inoltre, la quasi totalità degli eventi (il 99%) è compresa tra μ-3σ e μ+3σ. Tale distribuzione approssima con buon grado numerose variabili aleatorie di origine empirica; corrisponde perciò alla normalità, ragion per cui il nome di distribuzione normale.
Una volta ottenuto l'elenco di tutte le stelle presenti nella galassia, di cui l'elaboratore ha memorizzato la relativa magnitudine rilevata (strumentale), si passa a calcolarne la magnitudine apparente nelle varie bande fotometriche (intervalli di lunghezza d'onda) del sistema ugriz, ottenibili conoscendo il punto zero della banda, la magnitudine strumentale e la massa di aria sovrastante, che, moltiplicata ad un fattore di estinzione atmosferica tipico per ogni banda, permette di correggere l'effetto filtro dell'atmosfera, mai completamente trasparente. Quindi si può passare a calcolarne la magnitudine assoluta, dopo aver calcolato la distanza: questo viene fatto conoscendo la magnitudine assoluta del punto TRGB nella banda i (18.2), tramite la formula che lega magnitudine assoluta, relativa e distanza (m-M = -5+5log(d)). Una volta ottenuta la magnitudine assoluta in una banda, la si può calcolare facilmente in tutte le altre bande, ottenendo così l'indice di colore; tramite questo, si costruisce il diagramma H-R finito della galassia osservata. Infine è possibile ottenere ulteriori dati da quelli in nostro possesso, come la luminosità totale, espressa in multipli di luminosità solare, a partire dalla magnitudine assoluta, e la massa totale, in multipli di masso solare; inoltre, sovrapponendo al diagramma delle curve particolari, dette "tracce evolutive" o "isocrone", è possibile determinare con buona approssimazione l'età della galassia.
Tutto questo è stato
ottenuto analizzando lo spettro elettromagnetico emesso dal corpo celeste in determinati
intervalli di lunghezze d'onda. Secondo la definizione, la radiazione
elettromagnetica è un fenomeno ondulatorio dovuto alla contemporanea
propagazione di perturbazioni periodiche di un campo elettrico e di un campo
magnetico, oscillanti in piani tra di loro ortogonali. Tuttavia, è stato anche
detto che il calcolatore, per determinare la luminosità di ciascun punto
dell'immagine, eseguiva un conteggio dei fotoni rilevati in corrispondenza di
quel punto. Per risolvere questa ambiguità è necessario pensare ad un'onda
elettromagnetica come ad un sistema onda-corpuscolo, in cui il fotone è una
manifestazione particellare che mantiene però le proprietà di un'onda (e quindi
conservando lunghezza d'onda e frequenza). Ciò è possibile grazie al principio
di complementarità, formulato dal fisico danese Niels Bohr, che riprende il
lavoro di De Broglie, il quale per primo determinò le caratteristiche della
luce in modo da rendere coerente sia l'interpretazione corpuscolare che ondulatoria,
e ampliando la validità di quest'ultima a qualunque tipo di particella. Ipotizzò
infatti che tutta la materia avesse proprietà ondulatorie: ad un corpo con quantità di moto p veniva infatti associata
un'onda di lunghezza d'onda , dove h è la costante di Planck. Tale equazione è una
diretta derivazione dell'equazione di Einstein, dato che per ogni onda
elettromagnetica e , cioè per un qualsiasi fotone .
Conclusione: il concetto di serendipità
Si è detto che la storia della moderna astrofisica fu frutto di scoperte casuali, sapientemente colte e sfruttate grazie all'acume degli scienziati coinvolti, cosa che portò persino ad un premio Nobel, nel 1978, per la scoperta della radiazione cosmica di fondo. Questo atteggiamento che consente di saper cogliere l'occasione di scoprire cose non cercate, che si presentano in modo imprevisto, è chiamato "Serendipità", neologismo derivante dalla fiaba persiana "Tre principi di Serendippo"; in questa i tre protagonisti si imbattono in molti eventi inattesi, ma grazie alla loro capacità di sfruttare le situazioni in cui vengono a trovarsi a loro vantaggio, superano indenni molte avversità. Filosoficamente, la serendipità si configura come quindi come un pensiero asistematico, tipico di pensatori come Montaigne o Emerson, in contrapposizione a filosofi quali Cartesio, Kant o Hegel, che improntarono il loro pensiero in modo sistematico.
Ma il concetto di serendipità è tutt'altro che nuovo in fisica e nella ricerca scientifica: innumerevoli sono le scoperte nate dal caso e dall'acume del loro scopritore, come ad esempio la dinamite ad opera di Alfred Nobel, o anche l'invenzione dei post-it di Spencer Silver, chiaro esempio di come da un grande fallimento (cercare di ottenere una supercolla) si possa giungere ad una grande invenzione (un adesivo pulito che garantisce al contempo adesività e flessibilità); persino la mela di Newton o la scoperta dell'America da parte di Cristoforo Colombo, alla ricerca di nuove strade verso le Indie, fu un mirabolante esempio di serendipità. Si può quasi dire che questa sia l'ossigeno della ricerca scientifica, la giusta disposizione mentale di chiunque voglia giungere a nuove scoperte e invenzioni mirabolanti, a cui nessuno aveva mai pensato prima.
Appunti su: https:wwwappuntimaniacomscientifichefisicatesina-di-maturit-lastrofisica14php, tesina sul telescopio, |
|
Appunti Chimica | |
Tesine Geografia | |
Lezioni Biologia | |