Appunti per Scuola e Università
humanisticheUmanistiche
Appunti e tesine di tutte le materie per gli studenti delle scuole medie riguardanti le materie umanistiche: dall'italiano alla storia riguardanti le materie umanistiche: dall'italiano alla storia 
sceintificheScientifiche
Appunti, analisi, compresione per le scuole medie suddivisi per materie scientifiche, per ognuna troverai appunti, dispense, esercitazioni, tesi e riassunti in download.
tecnicheTecniche
Gli appunti, le tesine e riassunti di tecnica amministrativa, ingegneria tecnico, costruzione. Tutti gli appunti di AppuntiMania.com gratis!
Appunti
informatica
CComputerDatabaseInternetJava
Linux unixReti


AppuntiMania.com ğ Informatica ğ Appunti di computer ğ Il microprocessore :storia ed evoluzione

Il microprocessore :storia ed evoluzione




Visite: 2890Gradito:apreciate stela [ Grande appunti ]
Leggi anche appunti:

Il computer al servizio del progresso dell'umanità


Il computer al servizio del progresso dell'umanità   La nostra era moderna,

Cd-audio


Cd-audio  Nel giugno del 1980 è stato presentato sul mercato un rivoluzionario

La gestione della memoria


La gestione della memoria        Quando un processo diventa Running, è necessario
immagine di categoria

Scarica gratis Il microprocessore :storia ed evoluzione

Il microprocessore :storia ed evoluzione


Storia


Il microprocessore nasce nel 1971 a Santa Clara, in California, nella sede della nascente Intel, fondata nel 1969. Dopo avere introdotto la prima memoria a semiconduttore (il chip Intel 1101A) essa presenta il primo sistema a microprocessore, costituito da 4 chip e denominato MCS-4 (MicroComputer System 4). Prima del microprocessore il concetto di calcolatore era conosciuto solamente dalle grandi aziende e da alcuni governi, anche perché le macchine usate per il calcolo erano enormi e costosissime da produrre. Nemmeno l'introduzione, circa 10 anni prima, del circuito integrato ( Un circuito integrato è un dispositivo formato da una piccola piastra di silicio (chip) su cui sono raggruppati componenti elettronici diversi come condensatori, resistenze e transistor. Il numero di componenti raggruppabili su un singolo chip viene chiamato scala di integrazione (o livello di integrazione) ed è cresciuto da poche decine di componenti a migliaia o milioni di componenti su uno stesso chip.) da parte della Texas Instruments permise di ridurre in modo significativo il costo, l'ingombro e il consumo delle macchine di calcolo. Il circuito integrato tendeva sì a ridurre la grandezza di componenti elettronici discreti (come transistor e resistenze), miniaturizzandoli su di un circuito di qualche millimetro quadrato, ma per svolgere i compiti di un elaboratore di media potenza erano necessari diverse centinaia di circuiti integrati (o "chip"), ed il tutto era comunque complicato e costoso. Poi il 15 novembre 1971 Intel decretò la svolta. Senza precedenti! Infatti il Sistema di Calcolo Integrato MCS-4, con soli 4 Circuiti Integrati, svolgeva il 70% delle funzioni tipiche di un sistema di calcolo di bassa potenza quale poteva essere un registratore di cassa elettronico, che allora conteneva oltre 40 circuiti integrati, ognuno progettato per eseguire una specifica funzione. In effetti non si trattava più di semplici circuiti integrati. I 4 chip del Sistema MCS-4 integravano tutta la logica di un sistema di calcolo completo, seppur di bassa potenza. Infatti erano presenti un chip di memoria ROM, uno di memoria RAM, un chip di controllo ed il microprocessore (o CPU, Central Processing Unit) vero e proprio, chiamato Intel 4004 (foto). Tutte le funzioni di calcolo matematico erano svolte all'interno di questo chip da 2.300 transistor. Più in profondità, il 4004 era un processore a 4-Bit con un set di circa 60 istruzioni (alcune ad 8-Bit) e con registri a 4-Bit. La potenza di calcolo pare si attestasse sui livelli del mastodontico ENIAC (una macchina con 18.000 valvole) ma con la limitata possibilità di gestione dei dati dovuta ai solo 4-Bit che poteva trattare (la struttura dell'ENIAC pare fosse invece a 44-Bit!). Su 4-Bit, infatti, era possibile codificare solo 16 simboli, per cui non era possibile impiegare questo chip per funzioni quali calcolo scientifico (dove vi sono simboli e funzioni avanzate) o videoscrittura (dove era necessario rappresentare i simboli dell'alfabeto). In pratica era un microprocessore adatto ad una calcolatrice (ed in effetti le odierne calcolatrici hanno proprio processori a 4-Bit, molto simili al 4004, in pratica è come avere un "ENIAC" nel palmo della mano!) e non ad un vero computer! Ma Intel ebbe subito la consapevolezza che il nuovo componente da lei progettato, il Microprocessore, potesse ulteriormente accrescere le sue potenzialità. In seguito il 4004 venne affiancato dal processore 4040, che possedeva la stessa architettura del 4004 ma integrata in se alcune delle componenti elettriche esterne al 4004! Il bus dati era a 12-Bit multiplexato (in pratica era un bus "serializzato", che permetteva di impiegare meno piedini rispetto ad un bus da 12-Bit "parallelo", come quelli usati dalla maggior parte dei processori successivi).Qualche anno più tardi Intel introduce il primo processore ad 8-Bit, l'Intel 8008. Si tratta in effetti di un processore assai simile al 4004, ma che permette di estendere le funzioni di calcolo alla manipolazione dei dati e dei simboli. Infatti con 8-Bit era possibile rappresentare 256 simboli differenti. Ma le limitazioni intrinseche dell'architettura, troppo legata al 4004, non permettevano ancora di raggiungere quel non-plus-ultra che serviva nell'impiego del nascente computing.


In pratica possiamo considerare il chip 8008 come un processore ad 8-Bit per calcolatrice. In questo caso, però, con la differenza di poter manipolare anche dati non strettamente numerici, quindi siamo di fronte al primo processore per calcolatrice scientifica! Il set di istruzioni pare fosse ancora lo stesso del 4004, solo che in questo caso completamente ad 8-Bit, inoltre il chip ebbe impieghi come controller! Ma il primo vero processore per computer, anch'esso ad 8-Bit, fu il chip 8080. Intel confezionò un processore senza precedenti. Oggi forse sorridiamo pensando a quanto sia insignificante questo processore paragonato, ad esempio, al Pentium 4, ma allora esso fu il primo vero computer su singolo chip. Tutte le funzioni principali di un computer di media potenza erano svolte da questo chip. Era il periodo dei minicomputer, i primi computer con componenti integrati (non veri microprocessori! In queste macchine il processore era in pratica contenuto su una scheda che integrava diversi circuiti integrati) che non misuravano più tre metri in altezza e consumavano come 50 stufe. Ma certamente queste macchine non erano alla portata del grande pubblico. Da tempo molte aziende cercavano qualcosa che potesse fare la differenza. Ebbene il primo spiraglio venne proprio con l'introduzione dell'8080. Esso venne così impiegato nel primo computer da casa, il famosissimo, anche perché ebbe un successo enorme, Altair (simile al C64). Il primo Personal Computer arriverà solo nel 1981, con il PC IBM.



Il microprocessore Intel 8080A, ad 8-Bit.


L'Intel 8080 disponeva di un'architettura del tutto nuova. In primo luogo era completamente ad 8-Bit, con registri ad 8-Bit e bus dati ad 8-Bit. La manipolazione dei dati veniva estesa con nuove funzioni implementate in un set di istruzioni più ampio e completamente ad 8-Bit e veniva impiegata la gestione delle priorità tramite Interrupt. L'Interrupt è in effetti stato introdotto già con l'8008, ma solo con l'8080 viene correttamente supportato. Si tratta di comunicare con il processore tramite degli impulsi che gli indicano di fermarsi per dare ascolto ad una periferica che chiede di essere esaudita. Viene supportata anche una maggiore quantità di memoria (64-KB).

La maggiore quantità di memoria indirizzabile permetteva la manipolazione anche di dati grafici, matematici e scientifici. Ma l'8080 conteneva anche degli errori! I cosiddetti "bug" sono delle imperfezioni che sono presenti in qualsiasi circuito integrato, anche che non sia un processore. Nei processori, però, i bug possono provocare problemi ai programmi che vi si eseguono, per cui sono molto più fastidiosi. In effetti i bug sono imprevedibili ed è praticamente impossibile eliminarli. La sofisticazione insita nei microcircuiti dei processori è tale che, per quanti controlli si effettuino (e non sono pochi, in quanto ogni microprocessore è sottoposto a severi test per molti giorni) non si potranno mai eliminare tutti. È anche capitato che alcuni bug si siano poi rivelati utili per alcuni scopi, mentre altri, come quello famoso del Pentium, ha dato non pochi grattacapi sia a Intel che agli utenti. Qualunque processore possiede diversi bug, più o meno gravi. La maggior parte si conoscono in seguito alle stesse prove effettuate dalle fabbriche di microprocessori, e molte, quelle più insidiose, vengono via via corrette nelle successive revisioni dello stesso processore. Ma su un processore nuovo è possibile che compaiano altri bug, di tipo diverso. Comunque la maggioranza dei bug possono essere aggirati dai programmatori, che impiegano le disposizioni della casa produttrice del chip per creare stratagemmi atti a bypassare gli eventi catastrofici che i bug possono innescare. Ma non sempre questo è possibile. Tuttavia bug molto insidiosi ve ne sono stati pochi, il più insidioso dei quali fu proprio quello del Pentium. In seguito Intel ha fornito, per ogni suo processore, la lista completa di tutti i bug presenti nelle sue CPU, in modo da scongiurare problemi. Altre volte, alcuni bug sono stati addirittura spacciati per "advanced feature" (funzioni avanzate). E fu il caso proprio dell'8080. Esso presentava un bug, abbastanza insidioso (ma non catastrofico) che in un primo momento venne spacciato come funzione in più del processore, mentre in seguito venne corretto con l'introduzione dell'8080A. Volendo ancora estendere le funzionalità dell'8080A Intel presentò poi l'8085, ancora ad 8-Bit ma più potente ed evoluto. Pare che integrasse lo stesso set di istruzioni dell'8080, aggiungendo solo due istruzioni in più, inoltre integrava al suo interno alcune sezioni a 16-Bit (ma manipolava comunque dati ad 8-Bit). A quest'ultimo si inspirò lo Z80 della Zilog, il primo processore non-Intel ad avere un grosso successo commerciale dopo l'8080.
Nel 1978 nasce l'era dei 16-Bit. Il primo processore a 16-Bit della Intel si chiama 8086 ed estende enormemente le prestazioni e le potenzialità dei predecessori (è dieci volte più veloce del 4004). L'architettura è completamente a 16-Bit, con registri a 16-Bit e bus dati a 16-Bit, mentre il bus indirizzi era 20-Bit. Da notare che il bus indirizzi non concerne al raggiungimento delle prestazioni. Un bus dati a 16-Bit è più veloce di uno ad 8-Bit perché trasferisce più dati nello stesso tempo. Il bus indirizzi non trasferisce dati. Il bus indirizzi determina appunto gli "indirizzi di memoria" che il processore potrà direttamente utilizzare. Più è ampio questo bus, più ampia è la quantità di memoria che il processore sarà in grado di supportare. Con 20-Bit il processore 8086 è capace di "indirizzare" un massimo di 1.024-KB di memoria (1-MB). Anche se installassimo 2-MB, il processore non vedrà più di 1-MB di memoria. Con il processore 8086 nasce, effettivamente, l'architettura (anche detta binaria, perché relativa alle istruzioni binarie che definiscono le funzionalità dell'architettura stessa) 80x86, definita anche come iAPX86. Il set d'istruzioni base, a 16-Bit, resterà la base per tutti i futuri processori Intel. Resterà a 16-Bit fino al 286, e sarà esteso a 32-Bit, restando sempre e comunque compatibile con quello a 16-Bit, a partire dall'80386. Solo con il Pentium Pro sarà aggiunta una nuova istruzione. La compatibilità verso il passato dei processori x86 è stata una delle più grandi peculiarità che ha decretato il successo di quest'architettura. In questo modo tutti i successori dell'8086 avrebbero potuto eseguire i programmi scritti in origine per l'8086, anche se, a lungo andare, questa certezza venne in parte vanificata.
Ma quando IBM decise di produrre il suo Personal Computer, presentato nel 1982, essa impiegò la versione ridotta, e a basso costo, dell'8086. Si trattava dell'8088. Aveva 40 pin, come anche l'8086, e la sua struttura interna era basata sul vero nucleo 8086, l'unica differenza era l'impiego di un bus dati esterno (verso la scheda madre), a soli 8-Bit che permetteva di adattare le schede madri ad 8-Bit, meno costose. Per il resto restava invariato anche il bus indirizzi, sempre a 20-Bit. Il fatto che il bus dati fosse ad 8-Bit implicava che il processore fosse più lento nelle operazioni di lettura dei dati dalla memoria o nel trasferimento degli stessi verso l'esterno. In pratica un 8086 trasferiva i dati in un solo impulso di clock, mentre l'8088 trasferiva gli stessi 16-Bit in due tempi, in due cicli di clock. IBM lo scelse per contenere i costi! L'8088 potrebbe essere considerato alla stregua dell'odierno Celeron. Infine, IBM ed Intel ebbero un successo senza precedenti!
Nel corso degli anni l'8088 e l'8086 vennero anche "clonati" da diverse società (Siemens, AMD, Philips, NEC, Fujitsu, OKI ed altre) che ottennero specifiche licenze da Intel. In effetti la stessa IBM intimò ad Intel di scegliere una second source (ovvero una seconda società del silicio) alla quale affidare parte della produzione dell'8088, altrimenti si sarebbe rivolta a qualche altra società (pensate se Intel non avesse accettato! IBM avrebbe potuto chiudere un contratto con Motorola molto tempo prima, o comunque l'avrebbe chiuso con qualche altra società del silicio). E secondo indiscrezioni Intel, in un primo momento, avrebbe scelto la giapponese NEC, con la quale aveva avuto già rapporti precedenti. Alla fine, però, Intel finì per scegliere AMD (si dice che vi furono pressioni da parte di IBM, se non da parte dello stesso governo americano). Insomma si insinuò la "paura" di esportare nelle mani di una società giapponese la nascente tecnologia del silicio americana e quindi la scelta finì su AMD (a quanto sembra) che era americana, ma Intel, che pare avesse già avuto contatti con NEC per il licensing dei progetti 8088/8086, lasciò comunque a NEC la facoltà di adottare le licenze di queste CPU, senza però poter sfruttare il nome originale! Per questo NEC, qualche tempo dopo, creò i processori V20 (8088 compatibile) e V30 (8086 compatibile) ottenendo delle speciali licenze dalla stessa Intel. In origine i processori 8086 ed 8088 funzionavano a 4, 8 e 10-MHz. Successivamente, in particolare i cloni, raggiunsero frequenze più elevate (fino a 12-MHz ed oltre).Sempre nel 1978 Intel presentò anche la versione microcontroller dell'8086. Si trattava del processore Intel 80186 ad alta integrazione. Si trattava di processore che integrava lo stesso nucleo a 16-Bit dell'8086 con tanto di bus indirizzi a 20-Bit e indirizzamento ad 1-MB di memoria RAM. Erano forse state integrate delle istruzioni aggiuntive, che contemplavano la manipolazione dati in ambito industriale (controllo numerico ecc.).

Oltre al nucleo dell'8086, sullo stesso circuito del processore erano state integrate molte delle periferiche esterne dell'8086, in modo da rendere il processore semplice da implementare. Si trattava del primo processore ad altissima integrazione. In pratica buona parte delle componenti del PC IBM erano contenute in un solo circuito da 68 piedini. Ma sebbene l'architettura base risultava essere la stessa dell'8086, le nuove funzionalità aggiunte resero necessario un numero di pin aggiuntivi. Ma nel periodo che spazia dal 1978 al 1984 la mentalità informatica non si rivelò pronta ad un così grande passo. Ancora oggi, sebbene i processori si siano sempre più evoluti nella direzione tracciata dall'80186 (integrare quanti più componenti nello stesso chip) non abbiamo un vero computer su singolo chip. Unica piccola avvisaglia è stato il MediaGX di Cyrix, che integrava audio e video sul processore. Si attendeva inoltre Intel, che doveva presentare Timna, un Celeron con Audio e Video integrati, ma ormai anche questo progetto è stato abbandonato. Premettiamo che Intel presentò già nel 1989 un processore che integrava una sezione grafica ad alte prestazioni. Si trattava del processore RISC 80860 (Intel 860) a 32/64-Bit. Ma anche questo chip è stato via via rimpiazzato dalla crescente avanzata delle società produttrici di soluzioni grafiche. I processori grafici attuali contano dai 6 ai 9 milioni di transistor. Nel 1989 il processore 80860 integrava una sezione grafica avanzata (per quel periodo) in soli 1.200.000 transistor (che comprendevano processore e sezione grafica, ovviamente). Ma integrare oggi uno dei processori grafici più evoluti in un processore come un Celeron sarebbe fare lo stesso sbaglio fatto da Intel con l'80186. Forse anche per questa difficoltà Timna è stato abbandonato. Insomma Intel possiede la capacità tecnologica necessaria a produrre un singolo chip che implementi tutto un vero computer, ma ancora oggi il costo proibitivo di una tale soluzione sarebbe un sicuro fallimento commerciale. Per questo Intel, anche guardando agli errori passati, ha dovuto sempre cercare un compromesso. Stessa cosa avvenne anche con il Pentium Pro. E allo stesso modo l'alta integrazione unità alla grande potenza non bastarono a fare accettare un processore che costava quattro volte un semplice Pentium. Per questo, ancora una volta, Intel ha risemplificato il Pentium Pro per renderlo maggiormente economico e lo ha fatto diventare Pentium II.
Tornando all'80186, la stessa IBM preferì attendere l'80286 (successore dello stesso 80186) per rimpiazzare l'ormai limitato 8086. L'80186 era in pratica identico all'8086 quando non eseguiva operazioni prettamente microcontroller, e pur essendo assai integrato, la sua potenza elaborativa non era così eclatante come ci si sarebbe aspettati. Fu anche questo aspetto a rendere poco appetibile il chip. Il costo della soluzione, probabilmente più che doppio rispetto ad un sistema 8086, non giustificava un incremento di prestazioni che sembrava essere assai limitato (meno del doppio a quanto sembra). Per fortuna che al mancato successo in campo PC non seguì pari sfortuna nel campo industriale. Il processore 80186, per le sue peculiarità microcontroller, è stato ampiamente impiegato in sistemi industriali per il controllo delle macchine e poi, via via che anche il prezzo si ridusse a causa dell'evoluzione generazionale dei processori Intel, venne impiegato in diverse mansioni negli stessi Personal Computer (come controller per Hard Disk, come controller IDE intelligente e ad alta velocità, come controller su schede di rete e in moltissime altre applicazioni, che spaziavano dall'ambito video a quello della gestione dei segnali, anche come pseudo-DSP, e via dicendo). Lo si poteva trovare In molte macchine 386 e 486 e ancora in alcune macchine Pentium su alcuni Hard Disk della società Maxtor nella sua versione 80196 (80186 ulteriormente evoluto, ancora oggi assai usato in molti apparecchi, anche di recente generazione, quali scanner e simili). Anche dell'80186 venne creata una versione dotata di un bus dati ad 8-Bit. Si trattava dell'80188, che in pratica ricalcava quello che l'8088 era per l'8086. Il bus dati ad 8-Bit riduceva le prestazioni di I/O ma garantiva una maggiore economicità della soluzione. 80186 e 80188 vennero impiegati anche in alcune macchine portatili (per via della loro alta integrazione, che permetteva di ridurre l'ingombro delle schede madri e di ridurre anche il consumo di corrente) e si potevano, e si possono ancora oggi trovare, anche in sistemi di telecomunicazione, in particolari sistemi di elaborazione industriale o anche in sistemi medicali per ospedali, in alcune workstation, anche con processore principale non Intel, in alcune stampanti o scanner di qualche tempo addietro e anche nelle macchine Acorn Archimedes che impiegavano il processore ARM (acronimo della società, Acorn RISC Machine della prestigiosa Università di Cambridge, in Inghilterra) a 32-Bit (che, qualche tempo fa, faceva concorrenza alle CPU di Apple e Amiga e ai processori Intel a 32-Bit). Successivamente il processore ARM divenne  StrongARM, grazie ad un accordo con la prestigiosa Digital (produttrice del superprocessore Alpha) che poi venne acquisita da Compaq e cedette la divisione di produzione del silicio ad Intel (che ora produce anche gli stessi chip Alpha che Digital/Compaq commercializza ancora), insieme al progetto dello stesso StrongARM, che Intel continua a produrre. L'80186 (come il fratello 80188) venne quindi usato poco come processore principale del PC, mentre trovò impiego su alcuni PC portatili per via della sua alta integrazione e il ridotto ingombro e soprattutto in PC industriali e per apparecchiature mediche. Esiste poi, come accennato, una versione ulteriormente avanzata, chiamata 80196 (ed esiste anche la controparte 80188, l'80198), progettata da Intel per estendere le funzionalità standard dell'80186 e tenerle al passo coi tempi!


Alcuni particolari:


Chip: 'frammento, scheggia di pietra' in informatica indica un intreccio di circuiti stampati o incisi in un supporto di silicio che permette di elaborare (es: CPU) o immagazzinare dati


CPU: dall'inglese 'Central Processing Unit', in altre parole: 'microprocessore', ( Il microprocessore è costituito da un monocristallo di silicio estremamente puro, sezionato finemente, quindi trattato ad altissime temperature in forni che contengono vari tipi di impurità allo stato gassoso. Queste impurita' devono legarsi alla struttura reticolare del cristallo, influenzando la sua capacità di condurre elettricità. Il silicio diventa cosè un semiconduttore ed è in grado quindi di resistere al passaggio di corrente elettrica in misura maggiore rispetto ai normali conduttori come il rame, ma non tanto quanto gli isolanti), ovvero il chip dedicato all'elaborazione dei dati. Erroneamente, nel linguaggio comune si indica come CPU l'intero involucro, escludendo eventuali periferiche, stampanti, monitor, etc.


 Evoluzione


                  


Nel 1982 Intel produce la massima evoluzione della sua architettura x86 a 16-Bit. Si tratta del potente processore 80286, appunto a 16-Bit, ma dotato di molte nuove funzionalità. Per prima cosa viene estesa la principale limitazione dei processori 8086 ed 80186.Infatti viene adottato un bus indirizzi da 24-Bit, che permetteva di accedere a 16-MB di memoria RAM  per lo sfruttamento della memoria virtuale (un file da creare sul disco rigido per simulare memoria fisica ed estendere le capacità di manipolazione dati), fino a ben 1-GB. Si trattava di innovazioni senza precedenti, dovute principalmente all'integrazione di un componente separato che si occupava indipendente della gestione della memoria ed era conosciuto come MMU. Nel 286 è presente una VMMU, con supporto per la memoria virtuale. Questo componente era solitamente esterno ed opzionale e permetteva di aumentare le prestazioni ottimizzando l'accesso ai componenti di memoria del PC. Nel 286 viene integrato per permettere di usufruire del multitasking, ovvero l'esecuzione contemporanea di più istruzioni o programmi da parte del processore. Per far ciò era previsto che la memoria fosse suddivisa in diverse porzioni uguali, ognuna protetta dalle altre, in modo che differenti programmi in esecuzione potessero usare solo la memoria a loro riservata, senza intaccare quella riservata agli altri programmi, così da scongiurare conflitti e blocchi del PC. Inoltre la memoria veniva indirizzata in blocchi di byte univoci (64-Byte, sembra), ovvero veniva segmentata, per permettere una più agile gestione della memoria. Infine il 286 era compatibile con i precedenti processori 8086 ed 80186. Tuttavia i programmi scritti per questi processori potevano, a volte, non essere eseguiti correttamente. Per questo motivo Intel aveva inserito nel processore la possibilità di ridurre a 20-Bit il bus indirizzi, così che il 286 potesse vedere un solo megabyte di memoria e si comportasse quindi come se fosse un vero 8086, e senza poter usufruire della memoria virtuale. In questo caso il 286 diventava un vero 8086, con annessi limiti, e poteva eseguire senza errori i programmi per esso progettati e che non funzionavano bene nella modalità 80286 standard (definita modalità protetta, a discapito di quella 8086, definita reale). Questa struttura è presente in tutti i processori successivi al 286, compreso gli attuali Pentium III e Pentium 4. Il 286 era quindi un processore assai più sofisticato dei predecessori, ed anche molto potente. Sul 286 era possibile eseguire una particolare versione di Windows (definita Windows 286 per distinguerla da quella creata per il 386) che non funzionava su 8086 ed 80186 a causa della mancanza della memoria virtuale. L'80286 era prodotto a 6, 8, 10 e 12-MHz, anche se in seguito vennero introdotte, soprattutto dagli altri produttori del chip per conto di Intel, versioni fino a 20-MHz e 25-MHz. In particolare la Harris si diede da fare in questo senso. Il suo 80286 a 25-MHz riusciva ad essere persino più veloce del 386SX a 16-MHz, che come vedremo era un 386 "mutilato". Così il 286 venne impiegato nel nuovo PC IBM, definito AT (Advanced Technology), e per la prima volta (qualche anno più tardi) sui PC IBM divenne disponibile un sistema operativo a memoria virtuale, in parte multitasking, e dotato di interfaccia grafica. Si trattava di Windows, l'amata/odiata interfaccia di Microsoft, che faceva l'occhiolino ai Macintosh. L'80286 divenne in poco tempo il processore più diffuso (ancora oggi ne esistono miriadi in giro!) e le macchine 8088 ebbero un buon calo di prezzo. Allo stesso tempo, nacquero i primi PC IBM compatibili, anch'essi dotati del processore 80286, inoltre il fratello maggiore dell'8088, l'8086, divenne il nuovo processore economico a cui si potevano rivolgere i clienti che non se la sentivano di adottare il 286, comunque più costoso. E poi, parliamoci chiaro, nei primi anni del lancio del 286 Windows era alla sola versione 2.0, senza supporto per memoria virtuale e si può dire senza una vera interfaccia grafica (somigliava più alla Dosshell di MS-DOS!) per cui scegliere il 286 non era così indispensabile! Le cose cambiarono un pochino con l'arrivo della versione Windows 286, appositamente ottimizzata per questo processore. Ma ciò avvenne solo dopo il 1985, quando già il 386 era arrivato e Windows era passato alla versione 3.0. L'arrivo di Windows 3.0 diede una ventata di novità al mondo PC. Chi poteva permetterselo prendeva una macchina 386 e la equipaggiava con la prima vera interfaccia grafica. Ma chi non poteva non si lamentava, comunque, in quanto Windows 286 permetteva di avere la stessa interfaccia di Windows anche sul 286, più a buon prezzo! Ed ancora un grande successo per il 286.

Il processore 80286 a 10-MHz nel suo package PGA ceramico da 68-pin. Anche l'80186 esiste in versione PGA. Notare la "A" anteposta al nome 80286. Questa lettera contraddistingue quasi tutti i processori Intel (e AMD) con package PGA ceramico (alcuni, tuttavia, utilizzano la denominazione C80286 o CG80286 per specificare versioni particolari del circuito interno, con funzioni avanzate, e ciò vale anche per gli altri package usati). Notare, a destra, il circuito interno del processore



Intel, che aveva progettato ed era la principale produttrice del processore 80286, concesse la licenza di questo chip anche ad altre società: quelle ufficialmente documentate sono: AMD, IBM, Harris Semiconductors, Siemens, Fujitsu e Signetics (Philips Semiconductors). I chip prodotti da queste società sono totalmente identici a quelli prodotti da Intel. Inoltre NEC, che già aveva prodotto V20 e V30 (rispettivamente compatibili all'8088 e all'8086) produsse i chip V40 e V50. Dovrebbe trattarsi di chip compatibili 286, anche se sorge un dubbio sul V40, che potrebbe essere invece un chip compatibile 80186.

L'80286 Intel in versione "slim" a 6-MHz. Notare che si tratta di una versione speciale, perché chiamata C80286 e non R80286, relativamente al package!


Nel 1985 si chiude, almeno per l'hardware dei PC IBM, l'era dei processori a 16-Bit. Intel introduce infatti il processore 80386, a 32-Bit. Si tratta di un processore che in linea di massima presenta una struttura simile a quella del 286, con la gestione della memoria virtuale e gli altri accorgimenti già citati. Il tutto, però, convertito per gestire dati ed istruzioni ora a 32-Bit, invece che a 16. In effetti però il DOS, sistema operativo a 16-Bit, poco sfruttava tutta la potenza del 386, tuttavia il 386 risultava essere assai versatile e potente anche con i programmi a 16-Bit. Essendo a 32-Bit anche il bus dati era a 32-Bit, ed a 32-Bit era anche il bus indirizzi, che gli permetteva ora di accedere ad un massimo di 4-GB di memoria fisica e 64-TeraBite (64.000-GB) di memoria virtuale. Erano presenti, come nel 286, una modalità reale in cui i 32-Bit di indirizzi venivano portati a 20-Bit per emulare l'8086 e il suo accesso ad 1-MB di memoria, ed una protetta in cui il processore si comportava come 386 effettivo. Ma era stata aggiunta anche una nuova modalità, definita V86 (Virtual 8086) che permetteva addirittura di creare tante macchine virtuali 8086 capaci ognuna di accedere ad 1-MB e di funzionare quindi in parallelo. Questa struttura è presente anche nel 486 e, con alcune modifiche, anche nei processori di classe Pentium e Pentium II/III odierni. Insomma, nuova potenza a 32-Bit. E per sfruttare i 32-Bit venne specificamente progettato un coprocessore matematico a 32-Bit, l'80387, da affiancare, opzionalmente, al 386. Il coprocessore è un circuito, in passato opzionale, che permette di eseguire i programmi con sofisticati calcoli scientifici, come quelli di ingegneria e CAD o come quelli di grafica avanzata. Il primo coprocessore matematico era stato l'8087, progettato per i processori 8086 e 8088, in seguitò arrivò l'80187, per affiancare 80186 ed 80188, e poi l'80287, per il processore 80286. Si trattava di coprocessori ad 80-Bit con interfaccia a 16-Bit, mentre l'80387 è sempre ad 80-Bit ma ha un interfaccia a 32-Bit. Il processore 386 originale, del 1985, venne affiancato, nel 1988, da una versione economica, definita 80386SX e presente in package plastico, mentre il 386/DX ha un package PGA ceramico da 132-pin (foto). Il 386 originale venne così ribattezzato come 80386DX (foto) e con esso anche il coprocessore 80387 divenne 80387DX. Il 386SX era quindi affiancato dal coprocessore 80387SX, che impiegava un package QFP Plastico da 68-pin al posto di quello PGA, sempre da 68-pin, usato dal 387DX. Il 386SX ricalcava l'idea che, qualche anno prima, aveva portato alla creazione di 8088 e 80188. In pratica era un vero 386 con nucleo interno a 32-Bit, ma con bus esterni rispettivamente a 16-Bit per i dati e 24-Bit per gli indirizzi. In pratica un 386 con l'interfaccia di bus esterna dell'80286, ma non con la stessa piedinatura. La presenza del bus indirizzi a 24-Bit portava ad una riduzione della memoria accessibile da 4-GB ai 16-MB dello stesso 286 (e da 64-TB a 1-GB per la memoria virtuale). Questa soluzione limitava non solo le prestazioni di trasferimento dei dati verso l'esterno, in quanto veniva limitato, in questo caso, anche l'accesso in memoria. 8086 e 8088, infatti, condividevano un bus indirizzi della stessa dimensione (20-Bit) per cui le prerogative di memoria erano le stesse. Nel 386SX, invece, viene ridotto anche il bus indirizzi, che invece di restare a 32-Bit diventa a 24-Bit, limitando, di fatto, anche l'accesso in memoria e quindi anche le prestazioni in ambito multitasking. Infatti anche la macchina virtuale x86, che nel 386DX poteva, teoricamente, gestire fino a 4.096 macchine 8086 virtuali che indirizzavano 1-MB ciascuna, su una macchina che avesse effettivamente 4-GB di memoria (4.096-MB). In linea teorica sul 386SX le macchine virtuali possibili si limitano a 16, visti i 16-MB massimi di memoria indirizzabile. Verificare poi l'effettiva veridicità di queste presunte caratteristiche era compito arduo. In primo luogo il sistema base, il DOS, impiegava già da solo 640-KB, per cui 1-MB era già off-limits per le macchine V86. Sul 386DX sicuramente era possibile gestire un certo quantitativo di macchine V86, ma difficilmente le 4.096 teoriche. Solo oggi che abbiamo i Pentium III da 600-MHz a salire riusciamo per la prima volta a sperimentare quel multitasking da troppi anni sognato da tutti gli informatici! Si tratta certo di multitasking di tipo diverso, a 32-Bit. Ma anche il Pentium III esegue le V86 machine. Quando apriamo una finestra DOS in Windows stiamo in effetti eseguendo una macchina virtuale 8086. In pratica emuliamo un computer 8086! In effetti, però, una macchina V86 non è proprio una emulazione di un 8086, perché si tratta di eseguire una modalità reale effettiva, che per via del multitasking può essere eseguita in diverse sezioni, anche contemporanee. Se apro più finestre DOS eseguo più sessioni reali 8086. La modalità reale, sia quella esclusiva che eseguiamo con la modalità DOS pura, sia quella presente nella V86 tramite Windows, è in pratica avere un processore 8086 vero e proprio (o tanti processori 8086, quando si aprono più macchine virtuali). Ovviamente si capisce subito che nella modalità DOS esclusiva non possono essere eseguite più macchine 8086, mentre alcuni programmi sotto DOS eseguono diverse funzioni o sottoprogrammi sfruttando metodi multitasking proprietari.


                        


Il processore Intel A80386DX a 33-MHz                 Il circuito interno del 386DX


                                


Il coprocessore Intel A80387DX a 33-MHz        Il circuito interno del 387DX


Quindi il processore 80386, che funzionava a 16, 20, 25 e 33-MHz, divenne in breve molto diffuso e con esso si diffuse il sistema operativo Windows, che dalla versione 3.0 aprì, in pochi anni, la strada della multimedialità! AMD, Cyrix, IBM, Texas, ed altri produttori di circuiti integrati costruirono processori compatibili con i chip 386 di Intel, e con frequenze fino a 40-MHz. Stavolta non si trattava più di semplici copie dei processori Intel, com'era avvenuto per il 286 e anche per i processori precedenti. Anche il processore AMD Am80386 era simile ma non era un vero 80386. In realtà però si comportava come se lo fosse, grazie a diversi accorgimenti interni. Nel 1989 la crescente richiesta di potenza portò Intel a produrre una versione ad altissima integrazione della famiglia 80386. Nacque così l'80486. Si trattò del primo processore con integrati 1 milione e duecentomila transistor su singolo chip. In esso erano integrati il processore 80386, il coprocessore 80387 ed il circuito opzionale Intel 82385. Quest'ultimo, nelle macchine 386, era un chip PGA da 132-pin (grande quanto il processore 386, quindi) che permetteva, opzionalmente appunto, di accrescere le prestazioni aggiungendo della veloce memoria cache. La cache è una memoria assai costosa, definita Static RAM, assai più veloce della semplice memoria di sistema, costruita con chip Dinamic RAM, e che difficilmente superavano i 4-MB. Essendo impossibile pensare di utilizzare la SRAM come memoria di sistema, visto l'elevato costo, era usata appunto la DRAM, che era molto meno veloce. Per velocizzarla, quindi, si affiancava al processore una piccola quantità di memoria SRAM, più veloce, ma in tagli di 64 o 128-KB, che caricavano le celle di memoria più usate per renderle più velocemente al processore. Per accedere alla cache era però necessario un chip, che nel 386 era appunto il cache controller 82385. Il 486 non integrava solo il cache controller, ma anche la stessa cache, sebbene in quantità di soli 8-KB. Questo permetteva però al 486 di essere veloce anche più del doppio di un 386 funzionante alla stessa frequenza. Del 486 esistono diverse versioni. Il 486DX è quello standard, con frequenze da 16, 20, 25 e 33-MHz. AMD, IBM, Texas, SGS ed UMC produssero anche versione da 40-MHz. In seguito Intel produsse anche una versione da 50-MHz, assai rara, ma molto veloce, visto che sfruttava anche il sistema alla stessa frequenza. Poi c'è il 486SX, una versione economica, che non integra il coprocessore matematico (mentre ci sono ancora la cache e il relativo controller) ed era presente a 16, 20, 25 e 33-MHz e fino a 40-MHz, sempre da parte dei concorrenti. Poi arrivò il 486DX2, che prevede una modalità di funzionamento che raddoppia la frequenza della scheda madre. Esiste in tre versioni, da 50, 66 e 80-MHz (anche da parte dei concorrenti), relativamente alle schede madri da 25, 33 e 40-MHz. Il processore Intel 486DX2-80 è un componente assai raro. Del 486DX2 è presente anche la versione economica, SX2, sempre a frequenza doppia, da 66 e 50-MHz solamente, ma senza il coprocessore. Infine c'è il processore 486DX4, da 75 e 100-MHz, che triplica la frequenza della scheda madre ed integra 1.600.000 transistor, grazie ad una cache integrata di dimensioni doppie, ovvero 16-KB. AMD ha prodotto anche un 486DX4 da 120-MHz, che quadruplica la frequenza, mentre ha chiamato 5x86-133 un processore 486DX4 capace di lavorare a 133-MHz e addirittura fino a 150 o 160-MHz.


                     


Il processore A80486DX2 da 66-MHz       Il circuito da 1.200.000 transistor del 486DX2


Nel 1993 Intel presenta il successore del 486 e lo chiama Pentium. Si tratterebbe, in effetti, del processore 80586, ma Intel preferisce chiamarlo A80501 e dargli il nome Pentium. Integra 3.1 milioni di transistor ed è veloce anche più del doppio di un 486 funzionante alla stessa frequenza. La sua principale caratteristica è quella di integrare un coprocessore matematico più potente e di essere dotato di due unità di calcolo praticamente identiche a quella singola presente nel 486. A parità di frequenza è quindi capace di eseguire 2 istruzioni, mentre il 486 ne riesce ad eseguire solo una! Rispetto al 486, poi, dispone di un bus dati a 64-Bit, in grado di trasferire due dati a 32-Bit, così da supportare appieno la doppia struttura di elaborazione interna (pipeline). Inoltre dispone di una funzione che gli permette di prevedere la struttura del programma e di preparare i dati prima che siano richiesti. Entro pochi mesi viene la versione aggiornata del Pentium, che viene denominata A80502 (P54C) e funziona a 75, 90 e 100-MHz. In seguito questa che è la seconda versione del chip raggiungerà 120, 133, 150, 166 e 200-MHz. Integrava 3.3 milioni di transistor. Infine la terza versione, A80503 (P55C), definita Pentium MMX, dispone delle nuove istruzioni per il calcolo multimediale ed integra ben 4.5 milioni di transistor e 32-KB di cache. 



Esiste in versione da 150, 166, 200, 233 e 266-MHz (a 150 e 266-MHz solo in versione per notebook).Nel 1996 Intel introduce il successore del Pentium. Si chiama Pentium Pro (in pratica doveva essere l'80686, poi chiamato A80521), vero e proprio stato dell'arte nella tecnologia del silicio, che ha dato vita all'architettura P6. Si tratta di un'architettura sempre compatibile con quella x86, ma che presenta molte nuove innovazioni di grande importanza. Colpisce subito il fatto che si tratta di un processore PGA ceramico rettangolare, e non quadrato, come tutti i PGA. Questo è dovuto alla prima importante innovazione del chip, la cache di secondo livello integrata direttamente nella CPU. La cache integrata nel 486 era di primo livello. A poco a poco a questa cache interna venne affiancata comunque una quantità di cache esterna, sulla scheda madre, di dimensioni da 128 a 512-KB. In questo modo si poneva un'ulteriore ponte tra il processore e la memoria di sistema. Ebbene, il Pentium Pro, che dispone comunque di 16-KB di cache di primo livello, integra direttamente nella CPU anche la cache di secondo livello. In tagli da 256 e 512-KB.

Il nucleo del Pentium nella prima versione (80501), a 60-MHz. Integra 3.1 milioni di transistor.

Per questo il Pentium Pro si presenta come un PGA rettangolare, con all'interno due circuiti (in inglese die), uno da 5.5 milioni di transistor che è il processore vero e proprio ed uno da circa 16 milioni di transistor, per la cache di secondo livello da 256-KB (circa il doppio con 512-KB). Inoltre il processore interno ha un nucleo RISC. L'architettura x86 è un'architettura CISC, ovvero con istruzioni complesse, e quindi i processori in questa tecnologia sono assai complicati. I processori definiti RISC usano la filosofia opposta. Utilizzano istruzioni semplici e sono meno complicate. Tra le due tecnologie è da sempre in corso una "guerra" su quale sia la migliore. 



La grande innovazione del Pentium Pro è che esso esegue le istruzioni CISC x86 traducendole in istruzioni RISC interne (le semplifica) così che le esegue ad una maggiore velocità. Il primo prototipo funzionava a 133-MHz. Le versioni commerciali erano invece quelle da 150, 166, 180 e 200-MHz, con 256 o 512-KB di cache, a seconda dei modelli. Ultimamente è stata introdotta una versione da 200-MHz con addirittura 1-MB di cache (1.024-KB). Il nucleo del Pentium (3.3 milioni di transistor).

Il Pentium II è la prima evoluzione del Pentium Pro. Si tratta, in effetti, di un Pentium Pro MMX, con integrate le stesse istruzioni del Pentium MMX standard. Per il resto l'architettura è la stessa del Pentium Pro. Le prime versioni erano prodotte a 0.35 micron (µ), come lo stesso Pentium Pro, ed avevano frequenze di 233, 266 e 300-MHz. Successivamente sono stati introdotti i Pentium II con nucleo Deschutes a 0.25µ e le frequenze sono arrivate a 333, 350, 400 e 450-MHz. Rispetto al Pentium Pro la cache di secondo livello è stata riportata all'esterno, in quantità di 512-KB, in una cartuccia, perché la cache interna incideva moltissimo sul costo del processore.



Il sofisticato Pentium Pro 200-MHz con 1-MB di cache integrata (notare i 3 die che lo compongono, quello della CPU da 5.5 milioni di transistor, a sinistra, e gli altri due die da 512-KB di cache ciascuno).


Pentium Pro: stato dell'arte della tecnologia Intel.


Del Pentium II è stata prodotta anche una versione economica, chiamata Celeron, che rispetto al Pentium II effettivo dispone di 128-KB di cache, ma integrati sul circuito della CPU, similmente al Pentium Pro ma non distaccato su un secondo circuito. Infine veniamo al Pentium III, attuale punta di diamante della produzione Intel e successore del Pentium II, che integra circa 9 milioni di transistor. La sua architettura è la stessa del Pentium II. La principale differenza sta nella presenza di nuove istruzioni post-MMX, maggiormente adatte alla gestione dei dati grafici e multimediali. La prima versione è stata prodotta a 0.25µ, come il Pentium II Deschutes, e con frequenze di 450, 500 e 550-MHz e cache sempre esterna, su cartuccia, e sempre da 512-KB. In seguito la Intel ha adottato il core (nucleo) Coppermine a ben 0.18µ. Questo ha permesso di integrare di nuovo a bordo del processore la cache di secondo livello ed inoltre ha portato a creare modelli con frequenze che variano tra 600 e ben 1000-MHz. E pensare che il 4004 funzionava a soli 0.108-MHz (108-KHz). La tecnologia, in questi ultimi anni ha fatto passi enormi. Nel 1971 il 4004 integrava circa 2.300 transistor delle dimensioni di circa 10 micron (10µ), ovvero 10 micrometri, meno dello spessore di un capello umano. Ma Intel pensa già al successore del PIII. Infatti a breve dovrebbe essere pronto Willamette, nome in codice del Pentium IV. Non sarà più basato sulla architettura P6, ma sarà ancora compatibile con il mondo x86. Si sa ancora poco della sua architettura. Di certo si conosce il fatto che dispone di due unità d'elaborazione assai potenti, quasi due processori su singolo chip, e che funzionano a frequenza doppia, rispetto al resto dei circuiti dello stesso chip. In una prova su un prototipo del chip è stato dimostrato il funzionamento del chip a 1.500-MHz. Le due unità di esecuzione funzionavano quindi a ben 3.000-MHz (3-GHz).


                        
Ecco il Pentium III Coppermine a 0.18µ                   Ed il Rivale AMD Athlon, sempre a 0.18µ.


Oltre a Willamette, poi, Intel sta ultimando il progetto Merced, ora ribattezzato Itanium. Si tratta di un processore a 64-Bit che non sarà più compatibile con l'architettura x86 a livello di istruzioni. Disporrà infatti di istruzioni proprie, progettate ex-novo. Sarà comunque capace di eseguire il codice x86 grazie ad un processore aggiuntivo, probabilmente di classe Pentium Pro, integrato direttamente nel chip. Questo permetterà di eseguire il codice senza ricorrere all'emulazione, più complicata. E per concludere diamo qualche consiglio per la scelta del processore che volete nella vostra macchina. Fermo restando che Intel assicura 30 anni di esperienza, esiste infatti un rivale del Pentium III. Si tratta dell'Athlon AMD, che seppur dispone di una struttura differente, si tratta infatti di un processore a 64-Bit, esegue codice a 32-Bit x86. Dispone di alte prestazioni ed è presente con frequenze equivalenti a quelle in cui è disponibile il Pentium III. In generale si tratta di un processore assai valido. Tuttavia il suo costo è un tantino più elevato, a parità di frequenza, di un Pentium III. Questo è dovuto soprattutto all'adozione di schede madri differenti rispetto a quelle per Pentium III. In generale, comunque, la scelta del Pentium III è sempre da preferire! Per quanto riguarda le schede madri, per Pentium III e soci esistono ormai numerose offerte. Dopo accurate prove noi della Farinv abbiamo ad esempio scelto le Matsonic che grazie al chipset Via Apollo Pro 133A garantiscono il massimo supporto non solo a tutti i modelli di Pentium, ma anche alle nuove tecnologie come l'UltraDMA/66 per gli Hard Disk IDE, il bus a 133-MHz per il processore, le memorie a 133-MHz e la connessione AGP 4x. Si tratta di una soluzione non costosissima ma di qualità per una macchina da alte prestazioni, magari equipaggiata con un Hard Disk da 10 o 15-GB, 128-MB di memoria, CD-ROM 52x (di serie sulle nostre macchine) e modem 56K. Inoltre è ormai pensabile equipaggiare la macchina anche con un buon masterizzatore 4x/4x/32x. 

Fra i punti di forza del P4 il vantaggio sull'ampiezza di banda della memoria, apparentemente molto ragguardevole, è del tutto teorico. Quello che Intel non dice, è che l' enorme ampiezza di banda viene saturata solo da grandi quantità di dati prelevati sequenzialmente dalla memoria: in applicazioni più vicine al mondo reale, al contrario, il processore cerca dati posizionati casualmente nella memoria; questo fa emergere il tallone di Achille della tecnologia Rambus, causa di molte critiche anche precedenti all'introduzione del Pentium4 (i tristemente noti chipset 820 e 840 per P3): innanzitutto l'inaccettabilmente elevata lentenza di accesso (la velocità con la quale i dati vengono reperiti e resi disponibili alla CPU) che, se nel caso di una lettura sequenziale passa in second'ordine, nel caso di molte letture casuali si somma risultando in tempi lunghissimi e molto penalizzanti. Le basse prestazioni iniziano a trovare qualche giustificazione ma ci sono altri fattori che aggravano la debolezza della memorie. Com'è noto uno dei problemi architetturali più gravi che affliggono i moderni computer è la sproporzione fra la capacità di elaborazione della CPU e la relativa lentezza della memoria. Fino a qualche anno fa questo problema non esisteva: il Pentium, nella sua primissima edizione (core P5 a 60 e 66MHz) lavorava alla stessa frequenza della memoria. Di lì in poi le frequenze operative dei processori sono cresciute a ritmi incalzanti. Le memorie invece (escluse DDR e RDR) hanno solo raddoppiato la loro velocità dai tempi del Pentium, arrivando ai 133MHz delle ultime sdram Questo problema è stato aggirato dai produttori di hardware con l'adozione di memorie cache sempre più grandi, veloci e vicine alla CPU: ad iniziare dal Pentium Pro (su piattaforme x86) anche la cache L2 è stata incorporata, in principio con grossi costi produttivi, nel 'package' o nel 'die' del processore, tendenza seguita attualmente da tutti i produttori di CPU. L'utilità della cache sta nella sua capacità di operare alla stessa frequenza della CPU e di permettere al processore di sfruttare prelevare dati ogni ciclo di clock piuttosto che spendere cicli ad aspettare che dati provenienti dalla RAM o peggio dalla memoria di massa, siano disponibili. Va dunque immaginata una linea ideale al cui estremo c'è la CPU, seguita da cache L1, cache L2, RAM, memorie di massa; in questa china, allontanandosi dalla CPU si accumulano stati di attesa via via più grandi (il che spiega anche per quale motivo l'aumento di memoria RAM comporti un beneficio sulle prestazioni quasi sempre rilevante). Purtroppo la cache è costosa da produrre e da implementare dal momento che i processori devono attenersi a consumi bassi e dimensioni ridotte. Al contrario,qualche anno fa la intel, ha dotato il suo nuovo 'mostro di potenza' di soli 8k di cache L1 (la stessa quantità presente nei 486!!!) contro i 128 dell'Athlon e del nuovo Cyrix Samuel. L'impatto di questa discutibile scelta tecnica pesa su un quadro che, come sostenuto, già vede nella memoria, particolarmente nella sua latenza di accesso, un punto debole. Un ulteriore problema del P4 sta nelle enormi dimensioni del die (il cuore della CPU in ci sono tutti i transistor del core e della cache L2) e le conseguenti: 1: ciclopiche richieste di energia (si parla di oltre 40w); 2: forti necessità di dissipazione termica; 3: tragiche conseguenze sui costi di produzione e quindi sulla vendita.




Federico Faggin



Federico Faggin  è nato a Vicenza nel 1941, si è diplomato nel 1959 all'Istituto Rossi.  La sua esperienza comincia alla Olivetti come assistente ingegnere e partecipa alla progettazione per la nascita di un piccolo computer. Nel 1961 lascia la Olivetti per completare la sua istruzione e nel 1965 si laurea in fisica all'Università di Padova. con 110 e lode.Nel 1967 è alla Sgs Fairchild (ora Sgs Ates) dove sviluppa il processo per la fabbricazione dei circuiti Mos,  è poi promosso a capo del gruppo Mos e nel 1968 lo troviamo  negli Stati Uniti al laboratorio di  sviluppo della stessa Fairchild a Palo Alto in California, dove sviluppa il Mos Silicon Gate. Nel 1970 passa alla Intel e qui realizza il primo microprocessore a 4 bit ( il famoso Mcs 4) poi il microprocessore a 8 bit, l'8080 (solo più tardi  la Intel senza Faggin sfornò l'8088,  il primo che ebbe poi un discreto successo commerciale). Nasce così lo strumento che ha rivoluzionato il mondo dell'informatica e la vita dell'uomo negli ultimi anni.Nel 1974 Faggin lascia la Intel per fondare la sua Zilog Inc. E qui che esce un'altro leggendario microprocessore lo Z80. E' l'inizio del piccolo computer di massa, non più riservato alle grandi aziende, ma finisce nelle case di tanti appassionati che seguano fin dall'inizio  quel fenomeno che d'ora in avanti prenderà il nome.



Il mondo dei computer


Faggin nel 1982 fonda la Cygnet Technology, un azienda d'avanguardia mondiale, di cui è presidente. L'impegno degli ultimi anni è stato lo sviluppo dei sistemi integrati di comunicazione e computing. Il Communication Cosystem, che permette di usare il personal computer non solo per computing, ma per telecomunicazioni sia telefoniche che per dati e programmi, è un computer di estrema complessità, ma che si presenterà a noi utilizzatori  come strumento di grande semplicità d'uso. E' il microcomputer delle telecomunicazioni di cui tanto si parla in questi ultimi tempi. Cioè lo strumento e la tecnologia del futuro prossimo; alla Cygnet già realtà. Arrivati quasi ai limiti fisici dei transistori MOs, Faggin è anche  impegnatissimo negli studi  del computer intelligente e riconfigurabile, il computer neuronale, il computer quantico ancora più rivoluzionario, che si baserà sugli strani e tuttora incomprensibili principi della meccanica quantistica. ('è già dimostrato che è già possibile crearlo' afferma Faggin). E la realizzazione di un computer che opera su 'quibits' bit di informazione che sono simultaneamente sia uno che zero  un paradosso nella logica tradizionale basato sulle proprietà ondulatorie di atomi e molecole. 
Strutture molecolari  che possono essere specificate da molecole di DNA;  si potrannorealizzare dunque macchine che sono riproducibili biologicamente. Da questa tecnologia potrebbe emergere una nuova microelettronica basata sulle proprietà quantiche di molecole organiche, anzichè utilizzare le proprietà fisiche del silicio.  


L'inventore del microprocessore


Sono passati quasi trent'anni dalla sua straordinaria invenzione, ma per lui il tempo è come se non fosse passato mai. Federico Faggin, vicentino di nascita e di crescita, americano d'adozione, sull'altra sponda dell'Oceano Atlantico ha trovato la sua personale fortuna e un successo internazionale attraverso l'applicazione della sua creatura, quel microchip che è alla base dell'intelligenza artificiale del computer. E se il mondo è entrato in quel futuro sognato per l'anno Duemila, il merito è anche di questo scienziato italiano approdato per caso dalle parti della California.
Nato nella città di Palladio, Federico Faggin ha conseguito la laurea in fisica, con il massimo dei voti, alla prestigiosa Università di Padova. Si trasferì in California per una normale trasferta di lavoro e inseritosi nei laboratori di ricerca americani, vi si adattò con grande facilità. Favorito dalla maggiore disponibilità di mezzi e di risorse, intraprese il suo personale cammino di ricerca nell'elettronica e dopo poco tempo approdò alla sua geniale invenzione: il microprocessore.
Oggi la parola non evoca più nulla di irreale, ma trent'anni fa, in un'epoca in cui i computer rappresentavano un enorme ingombro in termini di struttura, la sua invenzione 'miniaturizzò' di colpo tutta la galassia degli elaboratori elettronici, favorendone indirettamente la diffusione tra le aziende e aprendo la strada all'uso familiare dei primi Personal Computer. Ma il grandissimo successo della sua 'invenzione' tecnologica, non ha modificato il carattere dell'infaticabile italiano. Faggin ha applicato in prima persona le sue scoperte a nuovi oggetti e le sue idee hanno portato alla realizzazione di tecnologie applicate ai più moderni sistemi di telecomunicazione: parole quali teleconferenza, cad-cam, sistemi vocali, telefono 'intelligente' collegato al computer (indirettamente anche Internet), sono entrati oggi nella vita quotidiana delle famiglie. L'ingegnere vicentino, negli USA ha coronato anche il suo personale sogno americano, fondando varie aziende che si sono inserite come leader nel campo dei microprocessori e dei calcolatori, e dando lavoro ad almeno 1400 persone. Futurista per scelta professionale, l'inventore del microprocessore ha mantenuto intatta la voglia di un legame continuo con la cultura umanista. Cittadino del mondo, Faggin ha mantenuto ancora un'abitazione nella sua città natale, in piazza delle Erbe, dove di tanto in tanto fa ritorno, e ammette di sentire la mancanza dell'arte, del tessuto sociale e del rapporto affettivo della sua Italia.
Passato attraverso tutta la storia recente dell'elettronica, il vicentino, attualmente è presidente della Synaptics, una società che si occupa del progetto di dotare di 'sensi' i computers (tatto, vista e udito) e sta ottenendo ottimi risultati nel suo progetto di inventare macchine capaci di essere autonome e in grado di avere un comportamento intelligente nell'affrontare e risolvere tanti piccoli problemi quotidiani. Ma tutto questo non scalfisce un concetto basilare nella vita professionale di Faggin: per lui non si potrà infatti mai arrivare a dire che un computer è intelligente. E anche i suoi obiettivi si collocano in una sfera che ha come centro sempre e soprattutto l'uomo. Le motivazioni scientifiche alla base della sua instancabile ricerca non mirano infatti a scavalcare l'uomo ma vogliono aiutarlo a risolvere i suoi problemi e a favorire un'esistenza più agevole e meno affannosa. Per l'italiano, figlio di un grande studioso di filosofia, l'aggancio alla materia umanistica è fondamentale per interpretare nel modo corretto un futuro sempre più tecnologico. E le due ricerche, quella scientifica e quella filosofica, non sono affatto lontane tra loro, perché entrambe tentano di rispondere ai programmi esistenziali dell'uomo, per accenderne nell'animo la consapevolezza, la quale altro non è che la capacità di connettere le cose tra loro, ovvero capire le ragioni profonde dell'esistenza.
Premiato alcuni anni fa dal Comune di Vicenza con una medaglia d'oro in segno di riconoscimento della comunità cittadina nei confronti delle sue più autorevoli personalità (lo stesso premio venne conferito nel 1983 al padre di Faggin), lo scienziato-imprenditore italo-americano sta attualmente cercando di sviluppare soluzioni tecnologiche in grado di dotare i computer della sensibilità tipica dell'uomo, mantenendo viva la sua personale fede nell'interpretazione umanistica dell'evoluzione.
Lo scienziato vicentino è convinto che l'umanità tecnologica deve ancora capire che cosa vuol dire veramente 'essere consapevoli'. Per lui, più l'uomo conoscerà la sua natura profonda, più saprà guidare eticamente il processo innovativo e creativo, anche nell'ingegneria informatica.
Secondo Faggin infatti, solo se il computer si evolverà da semplice mezzo di calcolo a strumento di comunicazione, la ricerca tecnologica continuerà a essere un percorso indispensabile per dare luce e chiarezza all'esistenza umana, per favorirne la piena consapevolezza del creato.
'C'è una ragione per la quale siamo su questo pianeta - commentava in un'intervista lo scienziato vicentino - e non è il caso che governa il creato, anche se non abbiamo scoperto il motivo. Non credo comunque che questo Universo sia stato creato dal nulla e il fatto che non siamo riusciti a trovare ancora una risposta chiara e soddisfacente ci ricorda che abbiamo ancora molte cose da scoprire.'
E l'italiano sarà sicuramente in prima fila, in questa affascinante lotta dell'uomo contro l'ignoto, pronto a servire il genio della logica con il cuore di un italiano intriso di quell'umanesimo che tutto il mondo ci invidia.


Costruttori


Le case costruttrici dei microprocessori sono molteplici Intel, Motorola e apple. Noi parleremo solo di alcune di queste case incominciando dalla Intel.

La Intel corporation fu fondata il 18 Luglio 1968 da Robert Noyce e Gordon Moore, dopo che questi avevano lasciato la Fairchild Semiconductors presso la quale avevano inventato il circuito integrato. A questi si unì poco dopo Andrew Grove, che ne divenne in breve il presidente. Il nome deriva dalla contrazione di Integrated Electonics (elettronica integrata). Scopo della ditta era quello di produrre memorie su semiconduttori al silicio, veloci, compatte e con ridotto consumo di memoria; l'unico inconveniente era il costo, circa 100 volte superiore alla memorie a nuclei magnetici ampiamente diffuse all'epoca. Per questo motivo l'azienda aveva rapporti soprattutto con produttori di apparati miniaturizzati e fu una delle prime ad utilizzare la tecnologia LSI. A metà del 1971 nacque il microprocessore, l'INTEL 4004 a 4 bit in grado, una volta collegato al suo chipset (un chip di memoria ROM, un chip di RAM e un chip di'interfaccia ingresso/uscita) di simulare il comportamento di un vero computer (per le dimensioni fu definito 'microcomputer'). Con una dimensione di circa 42*32 mm, il 4004 conteneva 2300 transistor e aveva una potenza di calcolo paragonabile a quella del primo computer elettronico, l'ENIAC. Quasi contemporaneamente Intel sviluppo anche un'altro microprocessore, destinato al controllo di una terminale inteliggente di Datapoint: il suo nome era INTEL8008. Apparve nell' Aprile del 1972 e funzionava a otto bit, con una tecnologia poco più complessa di quella utilizzata per il 4004.Nel 1974 (anno di nascita della quarta generazione dei calcolatori elettronici) nacque l'8080, un microprocessore ad otto bit, che fu immediatamente utilizzato in centinaia di prodotti diversi. La stessa Intel fu più volte tentata di collegare della memoria, un monitor e una tastiera alla sua CPU e realizzare un piccolo computer per alimentare il mercato degli hobbisti informatici; ma il pool dirigenziale, Moore in testa non ritenne redditizio il progetto, vista la scarsità di utilizzi che un tale prodotto poteva avere nell'ambito domestico (previsione rivelatasi dopo pochi anni quanto mai errata). In questi stessi anni anche la concorrenza iniziò a sviluppare dei microprocessori: Motorola (che iniziò la produzione delle CPU 68xx dal 1974), Texas Istrument (dal 1972), Mos (cpu 6502 dal 1975). Nel Novembre 1974 nasce Zilog, un'azienda totalmente dedita alla produzione di microprocessori, che già agli inizi del 1976 realizzò lo Z80, una CPU che ebbe un enorme successo. Per battere la concorrenza, i progettisti intel progettarono nel 1976 la CPU 8085, seguita nel 1978 dall'8086, vero gioiello da 29.000 transistor che però tardò a diffondersi a causa del suo prezzo abbastanza elevato. Il successo venne invece per l'8088, realizzato nel 1979 e introdotto all'interno dei personal computer IBM (mai fino ad allora IBM si era avvalsa di circuiti logici di progettazione esterna). Il volume di vendite inatteso non fermò però la progettazione di intel, che nel 1982 presentò il processore 80286, dotato di una potenza tale che il software allora esistente non era ancora in grado di sfruttare appieno. Nel frattempo, malgrado ferrei vincoli di copyright, alcune aziende giapponesi iniziarono una produzione parallela di microchip; questo causò non pochi problemi ad intel, che fu costretta nel 1985 a chiudere i suoi stabilimenti di memorie (fino ad allora prodotto chiave) e a concentrarsi nella produzione di CPU sempre più complesse, potenti e veloci. Nello stesso anno lanciò l'80386 (o 386), per chiudere il decennio nel 1989 con il 486.

Un'altra importante compagnia produttrice di microprocessori fu la motorola:  la compagnia fu fondata da Galvin di V. di Paul come il Galvin Società per azioni Manifatturiera, a Chicago Illinois, nel 1928. Il suo primo prodotto era un eliminatore di batteria e permetteva ai consumatori di azionare direttamente radio con la corrente invece di usare batterie . Nei 1930, la compagnia commercializzò con successo radio per auto sotto il nome della marca Motorola, (una parola che suggerisce suono in moto).  Il nome della compagnia fu cambiato a Motorola, Inc., nel 1947. La crisi del 1940 vide anche la compagnia cominciare a vacillare così fece  opere statali e aprì un laboratorio della ricerca in Phoenix, Arizona. Dal tempo della morte di Paul Galvin nel 1959, Motorola era un leader in elettronica militare, spazio e comunicazioni commerciali, aveva costruito la sua prima agevolazione del semiconduttore e era stato un fabbricante crescente di elettroniche del consumatore. Sotto il comando di Galvin di W. di Robert, il figlio di Paul Galvin, Motorola espanse in mercati internazionali nei 1960 e cominciò ad allargare il proprio campo. I colore televisione ricevitore affari fu venduto nei mid-1970s e permette Motorola di concentrare le sue energie su mercati di alto-tecnologia in pubblicità, campi industriali e statali. Dalla fine dei 1980, Motorola era divenuto il primo fornitore mondiale di telefoni cellulari e nel 1996 la 3.1 oncia produsse, StarTAC tasca-messo in ordine di grandezza telefono cellulare e portabile. 
Seguendo la fusione con Società per azioni del Strumento Generale, Motorola divenne un leader in modem del cavo e terminali della collezione-cima. Oggi, Motorola sta imbrigliando il potere di senza fili, broadband e l'Internet consegnare livello di sistema di microcircuito incorporato e fine-a-fine rete comunicazione soluzioni per l'individuo, lavori squadra .
Apple Computer Incorporated Società fra i maggiori produttori di personal computer, stampanti, monitor, software e dispositivi per connessioni in rete. Ha sede a Cupertino, in California, ma produzione, distribuzione e uffici commerciali si trovano in tutti gli Stati Uniti, in Irlanda e a Singapore.La Apple fu fondata da Steven Jobs e Stephen Wozniak nel 1976 per commercializzare Apple I, una scheda-computer progettata e realizzata in un garage di Los Altos, in California, che veniva venduta senza monitor, tastiera o contenitore. Nel gennaio del 1977 ai due soci Jobs e Wozniak si aggiunse in qualità di presidente Mike Markkula. Markkula portò alla società, oltre a credibilità, maturità, esperienza ingegneristica e di gestione dei prodotti, una vastissima conoscenza del mondo degli affari e i capitali di numerosi investitori interessati alle attività in via di sviluppo nella Silicon Valley. Markkula reclutò collaboratori provenienti da altre aziende, quali Hewlett-Packard e Intel, e iniziò un processo di espansione che portò, nel 1977, alla produzione di Apple II.


Apple II e Macintosh


Apple II era un elaboratore in grado di gestire grafica a colori, con tastiera e alimentatore propri e otto slot per le periferiche, che offriva all'utente ampie possibilità di accrescere le potenzialità della macchina con dispositivi e software acquisibili in tempi successivi. Nel 1978 la Apple si trasferì nella sede di Cupertino e due anni dopo divenne una società per azioni. Il prodotto successivo, Apple III, fu però quasi un fallimento, a causa di problemi di hardware e di un prezzo di vendita troppo elevato. Nel 1982, comunque, grazie all'enorme successo avuto da Apple II, la società era diventata il primo produttore di personal computer, con un fatturato annuo di circa un miliardo di dollari. Nel gennaio 1983 la società introdusse Lisa, un personal computer progettato per il mondo degli affari, dotato di un mouse per selezionare i comandi e controllare il cursore sul video. A Lisa seguì il modello Macintosh, economico e di facile uso per l'utente, basato sul microprocessore 68000 prodotto da Motorola. La novità di Machintosh era l'interfaccia grafica utente, che ne rendeva estremamente semplice l'utilizzo. Successivamente la Apple si inserì nel mercato dei prodotti per ufficio con le Laserwriter Printer, nel 1985, e i Mac Plus, nel 1986: il lancio di questi prodotti innescò un drastico cambiamento delle modalità di lavorare in ufficio, che si tradusse in un'analoga rivoluzione nell'editoria elettronica. Dopo il rapido sviluppo nei primi anni Ottanta, le vendite deludenti e i dissidi interni portarono a una ristrutturazione dell'azienda, ai primi licenziamenti e a un periodo di transizione. Jobs lasciò la società, rimpiazzato nelle sue funzioni di portavoce e direttore dell'esecutivo da John Sculley, che lo stesso Jobs aveva assunto nel 1983 per ricoprire il ruolo di presidente.


Date




E' l'anno che segna la nascita della quarta generazione di computer, che dura ancora oggi. La quarta generazione inizia con la progettazione del primo microprocessore, il 4004, ad opera del fisico italiano F. Faggin che lavorava presso la INTEL. Un microprocessore è una CPU realizzata in un unico chip, di costo molto basso. Contemporaneamente si rendono disponibili le memorie a semiconduttori meno ingombranti, più veloci e meno costose delle precedenti memorie a nuclei.




La DEC (Digital Equipment Corporation) iniziò la produzione di computer con microprocessore.





Nacque il primo personal computer: l'APPLE I costruito dai californiani S. Jobs e S. Wozniak; l'APPLE I utilizzava il microprocessore 6502 della MOS Technology.




La IBM introduce sul mercato il PC-IBM (Personal Computer) con microprocessore 8088 della Intel e 64 Kbyte di memoria. Il PC-IBM utilizzava il sistema operativo DOS che da allora è diventato uno standard mondiale per i personal computer.




Viene annunciato il primo laptop computer, il modello HX-20 della Epson, di peso inferiore a un chilo e mezzo, dotato di un piccolo display a cristalli liquidi.




La Olivetti lancia il modello M24 con microprocessore Intel 8086.

Da allora i personal computer hanno avuto uno sviluppo enorme in termini di prestazioni e di diffusione; sono sempre più potenti e meno costosi e ormai sono presenti praticamente ovunque.


CPU


L'unità centrale di elaborazione può essere realizzata con un solo circuito integrato o con più integrati collegati. Oltre a svolgere operazioni aritmetiche e logiche, temporizza e controlla le operazioni di tutti gli altri elementi del sistema. Le tecniche di miniaturizzazione e integrazione hanno reso possibile lo sviluppo della CPU su un chip singolo, o in altre parole del microprocessore, che contiene anche circuiti ausiliari e memoria. L'introduzione del microprocessore, presente ormai nella maggior parte dei personal computer, ha permesso una riduzione della circuiteria di supporto e delle dimensioni complessive del computer.

In generale una CPU (o un microprocessore) è composta da quattro sezioni: 1) un'unità aritmetico/logica (ALU, Arithmetic/Logic Unit); 2) alcuni registri; 3) una sezione di controllo; 4) un bus interno. L'ALU, sede delle capacità di calcolo, svolge operazioni aritmetiche e logiche. I registri sono spazi di memoria temporanei che conservano i dati e gli indirizzi delle istruzioni, i risultati delle operazioni e le locazioni in cui queste informazioni vanno archiviate. La sezione di controllo svolge tre funzioni principali: temporizza e regola le operazioni dell'intero sistema; per mezzo di un decodificatore di istruzioni legge le relative combinazioni in un apposito registro, le riconosce e produce le azioni necessarie per la loro esecuzione; infine, mediante l'unità di interrupt (interruzione) stabilisce l'ordine in cui i diversi dispositivi del sistema possono utilizzare le risorse della CPU e regola gli intervalli di tempo di lavoro che la CPU stessa deve destinare a ciascuna operazione. L'ultimo elemento strutturale di una CPU o di un microprocessore è il bus interno, una rete di linee di comunicazione che collegano le diverse parti del processore tra loro e ai terminali esterni. Una CPU ha tre diversi tipi di bus: 1) un bus di controllo, costituito da linee che ricevono segnali dall'esterno e da altre che trasportano all'esterno i segnali di controllo prodotti dalla CPU; 2) il bus degli indirizzi, unidirezionale, che trasporta i segnali per la selezione delle locazioni di memoria; 3) il bus dei dati, bidirezionale, che porta alla CPU i dati letti in memoria e alla memoria i nuovi dati.


Dispositivi di ingresso


I dispositivi di ingresso permettono all'utente di inviare alla CPU dati, comandi e programmi. Il più comune dispositivo d'ingresso è la tastiera, simile a quella di una macchina da scrivere, che trasforma ciascun carattere battuto in una combinazione di bit leggibile dal computer. Altri sono la penna ottica, usata in combinazione con la tavoletta grafica; il joystick e il mouse, che controllano il movimento di un cursore sullo schermo; lo scanner ottico, che 'legge' pagine stampate traducendone le immagini e i caratteri in sequenze di bit elaborabili o memorizzabili da un computer; infine, i riconoscitori vocali, che traducono le parole pronunciate dall'utente in segnali digitali. Anche i dispositivi di memoria possono essere usati per trasferire dati verso l'unità di elaborazione.


Dispositivi di memoria


I sistemi di calcolo possono immagazzinare dati in due tipi di memoria: la memoria di lavoro (interna) e la memoria di massa (esterna). Le memorie di lavoro contengono dati temporanei e sono costituite da RAM (Random Access Memory, memoria ad accesso casuale) integrate, montate direttamente sulla scheda principale del computer oppure su schede aggiuntive (espansioni), inserite nella principale mediante appositi connettori. Una RAM integrata contiene oltre un milione di circuiti elementari a transistor, il cui stato (binario) può essere imposto mediante comandi elettrici. In assenza di comandi, le RAM statiche mantengono i propri dati inalterati finché l'integrato viene alimentato (cioè finché riceve energia elettrica da un generatore); nelle RAM dinamiche, invece, i dati devono essere periodicamente letti e riscritti per non essere persi (questa operazione, detta 'rinfresco', deve essere eseguita a intervalli che non superino i due millisecondi).

Le memorie ROM (Read-Only Memory, memoria di sola lettura) contengono circuiti elementari il cui stato, fissato in fase di costruzione, non può essere variato mediante comandi esterni. Su queste memorie, non cancellabili, sono raccolti comandi, dati e programmi necessari al corretto funzionamento del computer. Le RAM, dunque, possono essere scritte ripetutamente, ma si cancellano quando il computer viene spento; il contenuto delle ROM invece può essere soltanto letto, ma è permanente. Entrambe le memorie sono collegate alla CPU.

Le memorie di massa non risiedono sulla scheda principale del computer. Le più diffuse immagazzinano i dati in forma di alterazioni dello stato magnetico di un supporto sensibile, come il nastro di un registratore o, più comunemente, un disco rivestito da un sottile strato di materiale magnetico, come il floppy disk o l'hard disk. Nella maggior parte dei grandi sistemi di calcolo vengono impiegate unità di memoria con banchi di nastri magnetici. I floppy disk possono contenere dalle centinaia di migliaia a oltre un milione di byte. Gli hard disk (dischi rigidi o dischi fissi), capaci di contenere da parecchi milioni a oltre un miliardo di byte, non possono essere estratti dal loro alloggiamento nel circuito che li pilota e che contiene i dispositivi di lettura e scrittura. I CD-ROM, che impiegano tecnologie ottiche simili a quelle dei compact disc (CD) per riproduzioni audio, permettono di raggiungere capacità di memoria di diversi miliardi di byte.


Dispositivi di uscita


I dispositivi di uscita rendono visibili all'utente i risultati dei calcoli e delle elaborazioni eseguiti dal computer. Il più comune è l'unità video (Video Display Unit, VDU), simile a uno schermo televisivo, che visualizza caratteri e immagini. Una VDU consiste di norma di un tubo a raggi catodici simile a quello di un televisore, ma i computer portatili impiegano visualizzatori a cristalli liquidi (Liquid Crystal Display, LCD) o schermi elettroluminescenti. Tra gli altri dispositivi di uscita si citano la stampante e il modem. Quest'ultimo permette di collegare due o più computer operando sui segnali digitali una modulazione che permette la trasmissione dei dati attraverso una rete di comunicazioni.


Il software


Software è un termine molto ampio che indica l'insieme dei programmi e dei linguaggi di programmazione che permettono l'utilizzo dell'hardware di un computer. Il software di base rappresenta lo 'strato' di programmi, tra cui il sistema operativo, più prossimo all'hardware. Il software applicativo è composto invece dai programmi e dai linguaggi utilizzati per funzioni specifiche di alto livello, come la gestione di testi, l'archiviazione di dati o la navigazione in Internet.

I sistemi operativi


Le diverse periferiche di un computer gestiscono i dati in forme generalmente diverse da quelle proprie dell'elaboratore. I sistemi operativi interni, registrati nella ROM, hanno lo scopo primario di coordinare e adattare i flussi di dati provenienti da sorgenti diverse, quali i disk drive e i coprocessori (circuiti integrati con capacità di elaborazione, in grado di operare contemporaneamente all'unità centrale). Un sistema operativo è un programma di controllo che svolge operazioni fondamentali, risiede in una memoria interna permanente e interpreta i comandi di utente che richiedono varie specie di servizi, come la visualizzazione, la stampa o la copiatura di un file, il raggruppamento logico dei file in una directory o l'esecuzione di un programma.


I circuiti integrati


I primi circuiti integrati (IC) comparvero verso la fine degli anni Sessanta. Permisero di realizzare numerosi transistor e relativi collegamenti su un unico substrato di silicio. Il loro impiego nei computer produsse ulteriori riduzioni del prezzo e delle dimensioni delle macchine e un significativo incremento della loro funzionalità. Il microprocessore fece la sua comparsa alla metà degli anni Settanta, quando furono prodotti circuiti a grande scala di integrazione (Large Scale Integration, LSI) e poi a grandissima scala di integrazione (Very Large Scale integration, VLSI), contenenti milioni di transistor interconnessi, realizzati su un'unica piastrina di silicio.

Le macchine degli anni Settanta, in genere, potevano riconoscere gruppi di otto stati; in altre parole, potevano trattare otto cifre binarie (binary digits, o bit) a ogni ciclo. Un gruppo di otto bit costituisce un byte; un byte può assumere 28=256 possibili configurazioni di stati ON e OFF (1 o 0). Ognuna di queste configurazioni può rappresentare un'istruzione, una sua parte o un dato, come un numero, un carattere o un simbolo grafico. La combinazione 11010010, ad esempio, può rappresentare un dato numerico binario o un'istruzione, come 'confronta il contenuto di un registro con quello di una data cella di memoria'.

Un computer che elabora le informazioni a gruppi contemporanei di 8 bit viene detto computer a 8 bit. Tale designazione può far riferimento sia alla lunghezza di parola (unità base di informazione elaborata) del microprocessore sia, più comunemente, al numero di bit trasferiti in una singola operazione lungo il bus dei dati, che è la via di collegamento lungo la quale le informazioni viaggiano da o verso il microprocessore. Dunque, un microprocessore a 8 bit ha lunghezza di parola di 8 bit, o di un byte; un bus-dati a 8 bit ha 8 linee, perciò trasporta informazioni attraverso il sistema in gruppi contemporanei di 8 bit. Allo stesso modo, un computer a 16 bit elabora le informazioni in gruppi contemporanei di 16 bit e uno a 32 bit elabora a ogni passo un gruppo di 32 bit. Lo sviluppo di computer capaci di trattare in blocco combinazioni di 16, 32 o 64 bit aumentò la velocità di elaborazione. L'insieme di tutte le combinazioni di bit che un computer è in grado di riconoscere come comandi, cioè l'elenco completo delle sue istruzioni, è detto set di istruzioni. Entrambe queste caratteristiche (bit trattati in un passo e dimensioni del set di istruzioni) sono in continuo miglioramento nei moderni elaboratori.

Integrated Circuits
The first integrated circuits (IC) appeared toward the end of the sixties. They allowed  to realize numerous transistors and relative connections on an only silicon chip. Their use in computers produced further reductions in price and size of machines and a meaningful increase in their functionality. The microprocessor appared in the half of the seventies, when Large Staircases Integration circuits, (LSI) and then Very Large Staircases integration circuits, (VLSI), whereimplemented. They contained million of interconnected transistors, realized on an only silicon chip. The computers of the seventies, could recognize generally groups of eight states,; that is to say/they could treat eight binary digits (binary digits or bit) for every cycle. A group of eight bits constitutes a byte; a byte can assume 28=256 possible configurations of states ON and OFF (1 or 0). Each of these configurations can represent an instruction, one part of it or a datum suck as a number, a character or a graphic symbol. The combination 11010010, can represent for instance a binary numerical datum or an istruction, as 'compare the content  register with that of a   memory cell..A computer that processes information  contemporary groups of 8 bits computer is said an 8 bit computer. Such designation can refer either is to the  word length(basic unity of processed information) of the microprocessor or, more commonly, to the number of bits moved with a single operation along the data bus, that is the path connection long which information travely from or towards the microprocessor. Therefore, an 8 bit microprocessor has length of word of 8 bits, or of a byte; a bus-data to 8 bits it has 8 lines, therefore it carries information through the system in contemporary groups of 8 bits. Equally, a  16 bit computer  processes information in contemporary groups of 16 bits and a 32 bit processes  a group of 32 bits at each step. 
The development of computers able to treat in block combinations of 16, 32 or 64 bits increased the processing speed. The whole of all the combinations of bits that a computer is able to recognize as instructions, is said instruction set . Both these characteristics  are improving in  modern computers.


La macchina di Von Neumann


L'evoluzione tecnologica e quella delle architetture non hanno mantenuto lo stesso passo. Attualmente ci troviamo nella situazione in cui la quasi totalità dei sistemi di elaborazione ha un tipo di architetura che fa riferimento a quella di Von Neumann (di seguito illustrata). Generalmente la macchina di Von Neumann viene chiamata macchina tradizionale (sequenziale) e presenta le seguenti caratteristiche:

o       esiste un'unica CPU con mansioni di governo dell'intero sistema. Dall'unità di controllo interna alla CPU si dipartono tutti i segnali di controllo necessari a gestire il BUS, ad attivare i dispositivi di volta in volta coinvolti nell'operazione in corso di esecuzione ed a sincronizzare l'attività ;

o       esiste un dispositivo di comunicazione il BUS, suddiviso in BUS dati, BUS indirizzi e BUS di controllo, condiviso da tutti i dispositivi del sistema e sul quale viaggiano tutte le informazioni da e verso la CPU;

o       esistono uno o più dispositivi di memoria per il mantenimento di dati e programmi. La memoria prevede un'organizzazione lineare delle locazioni di memoria alle quali ci si può riferire tramite un indirizzo per effettuare le operazioni di lettura e scrittura;

o       l'attività dell'intero sistema è scandita da un segnale di clock.



Questo tipo di organizzazione architetturale si riflette sull'intera funzionalità del sistema. Gli aspetti logico-funzionali possono essere riassunti nei seguenti punti:

  • il sistema è in grado di eseguire un unico insieme d'istruzioni alla volta. Il programma può operare su un unico insieme di dati. Ogni istruzione del programma viene prelevata dalla memoria ed eseguita singolarmente, non è possibile eseguire contemporaneamente più istruzioni;
  • ogni programma è scritto tramite linguaggi procedurali o imperativi che stabiliscono a priori l'ordine sequenziale nel quale le istruzioni devono essere eseguite; l'esecuzione di ogni programma utente richiede diversi insiemi di cicli macchina, un insieme per ogni istruzione del programma. Ogni ciclo macchina è suddiviso nelle fasi operative di FETCH, DECODE ed EXECUTE.

Data

Letteratura

Storia

Scienze e tecnica





disco stereofonico



Decadentismo


Radar




Mussolini




Dannunzio






2 Guerra Mondiale

1 Calcolatore Universale





Invenzione del transistor



Moravia A.

Crisi del 1956

Kilby Jack


Decadentismo


Corrente letteraria europea che ebbe origine in Francia e si sviluppò in Europa tra gli anni Ottanta dell'Ottocento e il primo decennio del Novecento. Trova un corrispettivo nella corrente artistico-architettonica che prese nomi diversi a seconda del paese in cui fiorì: Liberty in Italia, Art Nouveau in Francia, Jugendstil in Germania. Il termine 'decadentismo' nacque con l'accezione negativa di 'decadenza', sentita come il declino non soltanto letterario di un'intera civiltà, e ancora prima di diventare il titolo di una rivista letteraria francese ('Le Décadent', fondata nel 1886) era stato utilizzato dalla critica per definire l'opera di quegli scrittori che manifestavano un'insubordinazione al gusto e alla morale della borghesia, divenuta classe egemone e garante dello statu quo dopo l'esaurirsi della spinta rivoluzionaria del 1848. Due opere, in particolare, avevano suscitato grande scandalo in Francia a metà Ottocento: I fiori del male di Charles Baudelaire e Madame Bovary di Gustave Flaubert, entrambe del 1857.


 Le radici filosofiche del decadentismo

 
Nato in un'epoca di spinte materiali e intellettuali contraddittorie, che vide rinnovamento del sistema produttivo e stagnazione economica, repressione delle masse popolari e attenzione per la questione sociale, il decadentismo ha radici filosofiche nelle correnti irrazionalistiche che, alla fine dell'Ottocento, convivevano con il razionalismo positivistico dal quale era nata la letteratura naturalista (la raccolta collettiva Le serate di Médan fu pubblicata nel 1880). Due i grandi nomi della riflessione sulla componente irrazionale dell'agire umano: Henri Bergson, che conferì nuovo valore all'intuizione e concepì il tempo non come unità di misura dello scorrere dei fatti ma come dimensione soggettiva e psichica; e Friedrich Nietzsche, che nella Nascita della tragedia (1871) diede risalto e visibilità alla dimensione 'dionisiaca' (in opposizione a quella 'apollinea') dell'uomo, cioè a quanto vi è di cieco, irrazionale, animale nel comportamento umano.


Il decadentismo italiano

 
In Italia, dove la trasformazione economica in senso capitalistico avvenne in ritardo e in modo repentino, il decadentismo non assunse il carattere radicale e dirompente che ebbe nella vicina Francia. Diversa è soprattutto la concezione della figura del poeta, il quale mantiene una funzione di guida culturale della società, al contrario di quanto avviene in Francia, dove Mallarmé riconosce nell'isolamento la condizione dell'artista, costretto ai margini di una 'società che non gli permette di vivere'. Esemplare è la figura di Gabriele d'Annunzio, poeta e letterato, ma anche uomo pubblico e straordinario precursore della moderna società dello spettacolo (si pensi al gesto clamoroso del suo volo su Vienna, con il lancio di volantini tricolori), il quale, rimarcando la superiorità dell'intellettuale, si atteggia a vate e condottiero degli spiriti più nobili e arditi della nazione.Anche all'interno dell'industria culturale l'estetismo seppe trovare in Italia un suo spazio, affermandosi grazie a spettacolari manifestazioni e soprattutto oculate operazioni editoriali. Il suo centro fu Roma, dove l'editore Angelo Sommaruga fondò l'elegante rivista 'Cronaca bizantina' (1881-1885); altrettanto importanti per la diffusione del decadentismo furono successivamente 'Il Convito' (1895-1896), anch'essa romana, e la più longeva rivista fiorentina 'Il Marzocco' (1896-1932).


D'Annunzio 


 


II maggiori scrittori decadenti furono, oltre a D'Annunzio (principale animatore della 'Cronaca bizantina' e del 'Convito'), Pascoli e Fogazzaro. D'Annunzio rovesciò l'elemento aristocratico tipico del decadentismo in spettacolo da offrire al pubblico, in parte da recitare a beneficio delle masse, e lo fece creando anzitutto il mito di se stesso, l'intellettuale più celebre e chiacchierato dell'epoca in Italia.  Egli tenne conto con grande tempismo delle esperienze letterarie straniere contemporanee sia in prosa sia in poesia. 

Così, se Andrea Sperelli, il protagonista del romanzo Il piacere (1889), rappresenta l'uomo raffinato e colto amante dell'arte e delle donne, Claudio Cantelmo impersona il superuomo nelle Vergini delle rocce (1895), mentre nel Notturno (1921) prevale un ripiegamento dell'autore su se stesso, assieme a una tematica più intima e riflessiva. La poesia di D'Annunzio, che teneva conto soprattutto delle esperienze francesi, divenne in breve il modello di riferimento (sia in positivo sia in negativo) della generazione di poeti contemporanea e di quella successiva. La sua sensibilità straordinaria investe il mondo dei sentimenti, quello della natura e quello dell'arte, e la sua affascinante scrittura, ricca e suggestiva, ne costituisce la più appropriata traduzione in termini letterari.maggiori scrittori decadenti furono, oltre a D'Annunzio (principale animatore della 'Cronaca bizantina' e del 'Convito'), Pascoli e Fogazzaro. D'Annunzio rovesciò l'elemento aristocratico tipico del decadentismo in spettacolo da offrire al pubblico, in parte da recitare a beneficio delle masse, e lo fece creando anzitutto il mito di se stesso, l'intellettuale più celebre e chiacchierato dell'epoca in Italia. Egli tenne conto con grande tempismo delle esperienze letterarie straniere contemporanee sia in prosa sia in poesia. Così, se Andrea Sperelli, il protagonista del romanzo Il piacere (1889), rappresenta l'uomo raffinato e colto amante dell'arte e delle donne, Claudio Cantelmo impersona il superuomo nelle Vergini delle rocce (1895), mentre nel Notturno (1921) prevale un ripiegamento dell'autore su se stesso, assieme a una tematica più intima e riflessiva. La poesia di D'Annunzio, che teneva conto soprattutto delle esperienze francesi, divenne in breve il modello di riferimento (sia in positivo sia in negativo) della generazione di poeti contemporanea e di quella successiva. La sua sensibilità straordinaria investe il mondo dei sentimenti, quello della natura e quello dell'arte, e la sua affascinante scrittura, ricca e suggestiva, ne costituisce la più appropriata traduzione in termini letterari.


Moravia Alberto



Moravia, Alberto Pseudonimo di Alberto Pincherle (Roma 1907-1990), scrittore italiano. Collaboratore dal 1927 alla rivista '900', esordì a soli ventidue anni con il romanzo Gli indifferenti (1929), descrizione lucida e impietosa della crisi di valori del mondo borghese, che gli procurò fama immediata in Italia. I due successivi romanzi, Le ambizioni sbagliate (1935) e La mascherata (1941), furono entrambi bloccati dalla censura fascista, che vide in essi una satira del regime. Dopo aver trascorso alcuni anni all'estero, nel dopoguerra Moravia riprese l'attivita narrativa e cominciò a dedicarsi anche al giornalismo, alla critica cinematografica (Al cinema, 1975, raccoglie parte dei suoi articoli pubblicati su 'L'Espresso'), alla drammaturgia (Beatrice Cenci, 1958; Il dio Kurt, 1968; La vita è gioco, 1969) e in seguito alla saggistica (L'uomo come fine e altri saggi, 1963; Impegno controvoglia, 1980). Nel 1953 fondò con Alberto Carocci 'Nuovi Argomenti', di cui fu anche direttore.

Tra i suoi romanzi si ricordano Agostino (1943), storia del primo incontro di un adolescente col sesso; La romana (1947), memorabile ritratto di donna sullo sfondo dell'Italia fascista, dal quale nel 1954 fu tratto un film per la regia di Luigi Zampa; L'amore coniugale (1949) e Il disprezzo (1954), nei quali Moravia applica la propria visione critica alla tipica istituzione borghese del matrimonio; La noia (1960), che analizza il rapporto dell'uomo alienato con la realtà. Una delle sue opere più note è La ciociara (1957), ambientata in tempo di guerra, per la quale l'autore attinse ai propri ricordi personali. A questo romanzo il regista Vittorio De Sica si ispirò per uno dei suoi capolavori.

All'ultima fase appartengono le allegorie politiche La vita interiore (1978), che affronta il tema del terrorismo, e 1934 (1982), storia dell'incontro fra un giovane antifascista italiano e una ragazza tedesca. Moravia fu anche un maestro del racconto: i Racconti romani (1954) e i Nuovi racconti romani (1959) ritraggono vividamente il sottoproletariato romano, mentre La cosa (1983) è una raccolta di racconti erotici.


Mussolini Benito


 Benito Mussolini (Dovia di Predappio, Forlì 1883 - Giulino di Mezzegra, Como   1945), uomo politico, fondatore e leader del fascismo italiano. Figlio di un fabbro, si avvicinò da giovanissimo al socialismo, anche per l'influenza del padre. Conseguito il diploma di maestro nel 1901, fuggì in Svizzera l'anno successivo per sottrarsi al servizio militare e vi rimase fino al 1904, segnalandosi come agitatore socialista e anticlericale. Rientrò in Italia, dove esercitò l'insegnamento fino a quando, nel 1909, si trasferì a Trento avviandosi all'attività giornalistica (fu direttore del settimanale 'L'avvenire del lavoratore'). Tornato a Forlì, vi diresse la federazione socialista provinciale e il settimanale 'La lotta di classe'. Nel 1911 fu tra i capi delle violente proteste popolari condotte in Romagna contro la guerra di Libia e venne condannato a cinque mesi di carcere.

Al congresso del Partito socialista italiano di Reggio Emilia (luglio 1912) si impose come uno dei leader dell'ala rivoluzionaria e nel dicembre fu nominato direttore del quotidiano socialista 'Avanti'. Allo scoppio della prima guerra mondiale, si schierò dalla parte degli interventisti, ritenendo che la guerra avrebbe creato le condizioni favorevoli per la rivoluzione sociale: scelta che provocò la sua espulsione dal Partito e lo privò della direzione dell''Avanti'. Fondò un nuovo quotidiano, 'Il Popolo d'Italia', dalle cui pagine condusse una vivace battaglia a favore dell'intervento. Arruolatosi come volontario nel settembre 1915, partecipò al conflitto sino al febbraio 1917, quando venne ferito.

Nel marzo del 1919 fondò a Milano i Fasci di combattimento, che derivavano il nome da un antico simbolo romano, il fascio. Il movimento - che era nazionalista e antiliberale, ma avanzava rivendicazioni tipiche dei gruppi socialisti, come la giornata lavorativa di otto ore - ottenne l'appoggio di importanti gruppi finanziari, quali l'Ansaldo e l'Ilva.

Nel 1921, con la nascita del Partito nazionale fascista, Mussolini abbandonò le aperture sociali del programma del 1919 e pose l'accento sulla difesa dello stato e sull'antiparlamentarismo, trovando seguaci in particolare tra i reduci di guerra, i gruppi giovanili e il ceto impiegatizio. Presentatosi invano alle elezioni del 1919, fu eletto deputato nel 1921. Dopo la marcia su Roma (ottobre 1922), ottenne da Vittorio Emanuele III la presidenza del Consiglio. Nel volgere di pochi anni fondò un regime totalitario fondato su un partito unico e sull'assenza di libertà politiche.

Durante il suo governo, stipulò con la Santa Sede i Patti lateranensi (1929), con cui si arrivò a una conciliazione tra lo stato italiano e la Chiesa, dopo mezzo secolo di contrasti; intraprese una politica estera aggressiva, conquistando l'Etiopia (1935-36); appoggiò militarmente il generale Francisco Franco durante la guerra civile spagnola (1936-1939); invase l'Albania (aprile 1939) e si alleò con la Germania nazista, stipulando il cosiddetto Patto d'acciaio (maggio 1939).

L'impreparazione militare italiana non permise al duce di partecipare immediatamente alla seconda guerra mondiale; egli entrò nel conflitto nel giugno del 1940, dichiarando guerra alla Francia e alla Gran Bretagna. Dopo le numerose sconfitte subite dall'Italia, il 25 luglio 1943, fu destituito e fatto arrestare da Vittorio Emanuele III, che lo sostituì con il maresciallo Pietro Badoglio. Liberato dai tedeschi, Mussolini organizzò nell'Italia settentrionale la Repubblica di Salò, un regime fantoccio sostenuto dai tedeschi. Durante gli ultimi giorni di guerra, tentò di fuggire in Svizzera con la sua amante Claretta Petacci, ma fu catturato dai partigiani (vedi Resistenza) e fucilato il 28 aprile 1945 a Giulino di Mezzegra, sul lago di Como.

Seconda Guerra Mondiale

Il 1° settembre 1939, le truppe tedesche attaccavano la Polonia. Il 3 settembre Gran Bretagna e Francia dichiaravano guerra alla Germania, mentre l'Italia, il giorno stesso dello scoppio delle ostilità, aveva proclamato la sua 'non belligeranza', giustificando l'inadempienza al patto d'acciaio con l'impreparazione ad affrontare una guerra di lunga durata. La seconda guerra mondiale cominciava così come una continuazione, o una replica, della prima. Molto simili erano la posta in gioco e le cause di fondo: il tentativo della Germania di affermare la propria egemonia sul continente europeo e la volontà di Gran Bretagna e Francia di impedire questa affermazione. Simile era anche la tendenza del conflitto ad allargarsi fuori dai confini europei. Ma questa volta l'estensione del teatro di guerra sarebbe stata ancora maggiore e ancora più rivoluzionarie le conseguenze sugli equilibri internazionali. Rispetto al primo conflitto mondiale, il secondo vide inoltre accentuarsi il carattere totale della guerra. Lo scontro ideologico fra i due schieramenti fu più aspro e radicale, e dunque più ampia fu la mobilitazione dei cittadini con o senza uniforme. Nuove tecniche di guerra e nuove armi furono impiegate anche fuori dai campi di battaglia e le conseguenze sulle popolazioni civili furono più tragiche che in qualsiasi guerra del passato.


Caduta della Francia


L'offensiva tedesca sul fronte occidentale ebbe inizio il 10 maggio 1940 e si risolse di poche settimane in un nuovo travolgente successo. A provocare la sconfitta furono soprattutto gli errori dei comandi fortificazioni difensive che costituivano la Linea Maginot: fortificazioni che fra l'altro coprivano solo la frontiera franco-tedesca lasciando scoperto il confine col Belgio e col Lussemburgo, da dove in realtà veniva la minaccia più seria. 

Infatti, come nel 1914, i tedeschi iniziarono l'attacco violando la neutralità dei piccoli Stati confinanti. Questa volta, oltre al Belgio, furono invasi anche Olanda e Lussemburgo. Fra il 12 e il 15 maggio, dopo aver attraversato velocemente la foresta delle Ardenne (ritenuta dai francesi invalicabile dai carri armati), i reparti corazzati tedeschi sfondarono le linee nemiche nei pressi di Sedan. Le truppe tedesche dilagarono quindi in territorio francese e puntarono verso il mare, chiudendo in una sacca molti reparti francesi e belgi e l'intero corpo di spedizione inglese, appena sbarcato sul continente. Solo un momentaneo rallentamento dell'offensiva consentì al grosso delle forze britanniche, assieme a circa 100.000 fra belgi e francesi, un drammatico reimbarco nel porto di Dunkerque (29 maggio-4 giugno). Il 14 giugno i tedeschi entravano a Parigi mentre interminabili colonne di profughi si riversavano verso il Sud.


Intervento Italiano


Il crollo repentino della Francia valse a spazzar via le ultime esitazioni di Mussolini, deciso a non consentire che l'Italia restasse spettatrice nel conflitto. Il 10 giugno 1940, dal balcone di Palazzo Venezia, il duce annunciava a una folla plaudente l'entrata in guerra dell'Italia 'contro le democrazie plutocratiche e reazionarie dell'Occidente'. L'offensiva sulle Alpi, sferrata il 21 giugno in condizioni di netta superiorità numerica contro un avversario praticamente già sconfitto, si risolse però in una grossa prova di inefficienza. L'armistizio subito richiesto dalla Francia e firmato il 24 giugno prevedeva solo qualche minima rettifica di confine oltre alla smilitarizzazione di una fascia di territorio francese profonda 50 chilometri. Non diversamente andarono le cose in Africa Settentrionale, dove l'attacco lanciato a settembre contro le forze inglesi in Egitto dovette arrestarsi per l'insufficienza dei mezzi corazzati. Mussolini, convinto che l'Italia dovesse combattere una sua guerra, parallela a quella tedesca, rifiutò un'offerta d'aiuto da parte della Germania, preoccupato di sottrarsi alla tutela del più potente alleato.


Battaglia d'Inghilterra


Dal giugno 1940, la Gran Bretagna era rimasta sola a combattere contro la Germania e i suoi alleati. A questo punto Hitler sarebbe stato disposto a trattare, a patto di vedersi riconosciute le sue conquiste. Ma ogni ipotesi di tregua trovò un ostacolo insuperabile nella volontà della classe dirigente e del popolo britannico di continuare la lotta.


Hitler attacca la Russia


Con l'attacco tedesco all'Unione Sovietica, all'inizio dell'estate 1941, la guerra entrò in una nuova fase. Un altro vastissimo fronte si aprì in Europa orientale. La Gran Bretagna non fu più sola a combattere. Lo scontro ideologico si semplificò e si radicalizzò col venir meno dell'anomala intesa fra nazismo e regime sovietico.

Che l'URSS costituisse da sempre il principale obiettivo delle mire espansionistiche di Hitler non era un mistero per nessuno. Stalin si illuse tuttavia che Hitler non avrebbe mai aggredito la Russia prima di aver chiuso la partita con la Gran Bretagna. Così, quando il 22 giugno 1941 l'offensiva tedesca (denominata in codice operazione Barbarossa) scattò su un fronte lungo 1600 chilometri, dal Baltico al Mar Nero, i russi furono colti impreparati. In due settimane le armate del Reich penetrarono in territorio sovietico per centinaia di chilometri. L'offensiva a cui prese parte anche un corpo di spedizione italiano si sviluppò su due direttrici principali: a Nord, attraverso le regioni baltiche, e a Sud, attraverso l'Ucraina, con l'obiettivo di raggiungere le zone petrolifere del Caucaso. Ma l'attacco decisivo verso Mosca fu sferrato troppo tardi, all'inizio di ottobre, e fu bloccato a poche decine di chilometri dalla capitale. In dicembre i sovietici lanciavano la loro prima controffensiva, allontanando la minaccia da Mosca. Hitler aveva mancato l'obiettivo di mettere fuori causa in pochi mesi l'URSS ed era costretto a tenere il grosso del suo esercito immobilizzato nelle pianure russe, alle prese con un terribile inverno e con una resistenza sempre più accanita.


Entrata in Guerra degli USA


Il 7 dicembre 1941, l'aviazione giapponese attaccò, senza previa dichiarazione di guerra, la flotta degli Stati Uniti ancorata a Pearl Harbor, nelle Hawaii, e la distrusse in buona parte. Fu così che gli USA entrarono attivamente nella Seconda Guerra Mondiale


La Battaglia delle Midway


Fra il 1942 e il 1943, l'andamento della guerra subì una svolta decisiva su tutti i fronti. 1 primi segni di inversione di tendenza si ebbero nel Pacifico, dove la spinta offensiva dei giapponesi fu fermata Nuova Guinea, e nella Battaglia delle Midway, a ovest delle Hawaii: le prime battaglie navali in cui le flotte si affrontarono senza vedersi, a decine di chilometri l'una dall'altra, bombardandosi a vicenda con gli apparecchi che decollavano dalle grandi portaerei.


Sbarco in Sicilia e Armistizio Italiano


Il 10 luglio 1943, i primi contingenti anglo-americani sbarcavano in Sicilia e in poche settimane si impadronivano dell'isola, mal difesa da truppe in larga parte convinte dell'inevitabilità della sconfitta. Anche la popolazione locale non oppose alcuna resistenza e spesso accolse gli alleati come liberatori.


 Sbarco in Normandia


L'Operazione Overlord (questo il nome in codice dello sbarco in Normandia) scattò all'alba del 6 giugno 1944, preparata da un'impressionante serie di bombardamenti e da un nutrito lancio di paracadutisti. Alla fine di luglio, dopo due mesi di combattimenti, gli alleati riuscirono a sfondare le difese tedesche e a dilagare nel Nord della Francia.


Fine della Seconda Guerra Mondiale


Il 30 aprile, mentre i russi stavano entrando a Berlino, Hitler si suicidò nel bunker sotterraneo dove era stata trasferita la sede del governo, lasciando la presidenza del Reich all'ammiraglio Karl Dónitz, che chiese subito la resa agli alleati. Il 7 maggio 1945, nel quartier generale alleato a Reims, fu il 6 agosto 1945, un bombardiere americano sganciava la prima bomba atomica sulla città di Hiroshima. Tre giorni dopo l'operazione era ripetuta a Nagasaki. Il 15 agosto, dopo che l'Unione Sovietica aveva anch'essa dichiarato guerra al Giappone, l'imperatore Hirohito offrì agli alleati la resa senza condizioni. Con la firma dell'armistizio, il 2 settembre 1945, si concludeva così il secondo conflitto mondiale.



La crisi del 1956


Proprio nel 1956, l'anno in cui Kruscev lanciava la dottrina della ' coesistenza pacifica', l'esito delle due crisi di Suez e d'Ungheria dimostrava la bipolarizzazione del sistema internazionale intorno a USA e URSS e il nuovo corso delle loro relazioni. La decisione del nuovo premier egiziano nazionalista Nasser di nazionalizzare il canale di Suez danneggiava fortemente gli interessi anglo-francesi, eredità del loro dominio coloniale nell'area. Tuttavia, il loro intervento militare, di cui approfittò Israele per attaccare l'Egitto, venne fermato e vanificato dalla dura reazione dell'URSS, che si eresse a paladina dell'Egitto acquistando prestigio e influenza in tutto il mondo arabo, e degli stessi USA, che non ammettevano deroghe alla loro leadership mondiale sul blocco occidentale. Quando poi i carri armati sovietici schiacciarono nel sangue la rivolta ungherese, gli Stati Uniti si astennero da qualsiasi intervento, nonostante gli accorati appelli del nuovo governo presieduto da Nagy, riconoscendo di fatto l'indiscussa egemonia sovietica nell'Europa orientale.


Dalla crisi di berlino a quella di cuba


Il primo, clamoroso incontro al vertice tra Eisenhower e Kruscev, avvenuto nel 1959 a Camp David, sancì agli occhi del mondo la politica della distensione, basata sull'equilibrio del terrore e sul riconoscimento delle rispettive sfere di influenza. Poco dopo, il nuovo presidente Kennedy raccolse la sfida pacifica di Kruscev impegnando gli Stati Uniti a dimostrare la superiorità del modello occidentale in termini di sviluppo economico e di benessere. Il rinnovarsi della crisi di Berlino, per l'impossibilità di giungere a una soluzione concordata sullo status della città e delle relazioni tra le due Germanie, riportò il paese tedesco al centro del confronto USA-URSS: l'innalzamento del muro di Berlino concluse la crisi, ma quel muro divenne il simbolo della divisione dell'Europa e della <guerra fredda>. La tensione USA-URSS raggiunse infine il suo acme nella crisi dei missili a Cuba. Per settimane il mondo intero seguì con il fiato sospeso una prova di forza che poteva preludere al conflitto diretto; l'esito positivo della crisi confermò invece che nessuna delle due super potenze intendeva rischiare la catastrofe nucleare e che l'unica via percorribile nei loro rapporti era quella della distensione.


Disco stereofonico


Inventore: ALAN D. BLUMLEIN BREVETFA


Il tecnico inglese, che lavora alla Emi, brevetta il sistema di incisione stereofonica, basato sulla captazione del suono da due diversi microfoni diretti verso sinistra e verso destra rispetto all'orchestra e su una serie di accorgimenti tecnici (suono panoramico) che ricreano artificialmente anche le fonti sonore presenti al centro dell'orchestra. Il brevetto di Blumlein resterà invariato anche oggi. Il tecnico inglese incise però il primo disco stereo nel 1933 una sinfonia di Mozart diretta da sir Ibomas Beccham,( 1879-1961), ma è battuto sul tempo dall'americano Fletcher della Bell. Quest'ultimo brevetterà il proprio sistema stereo soltanto nel 1936, poiché i dirigenti della compagnia non sono dell'avviso che questa soluzione avrà un futuro.











Radar


Sistema elettronico usato per localizzare oggetti non visibili a occhio nudo e per determinarne distanza, velocità, forma e dimensioni, sfruttando le proprietà di propagazione delle onde radio (vedi Radio). Il termine radar, usato per la prima volta dagli Alleati durante la seconda guerra mondiale, deriva dall'espressione inglese Radio Detection And Ranging (rivelazione e misurazione di distanza per mezzo di onde radio). 

Nato come dispositivo bellico, oggi il radar trova innumerevoli impieghi in ambiti civili, nella navigazione, nel controllo del traffico aereo, in meteorologia e nel campo dell'esplorazione spaziale, nel controllo della velocità degli autoveicoli e nel tele rilevamento della superficie terrestre.


Fu l'ingegnere tedesco Christian Hülsmeyer il primo a proporre l'uso degli echi radio per evitare collisioni nella navigazione marittima, mettendo a punto un radiolocalizzatore che brevettò nel 1904; in seguito, un dispositivo basato sul principio della localizzazione a mezzo di onde corte venne suggerito da Guglielmo Marconi nel 1922. Il primo esperimento riuscito di radiorilevamento a distanza venne effettuato due anni dopo, nel 1924, quando Edward Victor Appleton usò echi radio per determinare l'altitudine della ionosfera, lo strato ionizzato dell'alta atmosfera che riflette le radioonde più lunghe.


Un apparecchio radar è formato da un trasmettitore, un'antenna, un ricevitore e un indicatore. Il trasmettitore invia le radioonde per mezzo di un'antenna direzionale, che le concentra in un fascio puntato nella direzione desiderata. Quando il fascio colpisce un oggetto, viene riflesso sotto forma di eco; il fascio riflesso ripercorre il cammino di andata in direzione del trasmettitore e viene rivelato dall'antenna del ricevitore. Mediante un procedimento di amplificazione ed elaborazione computerizzata dell'eco, il ricevitore radar produce infine un segnale visivo su uno schermo. Detto t il tempo misurato tra l'istante di emissione del segnale e la ricezione dell'eco e v la velocità di propagazione delle onde (come tutte le componenti dello spettro elettromagnetico, la velocità delle radioonde nel vuoto è di circa 300.000 km/s), la distanza d tra l'oggetto e la stazione radar è d = vt/2.


Il calcolatore universale


Nasce il 1° AGOSTO 1945 'MARK 1'. (ufficialmente chiamato ASCC - Automatic Sequence Controlled Calculator). E' il primo calcolatore aritmetico universale. Entra in funzione all'universita' di Harvard. A costruirlo il fisico HOWARD AIKEN. Alle sue spalle gli aiuti economici e i tecnici di un'azienda che fabbrica macchine d'ufficio: la IBM, che da questo momento, sempre più investendo su questo nuovo settore, si avvia alla conquista del mercato mondiale dell'informatica che sta nascendo, correndo, allargando il suo regno.
MARK 1, é ancora a relè ed è simile alla macchina analitica di Babbage. La sua costruzione  iniziata nel 1939. Pesa 5 tonnellate, é lungo 18 metri, alta 1,80, ha 75 macchine calcolatrici elettriche, che hanno in totale 800.000 componenti collegati fra loro da quasi 1000 chilometri di cavi. Non ha ancora valvole, i transistor devono ancora essere inventati, i circuiti integrati non si sa ancora cosa sono. Funziona con 3300 relé che mettono in funzione e in movimento un sistema di organi ancora tutti meccanici.
Le sue prestazioni: può moltiplicare due numeri di 23 cifre in 3-6 secondi. In un secondo 6 normali operazioni aritmetiche. Una banalissima memoria con una capacità di 70 parole di 24 bit. Naturalmente sia l'ingresso che l'uscita dei dati avveniva tramite nastri perforati.

Per avere un'idea, una semplice calcolatrice di oggi, anno 2000, di poche migliaia di lire, é 50.000 volte più potente di Mark 1. Un normalissimo computer di oggi lo è circa 1 milione di volte. Tutto il complesso di Mark 1 (5 tonnellate - 18 metri) potrebbe stare oggi su un processore, una scheggia di silicio grande come la centesima parte di una capocchia di uno spillo.

Seguirà poi   - già iniziato nel 1943, ma sarà terminato nel 1946 -  alla Moore School of Electrical Engineering, il calcolatore ENIAC (Electronic Numerical Integrator And Computer). Costruttori l''ingegnere J. P. Eckert,  il fisico J. W. Mauchly,e il matematico H. Goldstine. Finanziatori: l'Università di Pennsylvania  e l' Esercito degli Stati Uniti. L'ENIAC sostituì finalmente i relè, con  le valvole elettroniche, ed era programmabile, nel senso che poteva essere di volta in volta predisposto a svolgere diverse funzioni. L'ENIAC  era costituito da 18.000 valvole, pesava 30 tonnellate, occupava 180 metri quadri di superficie, svolgeva  300 moltiplicazioni al secondo. Sempre per farci un'idea,  quelli odierni, nelle grandi università (anni 2000) ne svolgono in un secondo 300 miliardi. Cioè, da allora, un miliardo di volte più potenti.


Il transistor


Nel gennaio del 1948 il fisico statunitense dei laboratori Bell William Bradford Shockley metteva a punto il transistor, piccola invenzione che avrebbe rivoluzionato la nostra vita quotidiana. Tutti gli apparecchi elettronici che usiamo abitualmente sfruttano infatti i transistor come componente di base per il loro funzionamento: un tipico microprocessore utilizzato nei personal computer, ad esempio, contiene oggi fra i 3 e i 5 milioni di transistor. 

A quarant'anni di distanza, l'invenzione del transistor, evento rivoluzionario nella storia della moderna tecnologia.Il transistor, nonostante la grande varietà delle sue applicazioni, svolge solo due semplici funzioni: quella di interruttore e quella di modulatore. Come in un interruttore, fornendo una piccola corrente a uno degli ingressi del transistor è possibile consentire o escludere il passaggio di una corrente attraverso le altre due connessioni di cui è dotato. Come in un amplificatore di corrente, il passaggio di corrente può essere modulato: una piccola variazione di corrente a un ingresso consente di controllare il passaggio di una corrente molto superiore attraverso le altre due connessioni.Il principio di funzionamento del transistor è analogo a quello del triodo, già noto e utilizzato fin dagli inizi del XX secolo. Shockley e i suoi collaboratori Walter Houser Brattain e John Bardeen sfruttarono le proprietà fisiche dei materiali semiconduttori per ottenere i risultati di un triodo senza i suoi inconvenienti (necessità di un tubo vuoto e di ingombranti parti meccaniche, fragilità, inefficienza e alti costi). Realizzarono così il transistor bipolare, che valse ai tre ricercatori il premio Nobel per la fisica nel 1956.Nella sua forma più semplice, il transistor bipolare è composto da tre elementi - detti emettitore, base e collettore - costituiti da un frammento di cristallo semiconduttore, generalmente germanio o silicio, cui sono aggiunte opportune impurità. I tre elementi sono disposti a sandwich, con la base in mezzo, e ciascuno di essi è dotato di un collegamento che permette di inserire il transistor all'interno di un circuito elettrico. Grazie alle proprietà fisiche di questi materiali, una piccola corrente applicata alla base può determinare e controllare il flusso di corrente fra collettore ed emettitore.La prima applicazione commerciale del transistor, all'inizio degli anni Cinquanta, fu nel campo della telefonia, in sostituzione degli inaffidabili relè meccanici allora utilizzati nei collegamenti telefonici; nel 1954 furono commercializzati i primi esemplari di radio a transistor e l'IBM iniziò a sostituire nei propri computer i tubi a vuoto con i transistor. Da allora la diffusione del transistor è stata inarrestabile, grazie soprattutto all'elevata affidabilità, alla velocità di risposta, al bassissimo costo e alla possibilità di miniaturizzarli. Oggi vengono realizzati transistor tanto piccoli da essere praticamente invisibili a occhio nudo e la tecnologia dei circuiti integrati, sviluppata a partire dagli anni Sessanta, ha permesso di realizzare complessi circuiti composti da milioni di transistor su sottilissime piastrine di silicio. Attualmente esistono molti tipi diversi di transistor, i più noti dei quali sono quelli a effetto di campo (J-FET e MOS-FET).


Jack Kilby 


Ci sono pochi uomini viventi di cui alcuni compimenti professionali hanno cambiato il mondo. Jack Kilby č uno di questi uomini. La sua invenzione del circuito monolitico integrato 'il microchip' - 30 anni fa alla Texas Instruments (TI) ha posato la fondazione concettuale e tecnica per il campo intero dall'alta-velocitŕ e le memorie a semiconduttore dalle grandi-capacitŕ di oggi.

Mr. Kilby è cresciuto in Great Bend, Kansas. Con B.S. e M.S. scienziati in ingegneria elettrica delle Universitŕ dell' Illinois e Wisconsin rispettivamente, ha cominciato la sua carriera nel 1947 nel Centralab Division of Globe Union Inc. nel Milwaukee, sviluppando ceramica-base, silk-screen per prodotti elettronici commerciali.

Nel 1958, entrň alla TI in Dallas. Durante l'estate di quell' anno lavorando con prestiti ed equipaggiamento improvissato , ha concepito e ha costruito il primo circuito elettronico in quale tutti i componenti, attivo e passivo, furono integrati in un pezzo singolo con metŕ del materiale del semiconduttore. Il successo di questa dimostrazione di questo primo semplice microchip il 12 settembre, 1958, fece storia.

Jack Kilby divenne un pioniere militare, industriale, e commerciale di tecnologia del microchip. Capeggin squadre che hanno costruito sia il primo sistema militare sia il primo computer con circuiti integrati. Più tardi ha co-inventato la calcolatrice e la stampante termica che fů poi utilizzata nei PC portatili.

Nel 1970, si licenziò dalla TI per lavorare come  inventore indipendente, fra gli altri progetti, l'uso di tecnologia del silicio per generare energia elettrica dalla luce del sole. Dal 1978 al 1984, ottenne la posizione di Professore di Ingegneria Elettrica alla Texas University. Attualmente, viaggia tra industrie e governi in tutto il mondo. E' anche direttore di diverse società per azioni.

Jack Kilby è il destinatario di due onori molto prestigiosi della nazione in scienza ed ingegneria. Nel 1970, in una cerimonia alla Casa Bianca, ha ricevuto la Medaglia Nazionale della Scienza. Nel 1982, č stato inserito nella Sala degli Inventori Nazionale di Fama, prende il suo luogo fianco a fianco Enry Ford, Tomas Edison, e Wright Brothers negli annali delle innovazioni americane.

Mr. Kilby ha più di 60 brevetti negli Stati Uniti. E' un membro dell'Istituto di Elettricità ed Elettronica (IEEE) ed è un membro dell'Accademia Nazionale di Ingegneria (NAE). Gli è stata data la medaglia dell'istituto Franklin Stuart Ballantine , il NAE Vladimir Zworykin, la medaglia della Società americana degli Ingegneri Meccanichi Holley, e la medaglia d' Onore dell' IEEE, Cledo Brunetti award, e il David Sarnoff award. Nel 30° anniversario dell'invenzione del circuito integrato, il Governatore del Texas ha dedicato un ufficiale  marchio storico Texano vicino al laboratorio della TI, dove Mr. Kilby lavorava.

Dal primo circuito semplice di Jack Kilby è cresciuto un mercato mondiale di vendita di circuiti integrati, che nel 1996 ha totalizzato 115 miliardi di dollari. Questi componenti hanno sostenuto nel 1996 il mercato elettronico di end-equipment, introducendo sul mercato 957 miliardi di dollari. Tale č il potere di un'idea da cambiare il mondo.


Scarica gratis Il microprocessore :storia ed evoluzione
Appunti su: il microprocessore storia,



Scarica 100% gratis e , tesine, riassunti



Registrati ora

Password dimenticata?
  • Appunti superiori
  • In questa sezione troverai sunti esame, dispense, appunti universitari, esercitazioni e tesi, suddivisi per le principali facoltà.
  • Università
  • Appunti, dispense, esercitazioni, riassunti direttamente dalla tua aula Universitaria
  • all'Informatica
  • Introduzione all'Informatica, Information and Comunication Tecnology, componenti del computer, software, hardware ...