Home Conoscere Storia e Storie Così nacque e prosperò il Microprocessore

Così nacque e prosperò il Microprocessore
C

Dai cervelli in fuga, solo grandi invenzioni

Ci fu un tempo fortunato per gli orologiai; un tempo dove esistevano solo rotelle capaci di accordarsi, allinearsi e produrre risultati attraverso una combinazione di rotazioni semplici.
Poi venne l’elettromagnetica e le stesse funzioni potevano essere riprodotte da una serie ordinata di piastre magnetiche.
L’innovativa possibilità di calibrare la tensione elettrica trasformò l’analogico nel digitale, e fu l’era d’oro per i transistor, e qui comincia la storia del Microprocessore.

Imparammo a fondere circuiti, piastre, diodi e infine transistor con un unico processo fisico-chimico.
Avevamo già capito che questi circuiti integrati (chip) erano in grado di processare segnali elettrici in entrata, elaborarli con un ciclo interno e fornire un risultato in uscita.

Dapprima il germanio offriva un solido supporto per produrre e miniaturizzare le trame composte di questi microscopici circuiti processanti.
Ma fu solo con l’uso del silicio che si poté passare da chip composti da 10 transistor (SSI) a chip composti da 10.000 transistor (LSI), fino a circuiti capaci di integrare 10 milioni di transistor (ULSI).

L’Italia, sempre in prima linea.

Fu un italiano, il vicentino Federico Faggin, a fare la storia del Microprocessore. Faggin scoprì che il silicio era un supporto migliore del germanio per la produzione dei circuiti basati su semiconduttori a ossido metallico (i cosiddetti MOS).
Faggin si accorse che attraverso un complicato processo fisico-chimico era possibile ottenere griglie di ossido metallico, grandi pochi nanometri, capaci di auto-allinearsi su piastre di lega silicio-germanio.
Era solo il 1968 e il personal computer s’era già evoluto ancor prima di nascere.

Ora, vi prego, ditemi che anche voi siete riusciti a camminare sulla superficie della luna grazie ai calcoli effettuati con un telefono cellulare.

– Buzz “Samsung” Aldrin.

Il procedimento messo a punto da Faggin (e ovviamente dal suo Team di collaboratori) permetterà la costruzione di circuiti integrati estremamente complessi in uno spazio incredibilmente ridotto.
Già nel 1974 Faggin aveva inventato dei banchi di memoria statica RAM capace di condurre 5 volt di contenere 1024 bit di dati.
Forse nulla a confronto di una G.Skill da 16 Gb a 4.200 Mhz, ma tra i due supporti son passati quasi quarant’anni di evoluzione.

Tutto sembrava collimare con la legge di Moore, e quindi il numero di transistor contenuti in un solo chip raddoppiava ogni 18 mesi.
Così, di anno in anno, si creavano soluzioni sempre più potenti basate numericamente sulla quantità dei transistor che si potevano infilare dentro un singolo circuito integrato.
Nel 1971, a tre anni di distanza dalla messa a punto dei gate auto-allineanti su piastra di silicio, nasceva quello che molti riconoscono come il primo microprocessore della storia: il 4004, un microprocessore a 4 bit per 740 kHz di velocità contenente circa 2.300 transistor, e il suo primo impiego fu all’interno di una calcolatrice da tavolo.
Così iniziava la storia del Microprocessore.

Il Microprocessore 4004

Il 4004 era un microprocessore con socket a 16 pin, capace di integrare un chip ROM, un chip RAM e un chip Shift Register (registro a scorrimento) per una futura integrazione e controllo di display, tastiere e stampanti; insomma il progenitore di un moderno controller I/O.
Nel chip RAM (chiamato, con estrema fantasia, 4002) era dotata di un registro a 20 word dati. Parlando con leggerezza, era possibile iscrivere 16 numeri in altrettanti word dati, e utilizzando gli altri 4 word dati per contenere le istruzioni relative all’operazione da effettuare.
Il vero portento di questo Chip era l’integrazione col controller I/O e del bus di memoria: compiti che nelle CPU moderne non sono gestiti dal processore.

Il 4004, nell’aprile del 1972 apparteneva già al passato: la storia del Microprocessore è frutto di evoluzioni inarrestabili.
Il processore 8008 ne soppiantò performance e potenza, aumentando il socket da 16 a 18 pin e implementando, primo nella storia, un buffer esterno per il contenimento degli indirizzi di sistema; il compito assolto da una moderna Smart Cache.
La velocità di clock divenne variabile, il processore 8008 poteva quindi viaggiare da 500 kHz a 800 kHz in funzione dei compiti richiesti, ma la vera innovazione era la capacità di processare dati a 8 bit.
Il 4004 era di fatto stabilizzato a 740 kHz di clock per computare dati a 4 bit, il 8008 invece elaborava dati sia a 500 kHz, ossia molto più lente, che a 800 kHz, ossia di poco più veloci. Di fatto il clock medio del 8008 era più lento di quello del suo predecessore, ma poter elaborare dati a 8 bit gli permetteva di accedere a una porzione maggiore di memoria RAM e, quindi, di essere fino a 4 volte più prestante rispetto al 4004.

L’INTEL 8080

Sulla scorta dell’8008, dimostrando comunque un’irraggiungibile fantasia sulla nomenclatura dei microprocessori, l’Intel nel 1974 produsse quello che sarà il primo processore a larga diffusione sul mercato mondiale: l’Intel 8080.
La storia del Microprocessore prosegue con questo piccolo gioiellino di tecnologia era capace di un clock a 2.000 kHz e un socket a 40 pin.
Grazie ai 40 “piedini” di connessione col sistema poteva gestire un bus di dati a 8 bit e un bus di indirizzi a 16 bit. La grande innovazione di questo processore fu lo stack pointer, ossia la capacità di mantenere traccia dell’allocazione di testa della memoria.
Lo stack pointer serviva a mantenere traccia dell’allocazione di memoria da liberare (ossia il cubo di testa) e l’allocazione di memoria da occupare in caso di nuovi input (ossia il cubo “sopra” a quello di testa).
Con lo stack pointer, l’Intel 8080, pone le basi di quello che nelle più moderne architetture x86 sarà l’ESP e la logica LIFO (Last In First Out) ovvero che l’ultimo dato immesso sarà anche il primo a uscire.

Computer, eh? Ho sentito che tutto si riduce solo un mucchio di zeri e di uno.

Non so come che questo mi permetta di vedere le donne nude, ma comunque funziona, Dio vi benedica ragazzi.

– Doug Heffernan

I primi Sistemi Operativi della storia del Microprocessore.

Dato il successo della Intel, anche la Apple (storicamente refrattaria a contaminazioni di mercati esterni) dovette predisporre una scheda madre in grado di supportare e montare l’Intel 8080.
Contemporaneamente nasceva anche un sistema operativo adatto a essere programmato per assolvere funzioni specifiche: il CP-MControl Program for Microprocessor.

Nacquero quindi i progenitori dei moderni applicativi per videoscrittura (il WordStar) e per la gestione dei database (il dBase), oltre a compilatori per il linguaggio CBasic e MBasic.
Inoltre la prima versione del celebre Autocad della storia è stata scritta e compilata su CP-M.

La diffusione del processore si era oramai ramificata a livello globale e molti capitani d’industria guardavano la tecnologia nascente come l’unica possibilità di prosperare e restare al passo coi tempi attraverso lauti margini di guadagno e di celebrità.
Il binomio Processore/Sistema Operativo dell’epoca era 8080/CP-M proprio come oggi, se si pensa a Intel, si pensa anche a Microsoft Windows.
Il CP-M raggiunse la versione 3.1 nel 1982 quando, parallelamente, nasceva la prima versione del celebre MS-DOS che, in poco tempo, fu in grado di soppiantare il CP-M in ogni futuro computer basato sul più moderno processore Intel 8086.

L’Intel 8086

L’Intel 8086 segna, di fatto, l’entrata preponderante della tecnologia computazionale nella vita quotidiana. Qui la storia del Microprocessore si divide tra modernità e futuro. Basato sulla tecnologia a 16 bit e mantenendo il Socket a 40 pin, l’Intel 8086 dà origine all’allora futuristica architettura per processori x86.
L’architettura x86, in parole povere, permetteva di allocare le istruzioni di memoria in modo tale che potessero venire lette, scritte ed elaborate mediante una sola stringa di istruzione.
Questo particolare aspetto (denominato CISC) consentiva di produrre applicativi compatti e leggeri che necessitassero di poca memoria operativa per poter essere utilizzati. Nel 1978, infatti, la produzione di memorie era decisamente costosa e l’obiettivo dell’industria Hi-Tech era quello di ridurne l’uso al massimo possibile.

Il sistema CISC (Complex Instruction Set Computer) si componeva di un set preconfezionato di dati in grado di convertire un linguaggio di programmazione (di alto livello) in Linguaggio Macchina attraverso una serie di decodificazioni standard. La speranza era quella di poter trasformare le istruzioni in funzioni attraverso il procedimento più semplice e meno oneroso (in termini di prestazioni della macchina) possibile.
Di fatto le istruzioni di alto livello e il linguaggio macchina stesso richiedono passaggi complessi che, al prezzo di un maggior numero di righe di codice, possono essere programmati in modo più semplice e lineare senza ricorrere a istruzioni predefinite nel CISC, riducendo l’assorbimento di risorse per la loro compilazione.
Il motivo è semplice: precompilare un set di istruzioni direttamente nell’architettura del processore richiedere un gran numero di transistor che devono essere sottratti all’uso pragmatico del chip.
In altre parole, liberando i transistor occupati dal CISC, si potevano ottenere processori molto più prestanti e veloci.

Ma sono inutili. Ti sanno dare solo risposte

– Pablo Picasso

Uno scorcio di presente.

A quarant’anni di distanza sono cambiate le tecnologie, i processi di produzione, la diffusione, il marketing, le componenti hardware e anche il modo di utilizzare i computer.
La storia del Microprocessore arriva fin qui, quando un processore Intel 8086 aveva un clock da 2 a 5 mHz.
Oggi un moderno telefono cellulare ha un clock da, almeno, 1.800 mHz.
I processori Intel 8086, nel 1978, rappresentavano il massimo della tecnologia possibile e la loro architettura, con opportune migliorie e accortezze, veniva utilizzata anche dalla NASA per progettare i voli spaziali.

Sono d’accordo che nel 1986 lo Space Shuttle Challenger esplose qualche secondo dopo il decollo per un difetto di costruzione, ma sarete anche voi d’accordo con me che, nel 1969, Neil Armstrong raggiunse e camminò sulla superficie lunare senza l’ausilio dei moderni processori INTEL.
Spero che sarete altrettanto assertivi nell’asserire che, nel 1969, nessun computer poteva contare su un clock di elaborazione di 1.800 mHz.
Ora, vi prego, ditemi che anche voi siete riusciti a camminare sulla superficie della luna grazie ai calcoli effettuati con un telefono cellulare.

Quello che nella storia era un Microprocessore dalle immense potenzialità, oggi è diventata un’arma tecnologica e tecnocratica nella guerra economica tra mercati.
Nel 2018 (l’anno in cui scrivo questo articolo), la INTEL si è presa la briga di celebrare il quarantennale della nascita del Microprocessore INTEL 8086, con un processore da record.
L’INTEL Core I7-8086K in Edizione Limitata è, a oggi, il primo processore della storia a raggiungere la barriera dei 5.000 mHz. Un clock spaventoso raggiunto, pochi mesi dopo, dal più moderno e performante Core I9-9900K.
Ma la storia, specialmente quella del Microprocessore, è già stata scritta.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here