1800–1809
1801 // FRANCIA
Telaio Jacquard
Joseph Marie Jacquard perfeziona il telaio automatico che utilizza schede perforate per controllare la tessitura di motivi complessi. Le schede codificano istruzioni binarie (foro / non foro) che determinano quali fili vengono sollevati ad ogni passata della navetta. Questo meccanismo è considerato il primo esempio pratico di programmazione automatica e influenzerà direttamente il lavoro di Charles Babbage e Herman Hollerith.
1805 // FRANCIA
Diffusione industriale del telaio Jacquard
Entro il 1805, circa 11.000 telai Jacquard sono in funzione in Francia. Il successo industriale dimostra che una macchina può essere programmata tramite un supporto esterno intercambiabile, separando il “programma” dall'“hardware”. Questo principio — la separazione tra istruzioni e meccanismo — è alla base di ogni architettura informatica moderna.
1820–1829
1820 // FRANCIA
Arithmomètre di Thomas de Colmar
Charles Xavier Thomas de Colmar brevetta l'Arithmomètre, la prima calcolatrice meccanica prodotta industrialmente. Capace di eseguire addizioni, sottrazioni, moltiplicazioni e divisioni, sarà prodotta in serie per oltre 50 anni. Rappresenta il primo caso di commercializzazione di massa di uno strumento di calcolo meccanico.
1822 // UK
Difference Engine di Babbage (progetto)
Charles Babbage progetta la Difference Engine, una macchina meccanica capace di calcolare tabelle polinomiali usando il metodo delle differenze finite. Babbage costruisce un piccolo prototipo funzionante e ottiene finanziamenti dal governo britannico. Il progetto completo non verrà mai terminato a causa di problemi tecnici e dispute contrattuali, ma dimostra la fattibilità del calcolo meccanico automatico.
1823 // UK
Finanziamento governativo a Babbage
Il governo britannico concede a Babbage 1.500 sterline (equivalenti a oltre 150.000 sterline odierne) per costruire la Difference Engine. È uno dei primi investimenti pubblici nella tecnologia di calcolo automatico. Nei successivi 11 anni il governo spenderà oltre 17.000 sterline prima di abbandonare il progetto nel 1842.
1830–1839
1832 // RUSSIA
Telegrafo elettromagnetico di Schilling
Il barone Pavel Schilling dimostra a San Pietroburgo il primo telegrafo elettromagnetico pratico, usando aghi magnetici per codificare lettere. Precede il telegrafo di Morse di cinque anni e rappresenta una delle prime applicazioni della codifica binaria nelle comunicazioni. Il lavoro di Schilling influenzerà lo sviluppo dei telegrafi in tutta Europa.
1834 // UK
Analytical Engine di Babbage
Charles Babbage concepisce l'Analytical Engine, una macchina che va ben oltre la Difference Engine: prevede un “mill” (unità di calcolo, equivalente alla ALU), uno “store” (memoria), input tramite schede perforate e output tramite stampante. È il primo progetto di un calcolatore universale programmabile nella storia, anticipando l'architettura dei computer moderni di oltre un secolo.
1837 // USA
Telegrafo di Morse
Samuel Morse sviluppa il suo telegrafo elettrico e il codice omonimo, un sistema di codifica binaria (punto e linea) per trasmettere testo a distanza. Il codice Morse è di fatto una delle prime codifiche digitali dell'informazione e sarà in uso per oltre 160 anni. La rete telegrafica che ne deriverà è la prima infrastruttura globale di comunicazione elettrica.
1840–1849
1842 // ITALIA
Luigi Menabrea descrive l'Analytical Engine
Il matematico e futuro primo ministro italiano Luigi Federico Menabrea pubblica in francese la prima descrizione accademica dell'Analytical Engine di Babbage, basata su una conferenza tenuta a Torino. Il testo, “Notions sur la machine analytique”, attira l'attenzione della comunità scientifica europea e diventerà la base per le celebri Note di Ada Lovelace.
1843 // UK
Ada Lovelace — Primo algoritmo
Augusta Ada King, contessa di Lovelace, traduce e annota l'articolo di Menabrea sull'Analytical Engine. Nelle sue “Note” scrive il primo algoritmo destinato ad essere eseguito da una macchina: il calcolo dei numeri di Bernoulli. Inoltre, Lovelace intuisce che la macchina potrebbe manipolare non solo numeri ma anche simboli, musica e concetti astratti — anticipando il concetto di computer general-purpose.
1847 // UK
George Boole — “The Mathematical Analysis of Logic”
George Boole pubblica il primo trattato che riduce la logica formale ad un sistema algebrico. Introduce le operazioni AND, OR, NOT come funzioni matematiche su valori binari (0 e 1). Questo lavoro pone le fondamenta dell'algebra booleana, che quasi un secolo dopo Claude Shannon applicherà alla progettazione dei circuiti digitali.
1850–1859
1854 // UK
Boole — “An Investigation of the Laws of Thought”
George Boole pubblica la sua opera fondamentale, che formalizza completamente la logica proposizionale in termini algebrici. Il sistema booleano riduce ogni ragionamento logico a operazioni su due valori (vero/falso, 1/0), creando il quadro matematico che sosterrà l'intera informatica digitale. Senza questo lavoro, la progettazione dei processori moderni non sarebbe possibile.
1854 // SVEZIA
Georg e Edvard Scheutz — Difference Engine funzionante
Georg e suo figlio Edvard Scheutz completano una versione funzionante della Difference Engine basata sui progetti di Babbage. È la prima macchina calcolatrice automatica effettivamente completata e venduta: una copia verrà acquistata dall'osservatorio di Dudley ad Albany (USA) e un'altra dal governo britannico. Dimostrano la fattibilità commerciale del calcolo meccanico automatico.
1858 // UK / USA
Primo cavo telegrafico transatlantico
Viene posato il primo cavo telegrafico sottomarino tra Irlanda e Terranova, collegando Europa e Nord America. Sebbene funzioni solo per poche settimane prima di guastarsi, dimostra che la comunicazione elettrica intercontinentale è possibile. Il cavo permanente del 1866 creerà la prima rete di comunicazione globale in tempo reale.
1870–1879
1871 // UK
Babbage — Prototipo parziale dell'Analytical Engine
Charles Babbage muore lasciando incompleto il prototipo del “mill” (unità di calcolo) dell'Analytical Engine. Nonostante non sia mai stata completata, il progetto dettagliato influenzerà generazioni di ingegneri. Nel 1991, il Science Museum di Londra costruirà con successo la Difference Engine N.2 seguendo i progetti originali di Babbage, dimostrando che le sue macchine erano perfettamente realizzabili con la tecnologia dell'epoca.
1874 // FRANCIA
Codice Baudot — Codifica a 5 bit
Émile Baudot inventa il codice Baudot, un sistema di codifica a 5 bit che permette di rappresentare 32 caratteri. È il primo codice di caratteri a lunghezza fissa per le telecomunicazioni e un antenato diretto dell'ASCII. Il termine “baud” (unità di misura della velocità di trasmissione) deriva dal suo cognome.
1876 // UK
Lord Kelvin — Analizzatore armonico
Lord Kelvin (William Thomson) costruisce un analizzatore armonico meccanico capace di calcolare le componenti di Fourier delle maree. È uno dei primi calcolatori analogici specializzati della storia. Il fratello James Thomson concepisce nello stesso periodo un integratore meccanico a disco-sfera-cilindro che sarà fondamentale per gli analizzatori differenziali del XX secolo.
1880–1889
1884 // GIAPPONE
Soroban — Standardizzazione dell'abaco giapponese
Il Giappone adotta ufficialmente il soroban a una pallina superiore e quattro inferiori per l'insegnamento nelle scuole. Mentre l'Occidente si orienta verso macchine meccaniche, la cultura del calcolo giapponese rimane legata a questo strumento analogico, formando generazioni di utenti capaci di calcoli mentali rapidissimi. Le competizioni di soroban restano attive ancora oggi.
1886 // USA
Herman Hollerith — Macchina tabulatrice elettrica
Herman Hollerith brevetta una macchina tabulatrice elettrica che utilizza schede perforate per elaborare dati statistici. Le schede codificano informazioni che vengono lette tramite contatti elettrici attraverso i fori. L'invenzione combina per la prima volta l'automazione meccanica con la logica elettrica per il trattamento dei dati, anticipando l'era dell'elaborazione automatica dell'informazione.
1889 // USA
Hollerith perfeziona il sistema a schede perforate
Hollerith migliora la sua macchina in vista del censimento americano del 1890, aggiungendo un meccanismo di ordinamento automatico delle schede. La macchina può elaborare circa 80 schede al minuto, ciascuna contenente dati su un singolo individuo. Il sistema integra per la prima volta input (lettura schede), elaborazione (conteggio) e output (tabulazione), prefigurando l'architettura di un moderno sistema informatico.
1890–1899
1890 // USA
Censimento USA con le macchine Hollerith
Le macchine tabulatrici di Hollerith vengono utilizzate per il censimento degli Stati Uniti del 1890. Il lavoro che nel 1880 aveva richiesto 8 anni viene completato in circa 1 anno, elaborando dati su oltre 62 milioni di persone. Il successo è clamoroso e convince governi di tutto il mondo ad adottare il sistema: Russia, Austria, Canada e altri paesi acquisteranno le macchine Hollerith.
1895 // INDIA
Il censimento dell'India britannica usa schede perforate
L'India britannica adotta il sistema Hollerith per il proprio censimento, uno dei più complessi al mondo con oltre 280 milioni di abitanti. È una delle prime applicazioni di elaborazione automatica dei dati su scala continentale al di fuori dell'Occidente. L'esperienza indiana dimostra la scalabilità della tecnologia a schede perforate per dataset di dimensioni enormi.
1896 // USA
Fondazione della Tabulating Machine Company
Herman Hollerith fonda la Tabulating Machine Company per commercializzare le sue macchine tabulatrici. L'azienda si espande rapidamente fornendo sistemi a governi e grandi imprese in tutto il mondo. Nel 1911 si fonderà con altre società nella Computing-Tabulating-Recording Company (CTR), che nel 1924 verrà ribattezzata IBM (International Business Machines).
1900–1909
1900 // FRANCIA
Congresso Internazionale di Matematica — I problemi di Hilbert
David Hilbert presenta 23 problemi fondamentali al Congresso di Parigi, tracciando le direttrici della ricerca matematica per il secolo a venire. Il decimo problema (decidibilità delle equazioni diofantee) e la questione della completezza dei sistemi formali influenzeranno profondamente la teoria della computazione. La sfida di Hilbert a “meccanizzare” la matematica porterà direttamente ai lavori di Gödel, Church e Turing.
1904 // UK
Valvola termoionica (diodo a vuoto)
John Ambrose Fleming inventa il primo diodo a vuoto (valvola Fleming) basato sull'effetto Edison. Il dispositivo permette di rettificare il segnale elettrico, convertendo corrente alternata in corrente continua. Sarà il componente fondamentale dei primi computer elettronici degli anni '40, prima dell'avvento del transistor.
1907 // USA
Triodo (Audion)
Lee De Forest aggiunge un terzo elettrodo (la griglia di controllo) al diodo di Fleming, creando il triodo. Questo componente permette l'amplificazione e la commutazione del segnale elettrico, rendendo possibile la costruzione di circuiti logici. Il triodo sarà la base dell'elettronica digitale fino alla metà degli anni '50, quando verrà sostituito dal transistor.
1910–1919
1910–1913 // UK
Principia Mathematica
Bertrand Russell e Alfred N. Whitehead pubblicano i tre volumi dei Principia Mathematica, il tentativo più ambizioso di fondare tutta la matematica sulla logica formale. L'opera richiede centinaia di pagine solo per dimostrare che 1+1=2, mostrando la complessità dei fondamenti. Opera fondamentale per la logica computazionale, verrà “demolita” dai teoremi di Gödel nel 1931.
1914 // SPAGNA
Torres Quevedo — El Ajedrecista
Leonardo Torres Quevedo presenta a Parigi “El Ajedrecista”, un automa elettromeccanico capace di giocare un finale di scacchi (re e torre contro re). È considerato il primo gioco informatico della storia e uno dei primi esempi di intelligenza artificiale ante litteram. Torres Quevedo progettò anche un dirigibile e un sistema di trasmissione wireless per il controllo remoto.
1918 // UK
Circuito flip-flop (Eccles–Jordan)
William Eccles e Frank Jordan brevettano il circuito flip-flop (trigger circuit), il primo circuito elettronico bistabile capace di memorizzare un singolo bit di informazione. Ogni flip-flop può trovarsi in due stati stabili (0 o 1) e mantiene lo stato finché non riceve un segnale esterno. Diventerà la base di tutte le memorie digitali, dai registri del processore alla cache.
1920–1929
1920 // CECOSLOVACCHIA
Il termine “robot”
Karel Čapek introduce il termine “robot” (dal ceco “robota”, lavoro forzato) nel dramma teatrale R.U.R. (Rossum's Universal Robots). Nell'opera, i robot sono esseri artificiali biologici che si ribellano ai loro creatori umani. Il termine si diffonde globalmente e segna l'inizio del dibattito culturale su macchine intelligenti, automazione e le implicazioni etiche della tecnologia.
1927 // USA
Analizzatore differenziale di Bush (concetto)
Vannevar Bush al MIT inizia a progettare l'analizzatore differenziale, un calcolatore analogico meccanico capace di risolvere equazioni differenziali ordinarie. Il prototipo funzionante verrà completato nel 1931 e sarà il più potente strumento di calcolo disponibile fino alla costruzione dei primi computer digitali elettronici. Bush influenzerà anche il concetto di ipertesto con il suo articolo “As We May Think” (1945).
1928 // GERMANIA
Entscheidungsproblem (Problema della decisione)
Hilbert e Ackermann formulano il problema della decisione: esiste un procedimento meccanico che, dato un qualsiasi enunciato logico, stabilisca in tempo finito se è vero o falso? La risposta negativa fornita indipendentemente da Turing e Church nel 1936 dimostrerà che esistono limiti fondamentali alla computazione e fonderà la teoria della computabilità.
1929 // AUSTRIA
Teorema di completezza di Gödel
Kurt Gödel, nella sua tesi di dottorato a Vienna, dimostra che la logica del primo ordine è completa: ogni formula logicamente valida può essere dimostrata a partire dagli assiomi. È un risultato positivo che dà speranza al programma di Hilbert, ma appena due anni dopo lo stesso Gödel dimostrerà i suoi devastanti teoremi di incompletezza.
1930–1939
1931 // AUSTRIA
Teoremi di incompletezza di Gödel
Kurt Gödel dimostra che in ogni sistema formale coerente e sufficientemente potente esistono enunciati veri ma non dimostrabili (primo teorema), e che il sistema non può dimostrare la propria coerenza (secondo teorema). Questi risultati distruggono il programma di Hilbert di fondare la matematica su basi certe e aprono la strada alla teoria della computabilità, mostrando i limiti intrinseci di qualsiasi sistema formale o calcolatore.
1936 // UK
Macchina di Turing
Alan Turing, a soli 24 anni, pubblica “On Computable Numbers, with an Application to the Entscheidungsproblem”. Definisce la Macchina di Turing — un dispositivo teorico con un nastro infinito, una testina e una tabella di regole — e dimostra l'esistenza di problemi indecidibili (Halting Problem). Nasce il concetto formale di algoritmo, di calcolatore universale e, con esso, l'informatica teorica come disciplina.
1936 // USA
Lambda calcolo di Church
Alonzo Church, indipendentemente da Turing, risolve l'Entscheidungsproblem in modo negativo usando il lambda calcolo, un formalismo basato su funzioni anonime e applicazione funzionale. La tesi di Church–Turing stabilisce l'equivalenza tra i due formalismi, dimostrando che qualsiasi definizione ragionevole di “computabile” produce la stessa classe di funzioni. Il lambda calcolo influenzerà direttamente LISP, Haskell e tutti i linguaggi funzionali.
1937 // USA
Tesi di Master di Shannon — Algebra booleana e circuiti
Claude Shannon, nella sua tesi di laurea al MIT (spesso definita la tesi di master più importante della storia), dimostra che l'algebra booleana di George Boole può descrivere e ottimizzare i circuiti a relè. Stabilisce il collegamento fondamentale tra logica matematica e ingegneria elettrica, fondando la progettazione logica dei circuiti digitali che è alla base di ogni processore moderno.
1938 // GERMANIA
Zuse Z1
Konrad Zuse completa lo Z1, il primo calcolatore meccanico programmabile che usa il sistema binario e l'aritmetica a virgola mobile. Costruito interamente a mano nel soggiorno dei genitori a Berlino con pezzi di latta ritagliata, lo Z1 ha una memoria da 64 parole a 22 bit. Soffre però di problemi di affidabilità meccanica e verrà distrutto durante i bombardamenti di Berlino nel 1943.
1939 // USA
Atanasoff–Berry Computer (ABC)
John Atanasoff e Clifford Berry costruiscono il primo calcolatore elettronico digitale all'Iowa State University. Usa circa 300 valvole termoioniche e aritmetica binaria per risolvere sistemi di equazioni lineari. Sebbene non sia programmabile né Turing-completo, l'ABC introduce concetti fondamentali: l'uso dell'elettronica digitale per il calcolo e la memoria capacitiva rigenerativa.
1939 // GERMANIA
Zuse Z2
Konrad Zuse completa lo Z2, evoluzione dello Z1 con relè telefonici al posto dei componenti meccanici per l'unità aritmetica, migliorandone drasticamente l'affidabilità. La memoria resta meccanica. Lo Z2 serve come prototipo per dimostrare la fattibilità dell'approccio e ottiene il supporto dell'istituto aeronautico tedesco (DVL) per il successivo Z3.
1940–1949
1941 // GERMANIA
Zuse Z3
Konrad Zuse completa lo Z3, il primo calcolatore programmabile completamente automatico al mondo. Usa circa 2.600 relè elettromagnetici, aritmetica binaria a virgola mobile a 22 bit e un programma su pellicola cinematografica perforata. Nel 1998 verrà dimostrato che lo Z3 è Turing-completo (sebbene in modo non pratico). Anche lo Z3 verrà distrutto nei bombardamenti alleati su Berlino.
1943 // UK
Colossus
Tommy Flowers costruisce il Colossus a Bletchley Park per decifrare i messaggi cifrati tedeschi con la macchina Lorenz SZ40/42. Con circa 1.500 valvole termoioniche (2.400 nel Mark 2 del 1944), è il primo calcolatore elettronico programmabile al mondo. La sua esistenza rimarrà segreta militare fino agli anni '70, privando Flowers e il suo team del riconoscimento storico per decenni.
1944 // USA
Harvard Mark I (IBM ASCC)
Howard Aiken e IBM completano il Mark I ad Harvard: un calcolatore elettromeccanico lungo 16 metri e pesante 5 tonnellate, con 765.000 componenti e 800 km di cablaggio. Capace di eseguire operazioni in sequenza automatica tramite nastro perforato, moltiplica due numeri a 23 cifre in circa 6 secondi. Grace Hopper sarà una delle prime programmatrici a lavorarci.
1945 // USA / UNGHERIA
Architettura di Von Neumann
John von Neumann pubblica il “First Draft of a Report on the EDVAC”, descrivendo l'architettura a programma memorizzato: un'unica memoria per dati e istruzioni, un'unità di controllo, una ALU e dispositivi di I/O. Questa architettura diventerà il paradigma dominante per quasi tutti i computer successivi. La paternità è controversa: Eckert e Mauchly rivendicarono di aver concepito l'idea indipendentemente.
1947 // USA
Bug informatico — Grace Hopper
Il 9 settembre 1947, il team di Grace Hopper documenta un vero insetto (una falena) trovato incastrato nei relè del Mark II ad Harvard, annotando “First actual case of bug being found” nel registro di bordo. Sebbene il termine “bug” per indicare malfunzionamenti fosse già usato da Edison, questo episodio lo popolarizza definitivamente nell'informatica. La falena originale è oggi conservata allo Smithsonian.
1946 // USA
ENIAC
J. Presper Eckert e John Mauchly completano l'ENIAC all'Università della Pennsylvania: il primo computer elettronico general-purpose, con 17.468 valvole termoioniche, 70.000 resistori e un peso di 30 tonnellate. Programmato ricablando fisicamente i circuiti (un processo che richiedeva giorni), può eseguire 5.000 addizioni al secondo. Sei donne matematiche (le “ENIAC girls”) furono tra le prime programmatrici.
1947 // USA
Invenzione del transistor
John Bardeen, Walter Brattain e William Shockley inventano il transistor a contatto puntuale ai Bell Labs il 23 dicembre 1947. Il transistor sostituirà le valvole termoioniche rendendo i computer più piccoli, veloci, affidabili ed economici di ordini di grandezza. I tre riceveranno il Nobel per la Fisica nel 1956. Il transistor è considerato una delle invenzioni più importanti del XX secolo.
1948 // USA
Teoria dell'informazione di Shannon
Claude Shannon pubblica “A Mathematical Theory of Communication” ai Bell Labs. Introduce il concetto di bit come unità fondamentale dell'informazione, definisce l'entropia informativa e stabilisce i limiti teorici della compressione e della trasmissione affidabile su canali rumorosi. Questo singolo articolo fonda la teoria dell'informazione e rivoluziona le telecomunicazioni, la crittografia e la scienza dei dati.
1948 // UK
Manchester Baby (SSEM)
La Small-Scale Experimental Machine (Baby) all'Università di Manchester diventa il primo computer a programma memorizzato a eseguire con successo un programma (21 giugno 1948). Progettata da Frederic Williams e Tom Kilburn, usa tubi Williams (CRT) per la memoria. Il primo programma, scritto da Kilburn, impiega 52 minuti per trovare il massimo divisore di 2^18.
1949 // UK
EDSAC
Maurice Wilkes completa l'EDSAC (Electronic Delay Storage Automatic Calculator) a Cambridge: il primo computer a programma memorizzato praticamente utilizzabile. Esegue il suo primo programma il 6 maggio 1949, calcolando una tabella di quadrati. Wilkes introdurrà anche il concetto di microprogrammazione e le subroutine come tecnica di programmazione strutturata.
1949 // URSS
MESM (МЭСМ)
Sergej Lebedev inizia la costruzione del MESM (Piccola Macchina Calcolatrice Elettronica) presso l'Accademia delle Scienze di Kiev. Sarà il primo computer a programma memorizzato dell'Europa continentale, operativo nel 1950, con circa 6.000 valvole. Lebedev lavora in totale isolamento dall'Occidente, sviluppando indipendentemente il concetto di programma memorizzato.
1950–1959
1950 // UK
Test di Turing
Alan Turing pubblica “Computing Machinery and Intelligence” sulla rivista Mind, ponendo la domanda “Can machines think?”. Propone il “gioco dell'imitazione” (oggi noto come Test di Turing) come criterio per determinare se una macchina mostra comportamento intelligente. L'articolo anticipa molte obiezioni all'intelligenza artificiale e rimane il punto di riferimento filosofico per il dibattito sulla coscienza delle macchine.
1951 // URSS
BESM-1
Sergej Lebedev completa il BESM-1 (Bolshaya Elektronno-Schetnaya Mashina) a Mosca, il computer più veloce d'Europa al momento dell'inaugurazione con circa 10.000 operazioni al secondo. Usa valvole termoioniche e memoria a tubi Williams. Il BESM-1 segna l'inizio di un programma sovietico di sviluppo informatico che produrrà macchine competitive fino agli anni '70.
1951 // UK
LEO I — Primo computer commerciale per il business
J. Lyons & Co., un'azienda di ristorazione e catering, mette in funzione il LEO I (Lyons Electronic Office), basato sull'EDSAC di Cambridge. È il primo computer al mondo usato per applicazioni commerciali quotidiane: gestione ordini, logistica, paghe e contabilità. Il fatto che un'azienda alimentare abbia costruito il primo business computer della storia resta uno degli episodi più sorprendenti dell'informatica.
1951 // USA
UNIVAC I
Eckert e Mauchly consegnano l'UNIVAC I (Universal Automatic Computer) al Census Bureau: il primo computer commerciale americano. Diventa famoso nel 1952 quando, in diretta televisiva CBS, predice correttamente la vittoria schiacciante di Eisenhower alle presidenziali, contro le previsioni dei sondaggisti. Un momento storico che porta per la prima volta i computer all'attenzione del grande pubblico.
1952 // USA
Primo compilatore — A-0 System (Grace Hopper)
Grace Hopper sviluppa il sistema A-0 alla Remington Rand, il primo compilatore della storia. Traduce notazione matematica simbolica in codice macchina, dimostrando che un programma può scrivere altri programmi. Quando Hopper presenta l'idea, i colleghi la ritengono impossibile: “un computer può solo fare aritmetica, non scrivere programmi”. L'A-0 apre la strada a tutti i linguaggi di alto livello.
1953 // USA
Memoria a nuclei magnetici (core memory)
Jay Forrester installa la memoria a nuclei di ferrite magnetica nel computer Whirlwind al MIT. Ogni nucleo è un minuscolo anello di ferrite che può essere magnetizzato in due direzioni, memorizzando un bit. La core memory è la prima forma di memoria ad accesso casuale (RAM) affidabile e non volatile, e dominerà il mercato per i successivi 20 anni, fino all'avvento delle memorie a semiconduttore.
1954 // USA
FORTRAN (FORmula TRANslation)
John Backus e il team IBM iniziano lo sviluppo di FORTRAN, il primo linguaggio di programmazione ad alto livello di ampio successo. Il compilatore, rilasciato nel 1957, produce codice quasi efficiente quanto l'assembler scritto a mano, confutando lo scetticismo degli ingegneri. FORTRAN dominerà il calcolo scientifico per decenni e resta in uso attivo ancora oggi nell'HPC, meteorologia, fisica e ingegneria.
1955 // USA
TRADIC — Primo computer a transistor
I Bell Labs completano il TRADIC (TRAnsistor DIgital Computer), il primo computer interamente a transistor, con circa 800 transistor e 10.000 diodi al germanio. Segna l'inizio della seconda generazione dei computer: più piccoli, più veloci, più affidabili e con un consumo energetico drasticamente inferiore rispetto alle macchine a valvole.
1956 // USA
Conferenza di Dartmouth — Nasce l'Intelligenza Artificiale
John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester organizzano il workshop estivo di Dartmouth, dove viene coniato il termine “Artificial Intelligence”. La proposta originale afferma ottimisticamente che ogni aspetto dell'apprendimento può essere descritto in modo così preciso da poter essere simulato da una macchina. L'IA nasce come disciplina accademica, con ambizioni che si riveleranno molto più difficili del previsto.
1956 // USA
IBM 305 RAMAC — Primo hard disk
IBM presenta il RAMAC (Random Access Method of Accounting and Control) con il primo disco rigido commerciale: 50 dischi magnetici da 24 pollici per una capacità totale di 5 MB, grande quanto due frigoriferi. Il costo di noleggio è di $3.200 al mese (circa $35.000 attuali). Per la prima volta i dati possono essere letti in ordine casuale invece che sequenziale, rivoluzionando l'archiviazione informatica.
1957 // URSS
Sputnik e l'impatto sull'informatica
Il 4 ottobre 1957, l'Unione Sovietica lancia lo Sputnik, il primo satellite artificiale, scatenando la corsa spaziale. Lo shock tecnologico porta gli USA a creare l'ARPA nel 1958 (poi DARPA), che finanzierà massicciamente la ricerca informatica e creerà ARPANET, il predecessore di Internet. Lo Sputnik dimostra che la competizione geopolitica può accelerare enormemente lo sviluppo tecnologico.
1957 // GIAPPONE
FUJIC — Primo computer giapponese a transistor
Okazaki Bunji costruisce il FUJIC alla Fuji Photo Film, il primo computer elettronico interamente sviluppato in Giappone. Utilizza valvole termoioniche ed è progettato per calcoli di ottica. Il Giappone entrerà rapidamente nell'era dei transistor con l'ETL Mark III (1956) e il MUSASINO-1 (1957) dei laboratori NTT, segnando l'inizio dell'industria informatica giapponese.
1958 // USA
Circuito integrato
Jack Kilby (Texas Instruments) e Robert Noyce (Fairchild Semiconductor) inventano indipendentemente il circuito integrato. Kilby dimostra il primo prototipo funzionante il 12 settembre 1958 su un singolo pezzo di germanio. Noyce perfeziona il concetto usando il processo planare al silicio, più adatto alla produzione di massa. Kilby riceverà il Nobel per la Fisica nel 2000.
1958 // USA / EUROPA
LISP e ALGOL
John McCarthy crea LISP (LISt Processing) al MIT, il secondo linguaggio ad alto livello più antico ancora in uso (dopo FORTRAN), basato sul lambda calcolo e sulla ricorsione. Contemporaneamente, un comitato internazionale americano-europeo pubblica ALGOL 58, capostipite della famiglia di linguaggi strutturati (ALGOL 60, Pascal, C, Java). LISP e ALGOL rappresentano le due grandi tradizioni della programmazione: funzionale e imperativa.
1959 // USA
COBOL
Il comitato CODASYL, con il contributo fondamentale di Grace Hopper, progetta COBOL (COmmon Business-Oriented Language), un linguaggio leggibile quasi come l'inglese per le applicazioni business. Ancora oggi, si stima che oltre 200 miliardi di righe di codice COBOL siano in produzione nel mondo, elaborando il 95% delle transazioni ATM bancarie e l'80% delle transazioni finanziarie globali.
1960–1969
1960 // EUROPA / USA
ALGOL 60
Pubblicazione del report di ALGOL 60, risultato di una collaborazione internazionale tra ricercatori europei e americani. Introduce la notazione BNF (Backus-Naur Form) per descrivere la grammatica, la struttura a blocchi, la ricorsione e lo scope lessicale delle variabili. Sebbene non avrà grande diffusione commerciale, influenzerà profondamente il design di praticamente tutti i linguaggi di programmazione successivi.
1961 // USA
Time-sharing — CTSS
Il MIT presenta il Compatible Time-Sharing System (CTSS), che permette a più utenti di usare lo stesso computer simultaneamente tramite terminali remoti. Prima del time-sharing, un programmatore doveva consegnare il proprio programma su schede perforate e attendere ore o giorni per il risultato. Il CTSS rivoluziona l'accesso ai calcolatori e getta le basi per il cloud computing moderno.
1962 // USA
Spacewar! — Primo videogioco
Steve Russell, Martin Graetz e Wayne Wiitanen al MIT creano Spacewar! sul PDP-1, uno dei primi videogiochi interattivi della storia. Due astronavi in un campo gravitazionale stellare si combattono, controllate dai giocatori in tempo reale. Il gioco si diffonde gratuitamente nelle università con PDP-1 e dimostra il potenziale dei computer per l'intrattenimento interattivo.
1962 // URSS
Progetto OGAS
Viktor Glushkov propone OGAS (Sistema Nazionale Automatizzato di Gestione dell'Economia), una rete informatica nazionale per ottimizzare la pianificazione economica sovietica collegando migliaia di aziende e ministeri. Il progetto anticipa concettualmente Internet e il cloud computing, ma verrà ostacolato dalla burocrazia del Gosplan e dalla resistenza dei ministeri che temono di perdere potere. Non verrà mai completamente realizzato.
1963 // USA
ASCII — Standard di codifica caratteri
L'American Standards Association pubblica lo standard ASCII (American Standard Code for Information Interchange), che codifica 128 caratteri in 7 bit. ASCII unifica la rappresentazione dei caratteri tra macchine di costruttori diversi, risolvendo il caos delle codifiche proprietarie. Resterà lo standard dominante per decenni e la sua struttura è alla base di UTF-8, la codifica universale usata oggi nel web.
1964 // USA
IBM System/360
IBM lancia la famiglia System/360, la prima linea di computer con architettura compatibile tra modelli di fascia diversa. Un programma scritto per il modello più piccolo funziona sul più grande senza modifiche. Lo sviluppo costa 5 miliardi di dollari (il più grande progetto industriale dopo il Progetto Manhattan) e rischia di mandare IBM in bancarotta, ma dominerà il mercato mainframe per decenni.
1964 // USA
BASIC
John Kemeny e Thomas Kurtz creano BASIC (Beginner's All-purpose Symbolic Instruction Code) al Dartmouth College. Progettato per rendere la programmazione accessibile a studenti non specialisti e usabile tramite time-sharing, BASIC diventerà negli anni '70-'80 il linguaggio con cui milioni di persone impareranno a programmare, inclusi Bill Gates e Steve Wozniak.
1965 // USA
Legge di Moore
Gordon Moore, co-fondatore di Fairchild Semiconductor (e poi Intel), pubblica la sua famosa osservazione: il numero di transistor su un circuito integrato raddoppia circa ogni 18–24 mesi a costo costante. Questa “legge” (in realtà una previsione empirica) guiderà la roadmap dell'industria dei semiconduttori per oltre 50 anni, diventando una profezia autoavverante.
1965 // URSS
BESM-6
Viene completato il BESM-6 presso l'Accademia delle Scienze di Mosca, il supercomputer sovietico più potente dell'epoca con circa 1 MFLOPS. Usa transistor e una pipeline innovativa. Resterà in uso fino agli anni '90, impiegato nel programma spaziale sovietico, nella previsione meteorologica e nella ricerca nucleare. Verranno prodotti oltre 350 esemplari.
1966 // ITALIA
Teorema di Böhm–Jacopini
Corrado Böhm e Giuseppe Jacopini dimostrano formalmente che qualsiasi programma (anche uno con istruzioni GOTO) può essere riscritto usando solo tre strutture di controllo: sequenza, selezione (if-then-else) e iterazione (while). Questo teorema fornisce la base teorica della programmazione strutturata e supporterà la campagna di Dijkstra contro il GOTO negli anni successivi.
1967 // NORVEGIA
Simula 67 — Primo linguaggio a oggetti
Ole-Johan Dahl e Kristen Nygaard al Norwegian Computing Center di Oslo creano Simula 67, nato come linguaggio per simulazioni. Introduce classi, oggetti, ereditarietà, polimorfismo e il concetto di coroutine. È il primo linguaggio di programmazione orientato agli oggetti e influenzerà direttamente Smalltalk, C++, Java e tutti i linguaggi OOP successivi.
1968 // NATO / GERMANIA
Conferenza NATO — “Software Engineering”
Alla conferenza NATO di Garmisch-Partenkirchen viene coniato il termine “Software Engineering” per affrontare la “crisi del software”: i progetti software sono sistematicamente in ritardo, oltre budget e pieni di difetti. La conferenza riconosce che la programmazione deve diventare una disciplina ingegneristica con metodi, standard e pratiche rigorose. Nasce l'ingegneria del software come campo di studio.
1968 // PAESI BASSI
Dijkstra — “Go To Statement Considered Harmful”
Edsger Dijkstra pubblica la celebre lettera all'editore di Communications of the ACM che critica l'uso indiscriminato dell'istruzione GOTO, sostenendo che rende il codice incomprensibile e non verificabile. La lettera scatena un dibattito acceso (“la guerra del GOTO”) e contribuisce alla diffusione della programmazione strutturata. Il formato “X Considered Harmful” diventerà un meme accademico.
1968 // USA
“The Mother of All Demos” — Douglas Engelbart
Il 9 dicembre 1968, Douglas Engelbart presenta al pubblico di San Francisco il mouse, le finestre, l'ipertesto, la videoconferenza, l'editing collaborativo in tempo reale e la posta elettronica in un'unica dimostrazione dal vivo di 90 minuti. Anticipa di decenni il personal computing moderno e il world wide web. La demo resta una delle presentazioni tecnologiche più visionarie della storia.
1969 // USA
ARPANET — Nasce Internet
Il 29 ottobre 1969, il primo messaggio viene inviato tra UCLA e Stanford Research Institute su ARPANET. Il messaggio doveva essere “LOGIN” ma il sistema crashò dopo “LO”. Finanziata dal Dipartimento della Difesa, ARPANET usa la commutazione di pacchetto (packet switching), un'idea del gallese Donald Davies e dell'americano Paul Baran. È il predecessore diretto di Internet.
1969 // USA
UNIX
Ken Thompson e Dennis Ritchie iniziano lo sviluppo di UNIX ai Bell Labs su un PDP-7 in disuso. Nasce come progetto personale dopo la cancellazione di Multics, scritto inizialmente in assembler e poi riscritto in C nel 1973. La filosofia UNIX (“fai una cosa sola e falla bene”, pipe, file come astrazione universale) diventerà il fondamento di Linux, macOS, Android e della cultura open-source.
1969 // USA
Apollo 11 — Software spaziale
Il 20 luglio 1969, il software dell'Apollo Guidance Computer (AGC), sviluppato dal team di Margaret Hamilton al MIT Instrumentation Laboratory, guida con successo lo sbarco sulla Luna. Durante la discesa, l'AGC gestisce un sovraccarico (errore 1202) grazie al suo sistema di priorità in tempo reale. Hamilton conia il termine “software engineering” applicato alla pratica e il suo lavoro stabilisce principi di affidabilità che influenzano ancora oggi i sistemi critici.
1970–1979
1970 // UK / USA
Modello relazionale — Edgar F. Codd
Edgar F. Codd, ricercatore britannico presso IBM San José, pubblica “A Relational Model of Data for Large Shared Data Banks”. Propone di organizzare i dati in tabelle (relazioni) manipolabili con un linguaggio dichiarativo basato sull'algebra relazionale. Questo lavoro fonda la teoria dei database relazionali ed è alla base di SQL, Oracle, PostgreSQL e di tutta l'industria dei dati moderna.
1970 // SVIZZERA
Pascal
Niklaus Wirth, al Politecnico di Zurigo, pubblica il linguaggio Pascal, progettato per l'insegnamento della programmazione strutturata. Ispirato ad ALGOL, Pascal enfatizza la chiarezza, i tipi forti e la struttura del programma. Diventerà uno dei linguaggi più usati nelle università degli anni '70 e '80 e, tramite Turbo Pascal della Borland, anche uno strumento di sviluppo professionale.
1971 // USA
Intel 4004 — Primo microprocessore
Intel rilascia il 4004, il primo microprocessore commerciale al mondo: un'intera CPU su un singolo chip di silicio di 12 mm² con 2.300 transistor, progettato da Federico Faggin (italiano), Ted Hoff e Stanley Mazor. Opera a 740 kHz e ha la stessa potenza di calcolo dell'ENIAC (che occupava un'intera stanza). Nasce l'era del microprocessore che renderà possibile il personal computer.
1971 // USA
Email — Ray Tomlinson
Ray Tomlinson ai BBN Technologies invia il primo messaggio di posta elettronica tra due computer diversi su ARPANET e introduce il simbolo @ per separare il nome utente dall'host. Il contenuto del primo messaggio è andato perduto (“probabilmente QWERTYUIOP o qualcosa di simile”, dirà Tomlinson). L'email diventerà l'applicazione “killer” di ARPANET e resterà fondamentale per decenni.
1972 // USA
Linguaggio C
Dennis Ritchie ai Bell Labs sviluppa il linguaggio C come evoluzione del B di Ken Thompson. Combina la potenza del linguaggio assembler (accesso diretto alla memoria, puntatori) con la portabilità di un linguaggio ad alto livello. UNIX viene riscritto in C nel 1973, dimostrando che un sistema operativo può essere portabile. C resta uno dei linguaggi più usati al mondo e la base di C++, Objective-C, C#, Java e molti altri.
1973 // USA
Ethernet — Bob Metcalfe
Bob Metcalfe inventa Ethernet al Xerox PARC di Palo Alto, ispirato dal protocollo ALOHAnet sviluppato all'Università delle Hawaii. Ethernet permette a più computer di comunicare su un singolo cavo condiviso usando il protocollo CSMA/CD per gestire le collisioni. Diventerà lo standard dominante per le reti locali (LAN) e, in versioni successive (Gigabit, 10G, 100G), la spina dorsale di Internet.
1974 // USA
TCP/IP — Vint Cerf e Bob Kahn
Vint Cerf e Bob Kahn pubblicano “A Protocol for Packet Network Intercommunication”, descrivendo il TCP (Transmission Control Protocol). Combinato con l'IP (Internet Protocol), TCP/IP permette a reti eterogenee di comunicare tra loro indipendentemente dalla tecnologia sottostante. ARPANET adotterà TCP/IP nel 1983 (“flag day”), trasformandosi in Internet. Il protocollo resta il fondamento di Internet ancora oggi.
1975 // USA
Altair 8800 e Microsoft
MITS rilascia l'Altair 8800, un microcomputer basato sull'Intel 8080, venduto in kit a $439. È considerato il primo personal computer di successo commerciale. Bill Gates e Paul Allen scrivono un interprete BASIC per l'Altair e fondano Microsoft. L'Altair ispira anche Steve Wozniak e Steve Jobs, che nel garage di Jobs iniziano a progettare l'Apple I. Nasce l'industria del personal computer.
1976 // USA
Apple I e Cray-1
Steve Wozniak e Steve Jobs fondano Apple Computer e presentano l'Apple I, un computer su singola scheda venduto a $666,66. Nello stesso anno, Seymour Cray presenta il Cray-1, il primo supercomputer vettoriale commerciale (160 MFLOPS), adottato da laboratori nazionali e centri meteorologici. I due estremi — personal computer e supercomputer — mostrano la diversificazione dell'informatica.
1977 // USA
La Trinità del 1977: Apple II, TRS-80, Commodore PET
Nel 1977 vengono lanciati tre personal computer “pronti all'uso”: l'Apple II di Wozniak (con grafica a colori e slot di espansione), il TRS-80 di Radio Shack (il più economico) e il Commodore PET di Chuck Peddle. Per la prima volta, i computer sono accessibili a consumatori comuni senza competenze tecniche avanzate. Il personal computer diventa un prodotto di massa.
1978 // USA / GIAPPONE
Intel 8086 e la nascita dell'architettura x86
Intel rilascia il processore 8086, un chip a 16 bit che diventerà il capostipite dell'architettura x86 ancora dominante nei PC e server oggi. In Giappone, NEC sviluppa il microprocessore µPD780, compatibile con lo Z80 di Zilog, segnando l'ingresso dell'industria giapponese dei semiconduttori nel mercato globale. La competizione USA-Giappone sui chip definirà il decennio successivo.
1979 // USA
VisiCalc — Primo foglio di calcolo
Dan Bricklin e Bob Frankston rilasciano VisiCalc per Apple II, il primo foglio di calcolo elettronico. VisiCalc trasforma il personal computer da giocattolo per hobbisti a strumento business indispensabile: per la prima volta, manager e contabili hanno un motivo concreto per comprare un PC. VisiCalc vende oltre 700.000 copie e viene definito la prima “killer application” della storia.
1980–1989
1981 // USA
IBM PC
IBM lancia il Personal Computer 5150 con processore Intel 8088 e sistema operativo PC-DOS (fornito da Microsoft). La scelta di IBM di usare un'architettura aperta e componenti standard consente la nascita dei “PC compatibili” (cloni), creando uno standard de facto che dominerà il mercato. Microsoft mantiene i diritti su MS-DOS e inizia la sua ascesa verso il dominio del software per PC.
1982 // GIAPPONE
Progetto di Quinta Generazione
Il MITI (Ministero dell'Industria) giapponese lancia il Fifth Generation Computer Systems (FGCS), un progetto ambizioso da 400 milioni di dollari per costruire computer basati sull'intelligenza artificiale e la programmazione logica (Prolog). Il progetto terrorizza l'industria occidentale, che teme il sorpasso tecnologico giapponese. Alla fine non raggiungerà i suoi obiettivi principali, ma finanzierà ricerca importante in IA e calcolo parallelo.
1983 // USA
GNU Project — Richard Stallman
Richard Stallman al MIT annuncia il progetto GNU (GNU's Not Unix) con l'obiettivo di creare un sistema operativo completamente libero, compatibile con UNIX ma senza codice proprietario. Nel 1985 fonderà la Free Software Foundation e pubblicherà la licenza GPL (GNU General Public License). Il movimento del software libero che ne nasce cambierà radicalmente l'industria del software e renderà possibile Linux, Android e gran parte dell'infrastruttura di Internet.
1983 // USA / DANIMARCA
C++ — Bjarne Stroustrup
Bjarne Stroustrup, informatico danese ai Bell Labs, rilascia C++ (“C with Classes”), un'estensione di C che aggiunge la programmazione orientata agli oggetti (classi, ereditarietà, polimorfismo) mantenendo la compatibilità con C e le sue prestazioni. C++ diventerà il linguaggio dominante per sistemi operativi, giochi, browser, database e applicazioni ad alte prestazioni.
1984 // USA
Apple Macintosh
Apple lancia il Macintosh 128K, il primo personal computer di successo commerciale con interfaccia grafica (GUI) e mouse integrati. Ispirato dal Xerox Alto e dallo Star 8010, il Mac rende l'informatica accessibile a chiunque con la metafora della scrivania, le icone e i menu a tendina. Il lancio è accompagnato dal celebre spot pubblicitario “1984” diretto da Ridley Scott, trasmesso durante il Super Bowl.
1984 // USA
DNS (Domain Name System)
Paul Mockapetris progetta il Domain Name System, che traduce nomi leggibili (come google.com) in indirizzi IP numerici. Prima del DNS, ARPANET usava un singolo file HOSTS.TXT mantenuto manualmente allo Stanford Research Institute. Il DNS introduce un sistema gerarchico distribuito che scala con la crescita della rete. Ancora oggi, ogni connessione Internet inizia con una query DNS.
1985 // USA
Windows 1.0
Microsoft rilascia Windows 1.0, la sua prima interfaccia grafica per PC IBM-compatibili. La versione iniziale è lenta e limitata (le finestre non possono sovrapporsi), e viene accolta con scetticismo. Ci vorranno Windows 3.0 (1990) e soprattutto Windows 95 per raggiungere il successo di massa. Oggi Windows ha una quota di mercato di circa il 72% sui desktop.
1985 // GIAPPONE
Nintendo NES e l'industria dei videogiochi
Nintendo rilascia il Famicom/NES (Nintendo Entertainment System) in Nord America, rivitalizzando l'industria dei videogiochi dopo il crash del 1983. Il NES stabilisce il modello di business console+licenze che domina ancora l'industria. Super Mario Bros. diventa il gioco più venduto della storia (fino a quel momento) e il Giappone diventa il centro mondiale dello sviluppo di videogiochi.
1986 // BRASILE
Politica di riserva di mercato informatico brasiliana
Il Brasile applica la Política Nacional de Informática, vietando l'importazione di microcomputer per proteggere l'industria nazionale. Aziende come Scopus, Cobra e Unitron producono cloni locali di Apple II e IBM PC. La politica crea una generazione di ingegneri informatici brasiliani ma limita l'accesso alla tecnologia. Verrà abolita nel 1992 sotto pressione internazionale e con l'apertura economica.
1987 // USA
Perl — Larry Wall
Larry Wall rilascia Perl, un linguaggio di scripting che combina funzionalità di shell scripting, sed, awk e C. Perl diventerà il “coltellino svizzero” degli amministratori di sistema e, soprattutto, il linguaggio dominante per lo sviluppo web dinamico nella prima era del World Wide Web (CGI scripting). Il motto non ufficiale di Perl è “There's more than one way to do it” (TMTOWTDI).
1989 // SVIZZERA / UK
World Wide Web — Tim Berners-Lee
Tim Berners-Lee, informatico britannico al CERN di Ginevra, propone un sistema di gestione dell'informazione basato su ipertesti distribuiti. Inventa HTML (linguaggio di markup), HTTP (protocollo di trasferimento) e URL (indirizzi delle risorse). Nel 1990 scriverà il primo browser e il primo server web. Il WWW viene rilasciato al pubblico senza brevetti né licenze, una decisione che ne permette l'esplosione globale.
1989 // PAESI BASSI
Python — Guido van Rossum
Guido van Rossum inizia lo sviluppo di Python al CWI di Amsterdam durante le vacanze natalizie, ispirato dal linguaggio ABC e dalla filosofia di leggibilità del codice. Python verrà rilasciato pubblicamente nel 1991. Con la sua sintassi pulita e la filosofia “There should be one obvious way to do it”, diventerà uno dei linguaggi più popolari al mondo, dominando data science, IA, automazione e didattica.
1990–1999
1991 // FINLANDIA
Linux — Linus Torvalds
Linus Torvalds, studente 21enne all'Università di Helsinki, pubblica su Usenet un messaggio che annuncia un kernel “free” per compatibili 386: “just a hobby, won't be big and professional like gnu”. Combinato con gli strumenti GNU, Linux diventerà il sistema operativo più diffuso al mondo: gira su oltre il 90% dei server, su tutti i supercomputer della TOP500, su Android (2+ miliardi di dispositivi) e nell'infrastruttura cloud globale.
1991 // SVIZZERA
Il primo sito web al mondo
Tim Berners-Lee pubblica il primo sito web al CERN (info.cern.ch), che descrive il progetto World Wide Web stesso. Il sito contiene istruzioni su come creare pagine web e configurare un server. Nel 1993, il CERN rilascia il software del WWW nel pubblico dominio, rendendo la tecnologia liberamente disponibile a chiunque. È una delle decisioni più consequenziali nella storia della tecnologia.
1993 // USA
Mosaic — Il browser che popolarizza il Web
Marc Andreessen e Eric Bina al NCSA (Università dell'Illinois) rilasciano Mosaic, il primo browser web con interfaccia grafica user-friendly che visualizza immagini inline con il testo. Mosaic rende il Web accessibile ai non-tecnici e scatena una crescita esplosiva: i siti web passano da 130 a 2.738 nel solo 1993. Andreessen fonderà poi Netscape, innescando la “guerra dei browser” con Microsoft.
1994 // USA
Amazon, Yahoo! e la commercializzazione del Web
Jeff Bezos fonda Amazon.com come libreria online dal garage di casa a Seattle. Jerry Yang e David Filo creano Yahoo! come directory del Web. Nasce l'e-commerce e il web commerciale. Nello stesso anno, il primo banner pubblicitario appare su HotWired.com (AT&T paga per uno striscione con scritto “Have you ever clicked your mouse right HERE?”). Internet inizia la trasformazione da rete accademica a piattaforma economica globale.
1995 // USA / CANADA
Java — “Write Once, Run Anywhere”
Sun Microsystems rilascia Java, progettato da James Gosling (informatico canadese). Java introduce la Java Virtual Machine (JVM) che permette al codice di funzionare su qualsiasi piattaforma senza ricompilazione. Il linguaggio diventa rapidamente dominante per applicazioni enterprise, web server (servlet/JSP) e poi per Android. Oggi Java resta uno dei linguaggi più usati al mondo con miliardi di dispositivi che eseguono la JVM.
1995 // USA
JavaScript e la programmazione nel browser
Brendan Eich crea JavaScript in soli 10 giorni presso Netscape Communications. Originariamente chiamato Mocha, poi LiveScript, viene rinominato JavaScript per motivi di marketing (sfruttando la popolarità di Java). Nonostante le origini frettolose, diventerà il linguaggio di programmazione più utilizzato al mondo, l'unico eseguibile nativamente in tutti i browser e, con Node.js, anche lato server.
1995 // USA
Windows 95
Microsoft lancia Windows 95 con una campagna pubblicitaria da 300 milioni di dollari (con la canzone “Start Me Up” dei Rolling Stones). Introduce il menu Start, la barra delle applicazioni, il supporto nativo a 32 bit e il multitasking preemptive. Vende 7 milioni di copie nelle prime 5 settimane. Windows 95 porta il personal computer nelle case di centinaia di milioni di persone e consolida il dominio di Microsoft sul desktop.
1996 // COREA DEL SUD
La rivoluzione della banda larga coreana
La Corea del Sud lancia un piano nazionale aggressivo per la banda larga, diventando il primo paese al mondo per penetrazione dell'Internet ad alta velocità entro il 2000. Il governo investe massicciamente in infrastruttura in fibra ottica e incentiva la digitalizzazione. Questa politica trasforma la Corea del Sud in una potenza tecnologica e crea l'ecosistema per Samsung, LG, Naver e l'industria degli e-sport.
1997 // USA
Deep Blue batte Kasparov
Il supercomputer IBM Deep Blue sconfigge il campione mondiale di scacchi Garry Kasparov in un match di 6 partite (3.5–2.5). È la prima volta che un computer batte un campione del mondo a scacchi in condizioni da torneo. L'evento ha un impatto mediatico enorme e rilancia il dibattito sull'intelligenza artificiale. Deep Blue analizza 200 milioni di posizioni al secondo ma non “capisce” il gioco: usa forza bruta e valutazione posizionale.
1998 // USA
Google
Larry Page e Sergey Brin, dottorandi a Stanford, fondano Google Inc. nel garage di Susan Wojcicki a Menlo Park. Il loro motore di ricerca usa l'algoritmo PageRank, che classifica le pagine web in base al numero e alla qualità dei link che ricevono, producendo risultati enormemente superiori ai concorrenti (AltaVista, Yahoo!, Lycos). Google diventerà il sito più visitato al mondo e una delle aziende più potenti della storia.
1998 // USA
Open Source Initiative
Eric Raymond e Bruce Perens fondano la Open Source Initiative (OSI) per promuovere il software open source come modello di sviluppo pragmatico. A differenza del “free software” di Stallman (incentrato sulla libertà), l'OSI enfatizza i vantaggi pratici del codice aperto. Nello stesso anno, Netscape rilascia il codice sorgente del suo browser (progetto Mozilla). L'open source diventerà il modello dominante per infrastruttura, cloud e IA.
1999 // CINA
Alibaba e l'Internet cinese
Jack Ma fonda Alibaba a Hangzhou in un piccolo appartamento con 17 co-fondatori, creando una piattaforma di e-commerce B2B per collegare i produttori cinesi con i compratori internazionali. Nello stesso periodo, Tencent lancia QQ (un clone di ICQ) che raggiungerà centinaia di milioni di utenti. L'Internet cinese inizia a sviluppare un ecosistema indipendente che, protetto dal Great Firewall, genererà giganti tecnologici diversi da quelli occidentali.
1999 // GLOBALE
Bolla delle dot-com e Bug Y2K
Il NASDAQ raggiunge livelli record trainato dalla speculazione sulle aziende Internet (la bolla esploderà nel marzo 2000). Contemporaneamente, il mondo si prepara al “Millennium Bug” (Y2K): molti sistemi legacy codificano l'anno con due cifre, rischiando il crash al passaggio al 2000. La correzione del Y2K costa oltre 300 miliardi di dollari globalmente e rivela quanto codice COBOL critico sia ancora in produzione.
2000–2009
2001 // USA / GLOBALE
Wikipedia e il Manifesto Agile
Jimmy Wales e Larry Sanger lanciano Wikipedia, un'enciclopedia libera e collaborativa che dimostra il potere della collaborazione di massa su Internet. Oggi ha oltre 60 milioni di articoli in 300+ lingue. Nello stesso anno, 17 sviluppatori software pubblicano il Manifesto Agile nello Utah, proponendo un'alternativa ai processi di sviluppo pesanti (waterfall): iterazioni brevi, feedback continuo e adattamento al cambiamento.
2003 // USA
LinkedIn, MySpace e l'era dei social network
LinkedIn e MySpace vengono lanciati a pochi mesi di distanza, inaugurando l'era dei social network. MySpace diventerà il sito più visitato al mondo nel 2006 (prima di essere eclissato da Facebook). Il concetto di “social networking” online trasforma il modo in cui miliardi di persone comunicano, consumano informazione e costruiscono la propria identità digitale, con conseguenze sociali e politiche profonde.
2004 // USA
Facebook e il Web 2.0
Mark Zuckerberg, studente ad Harvard, lancia “TheFacebook” dal dormitorio universitario il 4 febbraio 2004. In parallelo, Tim O'Reilly conia il termine “Web 2.0” per descrivere la transizione verso piattaforme interattive dove gli utenti generano i contenuti (blog, wiki, social media). Facebook crescerà fino a 3 miliardi di utenti attivi mensili, diventando la più grande rete sociale della storia.
2005 // USA
Git — Linus Torvalds
Linus Torvalds crea Git in circa 10 giorni dopo una disputa con BitKeeper, il sistema di version control usato per lo sviluppo del kernel Linux. Git è distribuito, veloce e permette branching e merging efficienti. Con la nascita di GitHub (2008) e GitLab, Git diventerà lo standard universale per il version control, trasformando il modo in cui il software viene sviluppato collaborativamente in tutto il mondo.
2006 // USA
Amazon Web Services (AWS) — Nasce il cloud computing
Amazon lancia Amazon Web Services con i servizi S3 (storage) ed EC2 (compute), permettendo a chiunque di affittare potenza di calcolo e spazio di archiviazione on-demand via Internet. AWS trasforma radicalmente l'IT: le startup non devono più comprare server fisici, possono scalare istantaneamente e pagare solo per ciò che usano. Google Cloud (2008) e Microsoft Azure (2010) seguiranno, ma AWS mantiene la leadership di mercato.
2007 // USA
iPhone — Lo smartphone moderno
Steve Jobs presenta l'iPhone il 9 gennaio 2007, definendolo “un iPod, un telefono e un dispositivo Internet” in uno. Con il suo schermo multi-touch capacitivo, l'interfaccia completamente a sfioramento e il browser web completo, l'iPhone ridefinisce il concetto di smartphone. L'App Store (2008) creerà un'economia da miliardi di dollari. L'iPhone e il rivale Android (Google, 2008) renderanno lo smartphone il dispositivo informatico più diffuso della storia umana.
2008 // USA / GLOBALE
Android e Bitcoin
Google rilascia Android, un sistema operativo mobile open-source basato su Linux. Il primo telefono Android (HTC Dream) esce in ottobre. Nello stesso anno, Satoshi Nakamoto (identità sconosciuta) pubblica il white paper di Bitcoin, descrivendo una valuta digitale decentralizzata basata sulla tecnologia blockchain. Android dominerà il mercato mobile con l'85% di quota globale, mentre Bitcoin darà inizio alla rivoluzione delle criptovalute.
2009 // INDIA
Aadhaar — Il più grande sistema di identità digitale
L'India lancia il progetto Aadhaar sotto la guida di Nandan Nilekani (co-fondatore di Infosys), il più grande sistema di identificazione biometrica al mondo. Basato su impronte digitali, scansione dell'iride e dati demografici, Aadhaar assegnerà un numero univoco a 12 cifre a oltre 1,3 miliardi di indiani. Il sistema rivoluziona l'accesso ai servizi bancari, sussidi governativi e telecomunicazioni, ma solleva anche importanti questioni di privacy.
2010–2019
2010 // USA
iPad e la nascita del tablet moderno
Apple lancia l'iPad, definendo la categoria dei tablet moderni. Vende 3 milioni di unità in 80 giorni. L'iPad accelera la transizione verso il computing mobile e touch-first, trasformando il consumo di contenuti digitali, l'istruzione e persino le applicazioni professionali. Nel mondo emergente, tablet economici basati su Android portano Internet a milioni di persone che non hanno mai posseduto un PC.
2011 // USA
IBM Watson vince a Jeopardy!
Il sistema di IA IBM Watson batte i campioni umani Ken Jennings e Brad Rutter nel quiz show televisivo Jeopardy!, rispondendo a domande in linguaggio naturale su cultura generale. Watson usa tecniche di NLP, machine learning e ragionamento su grandi corpus di testo. La vittoria è un momento simbolico per l'IA, anche se il tentativo di IBM di commercializzare Watson in sanità si rivelerà più difficile del previsto.
2012 // CANADA / USA
Deep Learning — AlexNet e la rivoluzione dell'IA
Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton (Università di Toronto) vincono la competizione ImageNet con AlexNet, una rete neurale convoluzionale profonda addestrata su GPU che riduce l'errore di classificazione delle immagini dal 26% al 15%. Questo risultato segna l'inizio della rivoluzione del deep learning e dimostra che le reti neurali profonde, combinate con grandi dataset e potenza GPU, possono superare i metodi tradizionali in modo decisivo.
2013 // USA / GLOBALE
Rivelazioni di Snowden e il dibattito sulla privacy digitale
Edward Snowden, ex contractor NSA, rivela l'esistenza di programmi di sorveglianza di massa (PRISM, XKeyscore) che raccolgono dati da aziende tecnologiche e intercettano comunicazioni globali. Le rivelazioni scatenano un dibattito mondiale sulla privacy, la sicurezza informatica e il potere dei governi. Conseguenze dirette: crittografia end-to-end generalizzata (Signal, WhatsApp), HTTPS ovunque, e il GDPR europeo (2018).
2014 // KENYA / AFRICA
M-Pesa e la rivoluzione fintech africana
M-Pesa, lanciato in Kenya da Safaricom nel 2007, raggiunge nel 2014 oltre 20 milioni di utenti in Kenya (su 45 milioni di abitanti), gestendo transazioni per miliardi di dollari. Il sistema permette pagamenti, trasferimenti e micro-prestiti tramite semplici telefoni cellulari (non smartphone) via SMS. L'Africa subsahariana salta la fase del banking tradizionale, passando direttamente al mobile money. M-Pesa si espande in Tanzania, India, Egitto e Romania.
2014 // USA
Kubernetes e l'era dei container
Google rilascia Kubernetes come progetto open-source, un sistema di orchestrazione per container Docker (lanciato nel 2013 da Solomon Hykes). Kubernetes automatizza il deployment, lo scaling e la gestione di applicazioni containerizzate. Diventerà lo standard de facto per l'infrastruttura cloud-native, adottato da tutte le grandi aziende tecnologiche. L'architettura a microservizi sostituisce gradualmente i monoliti tradizionali.
2015 // USA
TensorFlow e la democratizzazione del deep learning
Google rilascia TensorFlow come libreria open-source per il machine learning. Insieme a PyTorch (Facebook, 2016) e Keras, TensorFlow rende il deep learning accessibile a sviluppatori e ricercatori di tutto il mondo, non solo ai grandi laboratori. La disponibilità di strumenti open-source, GPU potenti e grandi dataset pubblici accelera enormemente il progresso dell'IA in visione artificiale, NLP, robotica e scienza.
2016 // UK / COREA DEL SUD
AlphaGo batte Lee Sedol
AlphaGo di DeepMind (azienda britannica acquisita da Google) sconfigge il campione mondiale di Go Lee Sedol 4–1 a Seoul. Il Go, con le sue 10^170 posizioni possibili (più degli atomi nell'universo), era considerato irraggiungibile per l'IA con la forza bruta. AlphaGo usa reti neurali profonde e reinforcement learning. La mossa 37 della partita 2 — giudicata inizialmente un errore — viene riconosciuta come geniale e cambia la comprensione umana del gioco.
2017 // USA / CANADA
“Attention Is All You Need” — L'architettura Transformer
Ricercatori di Google Brain e dell'Università di Toronto pubblicano l'articolo che introduce l'architettura Transformer, basata interamente sul meccanismo di attenzione (self-attention) senza reti ricorrenti o convoluzionali. Il Transformer diventerà la base di GPT (OpenAI), BERT (Google), LLaMA (Meta) e di tutti i grandi modelli linguistici. È probabilmente l'articolo di machine learning più influente del decennio.
2017 // CINA
Piano Nazionale Cinese per l'IA
Il Consiglio di Stato della Repubblica Popolare Cinese pubblica il “New Generation Artificial Intelligence Development Plan”, con l'obiettivo dichiarato di rendere la Cina leader mondiale nell'intelligenza artificiale entro il 2030. Il piano prevede investimenti massivi in ricerca, istruzione e infrastruttura. Aziende come Baidu, Alibaba e Tencent (BAT) intensificano la ricerca in IA, e la Cina diventa il secondo produttore mondiale di paper scientifici in IA dopo gli USA.
2018 // UNIONE EUROPEA
GDPR — General Data Protection Regulation
L'Unione Europea attiva il GDPR, il regolamento più completo e restrittivo al mondo sulla protezione dei dati personali. Introduce il diritto all'oblio, la portabilità dei dati, il consenso esplicito e multe fino al 4% del fatturato globale. Il GDPR diventa uno standard de facto globale: California (CCPA, 2020), Brasile (LGPD), India, Giappone e altri paesi adottano leggi simili. Trasforma il modo in cui le aziende tecnologiche gestiscono i dati degli utenti.
2019 // USA
Quantum Supremacy — Google Sycamore
Google annuncia di aver raggiunto la “supremazia quantistica” con il processore Sycamore a 53 qubit: un calcolo che al computer quantistico richiede 200 secondi impiegherebbe (secondo Google) 10.000 anni al più potente supercomputer classico. IBM contesta l'affermazione, ma il risultato dimostra che i computer quantistici possono superare quelli classici in compiti specifici. Siamo ancora lontani da computer quantistici general-purpose.
2020–2026
2020 // GLOBALE
COVID-19 e l'accelerazione digitale
La pandemia di COVID-19 forza un'adozione massiva e improvvisa del lavoro remoto, della didattica a distanza e dell'e-commerce globale. Zoom passa da 10 a 300 milioni di utenti giornalieri in tre mesi. La pandemia accelera di anni la trasformazione digitale in sanità, istruzione, commercio e pubblica amministrazione. La dipendenza dall'infrastruttura digitale diventa evidente a livello planetario.
2020 // USA
GPT-3 — I modelli linguistici di grandi dimensioni
OpenAI rilascia GPT-3, un modello linguistico con 175 miliardi di parametri capace di generare testo, codice, poesie e conversazioni di qualità sorprendente. GPT-3 dimostra che scalare la dimensione dei modelli Transformer produce capacità emergenti inattese (few-shot learning, ragionamento, traduzione). Inaugura l'era dei Large Language Models (LLM) e attira investimenti miliardari nel settore dell'IA generativa.
2020 // USA
Apple M1 — Il ritorno dei chip ARM nei PC
Apple rilascia il chip M1, il primo processore ARM progettato internamente per Mac, abbandonando Intel dopo 15 anni. L'M1 offre prestazioni superiori ai chip Intel equivalenti con un consumo energetico drasticamente inferiore, grazie all'architettura System-on-Chip con CPU, GPU e Neural Engine integrati. Il successo dell'M1 accelera l'adozione di ARM anche nei server (AWS Graviton, Ampere) e sfida il dominio x86 di Intel e AMD.
2021 // USA
GitHub Copilot e l'IA nella programmazione
GitHub (Microsoft) lancia Copilot, un assistente di programmazione basato su Codex (derivato da GPT-3) che suggerisce codice in tempo reale nell'editor. Copilot impara da miliardi di righe di codice open source e può generare funzioni complete da un commento in linguaggio naturale. Scatena un dibattito su copyright (addestramento su codice open source), produttività degli sviluppatori e il futuro della professione di programmatore.
2021 // CINA
Regolamentazione tech cinese
La Cina avvia una stretta regolatoria senza precedenti sul settore tecnologico. Ant Group (Alibaba) viene bloccata dal più grande IPO della storia; Didi viene rimossa dagli app store; il settore dell'edtech viene devastato da nuove normative. Il governo impone limiti ai videogiochi per i minori (massimo 3 ore settimanali). Le azioni tech cinesi perdono centinaia di miliardi di dollari, ridefinendo il rapporto tra stato e industria tecnologica in Cina.
2022 // USA
ChatGPT — L'IA diventa mainstream
OpenAI lancia ChatGPT il 30 novembre 2022, un chatbot basato su GPT-3.5 ottimizzato con RLHF (Reinforcement Learning from Human Feedback). Raggiunge 100 milioni di utenti in 2 mesi, diventando l'applicazione con la crescita più rapida della storia. ChatGPT porta l'IA generativa nel mainstream globale, innescando una corsa agli armamenti tra Google (Bard/Gemini), Meta (LLaMA), Anthropic (Claude) e decine di altre aziende. L'impatto su educazione, lavoro e società è ancora in corso.
2022 // USA
DALL-E 2, Midjourney, Stable Diffusion — IA generativa per immagini
Nel 2022 esplode l'IA generativa per le immagini. OpenAI rilascia DALL-E 2 (aprile), Midjourney apre la beta pubblica (luglio) e Stability AI rilascia Stable Diffusion come modello open-source (agosto). Per la prima volta, chiunque può generare immagini fotorealistiche o artistiche da una descrizione testuale. Il dibattito su copyright, deepfake, impatto sugli artisti e disinformazione diventa centrale nella società.
2023 // USA
GPT-4 e l'era dei modelli multimodali
OpenAI rilascia GPT-4 (marzo 2023), un modello multimodale capace di elaborare testo e immagini. Supera l'esame di avvocato americano (BAR) nel 90° percentile e molti altri test accademici. Google risponde con Gemini, Anthropic con Claude 2, Meta con LLaMA 2 (open source). La corsa all'IA generativa attira investimenti per oltre 50 miliardi di dollari nel solo 2023. NVIDIA, che produce le GPU necessarie per addestrare i modelli, raggiunge una capitalizzazione di 1.000 miliardi di dollari.
2023 // UNIONE EUROPEA
AI Act — Prima legge al mondo sull'intelligenza artificiale
Il Parlamento Europeo approva l'AI Act, la prima legislazione completa al mondo sulla regolamentazione dell'intelligenza artificiale. La legge classifica i sistemi di IA per livello di rischio (da minimo a inaccettabile), vieta alcune applicazioni (scoring sociale, sorveglianza biometrica di massa) e impone requisiti di trasparenza per i modelli ad alto rischio e i modelli foundation. L'UE si conferma leader mondiale nella regolamentazione tecnologica.
2024 // GLOBALE
L'IA generativa entra nel mondo del lavoro
L'adozione dell'IA generativa nelle aziende accelera: Microsoft integra Copilot in Office 365, Google in Workspace, Adobe in Creative Suite. OpenAI raggiunge una valutazione di 80 miliardi di dollari. La competizione sui chip IA si intensifica con NVIDIA (H100/B200), AMD (MI300X), Intel e startup come Cerebras e Groq. Il dibattito su automazione del lavoro, bias algoritmico e governance dell'IA domina l'agenda politica globale.
2024 // CINA
DeepSeek e l'IA cinese competitiva
DeepSeek, una startup cinese fondata nel 2023, rilascia modelli linguistici open-source (DeepSeek-V2, DeepSeek-Coder) che raggiungono prestazioni competitive con i modelli occidentali a una frazione del costo di addestramento. Nonostante le restrizioni americane sull'esportazione di GPU avanzate verso la Cina (NVIDIA A100/H100), l'IA cinese dimostra capacità di innovazione significativa, sollevando questioni sull'efficacia delle sanzioni tecnologiche.
2025 // GLOBALE
Agenti IA e coding assistants avanzati
Gli agenti IA autonomi (capaci di pianificare, usare strumenti e completare task complessi in più passaggi) diventano una realtà commerciale. Claude Code (Anthropic), GitHub Copilot Agent e Devin rappresentano una nuova generazione di assistenti che possono navigare codebase, eseguire comandi, creare pull request e risolvere bug in modo semi-autonomo. Il dibattito si sposta da “l'IA può programmare?” a “come cambierà il ruolo dello sviluppatore?”.
2025–2026 // GLOBALE
Verso l'AGI? Il dibattito continua
La comunità scientifica e l'industria dibattono se i progressi attuali portino verso l'Artificial General Intelligence (AGI) — un'IA con capacità cognitive generali paragonabili a quelle umane. I modelli frontier (GPT-4.5, Claude 4, Gemini Ultra) mostrano capacità di ragionamento sempre più sofisticate ma anche limitazioni persistenti (allucinazioni, mancanza di comprensione causale). La governance internazionale dell'IA resta frammentata tra approcci diversi: regolamentazione europea, innovazione americana, strategia statale cinese.