Ciao Mister BIT

Ciao mister BIT,

sono particolarmente  incavolato perché ancora una volta delinquenti informatici stanno minacciando la tua ottima reputazione .

In questi giorni sono particolarmente frequenti casi di infezioni virali .

Questi virus, come saprai, sono molto  più  “cattivi” dei precedenti, e sono difficilmente  recuperabili   con una alta possibilità di una perdita di dati ( criptatura dei files).

Lo so che puoi farci poco ma non vorrei che molti adepti dell’informatica possano mettere in dubbio la tua buona fede ed è proprio per questo che ti chiedo di farti conoscere meglio dai nativi digitali  raccontando la tua « gloriosa storia ».

 

Ciao a tutti  il mio nome è bit e sono nato nel 1948  da  genitori  « americani » che oltre a me ebbero un altro figlio  dopo « otto anni dalla mia nascita » , il suo nome è byte.

Io sono alla base della comunicazione digitale e della elaborazione dei dati  insieme alle “stringhe “.

Riassumo per chiarie meglio :

Le sequenze di zero e uno che devono essere immesse nel computer affinché lo stesso possa eseguire le “istruzioni” o comandi  sono organizzate in gruppi ordinati .

Una sequenza di otto 0 e 1 e’ detta Byte , un solo elemento del Byte (o 1 o zero) e’ detto bit ed e’ la minima unita’ di informazione esistente in informatica.

 Il mio nome, in informatica e in teoria dell’informazione, ha due significati molto diversi, a seconda del contesto in cui rispettivamente lo si usi.

Sono l’unità di misura dell’informazione (dall’inglese “binary information unit”), definita come la quantità minima di informazione che serve a discernere tra due possibili eventi equiprobabili.

Io  rappresento l’informazione base per un computer e  da solo non ho un particolare significato ma, se preso a gruppi, permetto di rappresentare informazioni più complesse, come i numeri, le lettere maiuscole e minuscole, i simboli grafici.

Mio fratello byte  nasce in luglio del 1956 ed è una quantità di informazione elementare ed è  utilizzata per molti scopi: serve ad esempio circa 200 livelli di grigio per passare dal bianco al nero perché l’occhio umano pensi di vedere una sfumatura continua, servono circa 200 caratteri diversi (lettere accentate comprese) per scrivere un qualsiasi testo di una lingua occidentale, servono circa 200 livelli di intensità per riprodurre un suono abbastanza fedele.

Egli è costituito  da 8  elementi come me ( bit) e costituisce  la capacità della memoria , del disco fisso, dei supporti di massa come i DVD e le pendrive, che viene espressa tramite multipli del byte. Io e mio fratello siamo  personalità molto importanti per i computer, infatti, quante volte abbiamo sentito parlare di Disco Fisso da 200, 300, 500 Gbyte o la RAM da 2,3,4 Gbyte?

Molto spesso i computer non sono riconoscenti, soprattutto quelli di ultime generazioni, sono in grado di manipolare non solo mio fratello  byte ma addirittura gruppi di byte suoi fedeli amici, questo perché  byte è formato da 8 bit e spesso si sente parlare di sistemi operativi e programmi a 32 bit. Bene questo vuol dire che  computer è in grado di elaborare gruppi di 4 byte alla volta contemporaneamente.

Grazie mister bit, vorrei completare il tuo curriculum con una breve storiografia che forse neanche tu sei profondo conoscitore.

Chi sono gli antenati del computer? Facciamo un tuffo nel passato!

L’abaco, è lo strumento più antico di calcolo di cui si conosca traccia, i primi esemplari, sotto forma di “tavolette di calcolo” sono apparsi in Mesopotamia e in Cina intorno al 1200 a.C. Solo intorno al 1300 d.c. l’abaco, così come oggi  lo conosciamo, sostituisce le tavole da calcolo dei cinesi.

Non poteva mancare Leonardo Da Vinci  del  quale studi recenti hanno portato alla luce alcuni disegni  conosciuti come il “Codice di Madrid“, raffiguranti uno strano macchinario concepito per effettuare calcoli con il sistema decimale. Non esistono però tracce storiche del funzionamento di questo meccanismo ideato intorno al 1500.

Charles Babbage, matematico inglese, costruì nel 1834 il primo calcolatore digitale automatico di uso generale (addizioni, sottrazioni, divisioni, moltiplicazioni).

Il calcolatore prese il nome di “macchina analitica’”, è costituì un modello per tutti i successivi calcolatori digitali.

Tale macchina poteva essere utilizzata tramite delle schede perforate”, concetto ripreso dai famosi telai automatici di Jacquard.

Con la nascita  di IBM  il mondo conobbe  l’inizio della rivoluzione che oggi conosciamo come “ era digitale”.

Thomas J. Watson, imprenditore americano, fondò nel 1924 l’International Business Machine, meglio nota ai nostri giorni come IBM.

La nuova azienda diventò in poco tempo il più potente impero industriale nel settore informatico.

Thomas è, inoltre, l’uomo che coniò lo slogan “THINK” che ha invaso i prodotti e gli slogan pubblicitari di IBM.

Al finire della  seconda guerra mondiale  fu messo a punto  Mark I I , enorme calcolatore, grande quanto un intero edificio, che veniva utilizzato per scopi specifici.

Non aveva un sistema operativo, il suo funzionamento era determinato dal suo schema elettrico invece che da un programma.

Il più famoso,  “Colossus” (o “Mark I”), fù costruito nel 1943 dal governo britannico per decriptare in maniera più rapida le comunicazioni radio dei Tedeschi criptate con la macchina ENIGMA.

Nel 1945, dopo la fine della grande guerra gli Americani intuirono l’utilità che i calcolatori avrebbero potuto assumere anche per scopi non bellici.

Iniziarono così la realizzazione di un calcolatore che fosse “programmabile”, nacque l’ENIAC (Electronic Numerical Integrator and Computer).

Il suo scopo era quello di effettuare calcoli balistici per l’esercito americano.

La programmazione di questa enorme macchina veniva realizzata esclusivamente in linguaggio macchina, ossia secondo codici binari direttamente eseguiti dal processore, ed era realizzata per mezzo di una serie di spinotti inseriti su particolari schede.

Con John Von Neumann  lo studio dei calcolatori si trasferì nelle università degli Stati Uniti, dove il lavoro di molti ricercatori  portò a definire le basi dei moderni calcolatori: non più sofisticate calcolatrici ma entità capaci di eseguire sequenze di comandi (algoritmi).

John von Neumann definì per la prima volta il concetto di elaboratore elettronico a programma memorizzato, la cosiddetta “macchina di von Neumann”. Neumann fù il primo a inquadrare in una teoria matematica coerente le “macchine intelligenti” e gli automi.

Per questo è anche considerato come il padre dell’informatica.Successivamente, John Von Neumann e altri realizzarono il primo vero computer l’EDVAC (Electronic Discrete Variable Computer) dotato di un primo rudimentale “Sistema Operativo”.

Derivato dall’ENIAC, esso ne perfezionò il concetto di programmabilità, in quanto i programmi, anziché essere inseriti dall’esterno, sono incorporati nella memoria della macchina e richiamabili a piacimento, grazie appunto al SO.

Nel 1952 durante una trasmissione televisiva un computer UNIVAC calcola le proiezioni per le elezioni presidenziali.

Nel 1954 la Texas Instruments introduce il transistor al silicio, puntando sulla drastica riduzione dei prezzi di produzione.

Nel 1957 l’IBM introduce e inizia le installazioni dei sistemi RAMAC (Random Access Method Of Accounting And Control).

Si tratta dei primi elaboratori commerciali che dispongono di una unità a dischi fissi (hard-disk) per la memorizzazione di dati che sostituisce le ingombranti e lente unità a nastro magnetico.

John Backus e altri colleghi della IBM rilasciano la prima versione del compilatore per il linguaggio di programmazione FORTRAN (Formula Translator).

Nel 1958 nasce il modem.

La Bell sviluppa un modem per la trasmissione di dati binari via telefono.

Si forma il Comitato per i linguaggi di sistemi di dati e nasce il COBOL (Common Business Oriented Language).

Nello stesso anno viene alla luce il LISP, un linguaggio studiato per l’intelligenza artificiale.

Il 1960 vede la fine delle schede perforate come dispositivo di input e di programmazione.

La DEC infatti, introduce il PDP-1, il primo computer commerciale con un monitor e tastiera per l’input.

SpaceWar per il PDP-1 Nel 1962 nasce al MIT il primo videogame della storia per merito dello studente Steve Russell creatore di Spacewar!, sparatutto per PDP-1.

Curiosità : il monitor del PDP-1 era di forma circolare, come un oblo.

Nel 1964 nasce il linguaggio BASIC (Beginner’s All-purpose Symbolic Instruction Code).

Nel 1964 Doug Engelbart inventa il mouse.Nel 1968 Robert Noyce, Andy Grove e Gordon Moore fondano la Intel.

Intorno al 1969 presso i Bell Labs (AT&T) Ken Thompson inventò il sistema operativo Unix.

Questo nuovo sistema operativo a differenza dei predecessori era multiutente e multiprocesso, ovvero potevano essere eseguiti più programmi contemporaneamente e poteva essere utilizzato da più utenti nello stesso momento; era dotato di strumenti di “networking”, ovvero: due sistemi unix potevano dialogare tra di loro attraverso una rete gettando le basi per la nascita di ARPAnet.

Infatti il Dipartimento della Difesa USA commissiona ARPANET la rete antenata di Internet.

Lo scopo di questa rete era mantenere in contatto i centri strategici militari americani in caso di attacco con armi nucleari.

ARPAnet non venne mai pienamente utilizzata per scopi militari, le università e gli uffici governativi americani iniziarono anche loro a richiedere un nodo di collegamento per poterne farne parte.

I primi 4 nodi operativi di ARPANET furono: l’UCLA, UC Santa Barbara, SRI e l’Università dello Utah.

Nel 1970 fanno il loro debutto i primi floppy disk IBM da 8 pollici nonché la stampante con testina a margherita.

Nel 1971 Ray Tomlinson realizza la più importante applicazione della rete: la posta elettronica.

Con Newman spediscono il loro primo messaggio E-mail attraverso la rete.

Nel 1972 le prime calcolatrici tascabili diventano popolari rendendo obsoleti i vecchi regoli calcolatori.

Sempre nel “72 nasce il microprocessore Intel 8080il primo microprocessore a 8 bit.

Il linguaggio C Sul finire del ’72 Dennis Ritchie sviluppa il linguaggio “C” ai laboratori Bell.

Così chiamato semplicemente perché il suo predecessore era stato battezzato “B”.

Il linguaggio “C” permette la portabilità di un programma tra diversi sistemi operativi.

Il Sistema Operativo UNIX viene quindi riscritto in linguaggio “C” per poter essere utilizzato su macchine e architetture diverse dal PDP-11.

Nel 1973 la Xerox PARC sviluppa un PC sperimentale denominato Alto, che usa il mouse, una scheda di rete Ethernet ed una interfaccia utente grafica (GUI) chiamata SmallTalk.

Curiosità: il monitor era orientato in maniera verticale in modo da poter editare il testo senza dover ricorrere al cosiddetto scrolling.

Un’anno dopo la stessa Xerox PARC scrive il primo applicativo di tipo WYSIWYG (what you see is what you get) e lo chiama BRAVO.

Nel 1975 l’IBM introduce sul mercato le prime stampanti laser.

Un’anno dopo sarà la volta delle stampanti a getto d’inchiostro (ink-jet).

Apple II Nel 1977 esce sul mercato l’APPLE II il primo home computer con programmi di videoscrittura, fogli di calcolo, giochi e tanto altro.

Nello stesso anno Bill Gates e Paul Allen fondano la Microsoft.

L’ATARI vende la prima console casalinga: il VCS 2600.

Nel 1978 esce il processore a 16 bit Intel 8086.

Nel 1979 Don Bricklin e Bob Franston realizzano VISICALC il primo foglio di calcolo elettronico (spreadsheet) della storia.

La “fame di risorse” di questo programma contribuì a rendere obsoleti tutti i precedenti computer.

Sempre nel ’79 la Motorola presenta il chip 68000, che più tardi supporterà  i computer Macintosh ed i Commodore Amiga. Nello stesso anno Sony e Philips annunciano i primi videodischi digitali mentre sono allo studio i primi telefoni cellulari.

IBM Personal Computer Nel 1981 l’architettura aperta del PC IBM viene lanciata in agosto, decretando l’affermazione del computer desktop a scapito dei terminali aziendali collegati al MainFrame.

Un’anno dopo la Compaq produce il primo clone.

La Commodore presenta il celebre VIC 20: processore 6502A, 5 KB di Ram.

Se ne venderanno fino a 9000 esemplari al giorno.

Nel 1982 Commodore presenta il Commodore 64. Il calcolatore più venduto della storia: fra 17 e 22 milioni di unità.

Nel 1983 esce il computer IBM XT contemporaneamente viene lanciato sul mercato il foglio elettronico Lotus 1-2-3 che permette la realizzazione di grafici a torta

Nel 1983 vengono pubblicate le specifiche del protocollo di rete TCP/IP che segna l’inizio dell’era di Internet

Nel 1984 l’Apple annuncia il personal computer Macintosh. Sony e Philips introducono i primi CD-ROM, che forniscono una enorme capacità di registrazione dei dati (fino a 640mb). Inizia in agosto la produzione del processore Intel 80286 a 16 bit, che viene inserito nel PCIBM “AT”.

Silicon Graphics commercializza la sua prima workstation grafica Unix interamente dedicata alla grafica tridimensionale.

Nasce il DNS (Domain Name Server) su Internet. Esso traduce gli indirizzi numerici delle macchine in nomi.

Nel 1985 La Microsoft sviluppa Windows 1.0, introducendo aspetti tipici del Macintosh (menù, finestre, icone) nei computer DOS compatibili.

In ottobre l’Intel annuncia il chip a 32 bit 80386 con la gestione della memoria sul chip.

Nel 1989 Tim Berners-Lee propone il progetto World Wide Web (WWW) al CERN. Nello stesso anno esce il processore Intel 80486, con 1,2 milioni di transistor.

Quake e Doom sono i primi videogiochi tridimensionali per personal computer.

Nel 1990 nasce da uno split con IBM il sistema operativo Microsoft Windows 3.0. L’IBM si rifarà rilasciando un suo sitema operativo: l’OS/2

Nello stesso anno nasce l’internet dei nostri giorni: Berners Lee scrive il prototipo iniziale per il WWW, che usa le altre sue creazioni: URL, HTML e HTTP.

Linux e Linus Nel 1991 Linus Torvalds scrive la prima versione del sistema operativo Linux che viene diffusa tramite internet sul sito FTP dell’università di Helsinky.

Nel 1993 l’Intel annuncia il processore Pentium.

Netscape Nell’aprile del 1994 nasce il software che cambierà la storia: Jim Clark e Marc Andreesen fondano la Netscape Communications (in origine Mosaic Communications).

Alla fine dell’anno esce il browser Netscape Navigator ed è subito il boom dei navigatori del web.

Nel 1995 la Microsoft, con una straordinaria operazione di mercato, lancia Windows 95 che include il browser Internet Explorer. Per questo motivo la Microsoft subirà un processo per concorrenza sleale. La mossa di Microsoft permette di conquistare la leadership della navigazione in Internet costringendo la Netscape a chiudere.

Nel 1998 Internet è in quasi tutti gli uffici e in molte case, nasce il fenomeno della “New Economy”

Nel 1999 Palm Computing presenta il 3Com Palm IIIe computer palmare.

Dal 2000 a a oggi  internet è ovunque attraverso connessioni via cavo, satellite o wi-fi: da ogni dispositivo è possibile accedere a internet.

I telefoni cellulari si sono trasformati in dei mini PC tascabili connessi permanentemente alla rete e capaci di eseguire video in tempo reale. Anche la telefonia migra sulle rete, grazie al VoIP (Voice over IP) è possibile telefonare sfruttando la rete.

E’ anche il periodo in cui Apple ritorna alla ribalta creando prodotti come l’iPhone e l’iPad basati su un interfaccia touch di estrema qualità e usabilità.

Caro lettore questo mio articolo è stato uno sfogo della rabbia nei confronti dei criminali informatici, gente che impegna il proprio “genio” a a diffamare il mondo dell’informazione digitale per dimostrare che essere “digitali” no è una conquista a favore delle nuove generazioni ma una formula autodistruttiva.

Ma la storia che ho raccontato dice una realtà diversa, fatta di conquiste e di conoscenze.

Salvo Esposito

rate

Rispondi

More 22 posts in dig@ITALIA category
Recommended for you
Farmacia Telematica

Approfondiamo il ruolo delle farmacie soprattutto per i nuovi servizi che concedono e anche per...