Informatica in pillole, con Attilio A. Romita (10)

Pubblicato il 18 Gennaio 2009 in da Vitalba Paesano

All’inizio c’erano i sistemi locali, cioè tutte le macchine ed utenti ….abitavano nello stesso luogo. Ben presto ci si accorse che la bassa velocità di trasmissione e le possibili interruzioni condizionavano pesantemente la velocità di elaborazione.

Il passo successivo sono stati i cosiddetti sistemi dipartimentali, cioè piccoli mainframe locali che “predigerivano” i dati e poi li mandavano al sistema centrale che li elaborava tutti insieme al momento opportuno. I vantaggi erano notevoli, ma in qualche caso la qualità ne risentiva perché talvolta alcuni archivi base che erano duplicati in periferia non erano allineati con gli archivi base al centro e questo provocava spesso danni a catena ed era necessario utilizzare molto spesso gravosi programmi di allineamento dei dati.

Fortunatamente le linee diventavano sempre più veloci e fu possibile applicare la metodologia Client-Server. Nell’elaboratore centrale, il server erano registrati tutti i dati principali e tutti i programmi. In periferia c’erano piccoli elaboratori, i Client, dove esisteva un programma semplice capace di effettuare una predigestione dei dati. Quando l’operatore CLIENT aveva terminato l’operazione di accettazione dei dati elaborati, il programma del CLIENT riconosce quali sono i dati variati ed invia solo quelli all’elaboratore centrale. Questa tecnica permette un sicuro risparmio di tempo, ma ha ancora necessità di capacità elaborativa propria e di allineamento delle funzioni.

Ultimamente le linee di trasmissione sono arrivate a velocità impensabili e sono state messe a punto tecniche trasmissive che permettono velocità di carico e scarico dei dati impressionanti. A questo punto si è tornati praticamente all’origine con l’ovvio vantaggi che il terminale periferico ha solo la necessità di poter disporre di programmi di collegamento standard che non devono prevedere alcuna funzione specifica per le applicazioni standard.

E alla fine Internet

Grandi aziende multinazionali, sfruttando la possibilità di collegare un elaboratore centrale con elaboratori più piccoli e con terminali, hanno costruito delle reti che permettevano loro di trasferirsi rapidamente informazioni commerciali. Per esempio una casa costruttrice di automobili, la Ford od anche la FIAT, hanno collegato gli stabilimenti di produzione con la rete di vendita e con la direzione amministrativa. Quando il Cliente, sig. Michele,ordina una auto con varie personalizzazioni, l’ ordine è trasmesso direttamente alla programmazione della catena di montaggio che predispone la modifica temporanea di alcune fasi della costruzione per aggiungere le personalizzazioni richieste, contemporaneamente l’amministrazione controlla che tutti i particolari aggiuntivi siano disponibili e li mette a disposizione della catena di montaggio esattamente nel momento in cui sono necessari. Nello stesso tempo si mette in moto la macchina contabile ed alla vettura, proprio quella vettura ordinata dal Cliente sig. Michele, viene attaccato un documento di viaggio ed una fattura.

Nel 1960 il sig Joseph Carl Robnett Licklider, del famoso del Massachusetts Institute of Technology,  cominciò a pensare e definire le caratteristiche di una rete di comunicazione che permettesse di collegare, come un sistema telefonico mondiale, tutti coloro che avevano interesse a scambiarsi dati ed informazioni.

Le idee teoriche di Robnett dettero spunto a molti tentativi più o meno riusciti e dopo circa 30 anni la ragnatela larga quanto il mondo (in inglese World Wide Web ovvero il famoso WWW) cominciò a catturare l’interesse generale.

1.2          La struttura iniziale della rete.

Il Governo degli Stati Uniti, intorno al 1970, decise che una rete di comunicazione capace di collegare rapidamente e sicuramente i vari Enti Americani sparsi per il mondo sarebbe stata utile e cominciò a mettere le basi della ragnatela collegando tra loro alcuni grandi calcolatori e, a ragnatela, collegando ad essi altri calcolatori. Questa rete di macchine di servizio, i server, erano la struttura base cui si collegavano gli utenti finali che risultavano tutti identificati collegati e raggiungibili.

Il primo problema da risolvere fu come individuare esattamente ogni utente finale in modo che le informazioni dirette a lui non si perdessero per strada. Tra l’altro il numero di indirizzi differenti, vista la rapida diffusione di questo strumento, doveva essere enorme: ad oggi circa 5 miliardi di persone sono identificate.

Qualche puntata fa abbiamo parlato della numerazione binaria, del bit e del Byte. Abbiamo visto che un Byte, composto da 8 bit, può assumere 256 valori diversi ed è la dimensione minima di una cella di memoria. Facendo un rapido calcolo si può vedere che con 4 Byte è possibile avere circa 4 miliardi e 300 mila numeri diversi cioè il risultato di 256x256x256x256 = 4.294.967.296.

I costruttori della rete si misero d’accordo per individuare ciascun utente con un “numero” di 4 byte in cui la prima cifra individua i 256 server che costituiscono “l’anello centrale della ragnatela”. La seconda cifra individua i 256 server connessi a ciascun server principale e così via.

Chi si collega con il suo computer di casa alla rete ha assegnato un indirizzo temporaneo del tipo 185.205.027.181 che nel linguaggio dei computer è simile all’indirizzo che diamo ai nostri amici quando vogliamo ricevere una lettera: Nazione, Città, Via e numero civico. Con una unica particolarità che l’indirizzo IP è il nostro per la sola durata del periodo in cui siamo collegati. Questa apparente complicazione non è un problema per un “cervellone” che anche se di piccole dimensioni resta sempre un cervellone.

Quel numero di oltre 4 miliardi sembrava enorme, ma comincia ad essere piccolo e si stanno studiando tecniche per trovare altri indirizzi.

Oltre all’indirizzamento moltissimi altri problemi dovevano essere risolti perché le comunicazioni tra macchine e persone sparse in tutto il mondo potessero costruire qualcosa di più utile di una Torre di Babele. I 30 anni tra la descrizione teorica della Rete ed la sua realizzazione pratica sono stati necessari per definire tutti i particolari.

Un “particolare” importante è stata la definizione del cosiddetto PROTOCOLLO di TRASMISSIONE, cioè le regole seconde le quali le informazioni da trasmettere dovevano essere “Confezionate” per essere sicuri che arrivassero completamente e sicuramente al destinatario. Oggi sono stati definiti ed universalmente accettati alcuni protocolli dedicati alla trasmissione di vari tipi di informazione.

Indirizzamento e protocolli hanno reso possibile un uso ordinato della rete che a questo punto era disponibile per essere usata produttivamente.

Nei primi anni di funzionamento i progenitori di Internet sono stati usati da enti scientifici per scambiarsi informazioni sulle esperienze che andavano facendo. Subito dopo, sempre le università, iniziarono a mettere a disposizione della comunità scientifica le relazioni e le pubblicazioni. Ben presto qualcuno si accorse che la rete poteva essere usata anche con finalità commerciali e questo fu l’inizio di tutte quelle attività che saranno poi identificate con il prefisso e. come e.mail, la posta elettronica, e.commerce, il commercio fatto attraverso la rete, e.learning, l’apprendimento fatto attraverso “libri” elettronici, e così via.

Parte importante di una attività è la promozione, cioè la pubblicità di un prodotto. Sono così iniziati a comparire i siti sponsorizzati dalle case produttrici che fornivano informazioni più o meno dettagliate su i loro prodotti e talvolta li offrivano in vendita.

Giorno dopo giorno la rete si riempiva dei contenuti più vari che si andavano ad affastellare in questo enorme contenitore ed erano sempre più difficili da trovare.

A questo punto esperti “programmatori” cominciarono a studiare e realizzare i “motori di ricerca” cioè degli strumenti capaci di volare velocissimi nella rete per individuare tutti i contenuti relativi ad un argomento scelto da un utente normale.

Per poter portare avanti lo studio dei motori di ricerca era necessario trovare degli sponsor che finanziassero l’operazione.

Gli sponsor hanno ottenuto il loro vantaggio economico pubblicizzando le loro attività insieme ai risultati delle ricerche.

Dall’unione dell’utile e del dilettevole, per usare una frase familiare, è nata ed è cresciuta quasi una nuova era nella quale molte distanze tradizionali sono state abbattute, imperi economici sono stati creati, come Microsoft, Google, Yahoo, molta gente ha guadagnato e perso soldi quando all’arrembaggio per la promozione di nuove offerte non era unita una corretta conoscenza di strumenti e possibilità.

Oggi Internet ed il WWW sono diventate uno strumento di base del quale, come la luce elettrica, non se ne può fare a meno ed anche le persone più recalcitranti, per scelta, per principio o per pigrizia, cominciano a pensare che è una comodità e come tale deve essere considerata.

In conclusione…non esiste la conclusione di questa storia. Io posso dire di essere stato uno dei fortunati che ha potuto percorrere quasi tutto questo cambiamento realmente epocale che,  come la scoperta dell’America ha iniziato l’Era Moderna, forse darà inizio all’ERA GLOBALE.

Queste poche pagine che ho voluto mettere assieme tra qualche anno potranno apparire come i graffiti preistorici di qualche caverna.

Se queste nozioni potranno servire a qualcuno per iniziare a capire che computer, elaboratori e “cervelloni” non sono cose magiche, ma strumenti che hanno una qualche utilità, allora avrò raggiunto lo scopo che mi ero prefisso quando ho scritto il primo rigo della prima pagina.

Il seguito della storia è appena iniziato e sarei tanto contento se potessi continuare ad essere io il narratore di quello che succederà nei prossimi 100 anni. Attilio A. Romita