Nascita, evoluzione e funzionamento della rete

Preambolo
Continuando nel discorso iniziato con i precedenti scritti pubblicati su questa rivista [1], ritengo sia arrivato il momento opportuno, anche alla luce delle varie discussioni e domande che hanno provocato, fornire una breve cronistoria, “a volo d’uccello”, su come internet è nato, si è sviluppato e, soprattutto, fornire alcuni rudimenti d’informatica da parte di un giurista a dei giuristi.
La storia di internet
Nella recente storia della tecnologia ben pochi strumenti hanno avuto, oltre che una così rapida e planetaria diffusione, anche un contemporaneo impatto sulla evoluzione antropologica dell’umanità come l’uso dei computer e di internet.
Naturalmente, questi brevi appunti non possono e non vogliono analizzare gli aspetti meta giuridici del fenomeno internet [2]né le evoluzioni della tecnologia dei computer e dell’informatica sebbene direttamente ed intrinsecamente collegati. Il lavoro sarebbe troppo arduo e non direttamente collegato alla ricerca che, in quanto giuristi investigatori nel campo del diritto tributario, deve limitarsi alla conoscenza dei soli principi fondamentali dello strumento internet. Ricerca che non può prescindere, però, dalla conoscenza dei suoi aspetti storico-evolutivi nonché dei suoi elementi basilari di funzionamento, perché incidenti sulle questioni di diretto impatto nella materia del diritto tributario.
Per tali ragioni, ci accingiamo a fornire una brevissima storia di internet ( sul come e perché è nato e si è evoluto) e del suo futuro prossimo, per facilitare il lettore nello sforzo di impossessarsi delle basi del lessico (per questo sarà necessario fornire anche alcuni rudimenti tecnici) della rete al fine di comprenderne i fatti e/o fenomeni che, direttamente o indirettamente, andranno ad incidere nel mondo giuridico.
Dalle ricerche sulle fonti (la raccolta della documentazione non è stata né facile né, certamente, completa) da cui si è attinto, è apparso subito chiaro del motivo del suo rapido successo e dell’alone di “mistero” sorto intorno al fenomeno dell’informatica: novella alchimia. Internet, come meglio oltre descritto, pur se nato da “esigenze” militari, è stato creato e si è sviluppato nell’ambiente libero dei circoli universitari, divenendo il frutto di una evoluzione libertaria (perché libero doveva essere il suo utilizzo e liberi i contenuti informativi) aperta a tutti e capillarmente diffusa, che consentisse un passaggio non controllabile e a basso costo di una quantità e qualità di comunicazioni e informazioni inimmaginabili fino a poco tempo prima.
Gli antefatti
Verso la fine degli anni ’50 e i primi anni ’60, nei centri universitari americani, erano in corso degli interessanti studi[3] sulle facoltà cognitive e comunicative dell’uomo in relazione allo sviluppo delle potenzialità dei computer (che, per l’appunto, in quegli anni e grazie alla scoperta dei circuiti integrati, si evolvevano dai semplici elaboratori a valvole del 1943, anno di completamento del mitico Mark I) e della loro possibile interconnessione con l’uomo stesso.
In contemporanea con la loro evoluzione hardware, i computer procedevano nella loro evoluzione linguistica[4]. Studi e ricerche che dovevano fare i conti (trovandovi, altresì, fonti di finanziamento per la ricerca di base[5] ) con i problemi collegati (anni 1957-1958) sia alla c.d. guerra fredda che alla conseguente c.d. corsa allo spazio. I problemi a cui gli scienziati dovevano trovare soluzioni, erano garantire al sistema di comando e controllo strategico dell’esercito (americano ed alleato in generale) di rimaner se non intatto, almeno operativo in caso di attacco nucleare e, contemporaneamente, realizzare un sistema di comunicazione tale da rendere facile l’utilizzazione dei computer, nonché veloce e sicura la loro interconnessione.
Le idee che la comunità scientifica[6] elaborò in quegli anni, sono state quelle che sono, a tutt’oggi, alla base del funzionamento di internet.
1)      Creare una rete di interconnessione tra tutti i sistemi di comunicazione sicura che, abbandonando il sistema a ponte radio e utilizzando il nuovo sistema a base bit dei computer, dovesse avere una configurazione decentralizzata e ridondante formata da più percorsi possibili che, proprio perché tutti principali e nessuno essenziale, come una vera e propria ragnatela, fossero interconnessi tra loro attraverso dei nodi di transizione (che come dei veri e propri ponti, consentissero il passaggio e il collegamento polidirezionale) tra gli stessi e lungo i quali far viaggiare un messaggio da un nodo (o punto di collegamento) a un altro, consentendo, in caso di blocco di un percorso, di poter instradare il messaggio attraverso quello trovato libero o intatto;
2)      Far in modo che non venisse inviato un unico messaggio come nelle comunicazioni radio, ma che questo fosse digitalizzato (cioè scomposto in tanti bit formati dai soli numeri 0 e 1 in combinazione, così da risultarne più sicura e veloce l’inoltro e la ricezione) e spezzettato in tanti piccoli messaggi che, una volta inviati in tanti separati blocchi, fossero poi ricomposti, nel messaggio originario, solo una volta arrivato a destinazione;
3)      Creare, affinché tutto questo fosse possibile, un nuovo sistema di telecomunicazioni basato sulle nuove macchine di calcolo digitale, di cui alcune (i c.d. Interface Message Processor) esclusivamente dedicate alla gestione del traffico[7], in grado di applicare sistemi di correzione degli errori e scelta dei canali di comunicazione.
Breve storia sull’evoluzione d’internet
Queste, furono le idee creatrici dell’informatica, della telematica e della prima rete: il famoso progetto ARPA[8] che è del 1969-1970.
Dopo la risoluzione del problema della incomunicabilità fra le diverse tecnologie utilizzate dai computer (i vari host[9] terminali della rete) con la creazione di una nuova lingua, con proprie regole di sintassi e con soluzioni che consentirono ai vari host di comunicare da pari a pari attraverso la creazione di regole condivise, i c.d. ‘protocolli’ o NCP (Network Control Protocol);[10] la rete ha avuto una successiva ed accellerata espansione a seguito della creazione della c.d. posta elettronica o email. Quest’ultima, fu l’idea[11] che maggiormente ha consentito di incrementare l’aspetto comunicativo di internet e intorno alla quale[12] si è sviluppato un infinito interscambio di soluzioni (che fecero aumentare in misura esponenziale l’utilizzo della rete), nonché la nascita di diversi e numerosi programmi ad essa collegati; come i programmi per leggere i messaggi di posta e, conseguentemente, i software di sistema (allora tutti gratuiti). Interscambio che portò, inoltre, alla nascita di varie reti tra e nelle università americane, oltre che in Europa.
Dalla risoluzione del problema della comunicabilità tra le varie reti (perché dotate di tecnologie e protocolli diversi) nacque l’idea di un nuovo protocollo di comunicazione tra host denominato Transmission Control Protocol o  TCP[13] universalmente accettato sia dalle macchine che dagli uomini.
Questo formalizzava le regole di comunicazione, a differenza del NCP, implementando l’idea della comunicazione a pacchetti, rendendola però indipendente dalla struttura hardware utilizzata.
Siamo nel 1974 e, per la prima volta, si inizia a parlare di internet.
Conseguenza dell’aumento esponenziale degli host e delle informazioni strasmesse, fu la necessità di aumentare[14] sempre più i nodi e la velocità di trasmissione con cui i dati potevano essere instradati e, nel contempo, di dividere in due parti il protocollo TCP. Una parte, il vero e proprio TCP, con il compito di gestire, creare e controllare i pacchetti, mentre attraverso il protocollo IP si sarebbe gestito il solo instradamento dei dati.
Pochi anni dopo (1978 – ‘80) il TCP/IP sarebbe stato adottato ufficialmente come protocollo standard di tutte le reti sostituendo il protocollo NCP; era nato internet[15].
Ma la rete, come la conosciamo oggi, cioè quello strumento di massa che coinvolge quotidianamente decine e decine di milioni di persone in scambi comunicativi, scientifici, commerciali, tra privati e pubblici, è però il frutto di un’ulteriore mutazione che, agli inizi degli anni ’90[16], ha trasformato la rete, sino ad allora strumento a servizio di un ristretto gruppo sociale (i ricercatori universitari e gli esperti di informatica e i militari), in strumento alla portata di tutto il mondo[17].
Questo fu possibile grazie alla nascita dei c.d. software di indicizzazione [18]che, rendendo possibile cercare e trovare qualsiasi informazione grazie alla indicizzazione degli archivi e dei loro contenuti, sfocerà nella nascita del World Wide Web[19] che ha reso possibile e semplice utilizzare i servizi messi a disposizione dalla rete Internet, senza necessità di conoscere la complicata sintassi e i lunghi elenchi di indirizzi[20].
Nell’immediato futuro, di cui una parte è già in atto, già si parla di Internet2, Web 2 e Next Generation Internet, nonché di realizzare reti a banda larghissima in fibra ottica, cioè di incrementare la interconnessione tra l’hardware e il software, per sfruttare tutte le potenzialità e la commercializzazione dei servizi di rete avanzati (come le biblioteche digitali, il lavoro collaborativo, la telemedicina, il video on demand, la telepresenza e gli ambienti VR condivisi) che porteranno, come è avvenuto nel recente passato, anche ad una profonda ristrutturazione sia nell’architettura dei protocolli[21] sia nei software di gestione ecc..
Elementi e nozioni sul funzionamento di internet
Naturalmente il presente scritto è realizzato da un giurista per giuristi e di nozioni tecniche se ne fa un uso strettamente necessario.
Unica nozione tecnica necessaria, e strettamente legata al funzionamento del mercato virtuale, è relativa al modo in cui si accede ad ogni singolo servizio o bene messo a disposizione sulla rete da parte del singolo utilizzatore finale, per meglio comprenderne le implicazioni giuridiche e, soprattutto, per determinarne il momento impositivo..
Internet, come la sua storia ci insegna, può essere rappresentato sia come una enorme e complessa rete logica (o meglio l’insieme di tutte le reti[22] private, pubbliche ecc) di interconnessioni, sia come l’insieme delle strutture fisiche e collegamenti di vario tipo su cui quelle informazioni viaggiano e vengono prodotto ed elaborate. Materialmente, infatti, è formata da alcune centinaia di milioni di elaboratori, che sono legati tra loro da interconnessi che, contemporaneamente, interconnettono un agente umano o automatico ad un altro agente tramite, praticamente, qualsiasi tipo di computer o elaboratore elettronico oggi o in futuro esistente o immaginabile.
Ogni dispositivo connesso direttamente ad Internet si chiama host o end system mentre la struttura che collega i vari host si chiama link di comunicazione. Questi, possono dialogare tra loro grazie ad uno standar (o linguaggio o protocollo) unico ed universalmente riconosciuto ed accettato (sia che l’operatore sia una macchina o un essere umano) di comunicazione: il c.d. il TCP/IP. E’ proprio questo linguaggio unico che consente di scambiare informazioni a prescindere sia dal proprietario dei vari host (o dai computer utilizzati e dai vari software residenti) sia dal luogo in cui questi si trovano od operano sia dai vari linguaggi o strumenti di comunicazione. Tutto questo al fine di realizzare quell’universalità del linguaggio cui miravano i suoi ideatori.
Proprio per questo si è voluto dedicare un breve cenno alla storia di internet perché fosse più comprensibile l’importanza dei c.d. protocolli di comunicazione o TCP/IP [23] per l’esistenza stessa di internet e del perché se ne parla come di una rete in cui le informazioni viaggio in modo non lineare.[24]
Si tralascerà[25]di trattare, comunque, della complessa problematica sul funzionamento delle regole di sintassi del TCP/IP e di come praticamente avviene la trasmissione del messaggio a “pacchetti” ecc.. Basti ricordare che questo è possibile per il meccanismo, a livelli[26], in cui le informazioni viaggiano nella rete e che non è il caso qui di affrontare. 
L’utente finale, come sopra detto, può collegarsi alla rete, solo grazie all’utilizzo dei protocolli di comunicazione da parte dei softwaer presenti nel suo computer. Come ricordato in nota 21, questo linguaggio è strutturato e funziona a livelli gerarchici[27] .Quello terminale, il c.d. applicativo, ha la funzione di far si che le applicazioni e i servizi (che hanno ognuno un protocollo per essere individuati ed interagire) presenti in rete, entrino in contatto e/o vengono contattati direttamente dagli utenti finali.
L’utente finale o host, è individuato dal protocollo IP (o come sopra ricordato dal più recente DNS)[28] mediante un codice applicato ad ogni singolo computer che ha la stessa funzione dell’indirizzo per la ricezione della posta tradizionale, mentre lo scambio finale fra il computer e la rete avviene, funzionalmente, attraverso il c.d. meccanismo client/server[29].
Il funzionamento è abbastanza semplice.
Quando l’utente deve utilizzare internet[30], necessita di un programma (il client,che altro non è, per l’appunto, che un software residente nel suo computer) che utilizzando un protocollo specifico (c.d. applicativo, stante la sua funzione principale di tradurre ed elaborare i dati), faciliti la sua ricerca e si occupi di andare (connettersi) a trovare, su internet, l’informazione desiderata. Per la vastità della rete, questo deve avvenire in sinergia con il server (altro programma istallato, di solito[31], su altro computer, di cui il client conosce l’IP ed è dotato di protocollo per interagire con quello[32]) che ha, per l’appunto, il compito d’archiviare e inviare, a richiesta, dei dati al client che li ha richiesti, una volta soddisfatte alcune condizioni[33].
Diversi e specifici sono i protocolli delle applicazioni.[34] Su internet ne troviamo per ogni servizio: uno per il sevizio email o di posta elettronica, il c.d. Simple Mail Transfer Protocol (SMTP); un altro, il c.d. File Transfer Protocol (FTP) viene invece utilizzato per il trasferimento di file tra host e il protocollo su cui si basa WWW[35]
Praticamente (vedi nota 30) perché il singolo computer possa collegarsi ad internet, necessita di apparati che gli consentano di collegarsi fisicamente alla rete che altro non è, quindi, che una infrastruttura di apparati e sistemi a sua volta suddivisa in altri sottosistemi. Il singolo computer, di solito già collegato ad uno di questi sottostimi o rete locale (la c.d. LAN[36]), necessita poi di un gateway [37]per collegarsi alla vera e propria rete. Naturalmente, tutti questi collegamenti potranno avvenire solo a mezzo dei vari protocolli.
L’utenza, qualunque, che vuole accedere ad Internet mediante l’uso di un computer, necessita (attraverso i dialoghi mediati dai protocolli e, quindi, attraverso l’invio e la ricezione dei pacchetti di informazioni) della connessione ad uno dei tanti fornitore di servizi o Internet Service Provider o ISP[38] che, a sua volta, sono connessi ad ISP di livello superiore.
Come già più volte detto, è proprio per essere una “complessa interconnessione senza centro alcuno” che internet viene anche definita come una ragnatela. Come questa, infatti, è composta da un’ossatura molto veloce e potente a cui si connettono sottoreti, le c.d. intranet a volte più deboli (ma protetti da firewall) e lente che consentono però anch’esse l’accesso a Internet (e viceversa) anche se solo in maniera condizionata.
I punti in cui si intersecano queste varie autostrade dell’informazioni sono i vari nodi di internet (i punti critici, voluti dai suoi creatori a mò di cellula terroristica[39] che, peraltro, sono tra loro e a loro volta collegati e in modi diversi, affinché la perdita di un nodo non comporta la perdita di tutti i nodi) attraverso cui e secondo la disponibilità di quel momento, consentono a tutte le informazioni (sotto la forma di pacchetti dati) di raggiungere la destinazione.
Il World Wide Web
Nella recente storia di internet la creazione che, secondo molti studiosi, più di ogni altra ne ha consentito la sua evoluzione in quello che è oggi, è stata la nascita del World Wide Web che ha consentito un accesso universale, immediato e facile all’immensa mole di informazioni che transitano sulla rete.
Per comprendere, da giuristi, perché questa applicazione della rete, che è nata come semplice piattaforma applicativa, è diventata l’ambiente in cui oggi viene sviluppato la maggior parte del software, evolvendosi da semplice piattaforma di editoria distribuita a fornitura di servizi avanzati[40], tanto da venire spesso confusa con internet stesso, sarà necessario e in estrema sintesi analizzarne funzionamento e figure principali.
Come ho ricordato in nota 19, l’idea ispiratrice della creazione di T. B. Lee e di R. Cailliau era la realizzazione di un sistema ipertestuale che facilitasse la condivisione delle informazioni e fosse universalmente accettato. Idea realizzata attraverso l’uso di nuovi protocolli (l’http) che, con l’ausilio di nuovi browser e server (creati attraverso un programma di browser/editor dedicato, anch’esso denominato W.W.W.), sono capaci di realizzare un’interfaccia a caratteri facilmente portabile su altre architetture così da rendere agevole la diffusione delle informazioni su internet .
Questo è stato reso possibile anche grazie alla possibilità di utilizzare, contemporaneamente, in uno stesso messaggio comunicativo, più media[41] e/o linguaggi. Rivoluzione resa possibile dalla semplificazione propria dell’informatica (che come sopra ricordato traduce ogni informazioni per poter viaggiare sulla rete in semplici sequenze di 0 ed 1) che consente di immagazzinare in un unico documento[42] (il c.d. ipertesto[43]) tutti i possibili linguaggi creati dall’umanità per trasmettere informazioni. Tale semplificazione ha consentito di poter facilmente archiviare, sui vari host (individuati da link che funzionano come gli indirizzi della posta tradizionale), ogni tipo di ipertesto, così da essere sempre a disposizione (attraverso gli infiniti documenti e collegamenti ipertestuali) della rete. Tali collegamenti ipertestuali sono ormai confusi con internet stesso.
In buona sostanza, ricordando come funziona internet e in breve nei capitoli sopra accennato, quando si “clicca” su uno di questi link, si può accedere ad un documento qualunque sia la sua natura e forma (ipertesto) che può trovarsi in un archivio di uno qualsiasi degli host collegati alla rete[44].
Proprio perché piattaforma applicativa di internet[45], esemplificando e senza scendere nei dettagli tecnici, il W.W.W. funziona (per come sopra descritto nel paragrafo sul meccanismo di funzionamento di internet) secondo il meccanismo o protocollo di comunicazione client/server. Dove il client web (c.d. browse o user agent) è lo strumento che consente di interfacciare l’utente al sistema web, secondo i meccanismi sopra esaminati per internet, mentre il server web (c.d. server HTPP, proprio per il tipo di protocollo usato) si occupa della gestione, reperimento e invio dei documenti richiesti dal client.
Per quanto a noi interessa, da giuristi e per il tema del presente saggio, ricordiamo che grazie alla presenza di un unico meccanismo, che consente di identificare e localizzare i vari infiniti documenti e/o informazioni nei vari ed infiniti host, attraverso i vari ed infiniti nodi interconnessi (perché unica è la tecnologia, il c.d. protocollo universale di identificazione o URL[46]) e agl’alti regimi di sicurezza ed affidabilità (sviluppatisi contemporaneamente alla sua rapida evoluzione[47]in strumento efficace per fornitura di servizi ed applicazioni avanzate) il WWW è diventato, in internet , lo strumento principale utilizzato dal variegato mondo dell’impresa[48] e di tutti gli user in generale.
Questo ha fatto nascere, collegati o meno con i semplici provider, anche nuove figure imprenditoriali per la fornitura sia di servizi di connessione ad internet (hosting[49], housing[50], e servizi connessi) sia creatori (o sviluppatori , come generalmente vengono definiti) di siti web o siti internet (spesso abbreviati in siti che altro non sono, per come sopra detto, che un insieme di pagine web, ovvero una struttura ipertestuale di documenti accessibili con un browser tramite il World Wide Web sulla rete Internet) e di web server[51] (che è un programma e, per estensione, il computer che lo contiene, che si occupa di fornire, su richiesta del browser, una pagina web implementando, attraverso una soluzione standardizzata, l’integrazione tra le varie applicazioni distribuite sia in ambiente internet che intranet). Naturalmente, tutte queste figure, come già sopra accennato, possono essere presenti in un’unica impresa che, per lo più, sono delle multinazionali.
Da quanto appena esposto, appare chiaro, quindi, che mentre il semplice utilizzatore della rete ha bisogno solo di un accesso, messo a disposizione del provider e fin ad oggi senza alcun costo per i collegamenti normali (tranne quelli dovuti per l’utilizzo della rete di comunicazione, il più delle volte di proprietà di altri), chi è proprietario o possessore di un sito web, invece, può aver bisogno di acquisire spazio per le proprie pagine web (c.d. hosting) sia attraverso la fruizione dello spazio di memoria del server del provider sia attraverso l’utilizzo dell’infrastruttura di telecomunicazione del provider stesso o di vedere ospitato (c.d. housing) materialmente e fisicamente il proprio server, presso un provider, con l’ulteriore possibilità anche di mettere a disposizione le risorse di hardware o softwaer del provider stesso.
 
                                                                           Avv. Francesco Molinari
                                                                                                                                       molinarifrancesco@tiscali.it
 
                                                                                                                                        


[1]           https://www.diritto.it/art.php?file=/archivio/24490.html – https://www.diritto.it/art.php?file=/archivio/24990.html                                                                                                                                                           
[2]             Per tutte vedasi S. Cipollina “ I confini giuridici nel tempo presente” , pp.2-35 , edito da Giuffrè 2003
[3]          Uno dei c.d. padri di Internet è certamente J.C.R. Licklider. Psicologo del MIT che appunto, tra i primi, ha studio l’interfacciabilità tra uomo e computer nel famoso libro del 1960 Man-Computer Symbiosis ed è stato, forse il primo ad aver avuto l’idea di una rete mondiale di computer ed ipotizzo la nascita, a seguito della possibile interattività comunicativa a mezzo computer, di una vera e propria comunità in cui poter condividere le idee.
[4]          Mentre i primi ricevevamo e comprendevano (unico modo per gli uomini di relazionasi con essi) solo le istruzioni operative proprie del linguaggio macchina (basato su 0 e 1 che altro non sono che la rappresentazione numerica o in sistema binario, dell’assenza o presenza degli impulsi elettrici o bit) e, per questo definiti, non evoluti, nel tempo si creavano di pari passo con le rinnovate potenzialità di calcolo e memoria delle macchine che ampliavano le loro capacità di elaborare informazioni, dei nuovi linguaggi a codifica simbolica ed orientati al problema che la macchina deve risolvere e per questo definiti evoluti.
[5]           Con lo scopo, non nascosto, di sfruttarne le ricadute in campo militare da gestire da parte delle neonate agenzie governative ARPA e, successivamente, NASA. vedi: DI NARDO N., ZOCCHI DELTRECCO A.M., Internet. Storia, Tecnologia,Sociologia UTET, Torino, 1999.
[6]              Idee, frutto delle geniali intuizioni di Paul Barand e Donald Davis, altri padri di internet che , per primi, teorizzarono la comunicazione a packet switching ( o a commutazione di pacchetto) su cui far viaggiare il cosidettò packet ( o messaggio a pacchetto) a differenze dei tradizionali canali telefonici o a onde radio.
[7]             Fu W. Clarck che ebbe l’idea di dedicare solo alcuni computer (I.M.P.) alla gestione del traffico a cui poi i vari host di elaborazione si sarebbero collegati invece che collegare direttamente tutti i computer in serie.
[8]              La prima vera rete fu la c.d. ARPANET, costituita da due soli nodi connessi con una linea dedicata a 50 Kbps.
[9]          Che non vanno confusi con i singoli computer utilizzati dagli utenti finali.
[10]          il primo protocollo applicativo vero e proprio, dedicato al trasferimento di file da un host all’altro, fu il File Transfer Protocol o FTP. Al gruppo creato da S. Crocker si deve la nascita del documento c.d. RFC (o Request for Comment), cioè della prima elencazione dei requisiti tecnici necessari per la comunicazione tra host ed ancora oggi in uso per siglare le specifiche tecniche ufficiali di internet.
[11]         Fu R. Tomlinson che, per primo, invento il famoso simbolo @ per separare il nome dell’utente da quello della macchina che , successivamente (anni ’80) grazie a J. Postel, e alla sua idea di un nuovo protocollo, il S.M.T.P (o Simple Mail Transfer Protocol), si avvia a soppiantare del tutto il tradizionale sistema postale.
[12]          Nonché i giochi di simulazione.
[13]         Idea che ha visto tra i progenitori B.Kahn e Cerf e che aveva come idea base la creazione dei c.d. gateway, cioè degli elaboratori che dovevano fare da raccordo tra reti diverse.
[14]          Si passò da gli originari 2 nodi e una linea dedicata di 50 Kbps della vecchia ARPA ad un periodo in cui vi erano diverse reti di ricerca nazionali e locali, prevalentemente dei paesi occidentali e con i più disperati sistemi tecnologici di trasmissione dati (rete telefoniche,via satellite ecc), ad una rete, la NSFnet, con 1,544 Mbps utilizzata da oltre 100 mila host. La nascita di internet si fa risalire, convenzionalmente, al 1989; anno in cui cessò di esistere la rete ARPAnet.
[15]         Anche se fu necessario l’ulteriore miglioramento dei sistemi di instradamento dei dati. Questo avvenne verso la metà degli anni ’80 quando la comunità, partendo da un’idea di P. Mockapetris, J. Postel e C. Partridge che misero a punto un nuovo sistema per individuare i nodi della rete più facile rispetto agli indirizzi numerici del protocollo IP, adottarono il protocollo D.N.S. (o Domain Name System); l’ultimo vero tassello dell’internet attuale. Sistema di indirizzamento simbolico nato per facilitare l’impiego della rete da parte degli utenti e che ha la stessa funzione di una agenda telefonica.
[16]         Nel 1995 la rete NSFnet, gestita da una agenzia federale, era stata definitivamente chiusa e ceduta a un gestore privato mentre, nel frattempo, le multinazionali delle telecomunicazioni avevano già iniziato a vendere connettività Internet per conto proprio, anche se, nel 1992, il controllo tecnico della rete era stato affidato alla Internet Society, una organizzazione no profit.
[17]         Questo grazie alla nascita di nuove applicazioni decisamente più accessibili che sfruttando tutte le potenzialità sino ad allora teorizzate della rete, la misero a disposizione di tutti. Per farla diventare strumento di libertà e conoscenza.
[18]             Tutti programmi aperti e liberi nati in ambiente universitario. Il primo fu il programma Archie, a cui seguirono il WAIS, il Gopher e il più famoso Veronica
[19]             Nato nel CERN di Ginevra dal lavoro del fisico T. Berners Lee e di Robert Cailliau che, sull’idea di realizzare un sistema ipertestuale per facilitare la condivisione di informazioni tra gruppi di ricerca, realizzarono, attraverso il un nuovo protocollo, l’http, che presupponeva il concetto di browser , di server e un programma di browser/editor Web, anch’esso denominato W.W.W., che altro non era che un’interfaccia a caratteri facilmente portabile su altre architetture battezzato Line Mode Browser, così da garantire la diffusione delle informazioni su Internet.
[20]         Questo grazie sia al lavoro di Pei Wei, che ideò Viola (il primo broswer che tentò di rendere meno ostica l’interfaccia e, soprattutto, al lavoro di Marc Andreessen e Eric Bina che idearono e svilupparono un browser web grafico denominato Mosaic e il suo succedaneo e successivo Netscape Communication., in grado di consentire la formazione di internet in uno spazio informativo ipermediale aperto ed alla portata di chiunque con il minimo sforzo.
[21]             In quest’ottica si sta realizzando una nuova versione del protocollo IP, battezzata IP version 6 (Ipv6) che utilizzerà uno schema a 128 bit per sfruttare al massimo le nuove potenzialità dei chip. Questa innovazione garantirà un impressionante incremento della disponibilità di indirizzi, attualmente in fase di esaurimento nonché la sperimentazione di nuove tecniche di trasmissione in multicasting che, a differenza delle attuali modalità di funzionamento del protocollo di trasferimento dati, basato su connessioni punto-punto per ogni singola trasmissione, permetterà di stabilire connessioni uno-molti.
[22]   Per questo viene definita la “ ..rete delle reti..”
[23]         che non si occupa direttamente della gestione dell’infrastruttura hardware della rete, tant’è che ne è indipendente, perché altro non è che un nuova lingua formata da una sintassi il cui unico fine è consentire a macchine diverse di dialogare e capirsi. Con la regola fondamentale che i vari protocolli oltre che svolgere, ognuno, un compito diverso e specifico, sono organizzati (proprio perchè regole di sintassi che dovevano inquadrasi nel mondo delle macchine che hanno un linguaggio semplice fatto solo da 0 e 1) in forma gerarchica; i c.d. protocolli a strati. Regole e sintassi che, per garantirne l’universale accettazione, sono state concepite, e continuano ad esserlo, come liberamente utilizzabili.
[24]            La c.d. trasmissione a pacchetti.
[25]          Nozioni esposte in modo molto chiaro e comprensibile anche ai non tecnici, possono essere reperite su (Laterza, Ed. Ebook – Ita – Informatica) AAVV – Manuale Di Internet 2004.
[26]         In pratica un pacchetto che parte da un host attraversa, e secondo uno schema non determininistico ma probabilistico, i diversi strati protocollari che aggiungono informazioni al pacchetto. Quando questo raggiunge la destinazione, avviene uno spacchettamento inverso e ogni livello legge le sue informazioni.
[27]          Nel senso che ogni informazione deve necessariamente passere da un livello inferiore a quello successivo per gradi.
[28]          (Laterza, Ed. Ebook – Ita – Informatica) AAVV – Manuale Di Internet 2004, “…Quando un host (sollecitato da un utente o da una applicazione) deve collegarsi a un altro host che ha un determinato nome simbolico, ad esempio crilet.scu.uniroma1.it, chiede al proprio name server locale di tradurre il nome simbolico nel corrispondente indirizzo numerico. Il name server locale va a vedere nella sua tabella se ha l’informazione richiesta. In caso positivo risponde all’host che lo ha interpellato, fornendo il corrispondente indirizzo numerico; altrimenti chiede a un altro name server (detto name server di primo livello). La scelta di questo ‘super-aiutante’ è determinata dal dominio di primo livello dell’indirizzo da risolvere (‘it’, nel nostro caso). I name server di primo livello vengono detti authoritative name server. Essi possono sia rispondere direttamente, sia dirottare la richiesta a degli altri name server (questa volta di secondo livello). Il processo può continuare per vari sottolivelli, finché non viene risolto per intero l’indirizzo dell’host cercato.)
[29]             (Laterza, Ed. Ebook – Ita – Informatica) AAVV – Manuale Di Internet 2004, “..formula con cui si indica in generale una applicazione informatica che è costituita da due moduli interagenti ma distinti, che collaborano tra loro per eseguire un certo compito richiesto dall’utente.”
[30]          E un terminale (la macchina che ognuno di noi materialmente utilizza) può collegarsi alla rete solo attraverso una infrastruttura fisica di collegamento dotata dei relativi dispositivi e dell’installazione e della configurazione dei software che implementano i protocolli TCP/IP, nonché installando e configurando dei software client/server necessari per i servizi di rete a cui si desidera accedere o che si intende fornire
[31]          Nel caso dei computer che ospitano i programmi server troviamo entrambi i programmi in un’unica macchina.
[32]          In buona sostanza entrambi i programmi devo parlare la stessa lingua per capirsi.
[33]          autorizzazione all’accesso, correttezza sintattica del messaggio, ecc.
[34]          che mantengono, però, in comune la necessità (stante il funzionamento dei protocolli di comunicazione sopra ricordato) di utilizzare i protocolli di rete TCP/IP e DNS per poter scambiare le richieste e informazioni varie attraverso la rete.
[35]          Il c.d. Hyper-Text Transfer Protocol o HTTP.
[36]             identifica una rete costituita da computer collegati tra loro (comprese le interconnessioni e le periferiche condivise) all’interno di un ambito fisico delimitato (ad esempio in una stanza o in un edificio, o anche in più edifici vicini tra di loro) che non superi la distanza di qualche chilometro.
[37]         http://it.wikipedia.org/wiki/Gateway : dispositivo di rete che ha lo scopo principale di veicolare i pacchetti di rete all’esterno della rete locale (LAN). Da notare che gateway è un termine generico che indica il servizio di inoltro dei pacchetti verso l’esterno; il dispositivo hardware che porterà a termine questo compito è tipicamente un router. Nel caso di sottoreti, sarà uno specifico computer a svolgere queste funzioni.
[38]         Detto comunemente in gergo provider ovvero fornitore d’accesso a internet di cui ne sono i c.d. nodi contribuendone a formare la c.d. dorsale d’accesso. Un Internet Service Provider è, in pratica, una struttura (ormai commerciale) che offre agli utenti (residenziali o imprese) accesso a Internet con l’aggiunta di servizi anche diversi dal semplice accesso. ISP sono la maggior parte degli operatori di telecomunicazioni che forniscono, per l’appunto, oltre all’accesso alla rete, anche servizi come registrazione e manutenzione di dominio, hosting di pagine web, caselle di posta elettronica, accesso dial-up, ecc.
[39]          E in questo risente della sua progenie militaristica ed è il significato di ridondante.
[40]            L’evoluzione, quale recente prodotto del consorzio W3C, fondato dal creatore del W.W.W. per armonizzare e implementare le possibilità dell’applicazione verso un linguaggio universalmente riconosciuto, è la nascita del c.d. Web Semantico. Attraverso tale strumento si vuole trasformare il World Wide Web in un ambiente dove i documenti pubblicati (le pagine HTML, file, immagini, e così via) siano associati ad informazioni e dati (metadati) che ne specifichino il contesto semantico in un formato adatto all’interrogazione, all’interpretazione e, più in generale, all’elaborazione automatica, consentendo, quindi, ricerche molto più evolute delle attuali perchè basate sulla presenza nel documento di parole chiave, ed altre operazioni specialistiche come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice link ipertestuale.
[41]            Perciò detto multimediale, che i più intendono come la compresenza e interazione di più mezzi di comunicazione in uno stesso supporto informativo.
[42]          Che, dal punto di vista dell’utilizzatore finale, è la pagine web che consulta. L’insieme di tali pagine, riconducibili ad un unico responsabile editoriale, formano i c.d. siti web.
[43]             Con ipertesto, semplificando, si intende la interconnessione in un unico documento di infiniti associazioni con altri documenti riprodotti con i linguaggi (video, suoni ecc) i più vari. Il suo funzionamento non è altro che il funzionamento di internet. Infatti le interconnessioni, all’interno del documento, con gli altri documenti o unità informative ( detti nodi) ed in esso presenti, avviene attraverso un insieme di collegamenti detti link che consentono di passare da un documento all’altro.
[44]          Il cyberspazio informativo
[45]          E, a differenza delle altre applicazioni presente su internet, come email ecc., in W.W.W. sono presenti e contemporaneamente, oltre ai protocolli applicativi, di cui nei capitoli precedenti si sono forniti, in estrema sintesi il funzionamento, anche dei formati specifici o metalinguaggi ( il famoso HTML e il più recente XML) necessari per codificare i documenti che vi vengono immessi e distribuiti e consentire l’inserimento degl’altri riferimenti ipertestuali come immagini ( in formato JPEG o PNG ecc) o filmati (AVI, DIVX ecc) ecc.
 
[46]             Perché è l’unica URI effettivamente utilizzata ed accettata dall’universo internet. In studio vi è una forma (c.d. URN) di identificazione universale che esprima il nome dell’oggetto indipendentemente dalla sua collocazione fisica a differenza dell’URL che, invece, individua la sua collocazione reale nella rete.
[47]          Dovuta, essenzialmente, alla diffusione ed evoluzione dei linguaggi di script ( come HTML, XML, OLE e il recente .NET e JAVA) e alla evoluzione della distribuzione di informazione multimediale dalla modalità asincrona (funzionamento normale del web) alla sincrona ( è il funzionamento dei protocolli in streaming). 
[48]          Sono tutte quelle applicazioni Web complesse ( e-government, e-commerce,B2C ecc.) che utilizzando diverse tecnologie, riescono a gestire contenuti e ad integrare sistemi software eterogenei ed applicazioni Web molteplici,attraverso i c.d. Web service.
[49]            che consiste nell’ospitare su un server web (definito host) le pagine di un sito web così da renderlo accessibile dalla rete. Host connesso a internet in modalità idonea a garantire l’accesso alle pagine del sito mediante browser e con identificazione dei contenuti tramite dominio ed indirizzo IP.
[50]            consiste nella concessione in locazione ad un utente di un intero server connesso a internet generalmente ospitati (a pagamento) in webfarm in cui si garantisce un’attenta gestione degli aspetti hardware, software ed infrastrutturali. Le aziende ricorrono all’housing per applicazioni di rete critiche per le quali occorrerebbero infrastrutture autonome troppo costose. Con il termine webfarm si identifica un insieme di server web, spesso interconnessi, collegati ad un gateway comune che si trovano nello stesso luogo, di proprietà di un’unica azienda o provider e di solito controllati da un amministratore capo, chiamato anche "senior administrator", e dal suo gruppo di lavoro, che hanno la responsabilità del corretto funzionamento della farm, anche in termini di sicurezza informatica e generale.
 
[51]         L’insieme di web server presenti su Internet forma il WWW. Normalmente un web server risiede su sistemi dedicati ma può essere eseguito su computer ove risiedano altri server o che vengano utilizzati anche per altri scopi. Per esempio si può installare un web server su un normale personal computer allo scopo di provare il proprio sito web, ricordandosi, però, che un server è una componente informatica che fornisce servizi ad altre componenti (tipicamente chiamate client) attraverso una rete. Si noti che il termine server, così come pure il termine client, possono essere riferiti sia alla componente software che alla componente hardware. Pertanto è comune riferirsi ad un computer di alte prestazioni ed alta affidabilità dedicato primariamente a fornire servizi chiamandolo server. È altrettanto comune usare lo stesso termine per riferirsi ad un processo (ovvero un programma software in esecuzione) che fornisca servizi ad altri processi (es. Server FTP). Da http://it.wikipedia.org/wiki/Server
 

Molinari Francesco

Scrivi un commento

Accedi per poter inserire un commento