WEB (1) : F. A. Q. Frequently Asked Questions about the network

Dossier : InternetMagazine N°524 Avril 1997
Par Raynald de LAHONDÉS (93)
Par Pierre GUERRIER (93)

Le réseau est un être à deux visages : le premier se veut résolument souriant, commercialement attractif, se pare de multimédia, et veut vous ouvrir une fenêtre sur le monde depuis votre ordinateur. Derrière cette rassurante façade se cache la réalité technique du réseau, sa genèse américaine et son allure composite. FAQ est l’acronyme de “ frequently asked questions ”, expression du jargon Internet que l’on peut traduire par “ foire aux questions ” : mais c’est plutôt un recueil de réponses, à l’usage des débutants…

Que trouve-t-on sur le réseau?

On trouve le monde entier sur Internet. Dans n’importe quel groupe social, il se trouve toujours quelqu’un qui a des notions d’informatique et qui veut créer une page Web, ce qui est une opération très simple. Toutes les grandes entreprises – pas seulement du secteur informatique, mais maintenant de tous horizons – sont présentes sur le réseau. Toutes les universités y sont aussi, et par suite, beaucoup d’étudiants ont une page personnelle. Il y a donc vraiment de tout sur le réseau… Certaines institutions mettent à disposition des serveurs (ou “ moteurs ”) de recherche qui sont capables de trouver des informations sur tout sujet donné. En essayant ce genre de systèmes (par exemple Alta-Vista de Digital Equipment), on risque d’être immédiatement submergé par le nombre de références renvoyées si la requête n’était pas excessivement précise. Il faut donc s’armer de patience pour condenser l’information en un volume acceptable, plus que pour la retrouver : c’est aujourd’hui un des griefs majeurs contre le réseau.

Parmi les serveurs les plus spectaculaires, mentionnons ceux des agences de presses, avec leurs archives photographiques, celui du Louvre où l’on pourra trouver de bonnes images digitalisées de pratiquement toutes les oeuvres exposées. Le serveur du Vatican offre lui aussi le même genre de prestation : on y trouve des reproductions des trésors artistiques de l’Église (fresques, manuscrits, codex…). Il existe même un projet anglais de bibliothèque universelle sur réseau dans laquelle on pourrait trouver tous les livres du monde dans toutes les langues du monde…

Mais on peut se demander si ces serveurs offrent réellement quelque chose de plus que les documents papier que l’on pourrait trouver dans une bibliothèque ? Fondamentalement, non, mais leurs avantages aujourd’hui marginaux seront peut-être un jour considérés comme des commodités indispensables (pas besoin de se déplacer, accès élargi à des copies d’ouvrages rares ou fragiles, pas de délais d’échanges entre bibliothèques, automatisation de la recherche du renseignement…).

À quel réseau physique correspond Internet?

La légende (apocryphe, mais bien ancrée) veut que la première ébauche du réseau, reliant des bases et des sites gouvernementaux américains, ait eu pour objectif de résister à une hypothétique attaque nucléaire. Donc ses lignes étaient “ durcies ”, par exemple enterrées profondément sous terre, et le protocole de transfert, TCP/IP, était conçu pour une “ tolérance aux fautes ” maximale. La vérité est qu’il a été créé vers 1970 par le département de Recherche de l’armée américaine, la Darpa, pour l’échange d’informations entre ses laboratoires disposant de matériels incompatibles entre eux. La vocation d’Internet a donc toujours été scientifique, et le but de son protocole, l’interopérabilité totale.

Mais Internet est actuellement dans le plus grand désordre… Sur le réseau initial de la Défense (baptisé Arpanet, utilisant ses propres fibres optiques) sont venus se greffer les réseaux des universités, qui se sont par la suite recâblées entre elles (réseau NSFnet, également optique et dédié (2)). Les entreprises du secteur informatique ont suivi, avec leurs réseaux de clients (comme le Bitnet d’IBM, service offert aux utilisateurs de ses grands systèmes) et certaines, telle CompuServe, vendent aux particuliers des passerelles téléphoniques vers l’Internet (les nouveaux raccordements se font ainsi par des canaux loués aux opérateurs de télécommunications ou bien construits spécialement). C’est là l’origine du mot Inter-Net : il s’agit d’un réseau de sous-réseaux.

Jusqu’ici, tout ceci a fonctionné sur la base de la gratuité du passage des informations de tous par tous les noeuds du réseau, et la croissance se faisait par adjonction de nouveaux noeuds au réseau, aux frais de leurs propriétaires respectifs. Les “ épines dorsales ” (3) sont restées sous des autorités institutionnelles nationales.

Or devant la menace d’engorgement de ces liaisons, la volonté actuelle est de faire appel à des capitaux privés pour les faire renforcer. Mais ces liaisons privées ne seraient alors plus gratuites, ce qui soulèverait le problème de la facturation des transferts : on ne sait guère sur quels critères se baser (distance, volume, urgence ?) et encore moins comment obtenir le paiement par un Australien d’un droit pour que ses informations allant vers la Hongrie passent sur un câble privé entre l’Angleterre et le Danemark (surtout que les informations étant, on le verra, découpées en nombreux petits paquets, il faudrait comptabiliser tous les itinéraires, en général différents, de ces paquets). Les principes juridiques et techniques, qui permettront de résoudre ces problèmes, sont encore en gestation.

Quel dénominateur commun?
Le protocole TCP/IP

TCP/IP : voici le nom de l’algorithme d’échange d’information qui est utilisé, par définition, par toute machine connectée à l’Internet ou à un Intranet. Il spécifie la manière dont les machines du réseau se passent le relais, en l’occurrence les données, du point de départ au point d’arrivée.

Le protocole TCP/IP a une caractéristique essentielle : il est complètement modulaire et portable (4). C’est-à-dire qu’il ne dépend ni du mode physique de transmission (câble cuivre, fibre optique, liaison téléphonique, faisceau hertzien, satellite, etc.), ni de l’application que l’on souhaite en faire (courrier, Web, vidéo…), ni du type de machine : un petit programme peut implanter TCP/IP sur n’importe quelle architecture. De fait, tous les ordinateurs existant aujourd’hui, du “ terminal idiot ” au supercalculateur, savent “ parler ” le TCP/IP. Les applications de l’utilisateur, par exemple le logiciel Netscape, forment une “ surcouche ” qui s’appuie sur TCP/IP pour faire abstraction des particularités de la machine et de la façon dont elle est raccordée au réseau.

Ce protocole a pu jusqu’à présent relativement bien supporter l’énorme élargissement d’Internet, mais il commence à montrer des lacunes, en particulier en ce qui concerne la transmission téléphonique ou de télévision par le réseau : TCP/IP coupe l’information en “ paquets ”. Ainsi, par exemple, il envoie d’abord des données vers un routeur (5) X, qui peut être trop occupé pour accepter les paquets suivants. Ils seront alors envoyés vers un routeur de rechange Y : à la manière d’un liquide percolant dans un milieu poreux, tout se répartit dans un grand flux à travers le réseau, sans garantir que l’ordre d’émission des paquets sera conservé à la réception, ni même que le transit prendra moins de n étapes. L’information reste inutilisable tant qu’elle n’a pas été réordonnée et vérifiée par son destinataire.

Les liaisons “ temps réel ” ou “ interactives ” sont difficiles avec un tel protocole : aussi, les gadgets de diffusion audiovisuelle ou de “ téléphonie gratuite ” par Internet souffrent d’une qualité très médiocre. De plus leur utilisation est peu civique, car ils consomment beaucoup plus de bande passante, saturant le réseau, là où un message écrit de quelques lignes (relayable sans contrainte de temps) aurait suffi. De nouveaux protocoles, qui permettraient ces applications tout en économisant la bande passante, sont à l’étude.

Car la bande passante est bien le principal problème à l’heure actuelle : transmettre des images animées, même fortement comprimées (c’est-à-dire, dont on a extrait la seule portion utile) en temps réel est difficile, même à l’intérieur d’un bon réseau d’entreprise. Avoir des liaisons vidéo de bonne qualité par Internet est aujourd’hui impossible, surtout si beaucoup d’utilisateurs s’y essaient…

Quelles causes et quels remèdes à la lenteur du réseau?

Tous les utilisateurs du réseau s’en plaignent : il est trop lent ! Les professionnels et les scientifiques, qui pourtant disposent de liaisons à plusieurs mégabits par seconde sur leurs machines, piétinent à quelques kilobits par seconde dès lors qu’ils veulent effectuer un transfert transatlantique aux heures de bureau. La raison de ce gâchis est le succès même d’Internet : les grandes artères sont tout simplement saturées.

Mais ces utilisateurs sont des privilégiés : ils ont au moins de bons débits vers leurs voisins immédiats. Tel n’est pas le cas des particuliers qui utilisent des modems pour se connecter au réseau : les plus rapides atteignent 56 kbit/s (6). Charger une page avec des images statiques est déjà pour le simple particulier à la limite du supportable tant cela est lent, alors même que les fournisseurs de contenu, qui testent rarement leurs services en conditions réalistes, se livrent à une débauche de logos animés et autres gadgets inutiles… Il y a là un décalage inquiétant entre l’offre et la demande.

Aucune des nouvelles applications envisagées d’Internet ne pourra réellement décoller tant que le problème du débit de la “ boucle locale ” (le fil de cuivre qui aboutit chez les particuliers) ne sera pas résolu. Plusieurs groupes d’intérêts poussent leurs solutions, citons-en deux : – née chez AT&T, une technologie baptisée “ ADSL ” (une puce nécessitant autant de transistors qu’un pentium (7)) comprime les données et optimise la modulation jusqu’aux limites physiques du câble en cuivre, permettant aux boucles locales urbaines actuelles de supporter plusieurs mégabits par seconde – suffisamment pour diffuser une image de TVHD ! Il faut une puce à chaque extrémité du câble. C’est la solution des opérateurs de téléphonie ; – les opérateurs de télévision par câble proposent eux des débits comparables par la méthode inverse : ils réallouent aux données numériques des canaux de leurs fibres optiques, initialement conçues pour des images analogiques. Le procédé concerne tous les quartiers câblés moyennant un changement des répéteurs (et l’achat par l’usager d’une “ boîte ” d’un coût comparable à l’ADSL). On évite là aussi d’étendre le chantier jusqu’à chaque foyer.

Dans les deux cas, l’évolution s’accompagnera d’une explosion du flux d’information transitant entre les centraux (téléphoniques ou télévision), par les épines dorsales, dont on a déjà dit qu’elles étaient saturées ! Il faudra donc augmenter fortement la capacité de ces interconnexions…

Les entreprises et le réseau

Pourquoi une entreprise s’installerait- elle sur le réseau ? Outre le fait de montrer à peu de frais aux esprits sensibles aux modes qu’elle est à la pointe de la modernité, elle offre à d’autres entreprises la possibilité de mieux la connaître, et par exemple de consulter un catalogue de ses produits. En effet, les entreprises auront vraisemblablement des connexions plus évoluées que celles des particuliers (Numéris, liaison directe par fibre optique) et seront les principaux utilisateurs des autoroutes de l’information. Enfin, Internet offre des liaisons entre les sites éparpillés d’un même groupe, permettant une meilleure communication interne à un coût plus faible : c’est le concept d’Intranet, ou réseau d’entreprise à grande échelle réutilisant les technologies Internet.

ADRESSES DES SERVEURS CITÉS

Ces adresses sont à compléter dans la partie “ Emplacement ” (“ Location ” sur un navigateur anglais) de votre navigateur.
• Alta Vista, version française :
http://www.altavista.telia.com/cgi-bin/telia?country=fr&lang=fr
• Agence Reuters : http://www.reuters.com/
• WebLouvre : http://sunsite.unam.mx/louvre/louvre.htm
• Vatican : http://sunsite.unc.edu/expo/vatican.exhibit/exhibit/Main_Hall.html
• Projet Gutenberg :
http://www.vuw.ac.nz/non-local/gutenberg/home.html

D’entreprise à particulier, les perspectives du “ téléachat” sont moins enthousiasmantes, à cause de problèmes techniques et commerciaux. Tout d’abord la question de la bande passante, qui va rebuter nombre de clients potentiels. Ensuite l’absence de système de paiement sécurisé. Enfin et surtout, le manque d’intérêt des utilisateurs : les études menées aux États- Unis ces derniers mois concordent toutes sur un point, les Américains n’ont que faire de la “ vente par réseau ”. Leur motivation quasi unique pour se connecter à Internet, c’est de communiquer de personne à personne, par le texte aujourd’hui, par la voix et l’image demain… quand la technique le permettra !

Ce sont en fait les mêmes raisons pour lesquelles les entreprises souhaitent s’équiper en Intranet, censé leur offrir dès aujourd’hui ces fonctions : des applications du type vidéophonie ont déjà vu le jour sur les lignes Numéris ou de débit supérieur, mais il s’agit de petites images avec des fréquences de rafraîchissement médiocres. Aller au-delà de la simple messagerie texte impose encore un investissement lourd et hasardeux.

Quelle sécurité sur le réseau?

Voilà une question qui dépasse les limites techniques actuelles du réseau, à savoir sa bande passante limitée et son protocole de transfert peu flexible. C’est une chose que d’acheter un bien sur le réseau et de régler le vendeur par un chèque papier : l’ambition est de pouvoir payer par carte de crédit, en donnant son numéro de carte et un code. Le problème est évidemment la sécurité, qui doit être assurée par un chiffrement (8).

Malheureusement, presque tous les pays du monde ont interdit ou fortement réglementé le chiffrement. Dans ce domaine, la France a longtemps eu le régime le plus draconien au monde, qui n’a été assoupli que tout récemment. Aux États- Unis, la vente de logiciels de chiffrage est autorisée à l’intérieur du pays mais seule la vente de versions bridées est tolérée à l’exportation. Pour simplifier, il s’agit des codes cassables par la NSA, le service américain du chiffre. Le problème, c’est que la puissance de calcul se démocratisant et les mathématiques progressant, des codes que la NSA pensait être seule à maîtriser il y a vingt ans sont aujourd’hui d’une sécurité nulle. Par exemple, un étudiant de Berkeley a brisé en moins de quatre heures une clef du type “ Netscape export ” (avec mille milliards de combinaisons possibles), en utilisant les moyens informatiques en libre-service de son université. Un chiffrement de mauvaise qualité, cela veut donc dire pas de chiffrement du tout pour des entreprises ayant la puissance informatique nécessaire : à présent, pratiquement tout le monde.

Quel est le risque ? Prenons un exemple : si vous utilisez un logiciel comme Netscape Navigator pour transmettre un code de carte bancaire, une organisation mal intentionnée pouvant intercepter votre courrier électronique (par exemple, via un employé des télécoms complice) et ayant des moyens informatiques (par exemple, sous couvert d’une activité de PME/SSII) peut déchiffrer le message en quelques jours, puis en faire “ bon ” usage…

Il y a bien sûr des arguments en faveur du contrôle par les gouvernements, et ses partisans assurent un large retentissement à des affaires exemplaires en ce sens : ainsi des réseaux de pédophilie ont été démantelés aux États-Unis par espionnage systématique des communications sur America On Line (un prestataire de services pour particuliers). Il est probable que des trafiquants de toutes sortes utilisent aussi le réseau pour organiser leurs transactions. Mais tout cela ne représente qu’une portion infinitésimale du flux des données, et si le chiffrage protège tout le monde, il protège bien plus de gens honnêtes que de gens malhonnêtes.

Conclusion

Nous espérons que ces quelques pages auront éclairé le lecteur néophyte, en lui donnant une vision concrète de l’Internet et de sa problématique, indispensable pour discerner la vérité parmi les innombrables affabulations publiées quotidiennement sur ce sujet.

Le problème du Web étant la bande passante, l’ambition des opérateurs (9) est de susciter le besoin d’un énorme et unique réseau sur lequel transiteraient la télévision, le téléphone et ses extensions, la radio… et dont la construction ferait appel à leurs compétences ! Internet apparaît comme le point de convergence naturel de tous les médias, car c’est l’archétype de la communication numérique et interactive, à une époque où tout se pare d’interactivité et où la technologie numérique est appelée à supplanter toutes les autres. Mais n’est-ce pas là seulement le rêve de toute une industrie ?

En définitive, Internet pose en France trois questions : la première, qui profitera le plus du remplacement des technologies existantes par celles du réseau ? L’utilisateur, ou le constructeur ? La deuxième est celle du temps. Il a fallu attendre vingt ans pour voir toutes les infrastructures téléphoniques complètement équipées en numérique. Faudra-t-il de nouveau attendre vingt ans pour les voir se remettre à niveau ? La dernière question concerne le financement : il s’agit de travaux considérables, que peu d’entreprises privées souhaitent mener sans aide, alors même que la vitesse d’évolution du secteur dépasse les capacités de décision de l’État.

_________________________________________________
(1) Le Web (la toile d’araignée) est le nom de l’extension multimédia de l’Internet, constituée de “ pages ” consultables avec un logiciel spécialisé comme Netscape Navigator ou Microsoft Explorer, ces pages contenant des “ liens ”, sur lesquels on clique pour passer à d’autres pages. Physiquement, les pages sont des fichiers hébergés sur des machines appelées serveurs qui les rendent accessibles au public.
(2) C’est-à-dire qu’il n’est utilisé que pour le trafic de données informatiques au protocole de l’Internet.
(3) En anglais, “ backbones ”. Ce sont les canaux à très grande bande passante (la bande passante est le débit maximal de données, en bits par seconde, que supporte un canal) qui drainent de très grandes quantités d’informations, de la même manière qu’un grand fleuve collecte les eaux de toutes les petites rivières (les sous-réseaux) de son bassin.
(4) Le programme peut alors être adapté et utilisé indifféremment sur toutes les machines.
(5) Une machine dédiée à la circulation des paquets de données entre les réseaux.
(6) Ce chiffre correspond à une limite physique des centraux téléphoniques : le signal audio y est numérisé sur 8 bits à 8 kHz, soit 64 kbit/s. Il est à comparer aux 1 200 bit/s du Minitel, aux 64 kbit/s de Numéris (dont l’intérêt diminue), aux 10 Mbit/s d’un réseau d’entreprise d’entrée de gamme, et aux 155 Mbit/s d’un réseau de stations de travail de dernière génération…
(7) Le pentium est le processeur équipant les ordinateurs PC. La dernière version coûte 700 $ pièce et contient environ 6 millions de transistors. Ce sont en 1997 les maxima compatibles avec une production de très grande série. Mais cette limite est doublée tous les dix-huit mois depuis vingt ans, à prix égal.
(8) C’est-à-dire une opération mathématique permettant de rendre les données inexploitables par un tiers (qui n’est ni l’expéditeur ni le destinataire légitime). On pense tout de suite à un système “ à clef secrète ” comme un alphabet secret, mais il y a aujourd’hui des procédés très variés qui utilisent d’autres concepts.
(9) Que ce soient ceux du câble, comme la Générale et la Lyonnaise des Eaux, mais aussi ceux du téléphone (AT&T, France Télécom, etc.) et leurs constructeurs de matériel (Alcatel, Motorola…).

Poster un commentaire