Vue en direct de Mars

L’avènement du multimédia

Dossier : Le MultimédiaMagazine N°550 Décembre 1999
Par Jean-Paul FIGER (62)

Le mul­ti­mé­dia - qui uti­lise ou concerne plu­sieurs médias selon le Larousse – est-il une mode ou une évo­lu­tion tech­no­lo­gique majeure ?

« 23,3 mil­lions de mots, 17 000 médias spec­ta­cu­laires dont plus de 60 pano­ra­miques 2D et 3D, plus de 200 vidéos et ani­ma­tions, plus de 11 500 pho­tos, des­sins, docu­ments et tableaux de don­nées, plus de 1 800 cartes géo­po­li­tiques et thé­ma­tiques inter­ac­tives, dia­grammes, fiches pays, plus de 3 000 docu­ments sonores. »

Cet extrait de la publi­ci­té de l’en­cy­clo­pé­die Hachette Mul­ti­mé­dia pré­sente ain­si les divers médias conte­nus sur un sup­port unique : le CD-ROM. Tout est ou devient « mul­ti­mé­dia » depuis le CD-ROM jus­qu’à la télé­vi­sion haute défi­ni­tion en pas­sant par le télé­phone mobile, la console de jeux, le PC et Inter­net. La plu­part des jour­naux ont désor­mais un sup­plé­ment mul­ti­mé­dia. Je roule aus­si en Citroën XM mul­ti­mé­dia. Le mot fait incon­tes­ta­ble­ment recette mais quelle est la rai­son de cet engouement ?

Du tout-analogique au tout-numérique

Le mul­ti­mé­dia est sou­vent pré­sen­té comme le fruit de la conver­gence annon­cée des tech­no­lo­gies de l’in­for­ma­tique, des télé­com­mu­ni­ca­tions et du monde des médias. L’his­toire des tech­niques retien­dra sur­tout qu’en cette fin de XXe siècle les infor­ma­tions mani­pu­lées par les médias sont pas­sées en moins de trente ans d’une repré­sen­ta­tion « tout-ana­lo­gique », propre à chaque média, au codage « tout-numé­rique ».

La règle à cal­cul ana­lo­gique inven­tée en 1622 a été rem­pla­cée par la cal­cu­lette numé­rique en 1975, le disque 33 tours ana­lo­gique par le disque com­pact numé­rique en 1982. En juillet 1997, les images de la sonde mar­tienne Path­fin­der, prises et trans­mises par des sys­tèmes numé­riques, ont été publiées direc­te­ment par la NASA sur Inter­net. Des mil­lions de per­sonnes en ont pris connais­sance sans aucun inter­mé­diaire ana­lo­gique dans toute la chaîne depuis Mars.


http://nssdc.gsfc.nasa.gov/planetary/image/marspath_ss24_1.jpg

En 1998, il s’est ven­du, pour la pre­mière fois dans le Monde, plus de télé­phones mobiles où le son est numé­ri­sé de bout en bout que de télé­phones fixes ana­lo­giques. La télé­vi­sion numé­rique, qui s’im­pose actuel­le­ment sur le câble et le satel­lite, a fait ses débuts en dif­fu­sion ter­restre en novembre 1998 aux États-Unis. Les Amé­ri­cains visent un arrêt total des émis­sions ana­lo­giques en 2006. Avec l’ap­pa­reil pho­to numé­rique grand public dont 180 000 exem­plaires seront ven­dus en France en 1999, le der­nier média ana­lo­gique va disparaître.

Cette trans­for­ma­tion radi­cale a été pro­vo­quée par les pro­grès dans les tech­no­lo­gies des micro­pro­ces­seurs, des mémoires, des sys­tèmes de sto­ckage, des logi­ciels et des télé­com­mu­ni­ca­tions qui ont per­mis de construire des sys­tèmes numé­riques de plus en plus puis­sants à des coûts raisonnables.

Des réseaux spécialisés à l’Internet

Les réseaux ont tou­jours été des sources de pro­grès et d’in­no­va­tion comme les routes et les aque­ducs de l’empire romain ou les che­mins de fer du xixe siècle. Les réseaux télé­pho­niques, de télé­dif­fu­sion ou de satel­lites du xxe siècle ont per­mis de nous affran­chir des contraintes de l’es­pace et du temps. Ces réseaux construits pour opti­mi­ser la dif­fu­sion d’un média étaient de remar­quables exploits d’ingénieurs.

Cepen­dant, le déve­lop­pe­ment des tech­no­lo­gies numé­riques est en train de chan­ger com­plè­te­ment les règles du jeu. Les réseaux spé­cia­li­sés, opti­mi­sés pour un seul média, sont rem­pla­cés par une infra­struc­ture unique réduite à son rôle le plus élé­men­taire : la connec­ti­vi­té. Fon­dée sur les tech­no­lo­gies de l’in­for­ma­tique et les stan­dards de l’In­ter­net, cette infra­struc­ture per­met main­te­nant de tout connec­ter à tout, par­tout. Cette infra­struc­ture mon­diale unique qui se met en place autour des réseaux de cal­cu­la­teurs reliés par l’In­ter­net aura sans doute une plus grande influence sur notre socié­té que celle de tous les réseaux précédents.

Autre­fois, chaque média avait construit son infra­struc­ture spé­cia­li­sée. Pour four­nir un ser­vice de télé­phone, il fal­lait d’a­bord faire des inves­tis­se­ments consi­dé­rables dans un réseau dédié et dans des équi­pe­ments ter­mi­naux. Pour déve­lop­per la télé­vi­sion, il avait été néces­saire de tout stan­dar­di­ser depuis les camé­ras jus­qu’aux récep­teurs de télé­vi­sion. Ces deux réseaux avaient été en leur temps des réus­sites tech­niques exemplaires.

Cepen­dant, l’in­ter­dé­pen­dance de tous les élé­ments rend les évo­lu­tions très dif­fi­ciles et très lentes. Le pas­sage du télé­phone au numé­rique (Numé­ris) n’a concer­né qu’une modeste part de mar­ché (édi­tion), les autres clients étant peu moti­vés car il était néces­saire de chan­ger les équi­pe­ments ter­mi­naux pour un avan­tage minime. L’é­vo­lu­tion de la télé­vi­sion vers la cou­leur ou le son sté­réo a été lente et com­plexe pour res­ter com­pa­tible avec les équi­pe­ments installés.

Par ailleurs, mal­gré la baisse du coût de cer­tains équi­pe­ments, l’é­vo­lu­tion rapide de la tech­no­lo­gie a obli­gé les opé­ra­teurs à mettre à niveau leur réseau ce qui a pu don­ner l’im­pres­sion que les baisses de coût n’é­taient pas réper­cu­tées au niveau des tarifs. En fait, l’in­té­gra­tion ver­ti­cale per­met aux four­nis­seurs de fac­tu­rer un coût glo­bal incluant le coût de la com­mu­ni­ca­tion et celui des ser­vices fournis.

Le rem­pla­ce­ment des ter­mi­naux simples par des PC puis­sants a per­mis de déployer la tech­no­lo­gie Inter­net. Inter­net réduit le réseau à sa fonc­tion de base : assu­rer la connexion entre deux équi­pe­ments. En revanche, il ne four­nit aucun des ser­vices assu­rés tra­di­tion­nel­le­ment par les opé­ra­teurs de télé­com­mu­ni­ca­tions comme l’a­che­mi­ne­ment cor­rect des infor­ma­tions ou une garan­tie de débit. Chaque élé­ment d’un réseau Inter­net a le droit d’é­li­mi­ner les infor­ma­tions qui cir­culent en cas d’in­ci­dent ou de sur­charge. Ce sont les logi­ciels des machines connec­tées qui font leur affaire de s’a­dap­ter au débit dis­po­nible, de ren­voyer si néces­saire les infor­ma­tions per­dues et bien sûr de s’a­dap­ter au type de contenu.

Cette sim­pli­fi­ca­tion du réseau a un prix : il faut une puis­sance de cal­cul d’en­vi­ron un mil­lion d’ins­truc­tions par seconde à chaque extré­mi­té. Il y a dix ans, seules les sta­tions de tra­vail haut de gamme sup­por­taient cette péna­li­sa­tion. Aujourd’­hui, le PC bas de gamme exé­cute plu­sieurs cen­taines de mil­lions d’ins­truc­tions par seconde ren­dant ain­si éco­no­mique l’u­sage de cette technologie.

L’in­fra­struc­ture Inter­net change donc la donne. Elle per­met d’é­li­mi­ner les inter­dé­pen­dances en sépa­rant l’in­fra­struc­ture de com­mu­ni­ca­tion et les appli­ca­tions qui l’u­ti­lisent. Il se crée ain­si deux mar­chés mon­diaux très concur­ren­tiels : celui qui four­nit la connec­ti­vi­té mon­diale et celui des conte­nus et des services.

Cette nou­velle concur­rence a déjà per­mis de réduire le coût de la connec­ti­vi­té par un fac­teur de 1 à plu­sieurs mil­liers. Avec un accès par le câble ou l’AD­SL, un par­ti­cu­lier est connec­té en per­ma­nence à grande vitesse sur Inter­net pour 300 francs par mois. Mais sur­tout, cette nou­velle infra­struc­ture favo­rise l’in­no­va­tion. Les nou­velles appli­ca­tions ou les nou­veaux ser­vices peuvent béné­fi­cier sans inves­tis­se­ment réseau d’une connec­ti­vi­té mon­diale vers bien­tôt un mil­liard de clients poten­tiels à un coût marginal.

Pour comprendre

Pour com­prendre cette évo­lu­tion et ses consé­quences, il faut faire un peu d’his­toire et un peu de technique.

Le cal­cu­la­teur tel que nous le connais­sons naît vers 1950. C’est un très gros bébé : plu­sieurs dizaines de tonnes avec son usine élec­trique pour l’a­li­men­ter, lent avec sa cen­taine d’ins­truc­tions par seconde et doté d’une toute petite cer­velle de quelques mil­liers d’oc­tets de mémoire. Le but : rem­pla­cer la célèbre table de loga­rithmes, encore en usage lorsque j’ai pas­sé les concours des grandes écoles, pour faire des cal­culs numé­riques fas­ti­dieux. Cette nais­sance est déjà une demi-surprise.

Nor­ma­le­ment, bien que des cal­cu­la­teurs spé­cia­li­sés aient été enfan­tés par les équipes de R&D des fabri­cants de cen­traux télé­pho­niques comme les Bell Labs, le pre­mier cal­cu­la­teur à pro­gramme enre­gis­tré en mémoire, tel que nous le connais­sons aujourd’­hui, a été réa­li­sé à l’U­ni­ver­si­té de Harvard.

En effet, ce sont les télé­pho­nistes qui construisent les machines les plus com­plexes de l’é­poque : les cen­traux télé­pho­niques auto­ma­tiques. Ils ont détrô­né les grandes orgues qui ont été pen­dant deux siècles les machines avec le plus grand nombre de com­po­sants. Cepen­dant la logique câblée reste la règle.

Le cal­cu­la­teur est né d’une idée fon­da­men­tale simple : réa­li­ser une machine avec un nombre très réduit d’ins­truc­tions, spé­cia­li­sée uni­que­ment par un « pro­gramme » char­gé dans la mémoire comme des don­nées. Or, pour chaque type d’ap­pli­ca­tion, de nom­breux tech­ni­ciens pen­saient (et cer­tains conti­nuent de le croire) qu’une machine spé­cia­li­sée serait moins chère et plus performante.

C’est pour­tant le cal­cu­la­teur bana­li­sé spé­cia­li­sé par du logi­ciel qui a pro­gres­si­ve­ment triom­phé dans tous les domaines, ouvrant la voie, comme on le ver­ra plus loin, au mul­ti­mé­dia. Mais reve­nons aux débuts des années 50. Le mar­ché mon­dial de tels « cer­veaux élec­tro­niques » est alors éva­lué à envi­ron 50 machines par une étude de mar­ché qui est res­tée célèbre. Le vrai démar­rage du cal­cu­la­teur, c’est d’a­bord l’in­ven­tion du tran­sis­tor avec une durée de vie qua­si illi­mi­tée qui rem­place les tubes élec­tro­niques peu fiables, puis du cir­cuit inté­gré avec la fameuse loi de Moore (direc­teur chez Fair­child et ensuite fon­da­teur d’In­tel) qui pré­dit dès 1964 un dou­ble­ment du nombre de tran­sis­tors par cir­cuits tous les dix-huit mois. Depuis trente-cinq ans, l’in­for­ma­tique vit avec cette crois­sance expo­nen­tielle qui n’a pas d’é­qui­valent dans d’autres domaines.

Cette amé­lio­ra­tion du rap­port performance/prix d’en­vi­ron 30 % par an explique l’in­tro­duc­tion pro­gres­sive du cal­cu­la­teur dans tous les équi­pe­ments et acti­vi­tés humaines. Il faut noter que rien n’a chan­gé depuis le début du cal­cu­la­teur si ce n’est la taille des com­po­sants et la vitesse d’exé­cu­tion. On est pas­sé de quelques mil­liers de posi­tions mémoires à plu­sieurs cen­taines de mil­lions et le nombre d’ins­truc­tions exé­cu­tées par seconde va bien­tôt dépas­ser le mil­liard ! Le prin­cipe de base est res­té le même : chaque tâche par­ti­cu­lière est effec­tuée par l’exé­cu­tion d’un « pro­gramme » suite d’ins­truc­tions don­nées à la machine.

Très rapi­de­ment, l’en­jeu a été l’é­cri­ture de ces fameux pro­grammes, les logi­ciels dont le mot est appa­ru au début des années 70. Les pre­miers pro­grammes d’or­di­na­teurs avaient été fabri­qués par des mathé­ma­ti­ciens et des scien­ti­fiques qui pen­saient que le tra­vail était simple et logique. Le logi­ciel s’est révé­lé plus dif­fi­cile à déve­lop­per qu’ils ne l’a­vaient sup­po­sé. Les ordi­na­teurs étaient têtus. Ils s’obs­ti­naient à faire ce qui était écrit plu­tôt que ce qui était voulu.

Une nou­velle race d’ar­ti­sans prit le relais pour faire le tra­vail et par un pro­ces­sus dar­wi­nien jeta pro­gres­si­ve­ment les bases d’une nou­velle science. Une machine à tout faire, des spé­cia­listes du logi­ciel, voi­là les ingré­dients de la recette gagnante.

La dialectique informatique – télécommunications

Au début des années 1970, le déve­lop­pe­ment du télé­phone et les pre­miers suc­cès des cal­cu­la­teurs amènent les fabri­cants de cen­traux télé­pho­niques à rem­pla­cer la logique câblée par des cal­cu­la­teurs. Ils se lancent dans la construc­tion de cal­cu­la­teurs spé­cia­li­sés mieux adap­tés, pensent-ils, aux tâches à réa­li­ser. En effet, la fia­bi­li­té des cal­cu­la­teurs sem­blait insuf­fi­sante et cer­tains pen­saient trou­ver les ins­truc­tions « miracle » qui allaient sim­pli­fier l’é­cri­ture et accé­lé­rer l’exé­cu­tion des pro­grammes. Construire des cal­cu­la­teurs était presque un jeu d’en­fant pour ces spé­cia­listes des logiques câblées très complexes.

En revanche, il fal­lait déve­lop­per le logi­ciel qui allait avec, tâche autre­ment tita­nesque et sys­té­ma­ti­que­ment sous-esti­mée. La com­pé­ti­tion avec les construc­teurs de cal­cu­la­teurs « à tout faire » qui pou­vaient amor­tir les dépenses de réa­li­sa­tion des logi­ciels sur de grandes séries tourne court. Au bout de quelques années, les indus­triels des télé­com­mu­ni­ca­tions adoptent les cal­cu­la­teurs stan­dard et leurs logi­ciels pour réa­li­ser des sys­tèmes de télécommunications.

La bataille des réseaux

Cette pre­mière « conver­gence » entre infor­ma­tique et télé­com­mu­ni­ca­tions donne nais­sance à la télé­in­for­ma­tique appe­lée en France « télé­ma­tique ». L’i­dée de faire com­mu­ni­quer des cal­cu­la­teurs entre eux ou avec des ter­mi­naux à dis­tance n’é­tait pas nou­velle. Le coût des cal­cu­la­teurs était tel qu’il sem­blait obli­ga­toire de le par­ta­ger entre de nom­breux uti­li­sa­teurs : la prise de cal­cul à côté de la prise de cou­rant. Ain­si sont nés les sys­tèmes de « time sha­ring » à la fin des années 60.

Mais l’in­tro­duc­tion du cal­cu­la­teur stan­dard dans les réseaux favo­rise le déve­lop­pe­ment des appli­ca­tions avec la créa­tion de Trans­pac en France, pre­mier pays à être doté d’un réseau numé­rique natio­nal. Trans­pac ser­vi­ra de base à la mise en place de nom­breuses appli­ca­tions pro­fes­sion­nelles pour inter­con­nec­ter des cal­cu­la­teurs comme la plu­part des réseaux bancaires.

Dans le grand public, le réseau Télé­tel qui s’ap­puie sur Trans­pac et sur­tout le Mini­tel font une entrée remar­quée. C’est la vogue des 3615… qui pré­cède de dix ans celle des http://www… Mais le monde des réseaux reste un monde frac­tion­né. Il y a un réseau télé­pho­nique dont les extré­mi­tés sont ana­lo­giques, un réseau numé­rique pour les don­nées, des réseaux ana­lo­giques de dif­fu­sion pour la radio et la télé­vi­sion, un réseau radio numé­rique pour les télé­phones mobiles, etc.

Croissance du trafic réseau mondial 1996 - 2001Le réseau unique appa­raît comme une uto­pie d’in­for­ma­ti­cien. Chaque tech­no­lo­gie raf­fine son réseau comme l’ad­jonc­tion réus­sie des répon­deurs, de la télé­co­pie et des modems sur le réseau télé­pho­nique ou les échecs suc­ces­sifs de la vidéo « à la demande » sur les réseaux câblés ou du D2MAC tech­no­lo­gie hybride ana­lo­gique-numé­rique sur les satellites.

En fait, les par­ti­sans des réseaux spé­cia­li­sés expliquent que pour tirer le meilleur par­ti d’une tech­no­lo­gie et pour garan­tir le niveau de ser­vice, le débit ou les temps de réponse, il faut un réseau dit intel­li­gent entiè­re­ment géré et maî­tri­sé autour du conte­nu. Les réseaux clas­siques et leurs inter­faces sont conçus pour fonc­tion­ner dans des condi­tions de tra­fic fixes plu­tôt que pour s’a­dap­ter aux condi­tions réelles ren­con­trées. Cela conduit géné­ra­le­ment à un sur­di­men­sion­ne­ment de la bande pas­sante et de la puissance.

Un réseau comme Inter­net qui four­nit le ser­vice mini­mum : la connec­ti­vi­té et qui ne garan­tit rien, même pas l’a­che­mi­ne­ment d’un paquet, sem­blait une idée aber­rante. C’est pour­tant ce qui s’est impo­sé et qui, en quelques années, a balayé toutes les objec­tions des spé­cia­listes. En fait, c’est ce ser­vice mini­mum qui per­met aux pro­grammes aux deux bouts de s’a­dap­ter au débit ins­tan­ta­né consta­té ou de rede­man­der si néces­saire la réémis­sion des paquets per­dus. Il est bien évident que le pro­to­cole Inter­net ne sup­prime pas le métier d’o­pé­ra­teur de télé­com­mu­ni­ca­tions qui doit four­nir et opti­mi­ser des capa­ci­tés de trans­port de plus en plus importantes.

Cepen­dant les ser­vices deman­dés à ce réseau se bana­lisent et c’est le même réseau qui trans­por­te­ra tous les types de don­nées sous forme numé­rique. Le tra­fic télé­pho­nique qui repré­sen­tait il y a quelques années 90 % du tra­fic des réseaux va rapi­de­ment se dis­soudre dans le tra­fic de l’In­ter­net. Le tra­fic du back­bone Inter­net de MCI­Worl­com double tous les cent jours, soit une crois­sance de 1 000 % par an. AT&T a annon­cé qu’il n’a­chè­te­rait plus de nou­veaux cen­traux télé­pho­niques après 1999.

Le passage au numérique

L’i­dée de trai­ter toutes les infor­ma­tions sous forme numé­rique n’é­tait pas évi­dente. Au début des années 60, toutes les infor­ma­tions mani­pu­lées par les tech­no­lo­gies étaient des infor­ma­tions ana­lo­giques : la règle à cal­cul, le télé­phone, le disque 33 tours, l’ap­pa­reil pho­to, la radio et la télévision.

L’a­van­tage d’une repré­sen­ta­tion numé­rique pour faire des cal­culs sur les nombres était évident. Les algo­rithmes qui avaient conduit au suc­cès de la numé­ra­tion de posi­tion au XVe siècle étaient faciles à trans­po­ser en programmes.

Le sys­tème de repré­sen­ta­tion en base 2 uti­li­sé dans les cal­cu­la­teurs est proche de l’op­ti­mum en termes d’ef­fi­ca­ci­té pour sto­cker des nombres. Le rap­port nombre de chiffres/nombre est mini­mum pour une repré­sen­ta­tion en base e. Mais, il n’en était déjà plus de même pour les lettres : les pre­miers codes n’u­ti­li­saient que 5 à 6 bits seule­ment pour repré­sen­ter un carac­tère. L’i­dée d’u­ti­li­ser 8 bits soit 256 pos­si­bi­li­tés pour repré­sen­ter un alpha­bet de 26 lettres et 10 chiffres sem­blait au début un gas­pillage consi­dé­rable. Aujourd’­hui, on est pas­sé à 16 bits par carac­tère avec l’U­ni­code, néces­saire sur Inter­net pour repré­sen­ter simul­ta­né­ment tous les alpha­bets de toutes les langues y com­pris le chinois.

En revanche, la numé­ri­sa­tion du son ou de l’i­mage engendre un volume consi­dé­rable d’in­for­ma­tions. Une seconde de télé­vi­sion numé­rique ou trois minutes de son sur un disque com­pact, c’est cent fois la Bible.

Pour trai­ter ces infor­ma­tions, sou­vent en temps réel, il fal­lait des vitesses de cal­cul telles qu’elles sem­blaient hors de por­tée des cal­cu­la­teurs géné­ra­listes. Pour chaque média, l’his­toire s’est répé­tée. Pour trai­ter ces masses de don­nées, les tech­ni­ciens inventent des sys­tèmes spé­cia­li­sés. Le maté­riel construit en petite série coûte cher et le logi­ciel est très long à développer.

Dès que les cal­cu­la­teurs stan­dard ont la puis­sance et la capa­ci­té mémoire suf­fi­sante, ils balayent tous ces déve­lop­pe­ments spé­ci­fiques et ce sont les logi­ciels des infor­ma­ti­ciens qui prennent le relais. Pour s’en convaincre, regar­dons ce qui se passe dans l’in­dus­trie du disque.

Du 33 tours au mp3

Volumes comparés des informations numériséesLe disque com­pact (CD) fait son appa­ri­tion en 1983. C’est la pre­mière appli­ca­tion grand public de la numé­ri­sa­tion du son. Pour obte­nir une bonne qua­li­té, le son est échan­tillon­né sur 16 bits à une fré­quence de 44,1 kHz, ce qui néces­site pour un signal en sté­réo un débit de 44 100 x 16 x 2 = 1.4 Mbit/seconde. Avec les infor­ma­tions de cor­rec­tion d’er­reurs, il faut sto­cker 600 à 700 mil­lions d’oc­tets pour une heure de musique. Seul le disque optique numé­rique per­met de sto­cker une telle quan­ti­té d’in­for­ma­tion sur un sup­port aus­si petit et peu coû­teux. Mal­gré le coût éle­vé des équi­pe­ments de gra­vure et de lec­ture, le CD a tout de suite été un grand suc­cès et le disque ana­lo­gique 33 tours en vinyle a dis­pa­ru en quelques années.

Le coût et la com­plexi­té des équi­pe­ments spé­ciaux néces­saires pour fabri­quer les CD sem­blaient pro­té­ger l’in­dus­trie du disque à tout jamais. En 1983, les micro­cal­cu­la­teurs dis­po­saient géné­ra­le­ment de deux dis­quettes de 360 Ko comme moyen de sto­ckage, soit l’é­qui­valent de quelques secondes de musique. Mais la loi de Moore valable aus­si pour le sto­ckage sur disque a pro­duit ses effets. Aujourd’­hui, le PC stan­dard dis­pose de disques de 6 à 10 Go qui per­mettent de sto­cker plus d’une dizaine de CD. Et le gra­veur de CD, au prix incroya­ble­ment bas de 1 190 F dans les pro­mo­tions des super­mar­chés, per­met de dupli­quer un CD en quelques minutes sans perte de qua­li­té sur un sup­port qui est ven­du 7 francs pièce.

Cepen­dant, les ingé­nieurs ne se sont pas arrê­tés là. Un mor­ceau de musique numé­rique de quelques minutes, c’est 50 Mo de don­nées. C’est beau­coup trop pour être trans­mis par réseau ou pour consti­tuer une dis­co­thèque sur un PC. Une tech­no­lo­gie de com­pres­sion à débit ajus­table déve­lop­pée à l’o­ri­gine pour la télé­vi­sion, le MPEG1 layer 3 dit « mp3 », s’est brus­que­ment répan­due sur le réseau Inter­net, au point de mena­cer l’in­dus­trie du disque tra­di­tion­nelle. Avec des taux de com­pres­sion de l’ordre de 10 à 20 sans perte audible de qua­li­té sonore, le mp3 auto­rise la dif­fu­sion par Inter­net de musique de bonne qua­li­té sans pas­ser par les cir­cuits traditionnels.

Les techniques de compression

Nous avons vu que la révo­lu­tion mul­ti­mé­dia s’ap­puie sur un cal­cu­la­teur stan­dard très puis­sant, des infor­ma­tions numé­riques et un réseau de com­mu­ni­ca­tion mon­dial unique. Le der­nier ingré­dient tech­nique est l’in­dis­pen­sable com­pres­sion des don­nées. Il y a, en gros, deux sortes de tech­niques de com­pres­sion. La com­pres­sion qui conserve la tota­li­té des infor­ma­tions ini­tiales dite non destructive.

Volumes comparés des informations numérisées après compressionC’est celle qui est uti­li­sée pour les pro­grammes et les don­nées dans les cal­cu­la­teurs : les fameux fichiers dit « zip­pés » qui per­mettent lors de la décom­pres­sion de res­ti­tuer le fichier exac­te­ment dans l’é­tat ini­tial. Les per­for­mances cou­ram­ment obser­vées sont des réduc­tions de taille de l’ordre de 4. Insuf­fi­sant pour le son, les images ou la télé­vi­sion. Pour que la numé­ri­sa­tion soit éco­no­mi­que­ment accep­table, les don­nées numé­riques doivent se conten­ter de la bande pas­sante néces­saire pour les anciens signaux ana­lo­giques. Les taux de com­pres­sion à atteindre sont donc de 10 à 1 000.

Pour y arri­ver, il faut dimi­nuer le nombre d’in­for­ma­tions trans­mises. On uti­lise les carac­té­ris­tiques phy­siques de l’œil et de l’o­reille humaine. Le signal com­pres­sé perd les détails qui ne sont pas per­çus. Pour don­ner des ordres de gran­deurs, on obtient des taux de com­pres­sion sans dégra­da­tion notable par l’o­reille ou par l’œil de 10 à 20 pour le son, de 20 à 50 pour les images, de 100 à 200 pour la télévision.

La décom­pres­sion est une opé­ra­tion rela­ti­ve­ment rapide. En revanche, la com­pres­sion néces­site une très grande puis­sance de cal­cul, sur­tout pour des signaux com­pri­més en temps réel comme pour le télé­phone ou la télé­vi­sion en direct. Au fur et à mesure de l’a­mé­lio­ra­tion des per­for­mances des cal­cu­la­teurs stan­dard, les tech­niques logi­cielles prennent pro­gres­si­ve­ment le relais des équi­pe­ments spécialisés.

Les empires du multimédia s’organisent autour des contenus

La révo­lu­tion mul­ti­mé­dia bous­cule les acteurs en place. À la lumière de ces évo­lu­tions tech­niques, il est facile de pré­voir que la maî­trise de l’in­fra­struc­ture Inter­net et la maî­trise des conte­nus seront les enjeux de la pro­chaine décennie.

L’importance d’Internet

Inter­net, ou plus pré­ci­sé­ment l’in­fra­struc­ture IP, repré­sente une fron­tière clé entre un média de com­mu­ni­ca­tion et les appli­ca­tions construites sur ce média. C’est une fron­tière très spé­ciale, puis­qu’elle per­met à ces deux mar­chés de fonc­tion­ner selon leurs propres règles. Avec les nou­velles tech­no­lo­gies numé­riques, l’a­van­tage s’est dépla­cé vers une concep­tion souple qui per­met de tirer par­ti d’op­por­tu­ni­tés non prévues.

En évi­tant les biais des réseaux pré­cé­dents opti­mi­sés autour d’un conte­nu, l’in­fra­struc­ture IP a créé une place de mar­ché pour des concepts nou­veaux qui tirent par­ti de la connec­ti­vi­té abon­dante et peu coû­teuse. Dans ce domaine, les enjeux seront de four­nir une connec­ti­vi­té per­ma­nente à des équi­pe­ments fixes ou mobiles avec le meilleur rap­port performance/prix.

Cepen­dant, la bana­li­sa­tion de l’in­fra­struc­ture et des com­po­sants tech­niques n’en­traî­ne­ra ni le ter­mi­nal unique, ni la fusion des dif­fé­rents métiers des médias. L’i­dée d’un ter­mi­nal unique à tout faire (PC, télé­vi­sion, télé­phone, fax…) est une uto­pie d’au­teur de science-fic­tion. La tech­no­lo­gie va dis­pa­raître sous la fonc­tion et nous allons, bien au contraire, assis­ter à l’ap­pa­ri­tion de nom­breux ter­mi­naux spé­cia­li­sés par fonc­tion et faciles à utiliser.

L’importance du contenu

L’en­semble des conte­nus numé­ri­sés va être dif­fu­sé à par­tir de ser­veurs au tra­vers d’ap­pli­ca­tions. De même que pour les équi­pe­ments, la conver­gence vers une tech­no­lo­gie unique ne va pas entraî­ner de fusion des métiers. Les métiers de l’in­for­ma­tique, de l’é­di­tion ou de la télé­vi­sion vont res­ter sépa­rés. En revanche, la manière d’exer­cer ces métiers va pro­fon­dé­ment chan­ger et la pos­ses­sion des conte­nus devien­dra un des enjeux prioritaires.

Et demain

La loi de Moore va conti­nuer de s’ap­pli­quer pen­dant encore dix ans avant d’at­teindre la limite phy­sique de la taille des tran­sis­tors sur les cir­cuits inté­grés. Avec un dou­ble­ment tous les dix-huit mois, il reste donc encore à gagner un rap­port 1 000.

L’a­mé­lio­ra­tion des per­for­mances des fibres optiques dont la capa­ci­té double tous les ans est encore plus spec­ta­cu­laire. Ces meilleures per­for­mances vont sur­tout per­mettre de four­nir des inter­faces plus natu­relles avec les machines en ajou­tant aux écrans, cla­viers, sou­ris, la recon­nais­sance de la voix et de l’é­cri­ture manus­crite. Bien que le cal­cu­la­teur soit bana­li­sé, il existe encore des péri­phé­riques spé­cia­li­sés qu’il faut connec­ter au cal­cu­la­teur : la carte son, la carte vidéo, la carte Tuner FM ou TV ou le télé­phone mobile avec son Modem.

Les inter­faces (bus) néces­saires pour connec­ter ces cartes com­pliquent les cal­cu­la­teurs. Au fur et à mesure de l’aug­men­ta­tion de la puis­sance, ces cartes seront aus­si rem­pla­cées par des logi­ciels. C’est en cours pour le son ou la vidéo. Demain un récep­teur radio ou un télé­phone mobile seront obte­nus à par­tir d’un cal­cu­la­teur stan­dard. La par­tie radio échan­tillon­ne­ra l’en­semble d’une gamme de fré­quences direc­te­ment en mémoire RAM et le cal­cu­la­teur stan­dard se trans­for­me­ra en récep­teur radio ou en télé­phone mobile par une simple mise à jour de logiciel.

Vers le milliard d’utilisateurs connectés

L’aug­men­ta­tion régu­lière de la puis­sance des micro­pro­ces­seurs, les pro­grès du logi­ciel, le mul­ti­mé­dia et l’In­ter­net des­sinent les contours d’un nou­veau pay­sage : la socié­té de l’in­for­ma­tion. Dans quelques années, un mil­liard d’u­ti­li­sa­teurs et une quan­ti­té innom­brable de ter­mi­naux, cap­teurs, équi­pe­ments seront inter­con­nec­tés pour ache­ter, vendre et échan­ger libre­ment des infor­ma­tions ou des services.

Ces nou­velles tech­no­lo­gies de l’in­for­ma­tion repré­sentent un bou­le­ver­se­ment cultu­rel des modes d’é­du­ca­tion et de com­mu­ni­ca­tion qui va chan­ger le fonc­tion­ne­ment même de la socié­té, modi­fiant par exemple l’or­ga­ni­sa­tion du tra­vail, l’ac­cès des citoyens aux ser­vices de san­té ou d’é­du­ca­tion, les rela­tions administration/administré, voire les condi­tions d’exer­cice de la démocratie.

L’o­dys­sée infor­ma­tique vient tout juste de commencer.

Poster un commentaire