Vue en direct de Mars

L’avènement du multimédia

Dossier : Le MultimédiaMagazine N°550 Décembre 1999
Par Jean-Paul FIGER (62)

Le mul­ti­mé­dia - qui utilise ou con­cerne plusieurs médias selon le Larousse — est-il une mode ou une évo­lu­tion tech­nologique majeure ?

“23,3 mil­lions de mots, 17 000 médias spec­tac­u­laires dont plus de 60 panoramiques 2D et 3D, plus de 200 vidéos et ani­ma­tions, plus de 11 500 pho­tos, dessins, doc­u­ments et tableaux de don­nées, plus de 1 800 cartes géopoli­tiques et thé­ma­tiques inter­ac­tives, dia­grammes, fich­es pays, plus de 3 000 doc­u­ments sonores.”

Cet extrait de la pub­lic­ité de l’en­cy­clopédie Hachette Mul­ti­mé­dia présente ain­si les divers médias con­tenus sur un sup­port unique : le CD-ROM. Tout est ou devient “mul­ti­mé­dia” depuis le CD-ROM jusqu’à la télévi­sion haute déf­i­ni­tion en pas­sant par le télé­phone mobile, la con­sole de jeux, le PC et Inter­net. La plu­part des jour­naux ont désor­mais un sup­plé­ment mul­ti­mé­dia. Je roule aus­si en Cit­roën XM mul­ti­mé­dia. Le mot fait incon­testable­ment recette mais quelle est la rai­son de cet engouement ?

Du tout-analogique au tout-numérique

Le mul­ti­mé­dia est sou­vent présen­té comme le fruit de la con­ver­gence annon­cée des tech­nolo­gies de l’in­for­ma­tique, des télé­com­mu­ni­ca­tions et du monde des médias. L’his­toire des tech­niques retien­dra surtout qu’en cette fin de XXe siè­cle les infor­ma­tions manip­ulées par les médias sont passées en moins de trente ans d’une représen­ta­tion “tout-analogique”, pro­pre à chaque média, au codage “tout-numérique”.

La règle à cal­cul analogique inven­tée en 1622 a été rem­placée par la cal­culette numérique en 1975, le disque 33 tours analogique par le disque com­pact numérique en 1982. En juil­let 1997, les images de la sonde mar­ti­enne Pathfind­er, pris­es et trans­mis­es par des sys­tèmes numériques, ont été pub­liées directe­ment par la NASA sur Inter­net. Des mil­lions de per­son­nes en ont pris con­nais­sance sans aucun inter­mé­di­aire analogique dans toute la chaîne depuis Mars.


http://nssdc.gsfc.nasa.gov/planetary/image/marspath_ss24_1.jpg

En 1998, il s’est ven­du, pour la pre­mière fois dans le Monde, plus de télé­phones mobiles où le son est numérisé de bout en bout que de télé­phones fix­es analogiques. La télévi­sion numérique, qui s’im­pose actuelle­ment sur le câble et le satel­lite, a fait ses débuts en dif­fu­sion ter­restre en novem­bre 1998 aux États-Unis. Les Améri­cains visent un arrêt total des émis­sions analogiques en 2006. Avec l’ap­pareil pho­to numérique grand pub­lic dont 180 000 exem­plaires seront ven­dus en France en 1999, le dernier média analogique va disparaître.

Cette trans­for­ma­tion rad­i­cale a été provo­quée par les pro­grès dans les tech­nolo­gies des micro­processeurs, des mémoires, des sys­tèmes de stock­age, des logi­ciels et des télé­com­mu­ni­ca­tions qui ont per­mis de con­stru­ire des sys­tèmes numériques de plus en plus puis­sants à des coûts raisonnables.

Des réseaux spécialisés à l’Internet

Les réseaux ont tou­jours été des sources de pro­grès et d’in­no­va­tion comme les routes et les aque­ducs de l’empire romain ou les chemins de fer du xixe siè­cle. Les réseaux télé­phoniques, de téléd­if­fu­sion ou de satel­lites du xxe siè­cle ont per­mis de nous affranchir des con­traintes de l’e­space et du temps. Ces réseaux con­stru­its pour opti­miser la dif­fu­sion d’un média étaient de remar­quables exploits d’ingénieurs.

Cepen­dant, le développe­ment des tech­nolo­gies numériques est en train de chang­er com­plète­ment les règles du jeu. Les réseaux spé­cial­isés, opti­misés pour un seul média, sont rem­placés par une infra­struc­ture unique réduite à son rôle le plus élé­men­taire : la con­nec­tiv­ité. Fondée sur les tech­nolo­gies de l’in­for­ma­tique et les stan­dards de l’In­ter­net, cette infra­struc­ture per­met main­tenant de tout con­necter à tout, partout. Cette infra­struc­ture mon­di­ale unique qui se met en place autour des réseaux de cal­cu­la­teurs reliés par l’In­ter­net aura sans doute une plus grande influ­ence sur notre société que celle de tous les réseaux précédents.

Autre­fois, chaque média avait con­stru­it son infra­struc­ture spé­cial­isée. Pour fournir un ser­vice de télé­phone, il fal­lait d’abord faire des investisse­ments con­sid­érables dans un réseau dédié et dans des équipements ter­minaux. Pour dévelop­per la télévi­sion, il avait été néces­saire de tout stan­dard­is­er depuis les caméras jusqu’aux récep­teurs de télévi­sion. Ces deux réseaux avaient été en leur temps des réus­sites tech­niques exemplaires.

Cepen­dant, l’in­ter­dépen­dance de tous les élé­ments rend les évo­lu­tions très dif­fi­ciles et très lentes. Le pas­sage du télé­phone au numérique (Numéris) n’a con­cerné qu’une mod­este part de marché (édi­tion), les autres clients étant peu motivés car il était néces­saire de chang­er les équipements ter­minaux pour un avan­tage min­ime. L’évo­lu­tion de la télévi­sion vers la couleur ou le son stéréo a été lente et com­plexe pour rester com­pat­i­ble avec les équipements installés.

Par ailleurs, mal­gré la baisse du coût de cer­tains équipements, l’évo­lu­tion rapi­de de la tech­nolo­gie a obligé les opéra­teurs à met­tre à niveau leur réseau ce qui a pu don­ner l’im­pres­sion que les baiss­es de coût n’é­taient pas réper­cutées au niveau des tar­ifs. En fait, l’in­té­gra­tion ver­ti­cale per­met aux four­nisseurs de fac­tur­er un coût glob­al inclu­ant le coût de la com­mu­ni­ca­tion et celui des ser­vices fournis.

Le rem­place­ment des ter­minaux sim­ples par des PC puis­sants a per­mis de déploy­er la tech­nolo­gie Inter­net. Inter­net réduit le réseau à sa fonc­tion de base : assur­er la con­nex­ion entre deux équipements. En revanche, il ne four­nit aucun des ser­vices assurés tra­di­tion­nelle­ment par les opéra­teurs de télé­com­mu­ni­ca­tions comme l’a­chem­ine­ment cor­rect des infor­ma­tions ou une garantie de débit. Chaque élé­ment d’un réseau Inter­net a le droit d’élim­in­er les infor­ma­tions qui cir­cu­lent en cas d’in­ci­dent ou de sur­charge. Ce sont les logi­ciels des machines con­nec­tées qui font leur affaire de s’adapter au débit disponible, de ren­voy­er si néces­saire les infor­ma­tions per­dues et bien sûr de s’adapter au type de contenu.

Cette sim­pli­fi­ca­tion du réseau a un prix : il faut une puis­sance de cal­cul d’en­v­i­ron un mil­lion d’in­struc­tions par sec­onde à chaque extrémité. Il y a dix ans, seules les sta­tions de tra­vail haut de gamme sup­por­t­aient cette pénal­i­sa­tion. Aujour­d’hui, le PC bas de gamme exé­cute plusieurs cen­taines de mil­lions d’in­struc­tions par sec­onde ren­dant ain­si économique l’usage de cette technologie.

L’in­fra­struc­ture Inter­net change donc la donne. Elle per­met d’élim­in­er les inter­dépen­dances en séparant l’in­fra­struc­ture de com­mu­ni­ca­tion et les appli­ca­tions qui l’u­tilisent. Il se crée ain­si deux marchés mon­di­aux très con­cur­ren­tiels : celui qui four­nit la con­nec­tiv­ité mon­di­ale et celui des con­tenus et des services.

Cette nou­velle con­cur­rence a déjà per­mis de réduire le coût de la con­nec­tiv­ité par un fac­teur de 1 à plusieurs mil­liers. Avec un accès par le câble ou l’AD­SL, un par­ti­c­uli­er est con­nec­té en per­ma­nence à grande vitesse sur Inter­net pour 300 francs par mois. Mais surtout, cette nou­velle infra­struc­ture favorise l’in­no­va­tion. Les nou­velles appli­ca­tions ou les nou­veaux ser­vices peu­vent béné­fici­er sans investisse­ment réseau d’une con­nec­tiv­ité mon­di­ale vers bien­tôt un mil­liard de clients poten­tiels à un coût marginal.

Pour comprendre

Pour com­pren­dre cette évo­lu­tion et ses con­séquences, il faut faire un peu d’his­toire et un peu de technique.

Le cal­cu­la­teur tel que nous le con­nais­sons naît vers 1950. C’est un très gros bébé : plusieurs dizaines de tonnes avec son usine élec­trique pour l’al­i­menter, lent avec sa cen­taine d’in­struc­tions par sec­onde et doté d’une toute petite cervelle de quelques mil­liers d’octets de mémoire. Le but : rem­plac­er la célèbre table de log­a­rithmes, encore en usage lorsque j’ai passé les con­cours des grandes écoles, pour faire des cal­culs numériques fas­ti­dieux. Cette nais­sance est déjà une demi-surprise.

Nor­male­ment, bien que des cal­cu­la­teurs spé­cial­isés aient été enfan­tés par les équipes de R&D des fab­ri­cants de cen­traux télé­phoniques comme les Bell Labs, le pre­mier cal­cu­la­teur à pro­gramme enreg­istré en mémoire, tel que nous le con­nais­sons aujour­d’hui, a été réal­isé à l’U­ni­ver­sité de Harvard.

En effet, ce sont les télé­phon­istes qui con­stru­isent les machines les plus com­plex­es de l’époque : les cen­traux télé­phoniques automa­tiques. Ils ont détrôné les grandes orgues qui ont été pen­dant deux siè­cles les machines avec le plus grand nom­bre de com­posants. Cepen­dant la logique câblée reste la règle.

Le cal­cu­la­teur est né d’une idée fon­da­men­tale sim­ple : réalis­er une machine avec un nom­bre très réduit d’in­struc­tions, spé­cial­isée unique­ment par un “pro­gramme” chargé dans la mémoire comme des don­nées. Or, pour chaque type d’ap­pli­ca­tion, de nom­breux tech­ni­ciens pen­saient (et cer­tains con­tin­u­ent de le croire) qu’une machine spé­cial­isée serait moins chère et plus performante.

C’est pour­tant le cal­cu­la­teur banal­isé spé­cial­isé par du logi­ciel qui a pro­gres­sive­ment tri­om­phé dans tous les domaines, ouvrant la voie, comme on le ver­ra plus loin, au mul­ti­mé­dia. Mais revenons aux débuts des années 50. Le marché mon­di­al de tels “cerveaux élec­tron­iques” est alors éval­ué à env­i­ron 50 machines par une étude de marché qui est restée célèbre. Le vrai démar­rage du cal­cu­la­teur, c’est d’abord l’in­ven­tion du tran­sis­tor avec une durée de vie qua­si illim­itée qui rem­place les tubes élec­tron­iques peu fiables, puis du cir­cuit inté­gré avec la fameuse loi de Moore (directeur chez Fairchild et ensuite fon­da­teur d’In­tel) qui prédit dès 1964 un dou­ble­ment du nom­bre de tran­sis­tors par cir­cuits tous les dix-huit mois. Depuis trente-cinq ans, l’in­for­ma­tique vit avec cette crois­sance expo­nen­tielle qui n’a pas d’équiv­a­lent dans d’autres domaines.

Cette amélio­ra­tion du rap­port performance/prix d’en­v­i­ron 30 % par an explique l’in­tro­duc­tion pro­gres­sive du cal­cu­la­teur dans tous les équipements et activ­ités humaines. Il faut not­er que rien n’a changé depuis le début du cal­cu­la­teur si ce n’est la taille des com­posants et la vitesse d’exé­cu­tion. On est passé de quelques mil­liers de posi­tions mémoires à plusieurs cen­taines de mil­lions et le nom­bre d’in­struc­tions exé­cutées par sec­onde va bien­tôt dépass­er le mil­liard ! Le principe de base est resté le même : chaque tâche par­ti­c­ulière est effec­tuée par l’exé­cu­tion d’un “pro­gramme” suite d’in­struc­tions don­nées à la machine.

Très rapi­de­ment, l’en­jeu a été l’écri­t­ure de ces fameux pro­grammes, les logi­ciels dont le mot est apparu au début des années 70. Les pre­miers pro­grammes d’or­di­na­teurs avaient été fab­riqués par des math­é­mati­ciens et des sci­en­tifiques qui pen­saient que le tra­vail était sim­ple et logique. Le logi­ciel s’est révélé plus dif­fi­cile à dévelop­per qu’ils ne l’avaient sup­posé. Les ordi­na­teurs étaient têtus. Ils s’ob­sti­naient à faire ce qui était écrit plutôt que ce qui était voulu.

Une nou­velle race d’ar­ti­sans prit le relais pour faire le tra­vail et par un proces­sus dar­winien jeta pro­gres­sive­ment les bases d’une nou­velle sci­ence. Une machine à tout faire, des spé­cial­istes du logi­ciel, voilà les ingré­di­ents de la recette gagnante.

La dialectique informatique — télécommunications

Au début des années 1970, le développe­ment du télé­phone et les pre­miers suc­cès des cal­cu­la­teurs amè­nent les fab­ri­cants de cen­traux télé­phoniques à rem­plac­er la logique câblée par des cal­cu­la­teurs. Ils se lan­cent dans la con­struc­tion de cal­cu­la­teurs spé­cial­isés mieux adap­tés, pensent-ils, aux tâch­es à réalis­er. En effet, la fia­bil­ité des cal­cu­la­teurs sem­blait insuff­isante et cer­tains pen­saient trou­ver les instruc­tions “mir­a­cle” qui allaient sim­pli­fi­er l’écri­t­ure et accélér­er l’exé­cu­tion des pro­grammes. Con­stru­ire des cal­cu­la­teurs était presque un jeu d’en­fant pour ces spé­cial­istes des logiques câblées très complexes.

En revanche, il fal­lait dévelop­per le logi­ciel qui allait avec, tâche autrement titanesque et sys­té­ma­tique­ment sous-estimée. La com­péti­tion avec les con­struc­teurs de cal­cu­la­teurs “à tout faire” qui pou­vaient amor­tir les dépens­es de réal­i­sa­tion des logi­ciels sur de grandes séries tourne court. Au bout de quelques années, les indus­triels des télé­com­mu­ni­ca­tions adoptent les cal­cu­la­teurs stan­dard et leurs logi­ciels pour réalis­er des sys­tèmes de télécommunications.

La bataille des réseaux

Cette pre­mière “con­ver­gence” entre infor­ma­tique et télé­com­mu­ni­ca­tions donne nais­sance à la téléin­for­ma­tique appelée en France “télé­ma­tique”. L’idée de faire com­mu­ni­quer des cal­cu­la­teurs entre eux ou avec des ter­minaux à dis­tance n’é­tait pas nou­velle. Le coût des cal­cu­la­teurs était tel qu’il sem­blait oblig­a­toire de le partager entre de nom­breux util­isa­teurs : la prise de cal­cul à côté de la prise de courant. Ain­si sont nés les sys­tèmes de “time shar­ing” à la fin des années 60.

Mais l’in­tro­duc­tion du cal­cu­la­teur stan­dard dans les réseaux favorise le développe­ment des appli­ca­tions avec la créa­tion de Transpac en France, pre­mier pays à être doté d’un réseau numérique nation­al. Transpac servi­ra de base à la mise en place de nom­breuses appli­ca­tions pro­fes­sion­nelles pour inter­con­necter des cal­cu­la­teurs comme la plu­part des réseaux bancaires.

Dans le grand pub­lic, le réseau Télé­tel qui s’ap­puie sur Transpac et surtout le Mini­tel font une entrée remar­quée. C’est la vogue des 3615… qui précède de dix ans celle des http://www… Mais le monde des réseaux reste un monde frac­tion­né. Il y a un réseau télé­phonique dont les extrémités sont analogiques, un réseau numérique pour les don­nées, des réseaux analogiques de dif­fu­sion pour la radio et la télévi­sion, un réseau radio numérique pour les télé­phones mobiles, etc.

Croissance du trafic réseau mondial 1996 - 2001Le réseau unique appa­raît comme une utopie d’in­for­mati­cien. Chaque tech­nolo­gie raf­fine son réseau comme l’ad­jonc­tion réussie des répon­deurs, de la télé­copie et des modems sur le réseau télé­phonique ou les échecs suc­ces­sifs de la vidéo “à la demande” sur les réseaux câblés ou du D2MAC tech­nolo­gie hybride analogique-numérique sur les satellites.

En fait, les par­ti­sans des réseaux spé­cial­isés expliquent que pour tir­er le meilleur par­ti d’une tech­nolo­gie et pour garan­tir le niveau de ser­vice, le débit ou les temps de réponse, il faut un réseau dit intel­li­gent entière­ment géré et maîtrisé autour du con­tenu. Les réseaux clas­siques et leurs inter­faces sont conçus pour fonc­tion­ner dans des con­di­tions de traf­ic fix­es plutôt que pour s’adapter aux con­di­tions réelles ren­con­trées. Cela con­duit générale­ment à un sur­di­men­sion­nement de la bande pas­sante et de la puissance.

Un réseau comme Inter­net qui four­nit le ser­vice min­i­mum : la con­nec­tiv­ité et qui ne garan­tit rien, même pas l’a­chem­ine­ment d’un paquet, sem­blait une idée aber­rante. C’est pour­tant ce qui s’est imposé et qui, en quelques années, a bal­ayé toutes les objec­tions des spé­cial­istes. En fait, c’est ce ser­vice min­i­mum qui per­met aux pro­grammes aux deux bouts de s’adapter au débit instan­ta­né con­staté ou de rede­man­der si néces­saire la réémis­sion des paque­ts per­dus. Il est bien évi­dent que le pro­to­cole Inter­net ne sup­prime pas le méti­er d’opéra­teur de télé­com­mu­ni­ca­tions qui doit fournir et opti­miser des capac­ités de trans­port de plus en plus importantes.

Cepen­dant les ser­vices demandés à ce réseau se banalisent et c’est le même réseau qui trans­portera tous les types de don­nées sous forme numérique. Le traf­ic télé­phonique qui représen­tait il y a quelques années 90 % du traf­ic des réseaux va rapi­de­ment se dis­soudre dans le traf­ic de l’In­ter­net. Le traf­ic du back­bone Inter­net de MCI­Worl­com dou­ble tous les cent jours, soit une crois­sance de 1 000 % par an. AT&T a annon­cé qu’il n’achèterait plus de nou­veaux cen­traux télé­phoniques après 1999.

Le passage au numérique

L’idée de traiter toutes les infor­ma­tions sous forme numérique n’é­tait pas évi­dente. Au début des années 60, toutes les infor­ma­tions manip­ulées par les tech­nolo­gies étaient des infor­ma­tions analogiques : la règle à cal­cul, le télé­phone, le disque 33 tours, l’ap­pareil pho­to, la radio et la télévision.

L’a­van­tage d’une représen­ta­tion numérique pour faire des cal­culs sur les nom­bres était évi­dent. Les algo­rithmes qui avaient con­duit au suc­cès de la numéra­tion de posi­tion au XVe siè­cle étaient faciles à trans­pos­er en programmes.

Le sys­tème de représen­ta­tion en base 2 util­isé dans les cal­cu­la­teurs est proche de l’op­ti­mum en ter­mes d’ef­fi­cac­ité pour stock­er des nom­bres. Le rap­port nom­bre de chiffres/nombre est min­i­mum pour une représen­ta­tion en base e. Mais, il n’en était déjà plus de même pour les let­tres : les pre­miers codes n’u­til­i­saient que 5 à 6 bits seule­ment pour représen­ter un car­ac­tère. L’idée d’u­tilis­er 8 bits soit 256 pos­si­bil­ités pour représen­ter un alpha­bet de 26 let­tres et 10 chiffres sem­blait au début un gaspillage con­sid­érable. Aujour­d’hui, on est passé à 16 bits par car­ac­tère avec l’U­ni­code, néces­saire sur Inter­net pour représen­ter simul­tané­ment tous les alpha­bets de toutes les langues y com­pris le chinois.

En revanche, la numéri­sa­tion du son ou de l’im­age engen­dre un vol­ume con­sid­érable d’in­for­ma­tions. Une sec­onde de télévi­sion numérique ou trois min­utes de son sur un disque com­pact, c’est cent fois la Bible.

Pour traiter ces infor­ma­tions, sou­vent en temps réel, il fal­lait des vitesses de cal­cul telles qu’elles sem­blaient hors de portée des cal­cu­la­teurs général­istes. Pour chaque média, l’his­toire s’est répétée. Pour traiter ces mass­es de don­nées, les tech­ni­ciens inven­tent des sys­tèmes spé­cial­isés. Le matériel con­stru­it en petite série coûte cher et le logi­ciel est très long à développer.

Dès que les cal­cu­la­teurs stan­dard ont la puis­sance et la capac­ité mémoire suff­isante, ils bal­ayent tous ces développe­ments spé­ci­fiques et ce sont les logi­ciels des infor­mati­ciens qui pren­nent le relais. Pour s’en con­va­in­cre, regar­dons ce qui se passe dans l’in­dus­trie du disque.

Du 33 tours au mp3

Volumes comparés des informations numériséesLe disque com­pact (CD) fait son appari­tion en 1983. C’est la pre­mière appli­ca­tion grand pub­lic de la numéri­sa­tion du son. Pour obtenir une bonne qual­ité, le son est échan­til­lon­né sur 16 bits à une fréquence de 44,1 kHz, ce qui néces­site pour un sig­nal en stéréo un débit de 44 100 x 16 x 2 = 1.4 Mbit/seconde. Avec les infor­ma­tions de cor­rec­tion d’er­reurs, il faut stock­er 600 à 700 mil­lions d’octets pour une heure de musique. Seul le disque optique numérique per­met de stock­er une telle quan­tité d’in­for­ma­tion sur un sup­port aus­si petit et peu coû­teux. Mal­gré le coût élevé des équipements de gravure et de lec­ture, le CD a tout de suite été un grand suc­cès et le disque analogique 33 tours en vinyle a dis­paru en quelques années.

Le coût et la com­plex­ité des équipements spé­ci­aux néces­saires pour fab­ri­quer les CD sem­blaient pro­téger l’in­dus­trie du disque à tout jamais. En 1983, les micro­cal­cu­la­teurs dis­po­saient générale­ment de deux dis­quettes de 360 Ko comme moyen de stock­age, soit l’équiv­a­lent de quelques sec­on­des de musique. Mais la loi de Moore val­able aus­si pour le stock­age sur disque a pro­duit ses effets. Aujour­d’hui, le PC stan­dard dis­pose de dis­ques de 6 à 10 Go qui per­me­t­tent de stock­er plus d’une dizaine de CD. Et le graveur de CD, au prix incroy­able­ment bas de 1 190 F dans les pro­mo­tions des super­marchés, per­met de dupli­quer un CD en quelques min­utes sans perte de qual­ité sur un sup­port qui est ven­du 7 francs pièce.

Cepen­dant, les ingénieurs ne se sont pas arrêtés là. Un morceau de musique numérique de quelques min­utes, c’est 50 Mo de don­nées. C’est beau­coup trop pour être trans­mis par réseau ou pour con­stituer une dis­cothèque sur un PC. Une tech­nolo­gie de com­pres­sion à débit ajustable dévelop­pée à l’o­rig­ine pour la télévi­sion, le MPEG1 lay­er 3 dit “mp3”, s’est brusque­ment répan­due sur le réseau Inter­net, au point de men­ac­er l’in­dus­trie du disque tra­di­tion­nelle. Avec des taux de com­pres­sion de l’or­dre de 10 à 20 sans perte audi­ble de qual­ité sonore, le mp3 autorise la dif­fu­sion par Inter­net de musique de bonne qual­ité sans pass­er par les cir­cuits traditionnels.

Les techniques de compression

Nous avons vu que la révo­lu­tion mul­ti­mé­dia s’ap­puie sur un cal­cu­la­teur stan­dard très puis­sant, des infor­ma­tions numériques et un réseau de com­mu­ni­ca­tion mon­di­al unique. Le dernier ingré­di­ent tech­nique est l’indis­pens­able com­pres­sion des don­nées. Il y a, en gros, deux sortes de tech­niques de com­pres­sion. La com­pres­sion qui con­serve la total­ité des infor­ma­tions ini­tiales dite non destructive.

Volumes comparés des informations numérisées après compressionC’est celle qui est util­isée pour les pro­grammes et les don­nées dans les cal­cu­la­teurs : les fameux fichiers dit “zip­pés” qui per­me­t­tent lors de la décom­pres­sion de restituer le fichi­er exacte­ment dans l’é­tat ini­tial. Les per­for­mances couram­ment observées sont des réduc­tions de taille de l’or­dre de 4. Insuff­isant pour le son, les images ou la télévi­sion. Pour que la numéri­sa­tion soit économique­ment accept­able, les don­nées numériques doivent se con­tenter de la bande pas­sante néces­saire pour les anciens sig­naux analogiques. Les taux de com­pres­sion à attein­dre sont donc de 10 à 1 000.

Pour y arriv­er, il faut dimin­uer le nom­bre d’in­for­ma­tions trans­mis­es. On utilise les car­ac­téris­tiques physiques de l’œil et de l’or­eille humaine. Le sig­nal com­pressé perd les détails qui ne sont pas perçus. Pour don­ner des ordres de grandeurs, on obtient des taux de com­pres­sion sans dégra­da­tion notable par l’or­eille ou par l’œil de 10 à 20 pour le son, de 20 à 50 pour les images, de 100 à 200 pour la télévision.

La décom­pres­sion est une opéra­tion rel­a­tive­ment rapi­de. En revanche, la com­pres­sion néces­site une très grande puis­sance de cal­cul, surtout pour des sig­naux com­primés en temps réel comme pour le télé­phone ou la télévi­sion en direct. Au fur et à mesure de l’amélio­ra­tion des per­for­mances des cal­cu­la­teurs stan­dard, les tech­niques logi­cielles pren­nent pro­gres­sive­ment le relais des équipements spécialisés.

Les empires du multimédia s’organisent autour des contenus

La révo­lu­tion mul­ti­mé­dia bous­cule les acteurs en place. À la lumière de ces évo­lu­tions tech­niques, il est facile de prévoir que la maîtrise de l’in­fra­struc­ture Inter­net et la maîtrise des con­tenus seront les enjeux de la prochaine décennie.

L’importance d’Internet

Inter­net, ou plus pré­cisé­ment l’in­fra­struc­ture IP, représente une fron­tière clé entre un média de com­mu­ni­ca­tion et les appli­ca­tions con­stru­ites sur ce média. C’est une fron­tière très spé­ciale, puisqu’elle per­met à ces deux marchés de fonc­tion­ner selon leurs pro­pres règles. Avec les nou­velles tech­nolo­gies numériques, l’a­van­tage s’est déplacé vers une con­cep­tion sou­ple qui per­met de tir­er par­ti d’op­por­tu­nités non prévues.

En évi­tant les biais des réseaux précé­dents opti­misés autour d’un con­tenu, l’in­fra­struc­ture IP a créé une place de marché pour des con­cepts nou­veaux qui tirent par­ti de la con­nec­tiv­ité abon­dante et peu coû­teuse. Dans ce domaine, les enjeux seront de fournir une con­nec­tiv­ité per­ma­nente à des équipements fix­es ou mobiles avec le meilleur rap­port performance/prix.

Cepen­dant, la banal­i­sa­tion de l’in­fra­struc­ture et des com­posants tech­niques n’en­traîn­era ni le ter­mi­nal unique, ni la fusion des dif­férents métiers des médias. L’idée d’un ter­mi­nal unique à tout faire (PC, télévi­sion, télé­phone, fax…) est une utopie d’au­teur de sci­ence-fic­tion. La tech­nolo­gie va dis­paraître sous la fonc­tion et nous allons, bien au con­traire, assis­ter à l’ap­pari­tion de nom­breux ter­minaux spé­cial­isés par fonc­tion et faciles à utiliser.

L’importance du contenu

L’ensem­ble des con­tenus numérisés va être dif­fusé à par­tir de serveurs au tra­vers d’ap­pli­ca­tions. De même que pour les équipements, la con­ver­gence vers une tech­nolo­gie unique ne va pas entraîn­er de fusion des métiers. Les métiers de l’in­for­ma­tique, de l’édi­tion ou de la télévi­sion vont rester séparés. En revanche, la manière d’ex­ercer ces métiers va pro­fondé­ment chang­er et la pos­ses­sion des con­tenus devien­dra un des enjeux prioritaires.

Et demain

La loi de Moore va con­tin­uer de s’ap­pli­quer pen­dant encore dix ans avant d’at­tein­dre la lim­ite physique de la taille des tran­sis­tors sur les cir­cuits inté­grés. Avec un dou­ble­ment tous les dix-huit mois, il reste donc encore à gag­n­er un rap­port 1 000.

L’amélio­ra­tion des per­for­mances des fibres optiques dont la capac­ité dou­ble tous les ans est encore plus spec­tac­u­laire. Ces meilleures per­for­mances vont surtout per­me­t­tre de fournir des inter­faces plus naturelles avec les machines en ajoutant aux écrans, claviers, souris, la recon­nais­sance de la voix et de l’écri­t­ure man­u­scrite. Bien que le cal­cu­la­teur soit banal­isé, il existe encore des périphériques spé­cial­isés qu’il faut con­necter au cal­cu­la­teur : la carte son, la carte vidéo, la carte Tuner FM ou TV ou le télé­phone mobile avec son Modem.

Les inter­faces (bus) néces­saires pour con­necter ces cartes com­pliquent les cal­cu­la­teurs. Au fur et à mesure de l’aug­men­ta­tion de la puis­sance, ces cartes seront aus­si rem­placées par des logi­ciels. C’est en cours pour le son ou la vidéo. Demain un récep­teur radio ou un télé­phone mobile seront obtenus à par­tir d’un cal­cu­la­teur stan­dard. La par­tie radio échan­til­lon­nera l’ensem­ble d’une gamme de fréquences directe­ment en mémoire RAM et le cal­cu­la­teur stan­dard se trans­formera en récep­teur radio ou en télé­phone mobile par une sim­ple mise à jour de logiciel.

Vers le milliard d’utilisateurs connectés

L’aug­men­ta­tion régulière de la puis­sance des micro­processeurs, les pro­grès du logi­ciel, le mul­ti­mé­dia et l’In­ter­net dessi­nent les con­tours d’un nou­veau paysage : la société de l’in­for­ma­tion. Dans quelques années, un mil­liard d’u­til­isa­teurs et une quan­tité innom­brable de ter­minaux, cap­teurs, équipements seront inter­con­nec­tés pour acheter, ven­dre et échang­er libre­ment des infor­ma­tions ou des services.

Ces nou­velles tech­nolo­gies de l’in­for­ma­tion représen­tent un boule­verse­ment cul­turel des modes d’é­d­u­ca­tion et de com­mu­ni­ca­tion qui va chang­er le fonc­tion­nement même de la société, mod­i­fi­ant par exem­ple l’or­gan­i­sa­tion du tra­vail, l’ac­cès des citoyens aux ser­vices de san­té ou d’é­d­u­ca­tion, les rela­tions administration/administré, voire les con­di­tions d’ex­er­ci­ce de la démocratie.

L’odyssée infor­ma­tique vient tout juste de commencer.

Poster un commentaire