De l’ordinateur à l’intelligence collaborative

Dossier : X-Informatique et le "G9 +"Magazine N°633 Mars 2008
Par Jean-Paul FIGER (62)

La pre­mière phase du développe­ment de l’in­for­ma­tique (1960–1980) s’est con­stru­ite autour de gros ordi­na­teurs cen­traux. Ces ordi­na­teurs trait­ent quelques cen­taines de sources de don­nées avec des temps de réponse qui s’ex­pri­ment d’abord en mois puis en semaines. C’est l’ère de la dom­i­na­tion d’IBM. La deux­ième phase (1980–2000) a été car­ac­térisée par la créa­tion d’îlots d’or­di­na­teurs qui trait­ent des mil­lions de sources de don­nées. Les temps de réponse s’ex­pri­ment en semaines ou en journées. C’est l’ère de la dom­i­na­tion d’In­tel et de Microsoft. Ces très nom­breux îlots dis­per­sés ne com­mu­niquent pas facile­ment entre eux. La phase actuelle (2000–2020) se car­ac­térise par l’a­jout de don­nées mul­ti­mé­dias avec des mil­liards de sources d’in­for­ma­tions. Grâce à la con­nec­tiv­ité mon­di­ale de l’In­ter­net, le temps de réponse est de l’or­dre de la sec­onde. Le fonc­tion­nement devient qua­si­ment du temps réel. C’est l’ère dont le mod­èle est Google. 

De l’analogique au numérique

En 1960, toutes les infor­ma­tions (textes, télé­phone, pho­tos, musiques, télévi­sion) sont stock­ées et trans­mis­es sous forme analogique. À par­tir de 2000, la plu­part des infor­ma­tions sont stock­ées et trans­mis­es sous forme numérique : le cour­ri­er élec­tron­ique a rem­placé la let­tre papi­er ou le fax, le Com­pact Disc puis le mp3 ont rem­placé le disque vinyle, la pho­togra­phie argen­tique a été bal­ayée par le stock­age de fichiers numériques au for­mat jpeg, le son est trans­mis numérisé par le télé­phone mobile et la télévi­sion analogique vit ses derniers jours rem­placée par la télévi­sion numérique sur le satel­lite ou la télévi­sion numérique ter­restre (TNT). 

Les limites de la miniaturisation

Une trans­for­ma­tion radicale
La trans­for­ma­tion de don­nées analogiques vers un codage numérique néces­site des cal­cu­la­teurs très rapi­des pour com­press­er et décom­press­er les don­nées. Des cen­taines de mil­lions d’ordinateurs peu coû­teux tout au long de la chaîne de créa­tion, de traite­ment, de dif­fu­sion et de resti­tu­tion de ces infor­ma­tions ont per­mis cette trans­for­ma­tion radicale.

Les pro­grès du matériel que nous obser­vons depuis quar­ante-cinq ans ont une seule cause : l’in­té­gra­tion d’un nom­bre tou­jours plus grand de com­posants sur un cir­cuit inté­gré. La taille du cir­cuit inté­gré a peu évolué : quelques cen­timètres car­rés. L’ac­croisse­ment du nom­bre de com­posants dans un cir­cuit est obtenu prin­ci­pale­ment par une réduc­tion de la taille des gravures — moins de 70 nanomètres en 2007 -, inférieure à la longueur d’onde de l’ul­tra­vi­o­let. Il est évi­dent que cette minia­tur­i­sa­tion a une lim­ite. S’il fal­lait 1019 atom­es pour représen­ter un bit d’in­for­ma­tion, un trou sur une carte per­forée de l’IBM 1620 de mes débuts en 1964, il ne faut plus que 105 atom­es pour un bit sur un DVD et seule­ment quelques dizaines d’atomes dans l’ADN. Une lim­ite réal­iste pour la tech­nolo­gie employée est aux alen­tours de 1 000 atom­es. Cette lim­ite sera atteinte vers 2015. La minia­tur­i­sa­tion, prin­ci­pal moteur du développe­ment du matériel, va donc dis­paraître. Les signes avant-coureurs sont déjà là. La puis­sance des micro­processeurs, autre­fois exprimée en méga ou giga-hertz/sec­onde, a fait place depuis quelques années à des numéros mar­ket­ing : l’In­tel core 2 duo T7100 fonc­tionne à 1,8 GHz et le Celeron D331 à 2,66 Ghz. Comme la fréquence de fonc­tion­nement ne peut plus croître très facile­ment, les con­struc­teurs mul­ti­plient le nom­bre de processeurs (coeur) sur le même cir­cuit. On voit donc appa­raître les dou­bles-coeurs (dual core) puis les quadri et bien­tôt les octo… Cepen­dant deux processeurs ne sont générale­ment pas équiv­a­lents à un processeur de puis­sance double. 

Plusieurs approches encore expérimentales

La loi de Moore
Plus l’intégration aug­mente, plus la taille des tran­sis­tors dimin­ue et plus les per­for­mances s’améliorent. Le coût mar­gin­al de pro­duc­tion d’un cir­cuit est à peu près con­stant – quelques euros. À per­for­mances con­stantes, le coût d’un micro­processeur ou de la mémoire est divisé par 10 tous les qua­tre ans. C’est la fameuse loi édic­tée en 1965 par Gor­don Moore, cofon­da­teur d’Intel.

Il con­vient donc de se pos­er la ques­tion, au-delà de l’emploi mas­sif des mul­ti­processeurs, de l’éventuelle tech­nolo­gie de rem­place­ment. L’or­di­na­teur biologique est un rêve d’au­teur de sci­ence-fic­tion. Les deux approches CC [Chem­i­cal com­put­ing] ou SOMC [Elec­tron trans­port through sin­gle organ­ic mol­e­cules] restent au niveau de la recherche fon­da­men­tale. Une idée plus réal­iste con­sis­terait à rem­plac­er l’élec­tron par le pho­ton. Un ordi­na­teur à pho­tons pour­rait fonc­tion­ner au moins 1 000 fois plus rapi­de­ment qu’un ordi­na­teur à élec­trons. Cepen­dant, il faut un ” tran­sis­tor à pho­tons ” pour espér­er réalis­er un jour des ordi­na­teurs pho­toniques. Cer­tains dis­posi­tifs exis­tent en lab­o­ra­toire et per­me­t­tent d’e­spér­er une solu­tion. Cepen­dant, comme il n’y a pas de piste très sérieuse pour une indus­tri­al­i­sa­tion, il est donc plus que prob­a­ble que nous con­tin­uerons au-delà de l’an 2020 avec la tech­nolo­gie actuelle basée sur l’électron. 

Tout connecter à tout

Le temps des normes pro­prié­taires est révolu

Le développe­ment des tech­nolo­gies numériques a com­plète­ment changé le paysage infor­ma­tique. Les réseaux spé­cial­isés, opti­misés pour un seul média, sont rem­placés par une infra­struc­ture unique réduite à son rôle le plus élé­men­taire : la con­nec­tiv­ité. Fondée sur les tech­nolo­gies de l’in­for­ma­tique et les stan­dards de l’In­ter­net, cette infra­struc­ture per­met main­tenant de tout con­necter à tout, partout. Elle a don­né nais­sance à une gigan­tesque com­mu­nauté d’un mil­liard d’u­til­isa­teurs. Toutes les inno­va­tions tech­nologiques et tous les nou­veaux développe­ments sont passés au crible de ce mil­liard d’u­til­isa­teurs, expéri­men­ta­teurs ou développeurs. Un proces­sus de sélec­tion ” dar­winien ” rem­place les déci­sions de comités tech­niques sou­vent biaisées par la poli­tique ou l’in­com­pé­tence. Cette for­mi­da­ble coopéra­tion mon­di­ale a déjà pro­duit les meilleurs logi­ciels, ceux qui font tourn­er l’In­ter­net, imposé ses choix comme le MP3 pour la dif­fu­sion de la musique ou le mpeg4 pour la télévi­sion. Le temps où des four­nisseurs pou­vaient pro­téger leurs ” empires ” par des normes pro­prié­taires est désor­mais révolu. L’in­flu­ence de cette coopéra­tion informelle entre un mil­liard d’u­til­isa­teurs est beau­coup moins vis­i­ble que la per­for­mance du matériel mais sera beau­coup plus impor­tante pour l’évo­lu­tion de l’informatique.

Poster un commentaire