De l’ordinateur à l’intelligence collaborative

Dossier : X-Informatique et le "G9 +"Magazine N°633 Mars 2008
Par Jean-Paul FIGER (62)

La pre­mière phase du déve­lop­pe­ment de l’in­for­ma­tique (1960−1980) s’est construite autour de gros ordi­na­teurs cen­traux. Ces ordi­na­teurs traitent quelques cen­taines de sources de don­nées avec des temps de réponse qui s’ex­priment d’a­bord en mois puis en semaines. C’est l’ère de la domi­na­tion d’IBM. La deuxième phase (1980−2000) a été carac­té­ri­sée par la créa­tion d’î­lots d’or­di­na­teurs qui traitent des mil­lions de sources de don­nées. Les temps de réponse s’ex­priment en semaines ou en jour­nées. C’est l’ère de la domi­na­tion d’In­tel et de Micro­soft. Ces très nom­breux îlots dis­per­sés ne com­mu­niquent pas faci­le­ment entre eux. La phase actuelle (2000−2020) se carac­té­rise par l’a­jout de don­nées mul­ti­mé­dias avec des mil­liards de sources d’in­for­ma­tions. Grâce à la connec­ti­vi­té mon­diale de l’In­ter­net, le temps de réponse est de l’ordre de la seconde. Le fonc­tion­ne­ment devient qua­si­ment du temps réel. C’est l’ère dont le modèle est Google. 

De l’analogique au numérique

En 1960, toutes les infor­ma­tions (textes, télé­phone, pho­tos, musiques, télé­vi­sion) sont sto­ckées et trans­mises sous forme ana­lo­gique. À par­tir de 2000, la plu­part des infor­ma­tions sont sto­ckées et trans­mises sous forme numé­rique : le cour­rier élec­tro­nique a rem­pla­cé la lettre papier ou le fax, le Com­pact Disc puis le mp3 ont rem­pla­cé le disque vinyle, la pho­to­gra­phie argen­tique a été balayée par le sto­ckage de fichiers numé­riques au for­mat jpeg, le son est trans­mis numé­ri­sé par le télé­phone mobile et la télé­vi­sion ana­lo­gique vit ses der­niers jours rem­pla­cée par la télé­vi­sion numé­rique sur le satel­lite ou la télé­vi­sion numé­rique ter­restre (TNT). 

Les limites de la miniaturisation

Une trans­for­ma­tion radicale
La trans­for­ma­tion de don­nées ana­lo­giques vers un codage numé­rique néces­site des cal­cu­la­teurs très rapides pour com­pres­ser et décom­pres­ser les don­nées. Des cen­taines de mil­lions d’ordinateurs peu coû­teux tout au long de la chaîne de créa­tion, de trai­te­ment, de dif­fu­sion et de res­ti­tu­tion de ces infor­ma­tions ont per­mis cette trans­for­ma­tion radicale.

Les pro­grès du maté­riel que nous obser­vons depuis qua­rante-cinq ans ont une seule cause : l’in­té­gra­tion d’un nombre tou­jours plus grand de com­po­sants sur un cir­cuit inté­gré. La taille du cir­cuit inté­gré a peu évo­lué : quelques cen­ti­mètres car­rés. L’ac­crois­se­ment du nombre de com­po­sants dans un cir­cuit est obte­nu prin­ci­pa­le­ment par une réduc­tion de la taille des gra­vures – moins de 70 nano­mètres en 2007 -, infé­rieure à la lon­gueur d’onde de l’ul­tra­vio­let. Il est évident que cette minia­tu­ri­sa­tion a une limite. S’il fal­lait 1019 atomes pour repré­sen­ter un bit d’in­for­ma­tion, un trou sur une carte per­fo­rée de l’IBM 1620 de mes débuts en 1964, il ne faut plus que 105 atomes pour un bit sur un DVD et seule­ment quelques dizaines d’a­tomes dans l’ADN. Une limite réa­liste pour la tech­no­lo­gie employée est aux alen­tours de 1 000 atomes. Cette limite sera atteinte vers 2015. La minia­tu­ri­sa­tion, prin­ci­pal moteur du déve­lop­pe­ment du maté­riel, va donc dis­pa­raître. Les signes avant-cou­reurs sont déjà là. La puis­sance des micro­pro­ces­seurs, autre­fois expri­mée en méga ou giga-hertz/­se­conde, a fait place depuis quelques années à des numé­ros mar­ke­ting : l’In­tel core 2 duo T7100 fonc­tionne à 1,8 GHz et le Cele­ron D331 à 2,66 Ghz. Comme la fré­quence de fonc­tion­ne­ment ne peut plus croître très faci­le­ment, les construc­teurs mul­ti­plient le nombre de pro­ces­seurs (coeur) sur le même cir­cuit. On voit donc appa­raître les doubles-coeurs (dual core) puis les qua­dri et bien­tôt les octo… Cepen­dant deux pro­ces­seurs ne sont géné­ra­le­ment pas équi­va­lents à un pro­ces­seur de puis­sance double. 

Plusieurs approches encore expérimentales

La loi de Moore
Plus l’intégration aug­mente, plus la taille des tran­sis­tors dimi­nue et plus les per­for­mances s’améliorent. Le coût mar­gi­nal de pro­duc­tion d’un cir­cuit est à peu près constant – quelques euros. À per­for­mances constantes, le coût d’un micro­pro­ces­seur ou de la mémoire est divi­sé par 10 tous les quatre ans. C’est la fameuse loi édic­tée en 1965 par Gor­don Moore, cofon­da­teur d’Intel.

Il convient donc de se poser la ques­tion, au-delà de l’emploi mas­sif des mul­ti­pro­ces­seurs, de l’é­ven­tuelle tech­no­lo­gie de rem­pla­ce­ment. L’or­di­na­teur bio­lo­gique est un rêve d’au­teur de science-fic­tion. Les deux approches CC [Che­mi­cal com­pu­ting] ou SOMC [Elec­tron trans­port through single orga­nic mole­cules] res­tent au niveau de la recherche fon­da­men­tale. Une idée plus réa­liste consis­te­rait à rem­pla­cer l’élec­tron par le pho­ton. Un ordi­na­teur à pho­tons pour­rait fonc­tion­ner au moins 1 000 fois plus rapi­de­ment qu’un ordi­na­teur à élec­trons. Cepen­dant, il faut un » tran­sis­tor à pho­tons » pour espé­rer réa­li­ser un jour des ordi­na­teurs pho­to­niques. Cer­tains dis­po­si­tifs existent en labo­ra­toire et per­mettent d’es­pé­rer une solu­tion. Cepen­dant, comme il n’y a pas de piste très sérieuse pour une indus­tria­li­sa­tion, il est donc plus que pro­bable que nous conti­nue­rons au-delà de l’an 2020 avec la tech­no­lo­gie actuelle basée sur l’électron. 

Tout connecter à tout

Le temps des normes pro­prié­taires est révolu

Le déve­lop­pe­ment des tech­no­lo­gies numé­riques a com­plè­te­ment chan­gé le pay­sage infor­ma­tique. Les réseaux spé­cia­li­sés, opti­mi­sés pour un seul média, sont rem­pla­cés par une infra­struc­ture unique réduite à son rôle le plus élé­men­taire : la connec­ti­vi­té. Fon­dée sur les tech­no­lo­gies de l’in­for­ma­tique et les stan­dards de l’In­ter­net, cette infra­struc­ture per­met main­te­nant de tout connec­ter à tout, par­tout. Elle a don­né nais­sance à une gigan­tesque com­mu­nau­té d’un mil­liard d’u­ti­li­sa­teurs. Toutes les inno­va­tions tech­no­lo­giques et tous les nou­veaux déve­lop­pe­ments sont pas­sés au crible de ce mil­liard d’u­ti­li­sa­teurs, expé­ri­men­ta­teurs ou déve­lop­peurs. Un pro­ces­sus de sélec­tion » dar­wi­nien » rem­place les déci­sions de comi­tés tech­niques sou­vent biai­sées par la poli­tique ou l’in­com­pé­tence. Cette for­mi­dable coopé­ra­tion mon­diale a déjà pro­duit les meilleurs logi­ciels, ceux qui font tour­ner l’In­ter­net, impo­sé ses choix comme le MP3 pour la dif­fu­sion de la musique ou le mpeg4 pour la télé­vi­sion. Le temps où des four­nis­seurs pou­vaient pro­té­ger leurs » empires » par des normes pro­prié­taires est désor­mais révo­lu. L’in­fluence de cette coopé­ra­tion infor­melle entre un mil­liard d’u­ti­li­sa­teurs est beau­coup moins visible que la per­for­mance du maté­riel mais sera beau­coup plus impor­tante pour l’é­vo­lu­tion de l’informatique.

Poster un commentaire