Jeu SpaceWar

Le jeu vidéo : de l’artisanat à l’industrie

Dossier : Le MultimédiaMagazine N°550 Décembre 1999
Par Sylvain HUET (91)

Les jeux aux États-Unis

Les jeux aux États-Unis

La préhis­toire du jeu vidéo com­mence vraisem­blable­ment au Mass­a­chus­sets Insti­tute of Tech­nol­o­gy en 1961. Là, sur un des pre­miers ordi­na­teurs DEC, “Slug” Rus­sel, un étu­di­ant en intel­li­gence arti­fi­cielle, dévelop­pa Space­war, un fab­uleux pro­gramme dans lequel deux vais­seaux spa­ti­aux soumis à l’at­trac­tion d’une planète s’af­fron­tent au ray­on laser. L’équipe de hack­ers du MIT, fascinée par ce jeu, trou­vait les con­trôles du jeu peu pra­tiques (il s’agis­sait d’in­ter­rup­teurs sur un pupitre) et inven­ta le pre­mier joy­stick.

Les bases du jeu vidéo mod­erne étaient dès lors posées : une inter­face homme machine évoluée con­sti­tuée d’un joy­stick et d’un écran graphique, mais surtout une nou­velle approche de l’in­for­ma­tique. En rup­ture avec l’in­for­ma­tique tra­di­tion­nelle dont le principe est de pren­dre des don­nées en entrée, de faire un cal­cul, et de pro­duire des don­nées en sor­tie, le jeu vidéo ne pro­duit rien ! Ce qui compte dans le jeu vidéo, ce n’est pas ce qu’on obtient à la fin, mais ce qui se passe pen­dant le fonc­tion­nement. Du point de vue infor­ma­tique, le jeu vidéo est un “effet de bord”, terme haute­ment péjo­ratif pour un esprit sci­en­tifique nor­male­ment constitué.

Dix ans plus tard, en 1971, Nolan Bush­nell fonde une société qui allait devenir un mythe dans les années 80, Atari, et pro­duit le pre­mier jeu d’ar­cade, Pong. Ce pre­mier jeu allait pop­u­laris­er le jeu vidéo en le ren­dant acces­si­ble à tous, mais il fal­lut atten­dre l’ap­pari­tion des micro-ordi­na­teurs quelques années plus tard pour démoc­ra­tis­er sa réal­i­sa­tion. L’Ap­ple II notam­ment, créé en 1976 et promis à une bril­lante car­rière, per­mit l’émer­gence d’une nou­velle tribu, celle des auteurs de jeu. Avec un investisse­ment min­i­mal, et beau­coup de temps, et beau­coup de nuits blanch­es, il deve­nait pos­si­ble pour n’im­porte qui de dévelop­per un jeu. La dif­fu­sion était plus dif­fi­cile, mais un nom­bre de pièces mod­este suff­i­sait à rentabilis­er un si faible investissement.

Les suc­cess-sto­ries ne man­quent pas : en 1980, Ken William, un infor­mati­cien améri­cain, plaça toutes ses économies dans un Apple II dans le but de dévelop­per et de ven­dre un com­pi­la­teur For­tran. Il n’en ven­dit pas un seul, mais sa femme, Rober­ta Williams, au début imper­méable au charme de la machine, eut l’idée géniale de réalis­er un jeu d’aven­ture appelé Mys­tery House et gagna 60 000 $ en trois mois. Encour­agée par ce début, elle réal­isa Wiz­ard and the Princess et en ven­dit 60 000 copies, chiffre tout à fait extra­or­di­naire à cette époque, et encore hon­or­able aujour­d’hui. Le cou­ple fon­da alors Sier­ra-Online et dévelop­pa notam­ment la célèbre série des King Quest.

Les jeux en France

En France, les choses com­mencèrent au début des années 80. Un musi­cien chanteur com­pos­i­teur incon­nu en pleine galère, Philippe Ulrich, décou­vrit un ZX80 dans une galerie des Champs-Élysées, y plaça jusqu’à son dernier cen­time et fon­da peu après avec des amis Ere Infor­ma­tique, un édi­teur qui allait con­naître une renom­mée mon­di­ale, grâce notam­ment à l’un de ses jeunes auteurs, Rémi Her­bu­lot, ci-devant con­trôleur de gestion.

À la même époque, un jeune chimiste lyon­nais de 25 ans, Bruno Bon­nel, prof­i­tant de l’ini­tia­tive nationale de Thom­son, fon­da Info­grames, qui allait devenir une des sociétés les plus agres­sives du secteur. À Mon­treuil, c’est une famille d’en­tre­pre­neurs dans le matériel agri­cole qui créa Ubi-Soft. On reste inter­loqué devant une liste aus­si éclec­tique de pro­fils embar­qués un peu par hasard dans la même aven­ture, et dom­i­nant encore aujour­d’hui le secteur français du jeu vidéo. C’est peut-être ce qui per­mit un tel dynamisme.

Une nouvelle profession

Dès le début des années 80, un cli­vage s’in­stal­la dans la pro­fes­sion nais­sante entre auteurs et salariés. L’au­teur réal­i­sait sou­vent seul un logi­ciel com­plet puis allait son­ner chez les dif­férents édi­teurs dans l’e­spoir d’être pub­lié. Ce sché­ma évolua à par­tir du milieu des années 80 vers un sys­tème où l’au­teur n’é­tait plus seul mais deve­nait une petite équipe com­posée d’un pro­gram­meur, d’un ou deux graphistes et d’un musi­cien, et où l’édi­teur con­sen­tait une avance sur droit d’au­teur pour financer le développe­ment qui deve­nait de plus en plus long : de quelques semaines au début, on pas­sait à quelques trimestres. Le mod­èle auteur était notam­ment celui d’Ere Infor­ma­tique, et appor­ta, à défaut de rentabil­ité, la gamme de logi­ciels la plus orig­i­nale de la décen­nie. Aux États-Unis et en France chez Info­grames par exem­ple, le développe­ment était le plus sou­vent interne et s’ap­puyait sur des licences, et c’est ain­si que la société de Bruno Bon­nel fit main basse sur la plu­part des licences européennes et sor­tit Astérix, les Schtroumpfs, Izno­goud, et même… Bob Morane.

Les développeurs de cette époque avaient rarement un bagage sci­en­tifique et avaient appris l’in­for­ma­tique chez eux, sur un sim­ple micro-ordi­na­teur. Pour­tant, ce sont eux qui repoussèrent le plus loin les lim­ites de leurs for­mi­da­bles machines. En fait, ces machines étaient inca­pables de faire ce que fai­saient celles des “pro­fes­sion­nels” ou des chercheurs : absence de sys­tème d’ex­ploita­tion digne de ce nom, choix médiocre de lan­gages de pro­gram­ma­tion (tout se fai­sait en assem­bleur ou en basic), mémoire de masse sous-dévelop­pée tou­jours lim­itée à la dis­quette voire à la cas­sette audio. Au con­traire, ces machines avaient des capac­ités tou­jours plus extra­or­di­naires en ter­mes de graphisme et de son, domaines encore peu explorés et peu sci­en­tifiques : peu d’al­go­rithmes furent pro­duits, mais beau­coup d’idées esthé­tiques ou interactives.

L’arrivée des CD-ROM

Au début des années 90 apparut un nou­veau sup­port, le CD-ROM. Celui-ci allait révo­lu­tion­ner l’in­dus­trie et ses modes de fonc­tion­nement. Jusqu’alors, les jeux étaient four­nis sur dis­quette, sup­port per­me­t­tant de stock­er peu de don­nées. Il n’é­tait pas rare de trou­ver dans les boîtes entre 10 et 20 dis­quettes pour un seul jeu, or un CD-ROM a la capac­ité d’en­v­i­ron 400 dis­quettes. Cette aug­men­ta­tion de la capac­ité de stock­age provo­qua une vraie révo­lu­tion, car elle per­mit l’émer­gence d’une activ­ité graphique impor­tante. Il faut savoir qu’une dis­quette peut con­tenir env­i­ron 10 images de bonne qual­ité, et donc que le CD peut en con­tenir env­i­ron 4 000. Les pre­miers jeux sur CD-ROM furent donc prin­ci­pale­ment des jeux d’aven­ture regorgeant d’im­ages et de musiques (The Sev­enth Guest, Dune…).

Ces images peu­vent être de trois natures dif­férentes : dessin, pho­to, image de syn­thèse 3D. Le dessin sur ordi­na­teur est quelque chose de très long et qui se prête mal aux cor­rec­tions et mod­i­fi­ca­tions en cours de pro­jet. La pho­to se rap­proche du tra­vail ciné­matographique : il faut des comé­di­ens, des décors, de l’é­clairage, des effets spé­ci­aux, toutes choses par­ti­c­ulière­ment coû­teuses. L’im­age de syn­thèse 3D se trou­ve un peu entre les deux : le tra­vail dit de mod­éli­sa­tion est rel­a­tive­ment long et fas­ti­dieux, il con­siste à créer un espace fait de formes géométriques (tri­an­gles, sphères…) sur lesquelles on applique des images qui don­nent une tex­ture à ces formes (métal, bois…).

Ce tra­vail ne néces­site qu’un matériel banal, acces­si­ble à tous. Une fois la mod­éli­sa­tion effec­tuée, il est pos­si­ble de pren­dre une “pho­to” depuis n’im­porte quel point de la scène. Ceci peut pren­dre beau­coup de temps machine car il y a beau­coup de cal­culs à effectuer, mais ne néces­site pas la présence physique d’un opérateur.

La synthèse 3D et ses conséquences

C’est donc cette dernière tech­nique d’im­age de syn­thèse 3D, dite “3D pré­cal­culée” qui eut le vent en poupe au début des années 90. Elle boulever­sa la struc­ture des maisons de développe­ment. Les équipes enflèrent : de un pro­gram­meur, un musi­cien, un graphiste dans les années 80, on pas­sa à un pro­gram­meur, un musi­cien, un scé­nar­iste et dix graphistes. Cette aug­men­ta­tion et ce change­ment d’équili­bre eurent des impacts financiers et soci­aux. Le bud­get de développe­ment pas­sa de 1 MF à 15 MF aujour­d’hui. Le temps de pro­duc­tion pas­sa de un à deux ans, voire trois pour les pro­jets difficiles.

Un nou­veau poste apparut, par­ti­c­ulière­ment rude, celui de chef de pro­jet, dont le rôle est de faire tra­vailler ensem­ble des pro­fils très dif­férents, dont le seul point com­mun est la jeunesse : c’est sou­vent leur pre­mier emploi, et ils doivent donc appren­dre la vie en entre­prise. Le respect des délais est une dif­fi­culté que con­nais­sent tous les édi­teurs de jeux ; étant don­né les sommes investies, l’édi­teur laisse peu de marge entre la final­i­sa­tion théorique du pro­duit et sa mise en vente ; les dif­fi­cultés tech­niques sont dif­fi­cile­ment plan­i­fi­ables car ce sont des œuvres uniques, et il n’y a donc pas d’expérience.

De plus, le retard mène à une spi­rale infer­nale : dans un con­texte tech­nologique évolu­ant très rapi­de­ment, cer­tains élé­ments doivent être réécrits en cours de pro­jet pour suiv­re la con­cur­rence, ce qui provoque de nou­veaux retards. Pour un pro­jet qui dure qua­tre ans, on peut estimer que le cœur tech­nologique du pro­gramme aura dû être réécrit deux ou trois fois.

Cette aug­men­ta­tion des effec­tifs des équipes provoque égale­ment une dilu­tion de la créa­tiv­ité. Alors que dans une équipe de trois per­son­nes cha­cun se sent investi d’une voca­tion artis­tique évi­dente, il s’ef­fectue une cer­taine hiérar­chi­sa­tion dans une équipe de quinze per­son­nes, un peu comme dans le ciné­ma où l’ap­port artis­tique de celui qui tient la perche n’est pas vrai­ment mis en valeur.

Expansion et concentration

Au milieu des années 90, les édi­teurs con­nurent une explo­sion de leurs effec­tifs : un jeu néces­si­tant env­i­ron quinze per­son­nes, et un édi­teur dévelop­pant une dizaine de jeux simul­tané­ment, il est facile de faire le calcul.

Par exem­ple, la Société Cryo-Inter­ac­tive, qu’on peut con­sid­ér­er comme une “suite” d’Ere Infor­ma­tique, vit ses effec­tifs pass­er en une seule année (1995) de 40 à 150 employés. Cette inter­nal­i­sa­tion com­plète de la pro­duc­tion mon­tra un prob­lème nou­veau pour le secteur, celui de la moti­va­tion des employés : il est dif­fi­cile de con­va­in­cre cha­cun que son pro­jet est LE pro­jet de l’an­née lorsque autant de pro­jets sont menés de front par des équipes dif­férentes mais théorique­ment solidaires.

Aus­si la ten­dance actuelle est-elle à l’ex­ter­nal­i­sa­tion : un grand nom­bre de stu­dios se sont créés depuis deux ou trois ans. Ces Sarl ont moins de dix employés, tous ou presque céli­bataires et hyper­mo­tivés, un seul pro­jet en cours, et sont financées par un édi­teur, qui, à l’ex­trême, ne con­serve qu’un ser­vice de R&D qui assure le lien, la cohé­sion tech­nique et le sup­port des dif­férents studios.

Au con­traire on assiste à une con­cen­tra­tion des édi­teurs, qui ne laisse pas de place pour les petits : Info­grames a ain­si racheté en moins de trois ans Océan, Canal+Multimédia et Accolade.

Une révolution : la 3D en temps réel

En 1992 sor­tit Alone in the Dark, un jeu français qui annonçait une nou­velle révo­lu­tion en pro­posant des images en 3 dimen­sions cal­culées en temps réel. Con­traire­ment à la 3D pré­cal­culée, la 3D temps réel con­siste à cal­culer les images au moment même de les affich­er. Ceci per­met une inter­ac­tiv­ité net­te­ment meilleure, puisque les actions du joueurs peu­vent influer directe­ment sur la posi­tion de la prise de vue de l’im­age. En 1992, en fran­chissant la bar­rière des 33 MHz, les micro-ordi­na­teurs deve­naient capa­bles de cal­culer plusieurs de ces images par seconde.

Les cal­culs en jeu dans ce mécan­isme sont des cal­culs d’al­gèbre linéaire plus ou moins com­plexe : trans­for­ma­tion orthog­o­nale, pro­jec­tion, usage des quater­nions, mais aus­si appli­ca­tion des tex­tures. Ce dernier point néces­site théorique­ment deux divi­sions par point de l’écran, ce qui même actuelle­ment est pro­hibitif. Il y eut à par­tir de 1993 une sorte de course à l’al­go­rithme qui per­me­t­trait d’éviter ces deux divi­sions : tables de divi­sion, pas­sage par les log­a­rithmes pour rem­plac­er les divi­sions par des soustractions…

Plusieurs tech­niques furent essayées avant que le jeu Descent mette, en 1995, tout le monde d’ac­cord avec une tech­nique mal­heureuse­ment peu élé­gante. C’é­tait là une nou­veauté : un tra­vail de recherche dont les résul­tats étaient ren­dus publics. À par­tir de cette époque, la plu­part des édi­teurs recrutèrent quelques jeunes spé­cial­istes issus par­fois de la recherche et ayant tou­jours un bagage sci­en­tifique appréciable.

Une jonc­tion s’est ain­si effec­tuée entre recherche et jeu vidéo, et chaque année se tient le Sig­graph, con­férence inter­na­tionale sur les tech­nolo­gies d’im­ages de syn­thèse très cou­rue dans les deux milieux.

L’arrivée d’Internet

La démoc­ra­ti­sa­tion d’In­ter­net com­mença en 1995. Salu­ons au pas­sage la per­spi­cac­ité de l’É­cole poly­tech­nique qui sous l’in­flu­ence de J.-J. Lévy, pro­fesseur d’in­for­ma­tique, instal­la le réseau des réseaux dans les cham­bres des élèves dès 1993. À par­tir de cette époque, des pro­jets mêlant 3D et réseau naquirent en plusieurs lieux de la planète, reprenant en cela des idées apparues dès 1992 dans le livre Snow­crash de N. Stephen­son. Ces pro­jets furent tous con­fron­tés aux mêmes difficultés.

La tech­nolo­gie Inter­net suit un rythme par­ti­c­ulière­ment lent : elle détient le triste hon­neur d’être la seule tech­nolo­gie qui a con­nu une régres­sion au cours des années : entre 1993 et 1995, les débits offerts à l’u­til­isa­teur (et notam­ment les débits transat­lan­tiques) furent divisés par 100 ! Ceci était certes dû à l’ex­plo­sion du nom­bre d’u­til­isa­teurs du réseau, et le débit glob­al a aug­men­té, mais pour le client final le résul­tat est bien une chute spec­tac­u­laire. Aujour­d’hui, en 1999, un fac­teur d’en­v­i­ron 10 a été regag­né, mais on est encore loin des per­for­mances dont jouis­saient les élèves de l’X en 1993. Pour une indus­trie habituée à la loi de Moore qui mul­ti­plie par deux tous les dix-huit mois toutes les car­ac­téris­tiques d’un ordi­na­teur (fréquence processeur, mémoire, dis­ques…), c’est une dif­fi­culté nouvelle.

Ensuite, il est qua­si­ment impos­si­ble de tester un tel jeu : con­traire­ment à un jeu clas­sique, un jeu Inter­net (on dit un jeu on-line) per­met à plusieurs joueurs de s’af­fron­ter dans un même univers. Il devient impos­si­ble de tester tous les com­porte­ments (par nature imprévis­i­bles) d’un nom­bre quel­conque de joueurs. De plus, il est dif­fi­cile d’or­gan­is­er des tests avec des cen­taines de joueurs con­nec­tés simul­tané­ment depuis divers points du globe. Le développe­ment d’un tel jeu néces­site donc une étude préal­able (“sta­tique” dans le jar­gon infor­ma­tique) qui cal­cule les éventuelles lim­i­ta­tions et pro­pose des algo­rithmes dif­férents qui font dis­paraître ces limitations.

Un jeu on-line néces­site une infra­struc­ture serveur, c’est-à-dire un ordi­na­teur qui reste allumé en per­ma­nence et qui sert de point de ren­con­tre des joueurs et joue le rôle d’ar­bi­tre et de meneur de jeu. Ceci est une nou­veauté pour l’in­dus­trie du jeu vidéo : un pro­gramme qui fonc­tionne 24 heures sur 24, 365 jours par an ; il faut prévoir la main­te­nance. La néces­sité de la main­te­nance est une remise en cause de tout le proces­sus de développe­ment d’un jeu.

Pour un jeu clas­sique, il y a peu de pro­gram­meurs (deux ou trois), et celui d’en­tre eux qui a la tâche d’in­té­gr­er tous les élé­ments du logi­ciel joue un rôle clef : sa san­té et sa disponi­bil­ité sont cru­ciales pour la bonne fin du pro­jet. Lorsque le pro­jet est ter­miné, il n’est pas rare de le voir par­tir vers d’autres aven­tures, et la doc­u­men­ta­tion sou­vent som­maire qu’il laisse ne per­met pas d’en­vis­ager une quel­conque main­te­nance du produit.

Cette absence de doc­u­men­ta­tion et de génie logi­ciel est certes regret­table mais elle est une con­stante dans ce secteur, et elle per­met d’abaiss­er les coûts de pro­duc­tion, sur le court terme seule­ment. D’au­cuns diraient qu’elle stim­ule l’e­sprit créatif. Pour le jeu on-line, la main­te­nance est une exi­gence car un pro­duit on-line n’a pas de fin, et de même que la 3D temps réel avait per­mis au jeu vidéo de se rap­procher de la recherche, la tech­nolo­gie on-line lui per­met de se rap­procher des SSII.

Ces nou­velles dif­fi­cultés sont telles que les pre­miers jeux on-line qui décrivaient un monde unique dans lequel les joueurs inter­agis­sent, mais qui évolue lui-même en l’ab­sence des joueurs (on par­le de monde per­sis­tant) sor­tirent à par­tir de 1997, mais sou­vent avec une bonne année de retard, et peu de leurs auteurs sont vrai­ment fiers de ce pre­mier essai.

Au-delà des dif­fi­cultés tech­niques le jeu on-line offre une prob­lé­ma­tique en ter­mes de con­tenu que Philippe Ulrich appelle “l’in­ter­ac­tiv­ité de masse”. De quoi s’ag­it-il ? L’in­ter­ac­tiv­ité à deux est assez sim­ple : c’est un jeu de com­bat. À qua­tre, c’est la belote. À vingt-deux c’est le foot­ball, mais tous les joueurs ne jouent pas le bal­lon en même temps. À mille, c’est le con­cert. À dix mil­lions, c’est la télévision.

Bib­li­ogra­phie

  • Bâtis­seurs de rêves par Daniel Ichbiah.
    First doc­u­ments (existe aus­si en Poche).
  • Hack­ers — heroes of the com­put­er rev­o­lu­tion par Steven Levy. Delta.
  • Le samouraï virtuel (Snow­crash) par
    Neal Stephen­son. Robert Laffont.
  • Pil­grim in the microworld par David Sud­now. Warn­er Books.

Au fur et à mesure que le nom­bre de par­tic­i­pants croît, l’in­ter­ac­tiv­ité dimin­ue. Com­ment main­tenir la moti­va­tion du joueur dans ces cir­con­stances ? Assuré­ment les con­cepts de jeu “à l’améri­caine” où chaque joueur doit sauver le monde du chaos et de la destruc­tion ont vécu pour le on-line. De nou­veaux pro­jets sont en cours, qui ten­teront de tourn­er cette difficulté.

Après des débuts dif­fi­ciles, car il est sou­vent mar­gin­al­isé et peu recon­nu, le jeu vidéo entre donc dans une phase de matu­rité. Pour autant le dynamisme est tou­jours présent, et l’imag­i­na­tion reste une valeur sûre. C’est sans doute là que réside le mys­tère : d’où vient cette fas­ci­na­tion pour l’écran que l’on con­state déjà chez les tout-petits ? quelle est cette pul­sion créa­trice qui nous pousse à représen­ter sur un écran ce que nous ne pour­rons jamais touch­er ? pourquoi est-il jubi­la­toire de manip­uler de vains effets de bord ?

Poster un commentaire