Les données massives du « big data », un nouvel or noir

Dossier : Économie numérique : Les succèsMagazine N°675 Mai 2012
Par Michel CRESTIN
Par Hervé DHELIN

La crois­sance des vol­umes d’informations numériques est telle que les bases de don­nées qui les gèrent ne suff­isent plus. Il faut donc imag­in­er de nou­velles archi­tec­tures (logi­cielles et matérielles) pour traiter ces mass­es con­sid­érables de données.

REPÈRES
En 2011, on a créé et répliqué 1,8 zettaoctet (c’est-à-dire 1800 mil­liards de gigaoctets), neuf fois plus qu’en 2005, soit une crois­sance dépas­sant les pré­dic­tions de la loi de Moore. D’i­ci la prochaine décen­nie, la quan­tité de don­nées gérée par les entre­pris­es pour­rait être mul­ti­pliée par cinquante, et la taille des fichiers par soix­ante-quinze. Con­crète­ment, un vol­ume de 1,8 zettaoctet de don­nées équiv­aut au vol­ume de plus de 200 mil­liards de film HD (d’une durée moyenne de deux heures). Il faudrait à un indi­vidu pas moins de 47 mil­lions d’an­nées pour en vision­ner l’in­té­gral­ité, si tant est qu’il s’y con­sacre vingt-qua­tre heures sur vingt-qua­tre et sept jours sur sept.

Un investissement massif

L’évolution tech­nologique se traduit par une diminu­tion dras­tique des coûts de stock­age des don­nées. Par exem­ple, cha­cun peut acquérir une capac­ité de stock­age d’un téraoctet pour seule­ment quelques cen­taines d’euros. Le coût d’un giga­bit de stock­age s’élevait à env­i­ron 20 dol­lars en 2005, à net­te­ment moins d’un dol­lar aujourd’hui. À cet aspect pure­ment matériel s’ajoute la diminu­tion du coût de créa­tion, cap­ture et dupli­ca­tion des données.

L’évolution tech­nologique se traduit par une diminu­tion dras­tique des coûts de stock­age des données

Les investisse­ments con­sen­tis par les entre­pris­es dans l’univers numérique (cloud com­put­ing, équipement infor­ma­tique, logi­ciels, ser­vices et per­son­nel dédié à la créa­tion, ges­tion, stock­age et exploita­tion des infor­ma­tions) ont aug­men­té de 50% entre 2005 et 2011, pour attein­dre les 4000 mil­liards de dol­lars au niveau mon­di­al. En 2012, 90 % des sociétés du classe­ment For­tune 500 auront lancé un grand chantier de ges­tion des don­nées. Les entre­pris­es améri­caines de plus de mille salariés stock­ent, en moyenne, l’équivalent de 235 ter­abytes de données.

Une nouvelle stratégie d’entreprise

Ajuster ses prix en temps réel
Une entre­prise améri­caine de grande dis­tri­b­u­tion a con­staté une baisse de ses parts de marché. Elle s’est aperçue que son prin­ci­pal con­cur­rent avait lour­de­ment investi dans des out­ils de col­lecte, d’in­té­gra­tion et d’analy­ses de don­nées, de sorte qu’il était capa­ble d’a­juster en temps réel ses prix, d’ar­bi­tr­er l’ap­pro­vi­sion­nement entre ses dif­férents mag­a­sins et de recon­stituer ses stocks grâce à une étroite inté­gra­tion de son sys­tème d’in­for­ma­tion avec ceux de ses fournisseurs.

La valeur des don­nées, et notam­ment la per­ti­nence de leur exploita­tion, devient très impor­tante. Une habile exploita­tion de ces gise­ments d’information con­tribue à accroître les avan­tages com­péti­tifs. Au-delà de ces aspects économiques, la crois­sance des vol­umes de don­nées remet en cause le man­age­ment des entre­pris­es et des organ­i­sa­tions. Les dirigeants peu­vent ain­si légitime­ment se pos­er les ques­tions suivantes.

Sur le plan man­agér­i­al : s’il était pos­si­ble de tester toutes les déci­sions, cela chang­erait-il la stratégie de l’entreprise ? Prob­a­ble­ment car les man­agers pour­raient mieux iden­ti­fi­er les caus­es d’un phénomène et les con­séquences de leurs déci­sions, en fonc­tion de dif­férents scé­nar­ios, au-delà de l’analyse de sim­ples cor­réla­tions, et adapter leur stratégie en conséquence.

Sur le plan opéra­tionnel : dans quelle mesure les offres d’une entre­prise seraient-elles trans­for­mées si les énormes vol­umes de don­nées disponibles étaient util­isés pour per­son­nalis­er en temps réel les solu­tions pro­posées aux con­som­ma­teurs et prévoir leur com­porte­ment d’achat ? Par exem­ple, un e‑commerçant pour­rait tra­quer en temps réel le com­porte­ment de ses prospects et iden­ti­fi­er le moment où ils vont s’engager dans l’acte d’achat. Et, ain­si, pouss­er des offres à plus fortes marges. La grande dis­tri­b­u­tion con­stitue un secteur priv­ilégié d’expérimentation dans la mesure où foi­son­nent les infor­ma­tions issues des achats sur le Web, des réseaux soci­aux et, aujourd’hui, de plus en plus, les don­nées de géolo­cal­i­sa­tion des smartphones.

Sur le plan stratégique : l’exploitation des gise­ments de don­nées peut-elle don­ner lieu à de nou­veaux mod­èles d’affaires ? Prob­a­ble­ment pour des entre­pris­es qui se posi­tion­neraient comme inter­mé­di­aires dans la chaîne de valeur pour gér­er des don­nées trans­ac­tion­nelles de manière exhaustive.

L’analyse pré­dic­tive
En se fon­dant sur un his­torique des infor­ma­tions disponibles sur les clients, l’analyse pré­dic­tive établit, avec une analyse sta­tis­tique des rela­tions entre les don­nées disponibles, si elles sont de nature à prédire, avec la meilleure fia­bil­ité pos­si­ble, le futur com­porte­ment d’un indi­vidu. Retenons seule­ment deux domaines dans lesquels l’analyse pré­dic­tive se révèle par­ti­c­ulière­ment per­ti­nente : la détec­tion de la fraude et le marketing.
Éviter l’effet domino
Une grande banque européenne a mis en place un sys­tème d’analyse pré­dic­tive pour détecter les risques de fail­lites par­mi ses entre­pris­es clientes, en par­ti­c­uli­er en inté­grant des infor­ma­tions rel­a­tives au con­texte économique. Con­crète­ment, la banque est égale­ment en mesure d’anticiper les con­séquences d’une défail­lance, pour elle, d’un client majeur, de manière à éviter les con­séquences néfastes d’un « effet domi­no » sur d’autres clients.

Une création de valeur

La pro­fu­sion de don­nées génère des oppor­tu­nités nou­velles pour les entre­pris­es, même s’il faut demeur­er con­scient des risques induits (intégrité des infor­ma­tions, men­aces sur la vie privée, droit à l’oubli, piratage, atteinte à l’image, vol d’identité, fraude, etc.). L’une des révo­lu­tions con­cerne l’analyse pré­dic­tive, approche qui étudie les don­nées et les car­ac­téris­tiques com­porte­men­tales des indi­vidus pour en tir­er des mod­èles pré­dic­tifs en vue d’optimiser la rela­tion avec les clients.

Mieux détecter les fraudes

Pour réus­sir sur un marché dom­iné par des grands noms de l’assurance, la société améri­caine Infin­i­ty, spé­cial­isée dans l’assurance des con­duc­teurs à risques élevés, avait besoin d’accroître son parc de clients et d’améliorer son effi­cac­ité opéra­tionnelle, notam­ment pour la ges­tion des sin­istres et la réduc­tion de la fraude. Des tech­niques d’analyse pré­dic­tive ont été mis­es en œuvre. L’objectif était, sur le mod­èle des crédits ban­caires, de « scor­er » les sin­istres de manière à mieux iden­ti­fi­er la prob­a­bil­ité de fraude.

Récupérer ses fonds

L’analyse pré­dic­tive se révèle par­ti­c­ulière­ment per­ti­nente dans la détec­tion des fraudes

Il s’agissait égale­ment d’optimiser la col­lecte dite de sub­ro­ga­tion, c’est-à-dire lorsque l’assureur se retourne vers des tiers pour récupér­er des fonds, quand son assuré n’est pas responsable.

En un mois, la solu­tion mise en œuvre par Infin­i­ty a per­mis d’augmenter les fonds col­lec­tés d’un mil­lion de dol­lars et de douze mil­lions de dol­lars en six mois, unique­ment par une meilleure analyse des données.

La prochaine étape, elle aus­si fondée sur l’analyse de vol­umes impor­tants de don­nées, con­sis­tera à étudi­er le con­tenu des doc­u­ments liés aux règle­ments des sin­istres, par exem­ple les comptes ren­dus d’accidents, les rap­ports médi­caux ou les témoignages, autant d’éléments qui sont sus­cep­ti­bles d’améliorer la détec­tion de la fraude le plus en amont possible.

Lutter contre la criminalité

L’analyse de grandes mass­es de don­nées est égale­ment très utile pour lut­ter con­tre la criminalité.

L’exemple de Memphis
Déjà déployé au sein de la police de Mem­phis (Ten­nessee), le logi­ciel Crush a per­mis de réduire la crim­i­nal­ité de 30 % et la crim­i­nal­ité vio­lente de 15 % par rap­port à 2006. En jan­vi­er 2010, la police a lancé plusieurs opéra­tions dans un quarti­er de la ville, en se fon­dant sur les indi­ca­tions du logi­ciel Crush. Résul­tat : plus de cinquante arresta­tions de trafi­quants de drogue et une réduc­tion de près de 40% de la criminalité.

Par exem­ple, la police de New York dis­pose d’un logi­ciel d’analyse pré­dic­tive de la crim­i­nal­ité. Bap­tisée Crush (Crim­i­nal reduc­tion uti­liz­ing sta­tis­ti­cal his­to­ry), cette appli­ca­tion regroupe une ving­taine d’années d’archives et de sta­tis­tiques liées à la délin­quance et à la crim­i­nal­ité, avec toutes les car­ac­téris­tiques des dél­its : lieu, heure, mode opéra­toire, etc. L’analyse de ces don­nées est assurée par un pro­gramme math­é­ma­tique conçu par les chercheurs de l’université de Cal­i­fornie. Elle per­met de localis­er les endroits à risque de la ville, d’identifier les types de dél­its qui y sont com­mis, en fonc­tion de critères tels que le moment de la journée ou le jour de la semaine. Con­crète­ment, la police peut alors agir et envoy­er des effec­tifs avant que le crime ou le délit ne soient commis.

Améliorer le marketing

L’une des dif­fi­cultés pour les entre­pris­es qui s’adressent à des mil­lions de clients est de fidélis­er ceux-ci et d’en con­quérir d’autres. Dans les ban­ques anglo-sax­onnes par exem­ple, le taux de rota­tion des clients atteint facile­ment 10% à 20% par an, avec un coût par client s’élevant entre 200 et 3500 dol­lars. Une banque néer­landaise, grâce à l’analyse pré­dic­tive, a réus­si à accroître l’efficacité de ses cam­pagnes mar­ket­ing avec un taux de réponse passé de 4% à 12%, d’où un retour sur investisse­ment de ses actions amélioré de 10 % à 20%.

Une tendance lourde

La rapid­ité du service
Le loueur de véhicules Avis a amélioré le résul­tat en Europe de ses cam­pagnes de mar­ket­ing par cour­riel et divisé ses coûts par deux. En analysant les don­nées sur ses clients, Avis pro­pose des offres per­son­nal­isées dans plus de 18 mil­lions d’envois de cour­riels chaque année. Avec une meilleure con­nais­sance de l’activité des clients grâce à l’historique des clics dans les cour­riels et des trans­ac­tions, Avis per­son­nalise tous les cour­riels. Par exem­ple, le loueur dis­pose d’une base de don­nées de « clients priv­ilégiés » à qui elle promet une prise en charge dans un délai de trois min­utes (ils sont assurés de recevoir la clef de leur véhicule dans un délai de trois min­utes à par­tir du moment où ils se présen­tent au guichet). La rapid­ité de ser­vice étant essen­tielle pour fidélis­er les clients.

On pour­rait mul­ti­pli­er les exem­ples de créa­tion d’avantages com­péti­tifs grâce à une exploita­tion intel­li­gente de vol­umes de don­nées. Le phénomène du big data va impulser un élan sup­plé­men­taire. À moyen ou long terme, on peut dis­cern­er ce qui relève de cer­ti­tudes et ce qui con­stituera des incer­ti­tudes sus­cep­ti­bles de frein­er, mais pas d’annihiler, la ten­dance lourde à con­sid­ér­er les don­nées, surtout si elles sont mas­sives, comme un nou­v­el « or noir » pour les entre­pris­es et les organisations.

L’analyse des données

Du côté des cer­ti­tudes, on retien­dra une crois­sance con­tin­ue des vol­umes de don­nées, d’autant que se pro­fi­lent l’Internet des objets et la civil­i­sa­tion des cap­teurs, pro­duc­teurs d’énormes quan­tités d’informations ; une trans­for­ma­tion pro­fonde des mod­èles d’affaires et, de fait, des straté­gies des entre­pris­es ; des investisse­ments mas­sifs en out­ils d’analyse de don­nées à mesure que les entre­pris­es vont pren­dre con­science de la valeur de leurs données.

Le rejet des intrusions

Des inquié­tudes sur le respect de la vie privée et le droit à l’oubli

Du côté des incer­ti­tudes, on retien­dra les inquié­tudes sur le respect de la vie privée, l’éventuelle mon­tée en puis­sance de sen­ti­ments de rejet face à ce qui peut être con­sid­éré comme des intru­sions de mes­sages com­mer­ci­aux dans la sphère privée. De même, nous n’avons pas de cer­ti­tudes sur les prob­lé­ma­tiques de sécu­rité asso­ciées au big data. Enfin, un frein poten­tiel réside dans l’évolution de la lég­is­la­tion, sus­cep­ti­ble de devenir plus restric­tive. Entre ces puis­sants fac­teurs accéléra­teurs et les éventuels freins, les entre­pris­es devront trou­ver un équili­bre de manière à con­cili­er créa­tion de valeur et éthique.

Poster un commentaire