Publicité digitale

Publicité digitale : la révolution algorithmique

Dossier : Marketing digitalMagazine N°746 Juin 2019
Par Charles MONZANI (2010)
Par Vincent MADY

La masse de don­nées col­lec­tées en per­ma­nence dans le monde numérique per­met de mesur­er de façon très fine l’efficacité de la pub­lic­ité dig­i­tale et ain­si de la pilot­er de façon opti­male, en s’appuyant sur des algo­rithmes de plus en plus per­fec­tion­nés. L’industrie pub­lic­i­taire s’en trou­ve trans­for­mée et de nou­veaux acteurs y voient le jour.

Il y a tou­jours eu une affinité très forte entre pub­lic­ité dig­i­tale et IA : la pub­lic­ité dig­i­tale met à dis­po­si­tion rel­a­tive­ment sim­ple­ment une très grande quan­tité de don­nées, il est donc pos­si­ble d’itérer très rapi­de­ment et de tester dif­férents mod­èles pour définir celui qui a le plus grand pou­voir pré­dic­tif. Enfin, dans le cas où un mod­èle diverge, le risque indus­triel est bien évidem­ment moin­dre que dans d’autres secteurs (comme la finance ou la san­té) : on peut facile­ment rat­trap­er quelques jours de con­tre-per­for­mance sur une cam­pagne pub­lic­i­taire qui s’étale sur plusieurs semaines ou plusieurs mois. Ce sont ces raisons qui font du secteur de la pub­lic­ité dig­i­tale un champ d’expérimentation priv­ilégié pour l’IA (et donc pour les cen­tres de recherche comme le lab­o­ra­toire infor­ma­tique de l’École poly­tech­nique – le LIX).


REPÈRES

Deux événe­ments ont mar­qué la nais­sance de l’internet : la mise en open source du logi­ciel World Wide Web par Tim Bern­ers-Lee au CERN en 1993 ; et la nais­sance en 1998 d’une start-up dont l’unique act­if était un algo­rithme capa­ble de révo­lu­tion­ner la manière dont on pou­vait effectuer des recherch­es sur le Web. Les fon­da­teurs de Google – la start-up en ques­tion – avaient déjà com­pris que les don­nées – la data – allaient être le pét­role du XXIe siè­cle et que les algo­rithmes et la puis­sance de cal­cul, le moyen d’exploiter cette nou­velle manne.


Machine learning et cloud computing

Quand on par­le d’intelligence arti­fi­cielle (IA) en 2019, nous faisons de fait référence à deux choses : d’un côté les algo­rithmes, ce qu’on appelle com­muné­ment le machine learn­ing et de l’autre la vir­tu­al­i­sa­tion / par­al­léli­sa­tion des ressources infor­ma­tiques, le cloud com­put­ing. Pour com­pren­dre à quel point ces inno­va­tions sont en train de révo­lu­tion­ner notre monde, il suf­fit de regarder la courbe qui mesure l’évolution du coût du séquençage du génome humain : il était de 95 mil­lions de dol­lars en 2002, il coûte moins de 1 000 dol­lars aujourd’hui. Cette évo­lu­tion sans précé­dent de la puis­sance de cal­cul rend totale­ment obsolète la loi de Moore ; c’est ce rap­port puis­sance / coût qui rend aujourd’hui pos­si­ble le déploiement de la forme la plus aboutie du machine learn­ing, le fameux deep learn­ing, dans la plu­part des indus­tries, dont celle de la pub­lic­ité et du marketing.

“La constitution du jeu
de données est aussi importante que le choix du modèle”

Trois familles d’algorithmes

Plus con­crète­ment, quels sont les cas d’usage ? Com­ment les algo­rithmes sont util­isés dans la pub­lic­ité dig­i­tale et le mar­ket­ing ? Tout d’abord, il con­vient de rap­pel­er qu’il existe trois grandes familles d’algorithmes de machine learn­ing. Tout d’abord, ceux effec­tu­ant des clas­si­fi­ca­tions super­visées, c’est-à-dire qu’ils cherchent à prédire un événe­ment iden­ti­fié (le label) ; ils vont être par­ti­c­ulière­ment utiles pour opti­miser le ciblage d’une cam­pagne en fonc­tion des per­for­mances con­statées. D’autres algo­rithmes, dits de clas­si­fi­ca­tion non super­visée (sans label prédéfi­ni), vont per­me­t­tre de seg­menter automa­tique­ment les util­isa­teurs d’un ser­vice ou une base de clients (« CRM ») bien au-delà des critères habituelle­ment util­isés (soci­ologiques, démo­graphiques, pro­fes­sion­nels…) et donc de mieux iden­ti­fi­er les cibles (voire les micro­ci­bles). Enfin, les algo­rithmes d’apprentissage par ren­force­ment, qui reçoivent, à chaque déci­sion prise par le mod­èle, un retour de leur envi­ron­nement qui per­met la mise à jour des paramètres et le choix de la prochaine déci­sion. Cette approche est par­faite­ment adap­tée au cal­cul itératif de l’allocation du bud­get dans un mix médias afin d’obtenir un meilleur retour sur investissement.

Ciblage en publicité digitale
© Andrey Popov

Trouver les bons jeux de données

Pour cha­cun de ces mod­èles, la con­sti­tu­tion du jeu de don­nées (dataset) est aus­si impor­tante que le choix du mod­èle. La décou­verte et l’ajout de nou­velles dimen­sions sont d’ailleurs au cœur de la prob­lé­ma­tique IA, c’est ce qu’on appelle le fea­ture engi­neer­ing, l’ajout dans un dataset de toute nou­velle don­née sus­cep­ti­ble d’augmenter son pou­voir pré­dic­tif : dimen­sions tem­porelles, rela­tions sociales, appé­tence pour tel ou tel pro­duit ou tel ou tel con­tenu… Là où l’exercice devient vertueux, c’est que l’ajout de ces dimen­sions, en plus d’améliorer les per­for­mances du mod­èle, per­met égale­ment de décou­vrir de nou­veaux aperçus à très forte valeur ajoutée pour les direc­tions mar­ket­ing (une meilleure com­préhen­sion des com­bi­naisons de dimen­sions qui infèrent un événe­ment comme un acte d’achat pour un pro­duit ou un ser­vice donné).

De solides sous-jacents mathématiques

Toutes ces approches algo­rith­miques reposent sur de solides sous-jacents math­é­ma­tiques : régres­sion logis­tique, sta­tis­tique itéra­tive comme la méthode des plus proches voisins ou celle des dis­crim­i­nants linéaires, arbre de déci­sion, réseaux de neu­rones pro­fonds ou deep learn­ing. Le deep learn­ing est à l’origine de la révo­lu­tion en recon­nais­sance d’image avec une archi­tec­ture basée sur l’empilement de fonc­tions élé­men­taires, notam­ment le réseau AlexNet, gag­nant du con­cours Ima­geNet de 2012. C’est encore cette approche qui donne aujourd’hui les meilleurs résul­tats, grâce notam­ment à l’utilisation de réseaux de neu­rones récur­rents à mémoire court terme / long terme qui sont des mod­èles capa­bles de recon­naître des motifs dans des séquences de tailles vari­ables. Ces mod­èles don­nent des résul­tats tout à fait remar­quables en analyse de texte (tra­duc­tion automa­tique, auto-com­plé­tion de mes­sage…) et c’est l’état de l’art de ces mêmes mod­èles que l’on retrou­ve au cœur du pro­jet Alpha­Go qui a bat­tu les meilleurs joueurs mon­di­aux de go après avoir simulé des dizaines de mil­lions de par­ties. Demain, ce sont ces mod­èles qui con­tribueront col­lec­tive­ment au pro­jet de voiture autonome (où inter­vi­en­nent la recon­nais­sance de l’environnement, l’apprentissage de la con­duite, le tra­jet opti­mal…). Ces méth­odes d’apprentissage pro­fond ont apporté un regard rad­i­cale­ment nou­veau et des solu­tions à une mul­ti­tude de prob­lèmes. Ce n’est donc pas sur­prenant de voir les trois pio­nniers du deep learn­ing, Yann LeCun, Yoshua Ben­gio et Geof­frey Hin­ton, se voir attribuer col­lec­tive­ment cette année le prix Tur­ing, la plus haute dis­tinc­tion en informatique.

Publicité sur différents supports
© Rasulov

Des gains d’efficacité allant jusqu’à 50 %

Ces approches appliquées à la pub­lic­ité vont per­me­t­tre de définir des indi­ca­teurs de per­for­mance plus objec­tifs (par exem­ple la mesure d’un incré­ment sur les ventes, sur l’engagement…). Depuis l’émergence de la pub­lic­ité dans les années 50, il existe une plaisan­terie bien con­nue sur Madi­son Avenue : « La moitié des sommes dépen­sées en pub­lic­ité le sont en pure perte mais impos­si­ble de savoir de quelle moitié il s’agit. » L’ambition ici est pré­cisé­ment de faire men­tir cet adage en per­me­t­tant une com­préhen­sion beau­coup plus fine de la manière dont la valeur se crée pour une mar­que con­séc­u­tive­ment à une expo­si­tion pub­lic­i­taire et donc la pos­si­bil­ité réelle d’optimiser sig­ni­fica­tive­ment tout indi­ca­teur de per­for­mance avec un gain qui avoi­sine sou­vent les 50 % et avec en plus d’énormes gains en ter­mes de pro­duc­tiv­ité des équipes opéra­tionnelles (qui peu­vent donc se con­cen­tr­er sur la com­préh­e­sion de leurs métiers – busi­ness intel­li­gence).

Une des con­séquences fortes de cet état de fait est qu’il n’existe plus de véri­ta­ble bar­rière entre le descrip­tif – les insights – et le pré­dic­tif – l’acti­va­tion – : ce sont les mêmes mod­èles et les mêmes don­nées qui nour­ris­sent l’un et l’autre. Cela va induire de grands change­ments dans l’organisation de l’industrie pub­lic­i­taire : évo­lu­tion des pro­fils avec notam­ment de plus en plus de pro­fils quan­ti­tat­ifs, data ana­lysts et data sci­en­tists, une prise de con­science de plus en plus aiguë des prob­lé­ma­tiques légales liées à l’utilisation de la don­née, au regard notam­ment de la pro­tec­tion de la vie privée aujourd’hui et de l’identité numérique demain. L’identification des util­isa­teurs sur leurs dif­férents écrans et dans la durée devient un élé­ment cen­tral de la prob­lé­ma­tique et c’est d’autant plus vrai avec l’arrivée de la 5G et de la délinéari­sa­tion de la télévi­sion ¬ les téléviseurs vont devenir des smart­phones avec des écrans de 42 pouces – évo­lu­tion qui va com­plète­ment dig­i­talis­er l’achat d’espace roi, celui des spots TV. Cela va per­me­t­tre d’atteindre le graal espéré par tous les pub­lic­i­taires : la réc­on­cil­i­a­tion du brand­ing et de la per­for­mance, c’est-à-dire la pos­si­bil­ité de suiv­re les prospects et les clients sur une très longue péri­ode, de la créa­tion de notoriété pour la mar­que (le brand­ing) jusqu’à la trans­ac­tion finale (achat du bien ou du ser­vice pro­posé par cette mar­que, ce qu’on appelle tra­di­tion­nelle­ment en pub­lic­ité la per­for­mance) avec une mesure objec­tive de la valeur créée par la pub­lic­ité tout au long de cette chaîne de valeur.


Délinéarisation

Ce terme désigne le pas­sage à une télévi­sion qui rompt avec le direct. Le téléspec­ta­teur devient l’acteur de sa con­som­ma­tion, en choi­sis­sant ce qu’il veut regarder, quand il le veut et où il le veut. 


Une industrie en pleine mutation

Les GAFA ont bien anticipé tous ces mou­ve­ments et ils s’organisent pour équiper les dif­férents acteurs en plate­forme mar­ket­ing et cloud à même de les aider à tir­er par­ti de ce nou­veau par­a­digme IA, dupli­quant à cet effet un mod­èle qui a déjà fait ses preuves avec SAP et Sales­force (et en antic­i­pant le change­ment de généra­tion au niveau des respon­s­ables mar­ket­ing – CMO – qui auront sans doute des pro­fils plus sci­en­tifiques que leurs prédécesseurs).

Toutes ces trans­for­ma­tions vont rad­i­cale­ment chang­er l’industrie de la pub­lic­ité en ouvrant le marché à de nou­veaux acteurs, les sociétés de con­seil, qui voient dans cette plate­formi­sa­tion et ces approches quan­ti­ta­tives un moyen de ven­dre à leurs clients un nou­veau type de presta­tions et même l’arrivée de nou­veaux acteurs globaux, à l’image de S4 Cap­i­tal de Sir Mar­tin Sor­rell qui veut créer « l’agence du futur », essen­tielle­ment posi­tion­née autour de la prob­lé­ma­tique IA + Data.

Nous avons tou­jours eu en France un savoir-faire recon­nu en matière de pub­lic­ité et plus récem­ment en intel­li­gence arti­fi­cielle grâce à l’excellence de nos for­ma­tions sci­en­tifiques. Il y a une oppor­tu­nité his­torique pour notre pays (et pour l’Europe) de faire émerg­er de nou­veaux acteurs à même d’aller con­quérir le monde et de rivalis­er demain avec leurs con­cur­rents améri­cains et chinois.

Alors soyons agiles et auda­cieux, ne ratons pas cette opportunité.


Pour en savoir plus sur la pub­lic­ité dig­i­tale, con­sul­tez notre dossier sur le mar­ket­ing digital

Poster un commentaire