Publicité digitale

Publicité digitale : la révolution algorithmique

Dossier : Marketing digitalMagazine N°746 Juin 2019
Par Charles MONZANI (2010)
Par Vincent MADY

La masse de don­nées col­lec­tées en per­ma­nence dans le monde numé­rique per­met de mesu­rer de façon très fine l’efficacité de la publi­ci­té digi­tale et ain­si de la pilo­ter de façon opti­male, en s’appuyant sur des algo­rithmes de plus en plus per­fec­tion­nés. L’industrie publi­ci­taire s’en trouve trans­for­mée et de nou­veaux acteurs y voient le jour.

Il y a tou­jours eu une affi­ni­té très forte entre publi­ci­té digi­tale et IA : la publi­ci­té digi­tale met à dis­po­si­tion rela­ti­ve­ment sim­ple­ment une très grande quan­ti­té de don­nées, il est donc pos­sible d’itérer très rapi­de­ment et de tes­ter dif­fé­rents modèles pour défi­nir celui qui a le plus grand pou­voir pré­dic­tif. Enfin, dans le cas où un modèle diverge, le risque indus­triel est bien évi­dem­ment moindre que dans d’autres sec­teurs (comme la finance ou la san­té) : on peut faci­le­ment rat­tra­per quelques jours de contre-per­for­mance sur une cam­pagne publi­ci­taire qui s’étale sur plu­sieurs semaines ou plu­sieurs mois. Ce sont ces rai­sons qui font du sec­teur de la publi­ci­té digi­tale un champ d’expérimentation pri­vi­lé­gié pour l’IA (et donc pour les centres de recherche comme le labo­ra­toire infor­ma­tique de l’École poly­tech­nique – le LIX).


REPÈRES

Deux évé­ne­ments ont mar­qué la nais­sance de l’internet : la mise en open source du logi­ciel World Wide Web par Tim Ber­ners-Lee au CERN en 1993 ; et la nais­sance en 1998 d’une start-up dont l’unique actif était un algo­rithme capable de révo­lu­tion­ner la manière dont on pou­vait effec­tuer des recherches sur le Web. Les fon­da­teurs de Google – la start-up en ques­tion – avaient déjà com­pris que les don­nées – la data – allaient être le pétrole du XXIe siècle et que les algo­rithmes et la puis­sance de cal­cul, le moyen d’exploiter cette nou­velle manne.


Machine learning et cloud computing

Quand on parle d’intelligence arti­fi­cielle (IA) en 2019, nous fai­sons de fait réfé­rence à deux choses : d’un côté les algo­rithmes, ce qu’on appelle com­mu­né­ment le machine lear­ning et de l’autre la vir­tua­li­sa­tion / paral­lé­li­sa­tion des res­sources infor­ma­tiques, le cloud com­pu­ting. Pour com­prendre à quel point ces inno­va­tions sont en train de révo­lu­tion­ner notre monde, il suf­fit de regar­der la courbe qui mesure l’évolution du coût du séquen­çage du génome humain : il était de 95 mil­lions de dol­lars en 2002, il coûte moins de 1 000 dol­lars aujourd’hui. Cette évo­lu­tion sans pré­cé­dent de la puis­sance de cal­cul rend tota­le­ment obso­lète la loi de Moore ; c’est ce rap­port puis­sance / coût qui rend aujourd’hui pos­sible le déploie­ment de la forme la plus abou­tie du machine lear­ning, le fameux deep lear­ning, dans la plu­part des indus­tries, dont celle de la publi­ci­té et du marketing.

“La constitution du jeu
de données est aussi importante que le choix du modèle”

Trois familles d’algorithmes

Plus concrè­te­ment, quels sont les cas d’usage ? Com­ment les algo­rithmes sont uti­li­sés dans la publi­ci­té digi­tale et le mar­ke­ting ? Tout d’abord, il convient de rap­pe­ler qu’il existe trois grandes familles d’algorithmes de machine lear­ning. Tout d’abord, ceux effec­tuant des clas­si­fi­ca­tions super­vi­sées, c’est-à-dire qu’ils cherchent à pré­dire un évé­ne­ment iden­ti­fié (le label) ; ils vont être par­ti­cu­liè­re­ment utiles pour opti­mi­ser le ciblage d’une cam­pagne en fonc­tion des per­for­mances consta­tées. D’autres algo­rithmes, dits de clas­si­fi­ca­tion non super­vi­sée (sans label pré­dé­fi­ni), vont per­mettre de seg­men­ter auto­ma­ti­que­ment les uti­li­sa­teurs d’un ser­vice ou une base de clients (« CRM ») bien au-delà des cri­tères habi­tuel­le­ment uti­li­sés (socio­lo­giques, démo­gra­phiques, pro­fes­sion­nels…) et donc de mieux iden­ti­fier les cibles (voire les micro­cibles). Enfin, les algo­rithmes d’apprentissage par ren­for­ce­ment, qui reçoivent, à chaque déci­sion prise par le modèle, un retour de leur envi­ron­ne­ment qui per­met la mise à jour des para­mètres et le choix de la pro­chaine déci­sion. Cette approche est par­fai­te­ment adap­tée au cal­cul ité­ra­tif de l’allocation du bud­get dans un mix médias afin d’obtenir un meilleur retour sur investissement.

Ciblage en publicité digitale
© Andrey Popov

Trouver les bons jeux de données

Pour cha­cun de ces modèles, la consti­tu­tion du jeu de don­nées (data­set) est aus­si impor­tante que le choix du modèle. La décou­verte et l’ajout de nou­velles dimen­sions sont d’ailleurs au cœur de la pro­blé­ma­tique IA, c’est ce qu’on appelle le fea­ture engi­nee­ring, l’ajout dans un data­set de toute nou­velle don­née sus­cep­tible d’augmenter son pou­voir pré­dic­tif : dimen­sions tem­po­relles, rela­tions sociales, appé­tence pour tel ou tel pro­duit ou tel ou tel conte­nu… Là où l’exercice devient ver­tueux, c’est que l’ajout de ces dimen­sions, en plus d’améliorer les per­for­mances du modèle, per­met éga­le­ment de décou­vrir de nou­veaux aper­çus à très forte valeur ajou­tée pour les direc­tions mar­ke­ting (une meilleure com­pré­hen­sion des com­bi­nai­sons de dimen­sions qui infèrent un évé­ne­ment comme un acte d’achat pour un pro­duit ou un ser­vice donné).

De solides sous-jacents mathématiques

Toutes ces approches algo­rith­miques reposent sur de solides sous-jacents mathé­ma­tiques : régres­sion logis­tique, sta­tis­tique ité­ra­tive comme la méthode des plus proches voi­sins ou celle des dis­cri­mi­nants linéaires, arbre de déci­sion, réseaux de neu­rones pro­fonds ou deep lear­ning. Le deep lear­ning est à l’origine de la révo­lu­tion en recon­nais­sance d’image avec une archi­tec­ture basée sur l’empilement de fonc­tions élé­men­taires, notam­ment le réseau Alex­Net, gagnant du concours Ima­ge­Net de 2012. C’est encore cette approche qui donne aujourd’hui les meilleurs résul­tats, grâce notam­ment à l’utilisation de réseaux de neu­rones récur­rents à mémoire court terme / long terme qui sont des modèles capables de recon­naître des motifs dans des séquences de tailles variables. Ces modèles donnent des résul­tats tout à fait remar­quables en ana­lyse de texte (tra­duc­tion auto­ma­tique, auto-com­plé­tion de mes­sage…) et c’est l’état de l’art de ces mêmes modèles que l’on retrouve au cœur du pro­jet Alpha­Go qui a bat­tu les meilleurs joueurs mon­diaux de go après avoir simu­lé des dizaines de mil­lions de par­ties. Demain, ce sont ces modèles qui contri­bue­ront col­lec­ti­ve­ment au pro­jet de voi­ture auto­nome (où inter­viennent la recon­nais­sance de l’environnement, l’apprentissage de la conduite, le tra­jet opti­mal…). Ces méthodes d’apprentissage pro­fond ont appor­té un regard radi­ca­le­ment nou­veau et des solu­tions à une mul­ti­tude de pro­blèmes. Ce n’est donc pas sur­pre­nant de voir les trois pion­niers du deep lear­ning, Yann LeCun, Yoshua Ben­gio et Geof­frey Hin­ton, se voir attri­buer col­lec­ti­ve­ment cette année le prix Turing, la plus haute dis­tinc­tion en informatique.

Publicité sur différents supports
© Rasu­lov

Des gains d’efficacité allant jusqu’à 50 %

Ces approches appli­quées à la publi­ci­té vont per­mettre de défi­nir des indi­ca­teurs de per­for­mance plus objec­tifs (par exemple la mesure d’un incré­ment sur les ventes, sur l’engagement…). Depuis l’émergence de la publi­ci­té dans les années 50, il existe une plai­san­te­rie bien connue sur Madi­son Ave­nue : « La moi­tié des sommes dépen­sées en publi­ci­té le sont en pure perte mais impos­sible de savoir de quelle moi­tié il s’agit. » L’ambition ici est pré­ci­sé­ment de faire men­tir cet adage en per­met­tant une com­pré­hen­sion beau­coup plus fine de la manière dont la valeur se crée pour une marque consé­cu­ti­ve­ment à une expo­si­tion publi­ci­taire et donc la pos­si­bi­li­té réelle d’optimiser signi­fi­ca­ti­ve­ment tout indi­ca­teur de per­for­mance avec un gain qui avoi­sine sou­vent les 50 % et avec en plus d’énormes gains en termes de pro­duc­ti­vi­té des équipes opé­ra­tion­nelles (qui peuvent donc se concen­trer sur la com­pré­he­sion de leurs métiers – busi­ness intel­li­gence).

Une des consé­quences fortes de cet état de fait est qu’il n’existe plus de véri­table bar­rière entre le des­crip­tif – les insights – et le pré­dic­tif – l’acti­va­tion – : ce sont les mêmes modèles et les mêmes don­nées qui nour­rissent l’un et l’autre. Cela va induire de grands chan­ge­ments dans l’organisation de l’industrie publi­ci­taire : évo­lu­tion des pro­fils avec notam­ment de plus en plus de pro­fils quan­ti­ta­tifs, data ana­lysts et data scien­tists, une prise de conscience de plus en plus aiguë des pro­blé­ma­tiques légales liées à l’utilisation de la don­née, au regard notam­ment de la pro­tec­tion de la vie pri­vée aujourd’hui et de l’identité numé­rique demain. L’identification des uti­li­sa­teurs sur leurs dif­fé­rents écrans et dans la durée devient un élé­ment cen­tral de la pro­blé­ma­tique et c’est d’autant plus vrai avec l’arrivée de la 5G et de la déli­néa­ri­sa­tion de la télé­vi­sion ¬ les télé­vi­seurs vont deve­nir des smart­phones avec des écrans de 42 pouces – évo­lu­tion qui va com­plè­te­ment digi­ta­li­ser l’achat d’espace roi, celui des spots TV. Cela va per­mettre d’atteindre le graal espé­ré par tous les publi­ci­taires : la récon­ci­lia­tion du bran­ding et de la per­for­mance, c’est-à-dire la pos­si­bi­li­té de suivre les pros­pects et les clients sur une très longue période, de la créa­tion de noto­rié­té pour la marque (le bran­ding) jusqu’à la tran­sac­tion finale (achat du bien ou du ser­vice pro­po­sé par cette marque, ce qu’on appelle tra­di­tion­nel­le­ment en publi­ci­té la per­for­mance) avec une mesure objec­tive de la valeur créée par la publi­ci­té tout au long de cette chaîne de valeur.


Délinéarisation

Ce terme désigne le pas­sage à une télé­vi­sion qui rompt avec le direct. Le télé­spec­ta­teur devient l’acteur de sa consom­ma­tion, en choi­sis­sant ce qu’il veut regar­der, quand il le veut et où il le veut. 


Une industrie en pleine mutation

Les GAFA ont bien anti­ci­pé tous ces mou­ve­ments et ils s’organisent pour équi­per les dif­fé­rents acteurs en pla­te­forme mar­ke­ting et cloud à même de les aider à tirer par­ti de ce nou­veau para­digme IA, dupli­quant à cet effet un modèle qui a déjà fait ses preuves avec SAP et Sales­force (et en anti­ci­pant le chan­ge­ment de géné­ra­tion au niveau des res­pon­sables mar­ke­ting – CMO – qui auront sans doute des pro­fils plus scien­ti­fiques que leurs prédécesseurs).

Toutes ces trans­for­ma­tions vont radi­ca­le­ment chan­ger l’industrie de la publi­ci­té en ouvrant le mar­ché à de nou­veaux acteurs, les socié­tés de conseil, qui voient dans cette pla­te­for­mi­sa­tion et ces approches quan­ti­ta­tives un moyen de vendre à leurs clients un nou­veau type de pres­ta­tions et même l’arrivée de nou­veaux acteurs glo­baux, à l’image de S4 Capi­tal de Sir Mar­tin Sor­rell qui veut créer « l’agence du futur », essen­tiel­le­ment posi­tion­née autour de la pro­blé­ma­tique IA + Data.

Nous avons tou­jours eu en France un savoir-faire recon­nu en matière de publi­ci­té et plus récem­ment en intel­li­gence arti­fi­cielle grâce à l’excellence de nos for­ma­tions scien­ti­fiques. Il y a une oppor­tu­ni­té his­to­rique pour notre pays (et pour l’Europe) de faire émer­ger de nou­veaux acteurs à même d’aller conqué­rir le monde et de riva­li­ser demain avec leurs concur­rents amé­ri­cains et chinois.

Alors soyons agiles et auda­cieux, ne ratons pas cette opportunité.


Pour en savoir plus sur la publi­ci­té digi­tale, consul­tez notre dos­sier sur le mar­ke­ting digital

Poster un commentaire