Anis Gandoura (X09) a cofondé Stabler, qui fournit un web scraping industrialisé.

Stabler : Industrialiser l’extraction de données

Dossier : TrajectoiresMagazine N°787 Septembre 2023
Par Hervé KABLA (84)

En 2019, Anis Gan­doura (X09) a cofondé Sta­bler, qui four­nit un web scrap­ing indus­tri­al­isé. Cette entre­prise revendique un ser­vice de web scrap­ing sta­ble, scal­able, fiable, économique, fondé sur des API (appli­ca­tion pro­gram­ming inter­face) pour les grandes entre­pris­es et les infrastructures.

Quelle est l’activité de stabler.tech ?

Stabler.tech com­mer­cialise un logi­ciel d’extraction de don­nées sur inter­net. Cette activ­ité – appelée web scrap­ing en anglais – per­met à nos clients, par exem­ple, de relever les prix, de suiv­re leurs con­cur­rents, d’alimenter des mod­èles d’intelligence arti­fi­cielle ou encore d’analyser des trans­ac­tions de la blockchain. Nous automa­ti­sons l’extraction de tout ce qu’un humain pour­rait laborieuse­ment récolter à la main sur internet. 

Quel est le parcours des fondateurs ? 

Je suis diplômé de l’X, pro­mo­tion 2009, et je m’occupe de la par­tie tech­nique. J’ai fondé stabler.tech avec deux asso­ciés : Romain Hévin, diplômé d’Euridis Busi­ness School, qui gère le départe­ment com­mer­cial, et Paul Moug­inot, diplômé de Cen­trale­Supélec, qui est chargé des opéra­tions. Nos com­pé­tences nous per­me­t­tent de maîtris­er toute la chaîne de valeur de l’entreprise, du développe­ment tech­nologique à la com­mer­cial­i­sa­tion, en pas­sant par l’interaction avec nos clients. Par le passé, nous avons tra­vail­lé en tant que con­sul­tants en stratégie. Cela nous a per­mis de com­pren­dre le fonc­tion­nement de chaque client, qu’il s’agisse d’une start-up ou d’un grand groupe, de cern­er ses préoc­cu­pa­tions ain­si que ses con­traintes internes.

Comment t’est venue l’idée ?

Aupar­a­vant, avec Paul et une troisième asso­ciée, nous avons cofondé daco.io, une entre­prise qui per­me­t­tait aux mar­ques de mode d’analyser leur envi­ron­nement con­cur­ren­tiel. À l’époque, nous avions déjà dévelop­pé des tech­nolo­gies d’intelligence arti­fi­cielle et d’extraction de don­nées. Quelques années après sa créa­tion, daco.io est dev­enue une PME rentable sans avoir à lever des fonds. Ce fut une expéri­ence pas­sion­nante pour nous. daco.io a par la suite été acquise par son plus grand client, Veepee (anci­en­nement vente-privee). 


Lire aus­si : Intel­li­gence arti­fi­cielle ou low-tech : quelles ten­dances pour la mode ?


Chez Veepee, nous avons con­stru­it le départe­ment pric­ing en liai­son avec les équipes expertes déjà présentes. C’est là, pen­dant trois ans, que nous avons dévelop­pé une exper­tise dans le domaine de l’extraction de don­nées indus­trielle et le déploiement de sys­tèmes d’intelligence arti­fi­cielle adap­tés au com­merce en ligne : recon­nais­sance d’images, pré­dic­tion de la demande, etc. 

À cette époque, nous avons été con­tac­tés par de nom­breuses entre­pris­es qui con­nais­saient notre répu­ta­tion dans le domaine et qui souhaitaient met­tre en place des out­ils indus­triels d’extraction de don­nées web. Nous avons donc eu l’idée de lancer stabler.tech pour démoc­ra­tis­er l’extraction de don­nées et per­me­t­tre à toute entre­prise de s’équiper de tels out­ils pour un coût financier et opéra­tionnel très raisonnable.

Screenshot Stabler extraction de données

Qui sont les concurrents ? 

Il existe des cen­taines de con­cur­rents, par­fois présents sur le marché depuis des années, ce qui con­firme l’existence et la crois­sance de ce secteur. On peut par­ler d’océan rouge et de nom­breux acteurs sont réputés pour la qual­ité de leur ser­vice. Néan­moins, ce marché est encore rel­a­tive­ment peu con­solidé. Nous nous dis­tin­guons par notre tech­nolo­gie flex­i­ble, sim­ple d’utilisation, économique et con­forme aux lois français­es et européennes. Nous avons ain­si l’ambition de con­tribuer à la con­sol­i­da­tion de ce marché. 

Quelles ont été les étapes clés depuis la création ? 

Le marché de l’extraction de don­nées est très hétérogène. Depuis notre créa­tion, nous avons com­mer­cial­isé suc­ces­sive­ment trois pro­duits : d’abord sta­bler­SO­LO pour les PME et les entre­pre­neurs indi­vidu­els et sta­bler­PLUS pour les grandes infra­struc­tures qui ont besoin de rapid­ité et de vol­ume. Avec ces deux offres, nous four­nissons les machines et une for­ma­tion qui per­met à nos clients de met­tre en place rapi­de­ment leurs pro­pres extrac­tions. Cer­tains de nos clients ne désirent pas gér­er eux-mêmes l’extraction des don­nées. Nous pro­posons donc un troisième pro­duit totale­ment inté­gré, one­plant. Grâce à cette solu­tion, le client exprime ses besoins et nous déployons des experts IT qui opèrent nos tech­nolo­gies, en col­lab­o­ra­tion avec la société parte­naire MyDataMachine.

Qui sont les clients du web scraping ?

Il existe deux grands types de clients : les PME et les indépen­dants d’une part, qui cherchent une solu­tion facile à déploy­er et économique, et les grands groupes et infra­struc­tures d’autre part, qui souhait­ent exter­nalis­er leur R & D dans le domaine du web scrap­ing. C’est un peu une « course à l’armement » et pou­voir col­lecter les infor­ma­tions néces­site une veille tech­nologique per­ma­nente et la réso­lu­tion de nom­breux prob­lèmes techniques.

Sans entrer dans les détails techniques justement, peux-tu expliquer au lecteur lambda de la J&R comment cela fonctionne ? 

La plate­forme sta­bler fonc­tionne en deux étapes. La pre­mière, appelée con­fig­u­ra­tion, est l’étape où le client mon­tre au robot com­ment extraire le site web. Cet appren­tis­sage se fait en con­stru­isant un graphe, où chaque nœud est une étape élé­men­taire à réalis­er. Cela peut être : « Vis­ite cette page », « Clique sur ce bou­ton », « Tape ce texte dans ce champ », etc. Cette étape s’inspire de la pro­gram­ma­tion visuelle. La deux­ième étape est l’extraction. Le robot par­court, puis exé­cute le graphe de con­fig­u­ra­tion du site web. Il est capa­ble de se dupli­quer pour aller plus vite et de recom­mencer automa­tique­ment chaque étape lorsqu’une erreur est détec­tée. Le résul­tat est une extrac­tion de haute qualité.

Est-ce légal ?

Le web scrap­ing n’est pas explicite­ment régle­men­té par des lois, nous nous référons donc à la jurispru­dence. Nous obser­vons un ensem­ble de bonnes pra­tiques, comme le respect de la bande pas­sante des sites web, et nous rap­pelons à nos clients de tou­jours agir en con­for­mité avec les men­tions légales des sites extraits. Nous sommes une petite entre­prise, mais nous avons déjà beau­coup investi pour étudi­er le paysage juridique et respecter toutes les lois français­es et européennes. Par exem­ple, nous avons pris les dis­po­si­tions néces­saires pour nous con­former au RGPD. Notre objec­tif serait d’être un jour four­nisseurs de l’État ou des col­lec­tiv­ités publiques.

Est-ce que vous vendez aussi des logiciels pour protéger vos clients du web scraping ?

Actuelle­ment nous n’en ven­dons pas, mais notre exper­tise nous per­me­t­trait cer­taine­ment de dévelop­per un excel­lent logi­ciel anti-bot. Cepen­dant, l’évolution du marché et des lois est plutôt en faveur du web scrap­ing et chaque entre­prise a désor­mais besoin, d’une manière ou d’une autre, d’extraire de plus en plus de don­nées afin d’affiner ses décisions.

Finalement, vous apportez à la guerre économique ce que les services de renseignements procurent à la défense nationale ? 

Pour être plus pré­cis, nous four­nissons des out­ils de pointe qui per­me­t­tent de dis­pos­er rapi­de­ment de don­nées brutes, pro­pres et fiables. Chaque client ayant des besoins spé­ci­fiques, nous n’intervenons pas sur le traite­ment et la trans­for­ma­tion en aval. Des fleu­rons français comme Dataiku sont d’ailleurs déjà devenus des experts dans ce domaine. Le ren­seigne­ment est un secteur où nous obser­vons une demande crois­sante pour nos ser­vices. Le web scrap­ing peut notam­ment être mis à prof­it dans le cadre de l’Open Source Intel­li­gence (OSINT).

Poster un commentaire