Data & Entreprises : des opportunités à saisir et des enjeux à relever

Sicara : Data & Entreprises, des opportunités à saisir et des enjeux à relever

Dossier : Vie des entreprisesMagazine N°781 Janvier 2023
Par Pierre-Henri CUMENGE (X02)

Pierre-Hen­ri Cumenge (X02), cofon­da­teur et CTO de Sicara, nous présente cette société et son posi­tion­nement dans le monde de la data et de l’intelligence arti­fi­cielle. Il revient notam­ment sur le périmètre d’action de Sicara et dresse un état des lieux de la place de la data dans le monde de l’entreprise. Rencontre.

Que propose Sicara ?

Sicara est une société de ser­vices spé­cial­isée dans la data. Nous tra­vail­lons avec nos clients pour con­stru­ire des solu­tions qui cou­vrent l’ensemble de leur chaîne data. His­torique­ment, nous nous sommes d’abord posi­tion­nés sur des pro­duits de recon­nais­sance d’images. Nous nous sommes très vite ren­du compte que la com­pé­tence pure­ment algo­rith­mique ne suff­i­sait pas. Il nous a fal­lu élargir notre périmètre de com­pé­tences. D’une part, nous avons dévelop­pé une com­pé­tence sur le data engi­neer­ing qui est la capac­ité à inté­gr­er, agréger et met­tre à dis­po­si­tion des flux de don­nées issus de divers­es sources dans un entre­pôt de don­nées. D’autre part, nous inter­venons sur des phas­es vision pro­duits afin de con­cevoir des solu­tions util­is­ables et util­isées par les util­isa­teurs fin­aux. En effet, cette typolo­gie de pro­jets requiert une com­préhen­sion fine d’enjeux spé­ci­fiques à la don­née et des exper­tis­es dont nos clients ne dis­posent pas for­cé­ment en interne : par exem­ple la manière de mesur­er la per­ti­nence d’un algo­rithme au regard des enjeux méti­er, ou le con­trôle de la qual­ité de la donnée.

Dès le départ, nous avons aus­si accordé une atten­tion par­ti­c­ulière à la qual­ité du développe­ment logi­ciel pour accélér­er la mise en pro­duc­tion des pro­jets et pro­duits. Une de nos mis­sions est de garan­tir que les pro­duits soient inté­grés aux sys­tèmes d’information de nos clients et que les appli­ca­tions data qui en résul­tent soient robustes et pérennes. Il est donc cri­tique que nos data sci­en­tists aient aus­si la com­pé­tence néces­saire pour non seule­ment dévelop­per des algo­rithmes per­for­mants, mais aus­si pour les expos­er au sein d’une base de code facile à déploy­er, main­tenir et monitorer.

Au-delà, nous avons la par­tic­u­lar­ité et l’avantage de faire par­tie du groupe Theo­do qui regroupe 10 entités aux exper­tis­es com­plé­men­taires. Cela nous per­met de cou­vrir l’ensemble des exper­tis­es néces­saires au déploiement de solu­tions data, par exem­ple pour met­tre en place l’infrastructure cloud sous-jacente ou dévelop­per les appli­ca­tions web ou mobiles exploitant les don­nées et algo­rithmes sur lesquels nous tra­vail­lons. Cela per­met à nos clients de sim­pli­fi­er la ges­tion de leurs pro­jets avec une approche de guichet unique. Au-delà de cette capac­ité à dévelop­per un pro­duit de bout en bout pour nos clients, nous nous appuyons aus­si sur deux autres sociétés du groupe respec­tive­ment spé­cial­isées dans le domaine de la san­té et de la finance. Pour nos clients posi­tion­nés sur ces secteurs, c’est la pos­si­bil­ité d’avoir accès à des experts métier.

Pouvez-vous nous donner des exemples pour illustrer votre périmètre d’action ?

Nous avons con­stru­it une appli­ca­tion de fac­tura­tion automa­tique des plateaux repas pour un acteur spé­cial­isé dans la fab­ri­ca­tion de matériel pour la restau­ra­tion. Cela per­met de réduire les files d’attente aux caiss­es et aux clients de manger chaud ! 

Con­crète­ment, quand ces derniers posent leur plateau sur une borne, des pho­tos sont pris­es et analysées grâce aux tech­niques de recon­nais­sance d’images, ce qui per­met de recon­naître les plats et de cal­culer instan­ta­né­ment le mon­tant à fac­tur­er. Pour ce pro­jet, nous sommes par­tis d’une feuille blanche. Le développe­ment de la solu­tion tech­nique a néces­sité une impor­tante phase de R&D ini­tiale. Aujourd’hui, le pro­jet est en plein déploiement avec plusieurs dizaines de restau­rants déjà équipés. L’objectif est main­tenant d’accélérer ce déploiement à moin­dre coût afin que notre client puisse pro­pos­er cette solu­tion à l’ensemble de sa clientèle.

Dans l’univers médi­cal, pour un grand lab­o­ra­toire phar­ma­ceu­tique, nous avons tra­vail­lé sur une solu­tion visant à dig­i­talis­er les études clin­iques menées dans le domaine des mal­adies neu­rodégénéra­tives. Cela a per­mis un gain moyen de 18 mois sur l’ensemble du proces­sus qui con­tribue à réduire les coûts et accélér­er la recherche sur les mal­adies neu­rodégénéra­tives. Les études clin­iques sont une étape indis­pens­able à la mise sur le marché de nou­veaux médica­ments, durant lesquelles le lab­o­ra­toire sol­licite des patients qui se sont portés volon­taires. Ce sont des phas­es longues et coû­teuses. Les patients par­tic­i­pant doivent se ren­dre régulière­ment à l’hôpital pour par­ticiper aux tests visant à col­lecter les don­nées. Nous avons tra­vail­lé sur une appli­ca­tion mobile per­me­t­tant de faire ces tests depuis chez soi sur un smart­phone, avec deux impacts : lim­iter le temps pris aux médecins pour réalis­er les tests sur place, donc le coût d’une étude, et élargir le pool de patients poten­tiels à l’ensemble des zones géo­graphiques, ce qui aug­mente les chances de men­er à bien les études sur des mal­adies rares. Sur ce pro­jet, nous avons col­laboré avec d’autres start-up du groupe : BAM pour le développe­ment de l’application mobile, Padok pour l’ingestion, le traite­ment et la mise à dis­po­si­tion de la don­née, et Hok­la qui apporte son exper­tise en développe­ment de dis­posi­tifs médi­caux. Nous sommes mobil­isés sur ce pro­jet com­plexe depuis deux ans. Il implique un con­trôle opti­mal de la don­née, de son util­i­sa­tion et de la doc­u­men­ta­tion des flux parce que nous inter­venons sur un secteur soumis à de très fortes con­traintes réglementaires.

Enfin, nous avons aus­si récem­ment accom­pa­g­né une entre­prise à deux niveaux : la mise en place d’une solu­tion tech­nique et celle de son équipe data. Cette société four­nit des infor­ma­tions et de la don­née très fine sur la fréquen­ta­tion des lieux. Elle aide, par exem­ple, à opti­miser la prise de déci­sion d’une enseigne sur un futur emplace­ment. Nous les avons aidés à con­cevoir et met­tre en place l’architecture tech­nique de leur data lake et des flux d’ingestion et d’agrégation de don­nées, et à pos­er les bases de leur organ­i­sa­tion data. Aujourd’hui, ils dis­posent de leur pro­pre équipe et pour­suiv­ent de manière autonome le développe­ment de leur solution.

Sur l’ensemble de ces enjeux et problématiques, quel est le niveau des entreprises ? Qu’observez-vous ? Quels sont les freins qui persistent ?

C’est très hétérogène ! À notre niveau, nous obser­vons un écart qui se creuse entre les entre­pris­es qui ont une démarche proac­tive vis-à-vis de la data et ceux qui n’en ont pas encore mesuré toute l’importance. La dif­férence vient en général d’un spon­sor­ship fort au niveau comex. En par­al­lèle, d’autres secteurs ont été con­traints de se lancer par la pres­sion du marché ou la régle­men­ta­tion. C’est notam­ment le cas du secteur ban­caire. Sur un sujet comme le KYC (Know Your Cus­tomer), le con­trôle de la qual­ité de la don­née et sa maîtrise sont une oblig­a­tion règle­men­taire assor­tie de fortes pénal­ités, ce qui a poussé les acteurs con­cernés à s’intéresser forte­ment à la valeur ajoutée qu’une bonne maîtrise de la don­née peut apporter. Encore aujourd’hui, il y a une forme de sous-investisse­ment dans la don­née. Je suis très sou­vent en con­tact avec des entre­pris­es qui ont recruté des data sci­en­tists en interne pour dévelop­per des algo­rithmes, mais qui, en amont, n’ont pas réal­isé le tra­vail néces­saire de récupéra­tion, de net­toy­age et d’homogénéisation de la don­née, qui est la matière pre­mière que les data sci­en­tists vont exploiter. Sur un plan organ­i­sa­tion­nel, la bonne con­nex­ion et coopéra­tion des équipes data avec le reste des équipes pour fournir de la data aux métiers et con­cevoir des pro­duits data avec une véri­ta­ble util­ité est une néces­sité absolue. Les mod­èles organ­i­sa­tion­nels autour de la data con­stituent un sujet de dis­cus­sion et d’expérimentation très fort en ce moment. Nous obser­vons notam­ment un mou­ve­ment vers la décen­tral­i­sa­tion de la respon­s­abil­ité de la don­née afin d’impliquer plus forte­ment les pro­duc­teurs de don­nées. En par­al­lèle, nous nous diri­geons vers un rééquili­brage entre les par­ties data sci­ence et data engi­neer­ing. Comme évo­qué plus haut, le data engi­neer­ing per­met une mise à dis­po­si­tion d’une don­née de bonne qual­ité. Cette prise de con­science qui s’opère depuis env­i­ron 5 ans crée, et va con­tin­uer à créer, une forte ten­sion sur les pro­fils de data engi­neers sur le marché du tra­vail. Si, au cours des dernières années, nous avons vu appa­raître de nom­breuses for­ma­tions et mas­ters spé­cial­isés en data sci­ence, l’offre reste assez lim­itée sur la par­tie data ingénierie. D’ailleurs, en interne, actuelle­ment, nous recru­tons essen­tielle­ment sur cette par­tie data engi­neer­ing et for­mons d’anciens data sci­en­tists ou développeurs au data engi­neer­ing. En par­al­lèle, nous recher­chons aus­si des pro­fils avec une spé­cial­i­sa­tion dans la par­tie ana­ly­tique et busi­ness intel­li­gence, c’est-à-dire des experts capa­bles de met­tre en place des tableaux de bord pour ren­dre la don­née acces­si­ble visuelle­ment aux décideurs.

Et pour conclure, quelles sont les tendances qui vous intéressent ? Comment vous projetez-vous ?

Nous évolu­ons dans un secteur en pleine effer­ves­cence. De plus en plus d’entreprises se dotent de Chief Data Offi­cers (CDO) et ont pris con­science que le sujet de la data doit être traité dans les sphères déci­sion­nelles de leur organ­i­sa­tion. Pour­tant, actuelle­ment, peu de CDO sont mem­bres des comités de direc­tion des entre­pris­es. Je pense que cette sit­u­a­tion va évoluer et que dans quelques années, on trou­vera anor­mal de ne pas avoir un CDO mem­bre d’un comité de direc­tion. En par­al­lèle, sur le plan tech­nique et tech­nologique, le rythme des évo­lu­tions accélère. Il y a un intérêt crois­sant pour le con­cept de data cen­tric AI ; la ges­tion du cycle de vie d’un algo­rithme ou encore le SSL (Self-Super­vised Learn­ing) afin de réduire les coûts relat­ifs à l’entraînement des algo­rithmes sur d’importantes volumétries de data. Côté traite­ment de don­nées, nous obser­vons un usage crois­sant des data plate­formes, comme Data­bricks ou Snowflake avec qui nous avons mis en place des parte­nar­i­ats afin d’accélérer les développe­ments de nos pro­jets client. Ce type de plate­formes leur per­met d’avoir une solu­tion inté­grée pour l’ensemble des traite­ments et expo­si­tion de don­nées, donc de lim­iter la com­plex­ité tech­nique de leurs solu­tions data.

Au delà de la com­mu­nauté data, l’explosion des per­for­mances des LLM (Large Lan­guage Mod­els) et leur acces­si­bil­ité au plus grand nom­bre a le poten­tiel de mod­i­fi­er en pro­fondeur la manière de tra­vailler pour un grand nom­bre de métiers. Dans les métiers du numérique par exem­ple, l’assistance à la généra­tion de code ou à la recherche d’informations pour débugguer son code devraient trans­former le quo­ti­di­en des développeurs. Tous les métiers touchant à la créa­tion de con­tenu ou à la recherche d’information sont con­cernés, et le change­ment pour­rait être très rapi­de. Ce qui est fasci­nant ici pour moi c’est que nous assis­tons à des avancées qui arrivent beau­coup plus tôt que ce que j’aurais imag­iné. Il y a 5 ans, si on m’avait demandé com­bi­en d’années de recherche étaient néces­saires pour obtenir un sys­tème d’intelligence arti­fi­cielle capa­ble de pro­duire ce que les out­ils d’openAI par exem­ple font aujourd’hui, j’aurais prob­a­ble­ment répon­du plus de 10 ans. L’engouement récent pour chat­G­PT par­le de lui-même : il a été testé par 1 mil­lion d’utilisateurs en moins de 3 jours. 

Poster un commentaire