Accueil > Datamining > Quand le data mining devient BIO : Business Intelligence Opérationnelle (Partie 1)

Quand le data mining devient BIO : Business Intelligence Opérationnelle (Partie 1)

écrit par René Lefebure

16 oct

Histoire de 1 an dans le WEB !

En Juin 2007, j’ai eu la responsabilité d’organiser un séminaire sur les perspectives de la Business Intelligence pour un opérateur de téléphonie mobile. Une occasion de présenter et d’échanger sur la nécessité future de mieux intégrer la connaissance client dans les processus opérationnels (Business Intelligence Opérationnelle) et dans les tableaux de bord pour maîtriser et anticiper sur les décisions. Si le constat apparaissait clair pour l’ensemble des acteurs, quelques semaines plus tard, les mêmes acteurs éprouvaient les plus grandes difficultés pour introduire un élément de valorisation des clients dans les processus commerciaux de sollicitation et d’animation. Les raisons étaient multiples : peu de disponibilité dans le planning sur-chargé, risque de fiabilité de certaines données, peur d’introduire un changement, disponibilité pour une seule données, bref …. si la vision cible était partagée, le chemin pour commencer était difficile.

En 25 ans de consultant interne ou externe, j’ai trop vécu cette frustration de définir une vision cible (système d’information, segmentation, scores, valeur client, processus, reporting, etc.) et de constater la difficulté de mes clients pour « faire bouger » les choses. Il est certes indispensable de gérer et préparer les acteurs au changement, mais la recherche d’un consensus dans le temps conduit souvent à une version très édulcorée de la cible (au mieux), et parfois à une solution contre productive (qui permet de renforcer les sceptiques). Heureusement le métier de « consultant » n’est pas que frustration ! La vision, la volonté et l’obstination de certains clients à « maintenir le cap » m’a permis de vivre des expériences très intéressantes et de partager des succès dans les projets. Il ne m’est pas possible de les citer tous, mais Hervé, Gilles, Dominique, Xavier, Nathalie, Brigitte, Céline, Statis, Fabienne, Amélie, Arnaud, Laurent se reconnaitront dans cette capacité à tenir le cap.

Après un an de web, j’ai pu mesurer la souplesse, la réactivité du canal Web.

Le Web est vraiment BIO : on peut tester rapidement l’intelligence !

Comme cette possibilité est largement liée à la qualité de mes collègues, j’ai choisi de d’abord présenter les acteurs dans cette première partie … la seconde expliquera la solution !

Présentation des acteurs
Les scénaristes : les architectes techniques du Web développent une capacité de communiquer avec les environnements externes (accéder aux articles, aux stocks, aux fichiers, aux systèmes de paiement, etc..). Ils vivent en permanence dans une dépendance de connectivité pour assurer un fonctionnement optimal des systèmes : tout doit se faire de manière fluide. Mais la nouveauté est leur vitesse de réaction avec 3 à 4 semaines pour mettre « en pré-prod », là où j’avais à peine fini les spécifications générales ! Les terminologies de « web services » m’ont permis de constater qu’il n’est pas besoin « d’être propriétaire » pour garantir le traitement, il faut bien définir les protocoles et les responsabilités de chacun. Dans ce contexte « SOA » une nouvelle vision du « data mining on demand » s’est construite. Fred me demandait souvent « ce qu’il pouvait m’apporter », il me montra qu’il était possible d’être agile là où j’avais l’habitude d’être lourd.

Les paroliers : les traders du trafic Web développent un analyse très fine des « sources », des « mots clefs », des « origines » pour construire du discours (le poids des mots), connaitre le positionnement pour acheter et gérer des enchères sur les mots clefs, concevoir et positionner des bannières sur les sites les plus en affinité avec la cible. Ces « agitateurs de concepts » travaillent le contenu pour améliorer le « ranking » du site, mais avec un budget limité. Le data mining peut contribuer à améliorer cette intelligence du positionnement, mais surtout assurer le meilleur rapport qualité/prix (presque au jour le jour) dans le recrutement des futurs bons clients. Un data mining au service d’un vrai calcul opérationnel de la valeur des clients, avec une combinaison des origines, des heures et jours de connexions, du profil client pour déterminer la valeur future dans le temps du client. Enfin une valeur client vraiment opérationnelle au quotidien, qui permet de décider des allocations et des choix budgétaires ! Une valeur client mise en place en 3 semaines pour guider les actions, mais aussi les contenus les plus porteurs pour recruter des « bons clients ». Tandis qu’Arnaud m’expliquait son activité de « traders » en temps réel, il me montrait qu’il était possible d’intégrer une « valeur client » dans une décision d’achat. Enfin, mon concept clef sortait de sa rhétorique pour entrer dans la finance !

Les artistes : les ergonomes web développent cette volonté de « séduire » le visiteur. De créer le « choc créatif » (« faut que ca crache comme dit Yves »), en travaillant sur « l’expérience client ». Mieux comprendre les attentes des clients, observer les usages, identifier des « personnae » (un segment sur l’utilisation) pour ajuster le design, les codes graphiques, les symboles, les boutons, les menus. Le livre d’Amélie Boucher sur l’ergonomie m’a permis de comprendre que nous faisions le même métier : tous les deux nous cherchons à comprendre le comportement … mais en ne regardant avec les mêmes outils : pour elle la navigation … pour moi les transactions, le pile et le face ?. Lorsque mon compère Thomas améliore de 60 % le taux de concrétisation (le CA sur un site !) en agissant sur « le customer experience » il montre que la connaissance client se traduit par du tangible (en testant 2 présentations en temps réel). ils me montraient que « mes segments » leur permettait de créer des expériences différentes, et de séduire, de faire du CA … plus que des formules mathématiques arides.

Les « petits poucets » : les spécialistes de l’analytique mettent en place des « marqueurs » (les tags) qui permettent de suivre l’avancée « pas à pas » dans le site. Ils sèment les « tags », modélisent des parcours (pipe ou funnel de conversion), déterminent des objectifs pour identifier les « zones de rupture », les moments où le client décroche. Tout ce travail d’analyse leur permet de localiser la « question qui fâche », l’écran qui froisse, bref les points de rupture. Ils travaillent à améliorer la fluidité de présentation des questions et des écrans pour optimiser un objectif de collecte d’informations ou de souscription. Leurs outils intégrent la possibilité de « suivre » les taux de conversion en fonction des segments de clients, bref de faire du prédictif à partir de la navigation passée. Lorsque Marie et Ludo montrent que les segments ne réagissent pas de la même manière suite à des questions, ils segmentent une base de données qui sera ensuite traitée de manière différente selon les canaux (téléphone, print, sms, etc..).

Un algorithme génétique « vivant »
La caractéristique commune est une collecte rapide de données, une analyse permanente des résultats et une évolution très rapide des dispositifs dans le sens d’une amélioration de la performance. Une forme presque Darwiniste d’amélioration de la performance, très éloignée des grandes théories de la gestion du changement. Un mode « test-learn-improve » très stimulant, assez proche de mon utilisation des algorithmes génétiques dans mes problèmes d’optimisation.

La suite …. dans 2 semaines.

Pas encore de commentaire

Faire un commentaire