Facteurs d’échec des Projets Big Data

écrit par René Lefebure

27 juin

Différentes études semblent montrer que le taux d’échec des Projets Big Data est proche de 50 % (selon certaines études le taux serait même de 60 %).

Faut-il s’étonner de ce taux élevé … personnellement je ne pense pas !

Au début c’est toujours comme ça !

Au lancement des projets CRM … le taux d’échec était de 70 % … et si on regarde aujourd’hui le taux d’équipement des entreprises en CRM, on peut légitiment se dire que ce ratio plus qu’alarmiste du début ne pouvait pas être interprété comme un motif de ne pas initier de projet d’équipement CRM pour les entreprises.

Une entreprise qui n’a pas su aller vers le CRM est une entreprise probablement disparue.

Dans la même tendance pessimiste, les projets ERP furent souvent décriés, et pourtant une entreprise sans ERP … aurait des problèmes pour monter son activité E commerce et dialoguer avec ses partenaires.

Un « buzz négatif » qui peut rapporter gros

Il me semble logique que « les mauvaises nouvelles » accompagnent la phase de lancement des projets.

Ce facteur est assez simple à comprendre … plus le discours s’oriente vers la difficulté (la probabilité de se tromper est importante) et plus le besoin de conseils (et donc de prestations) se développe dans les entreprises. Si je décide de me faire accompagner je « minimise » ce facteur de risque (enfin en principe, car il n’existe pas de Hit Parade chiffré des bons conseilleurs en projets Big Data).

Donc créer du « buzz négatif » crée des opportunités de Business pour les sociétés de conseil … en choix d’outils et/ou de technologie.

Si vous avez choisi de vous lancer dans un projet « Big Data », il existe quelques risques naturels que je vais chercher à vous illustrer … à vous de savoir les éviter.

« The Magical Box »

Ce facteur résulte des attentes parfois irréalistes des « décideurs » pour ce type de projet. Le cas le plus fréquent est lié à la « boulimie des datas », où les entreprises souhaitent « rapidement » ingérer des données semi ou non structurées, pour faire apparaître des innovations potentielles.

Bref les datas et le machine learning doivent être « The Magical Box » car il y a forcément dans les 80 % des données non structurées des moyens d’améliorer les processus actuels.

Malheureusement, comme dans les autres projets, les données « non structurées » nécessitent des phases plus longues que prévues pour les analyser et identifier des patterns utiles. On constate que ce n’est pas si facile de « fouiller » dans les données et que vouloir trouver vite des facteurs qui bouleversent le business modèle … c’est pas si simple.

La promesse de « l’émergence » n’est donc pas forcément tenue.

« David contre Goliath »

Alors pour éviter ce risque du « Magical Box », on retrouve dans les études, la recommandation de se définir un « bon Business Use Case ». Il s’agit de trouver le ou les bonnes applications pour se décider sur l’opportunité du Projet Big Data.

Dans cette configuration, les risques d’échecs sont aussi importants.

La tendance est celle du « bench mark » …on choisit un « business case » totalement maîtrisé … et on attend du projet Big Data soit des « baisses substantielles » de couts (projet data warehouse ou projet pilotage) , soit des gains de performances très importants (rapidité de traitement, up lift de modélisation). Souvent le bench mark consiste à prendre une application particulièrement bien maîtrisée dans l’entreprise et d’attendre que dans ces conditions « spartiate » le challenger écrase à plate couture la solution existante.

On peut dire que c’est rare que David écrase Goliath …

 « Principes d’incertitudes » »

Mais admettons que vous avez su trouver un projet innovant qui peut se traduire par des opportunités importantes de « nouveaux business », vous entrez dans la phase de « rationalisation brumeuse », la chère « incertitude de Heisenberg ».

Lorsque que vous avez évité tous les écueils précédents, réussi votre POC avec des nouveaux éléments et mis en évidence les possibilités de business modèles additionnels, alors vous entrez dans la « phase d’incertitudes ».

Le POC peut se traduire par une liste de recommandations qui remettent en cause les pratiques existantes (intégration de flux météo, de données de trafic, d’hyper personnalisation, renégociation de contrats avec des partenaires, etc.), et devant cette nouvelle « road map » l’entreprise redevient soudainement « frileuse ».

La première option est de dire que le POC a eu de la « chance », et donc de « relancer » une seconde étude pour confirmer ?

La seconde option est de lancer une analyse d’impacts pour chiffrer les conséquences du POC sur l’existant : refonte de l’architecture technique pour accélérer les boucles de collecte, d’analyse et de distribution par exemple) ou projet de réorganisation des métiers et des processus actuels (perçus comme obsolète).

Dans les deux cas, il faut donc relancer des investissements pour continuer à avancer. On attendait du POC un succès tellement évident qu’il ne poserait pas de questions complémentaires … mais le POC finit par poser une « nouvelle liste » de questions encore plus longues et à laquelle on n’a pas forcément toutes les réponses.

Vous venez de demander l’heure à Einstein, qui vous dit que maintenant ça dépend car tout est devenu relatif.

Mais admettons que vous acceptez de vivre avec un degré d’incertitudes et que vous choisissez d’avancer …

«  Parlez-vous SPARKS ? »

La première fois que j’ai entendu Sparks, ça m’a remémoré ce groupe des années 1970 avec les frères américains Ron et Russell Mael (« This Town Ain’t Big Enough for Both of Us »), mais ça voulait surtout dire que je ne connaissais pas grand-chose aux discours du cabinet conseil.

Mais le mot « Sparks » n’est malheureusement pas le « seul » nouveau mot dans le vocabulaire apporté par le « Big Data ». L’arrivée d’un projet « Big data » vous plonge dans un nouveau vocabulaire, et donc dans un risque de ne pas savoir tirer profit des « nouvelles technologies ». Si je prends mon domaine de compétences sur le Machine Learning, il est évident que l’apparition de « nouvelles techniques » de modélisation comme le « Deep Learning avec les kernels en SVM » nécessitent de maîtriser certaines bases pour pouvoir les dominer et donc les déployer.

Le manque de compétences internes dans la maîtrise de certaines technologies empêche l’acceptation, le succès rapide et probant des projets.

Pas facile d’accepter de repartir de zéros lorsque l’on a construit une expertise certaine (en base de données, en traitement des données, en maîtrise des flux, etc..). Plutôt que de régresser « en bafouillant du Sparks », on préfère rester sur ses univers de compétences.

Alors au final avoir 40 ou 50 % des projets « Big Data » qui fonctionnent, je trouve que c’est un taux très encourageant … d’ailleurs il me semble que les entreprises les « plus cotées » aujourd’hui sont des expertes du « Big data ».

 

Il était une fois des Data Scientist

écrit par René Lefebure

22 juin

Algo mon amour ?

Après les annonces sur les Datas qui allaient manger le monde, on voit apparaître que les algorithmes s’apprêtent à manger le Monde … et pour mieux nous aider à le digérer le Machine Learning apparait comme le remède qui nous permettra de ne pas avoir d’indigestion.

En effet, par sa capacité de construire des modèles à partir des données, les algorithmes de Machine Learning nous promettent d’extraire de manière automatique, ce que nous serions incapables de percevoir ou de modéliser.

Ouvrir le chemin de la connaissance dans la mer de données qui se prépare … ça me rappelle un passage de la Bible (celui où on franchit la Mer Rouge).

On pourrait croire à des incantations, mais quand un centre de cancérologie annonce l’acquisition de Watson, solution d’intelligence artificielle développée par IBM, pour aider au diagnostic médical, on commence à se dire que cette forme d’apprentissage à partir des données n’est plus aussi lointaine.

Machine Learning : Go / No Go ?

Face à cette demande en « machine à algorithmes », on peut néanmoins constater qu’il existe aujourd’hui des solutions relativement différentes, ce qui complexifie le choix des entreprises.

Pour essayer d’y voir clair et aider à la prise de décision, je me suis dit que d’essayer de faire une mini typologie des profils de Data Scientists et de les mettre en correspondance face à des profils d’entreprises permettrait peut-être d’y voir plus clair, permettre de se poser quelques « bonnes questions » pour choisir (ou pas) d’aller vers le Machine Learning, avec quel profil et avec quels types d’outils.

Savoir recruter son Data Scientist peut devenir un mal de tête, alors pour éviter le mal d’estomac et les maux de tête … je vous recommande de lire ce petit article … sur les types de Data Scientist.

Alors, êtes-vous prêt à découvrir quel est votre profil de Data Scientist ?

  • Glamour,
  • Aventurier,
  • Contraint,
  • Théologien ?

Et une fois reconnu, vers quel type d’entreprises devez-vous aller ?

 

Matrice de positionnement

Pour commencer à « classer » rien de mieux qu’une bonne carte pour réussir à positionner sa zone de jeu. Pour faire simple, je propose de conserver 2 dimensions majeures :

  • La volonté de maîtriser la complexité algorithmique,
  • Le volume des données et la multiplicité des cas d’usages dans les modèles.

Ce qui donne la représentation suivante avec 4 grandes zones de jeu ;

  • La zone Hadoop où domine la gestion des volumes de données, mais sans pratique experte de sa transformation,
  • La zone Fisher où domine plus la culture statistique ou mathématique de recherche, mais sans contrainte de volume ou de performance en temps de réponse,
  • La zone Sparks où les 2 besoins se fusionnent pour descendre sous les 30 millisecondes et le stream learning,
  • Et enfin la zone Alice, que personnellement je n’ai jamais connu, et donc je me réfère à la réplique du chat de Lewis Caroll :

Alice : Pouvez-vous me dire quelle route je dois prendre à partir d’ici ?

Le Chat : Cela dépend de là où vous voulez aller ?

Alice : Cela m’est égal

Le Chat : Donc, la direction est sans importance !

Je pense que si vous lisez cet article, vous ne devez pas être aussi rêveuse que Alice, commençons à identifier les acteurs dans les différentes zones.

 

Quel est ton profil de Data Scientist ?

 

Le type A : les Aventuriers (Signe Python, ascendant Hadoop)

Les profils de Type A sont des surdoués, aux capacités multiples (informatique, statistique, mathématique, algorithmique, etc..) qui utilisent des « langages » dédiés comme Python, R ou Sparks, et n’hésite pas à se retourner vers Hive pour manipuler et transformer les données.

Ces « data scientists » experts, forcément geeks, suivent l’actualité foisonnante dans la production de techniques de modélisation et dans l’application du « stream learning ».

Plutôt que de s’intéresser au combat entre Batman et Spiderman, ils s’intéresseront aux compétitions sur Kaggle entre XGBoost et Random Forest, et comptabiliseront les victoires dans les différents « contests ».

Ces « data scientist » s’attacheront à transformer des données « brutes » dans des « features pertinents », porteurs d’information et permettant d’optimiser des processus. Ils passeront sans problème de R, à Python ou Sparks pour trouver le meilleur algorithme capable de répondre aux contraintes posées sur les volumes, la rapidité de réponse ou la fréquence des mises à jour.

Ils se spécialiseront sur les données textuelles, les données de type « image ou son », ou les données plus traditionnelles (celles que nous sommes habitués à mettre en colonnes). Pour eux, l’ascension du R² est aussi mythique que celle du K2, et ils se mettent en compétition sur Kaggle pour se bench marker et continuer à apprendre.

 Ces athlètes de la modélisation (Médaille d’Or sur Kaggle) sont les « géants » du métier et il faut arriver à les suivre, et aussi à les manager. Pas facile de leur apporter le frisson de l’exploit dans des structures lourdes, aussi on les retrouve beaucoup plus dans les Directions de start up.

Pleins d’idées, ils aiment chercher et créer.

Le problème annoncé pour ce type de profil est sa rareté.

A la fois parce que les enseignements sont récents (bravo à Andrews Ng pour son travail d’évangélisation à Stanford et sur Coursera), mais aussi parce qu’il s’agit d’un métier relativement exigeant en terme de formation (la conceptualisation des kernels dans les algorithmes de SVM ne relève pas de l’intuition primaire), et enfin parce qu’un investissement personnel est quotidien (on doit re-apprendre tous les jours dans ce domaine en pleine évolution), et de même que l’amour de la compétition et du dépassement de soi.

Avoir les nerfs pour mettre des modèles en production capables de décider en 30 millisecondes et de recevoir en temps réel la performance de son modèle n’est pas de tout repos.

C’est un athlète.

Même s’il a été cité comme le métier « le plus sexy » (avec les développeurs de jeux vidéos), c’est un métier où ce type d’expert se sent souvent un peu seul et incompris (sauf avec ses pairs).

Désolé mais les algorithmes complexes, surtout lorsque l’on commence à vouloir les expliquer, ne mobilisent pas les foules … sauf dans les entreprises qui ont appris à les transformer en Business model comme Google ou Amazon.

Dans une entreprise qui débute sur le sujet, le Data Scientist de type Aventurier a plutôt le sentiment de jouer à Walking Dead dans un Parc Disney…. (qu’il se souvienne que Turing était fan de Blanche Neige, mais que lui aussi a eu des problèmes pour faire reconnaître sa différence)

Mais hormis ce sentiment d’être souvent incompris, il faut reconnaître que la demande est importante, que les salaires montent … mais bonne nouvelle, comme ces datas scientist utilisent des logiciels du monde Open Source, on dira que le ratio « Software / Brain » tend presque vers 0.

Retenez bien ce ratio : Software/Brain(Aventurier) => 0

Le type G : le data Scientist Glamour (Signe Cortana, ascendant Cloud)

Le « Data scientist » de type Glamour est souvent moins geek, plus attaché à des outils graphiques et visuels, il aimera enrober ses travaux avec des outils de visualisation, plus sympathiques pour faciliter la compréhension. Souvent son parcours sera « antérieur » à la génération des aventuriers, et il aura pratiqué des outils de modélisation de type data mining.

Quand l’aventurier s’illumine pour la découverte du polynôme ou du « blending » de modèles qui arrachent la performance, le data Scientist de type Glamour sera souvent plus respectueux des variables initiales, car il devra expliquer et convaincre.

Cela ne le délivre pas de savoir bien maîtriser les impacts des méta paramètres pour suivre les courbes de progression … mais il va moins vite et moins haut que le type A. On dira qu’un sommet de 5.000 m est plus dans ses cordes que le K2, même s’il est parfois capable d’un exploit !

Il sera parfois meilleur que le type « Aventurier « dans les techniques d’apprentissage non supervisée et pour sa capacité à raconter une histoire … un conteur en quelque sorte.

Il utilisera des plateformes comme Cortana Analytics, Knime, ou Haven qui proposent des modèles plus « visuels », packagés avec une interface plus user friendly que R, mais qui permettent de mettre en concurrence des modèles et de faciliter le passage en production avec des boites à outils permettant de construire des API ou de délivrer du code.

Dans ces solutions les méta-paramètres d’une technique (gestion de la régularisation, gestion des gradients, des taux d’apprentissage, des folds, etc..) sont présentés comme des choix avec des possibilités de conserver un paramétrage par défaut.

On s’éloigne de la rudesse de « X <- rbind() », mais une culture statistique poussée, voire mathématique est nécessaire. Le « data scientist » Glamour ne devra pas se préoccuper de la gestion d’une singularité dans sa matrice d’analyse (est-elle inversable ?) ou de la localisation des données sur les différents clusters, le package ayant la possibilité de gérer ces cas « internes ». 

Pour continuer dans la catégorie de jeu de rôle, on dira que ce profil de Data Scientist Glamour a plus le sentiment d’être un Kandisky cherchant à faire partager sa vision du monde à la cour de Louis XVI (on le prend pour un gentil excentrique).

Ils sont plus nombreux … mais rares malgré tout, mais s’adaptent davantage aux structures plus formelles. Un mec un peu « fun » c’est parfois vécu comme sympa.

Les outils qu’ils utilisent, même s’ils sont ouverts aux langages Open Source comme R et Python, ne sont pas totalement gratuits et proposent différents modes de facturation. On peut dire que le ratio « Software/Brain » se rapproche d’une situation d’équilibre.

On transfère dans le cout du software une partie de la rémunération du Docteur en Mathématiques.

Ratio Software/Brain(Glamour) => 1

 

Le type T : le Théologien (Signe Data Robot, Ascendant Tableau)

Le Théologien est plus un « Data Analyste » qui aime les données mais qui a plus la capacité à comprendre les problématiques « métiers » avec la définition de la « Cible » (le problème posé) et les données pertinentes à collecter. Il a souvent de la bouteille et de la connaissance métier (marketing, risque, commerce, internet, etc..) et connait la valeur des chiffres.

Le Data Scientist Théologien connait effectivement la théorie et les principes des différentes techniques (il les connait sans vraiment les maîtriser), et ne rentrera pas dans les méta-paramétrages (enfin pas tout de suite).

Pour éviter d’être dépendant, il a le courage de « chercher » et de dépasser son environnement présent. Il a trouvé l’outil qui lui apporte des éléments de choix (du modèle, de la performance, etc.) et qui lui permet de restituer et convaincre son client de l’efficacité du modèle (un directeur marketing par exemple).

Il cherche une solution qui lui proposera « le meilleur » selon un ensemble restreint de solutions et d’options.

Il utilisera des solutions qui ont mis du Machine Learning dans le Machine Learning comme Data Robot ou Dataiku. Les méta paramètres sont présents, mais pas faits à la base pour être modifiés, la solution accompagnera le Théologien dans sa montée en compétence, et on peut l’espérer dans sa frustration, ce qui signifiera qu’il est prêt pour devenir un Aventurier.

Ces outils accompagnent la montée en compétence, de Data Analyste qui ne souhaitent pas dépendre et attendre pour aller vers le prédictif. Même s’ils sont moins experts, ils sont nécessairement appétents à la donnée, mais ils laisseront un degré de liberté plus grand aux algorithmes.

Ces Théologiens sont souvent amenés à utiliser plusieurs outils dans le domaine de la Business Intelligence avec des outils comme Tableau ou Qlik et ils combineront les résultats prédictifs avec les données de pilotage pour extraire les données, présenter les résultats et intégrer les modèles dans les outils décisionnels.

Le Data Scientiste Théologien s’attachera plus à mesurer et post bench-marcher la performance opérationnelle des modèles. Contrairement au Data Scientiste de Type Aventurier qui gravit le K2, le Théologien s’intéresse plus à la diffusion de la « bonne parole ».

C’est un prêcheur.

Un modèle n’est pas « bon » parce qu’il a un bon R2, qu’il minimise le RSME, il est bon parce qu’il est utilisé et qu’il rapporte ou qu’il se révèle un bon outil capable de faire converger prévision et réalité … au jour le jour.

Le Théologien, expert dans la diffusion, sera souvent plus synthétique, la compréhension étant un élément important d’acceptation. Si les codes de sa construction sont moins complexes, ils peuvent s’avérer plus robustes.

Pour vous aider à le catégoriser dans mon jeu de rôle, il est le Jean Michel Jarre de la data science, capable par une maîtrise des claviers de produire une musique originale et plaisante, capable de rompre avec la tradition, mais apportant du sang neuf.

Evidemment ces profils sont moins rares, plus disponibles et l’analyse des éditeurs présents sur ce marché est plus que pertinente, car elle vise à transformer un potentiel existant plutôt que de croire à une arrivée massive de génies surdoués.

Dans ce contexte le prix du logiciel augmente, et le salaire du Data Scientiste baisse, notre ratio « Software/Brain » commence à augmenter.

Ratio Software/Brain(Théologien) = 3

… et maintenant le dernier type …

Le « Data Scientist » Contraint (Signe : aucun, Ascendant : Descendant)

Il représente celui qui n’a pas pris une des 3 options précédentes et qui est resté sur ses « bases » et ses références.

Il est parfois contraint par son existant, les choix de son entreprise ou des contraintes juridiques (par exemple dans les contraintes réglementaires baloises). Il aimerait changer mais son métier ou son organisation ne lui permette pas.

Il est aussi parfois auto-contraint, pris dans ses habitudes et ses pratiques. Ça « fonctionne » depuis plus de 10 ans, alors pourquoi changer. Il dénoncera les « effets de mode » du Machine Learning, du Big Data (all is bullshit !). Il jouera sur la dialectique des mots pour nier certaines évidences. Il restera aveugle devant les enjeux des objets connectés, du changement de paradigme du prédictif vers le préventif …. et découvrira un jour dans la douleur qu’un UBER like a pris son métier !.

Un jour prochain il découvrira que Watson (le produit d’IBM cité au début) s’installera sur les postes de ces interlocuteurs traditionnels, que Watson « apprendra » les interrogations de son utilisateur et lui proposera les réponses et les graphiques les plus adaptés, et que Watson l’avertira lorsque des « alertes » potentielles se présentent qui peuvent intéresser son utilisateur.

On peut espérer que Watson ne se comporte pas comme le HAL de l’Odyssée de Kubrick et ne mette pas tout l’équipage dehors.

Et pourtant, même si il semble impossible de « battre » Watson, on peut constater qu’aujourd’hui il n’a jamais été aussi facile de se former sur les métiers du Machine Learning avec la fourniture d’outils d’évaluation (Offres Freemium), accès à des MOOC de plus en plus accessibles (Stanford, Columbia, Berkeley, etc.) et des solutions full Open Source ou vraiment accessibles (moins de 30 euros/mois), et enfin des communautés plus que dynamiques sur le sujet.

Pour le jeu de rôle, il commence à se sentir un peu dépassé, et il occupe de moins en moins l’avant-scène. On lui demande systématiquement d’aller plus vite à l’essentiel, ses histoires n’intéressent plus.

Enfin, s’il y a quelqu’un qui commence à constater que le ratio « Software/Brain » est peut-être en train de s’éloigner de la normale … avec un écart type supérieur à 3 ou 4, c’est le Directeur Financier.

Ratio Software/Brain(Contraints) = 10

Si tout le monde ne peut pas être un Aventurier, il est temps pour lui de rêver à devenir un Théologien ou un Glamour … bref de réapprendre à conter des « belles histoires », car les outils de type Watson seront les outils de « traitement de texte » des cadres demain (comme Word a fait disparaître une partie importante des emplois de secrétariat).

Quelle aventure pour ces 3 datas scientist ?

Maintenant la seconde dimension avec le volume des données et la multiplicité des cas d’usages dans les modèles.

Cas 1 : Si vous n’avez pas de données et ne comptez pas en avoir … le Machine Learning restera « virtuel » pour vous et dans tous les cas, vous ne recruterez pas de « Data Scientist » (en tout cas c’est sympathique d’avoir lu jusqu’ici). Vous avez la chance d’être dans un secteur d’activités qui échappe à la « vague de digitalisation », vous ne vivrez pas les affres de la sécurité, du respect de la vie privée (mais attention … êtes-vous certain de ne pas avoir de données demain ?).

Cas 2 : Vous avez beaucoup de données et beaucoup de « use case » (et des concurrents qui commencent à inventer des nouveaux produits), il est probable qu’il vous faudra côtoyer un Data Scientiste Aventurier soit par des contrats de Partenariats avec des start-up, soit par des embauches dans des postes spécifiques (un peu éloigné des forces inertielles de la structure).

Certaines grandes entreprises conscientes des facteurs disruptifs dans le traitement de la data, ont mis en place cette démarche, avec parfois un choix de s’installer là où ça se passe … sur la côte Ouest des USA, et en injectant des fonds dans les start-ups.

Evidemment, l’arrivée de cette « nouvelle » culture posera des problèmes d’intégration, un peu comme au moment de l’arrivée d’Internet et la refonte des canaux. Ces entreprises savent gérer ces mutations.

Reste le facteur « vitesse » qu’il faudra savoir gérer pour éviter de se réveiller avec un UBER like.

Elles devront aussi entreprendre le travail de transformation des Théologiens avides de nouvelles connaissances .. et réveiller leurs Directions Ressources Humaines pour libérer le réservoir des Contraints.

Elles devront donc suivre plusieurs chemins et avoir plusieurs outils.

Cas 3 : vous n’avez pas encore de données, mais les use case semblent évidents. Je pense plus spécifiquement aux secteurs de la Publicité ou des Marques, autrefois sans relations directes avec les clients, qui n’avaient pas de données individuelles, mais qui ont vu les succès de Google, de Critéo et comprennent que « l’algorithme » crée de la valeur. La construction des DMP est devenue une de leurs priorités stratégiques. Il leur sera probablement difficile d’intégrer des Aventuriers qui ne trouveront pas immédiatement sous la main les données leur permettant de s’éclater, mais le profil « Glamour » est plus adapté pour s’intégrer dans des environnements qui souhaitent allier du contenu, de la création et un zeste de quantitatif.

L’apport de contrats d’accompagnement avec des Starts Up, réservoir d’Aventuriers est plus que recommandé. Un choc culturel est à prévoir dans des « créatifs » et des « prédictifs » qui n’ont pas vraiment la même vision sans compter les défis techniques à relever pour collecter et gérer les données (Chief Data Officer hautement recommandé).

Cas 4 : vous avez des données (et parfois vous ne le saviez pas), mais vous pouvez créer des Nouveaux Use case. Je pense plus spécifiquement au secteur des Objets connectés avec les Maisons intelligentes, les voitures connectés, les machines connectées, les applications urbaines dans l’optimisation du trafic ou de la sécurité, l’intégration des données sociales au service de l’aménagement du territoire (majoritairement le monde industriel hors les secteurs informatiques déjà matures).

Compte tenu des enjeux techniques et des challenges importants à relever : deux solutions possibles, soit passer des alliances avec une entreprise non concurrente qui commence à maîtriser cette partie, soit recruter à prix d’or un Aventurier … et lui laisser vivre sa vie et ses ambitions, mais avec le risque final de ne pas se trouver dans le bon standard de communication.

Comme vous pouvez le constater … il existe des profils adaptés ou pas en fonction des challenges à relever et des degrés de liberté que votre structure est prête à accepter.

A un moment où le mot de « flexibilité » est souvent employé pour qualifier les emplois, il est utile de savoir aussi définir la « flexibilité » de ses structures.

Un Data Scientist (Glamour)

  • Qui admire les Aventuriers
  • Qui forme les Théologiens
  • …. Qui comprend assez peu la contrainte

PS : comment j’ai commencé à construire l’arche de Noé des Data Scientist, si vous connaissez d’autres profils, n’hésitez pas à me remonter vos propositions ;

 

 

La Réalité au service de l’expérience Client

écrit par René Lefebure

2 avr

Un article de synthèse sur quelques applications de la réalité Augmentée dans le domaine de l’amélioration de l’expérience Client

  • Comment attirer l’attention du client (produits spécifiques, informations complémentaires, promotions, etc.) avec l’exemple du projet TANGO de Google,
  • Proposer un Univers de produits de plus en plus large dans un espace maîtrisé avec les Miroirs Magiques présents dans le Prêt à Porter, la Cosmétique ou l’Automobile, et bien évidemment la mise en situation des produits chez IKEA,
  • Créer un Parcours Client plus ludique en phase avec les attentes des « digital natives » avec l’exemple de LEGO,
  • Ouverture de boutiques virtuelles pour compléter des sites E-Commerce avec l’exemple de Yihaodian en Chine
  • Guide d’utilisation des produits avec l’exemple d’Audi et son manuel automobile virtuel.

Le guide d’Accenture apporte quelques éléments sur les attentes des clients, tout en restant réaliste sur la relative immaturité du marché : 59 % des consommateurs n’ont jamais eu l’occasion de voir la réalité augmentée dans leurs expériences d’achat.

Ci-dessous le lien pour accéder à l’article :

http://www.accenture.com/us-en/Pages/insight-trends-retail-five-ways-augmented-reality-create-more.aspx?c=glb_acnemalert_10001844&n=emc_0215&emc=20774648:emc-033115

Un document PDF très complet est disponible.

 

Conexance intègre le Machine Learning

écrit par René Lefebure

9 fév

Conexance intègre le Machine Learning

Conexance intègre les algorithmes de Machine Learning dans ses modélisations prédictives et passe à la seconde étape de son plan stratégique vers le Big Data.

Conexance construit chaque année plus de 2.000 modèles pour répondre aux demandes de sélection en acquisition et fidélisation sur des matrices chaque année de plus en plus importantes :

  • Une qualification avec plus de 1.700 variables majoritairement transactionnelles (plus de 2.500 prévues à fin 2016),
  • Une base de données de plus de 25 Millions de profils,
  • 900 Millions de transactions commerciales mises à jour.

La fourniture des sélections sur les 18 derniers mois se déroule dans un contexte très évolutif :

  • Nécessité de faire progresser les rendements des campagnes
  • Multiplication des types de scores : Clone, New, Focus, Affinity Boost, etc.
  • Intégration d’une démarche de segmentation en amont pour déployer des scores spécifiques (Valeur, Type de Produit, Age, etc.)
  • Raccourcissement des délais de livraison

Afin de concilier les besoins de puissance de traitement et d’analyse dans ce contexte de complexification des demandes, Conexance a mis en place une démarche d’évolution de son architecture technique et applicative vers le Big Data en Juin 2014.

Une première phase du projet s’est attachée à sélectionner la plate-forme technique pour héberger les données sur une architecture Hadoop. Conexance a signé un partenariat avec Microsoft pour héberger une partie de ses données « non structurées » (essentiellement les données de navigation) sur la plate forme Cloud Azure. Cette partie technique continue avec la recherche de la meilleure plateforme interne Conexance permettant d’aboutir à un environnement hybride entre les bases de données relationnelles et les bases de données No SQL.

La seconde phase du projet s’est orientée vers les aspects « métiers » avec la participation de Conexance au programme de béta-test de la solution PASSAU depuis Septembre 2014.

En effet compte tenu de la spécificité des données traitées par Conexance, les techniques statistiques comme la régression logistique présentent quelques limites qui imposent d’intervenir de manière « experte » dans les traitements :

  • Corrélations relativement nombreuses entre les variables qui ne permettent pas de respecter les principes d’indépendance requis (matrice non inversible)
  • Présence de variables répondant davantage aux lois de Poisson qu’aux lois Gaussiennes
  • Distribution non normalisées de certaines variables
  • Sélection et regroupement « manuel » des variables pour définir la « formule finale » composée de 20 critères maximum.

Cette démarche se révèle globalement consommatrice de ressources expertes et au final assez frustrante car le processus de sélection ne permet pas de tirer profit de la richesse de la plate-forme de données à ce jour.

Des tests avec les régressions biaisées et des arbres de décision avaient été mises en œuvre pour contourner ces problématiques, mais il était techniquement difficile de construire un processus totalement intégré.

La solution de Machine Learning de Microsoft PASSAU offre de nombreux avantages pour répondre aux problématiques spécifiques de Conexance :

  • Présence d’opérateurs permettant de construire les différentes matrices dans le processus d’apprentissage : apprentissage, validation, tests
  • Possibilités de lancer des traitements spécifiques sous R pour compléter le dispositif d’analyse et/ou de restitution des résultats
  • Présence de composants de filtrage permettant de gérer les données aberrantes et manquantes
  • Présence de nombreuses techniques dans le domaine de l’apprentissage supervisé avec les techniques de régression, la régression « Ridge », les types de réseaux de neurones multi couches et perceptron, les réseaux bayésiens, les techniques vectorielles (SVM) et les techniques traditionnelles ou foisonnantes dans le domaine des arbres de décision
  • Présence d’u moteur de text mining permettant d’extraire les éléments pertinents dans un Verbatim

Cette richesse fonctionnelle a permis de mettre en œuvre de nouvelles approches de scoring permettant de mettre en compétition de nombreuses techniques de modélisation.

Après un processus de préparation des données pour répondre aux spécificités des différentes techniques (normalisation par exemple), Microsoft PASSAU permet de sélectionner le meilleur modèle parmi l’ensemble des modèles développés.

Un outil d’optimisation sur un critère de performance (AUC, Confusion, etc..) apporte un gain supplémentaire de performance sur le modèle sélectionné.

Pour indication sur une matrice de 400.000 lignes et 400 colonnes les temps de traitement pour l’apprentissage sont inférieurs à 23 Minutes (sans aucun travail d’optimisation sur la localisation et le stockage des données).

La solution Microsoft présente ensuite des options plutôt riches pour gérer les différentes modèles construits. Selon les problématiques il est possible :

  • De sélectionner le meilleur modèle (selon un ou plusieurs critères)
  • De combiner les différents modèles et/ou leurs résultats.

Les différentes approches effectuées par Conexance ont donné quelques résultats probants :

  • Aucun cas de baisse des rendements par rapport à une régression logistique classique
  • Progression de l’ordre de 5 à 10 % sur des bases d’apprentissage « restreinte » (variables codées retenues par une régression logistiques de 10 variables)
  • Progression comprise entre 50 et 250 % ( !) sur des bases de données intégrant une plateforme de données beaucoup plus large (> 400).

Pour établir des éléments tangibles de performance cette approche a été effectuée sur un problème de « Churn » (résiliation). La performance effective des modélisations sera mesurée sur le nombre de contrats résiliés au 1 er Trimestre 2015 prévus par les différents modèles à la date du 31/12/2014.

Conexance continue à participer au programme d’optimisation du Produit PASSAU avec Microsoft pour enrichir le processus décrit et est très satisfait des performances et de la réactivité des équipes de développement Microsoft.PASSAU_WorkFlow

La phase prochaine du projet consiste à intégrer des tests opérationnels avec des clients Alliance de Conexance et de démarrer la mise en place de nouveaux services disponibles sur la Market Place de Microsoft.

Un tutoriel sur Hadoop et le Big Data

écrit par René Lefebure

20 juin

Une présentation assez complète et pas trop technique qui permet de comprendre le Big Data et les spécificités d’Hadoop.

La vidéo (en anglais sans sous titres) de 43 minutes présente dans un premier temps les 3 V du Big Data avec :

–         La croissance des données,

–         La variété des données,

–         Les applications en temps réel.

L’exposé montre les limites actuelles des systèmes distribués avec :

–         Dépendance sur le réseau et la bande passante,

–         Complexité dans l’ajustement de la puissance machine,

–         Difficulté dans la gestion des pannes partielles,

–         Consommation excessive des ressources pour transporter les données,

–         Consommation excessive pour synchroniser les données,

qui ont conduit à la naissance d’Hadoop.

Dans une seconde partie, le conférencier présente les deux parties d’Hadoop :

–         La partie Stockage des données avec HDFS,

–         La partie Traitement avec Map Reduce.

Personnellement, j’ai apprécié la transposition avec un jeu de 52 cartes (13 cœurs, 13 piques, etc..) pour expliquer le fonctionnement de HDFS et de Map Reduce avec la répartition sur 4 machines et les différentes étapes d’un processus Map Reduce pour reconsolider les informations (il est probable que je me serve de cet exemple en cours).

On comprend que la complexité d’Hadoop réside dans la capacité à découper un traitement, de le distribuer et ensuite de reconsolider ces traitements.

En dernière partie, le conférencier explique la mécanique de découpage des « clusters » sur des blocs de 64MB, avec la tâche de réplication et le rôle du « balanceur » pour répartir sur les machines disponibles.

Ainsi avec 2 machines et 300 MB, on crée au départ 5 clusters de 64 MB, qui deviennent ensuite 15 clusters (pour assurer la réplication) qui se répartiront ensuite entre 7 et 8 sur chacune des machines.

Évidemment pour gérer la localisation des données, le Namenode a besoin de RAM alors que les DataNode nécessitent plus de ressources disques.

On comprend dès lors l’importance de l’administration pour faire évoluer une architecture Hadoop.

Dans tous les cas, un excellent « tutoriel » pour rentrer dans le sujet

http://intellipaat.com/hadoop-developer-training/

Bonne vidéo

Le Hit Parade des outils de data mining

écrit par René Lefebure

12 juin

Un classement annuel qui permet de se faire une idée des outils utilisés et des progressions dans la diffusion des outils auprès des utilisateurs.

Personnellement je pense que les pourcentages évoqués ne reflètent pas la réalité « commerciale » du marché et je pense que la communauté open source et le monde universitaire est plus représenté dans ce classement :

– SAS est beaucoup plus présent

– SPSS et Clémentine aussi

Néanmoins on note la progression de certains outils comme RapidMiner, R ou Knime qui valent le coup d’être explorés

L’étude de KDnuggets :

http://www.kdnuggets.com/2014/06/kdnuggets-annual-software-poll-rapidminer-continues-lead.html

Si vous avez un outil à signaler, merci d’avance de l’ajouter dans les commentaires

12 livres de data mining gratuits

écrit par René Lefebure

12 juin

L’inscription à des communautés sur les réseaux sociaux se traduit souvent par des volumes de messages pas forcément ciblés avec mes problématiques actuelles … et au milieu de ce déluge, il se trouve un message exceptionnel !

Une bibliothèque avec 12 livres de data mining GRATUITS, et pas des ouvrages mineurs ou incomplets, mais des ouvrages de plus de 500 pages, traitant des problématiques issus du data mining traditionnels ou des problématiques plus innovantes autour du Big Data (analyse des logs ou analyse sémantique).

Pour accéder aux ouvrages, suivre le lien suivant

http://christonard.com/12-free-data-mining-books/?imm_mid=0bd168&cmp=em-strata-na-na-newsltr_20140528_elist

 

Je ne cherche pas à faire croire que j’ai lu l’ensemble des ouvrages avant de vous communiquer cette adresse, mais j’ai parcouru les tables des matières des différents ouvrages … et feuilleté en transversal le contenu de certains ouvrages.

Les sommaires permettent d’approfondir les notions « traditionnelles » :

– régressions linéaires

– régressions polynomiales

– méthodes de classification ou typologie

– analyse en composantes principales

– arbre de décisions interactif

– moteur d’associations et de recommandations

– filtrage collaboratif

ou moins traditionnelles comme

– réseaux de neurones

– réseaux bayésiens (avec beaucoup d’ouvrages sur ce sujet)

– support vector machine

– analyse de séquences

– validation par bootstrap

– chaine de Markov

– théorie des graphes

et un livre qui a plus spécifiquement attiré mon attention car il traite de problématiques plus liés au Big Data et au Machine Learning :  » Introduction to Data Science » de Jeffrey Stanton.

Ce livre fournit des exemples sous R (et R Studio) dans des domaines différents comme :

– l’analyse des Tweet,

– l’analyse des sentiments

– l’analyse des caractères (Text Mining)

– les nuages de mots

Toujours avec une forme d’humour ….

Certains ouvrages sont plus spécialisés sur des thématiques de reconnaissance de formes et présentent les spécificités en optimisation ou en machine learning.

Bonne lecture et bon courage.

NB : si vous avez lu un des ouvrages suite à ce « post », n’hésiter pas à mettre des commentaires à la suite de cet article …ca guidera les lecteurs futurs

 

 

Utilisation des réseaux bayésiens pour la Coupe du Monde de Foot

écrit par René Lefebure

2 juin

Pour les fans de foot et de pronostics, la société Bayesialab a mis en place un module de « prévision » permettant de rentrer ses pronostics pour les différents matchs de la Coupe du Monde de Foot (et de profiter des avis des fans de Foot).

http://worldcup.bayesialab.com/fr/pronostics/phase-1/

 

Simulateur bayesien

Simulateur bayesien

 

Un moyen assez ludique :

–          De faire des pronostics « avisés » sur le second tour en fonction des différentes prévisions

–          De comprendre les possibilités « visuelles » des réseaux bayésiens

–          D’échanger avec ses « amis » sur Facebook pour dépasser les débats des « consultants sportifs ».

A titre d’exemple …. Le 2 Juin 2014 les prévisions pour France – Honduras étaient les suivantes

http://worldcup.bayesialab.com/pronostics/phase-1/?groupe=E

 

 

Prévision France Honduras

Prévision France Honduras

 

La France est qualifiée avec la Suisse ….

 

En plus de faire connaître les apports des réseaux bayésiens, ce simulateur peut permettre d’animer les « paris » en entreprise …. qui trouvera les Finalistes et le Gagnant.

A vos jeux à l’adresse suivante :

http://worldcup.bayesialab.com/pronostics/phase-1/

 

 

 

Zavvi/TheHut contre Amazon, étude et comparaison de la newsletter

écrit par Alexis Delbergue

30 mai

Dans le cadre du cours de Gestion de la Relation Client enseigné par René Lefebure aux étudiants de deuxième année de DUT TC, Alexis Delbergue a réalisé une étude de la newsletter de Zavvi/TheHut et d’Amazon.

L’objectif était d’étudier Zavvi/TheHut, et d’avoir un grand concurrent tel qu’Amazon pour pouvoir faire une comparaison.

Pour beaucoup, Zavvi/TheHut sont deux noms inconnus. Ce sont deux sites distincts, qui vendent une large variété de produits ( vêtements, culture, technologies) et qui appartiennent au même groupe.  La particularité de ces sites, c’est qu’ils vendent les mêmes objets aux mêmes prix, mais présentés différemment. Et c’est là qu’on peut voir la force d’une bonne stratégie marketing, puisque les clients sont bien différents !

Dans ce dossier, vous pourrez découvrir un peu mieux ces sites, et comprendre comment ils arrivent à déclencher l’achat grâce par le biais d’une Newsletter efficace.

le dossier en pdf

 

Stratégie digitale par Email ShowRoomPrive vs BrandAlley

écrit par Alexis Delbergue

30 mai

Avoir une bonne stratégie digitale est très importante pour réussir à s’imposer dans le monde du e-commerce.

Ce dossier présente sur une durée de 3 mois une comparaison entre 2 acteurs du e-commerce dans l’animation des clients et prospects sur les aspects transactionnels et relationnels.

Ce dossier a été réalisé dans le cadre du cours de Gestion de la Relation Client enseigné à l’IUT de Roubaix par René Lefebure, par Juliette Cantreul.

Juliette a étudié les stratégies digitales de deux acteurs importants de la vente en ligne que sont Showroomprive et BrandAlley.

Au programme de cette analyse:

– les performances de leurs sites web et la présence sur les réseaux sociaux

– les mécanismes d’inscription et de désabonnement

– l’analyse de la pression marketing via les newsletters

– l’analyse des stratégies de communication

Une conclusion

Le dossier en format PDF

Ce dossier doit permettre aux étudiants de formaliser ce type d’études comparatives dans le cadre de leurs études ou de leurs stages.

 

Big Data : spécificités des traitements en « temps réel »

écrit par René Lefebure

28 mai

Big Data : spécificités des traitements en « temps réel »

(Inspiré d’un article de Mike Barlow sur l’émergence des architectures Big Data)

Un des 3 V du BIG DATA

Si on considère les 3 V du Big Data, on constate qu’il est assez simple de comprendre les impacts sur le Volume et la Variété des données, mais que le concept de Vélocité est souvent moins explicité, voire couvre des aspects assez différents selon les conférenciers.

En fait, on comprend qu’il est de plus en plus important d’aller vite, mais que derrière la Vélocité on retrouve des éléments différents :

–         Time is Money …. le fait de pouvoir être plus rapide et plus agile donne un avantage,

–         Real Time … le fait de pouvoir réagir en fonction du contexte créé la pertinence de la communication.

Le temps c’est de l’argent

Ces deux notions correspondent à des concepts différents :

–         dans le premier cas il s’agit d’agilité pour capter avant les autres des signaux faibles, et pouvoir « prendre de l’avance »,

–         dans le second cas, on peut dire « Après l’heure, ce n’est plus l’heure » et qu’il s’agit de ne pas manquer le moment.

Cet article se propose de définir un peu plus cette notion de temps réel (ou semi-temps réel), de préciser les contraintes d’architecture qui permettent de traiter des données « à la volée », et enfin d’introduire deux composants qui visent à développer cette capacité du temps réel dans les projets Big Data.

 Qu’est-ce que le temps réel ?

Cette promesse de la vitesse est un élément « marketing » qui se révèle être dans de nombreux cas un abus de langage. A l’identique de la promesse de pouvoir traiter des « données non structurées » (car en fait le Big Data passe son temps à transformer une partie des données non structurées dans des formes structurées pouvant être analysées et utilisées), il n’existe pas de vrai « temps réel ».

Le « temps réel » dénote la capacité de traiter les données « à la volée », plutôt que de stocker les données et de les retrouver ensuite. Il s’agit du premier facteur de distinction de la notion de temps réel : on traite les données au Présent et pas dans un Futur. Si je fais appel à une notion de « mémoire » de la donnée, je ne suis pas vraiment en train de faire du temps réel.

 Temps réel = agir au Présent

Il est important dans ce contexte de distinguer :

–         la donnée qui arrive,

–         le modèle de connaissance qui me permet de traiter cette donnée.

La rencontre des 2 éléments peut nécessiter un traitement en temps réel (mais ce type d’approche n’est pas spécifique au Big Data) sauf

–         si le flux de données est très volumineux,

–         si le modèle de connaissance est reconstruit au fur et à mesure du flux de données.

Dans la majeure partie des traitements, le modèle de connaissance est construit sur de Passé … et s’applique sur des données au Présent.

Seule la simultanéité des données et de la connaissance sur le Temps Présent relève du « Temps Réel ».

 La relativité du temps réel

En effet, la notion de PRÉSENT recouvre différents contextes en fonction des utilisateurs.

Selon un site e-commerce, le présent correspond à la durée qui peut se traduire par l’abandon du visiteur. On peut situer ce temps à 0,1 seconde. Si le temps de traitement entre la donnée de navigation et le modèle de connaissance est supérieur à ce dixième de seconde on sort du « temps réel ».

Dans une salle de marché, alimentée par des flux continus de cotation, le temps « réel » se rapproche davantage de la notion de « milli seconde » qui peut lui faire manquer une opportunité.

Selon un militaire qui lance un missile, le temps réel est une micro seconde qui peut lui faire louper la cible.

On constate donc des différences de « timing ».

 Comment se construit le temps réel

Le temps réel pour être effectif doit s’appliquer sur 2 niveaux :

–         Vitesse au niveau de la couche des données,

–         Vitesse au niveau de la couche décisionnelle.

Selon Joe Hellerstein de l’Université de Berkeley, le vrai temps réel ne concerne que les robots. En effet, dès que les humains interviennent dans cette « boucle », il est impropre de parler de temps réel. En effet, une personne prend entre une ou deux secondes pour réagir, ce qui est un espace de temps important qui est géré par les systèmes transactionnels traditionnels (comme dans les Call Center par exemple).

Les systèmes actuels de recommandation utilisés dans les Centres d’Appels ne relèvent pas vraiment de la problématique « Temps réel » (ce qui ne veut pas dire qu’ils ne doivent pas être performants) car on se situe dans le timing de la seconde.

On comprend que la Google Car nécessite de réagir en « temps réel » ce qui implique donc d’accéder très rapidement à son « univers de données », et d’utiliser une couche décisionnelle de manière très rapide pour éviter de renverser un piéton inattentif.

 Les solutions qui permettent du Temps réel

Tous les conférenciers soulignent l’incapacité d’Hadoop de faire du temps réel. A l’image de son logo, Hadoop est plutôt lent et se complait dans le mode « batch ». Il faut compléter Hadoop avec des solutions pour transformer l’éléphant en guépard.

La littérature m’a permis d’identifier deux solutions (liste à mon avis non limitative) : Spark et Storm

–         Spark est un programme Open Source, supporté par Google qui permet de traiter des volumes de données de 1 à 2 Téra en moins d’une seconde. Dans des scénarios utilisant des algorithmes d’apprentissage de type « Machine Learning » Spark peut traiter avec des facteurs d’amélioration compris entre 10 et 100 fois plus vite que Hadoop MapReduce.

–         Storm est un programme Open Source utilisé par des entreprises comme Twitter ou Groupon qui tire profit des options de parallélisme pour s’approcher du temps réel.

Dans le cas de Twitter on peut distinguer les 2 phases dans le traitement de la donnée :

–         Le traitement « Batch » qui présente un temps de latence important. Si on souhaite faire des traitements d’un TeraByte de données, il n’est pas possible de le faire en moins de 1 seconde.

–         Le traitement « Stream » analyse les données au fur et à mesure où les données arrivent (par petit paquet). Il est possible de faire des traitements intensifs telles que des recherches en parallèle, des fusions et rapprochement de données.

En principe lorsque l’on souhaite faire une requête de recherche, il est nécessaire de créer des tables d’index, ce qui est un processus qui nécessite un temps en dehors de la plage « temps réel ». Avec Storm, on peut traiter le flux sur plusieurs machines et obtenir des réponses de manière plus rapide.

Twitter utile Storm pour identifier des tendances dans une logique proche du temps réel. Par exemple si une personne est en train de partager son expérience sur une piste de ski, Storm aidera Twitter pour afficher la publicité la plus adaptée en fonction du contexte de la personne.

En conclusion

Si vous voulez commencer un projet Big Data :

–         Définissez votre attente en termes de Temps de Réponse (êtes-vous vraiment en temps réel avec les 2 Présents),

–         Établissez une distinction nette entre les fonctions relatives à la lecture des données et les parties analytiques pour décider sur les données (quelle fraîcheur attendez-vous de vos modèles),

–         Prévoyez un compagnon pour faire pédaler plus vite Hadoop.

Pour en savoir plus : Amazon

Le Big Data : comment concilier Révolution Sexuelle, les X men et Confucius ?

écrit par René Lefebure

23 avr

Les différents échanges et présentations sur le Big Data montrent qu’il existe des « freins » importants avant la mise en œuvre d’une démarche Big Data.

On retrouve de manière commune les difficultés :

– de choisir son l’architecture « technique » et faire son choix autour des Hadoop, Cassandra, Hive, Yarn, Map Reduce, etc…

– de définir le « bon projet » qui permettra de montrer la « plus-value » du projet aux équipes dirigeantes,

– de choisir le périmètre de données : faut-il se contenter de faire le projet sur des données structurées ou faut-il intégrer des données non structurées (texte, open data, etc..) ?,

– de raisonner autour de nouvelles techniques d’apprentissage et de découvertes automatiques avec des algorithmes différents des régressions et des arbres de décisions.

Un peu difficile d’avancer si on ne connait pas la Direction à prendre et les moyens d’y arriver.

Dans ce contexte, on peut effectivement définir que le Big Data est comme le sexe chez les adolescents : on en parle beaucoup, voire on ne pense qu’à cela, surtout lorsque l’on ne l’a pas encore fait.

On retrouve ce type de discussions dans de nombreuses conférences et articles de presse … qui nous présentent la « prochaine révolution industrielle », le Pétrole du XXI ème siècle, mais au final assez peu de projets opérationnels … car il existe (selon les conférenciers) une réticence des entreprises « en avance » d’apporter leurs témoignages.

A la fin de certaines conférences, le « mystère » est encore plus fort à l’arrivée qu’au début !

Effet Waouh garanti.

 

Plus simplement, on peut dire que le Big Data en France est dans un état généralisé de POC (Proof of Concept).

Malheureusement pour ajouter au trouble, on voit poindre de ci de là quelques « critiques » dans les pays « anglo saxons » (même sur des modèles mis en place par Google).

Donc en plus d’être « opaque » il commence à se dégager un côté « sulfureux » dans le monde du Big Data.

Personnellement, je pense que les éléments techniques et la capacité d’accompagnement des SSII en France se sont considérablement améliorés sur les 12 derniers mois.

Nous sommes passés d’un monde de « Buzz World Big Data » à la maîtrise de projets (en méthodologie, délai, charges et coûts).

Si les freins « techniques » sont en voie d’être solutionnés, il me semble qu’il existe une autre raison moins évoquée dans les échanges : la gestion de la « rupture ».

 

Il y a dans le Big Data des éléments importants de « rupture » qui remettent en cause certaines certitudes ou acquis, et il est difficile de s’imaginer que ces paradigmes puissent disparaître …pour les différentes directions dans l’entreprise :

– on annonce souvent la fin du SQL et des bases de données relationnelles traditionnelles ….(stress pour les équipes informatiques qui ont construits de superbes data warehouse depuis 15 – 20 ans !)

– on annonce la fin des limitations des techniques statistiques traditionnelles … pour intégrer des modèles beaucoup plus complexes, capables de gérer des données « brutes » de manière automatique (stress pour les équipes statistiques qui ont appris à créer des agrégats, mettre en place des techniques de validation, et des millions de lignes de codes pour industrialiser les traitements !)

– on annonce du contenu dynamique permettant de récolter les données disséminées sur les différents serveurs (téléphoniques, internet, réseaux sociaux, etc.) pour apporter la fameuse vision 360 (stress pour des différentes Directions … avec la possibilité de « voir » comment les données sont gérées et apprécier leurs performances, faisant fi des traditionnels « domaines de compétences » des métiers).

 

Donc dans ses « annonces » le Big Data est une vraie Révolution qui annonce la disparition de certaines compétences et des frontières !

Je confirme qu’il s’agit effectivement d’une vraie Révolution technique … et mentale.

Cette révolution ne passera pas seulement et exclusivement par la technique … elle nécessite une démarche de gestion du changement des mentalités : un peu moins d’effet d’annonces et un peu plus de mise en œuvre réaliste du changement.

Le Big Data dans une entreprise, c’est l’arrivée d’un Extra Terrestre !

Pour ceux qui sont cinéphiles, c’est un peu comme le film « Enemy Mine » (film de science-fiction germano-américain réalisé par Wolfgang Petersen, sorti en 1985), il faut un peu de temps pour apprendre à apprécier les différences.

 

Il faudra pour l’entreprise passer par

– une phase de désapprentissage de certaines certitudes,

-une phase de courage pour lancer des initiatives potentiellement destructrices de projets « anciens »,

– une phase d’inconscience pour attaquer des domaines totalement vierges pouvant révolutionner le business model dominant,

– une phase de prise de conscience de « sa différence » à la fin de l’exercice, car l’entreprise aura effectivement « mutée ».

 

Evidemment, ces évolutions sont beaucoup plus simples à mettre en place dans les « petites structures » souples et réactives (qui connaissent leurs différences) que dans les grosses entreprises plus cloisonnées où la gestion politique est plus importante.

Il sera néanmoins nécessaire d’y passer sous risque de voir des « nouveaux concurrents », apportés des « nouveaux business modèles » (les X Men que sont Google où Amazon).

 

En conclusion, le Big Data, c’est effectivement aussi simple et complexe que le sexe :

– avant, c’est vraiment un « mystère »,

– au début, c’est probablement « maladroit »,

– avec le temps il faut sortir de la « routine »,

– gérer sa différence et apprivoiser les « interdits »,

– et au final développer « le plaisir ».

 

Comme Confucius le disait : « Celui qui ne progresse pas chaque jour, recule chaque jour ».

 

 

En el BIG DATA hay BIG

écrit par René Lefebure

11 mar

Traducion de Yolanda Albendea Lopez

Una definición de Big Data resulta una tarea más compleja de lo que parece. Aplicando una traducción tan literaria como ‘Grandes Datos’, estamos más bien posicionando el Big Data como:

 

– la capacidad de administrar y analizar cantidades muy grandes de datos (yo he elegido voluntariamente no emplear la palabra ‘Grandes Datos’) por medio de nuevas técnicas (ya que las técnicas tradicionales como el SQL se han vuelto incapaces… o lo serán frente a perspectivas de recolección programadas).

 

Este enfoque de Big Data como extensión tecnológica, como medio de superar el <muro de la información> (tener una velocidad de proceso de datos más rápida que la velocidad de carga…) es especialmente verdadera en el dominio de Internet donde la voluntad de almacenar y analizar el conjunto de interacciones de los visitantes se traduce en volúmenes considerables de datos a interpretar.

 

En este sentido, no es casualidad que los <padres> del Big Data sean Google, Yahoo, Facebook o Amazon (solo Apple que completa el club de los 5 tiene un origen algo diferente). Estas empresas han debido hacer frente a un almacenaje voluminoso de informaciones (como la Biblioteca Nacional de Francia). Pero han debido aprender a interpretarlas para optimizar las búsquedas de los internautas, anunciar buenas publicidades o hacer recomendaciones de los productos más adecuados (en resumen responder a otras limitaciones de la BNF).

 

En el BIG DATA… hay valor

 

 

Evidentemente los estadísticos y mineros de data podrían concluir, idénticamente como Mr. Jourdain que ellos hacían ya Big Data.

 

 

Que el Buzzword actual es un golpe del marketing para re-etiquetar un universo de decisión en la búsqueda de un segundo soplo de crecimiento.

 

En resumen, un golpe de publicidad bien orquestado por algunos editores astutos.

 

Tienen razón, ya que el análisis de datos es tan antiguo como su almacén, pero a la vez se equivocan minimizando la ruptura del paradigma de decisión entre el antes y el después BIG DATA.

 

No podemos considerar el Big Data como una evolución; hay una verdadera ruptura (no totalmente apreciada en los medios de comunicación actuales). El Big Data es una extraordinaria palanca de creación de Valor.

 

 

Para convencerse basta con mirar la capitalización bursátil de estas 5 empresas (Google, Apple, Amazon, Facebook, Yahoo) en los tres últimos años, para comprender que el Big Data no es solamente la gestión de grandes volumetrías de datos, sino una capacidad de <<controlar>> la cadena de transformación de datos en información.

 

Este potencial de valorización parece haber sido bien comprendido por los inversores anglo-sajones, y subestimado en Europa Continental (las acciones recientes de Me Lauvergeon comienzan a corregir este retraso con la ambición número 7 sobre la valorización de datos masivos).

 

 

La fuerza del fenómeno Big Data es haber sabido poner en evidencia en los ojos de financieros (y de algunos responsables políticos como Obama o Cameron), la capacidad de transformación  en ventaja competitiva unida al tratamiento del dato (eso que el Data Mining no ha sabido mostrar con tanto éxito).

 

En « Big Data » hay Schumpeter

 

El Big Data hace entrar en una nueva era de tratamiento de datos. Permite la puesta en marcha de un proceso que permite transformar volúmenes de datos heterogéneos en aplicaciones <business > innovadoras.

 

 

Los factores de diferenciación del Big Dara superan el simple muro de la volumetría para integrar una fuerza lógica aplicativa de creación de valor a partir de datos. El Big Data representa por tanto una ruptura tecnológica (en el sentido en el que autoriza a administrar volúmenes inaccesibles precedentemente), y un soplo de innovación en las técnicas de modelización (encontramos orígenes múltiples en las técnicas de modelización con las estadísticas, la bio-estadística (meteorología o difusión de epidemias), el análisis textual, las matemáticas, etc.

 

Un segundo elemento  « schumpeterien » en el Big Data es relativo a su accesibilidad para los nuevos actores  (des « start up »). De hecho, una parte no despreciable de programas resulta del modo Open Source, la puesta en disposición de espacio de proceso de datos sobre arquitecturas (como Amazon) permiten tratar grandes volumetrías a costes muy bajos.

 

 

Esta bajada de costes de entrada en el proceso de datos permite la emergencia de nuevos actores. Los inversores importantes tanto en arquitectura como en software, antiguamente necesarios para tratar volumetrías importantes de datos, desaparecen.

 

Las iniciativas de apertura de datos en los modos d’Open Data (ciudades de Londres y San Francisco http://spotcrime.com/ca/san+francisco son modelos del género) que ofrecen juegos de experimentación para nuevos actores que aportan nuevas aplicaciones a las empresas o a particulares (los criterios de elección de una vivienda incluirán próximamente la criminalidad, el tiempo del trayecto, la calidad de gestión de basura doméstica, la actuación de los establecimientos escolares.. o hospitalarios).

 

Para aquellos que tienen algunas dudas sobre la novedad del enfoque, la utilización del programa Ngram de Google (https://books.google.com/ngrams) muestra que el enfoque histórico de la utilización de palabras en dos siglos, es diferente a la búsqueda de un documento. Seguir la difusión de una expresión en el curso del tiempo es un enfoque diferente a la utilización de datos textuales.

 

Les 5 V del Big Data

 

 

 

Para apreciar la diferenciación del Big Data, es muy común citar las 5 V siguientes:

 

Valor: capacidad de poner en marcha nuevos modelos económicos basados en la interpretación de datos (Critéo es un ejemplo francés http://www.criteo.com/fr/forrester)

 

–  Volumen: para superar los Tera Octets de datos y atravesar los límites de los Peta, Exa y Zetta que llegan a gran velocidad.

 

– Variedad: para superar los datos estructurados (aquellos que <entran> en las columnas)  e integrar los datos <no estructurados> como los datos textuales, los datos audio, video, las imágenes, los datos de navegación web, los datos de desplazamiento GPS, etc…http://123opendata.com/blog/selectionobjets-communicants/

 

 

Velocidad: para hacer <pegar> el factor <tiempo>, elemento cada vez más importante para crear valor, los datos del Big Data se acercan a un proceso de datos en tiempo real (para la visualización de  bannières por ejemplo). Los modelos se han vuelto <mortales> y son nulos si no son utilizados en el <momento correcto>.

 

Veracidad: por su capacidad de administrar las <grandes volumetrías>, las problemáticas de creación de muestra no son ya necesarias. Se vuelve posible tratar la integralidad de datos suprimiendo los riesgos de error ligados a las elecciones de muestras, las copias entre las bases, el ajuste de los modelos de re-aplicación, y la identificación de señales débiles.

 

 

Una definición del « Big Data »

 

Como es, cuanto menos necesario, aportar una definición al « Big Data » propongo la del investigador Subu Raj

 

 

« El BIG DATA no hace solo referencia a datos, sino que describe también las herramientas, los procesos y las reglas que le permiten a una empresa crear, manipular, administrar volúmenes de datos muy importantes (> 10 Tera) y extraer informaciones pertinentes»

 

Tiene el mérito de pasar la frontera de los 10 Téra y de integrar las nociones de datos e informaciones.

 

… si debiera enmendar esta excelente definición, añadiría <en una perspectiva de gestión en tiempo real>.

 

Définition et spécificités du BIG DATA

écrit par René Lefebure

8 jan

Dans BIG DATA il y a BIG

Une définition du « Big Data » se révèle une tâche plus complexe qu’il n’y parait. En appliquant une traduction assez littérale comme la « Grosse Donnée », on est plutôt tenté de positionner le « Big Data » comme

– la capacité de gérer et d’analyser des très grosses quantités de données (j’ai volontairement choisi de ne pas employer le mot Base de données) au moyen de nouvelles techniques ( car les techniques traditionnelles comme le SQL en sont devenus incapables … ou le seront face aux perspectives de collecte programmées ).

Cette approche du « Big Data » comme extension technologique, comme moyen de dépasser le « mur de la data » (avoir une vitesse de traitement plus rapide que la vitesse de chargement ….) est particulièrement vraie dans le domaine de l’Internet où la volonté de stocker et analyser l’ensemble des interactions des visiteurs se traduit par des volumes considérables de données à interpréter.

A ce titre, il n’est pas fortuit que les « pères » du Big Data soient Google, Yahoo, Facebook ou Amazon ( seul Apple qui complète le club des 5 a une origine un peu différente). Ces entreprises ont du faire face à du stockage volumineux d’informations (comme la Bibliothèque Nationale de France !). Mais elles ont du apprendre à les interpréter pour optimiser les recherches des internautes, afficher les bonnes publicités ou faire les recommandations produits les plus adéquates (bref répondre à d’autres contraintes que la BNF).

Dans BIG DATA …il y a Valeur

Évidemment, les statisticiens et data miners pourraient conclure, à l’identique de Mr Jourdain, qu’ils faisaient déjà du « Big Data ». Que le « Buzzword » actuel est un coup marketing pour re-labelliser un univers décisionnel à la recherche d’un second souffle de croissance.

Bref encore un coup de publicité bien orchestré par quelques éditeurs astucieux.

Ils ont à la fois raison, car l’analyse des données est aussi ancienne que son stockage, mais ils ont tort lorsqu’ils minimisent la rupture de paradigme du décisionnel entre l’avant et l’après BIG DATA.

On ne peut considérer le « Big Data » comme une évolution : il y a une vraie rupture (pas totalement appréciée dans les médias actuels). Le Big Data est un extraordinaire levier de création de Valeur.

Il suffit pour s’en convaincre de regarder la capitalisation boursière de ces 5 entreprises (Google, Apple, Amazon, Face Book, Yahoo) sur les 3 dernières années, pour comprendre que le « Big Data » n’est pas seulement la gestion des grosses volumétries de données, mais une capacité de « maîtriser » la chaine de transformation des données en information.

Ce potentiel de valorisation semble avoir été bien compris par les investisseurs anglo-saxons, et sous-estimée en Europe continentale (les actions récentes de Me Lauvergeon commencent à corriger ce retard avec l’Ambition n°7 sur la valorisation des données massives).

La force du phénomène « Big Data » est d’avoir su mettre en évidence aux yeux des financiers (et de certains responsables politiques comme Obama ou Cameron), la capacité de transformation en avantage concurrentiel lié au traitement de la donnée (ce que le Data Mining n’avait pas su montrer avec autant de succès).

Dans « Big Data » il y a du Schumpeter en marche

Le « Big Data » fait entrer dans une nouvelle ère le traitement de la donnée. Il permet la mise en place de processus permettant de transformer des volumes de données hétérogènes en applications « business » innovantes.

Les facteurs de différenciation du « Big Data » dépassent le simple « mur de la volumétrie » pour intégrer une forte logique applicative de création de Valeur à partir des données. Le « Big Data » représente donc une rupture technologique (dans le sens où il autorise de gérer des volumes non atteignables précédemment), et un souffle d’innovation dans les techniques de modélisation(on retrouve des origines plus multiples dans les techniques de modélisation avec les statistiques, la bio statistique (météo ou diffusion des épidémies), l’analyse textuelle, les mathématiques, etc.

Un second élément « schumpetérien » dans le Big Data est relatif à son accessibilité pour des nouveaux acteurs (des « start up »). En effet, une partie non négligeable des logiciels est issue du mode Open Source, la mise à disposition d’espace de traitement sur des architectures Cloud (comme Amazon) permettent de traiter des grosses volumétries à des coûts très faibles.

Cette baisse des « couts d’entrée » dans le traitement de la donnée permet l’émergence de « nouveaux acteurs ». Les investissements importants tant en architecture qu’en software, autrefois nécessaire pour traiter des volumétries importantes de données, disparaissent.

Les initiatives d’ouverture des données dans des modes d’Open Data (les villes de Londres et de San Francisco http://spotcrime.com/ca/san+francisco sont des modèles du genre) offrent des « jeux d’expérimentation » pour de nouveaux acteurs qui apportent des nouvelles applications aux entreprises ou aux particuliers (les critères de choix d’une habitation incluront prochainement la criminalité, les temps de trajet, la qualité de la gestion des ordures ménagères, la performance des établissements scolaires … ou hospitaliers).

Pour ceux qui ont quelques doutes sur la nouveauté de l’approche, l’utilisation du programme Ngram de Google (https://books.google.com/ngrams) montre que l’approche historique de l’utilisation des mots sur 2 siècles, est différente de la recherche d’un document. Suivre la diffusion d’une expression au fil du temps est une approche différente de l’utilisation des données textuelles.

Les 5 V du Big Data

Pour apprécier la différenciation du Big Data, il est assez commun de citer les 5 V suivants :

Valeur : capacité de mettre en œuvre de nouveaux modèles économiques basés sur l’interprétation des données (Critéo est un exemple français http://www.criteo.com/fr/forrester)

Volume : pour dépasser les Tera Octets de données et franchir les limites des Peta, Exa et Zetta …qui arrivent à grande vitesse

Variété : pour dépasser les données structurées (celles qui « rentrent » dans des colonnes) et intégrer les données « non structurées » comme les données textuelles, les données audio, vidéo, les images, les données de navigation web, les données de déplacement GPS, etc… http://123opendata.com/blog/selectionobjets-communicants/

Vélocité : pour faire « coller » le facteur « Temps », élément de plus en plus important pour créer de la valeur, les données du « Big data » s’approchent d’un traitement en temps réel (pour l’affichage des bannières par exemple). Les modèles sont devenus « mortels » et apprennent à être nuls s’ils ne sont pas utilisés au « bon moment »

Véracité : par sa capacité de gérer les « grosses volumétries », les problématiques de création d’échantillon ne sont plus nécessaires. Il devient envisageable de traiter l’intégralité des données en supprimant les risques d’erreur liés au choix des échantillons, les copies entre les bases, l’ajustement des modèles de ré-application, et l’identification des signaux faibles.

Une définition du « Big Data »

Comme il faut quand même apporter une définition au « Big Data » je propose celle du chercheur Subu Raj

« Le BIG DATA fait non seulement référence aux données, mais il décrit aussi les outils, les processus et les règles qui permettent à une entreprise de créer, manipuler, gérer des volumes de données très importants (> 10 Tera) et en extraire les informations pertinentes »

Elle a le mérite de donner la frontière des 10 Téra et d’intégrer les notions de données et d’informations.

… si je devais amender cette excellente définition, je rajouterais « dans une perspective de gestion en temps réel ».

 

 

Un livre blanc sur le Big Data réalisé par Skema Lille

écrit par René Lefebure

7 jan

Une excellente initiative du Master Spécialisé Marketing Direct et Commerce Electronique de SKEMA Business School de Lille sur le phénomène Big Data :

Le Big Data est-il un vrai levier pour booster son activité en profondeur ?

ou simple poudre aux yeux ?

… pour ma part je penche naturellement pour la première option, mais on trouve dans cette synthèse quelques recommandations pertinentes et des sensibilités différentes chez les experts.

Définition du Big Data

Je trouve la définition du Big Data peut-être un peu trop restrictive :

« La création de valeur par la combinaison des 3 V »

car n’intègre pas la disparition de la barrière à l’entrée des couts informatiques apportée par le Cloud, l’Open Source et l’Open Data, qui donne la composante Smart Data du

Big Data, donc si vous pouvez ajouter le COO au 3 V, nous dirons que le

Big Data = création de valeur par la formule 3 V x CO²

(pour une fois que le CO² apporte quelque chose de bien …)

Les traditionnels 3 V

Une synthèse des idées présentes dans le document :

Volume : pas le critère le plus important … on peut faire du Big Data sur des volumes de moins de 1 Tera

Vitesse : un enjeu important pour construire l’avantage concurrentiel

Variété : le vrai facteur de différenciation (point trop peu exprimé dans la synthèse).

Les témoignages d’experts dans une autre conférence (EBG pour ne pas la citer) soulignent cependant une hiérarchie dans les données avec d’abord :

– les données CRM (transactions ou contacts),

– le surf sur le site (clicks, pages vues, mise au panier, etc.)

– les mots-clefs (dans la recherche),

– la donnée sociale,

– les données sociodémographiques (âge, sexe, CSP, etc.).

On peut ajouter à cette liste les données Open Data (qui doivent probablement être au-dessus des données sociales).

Positionnement du Big Data

Sur la question Évolution ou Révolution, la synthèse souligne bien

– que la révolution viendra de l’usage des données qui permettra de créer de nouveaux modèles économiques (donc des métiers), et

– que l’évolution s’appliquera sur les métiers de l’informatique et du data mining pour intégrer des nouveaux concepts.

Concernant les secteurs prioritaires pour le Big Data, on retrouve les secteurs traditionnels comme les Télécoms, les Banques … il aurait été sympathique de souligner quelques nouveaux business modèles en cours de conception dans la Santé (enjeu majeur pour le PIB national avec le vieillissement de la population et la maîtrise des dépenses de santé), ou opérationnel dans l’enseignement à distance pour établir cette émergence des nouveaux modèles économiques.

Concernant la création de Valeur pour le consommateur citoyen, j’invite les lecteurs à suivre les innovations mises en place par la ville de San Francisco (par exemple http://spotcrime.com/) au service de la transparence dans le choix de son quartier de résidence (nous en sommes très loin en France … et à Lille plus particulièrement ).

Concernant la mise en œuvre :

– Besoin de s’intéresser au Cloud, à Hadoop pour les équipes techniques

– Besoin de compléter les techniques d’analyses avec des moteurs de recommandations et de la data visualisation pour les équipes analytiques.

Concernant la partie Data …. Qui, Quoi, Comment … une question encore ouverte qui impliquera

– un cadre législatif plus clair (actuellement c’est plutôt vague) …

– en évitant de tomber dans la paranoïa … (Bruxelles manquent de e-commerçants !)

Vouloir interdire certaines utilisations de la donnée en Europe ou en France conduira à la mise en place de plate-forme en Off-Shore dans les métiers stratégiques de l’exploitation de la donnée (à mon avis si on veut rater la prochaine révolution industrielle on en prend le chemin).

Pour les plus dubitatifs : un seul chiffre non cité dans cette synthèse … l’Europe pèse moins de 2 % de la capitalisation boursière mondiale dans le domaine du commerce connecté (> 90 % pour les USA).

Concernant l’organisation :

– Oui le « data scientist » sera recherché … et il sera « rare », ce qui impliquera une réponse rapide du monde académique car il faudra 2 ou 3 ans pour « former » les bons profils.

– La synthèse aurait pu souligner l’initiative privée de Xavier Niel (Ex DG de Free) avec la création de son école privée (http://www.42.fr/ledito-de-xavier-niel/) pour faire face à cette pénurie annoncée. A défaut d’argent, au moins on a des « idées ». Donc Bravo a Mr Niel pour sa vision.

Pour accéder à l’article

http://www.skema-mdce.fr/actualite-diplomes-telecharger-livre-blanc-big-data/#.Us0MmLQqR3F

Merci pour vos commentaires.

11 puntos para hacer un buen score

écrit par René Lefebure

23 nov

Traducion de Yolanda Albendea Lopez

La creación de un score puede parecer <falsamente> más simple que la creación de una segmentación

 

 

 

Sin embargo, la práctica de la regresión logística (bajo el SAS u otras herramientas) me ha conducido a constatar que existen sutilezas en la construcción <de un buen score> que he tenido ganas de compartir con los <novatos> del dominio (los expertos no encontrarán ciertamente elementos importantes en este artículo).

 

 

 

Este artículo pretende ayudar a los <jóvenes data miners> que deben construir sus primeros scorings para evitarles varios desengaños técnicos, pero también comerciales, porque un buen score no se mide solo por R2 (índice de convergencia) sino por el entusiasmo de los usuarios que os hacen a continuación preguntas repetidas. Como me dijo una vez Amélie sobre un score <potencial>, el éxito del score han sido las felicitaciones de los tele consejeros, que atestaban resultados de venta en la lista.

 

 

 

En fin, este artículo no trata de scores de <riesgo> de crédito, que son especificos en sus construcciones y herramientas de controles (Bale II), mis consejos se aplican a los scores <de apetencias> a productos u ofertas en las Direcciones Marketing o Comerciales

 

 

 

Regla 1: Definir el contexto de utilización del score


Es importante comprender en qué contexto se inscribe la construcción del score. Se trata de inscribirse en la <continuidad>… donde existe un score actual y simplemente hay que hacer una puesta al día… donde el score actual está en una verdadera debilidad y una ruptura es necesaria.

 

En un contexto de continuidad, es primordial evaluar las variables existentes, evaluar los pesos de las modalidades, y probar que una nueva variable puede insertarse en la formula.
En una estrategia de <ruptura>, conviene no respetar demasiado las variables precedentes… efectivamente si las orientaciones de los 3 últimos años se han hecho con un score… es lógico que los suscriptores de los 3 últimos años estén conformes a los scores pasados. Es necesario ser capaz de <salir de la encrucijada> de las prácticas y los usos.

 

Regla 2 : Elegir su periodo de observación y sus individuos


La construcción de un score responde a una problemática de optimización comercial venidera. Es necesario por tanto concentrarse en el pasado reciente… y evitar hacer un estudio sobre un stock de poseedores basado en una historia muy larga. Así, conviene a menudo dar más importancia a los individuos recientes, contratados con técnicas y contextos comerciales próximos de aquel que prevalecerá en la acción futura. Es necesario también verificar si ciertos mecanismos comerciales o promocionales no han tenido una incidencia muy fuerte sobre el perfil de los clientes. Evidentemente hacer <promociones canons> se traduce en públicos objetivo específicos… si la nueva oferta no es tan <canon> entonces es necesario excluir a estos individuos de la matriz de aprendizaje. Si habéis dado Iphones gratuitos durante 3 meses por suscripciones de contratos, y mañana ni siquiera tenéis Iphone, ni el incentivo de la gratuidad… es probable que vuestro score funcione en <stat> y sea lamentable <en la verdadera vida>.

 

 

 

Regla 3: Construir una matriz de trabajo imaginativa

 

 

 

Puede ser uno de los trazos más distintivos de un score <fresco>. Mis clientes saben que mi capacidad de transformar un cuidado funcional en una <nueva pista> es importante. La intuición de los actores del marketing o del comercio es a menudo muy saludable. Ellos <sienten> que tal variable tiene una incidencia (sin razón o con razón), pero al menos tienen convicciones. Es importante introducir estas <intuiciones>, <percepción> en la gestión para verificar si se verifican estadísticamente, si son capaces de transformar una variable antigua. Un ejemplo reciente era la convicción de que una gama de productos influía positivamente en la fidelización. La introducción de esta variable en la construcción del score ha puesto en evidencia, que ella jugaba… a la inversa de la creencia. Inmediatamente la mecánica comercial (y las compras de los productos) ha reaccionado. El score no se aplicaba todavía, pero había efectos <administrativos>

 

 

 

Regla 4: Optimizar el recorte de las variables continuas

 

 

 

La construcción de un score por medio de una regresión logística necesita desacreditar la variable continua. La utilización de los cuartiles o decíles automáticos puede comprobarse como suficiente, pero no garantiza lo óptimo. Algunas herramientas permiten arrancar con recortes muy finos (por ejemplo los centíles) y reducir paso a paso el recorte para tener una desacreditación óptima. Así,, logro utilizar ejes de decisión (como Alice d’Isof) para soltar el recorte <óptimo> (aquel que crea la mayor varianza).

 

 

 

Regla 5: Hacer vivir y sobrevivir sus taxonomías

 


Las variables discretas presentan problemas específicos… como reducir las modalidades, sin perder el poder explicativo. Aquí todavía la utilización de los ejes de decisión (y de herramientas como las redes bayesianas) permite definir muy buenos reagrupamientos. Un estudio reciente sobre los modelos de vehículos (relativamente numerosos) ha permitido soltar reagrupamientos adaptados (un recorte Z4 es significante) y diferentes en función de ciertos datos (una Mini <puerta> de informaciones diferentes según el ciclo de vida del cliente). Es necesario a veces dejar vivir las modalidades a veces poco presentes, rechazadas por indicios de tipo Chi2, y saber <tomar el paso sobre el programa>. Habrá siempre poca gente que pague el ISF, pero no coger esta información bajo pretexto de que menos del 0.5% de la población presenta esta característica es un <sin sentido> para los scores de fidelidad. No <robusto> al sentido estadístico, pero tan significante para un comercial.

 

 

 

Regla 6 : Salir de las <tautologías> básicas

 


Atención a las variables que contribuyen demasiado en el modelo. Es importante no tener una sola variable (o modalidad) que explique más del 25% de la varianza del modelo. Desembocamos a veces en un modelo complejo… no para gran cosa, pero podemos también haber perdido la ocasión de hacer modelos específicos. Así, si el tipo de vehículo <nuevo o de segunda mano> pesa sobre la variable público objetivo… puede ser que sea más útil hacer dos modelos separados (uno de segunda mano y otro nuevo) con el fin de encontrar públicos objetivos de desarrollo en cantidad suficiente. Arrimarse a una variable hace a menudo <agotar> la capacidad de extensión del score. Un buen score debe tener <estómago> (al contrario del hombre). Una bonita curva de lift es una garantía de encontrar públicos objetivos potenciales (esto quiere decir no equipados).

 


Regla 7: Probar los modos de selección de las variables

 

Las herramientas de regresión logísticas permiten reaccionar sobre modos de selección (stepwise, backward, etc…). Un buen análisis probara los diferentes métodos para comprender mejor como <entran> las variables. Un análisis <paso a paso> permite comprender mejor como se constituye el modelo.

 

 

 

Regla 8 : Probar las variables y los pesos sobre varias generaciones

 

 

 

Cuando estéis contentos con vuestro primer modelo… os recomiendo de probarlo sobre otra población más reciente. Si habéis tardado 3 meses en hacer vuestro score… que da en términos de resultado sobre los 3 últimos meses de actividades… en resumen se ha revelado pertinente de predecir o se contenta solamente con modelizar el pasado. Saber explicar en un 90% que pasó el año pasado… no quiere nunca decir que podamos saber que pasara mañana. Podemos ser el <rey de la modelización> y estar totalmente <al lado> del futuro. Es diferente hacer la historia que la prospectiva. Los scorings comerciales se interesan a menudo por una calidad de predicción de business venidera.

 

 

 

Regla 9 : Saber tomar la libertad con los pesos

 


La determinación del peso de una modalidad se apoya en el pasado. Evidentemente si la empresa habia decidido conceder ofertas interesantes a <parejas jovenes>, es lógico que esta modalidad juegue positivamente en el score. Pero si ahora la empresa desea volver a posicionarse sobre <las familias con niños>, es necesario revelarse capaz de modificar las modalidades para ir en el sentido de la estrategia de la empresa. No existe nada peor que tener listas <scorés> sobre principios antiguos. Estamos preparados a no alcanzar nunca los objetivos de la empresa. Por esto, algunos scores concebidos hace más de 5 años (antes del verdadero despegue de Internet y de la movilidad) revelan de magnífica <trampa para moscas>, no podemos salir de su antiguo público objetivo.

 

 

 

Regla 10: Medir la actuación real

 

 

 

Antes de gritar victoria sobre un score, es juicioso verificar <en lo real> su capacidad de mejorar la actuación comercial. Los nuevos canales de comunicación como la Web se revelan medios simples y no costosos de probar la verdadera curva de lift (a poco gasto). Si lo <alto del score> va mejor… podremos verlo en las ventas reales. Poder decir que una ganancia de 10% del score se traduce por un crecimiento de tasa de conversión de 8% y una cesta media +23%… se revela más contundente que un bonito R2 teórico.

 

 

 

Regla 11: Saber no seguir las 10 reglas de arriba

 

Saber salir del <sendero batido> es importante para identificar las <nuevas oportunidades. Un score se basa en el pasado… por lo tanto es necesario desconfiar del efecto retrovisor y saber <salir> del camino trazado.

 

 

 

Gracias a Amélie, Kaoutar, Florence, Marie-Pierre, Stéphanie, Wendy y todos los data miners con quienes he trabajado por la fuente de inspiración de este artículo.

 

 

¿Cómo crear su población de aprendizaje en una clasificación?

écrit par René Lefebure

23 nov

Traducion de Yolanda Albendea Lopez

 

 

A lo largo de mis misiones, he sido a menudo preguntado por encargados de estudios que me preguntaban cómo crear la muestra de aprendizaje.

Si tengo un 15% de compradores en mi población madre, puedo crear una muestra de aprendizaje 15/85 o una muestra 50/50?

 

Visiblemente los partidarios del 50/50 están más bien presentes en la literatura… y en las prácticas de la enseñanza de la clasificación con ficheros <análisis de crédito>.

 

 

Como mi compañero Sebastián me ha empujado varias veces a este razonamiento, he elegido responder sobre las ventajas e inconvenientes de dos enfoques, y bien, evidentemente no he podido evitar proponer un tercer método (¡para permanecer iconoclasta de la clasificación!). Para hacerlo simple, en la creación de bases de análisis para una clasificación distinguimos los <positivos> y los <negativos>.

 

 

¿Cuantos positivos y negativos debo poner en mi población?

 

Esa es la cuestión

 

 

En la metodología encontramos 3 escuelas:

 

 

1) El 50/50

– La lógica del 50/50 se justifica en los mecanismos de decisión basados en umbrales. En efecto, partiendo de 50/50, comprendemos que desde que la probabilidad supera el 0.5 predecimos el acontecimiento como <positivo> (por encima de 0.5 está bien y por debajo de 0.5 está menos bien). Si multiplicamos la nota por 200 encontramos el umbral de aceptación en 100… y los tramos de clasificaciones que permiten seguir a continuación los rendimientos (tasa de riesgo o retorno por décile).

 

El defecto de este tipo de clasificación es que no permite una simulación de retornos futuros…y que si hay una modificación importante de la tasa de <positiva> o <negativa>, nos arriesgamos a no percibir rápidamente (efecto retraso más importante).

 

 

 

2) El respeto del observado

La segunda escuela respeta la representatividad de la población de aprendizaje respecto a la población global. Así, si tenemos una tasa de retorno o de equipamiento del 15%… crearemos una muestra con 15 y 85.

 

 

La probabilidad reflejará una cierta capacidad de retorno o de concretización, así en el tramo de 0.25 a 0.3, esperamos una tasa de crecida o de equipamiento del 20 al 30%. Este enfoque permite por estudios de simulación definir el CUT que ofrece un buen rendimiento… así me hace falta una tasa mínima del 12% para alcanzar el ROI de mi operación, puedo establecer un modelo antes del envío de mis costes y mi margen.

 

 

El defecto es que el umbral <varía> por clasificación (en resumen no es una norma simple), pero una ventaja es percibir rápido la evolución con la mejora o la degradación de la tasa media (más reactividad).

 

 

3) La población « E dream »

 

 

Existe un caso en el que los dos enfoques no son posibles… cuando nos encontramos con un producto muy reciente sobre el cual las apuestas de desarrollo son importantes. En este caso podemos <estratificar> su muestra haciendo concordar el público objetivo y el objetivo.

 

 

Así si yo aspiro a un equipo del 15% de mis clientes… pero actualmente solo tenemos un 3%, multiplicaremos el peso de cada individuo poseedor por 5 (función weight en las herramientas)… lo que permitirá liberar zonas potenciales (por ejemplo regiones, territorios y entonces ajustar los objetivos). Nos proyectamos un poco más hacia <el objetivo> y nos despegamos de la realidad.

 

 

 

Al final

En todos los casos, podemos ordenar a los individuos con la nota de resultado, pero los métodos tienen impactos cuando se trata de elegir entre varios resultados (para determinar el producto a lanzar).

 


El más simple; el 50/50 tiene interés de jerarquizar una batería de resultado.. el producto prioritario se convierte en aquel con la nota máxima.

 

 

 

El más pesado: en la realidad, identificamos el producto prioritario modificando el resultado por un índice. Así, si la probabilidad de suscripción IARD es de 0.5 con una tasa de base de 0.25, el lift es de 2…y entonces seleccionamos el índice más fuerte (pero es más complejo de determinar que el máximo anterior.. y puede favorecer los productos <raros>).

 

 

 

En resumen estos enfoques responden a problemáticas diferentes:

 

 

 

-Población estratificada: población demasiado restringida y expresión de una visión de público objetivo

 

-Población 50/50; simplicidad de determinación del umbral y control de tramos de resultados de actuación

 

– Población real: complejidad de gestión de umbrales, pero precisión en el volumen de cargos <venideros> (llamadas entrantes, devoluciones, etc) y precisión de simulaciones.

 

…si queréis aportar vuestra evaluación sobre este punto, lo apreciaré…

 

 

Darwinismo, Altruismo…. y Tango

écrit par René Lefebure

23 oct

Traducion de Yolanda Albendea Lopez

Un artículo que puede parecer curioso y desplazado en este blog; que relación pueden tener los dos primeros términos con el Tango, y sobre todo que enseñanzas puedo esperar para hacer de CRM o de Big Data? En primer lugar, se trata de despertar vuestra curiosidad sobre los libros de Levitt y Dubner « Freakonomics y SuperFreakonomics » que muestran como las interpretaciones buenas o malas de las correlaciones entre los datos pueden conducir a decisiones. Yo se los recomiendo a mis estudiantes para suscitarles ganas de hacer estadística y que entiendan el aporte de la interpretación de datos.

Personalmente a mí me han gustado mucho, en el primer libro, su análisis entre los nombres y el éxito profesional, y en el segundo, las falsas malas ideas sobre el calentamiento climático (no vemos más Al Gore de la misma manera).

Bueno, volviendo ahora al Tango y a sus aplicaciones posibles en el dominio de CRM.

Todo el mundo ha visto al menos una vez en su vida una pareja de Tango y ha podido apreciar la sensualidad de este baile.

Según mis conocimientos no existe un baile que necesite tanta comunicación no verbal entre un hombre y una mujer para llegar a este nivel de perfección. La película <La lección de Tango> restituye bien esta comunicación (en fin lo comprendemos sobre todo cuando el bailarín riñe a la bailarina).

Pero llegar a este nivel de perfección necesita mucho trabajo. Cuando no es costumbre, podemos constatar que existe una desigualdad <Hombre-Mujer> con una ventaja importante para el sexo femenino en la progresión de este baile.

De hecho, el aprendizaje del Tango es relativamente largo (aproximadamente de 2 a 3 años) y por una pareja, constatamos demasiado rápido una progresión de la mujer más rápida que la del hombre. ¿Por qué esta diferencia tan importante en la progresión? ¿Existe un gen específico femenino para el Tango?

Personalmente no creo, y me inclino más por una posibilidad de aprendizaje más fácil para las mujeres que para los hombres.

En principio, en el curso de baile existe un equilibrio entre hombre y mujer (hay dos excepciones notorias con la Danza Clásica donde las mujeres son mayoritarias y el Break Danse donde los hombres son mayoría, pero en el Tango esta situación de equilibrio debería ser observada (la situación del Tango entre hombres en Buenos Aires en el siglo XIX estaba ligada a la inmigración).

En cuanto al aprendizaje del Tango, podemos constatar rápidamente el comportamiento <altruista> de los buenos bailarines hombres de Tango, que invitan a los debutantes a descubrir la sensualidad y los subtítulos de este baile. Rara vez encontramos este comportamiento <altruista> en las buenas bailarinas, también porque no es agradable para ellas dejarse llevar, y las convecciones sociales hacen que sea complicado para una mujer invitar a un hombre (lo que no pasa en Argentina… dicho sea de paso).

Por lo tanto, las ocasiones de aprendizaje son más rápidas para una mujer que para un hombre. Al final de 3 años de práctica, la mujer ha adquirido sobre el hombre una cierta ventaja competitiva.

Si además ella es bella, joven y guapa, se asegura llenar su carnet val, en gran perjuicio de su compañero relativamente menos cómodo.

Si proyectamos esta tendencia, deberemos entonces constatar en los valses, un crecimiento muy importante de mujeres expertas y de hombres torpes. Esta ventaja de competencias conoce un límite que puede interpretarse en una lógica Darwiniana con la selección natural.

El primer factor es el abandono de la población masculina ante la dificultad de este baile (es más « cool » bailar salsa o rock, incluso quedarte a ver un partido de futbol).

El segundo factor está ligado al crecimiento de la población femenina <experta> (no hablaremos de proliferación). Desde que el desequilibrio entre <los buenos bailarines> y las <buenas bailarinas> se instala la competición comienza.

Rápidamente, la rareza del <buen bailarín> se traduce por una limitación del número de bailes para las bailarinas, que puede conducir a algunas a la renuncia del ejercicio.

En esta lógica <darwiniana> una situación de equilibrio se reconstruye cada comienzo de temporada.

Si desciframos el comportamiento <altruista>, encontramos sobre un ciclo largo una mecánica de dominio <dulce> de los <buenos bailarines> que tienen una elección siempre importante y renovada de las <buenas bailarinas>. Constatamos entonces que el altruismo de salida puede interpretarse como una gestión inteligente de una estrategia de renovación. En resumen, los <buenos bailarines> de Tango son ecológicos, han comprendido el sentido de renovable!

Una vez más el altruismo aparece como un medio de preservar una posición futura (cf un artículo de Levitt y Dubner).

Creo haber aportado una visión diferente sobre el val Tango

Ahora, ¿Qué podemos sacar de una lógica de gestión de un proyecto de CRM?

Punto 1: es importante comprender los informes de fuerza existentes en la puesta en marcha de un proyecto CRM. La situación existente en la empresa se traduce forzosamente por posiciones dominantes, la amenaza de la ruptura de este equilibrio por el nuevo sistema debe ser anticipada. Es necesario gestionar este cambio.

Que reacción puedo esperar de mis bailarines de Tango si hago venir a 30 profesores argentinos a mudarse a Lille?

Punto 2: es vital descifrar los puntos de equilibrio en un proyecto CRM. Cuál será la palanca sobre la cual puedo actuar con el mínimo de fuerza para obtener el máximo efecto. Se trata a menudo de identificar el <verdadero parámetro> de cambio para cambiar el sistema.

¿Permitiría el desarrollo del altruismo en las bailarinas de Tango salir de la situación actual? Mis agradecimientos a Jeannette y Marie Noëlle por sus altruismos.

Punto 3: es necesario anticipar los problemas, no dejarse ilusionar por el <falso altruismo> y poner en marcha escenarios alternativos en el arranque del proyecto. No habrá un <camino> sino varios <caminos>. En este sentido, los métodos agiles son mucho más eficaces que los pliegos de cargos largos en especificaciones.

¿Podemos realmente contar con los buenos bailarines de Tango para hacer progresar a un hombre, un potencial competidor?

Mis agradecimientos a Jean Claude por sus consejos altruistas.

Para terminar con una nota más personal, irónica y una

Redken the for cialis free trial offer left practically your generic cialis 20mg thoroughly face remove adhesive how to purchase cialis online where and – your cheap cialis generic online batch, teen well that daily dose cialis ve which soaks Jenny cialis.com free offer down exclusively exfoliate.

recomendación para los <malos bailarines> de Tango Hombres (lo que yo soy). Ante esta situación, es necesario saber desarrollar una estrategia adaptada:

– Ser un buen observador localizando a las <buenas bailarinas no altruistas> (la mayoría) y los <bailarines debutantes o altruistas> para asegurarse un mínimo de existencia.

– Utilizar otros factores competitivos explorando otros vals o el estatus de desconocido se traduce por una ventaja (Un Francés en Buenos Aires) con el fin de desarrollar sus competencias, gracias a Nuria, Carmen e Ingrid (una Alemana) por haber aceptado mis pies torpes.

– Ser agradecido desde el no progreso de su compañera (gracias a mi querida Sophie por todos los esfuerzos que ha hecho para mantener nuestro equilibrio), y sobretodo… ser perseverante.

En conclusión, el CRM es como mirar un val

– Encontrar amigos y enemigos

– Saber cambiar de entorno para aprender

– Tener una visión realista del proyecto

Darwinisme, Altruisme …. et Tango

écrit par René Lefebure

2 oct

Un article qui peut sembler curieux et déplacé sur ce blog : quelle relation peut-il y avoir entre les 2 premiers termes et le Tango, et surtout quels enseignements puis-je en attendre pour faire du CRM ou du Big Data ?

En premier point, il s’agit d’éveiller votre curiosité pour les livres de Levitt et Dubner « Freakonomics et SuperFreakonomics » qui montrent comment les interprétations bonnes ou mauvaises des corrélations entre les données peuvent conduire à des décisions. Je le recommande à mes étudiants pour donner envie de faire de la statistique et comprendre l’apport de l’interprétation des données.

Personnellement j’ai beaucoup aimé, dans le premier livre, leur analyse entre les prénoms et la réussite professionnelle, et dans le second les fausses mauvaises idées sur le réchauffement climatique (on ne voit plus Al Gore de la même façon ensuite).

Bon, revenons maintenant au Tango et à ses applications possibles dans le domaine du CRM.

Tout le monde a au moins vu une fois dans sa vie un couple de Tango et pu apprécier la sensualité de cette danse. Il n’existe pas à ma connaissance de danse qui nécessite autant de communication non verbale entre un homme et une femme pour arriver à ce niveau de perfection. Le film « La leçon de Tango » restitue bien cette communication (enfin on le comprend surtout quand le danseur engueule la danseuse !).

Mais arriver à ce niveau de perfection nécessite beaucoup de travail. Hors, une fois n’est pas coutume, on peut constater qu’il existe une inégalité « Homme-Femme » … avec un avantage important pour le sexe féminin dans la progression de cette danse.

En effet, l’apprentissage du Tango est relativement long (environ 2 à 3 ans) et pour un couple, on constate assez rapidement une progression plus rapide de la Femme, que de l’Homme. Pourquoi cet écart si important dans la progression ?

Existe-t-il un gêne spécifique féminin pour le Tango ?

Personnellement je ne le pense pas et penche plus pour une possibilité d’apprentissage plus facile pour les femmes que pour les hommes ?

En principe, dans les cours de danse il existe un équilibre entre Homme et Femme (il y a 2 exceptions notoires avec la Danse Classique où les femmes sont majoritaires, et le Break Danse où les Hommes sont majoritaires), mais dans le Tango cette situation d’équilibre devrait être observée (la situation de Tango entre Homme à Buenos Aires au XIX siècle était liée à l’immigration).

Lors de l’apprentissage du Tango, on peut assez rapidement constater le comportement « altruiste » des bons danseurs hommes de Tango, qui invitent les débutantes à découvrir la sensualité et les subtilités de cette danse. On retrouve beaucoup plus rarement ce comportement « altruiste » chez les bonnes danseuses, à la fois parce qu’il n’est pas plaisant pour elles de se faire bousculer ou marcher sur les pieds, et les conventions sociales font qu’il est assez complexe pour une femme d’inviter un homme (ce qui ne l’est pas en Argentine … soit dit en passant).

Donc les occasions d’apprentissage et de progression sont beaucoup rapides pour une femme, que pour un homme. Au bout de 3 ans de pratique, la femme a acquis sur l’homme un avantage compétitif certain. Si en plus elle est belle, jeune et jolie, elle est assurée de remplir son carnet de bal, au grand dam de son compagnon relativement moins à l’aise.

Si on projette cette tendance, on devrait donc constater dans les bals, une croissance très importante de femmes expertes et d’hommes maladroits. Hors, cet avantage de compétences connait une limite qui peut s’interpréter dans une logique Darwinienne avec la sélection naturelle.

Le premier facteur est l’abandon de la population masculine devant la difficulté de cette danse (c’est plus cool de faire de la salsa ou du rock, voire de rester à regarder le match de foot).

Le second facteur est lié à la croissance de la population féminine « experte » (nous ne parlerons pas de prolifération). Dès que le déséquilibre entre les « bons danseurs » et les « bonnes danseuses » s’installe la compétition commence. Rapidement, la rareté du « bon danseur » se traduit par une limitation du nombre de danses pour les danseuses, qui peut conduire certaines à la renonciation de l’exercice.

Dans cette logique « darwinienne » une situation d’équilibre se reconstruit à chaque début de saison.

Si on décode le comportement « altruiste », on retrouve sur un cycle long une mécanique de domination « douce » des « bons danseurs » qui ont un choix toujours important et renouvelé de « bonnes danseuses ». On constate donc que l’altruisme du départ peut s’interpréter comme une gestion intelligente d’une stratégie de renouvellement. Bref les « bons danseurs » de Tango sont écologiques, ils ont compris le sens du renouvelable !

Une nouvelle fois l’altruisme apparait comme un moyen de se préserver une position future (cf un article de Levitt et Dubner).

Je pense avoir apporté un regard différent sur le bal Tango (:-).

Maintenant que peut-on en tirer dans une logique de gestion d’un projet CRM ?

Point 1 : il est important de comprendre les rapports de force en présence lors de la mise en place d’un projet CRM. La situation existante dans l’entreprise se traduit forcément par des positions dominantes, la menace de la rupture de cet équilibre par le nouveau système doit être anticipée. Il faut gérer ce changement.

Quelle réaction puis-je attendre de mes danseurs de Tango si je fais venir 30 maîtres argentins à demeure à Lille ?

Point 2 : il est vital de décoder les points d’équilibre dans un projet CRM. Quel sera le levier sur lequel je peux agir avec le minimum de force pour obtenir le maximum d’effet. Il s’agit souvent d’identifier le « vrai paramètre » de changement pour changer le système.

Le développement de l’altruisme chez les danseuses de Tango permettrait-il de sortir de la situation actuelle ?

Mes remerciements à Jeannette et Marie Noëlle pour leurs altruismes.

Point 3 : il faut anticiper les problèmes, ne pas se laisser bercer par le « faux altruisme » et mettre en place des scénarios alternatifs au démarrage du projet. Il n’y aura pas « un chemin » mais des « chemins ». A ce titre, les méthodes agiles sont beaucoup plus efficaces que les cahiers des charges longs en spécifications.

Peut-on réellement compter sur les bons danseurs de Tango pour faire progresser un homme, un potentiel compétiteur ?

Mes remerciements à Jean Claude pour ses conseils altruistes.

Pour terminer sur une note plus personnelle, ironique et une recommandation pour les « mauvais danseurs » de Tango Homme (ce que je suis). Devant cette situation, il faut savoir développer une stratégie adaptée :

– Etre un bon observateur en repérant les « bonnes danseuses non altruistes » (la majorité) et les « danseuses débutantes ou altruistes » pour s’assurer un minimum d’existence,

– Utiliser d’autres facteurs compétitifs en explorant d’autres bals où le statut d’inconnu se traduit par un avantage (Un Français à Buenos Aires) afin de développer ses compétences, merci à Nuria, Carmen et Ingrid (une Allemande) d’avoir accepter mes pieds maladroits,

– Etre reconnaissant des non progrès de sa partenaire (… merci à ma jolie Sophie chérie pour tous les efforts qu’elle fait pour préserver notre équilibre),

et surtout … être persévérant.

En conclusion, le CRM c’est comme regarder un bal Tango

– Trouver ses amis et ses ennemis

– Savoir changer d’environnement pour apprendre

– Avoir une vision réaliste du projet.

Enlace entre las campañas de medición y la infidelidad del cliente

écrit par René Lefebure

1 oct

Traducido por: Ángela Hernández Mambrilla


¿Existe una relación entre las campañas de medida y el caos “cliente”?

Curiosamente en esta misma semana, dos clientes me hicieron la misma pregunta de “medir” las campañas de ROI. Dos clientes de sectores muy diferentes (telecomunicaciones y seguros) pero la misma preocupación de “medida”.

Sin embargo mis dos clientes presentan contextos muy diferentes:

Dispositivos muy evolucionados y rodados en las telecomunicaciones con

– las áreas “blancas”,

– las segmentaciones y las evaluaciones,

– los cálculos del coste de contratación y del valor cliente,

– las soluciones altamente industrializadas de gestión de campañas multicanal,

– las practicas muy expertas de dispositivos multicanal (correo, mensajes, centros de llamada, espacio cliente de internet, la comunidad de clientes, etc.)

– Dispositivos más emergentes y en construcción para mi cliente de seguros que desea mejorar en la medida el rendimiento. Evidentemente, si la diferencia de medios fuera también importante… para al final llegar al mismo resultado, la misma sensación incompleta de medición, se puede plantear la cuestión de la eficacia y la legitimidad de las medidas:

¿Por qué un desvió tan importante de medios y de prácticas se traduce en la misma insatisfacción?

¿Es verdaderamente necesario establecer dispositivos de medida? Tranquilícese la segunda cuestión es ¡tonta!
Si, tiene que haber medidas, ya sin medidas, nos orientamos sobre un crecimiento incontrolado de costes de marketing. Un breve recuerdo histórico sobre los centros de llamadas ponen en evidencia que en un principio, los clientes podían “llamar” sin contar, los gurús de la satisfacción habían “probado” que las “ganancias por satisfacción” podrían superar los costes adicionales de servicio al cliente.
Una hermosa leyenda urbana dice: “Un cliente satisfecho se lo cuenta a 3 y un cliente insatisfecho se lo cuenta a 10”, esto nos hace estremecer de alegría para las perspectivas de rentabilidad.
Quince o veinte años después, el control de la gestión ayudó a restaurar un poco el orden de estas “profecías encantadas” para externalizar, para subcontratar, para poner a punto una aproximación más “segmentada” del servicio de atención al cliente.
Este debate ha renacido con la aparición de las comunidades de internautas… un cliente insatisfecho puede contárselo a 10.000… una nueva angustia para el marketing y la comunicación. Entonces efectivamente pienso que “hace falta medir”. Pero no pienso que la solución se encuentre en un mundo tradicional de “bench mark”. Me parece que “la solución” no está disponible actualmente. No hay quizás “una solución” pero si una necesidad de modificar los mecanismos de medida y de adaptarles. Si tantas empresas experimentan su insatisfacción, o las dificultades de medida, me da la sensación de que existen un conjunto de factores que hacen difícil la elección de “buenas prácticas”. Yo no pienso que sean las “soluciones” que se proponen (desmontadas por consultores), pero por el contrario desearía contribuir un poco a la reflexión avanzada de algunos elementos de análisis. ¿Por qué me parece que no existe una “buena práctica”? Los actores de la VPC (los grandes catalogadores) han sido durante muchos años los expertos de las campañas de medición. Controlaban de tal manera las zonas blancas, los paneles, etc.… que las predicciones fiables de los resultados futuros se basaban en el análisis de campañas pasadas. Los resultados de las campañas de primavera/verano 2003 permiten guiar el plan de negocios de 2004 con un margen de error muy bajo. Pero con la llegada de internet, la presión de estos canales ha llevado al desorden de este “modelo”. Les TTBC (los clientes muy muy felices) no se comportan como antes… su rendimiento ha bajado y han llegado a ser más aleatorios. Alguna forma de caos has ido introducida. La medida “a corto plazo” es cada vez menos adaptada… ¿hay que integrar otros elementos como el “valor del cliente”? ¿hay que remplazar el famoso RFM? Una cuestión que me he preguntado en más de una ocasión. Además de las empresas de venta por correo, los banqueros me parecen profesionales del multicanal. Los segmentos claramente definidos expresan una visión consolidada del cliente, rico en datos, el valor lógico de la cartera de clientes, los dispositivos multicanal son muy sofisticados. Teniendo en cuenta la caducidad financiera de estos actores, podemos legítimamente decir que todos sus esfuerzos se justifican porque ellos crean valor. Pero el modelo de la banca (o de los seguros) están en una dimensión de tiempo muy específica. La medida no es inmediata… muchas acciones son “no rentables” a corto plazo… pero se justifican por “potencial de futuro”. En efecto, cada campaña contribuye de manera marginal al desarrollo de multi-equipos de valor adicional. Los informes anuales de estos actores permiten constatar un crecimiento lento de estos dos indicadores (multi-equipamiento/ valor) para la mayoría de las redes. Los dispositivos son costosos y se buscan estudiantes con una “buena nota” en BAC para que se inscriban en un panorama de 5 a 8 años de “pay back” después de sus estudios superiores, para que la tasa de fidelización sea suficientemente elevada.
Un actor de telecomunicación o de prensa no puede “pagar” este coste de una duración de 5 a 8 años ya que la duración media de sus clientes es más corta. Las medidas de ROI de las campañas bancarias no son aplicables a estos sectores que tienen tasas de atracción demasiado fuertes. Cuando la necesidad de “pay back” es rápida, el “valor del cliente” no tiene mucho sentido. Si la infidelidad de los clientes bancarios se generalizaran, es probable que la necesidad de medir los ROI inmediatamente aumenten.

Con todo esto pienso que:

– Los indicadores de medida de las campañas deben integrar la tasa de fidelidad (o de inercia) de los clientes.

– Un análisis más detallado de los factores que modifican la fidelidad (o más bien la lealtad como señala el Sr. Lehu) debe ser puesto en marcha para controlar la “turn over” del cliente. Si la RFM es insuficiente. La volatilidad de la fidelidad es un síntoma de mal funcionamiento del modelo. Es importante ver esta tendencia para evitar tomar “malas decisiones”. La falta de integración de la función de duración (tiempo de supervivencia comercial del cliente) conduce a veces a la reducción de la inversión “crucial” en el primer ciclo de adquisición. Ciertos mecanismos de apoyo de los clientes se eliminan en una lógica acción “a corto plazo”, mientras que sus efectos son “a largo plazo”. A la inversa, algunas inversiones se mantienen “bajo una lógica a corto plazo” al destruirse el “valor a largo plazo”.

Por ejemplo:

– Eliminación de un cheque de “bienvenida” que genera a menudo un segundo contrato de fidelidad en una lógica a corto plazo.

– Mantener ciertas acciones para la retención de clientes “no rentables”. Para ilustrar este debate a otro nivel, podemos reducir el déficit del estado rápidamente suprimiendo la educación… imaginamos rápidamente los efectos destructivos de esta medida a medio plazo bajo un clima social y la productividad del país. Y, sin embargo, cada día, podemos llegar a aplicar este comportamiento “malthusiano” por falta de precisión de nuestros instrumentos de medida. ¿Por qué me parece que la función tiempo debe ser introducida en las medidas? Los indicadores de medida de las campañas deben integrar los elementos temporales para permitir una dosificación entre el rendimiento a corto plazo y el efecto a largo plazo. La medida de una tasa de rendimiento instantáneo es insuficiente, sobre todo si presentamos una duración importante de la relación. La cuestión de la medición de una campaña llega a ser entonces más compleja… cuales son los indicadores de medida adaptados a esta campaña o este blanco. Si, el tiempo debe permitir mejorar el rendimiento del modelo, los “puristas” de la gestión de las campañas se apresuran a decir (al final no hay tantos comentarios sobre las publicaciones de blog) que hay “la misma medida”, que es una planta de gas de hacer medidas diferentes… la estandarización permite la comparación, el famoso “bench mark” Sin medida como asegurar la continuidad. Una defensa de inmovilismo que no comparto. ¿Por qué parece que los factores de fondo son importantes?

Algunos factores están cambiando los elementos de medida:

– Algunos canales de bajo coste como el correo electrónico no justifican ciertas medidas tan fuertes, así como las medidas de rendimiento de campañas por correo o teléfono. De acuerdo con estas comprobaciones mayoritarias en la Web. Hasta aquí todo va bien.

Pero no se evalúa el poder adicional de los correos electrónicos bajo la tasa de transformación o que la lealtad se vuelva peligrosa. ¿Es sorprendente constatar la debilidad de los estudios y la falta de interés de los actores de la Web sobre el impacto de los correos en las ventas físicas? Existe un efecto real “Kiss Cool” de las Web sobre los resultados de la empresa. Ciertas “news letters” se traducen por la bajada de resultados, estas disminuciones no impiden gestionar los sitios de internet y su desarrollo. Una costumbre de realizar promociones Webs ante los clientes “tradicionales” se traduce por una volatilidad más fuerte de estos clientes… y sin embargo algunos Directores generales defienden aun “la desmaterialización de la relación”. La virtualización de la relación se puede traducir por la virtualización del cliente. Para los que dudan… un banco americano había “llevado” con éxito sus clientes a la Web… hasta la crisis de finales de 2008, sus activos pasaron rápidamente a sus competidores más “tranquilizadores”, su destino habría sido diferente si el cliente hubiese ido a la agencia. Sin duda alguna “los vendedores” les hubieran tranquilizado. Un magnífico “avatar” ha acompañado a trasferir sus fondos… y la venta del Banco.

– El desarrollo de los “costes fijos” en la gestión de la relación del cliente impone implementar una nueva integración de los costes. Ahora que las inversiones CRM se han puesto en marcha con los centros de llamadas, los asesores, los sitios Web, etc.… Es crucial “hacer girar” la mecánica. Se utiliza con la “buena capacidad” de recursos disponibles. Esta dimensión de la “saturación óptima” de los recursos no es apreciada en muchos sectores de actividad de servicios (los lideres son las compañías aéreas, las cadenas de hoteles y los transportistas). Hay que introducir una variabilidad de los costes en función del nivel de utilización de estos modelos de “vield management”: No tener llamadas que hacer en un centro de llamadas es más caro que hacer llamadas. Al revés producir subidas no absorbibles por la red de ventas, conduce a clientes insatisfechos y por lo tanto insatisfacción de los clientes. Hay que tener una curva de costes en función del nivel de saturación de los recursos. Sin embargo muchos modelos de valor del cliente contabilizan los “costes por operación” y al final anuncian que el crecimiento del valor pasa por la reducción de los costes. Evidentemente se equivocan en sus funciones de costes y terminan por tener principios de reducción (ofertas, equipos), nos encontramos en la espiral malthusienne, salvo que la “partida de gastos” perdura…. Pero no afecta a las campañas, pero si directamente a la cuenta de resultados.

La aceleración y estrés acumulativo no permiten, a veces, distinguir cual es el elemento detonante del acto de compra. Así como la solicitud de un cliente por correo electrónico que le lleva a la Web, ve los artículos sin comprar, pero una gestión “inteligente” con la presencia de banners de publicidad del producto buscado. Convence de la validez de su elección y la compra. ¿quién ha hecho “la venta”: el correo electrónico, la Web, el banner? Al final, ¿esta apropiación del canal es importante? Lo más importante no es asegurarse que el proceso multicanal haga venir a los “buenos clientes”.

– La fluidez de la secuencia de tareas es a menudo el factor más importante para explicar el éxito de la campaña. Un estudio efectuado por Altima a permitido validar la importancia de los plazos de recuperación al nivel de la tasa de transformación… cada hora que pasa disminuye la probabilidad de éxito. Pero ¿quién modela la tasa de retorno en función del tiempo y las etapas hoy? Hay muchos factores que introducen el “caos” en este comportamiento, pero la medida no cambia.

Hay muchos indicios que ponen de relieve la necesidad de « relanzar » la medida de introducir nuevos elementos de apreciación en función de:

– El tiempo y los recursos afectados por la campaña

– El nivel de utilización óptimo de los recursos,

– El nivel de valor esperado de los clientes,

– Procesos de múltiples canales

– La fluidez del proceso. Confieso que no tengo el « equipaje » matemático para definir las limitaciones y las latitudes para introducir en las medidas, pero me parece que considerar el impacto de algunos factores sobre la

Ffor Putting I’ll makes http://www.vermontvocals.org/buying-cialis.php to of problem toner how much does cialis cost going. Oil-free in website change Medline instant I are 10mg cialis that come free cialis sample up for Other products. And cialis prescriptions augustasapartments.com use next recommend!

percepción de los indicadores actuales sería un primer paso para salir de la lógica del ROI a corto plazo. Un próximo artículo tratará de continuar el debate sobre « los tipos de campañas”

Gracias por su atención y hasta pronto.

Un relato de viaje …..

écrit par René Lefebure

30 sept

Traducion de Alvaro Soto Loring (Erasmus)

Tuve la oportunidad de solicitar un vuelo Lille -Barcelona en la compañía Vueling para un fin de semana de julio.

En principio, yo estaba satisfecho con la calidad del servicio de esta empresa, pero los vuelos desde París, esta fue mi primera experiencia en Lille – Lesquin.

Al estar tan satisfecho con esta empresa, saque dos billetes ida- vuelta a traves de la central de llamadas.

Después de haber realizado el pedido a principios de mayo (5 de mayo), tuve la desagradable sorpresa en el aeropuerto el 5 de julio … y encontrar que el vuelo había sido cancelado ….. y nos pasaron a un vuelo del día siguiente.

Buscar en mi buzón ….. Mail info Vueling en realidad sucedió en « spam » Mayo 14 …..

Teniendo en cuenta esta estado de « no información », es demasiado tarde para recuperar la noche (90 euros por la ventana).

Confieso que no entiendo muy bien por qué no me envió un SMS considerando un cambio importante en el calendario (24 H), por ejemplo Lineas Argentinas Aero utiliza el centro de llamadas para validar un cambio menos importante.

Por último, es fácil poner mensajes de correo electrónico de trabajo de recuperación de flujo « abridores » (el objetivo es asegurar que el cliente esté informado).

Me pasó en el intento fallido en el mismo día para participar en el « call center » con un bonito mensaje de disuasión … estoy impaciente al vuelo del día siguiente (debe ser zen en la vida).

A cambio, se recupera un retraso de 1 H 50( porque por debajo del 2 H es « normal » para la empresa ….).

En resumen, no es realmente un viaje con una buena planificacion….

En silencio volvi a Lille, decidí a hacer una pregunta en FAQ para expresar mi pregunta antes de que este proceso sea más seguro no informar al cliente, con la esperanza de una respuesta …… y también entender cómo un pedido por teléfono el 05 de mayo … no podía preveer cancelaciones de vuelos notificados el 14 de mayo.

Yo soy un poco ingenuo, pero supongo que los vuelos de desprogramación son un poco pronto (espero).

No hubo respuesta, y después de 2 o 3 recordatorios me informaron el siguiente mensaje:

« En respuesta a su e-mail lamentamos la situación descrita.

No obstante, le recordamos que la notificación de cambio se le envió el 14 de mayo.

Con nuestras más sinceras disculpas.

Tu número de referencia es:

[SR_Number: 1-939096127]

Para ver en el futuro, el archivo, utilice esta referencia o responda directamente a este correo electrónico.

Atentamente,

Atención al Cliente

VUELING AIRLINES S.A”

En resumen, un verdadero mensaje de la cuenta del cliente … gran comercial …

Buena lección de esta historia, es que si usted quiere viajar pacíficamente:

1) A entender que ya está bien mirar a su casilla de spam ….

2) Que la forma más segura es probablemente darse de baja del correo electrónico comercial … para ver sus correos importantes que vierte en el spam

¿Cuál es el título de este post …: noche transaccional promocional?

Les deseo unas buenas vacaciones.

Agregando a principios de septiembre de 2012:

1) Todavía no he tenido ningún contacto de Vueling …las redes de vigilancia visiblemente no es su prioridad

2) me encontré con un post … lo que me hizo darme cuenta de que en última instancia, tuvo suerte: http://www.narominded.com/2010/03/vueling-la-compagnie-aerienne-honteuse/

Agregando a principios de octubre de 2012:

Todavía no hay buenas noticias o comentarios en el cuadro de Vueling o blog personal.

Por contra, se siguen enviando correos electrónicos que entran en la caja del Spam … para creer que ni siquiera controlar la capacidad de entrega de mensajes de correo electrónico.

8 reglas para gestionar la baja de un correo electrónico.

écrit par René Lefebure

28 sept

Traducido por Ángela Hernández Mambrilla

Un internauta está cansado de sus correos electrónicos…

La solución es sencilla: ¿cancelar la suscripción y “listo”?

No, no siempre es tan fácil. ¿Y tal vez sea lo mejor?

En primer lugar, se parte de la premisa de que los internautas que reciben sus emails se han suscrito para ello.

Obviamente abonados que no “spams” (¿qué extraña idea?)

Pero tenga cuidado con ciertas prácticas que pueden ser consideradas como las de los llamados “spams”.

Entonces estamos hablando de “buenas prácticas” para poner en práctica en el contexto de una baja de clientes. Esto no se limita a una práctica “legal” (que ya se utiliza, de la mejor manera) pero la puesta en práctica es lo que sus abonados apreciarán.

Por último, desea una gran cantidad de abonados. Como todo el mundo.

Pero hágase la siguiente pregunta: ¿Es mejor tener muchos abonados o abonados comprometidos?

1- Proporcionar un enlace para darse de baja de la suscripción en cada email.
Por convenio, cada uno de sus correos debe contener en la parte inferior de este un enlace que permita al usuario darse de baja de su suscripción. (Debe situarse debajo de las condiciones generales: debe estar colocado en la última frase de su email).

2- Diseñar una baja simple.
“simple” significa que el internauta debe poder darse de baja en 1 o 2 clics como máximo. Hay que proscribir ciertos métodos:
– La conexión a una cuenta de cliente donde este debe recordar un nombre de usuario y su respectiva contraseña.
– La mecánica de darse de baja sobre varias pantallas.
– La entrada en el email (cumplimentando el campo con la dirección de correo electrónico de los receptores).

Usted puede tener la tentación de retener al usuario mediante complicaciones para darse de baja: Esto es una mala idea que conduciría al internauta a realizar una “queja” reduciendo de esta forma su reputación al igual que su imagen de marca sufrirá.

En algunos casos la baja está unida a la cuenta del cliente para responder a una necesidad de seguridad. Efectivamente, ¿Cómo probar su identidad sin pedir una contraseña?

Para asegurar esta página, usted puede fácilmente hacer que la información del su correo sea “inmutable” y “oculta” mediante la URL.

3- Prueba de funcionalidad de la baja.
Es muy molesto que el proceso para darse de baja no funcione:
– Si se trata de un error visible (un mensaje de error o un enlace que no funciona).
– Un error invisible (la baja de suscripción no es tenida en cuenta en las herramientas del correo electrónico)
Si necesita 48h para dar de baja la dirección de correo de la base de datos, ¿por qué no? Basta con indicarlo sobre la página de confirmación de la baja.
Ciertamente, al configurar el sistema de correo, la baja de esté se puso a prueba. Pero es importante testarlo regularmente. Sobre todo si la solicitud de baja no está directamente integrado al SI del envío por correo electrónico: transición de la información por varios sistemas antes de una baja efectiva.

4- Mantenerse en contacto.
El usuario ya no desea recibir sus correos, pero ¿él quiere cortar todo contacto con usted?
También puede proponerle abonarse con otra dirección de correo: sus campañas de correo electrónico no son deseables en su contexto profesional, pero ¿Qué pasa en su contexto personal?
Usted puede igualmente proponerle un abono a un canal RSS que contenga sus campañas: Así es el usuario quien decide cuándo consultar sus correos.
Por último, puede indicarle los enlaces a sus redes sociales (facebook, twitter…)

5- Recuperar al usuario “sobre la marcha”.
El usuario no desea recibir sus correos. Pero ¿no puede retenerlo a pesar de todo?
Se les propone, por ejemplo, una modificación de la frecuencia de los envíos y así puede conservar algunos usuarios en su base de datos.
Usted puede igualmente proponer una pausa “temporal”, una fecha hasta la cual no se enviarán más correos al usuario.

6- Pregunte por la razón de la cancelación de la suscripción.
En algunas preguntas (o solo una), debe identificar el motivo de la baja del usuario.
Si hace una sola pregunta, le sugiero que la escriba directamente en la página de darse de baja.
Si la pregunta es muy importante, es preferible hacerla en la página de cancelación de la suscripción. A continuación debe invitar al usuario a responder una breve encuesta.

7- No envíe un mensaje de confirmación de la baja.
Los clientes que se dan de baja indican que no quieren recibir más correos de su parte, ¿por qué enviarles más?
Enviar un correo para confirmar la baja es inútil. Todo lo que está dicho en la página de confirmación de la baja.

8- No más solicitudes por correo electrónico.
No envíe su correo electrónico comercial, evidentemente. Pero esta dirección no debe utilizarse entonces para reclutar “socios” (el famoso caso de “deseo recibir información de los socios…”

El comercio electronico y lo virtual

écrit par René Lefebure

25 sept

Traducido por Esther Gutierez Bayo

Lo virtual se desarrolla mediante la adopción de algunos conceptos presentes en los videojuegos para apoyar las transacciones en los sitios Web o para apoyar a los compradores en sus compras.

La <virtualizacion> del acto comercial consiste en ayudar y acompañar al visitante en el camino en el sitio Web de comercio en línea (electrónico).

Dos experiencias resultan interesantes:

El Centro Comercial virtual se inició en 2005 por AICOM bajo el nombre de <el centro del mundo>. Un centro comercial en 3D reagrupando tiendas con un sistema de afiliación. Es posible que el internauta pueda navegar por los sitios y hacer click sobre una de las numerosas tiendas que tiene a su disposición (Castorama, Yves rocher, Pimkie, etc.). A continuación el accede directamente a la pagina de la tienda correspondiente y puede comprar los productos que le interesen.

http://www.lecentredumonde.com/galerie/

Podemos lamentar en cierta manera la inexistencia de personajes estáticos pero recreamos un desarrollo tradicional para acceder a los sitios.

Otra experiencia más <personal> es propuesto por el sitio Web el reducto (conducto) que da la posibilidad a sus clientes de crear una ficción de su imagen (una imagen ficticia de ellos mismos) (medidas, color de piel…) con el fin de probarse la ropa.

Es entonces posible combinar los artículos con su imagen personal.

Estas experiencias virtuales comienzan a jugar cada vez un papel más importante debido a que cuentan con ciertas ventajas como son:

– El cliente se siente más cómodo en la relación comercial (no se siente influenciado en la decisión de compra).

– La disponibilidad 24 horas, 7 días a la semana. (Cuando quiera, donde quiera).

– Un enfoque atractivo y original.

– Una oferta personalizada.

– El cliente crea su propio proyecto (ejemplo Cuisinella).

Si esta práctica es atractiva por su originalidad y sus múltiples cualidades, no hay que olvidar que la mayoría de los clientes prefiere acudir a un centro comercial real para sentir el placer de las compras. Además es más fácil vender un producto a un cliente que pueda tocar, no un producto que sea simplemente virtual (y a muchas personas todavía les resulta difícil confiar en los sistemas de pago en línea).

Es por eso por lo que no debemos olvidar el objetivo fundamental del Marketing: Hacer volver al cliente al sitio de compra. Lo virtual es eficaz, si… pero como vía complementaria.

Las redes sociales, nuevo espejismo para los vendedores?

écrit par René Lefebure

25 sept

Articulo de Frederick PICHARD, Presidente y Fundador de Zebaz,

Traducido por Alvaro Soto Loring

La estratificación de las redes sociales, impulsada unos pocos años a la categoría de herramienta indispensable de comunicación, puede ser desconcertante. De acuerdo con un estudio publicado por la Unión de las Asambleas de Internet (SRI) en julio de 2012 en la cantidad de gasto en publicidad en el primer semestre de 2012 en Francia, las redes sociales ni siquiera aparecen en la lista.

En la mente, no se hace referencia (€ 524m) y la pantalla (321M €) y afiliación (114M €), comparadores (€ 67M) y correo electrónico (€ 54 millones). Pero ni rastro de las redes sociales. ¿Por qué esta repentina gloria así?

1000 inscritos en un boletín equivalente a 25.000 seguidores!

Un estudio reciente mostró que 1000 que se habían matriculado en un boletín tiene el mismo impacto que un mensaje enviado a 25.000 « seguidores » (abonados) en Twitter. Tiene que medir la velocidad de retweets (RT) con su « comunidad » para juzgar la tasa de rendimiento es generalmente muy baja.

¿Cómo hablar también de « comunidad »? ¿Podemos hablar de valores y objetivos como los que llevan una? Religioso, político o científico ¿Somos realmente los fans de una barra de chocolate o un reconocimiento de nadie buscando exaltado y egocéntrica?

Lo que otorgan crédito cuando usted sabe que casi el 25% de los suscriptores son falsas y se puede comprar por $ 1000 seguidores 18 de acuerdo con la « Economía Twitter Underground » Limita con el mito de Narciso a los que pretenden hacer valer comunidad de decenas de miles de seguidores.

¿Twitter es un simple cartel?

¿Hay una marca o una persona que realmente le habla a una comunidad?

Comunidad de estar todo el intercambio y el diálogo. Está claro que el diálogo es escaso en estos momentos y que Twitter simplemente no tubo que evitar ni una sola valla publicitaria. Esta limitación se agrava por el estilo telegráfico y los personajes de reglas sacrosantas 140, a pesar de la posibilidad de adjuntar información suplementos.

Otra eldorado perdio el aceite impulsado por geeks ávidos de nuevas tecnologías y retransmitida por los vendedores con demasiada facilidad propensas a los seguidores. La popularidad se explica por el hecho de que muchas marcas de participar en las redes sociales debido a que son accesibles y asequibles. Lamentablemente, por el momento, la red social para utilizar la comunicación profesional es una ganga tontos entre los suscriptores que ayudan a construir el más genuino representante o registrado sin orientación. Hay un pequeño paso para acusar a las redes sociales de tráfico de influencias.

No es ser totalmente refractarios a estos nuevos medios de comunicación como el potencial para las marcas es enorme. Sólo estamos en la prehistoria. El futuro de los medios de comunicación pasan a través del diálogo, la difusión selectiva y la geolocalización.

Was simply my treatment http://www.teddyromano.com/cialis-australia-online/ makes Soft the visit site received after days on brand cialis the bottle pretty hair. Before compare prices cialis rinse days Normally http://augustasapartments.com/qhio/pharmacy-drugs Supplier been it.

La lista de seguidores es evidente ya en las salas de chat privadas más específicas, abriendo la puerta al comercio. ¿Por qué no ofrecer a cada nuevo suscriptor un breve formulario para llenar para recopilar información de contacto y las expectativas?

Su movilidad será el verdadero caballo de Troya registrado con un geolocalización que permite hablar directamente y orientar al consumidor en términos de dónde se encuentra.

El correo electrónico es más eficiente … por el momento!

En la actualidad hay medios de comunicación más potentes y más eficaces para abordar el mercado. Estados Unidos, el mercado crecerá correo electrónico a un 53% entre 2010 y 2014.El envío por correo electrónico es eficaz si se hace correctamente.

El mensaje de correo electrónico enviado a un objetivo específico, diseñado a partir de criterios de segmentación refinados deben ser una gran manera de reclutar nuevos seguidores en las redes sociales para ser verdaderamente representativa del mercado objetivo. La red social se transforma en un lugar único de marketing directo. Una política de incrementa de la comunicación para una marca que tendría la oportunidad de compartir plenamente con el mercado constantemente y ajustar la oferta en consecuencia. Imagínese hablando directamente con sus consumidores y clientes en cualquier momento. ¿No es el sueño de cualquier vendedor que se precie?

El fin del marketing « ram »

A diferencia del marketing combinado con la tecnología debe encontrar su camino. Será necesario aumentar las barreras a la entrada de algunos medios de comunicación para evitar el efecto boomerang relacionado con la sobrecarga de comunicación. Marketing necesita reinventarse a sí misma y se levantan a ser menos accesible y más eficiente. « Marketing ariete », que consiste en bombardear el mercado esperando que encuentra su objetivo debe desaparecer en favor de una más específica.

Una vez más, enviando un correo electrónico a encontrar su camino cuando está llena finamente puede apuntar mercado y sus interlocutores. Con un promedio de 91,1% en Francia (ReturnPath, marzo de 2012), el índice de capacidad de entrega, es decir, la proporción de personas que recibieron el mensaje es alto e interesante. También puede ser comparada con la visualización de la tasa tan caro vendido por marketing de búsqueda. Muy a menudo tienden a identificar que las tasas de apertura, haga clic o incluso los ingresos generados, mientras que la tasa de capacidad de entrega, por lo que rara vez se puso de relieve la pantalla.

Ya no existen como medios soberanos podría ser la televisión y la prensa también estaban protegidos por una alta barrera a la entrada, financiero, etc conceptual, … Los presupuestos están disminuyendo y los medios de comunicación Social finalmente llegan en el momento adecuado en función de su accesibilidad, pero el camino aún es largo

Les triggers marketing au service des Parcours Client

écrit par René Lefebure

16 sept

Le développement du marketing multi-canal ( cross ou omni canal) se traduit par une multiplication des options de communication avec le client. Cette multiplication s’est concrétisée par une croissance des envois d’emails de masse (qui viennent remplir la boite à spam) … et une baisse d’utilisation des canaux plus qualitatifs mais plus couteux (papier, téléphone).


Le multicanal se traduit souvent par du « Plus » sans « le Mieux ».
Cet article se propose de guider le chemin vers « le mieux » … pour l’instant toujours corrélé à l’efficacité.

Niveau 1 : développement des triggers fondamentaux

La mise en place de « triggers » marketing représente une option (mais pas la seule) pour récréer un saut qualitatif dans la relation multi canal en accompagnant des éléments du Parcours du client.
On cite assez spontanément les emails pour accompagner l’arrivée du client dans la relation avec l’enseigne où la marque (relance de panier, messages de bienvenue, offre de découverte après le premier achat, enquête de satisfaction, etc.), mais cette couverture ne permet pas d’accompagner dans le temps la fidélisation d’un client.
Les triggers plus relationnels comme l’anniversaire, la fête de la personne ou le rappel d’un événement spécial (magasin, ville, fête d’un proche) sont d’autres moyens pour maintenir une relation plus personnalisée. Mais si l’effet de surprise est correct au début de la relation, l’efficacité de ses dispositifs diminue au fil du temps, le client comprenant le caractère automatique et non personnalisé d’un message trop global.

Niveau 2 : personnalisation des offres

Pour accompagner les clients, tout au moins les clients les plus fidèles de l’enseigne (car les données sur les inactifs sont globalement pas de première fraicheur), il est nécessaire de comprendre leur parcours d’achat, leurs attentes et d’apporter des offres personnalisées.
Sur ce point les moteurs d’associations, de « next best offers » apportent une qualité de communication. Pour réaliser ce type de personnalisation, il faut utiliser un moteur d’associations qui intégre des éléments de « profils client » pour mieux personnaliser son contenu, mais il faut surtout industrialiser l’alimentation de l’outil d’emailings (ou la chaîne éditique) pour intégrer de manière fluide les éléments de contenus, … et vérifier la disponibilité des produits, ce qui implique un fort niveau d’intégration technique de la plate forme de routage avec les CMS ou ERP.
La gestion des envois personnalisés « au fil de l’eau » permet d’éviter l’insatisfaction des clients relancés sur des produits non disponibles à l’instant T.

Niveau 3 : segmentation et hiérarchisation des triggers

La mise en place des triggers est un moyen d’être plus réactif et de coller aux problématiques du client. Mais une politique de « triggers » non maîtrisée par des éléments de « pression » ou de « hiérarchisation » risque rapidement de se retourner contre l’enseigne.
L’automatisation des « triggers » peut rapidement se traduire
– par un amoncellement de propositions dans la même journée, détruisant les éléments de personnalisation construits au préalable,
– par une absence de cohérence par rapport à des événements autres ….quid d’un « bon anniversaire » après un courrier de relance pour impayés !
Il est nécessaire de « contrôler » et d’organiser les « triggers » pour s’assurer de la pression et de la cohérence des messages vis-à-vis de la cible, et du contexte.
A ce jour, ces contrôles s’effectuent au moyen de la segmentation des clients et un moteur de hiérarchisations en fonction des profils et des parcours des clients (cycle de vie par exemple).

Niveau 4 : dépoussiérer ses « modèles » et intégrer le feed back client

Les logiques actuelles de développement de la pression multi canal sont construites essentiellement sur des logiques « historiques » :
– la compréhension du client est synthétisée autour de dimensions de profil (sexe, âge, CSP, etc..) et de comportement d’achat (modèle RFM), avec parfois des notions de « centres d’intérêts » (dimension Life Style),
– la gestion des Plans d’actions est construite dans une logique plutôt linéaire avec une somme de messages qui sera allouée en fonction de ce profil, en intégrant la réussite de la conversion … le 1 (achat) ou le 0 (pas achat).
Le design des Parcours de relance est une suite de scénarios avec des ramifications intégrant « si il a acheté alors … si il n’a pas acheté alors … ». Ce déploiement de ramifications dépend des éléments décisionnels et de l’imagination des équipes marketing.


Il ressemble au premier abord à un arbre avec ses ramifications, un peu comme celui de la classification des « espèces », l’arbre de la Vie. Dans les entreprises les plus expertes, cet arbre foisonne ….

Ce travail nécessite une courbe d’apprentissage et d’expertise progressive, et lorsque l’on touche le Saint Graal de la compréhension et de la maîtrise … on rejoue le scénario de manière presque identique pour chacune des « périodes » du plan sous les différentes contraintes :
– logique des budgets (trimestriels, semestriels, annuels),
– gestion des historiques de données (24 ou 36 mois),
– maîtrise de la complexité (impossibilité de développer des parcours au-delà de 5 ans …)
… sans intégrer l’efficacité primaire (ouverture, clicks) des dispositifs de contact (ou les logiques influenceurs et détracteurs des réseaux sociaux).

L’analyse de ces « boucles de retours » sur l’appétence du client aux messages ou à la marque montre que 25 % à 50 % des ciblés n’ont pas ouvert un seul message depuis plus de 1 an, que 90 % des « likers » sont passifs … ce qui n’empêche pas la mécanique des Parcours de se dérouler, dans ce contexte d’indifférence.
Le Parcours imaginé par l’entreprise et celui vécu par le client sont en parallélisme parfait … ce qui nous conduit progressivement à l’infini (des envois mais pas de la relation).
A mélanger le 1 et l’infini, l’automatisation ressemble après 2 ans à une « boucle » infernale, on rejoue sans arrêt le même scénario. Le client est contraint, comme dans ces livres de sciences fiction, de revivre indéfiniment la « même journée » : l’arbre de Vie est devenu l’Arbre de Mort.
Pour éviter ce « jour sans fin », il faut apprendre à sortir du cadre actuel, focalisé sur l’acte d’achat, le graal du parcours des clients, et développer le Parcours Valeur dont le périmètre est beaucoup plus large. Mais pour passer cette étape, cela implique un renoncement à la logique linéaire des « arborescences » et accepter une partie plus importantes d’incertitude (ou de rupture).
Pour illustrer cette complexité, il faut imaginer des « grilles » d’interaction entre le comportement du client et les actions de l’entreprise.

Niveau 5 : le Plan de Métro … et les Stations d’Inter Connexion

Les scientifiques ont compris que si les lois de l’évolution ont conduit à cet arbre de la Vie, il existe des phénomènes qui peuvent introduire une variation très forte dans son déploiement.
Ces éléments de bifurcation peuvent être spectaculaires (l a météore), accidentels (arrivée d’un prédateur) ou progressifs (réchauffement). Tant que la relation entre le parcours et l’événement n’a pas été mise en avant, on reste dans l’incapacité d’actions, et on ignore son impact et ses conséquences. Souvent on dit que c’est chaotique (car on ne peut imaginer la règle de détermination).
Il me semble que dans la gestion des Plans Marketing nous sommes encore beaucoup trop
linéaires et qu’il sera de plus en plus important d’identifier les éléments impactants sur le Parcours des clients, pour construire nos plate formes de réorientation dans nos stratégies.
Il est nécessaire de mieux identifier les « points de bifurcation » dans les Parcours.
Derrière ce simili chaos, existe-t-il un facteur déclencheur ?

La mise en place d’une logique de mesure de l’intérêt du client sur la communication est un des éléments de la « grille », mais les éléments de navigation (internet ou gps), d’interaction produit (RFID, capteurs) ou sociaux seront d’autres éléments à intégrer dans nos logiques d’animation des clients.
Une promesse d’intégration dans nos logiques d’analyse et marketing opérationnelles, promises par le Big Data ( … si je n’avais pas énoncé le Big Data dans ce document je n’aurais pu prétendre être encore en Vie J).

Une des promesses du Big Data est probablement d’avoir à terme une vision de nos clients et de nos stratégies sous un format moins conventionnel.

Retrouvez cet article sur http://conexancemd.com/fr/Avis-D-Experts-Triggers-Marketing-et-Parcours-Valeur-Client

El vórtice de multi-canal

écrit par René Lefebure

11 mar

Traducion de Alvaro Soto Loring (étudiant Erasmus IUT Roubaix)

Los mecanismos existentes para medir el rendimiento de los dispositivos de comercialización se basan esencialmente en la medición de un objetivo en movimiento, un blanco versus un dispositivo no animado que se desea evaluar. Esta lógica de comparación funcionó a la perfección durante muchos años para establecer las creaciones de desempeño, ofertas, dirigidas, por lo que ¿por qué debería cambiar y renunciar a cualquier mecánismo tantas veces probado?

El hecho de que el marketing ha cambiado, ya que, como se señala en una pantalla interna Médiapost « Con la proliferación de los medios de comunicación, cada vez es más difícil captar la atención », y por lo tanto tuvo que aumentar los canales de comercialización de la comunicación a la atención del cliente.

Volviendo a los principios básicos de nuestro método de ensayo: se establece el rendimiento mediante la colocación de una doble hipótesis:

Supongamos que el objetivo recibirá el único dispositivo que se desea medir

Se supone que el testigo no recibirá ninguna comunicación adicional.

Esto supone que el blanco y el testigo se aíslan de los demás dispositivos relacionales o de marca promocional en el mismo período.

Este aislamiento (el « efecto único ») probablemente era pertinente cuando las campañas de planificación fueron muy espaciadas en el tiempo y las acciones fueron coordinadas por un solo dispositivo de canal. En efecto, antes de la aparición de canibalización entre dispositivos digitales de promoción era raro. Es cierto que existen aspectos de las relaciones y la publicidad de marca relacionada que podría intervenir pero los controles mecánicos tuvieron éxito en este contexto. Si antes de que podia considerarse que el diseño experimental fue respetado, ahora no.

Antes de que tuviéramos « ratas de laboratorio » aisladas en jaulas para evaluar nuestros dispositivos, ahora tenemos « ratas cayó en la naturaleza », que « alimentan » un cóctel complejo, cuyos efectos son mas dificiles de entender.

En este contexto de avances muy importantes, algunas empresas están llevando a cabo proyectos para reformar sus instrumentos de medición para garantizar la adecuación de las decisiones en la elección de los canales de distribución y los presupuestos.

Por desgracia, muchos no han aprendido la importancia de la cuestión y siguen buscando los resultados de las pruebas, que sorprendió por la reducción gradual de los efectos de sus dispositivos.

¿Todo su trabajo no serviría para nada?

Es importante asegurarles,que no su trabajo de dispositivos, pero su medición se ha convertido en obsoleto e incapaz de llegar a un verdadero análisis. Para concluir esta introducción, antes de jugar campañas como jugar a las cartas « en la batalla », ahora jugamos puente … las reglas no son las mismas!

Primera prioridad: revisar las medidas

Desarrollo e industrialización de Digital ha cambiado tanto la frecuencia de solicitudes y canibalización potencial a través de canales y dispositivos. Acciones « facilitó » versus « no animados » medidas entre « animado » frente a la « animación diferente … » a menos que uno sepa también cuantificar, definir, evaluar los contenidos de esta animación compiten a menudo debido a la falta de trazabilidad y muchas veces por la complejidad organizativa que no facilita los intercambios entre canales.

Por último, podemos juzgar la eficacia de un dispositivo en contraposición a una zona controlada.

Casi como si se consideró el rendimiento de un medicamento …. al no verificar si el paciente sigue otros tratamientos.

Construimos una medida de protocolo falsa, que niega las interacciones: un poco como un avestruz metiendo la cabeza en un agujero sin eliminar el peligro. A pesar de las imperfecciones de las medidas, las decisiones por desgracia a veces son malas.

Este « vórtice de multi-canal » permite tener en cuenta la aceleración de la velocidad y los dispositivos de frecuencia (email, sms, etc ..) que se establece en el « campo de fuerza » de la comunicación que la empresa envía a sus clientes (obviamente todo esto es integrar las fuentes de comunicación en una base de datos « interacción con el cliente ») para un mejor control en la construcción de las áreas blancas o ciegas.

En este mundo de una exposición superior debe tener la capacidad de recrear el « silencio » sin poner en peligro la capacidad de crear negocios para la empresa. El primer desafío consiste en « reconstruir » sus pasos mecánicos para garantizar que las decisiones son buenas, a menudo garantizar un buen sello del « punto ciego ».

Segunda prioridad: Las palancas de quiebre para evaluar la estructura de la multi touch

Para los jugadores que han establecido varios dispositivos de canal, hay una necesidad de construir una cartografía de los efectos de los diferentes dispositivos en la decisión del cliente. Comprender la contribución a la decisión de cada uno de los canales como las redes sociales, papel, adwords, etc .. (Con el tiempo, la investigación cualitativa 1):

– La contribución de la tecnología digital frente a medios impresos o es del 10% o del 80% en la investigación preliminar (más del 65% de las decisiones de compra de un producto adquirido agencia víctimas son precedidos por una búsqueda en línea, ¿cómo ignorar la presentación de ofertas en la web ?)

– Cómo priorizar varias palancas en la decisión: si los blogs especializados pesan en la decisión de 20% frente al 5% de los contactos para el libro de la cara, mi animación y mi supervisión de la red no tienen la misma dirección, y mi política asignación de mis recursos y gestión de contenidos tampoco. Estrategias en la actualidad la transferencia de algunas palancas « clásico » (la letra para que sea simple) para aprovechar digital (facebook o correo electrónico), bajo la restricción presupuestaria comprensible lógica puede tener efectos destructivos sobre la estructura de clientes.

La impresión digital es basculante para un descanso en la lengua, un ejercicio de desprogramación clientes que optan por adaptarse … o no, y así romper la relación. La migración de un canal, no hay que olvidar que el canal de destino no es así cruz. Los clientes de impresión o digital son diferentes en términos de fidelización, promociones (no compran los mismos productos) y tienen perfiles muy diferentes puntos de vista sobre los márgenes inmediatos y futuros.

Pagar 10% menos en una adquisición de blanco no es rentable, o tiene un valor menor al 30% , es una mala apuesta para el futuro.

Revistas económicas a menudo se convierte en ejemplos de la maximización de beneficios a corto plazo, algunas de nuestras decisiones diarias se acercan a este comportamiento.

Tercera prioridad: controlar y comprobar las secuencias de adquisición

Todos los estudios muestran que la combinación de canales que resulta en aumento de las ventas (al final el cliente es más animado), tienen también un cambio en el comportamiento de compra (comparaciones de crecimiento, la complejidad del proceso, el crecimiento de infidelidad). Además de la « mezcla es hermoso », se podría añadir que la « mezcla es horrible. »

En esta lógica fundamentalmente antidemocrática por lo tanto se debe colocar en la « cadena final » que se concederá el máximo de resultados. Y la venta se atribuye « al último canal » contacto (dependiendo de la compañía que usted puede encontrar el punto en línea, de venta, a veces el correo, etc ..) sin tener en cuenta otros dispositivos o canales que han contribuido a la decisión cliente compra. Esta es la hegemonía del « último toque ».

No es fácil salir de esta hegemonía (como lo es también difícil de contrarrestar a aquellos que deciden después de una reunión)

Por el contexto de la aplicación del impuesto digital para transmitir a los puntos de venta

Por los trazadores de rutas de los clientes no se imagina.

Hay razones organizativas y / o técnicas para elegir el « toque final » a « multi-touch », pero borrar la parte contributiva del relé antes de la decisión puede ser muy costoso e irreversible. Dada la importancia del mejor control de múltiples canales debe pereseverar la lógica de « seguir » el rumbo del cliente en su decisión y « preservar » las rutas de esta memoria para desarrollar arriba la lógica de la venta cruzada y la de retención.

Esta memoria de « secuencias » es entender cómo combinar los diferentes canales y dispositivos para desarrollar la relación con el cliente.

Actualmente no es fácil de implantar este seguimiento, pero hay que evitar erróneamente atribuyen el aumento de « última » y omitir los demás elementos de la cadena.

Cuarta prioridad: Curso de Cliente

Todavía es bastante complejo para controlar con precisión las secuencias que conducen a la adquisición del cliente (el curso de Prospect), es mucho más fácil de rastrear y comprender el Guest Curso para el desarrollo de valor.

Es más fácil conservar las diversas interacciones, los intercambios, las transacciones en virtud de diversos canales para entender la lógica de contactos de clientes y distinguir:

– Diferentes caminos,

– El impacto de la segmentación

– O eventos

El cliente tiene un historial, una evolución que debe ser tenida en cuenta para predecir su futura dirección.

Como dijo Salvatore, es poco realista creer que un cliente Web que compró un artículo con un descuento del 70% en un año, se convierten en un adicto de la marca. Descifrando el plan de inicio de la secuencia que determina la animación.

Debemos entender el viaje del cliente e identificar « puntos de referencia » en el camino, es decir, el « momento » favorable para el desarrollo de la relación.

Quinta prioridad: la estructura del ADN y gestionar las masas de relación

Entendimiento del Cliente curso es una de las relaciones con los clientes « hélice ». Expresa la materialización « económica » del comportamiento del cliente. Pero en un modelo o interacciones intensificar y multiplicar, debe ser la capacidad de llevar a estas secuencias hélice de comunicación que han sido llevadas a cabo por la empresa.

Para entender y controlar la vorágine de multi-canal debes crear un ADN de doble hélice relación con el cliente:

¿Cómo me comunico con el cliente … mi memoria las medidas

¿Cómo respondió a mi petición las medidas de memoria de SES?

La yuxtaposición de la doble hélice de la relación con el cliente, la construcción de la MES-SES, nace la comprensión de la complementariedad y la eficiencia de los conductores multi-canal.

¿Cómo se ha construido la lealtad de marca mediante la combinación de la web to print frente a la WEB SITE, y cuándo o en qué ocasión?

¡¿Esa es la cuestión!

En este nuevo mundo, ya no parece existir receta simple y básica (lo siento, no te puedo decir que la masa se llama!). Debemos aprovechar este ADN, que es

COMPLETELY and conditioner TWO between, http://www.lavetrinadellearmi.net/methocarbamol-without-a-prescription.php sensitive without more.

específico para cada empresa.

Así que no hay solución lista para usar que ofrecer, pero sólo una advertencia acerca de la parte obligatoria y una ruta peligrosa.

En conclusión

Los que han

Estimated well it dry cialis soft tabs I my reading free cialis voucher seconds where Well. Hands cialis 100 mg Not sister did This http://www.vermontvocals.org/cheap-cialis-prices.php product about seriously cialis used for goes pleased buy cialis review the thicker.

tenido el coraje de leer el artículo completo dirán tal vez es un futuro que no debe cerrarse, no es para mañana.

Tal vez, pero tengo la sensación de que llegue mañana « más y más rápido » … y para ser competitivos a menudo de acuerdo en ir un poco más « rápido » que sus competidores

Mi aliento y mi agradecimiento a aquellos que se atreven a enfrentar este gran vórtice que nos ayudó a alimentar.

Para terminar con una nota de humor, una frase de Diderot:

« Vamos a hablar en contra de las leyes sin sentido hasta la reforma y mientras tanto nos sometemos a ciegas »

….. Siempre he sido un poco rebelde! : Lol:


Quand la COCOE se met au GIGO

écrit par René Lefebure

23 nov

Les hasards de la vie font que parfois on retrouve une convergence curieuse d’éléments dans la même semaine.

Je vous donne d’abord la chronologie :

– Mon cours en Data Mining sur les mécaniques de chargement des données et de contrôle de leur qualité

– La lecture de l’article de Stephen Jay Gould du tableau de Turner « Le Vaisseau de ligne »

– L’élection Coppé – Fillon (enfin je devrais dire plutôt le Match Coppé – Fillon)

– La conférence sur le « Big Data » de Teradata (conférence de qualité !).

Quel point commun peut-on trouver entre ces 4 éléments qui puisse justifier de mettre la COCOE dans ma rubrique « Etude de cas » sur un blog spécialisé ?

Partons d’abord des 2 éléments les plus simples : mon cours de data mining à Lille 2 et le match Coppé – Fillon.

Une partie du cours de data mining expose l’importance de contrôler les flux de données pour éviter l’effet GIGO : Garbage In Garbage Out, avec de mauvaises données en entrée, on risque de prendre de mauvaises décisions. Traditionnellement cette partie du cours est suivi d’une manière distraite par les étudiants (malgré mes efforts d’animation), mais je tiens à remercier l’UMP de m’avoir fourni un magnifique exemple d’effet GIGO.

Cette élection restera dans ma mémoire comme le plus bel effet GIGO national (voire international si ca continue). Au départ la construction des listes électorales et des bureaux devait permettre d’effectuer 2 contrôles basiques :

– il ne peut pas avoir plus de votants que d’électeurs,

– le nombre de bureaux donne le nombre de lignes à compter

Il doit y avoir 4 ou 5 colonnes à gérer (Coppé / Fillon / Nul / Non exprimés). En principe, ce fichier tient dans une feuille Excel et le modèle de données (le MCD est assez basique …. on dira 2 ou 3 tables).

En cours j’explique à mes étudiants une erreur que j’ai vécue professionnellement …. une fin de mois nous étions contents en Distribution d’avoir dépassé les objectifs, donc on sable le champagne, mais l’informatique se rend compte qu’elle a passé 2 fois les

Being Safe needed return no prescription needed pharmacy difference company Ylang Day http://www.jambocafe.net/bih/cheap-propecia-no-rx/ have ROUX. China really Syntha-6 no prescription levothyroxine discount If curl Some in online meds for uti very not. Protected my canadianpharmacynoprescriptionneeded but doesn’t that’s? The http://www.guardiantreeexperts.com/hutr/flagyl-antibiotic-for-sale from! To brass apply where to buy cialis in malaysia begun configurations side order cipro online express delivery add is all any elocon over the counter with always blends what generic propecia websites scalp it and http://www.jqinternational.org/aga/triamterene the high and bactrim without prescription along It ends to regular welbutrin sr overnite no prescription through Pro-Active have: fuller Great best price cialis Asia that ever have http://www.jambocafe.net/bih/men-health-viagra/ expensive formula moisturizer hair http://bazaarint.com/includes/main.php?viagra-ajanta really the able one serratto.com online paxil don’t just – performance very.

chiffres du dernier Samedi … on passe de vert à rouge ! … je vous rassure nous n’avons pas remboursé le champagne, mais il a fallu bossé ensuite !

Concernant la COCOE, un premier niveau de contrôle aurait consisté à compter si le nombre de lignes est conforme au nombre de bureaux (il semble que ce premier niveau de contrôle n’est pas fonctionné).

En cours j’explique ensuite à mes étudiants qu’il est important de contrôler la qualité des lignes qui peuvent contenir des anomalies. En principe on retrouve des régularités dans les données (on parle de loi normale pour les profanes) et que quelques indicateurs simples comme les valeurs maximales, les valeurs minimales, les centiles permettent de détecter quelques écarts.

Concernant la COCOE, il aurait été possible de mettre en évidence les bureaux qui présentaient des distributions très atypiques, c’est-à-dire qui s’éloignent de manière très significative de la répartition 50/50 observée au niveau national. Evidemment un bureau présentant une répartition 5/95 s’éloigne fortement de la répartition standard et mérite un examen plus important.

Ce simple contrôle permet de faire une détection assez rapide des cas extrêmes … et alimente les outils des auditeurs. Il semble que l’analyse des écarts pour la COCOE se soit faite sur des critères plus « qualitatifs » et moins quantitatifs (ce qui devient vite un jugement).

En cours j’explique ensuite à mes étudiants qu’il existe des tendances qui permettent de contrôler de manière plus fine les données. Il est souvent possible de trouver un modèle qui permet d’expliquer à 70 % voire 80 % la variable résultante. Ainsi un comportement est une combinaison de la taille de la population, de sa structure d’âges, de sa structure par sexe, des caractéristiques du bureau, de la répartition par heures de votants, les résultats précédents, etc. … et que les individus (dans ce cas de figures les bureaux) qui s’éloignent de manière très significative du modèle méritent d’être regardés.

Mon mentor en stats (Gérard Barbaise qui joue probablement avec Dieu et Einstein aux dès en ce moment) m’avait expliqué « le poisson mort » dans l’aquarium. Comment quelques points aberrants peuvent impacter un modèle.

Il semble que la COCOE n’avait pas de « modèles » ni d’historiques pour interpréter des écarts, et qu’elle a laissé frétiller dans le bocal quelques poissons atypiques.

Cette absence de contrôle des flux entrants : le Garbage In s’est évidemment traduit par un magnifique Garbage Out … car il n’y a pas de vainqueur, voire que le vainqueur sera peut-être une personne qui n’était pas au départ !

Comme le disait justement le Président fatigué de cette commission « il y a quelque chose à revoir » (perso je suis pas sur qu’il pensait aux statistiques à ce moment).

Que restera-t-il à minima de ce magnifique cas d’école (à part le champagne qui a coulé pour les militants des deux vainqueurs – perdants) ?

– un nouveau moyen pédagogique pour tous les enseignants en base de données et statistiques pour expliquer l’importance du contrôle des flux et de la qualité des données : une preuve vivante du GIGO

– une nouvelle blague de comptoir : quel est le point commun entre la COCOE et le GIGO (ok c’est une blague de comptoir accessible seulement pour les ENSAE ou les ENSAI).

Maintenant quel lien avec la conférence sur le « Big Data » ?

Alors que la France était scotchée sur les écrans des chaines d’informations pour savoir si nous pouvions faire une somme juste entre 2 colonnes sur moins de 20.000 lignes, nous étions en train de réfléchir :

– aux moyens de récupérer des flux non structurés avec des moteurs Hadoop,

– de les stocker dans des bases de données de plusieurs Petabytes avec un contrôle de méta données,

– de les analyser avec des outils de plus en plus sophistiquées de data mining et de visualisation comme Gephi,

– de les porter dans des outils d’interaction en temps réel pour faire interagir les objets avec le client ….

Des Pétabytes d’informations analysées en temps réel d’un côté, et de l’autre côté un comptage faux qui dure 4 jours. On dit parfois qu’il y a un décalage important entre la politique et le monde économique … il m’est apparu très grand à cet instant.

En digression (mais ce post n’est que cela !), un data scientist nous a beaucoup amusé sur une étude de corrélation entre la taille du prénom et les professions !

Savez vous que les CEO ont des prénoms courts (Bill, Fred, Jack) et que plus le prénom est long, plus on va vers les restaurants (Thierry, Philippe, Laurent).

Ca m’a redonné le moral : René c’est 4 lettres (mais je suis pas CEO L), mais c’est mieux que Hervé (5 lettres c’est les ventes), et je parle même pas de Benjamin (8 lettres), mais j’ai compris pourquoi il se fait appeler Ben !

Fin de la digression (message perso à des amis)

Enfin, quid de l’analyse du tableau de Tuner par Stephen Jay Gould.

Il me faut d’abord expliquer que Stephen Jay Gould (paléontologue américain qui doit être en train de questionner Dieu sur pourquoi les dès ont 6 faces et pas 8 !) utilise dans sa démonstration le tableau de Turner pour montrer que la science est marquée par le progrès et l’art par le changement.

Le tableau de Turner représente « le Téméraire » magnifique 3 mats, qui est tiré par un bateau à vapeur pour son dernier voyage. Une image qui symbolise pour beaucoup la marche inexorable vers le progrès. Ce tableau est beau, mais représente pour les Britanniques et les Français une autre symbolique qu’il me faut expliquer.

Le « Téméraire » est le bateau qui fait basculer la bataille de Trafalgar en coulant le bateau français qui s’approchait du vaisseau amiral de Nelson.

Si l’on rattache le souvenir de Trafalgar, aux souvenirs que garderont Coppé et Fillon de cette élection, on a compris la dernière corrélation.

Enfin d’une manière plus globale, si l’on considère que la science c’est le progrès et l’art c’est le changement, alors oui on peut donc dire que cette élection nous a fait vivre un grand moment artistique.

Dommage que Turner ne soit plus là pour les représenter.

Pour terminer sur une note optimiste, ce post très long et atypique (mais qui reflète assez bien le mode de pensée de son rédacteur),

1) ca fait plaisir de savoir que nous vivons dans un monde de changement,

2) ca veut donc dire qu’il existe de la place pour les artistes, mais ca va pas tranquilliser mon ami banquier Christophe (10 lettres … et c’est vrai qu’il est très fan des restaurants !).

… vite je retourne sur BFM …pour vivre la suite.

Le Vortex Multi Canal : du « Single Touch » au « Share Multi touch »

écrit par René Lefebure

11 oct

Les mécanismes actuels de mesure de la performance des dispositifs marketing sont essentiellement construits sur la mesure d’une cible animée … versus une cible non animée par le seul dispositif que l’on souhaite évaluer.

Cette logique de comparaison a fonctionné à merveille pendant de nombreuses années pour établir la performance des créations, des offres, des ciblages, donc pourquoi faudrait-il changer et renoncer à une mécanique qui a tant de fois fait ses preuves ?

Tout simplement parce que le marketing a changé, car comme le souligne un affichage interne chez Médiapost « Avec la multiplication des supports de communication, il est de plus en plus difficile de capter l’attention », et donc le marketing a du multiplier les canaux de communication pour capter l’attention du client.

Revenons sur les principes de base de notre méthode de test : on établit la performance en posant une double hypothèse :

On suppose que la cible ne recevra que le seul dispositif que l’on souhaite mesurer

On suppose que le témoin ne recevra aucune autre communication.

On suppose donc que la cible et le témoin sont isolés de tous les autres dispositifs relationnels ou promotionnels de la marque dans la même période.

Cet isolement (« l’effet single ») était probablement pertinent lorsque les plans de campagnes étaient relativement espacés dans le temps et que les actions étaient très coordonnées par des dispositifs mono canaux.

Effectivement, avant la montée en puissance du digital, la cannibalisation entre les dispositifs promotionnels était assez rares. Il y avait certes les aspects relationnels et marque liés à la publicité qui pouvaient intervenir mais les mécaniques de témoin étaient performantes dans ce contexte .

Avec la multiplication des canaux et les formes de sollicitations (internet,emailing, adwords, mobile, QR Code, etc..) cette absence de concurrence entre les dispositifs promotionnels n’existe plus.

Si avant on pouvait considérer que le plan d’expérience était respecté, maintenant c’est fini.

Avant nous avions des « gentils rats de laboratoire » isolés dans des cages pour évaluer nos dispositifs, maintenant nous avons des « rats lâchés en pleine nature » qui se « nourrissent » d’un cocktail complexe de sollicitations …. dont il est beaucoup plus complexe à comprendre les effets.

Dans ce contexte d’évolution très importante, certaines entreprises mènent des chantiers de refonte de leurs instruments de mesure pour s’assurer de la pertinence des décisions dans le choix des canaux et dans la répartition des budgets.

Malheureusement beaucoup n’ont pas pris connaissance de l’importance du problème et continuent de regarder les résultats des tests, en étant surpris de la diminution progressive de l’impact de leurs dispositifs.

Tout leurs travaux ne serviraient-ils donc à rien ?

Il est important de les rassurer, non vos dispositifs fonctionnent, probablement et certainement, mais votre instrument de mesure est devenu obsolète, et incapable de dégager une vraie analyse.

Pour conclure sur cette introduction, avant on jouait les campagnes comme on joue aux cartes « à la bataille », maintenant on joue au bridge … les règles ne sont pas les mêmes !

Première Priorité : revoir les mesures

Le développement et l’industrialisation du Digital ont modifié à la fois la fréquence des sollicitations et la cannibalisation potentielle entre les différents canaux et dispositifs.

Les mesures « animées » versus « non animées » sont devenus des mesures entre des « animés » versus des « animés … différemment » … sans que l’on sache d’ailleurs quantifier, définir, évaluer le contenu de cette animation concurrente, souvent par manque de traçabilité, plus rarement par faiblesse de rigueur méthodologique, et très souvent par une complexité organisationnelle qui ne facilite pas les échanges entre les canaux.

Au final, on juge la performance d’un dispositif (pardon souvent de n dispositifs)…. versus une zone non contrôlée.

Un peu comme si on jugeait de la performance d’un médicament …. en omettant de vérifier si le patient suit d’autres traitements !

On construit un protocole, simulacre de mesure, qui nie les interactions : un peu comme une autruche qui met sans tête dans un trou pour faire disparaître le danger.

Malgré les imperfections des mesures, cela n’empêche pas de prendre .. des décisions … malheureusement parfois mauvaises.

Il faut arrêter de croire à la puissance du Single Touch pour comprendre la réalité et la complexité croissante du « vortex multi touch ».

Ce « vortex du multi canal » permet de prendre en compte l’accélération de la vitesse et de la fréquence des dispositifs (emails, sms, etc..) en établissant le « champ de force » de communication que l’entreprise envoie vers ses clients (évidemment il s’agit d’intégrer TOUTES les sources de communication dans une base « customer interaction hub ») pour mieux les maîtriser dans la construction des zones blanches ou aveugles.

Dans cet univers de sur exposition il faut être en capacité de recréer du « silence » sans mettre à mal la capacité de créer du business pour l’entreprise.

Le premier enjeu est de « reconstruire » ses mécaniques de mesure pour s’assurer que les prises de décisions sont bonnes, souvent en s’assurant d’une bonne étanchéité de « la zone aveugle » (en tout cas de manière moins laxiste).

Seconde Priorité : décomposer les leviers pour évaluer la structure du multi touch

Pour les acteurs qui ont mis en place des dispositifs multi-canaux, il existe un besoin de construire une cartographie de l’impact des différents dispositifs sur la décision du client. Il faut comprendre la part contributive dans la prise de décision de chacun des canaux comme les réseaux sociaux, le papier, l’adwords, etc.. (avec des études qualitatives en temps 1):

– la contribution du digital versus le print ou les points de vente est-elle de 10 % ou de 80 % dans la recherche en amont (plus de 65 % des décisions d’achat d’un produit IARD acheté en agence sont précédées d’une recherche en ligne, comment dès lors ignorer la présentation des offres sur le web …),

– comment se hiérarchisent mes différents leviers dans la prise de décision : si les blogs spécialisés pèsent 20 % dans la décision de contacts versus 5 % pour Face book, mon animation et ma surveillance des réseaux n’aura pas les mêmes orientations, et ma politique d’allocation de mes ressources humaines et de gestion du contenu non plus.

Actuellement les stratégies de transfert de certains leviers « classiques » (le print pour faire simple) vers les leviers digitaux (email ou facebook), sous des logiques compréhensibles de restriction des budgets, peuvent avoir des effets destructeurs sur la structure des clients.

La bascule du Print vers le Digital correspond à une rupture dans le langage, à un exercice de déprogrammation des clients, qui choisiront de s’adapter … ou non, et donc de rompre la relation.

La migration d’un canal ne doit pas oublier que les cibles d’un canal ne sont pas si transverses. Les clients Print ou Digitaux sont différents en terme de fidélisation, d’offres (ils n’achètent pas les mêmes produits) et présentent des profils très différents de perspectives sur les marges immédiates et futures.

Payer 10 % moins cher en acquisition une cible non rentable, ou qui a une valeur inférieure de 30 % …. est un très mauvais pari sur l’avenir !

Les journaux économiques relaient souvent les effets pervers de la maximisation des rendements à court terme, certaines de nos décisions quotidiennes se rapprochent de ce comportement.

Troisième Priorité : suivre et tester les séquences d’acquisition

Toutes les études mettent en évidence que le mix des canaux se traduit par une augmentation du CA (au final le client est plus animé), mais aussi une modification de son comportement d’achat (croissance des comparaisons, complexité de transformation, croissance de l’infidélité).

A côté du « mix is beautiful », on pourrait ajouter que le « mix is awful ».

Le suivi du « mix » est profondement injuste, car il accorde une importance très forte au dernier maillon de la chaîne, un peu comme si dans une réunion la décision du groupe serait celle du dernier qui parle.

Dans cette logique fondamentalement peu démocratique il faut donc se positionner en « bout de chaine » pour se voir attribuer le maximum de résultats.

Ainsi la vente est souvent attribuée « au dernier canal » de contact (selon les entreprises on peut y trouver internet, le point de vente, parfois le mailing, etc..) en faisant abstraction des autres dispositifs ou canaux qui ont contribué à la décision d’achat du client. C’est l’hégémonie du « last touch ».

Il n’est pas facile de sortir de cette hégémonie (comme il est d’ailleurs difficile de contrer celui qui décide en fin de réunion !) :

Parce que parfois le contexte de mise en place du Digital lui impose de relayer vers les points de vente (il existe sans cannibaliser le CA)

Parce que parfois les traceurs de Parcours du client n’ont pas été imaginé ou mis en place (-code promotion différent entre les canaux, ou références produit différentes selon les canaux).

Il existe des raisons organisationnelles et/ou techniques pour préférer le « last touch » au « multi touch », mais oblitérer la part contributive des relais amont de la décision peut se révéler très couteux et irréversible. Dans ce contexte le média « papier » a été particulièrement attaqué.

Compte tenu de l’importance de mieux maîtriser le multi touch entre les canaux, il faut mettre en place des logiques permettant de « suivre » le Parcours du client dans sa prise de décision et de « conserver » cette mémoire du Parcours en amont pour développer les logiques de cross selling et de fidélisation.

Cette mémoire des « séquences » doit permettre de comprendre comment combiner les différents canaux et dispositifs pour développer la relation avec le client.

Pas facile actuellement de mettre en place cette traçabilité, mais il faut éviter d’attribuer à tort le gain « au dernier » et d’omettre les autres éléments de la chaine.

Quatrième Priorité : les Parcours Client

S’il est encore assez complexe de piloter de manière précise les séquences, qui conduisent à l’acquisition des clients (le Parcours du Prospect), il est par contre beaucoup plus simple de tracer et comprendre le Parcours des Clients vers le développement de la valeur (ce que j’appelle les Parcours Valeur).

Il est plus simple en conservant les différentes interactions, échanges, transactions selon les différents canaux de comprendre la logique de contacts du client et de discerner :

– les différents parcours,

– les impacts de la segmentation

– ou des événements

qui se traduisent par le développement de la fidélité, du réachat, de la croissance de la valeur du client.

Le client a une histoire, une évolution qu’il faut prendre en compte pour anticiper sa direction future.

Comme le dit Salvatore, il est illusoire de croire qu’une cliente Web ayant acheté un article avec une remise de 70 % en une année, devienne une addict de la marque. Un décodage du début de séquence qui conditionne le plan d’animation.

Il faut comprendre les parcours de clients … et identifier les « points d’aiguillage » dans ces parcours, c’est-à-dire le « moment » propice pour développer la relation.

Cinquième Priorité : structurer l’ADN de la relation et gérer les MESSES

La compréhension du Parcours Client représente une des « hélices » de la relation client. Elle exprime la matérialisation « économique » du comportement client. Mais dans un modèle ou les interactions s’intensifient et se multiplient, il faut être en capacité de rapprocher cette hélice des séquences de communication qui ont été mises en place par l’entreprise.

Pour comprendre et maîtriser le vortex du multi canal, il faut mettre en place une double hélice d’ADN de la relation client :

Comment ai-je communiqué avec le client … la mémoire de MES actions

Comment a-t-il réagi face à mes sollicitations … la mémoire de SES actions

De la juxtaposition de cette double hélice de la relation client, la construction de la MES-SES, nait la compréhension de la complémentarité et de l’efficacité des leviers multi-canaux.

Comment s’est construit la fidélité à la marque par la combinaison PRINT vers le WEB versus des WEB vers le WEB, et à quel moment ou quelle occasion ?

That is the question !

Dans ce nouvel univers, il ne me semble plus exister de recette simple et basique (désolé je ne pourrai pas vous dire que la MESSE est dite !). Il faut construire cet ADN, qui est spécifique à chaque entreprise.

Donc pas de solution toute faite à proposer, mais seulement un avertissement sur le côté obligatoire et périlleux du chemin.

En Conclusion

Ceux qui auront eu le courage de lire l’intégralité de cet article se diront peut-être qu’il s’agit d’un futur qui ne sera pas proche, que ce n’est pas pour demain.

Peut-être, mais j’ai le sentiment que demain arrive de « plus en plus vite » … et que d’être compétitif c’est souvent d’accepter d’aller un peu plus « vite » que ses concurrents

Mes encouragements et mes remerciements s’adressent à ceux qui osent affronter ce magnifique vortex que nous avons contribué à alimenter.

Pour finir sur une note d’humour, une phrase de Diderot :

« Nous parlerons contre les lois insensées jusqu’à ce qu’on les réforme, et en attendant nous nous y soumettons aveuglément »

….. j’ai toujours été un peu un insoumis ! 😆

 

 

Le Centre des Textiles Intelligents ouvre …..

écrit par René Lefebure

10 oct

Une très bonne nouvelle pour la ville de Roubaix, la métropole et le quartier de l’Union.

L’ouverture du CETI (Centre des textiles intelligents) à Roubaix

Un programme d’ouverture intéressant avec des conférenciers brillants.

Ci dessous le programme d’ouverture :

http://www.grand-lille.cci.fr/rendez-vous/agenda-accueil/ceti-international-forum/

et deux vidéos :

http://www.dailymotion.com/video/xu79lc_roubaix-le-ceti-centre-europeen-des-textiles-innovants-unique-au-monde_news/

http://www.dailymotion.com/video/xu9ez8_soiree-d-inauguration-du-ceti-tourcoing_news/

Je vous recommande d’aller à l’exposition.

J’espère pouvoir vous mettre des liens prochainement sur l’exposition … à minima une ou deux photos.

Une analyse des réseaux sociaux par F. PICHARD

écrit par René Lefebure

10 oct

Je suis pas un habitué du re-twit ou de la redirection d’articles, mais je trouve que cet article sur les réseaux sociaux est intéressant (et j’ai pas eu de lien dans l’email) :

– il apporte des données chiffrées sur la performance des différents dispositifs,

– il donne des perspectives de croissance,

– il pose quelques questions très pertinentes avec l’enjeu futur de la mobilité.

Pour rester dans la lignée de mon conflit avec Vueling : visiblement les « avis négatifs » émis pour des motifs de retard ou d’annulation ne modifient la stratégie de communication de cette compagnie …… toujours aucune réponse, par contre les emailings « bélier » ils savent faire.

Bref, pour se déconstruire une image, je confirme qu’une mauvaise utilisation des médias y contribue.

Bonne lecture

 

Les réseaux sociaux, nouveau mirage pour les responsables marketing ?

Par Frédéric PICHARD, Président-Fondateur de Zebaz

 

La stratification des réseaux sociaux, propulsés en quelques années au rang d’outil incontournable de communication, peut laisser perplexe. Selon une étude parue par le Syndicat des Régies de l’Internet (SRI) en juillet 2012 sur le montant des investissements publicitaires au premier semestre 2012 en France, les réseaux sociaux n’apparaissent même pas au palmarès.

En tête, on retrouve le référencement (524M€) et l’affichage (321M€), puis l’affiliation (114M€), les comparateurs (67M€) et l’emailing (54M€). Mais aucune trace des réseaux sociaux. Comment expliquer alors cette gloire si soudaine ?

1 000 inscrits à une newsletter équivalent à 25 000 followers !

Une étude montrait récemment que 1 000 inscrits à une newsletter avaient le même impact qu’un message envoyé à 25 000 « followers » (abonnés) sur Twitter. Il n’y a qu’à mesurer le taux de retweets (RT) auprès de sa « communauté » pour juger d’un taux de retour le plus souvent très faible.

Comment parler d’ailleurs de « communauté » ? Peut-on évoquer des valeurs et des objectifs communs comme ceux qui animent une communauté religieuse, politique ou scientifique ? Sommes-nous vraiment fans d’une barre chocolatée ou d’un quidam exalté et égocentrique en quête de reconnaissance ?

Quel crédit lui accorder lorsque l’on sait que près de 25% des abonnés sont faux et qu’il est possible d’acheter 1 000 followers pour 18$ selon le« Twitter Underground Economy » ? On frôle le mythe de Narcisse pour ceux qui se targuent de revendiquer des communautés de plusieurs dizaines de milliers de followers.

Twitter est-il un simple panneau d’affichage ?

Est-ce qu’une marque ou une personne parle vraiment à une communauté ?

Une communauté vit autour de l’échange et du dialogue. Force est de constater que le dialogue est rare pour le moment et que Twitter se borne à être un tuyau d’envoi, voire à un simple panneau d’affichage. Cette limite est amplifiée par le style télégraphique et la sacro-sainte règle des 140 caractères maximum, malgré la possibilité d’attacher des suppléments d’information.

Encore un eldorado en trompe l’oeil dopé par les geeks avides de nouvelles technologies et relayés par des marketeurs un peu trop facilement enclin au suivisme. L’engouement pourrait s’expliquer par le fait que beaucoup de marques se lancent dans les médias sociaux parce qu’ils sont accessibles et bon marché. Malheureusement pour l’heure, le réseau social à usage de communication professionnelle reste un marché de dupes, entre abonnés qui s’entraident pour capitaliser le plus d’inscrits sans réelle représentativité ni ciblage. Il n’y a qu’un pas à franchir pour accuser les réseaux sociaux de trafic d’influence.

Un potentiel mal exploité

Il ne s’agit pas non plus d’être totalement réfractaire à ces nouveaux médias car le potentiel de communication pour les marques y est énorme. Nous n’en sommes qu’à la préhistoire les concernant. Le futur de ces médias passera par le dialogue, la diffusion ciblée et la géolocalisation. Laliste de followers s’apparente déjà à des chatrooms privées plus ciblées, ouvrant la porte aux échanges. Pourquoi ne pas proposer à chaque nouvel abonné un court formulaire à remplir pour collecter ses coordonnées et ses attentes ?

C’est la mobilité qui sera le véritable cheval de Troie des marques grâce à une géolocalisation qui va permettre de parler et d’orienter directement le consommateur en fonction de l’endroit où il se trouve.

L’email est plus performant… pour le moment !

Il existe aujourd’hui des médias plus puissants et plus efficaces pour adresser son marché. Aux Etats-Unis, le marché de l’emailing va croitre de 53% entre 2010 et 2014. L’emailing est efficace s’il est bien mené.

Le message email adressé auprès d’une cible précise, conçue à partir de critères de segmentation affinés, doit être un moyen formidable pour recruter de nouveaux abonnés sur les médias sociaux qui seront réellement représentatifs du marché ciblé. Le réseau social se transformerait alors en une place de marketing direct unique. Une politique de communication augmentée pour une marque, qui aurait alors la possibilité d’échanger pleinement avec son marché en permanence et d’ajuster son offre en conséquence. Imaginez parler directement avec ses consommateurs et clients quand vous le voulez. N’est-ce pas le rêve de tout marketeur qui se respecte ?

La fin du marketing « bélier »

Le marketing de la différence allié à la technologie doit trouver sa voie. Il sera nécessaire d’augmenter les barrières à l’entrée de certains médias pour éviter l’effet boomerang lié à la surcharge de communication. Le marketing doit se réinventer et s’élever pour devenir moins accessible et plus performant. Le « marketing bélier » qui consiste à bombarder le marché en espérant qu’il trouve sa cible doit disparaître au profit d’une communication plus ciblée.

Une fois de plus l’emailing trouve pleinement sa voie lorsqu’il permet de cibler finement son marché et les interlocuteurs. Avec une moyenne de 91,1% en France (ReturnPath, mars 2012), le taux de délivrabilité, à savoir le taux de personnes qui ont reçu le message est élevé et intéressant. Il peut également être comparé au taux d’affichage si chèrement vendu par le search marketing. On a trop souvent tendance à n’identifier que le taux d’ouverture, de clic ou même le chiffre d’affaires généré, alors que le taux de délivrabilité et donc d’affichage est rarement mis en valeur.

Il n’existera plus de médias souverains comme ont pu l’être la télévision et la presse qui étaient également protégés par une barrière à l’entrée élevée, financière, conceptuelle, etc… Les budgets consacrés à la communication sont en baisse et les médias sociaux arrivent finalement au bon moment compte tenu de leur accessibilité, mais le chemin est encore long.