Actualités

[22/05/2017] Smile récompensé lors du Hackathon Carrefour !

Smile a remporté le Prix du Code lors du Hackathon Carrefour, organisé ce week-end à Paris !

[18/05/2017] OpenShift, le nouveau livre blanc Smile !

Smile publie aujourd'hui un livre blanc dédié à OpenShift, le PaaS open source orienté DevOps. A télécharger dès maintenant !

[15/05/2017] Smile décroche le label HappyAtWork 2017 !

Pour la 2ème année consécutive, Smile obtient le label HappyAtWork for Starters qui récompense les entreprises où il fait bon débuter sa carrière !

Toutes les actualités picto
       

Vous avez besoin de mettre à jour votre Lecteur Flash Flash 7

Guillemet ouvrant l'actualité des solutions
et des technologies open source Guillemet fermant
picto

Construire un CRM 360°

Cet article donne une manière d'aborder sa stratégie Big Data sous forme d'un premier projet rapide et efficace.
L'idée est de partir sur de la données structurées mais volumineuse pour construire une première version d'un CRM 360°.
Partir sur ce type de besoin permet une approche récursive et de fournir des résultats visibles par le métier rapidement.

Un peu d’architecture

Voici le schéma « à l’état de l’art » que nous proposons aujourd’hui et vers quoi nous vous conseillons d’aller :

L’idée est tout de même d’avancer pas à pas. Il n’est pas utile de mettre au point une stratégie de grands travaux de restructuration de votre SI ; finalement, se lancer dans le Big Data est beaucoup plus simple et beaucoup plus court que de se lancer dans une refonte de son ERP…

Le grand principe est de stocker et de rapprocher les informations issues de diverses applicatifs interne et externe à l’organisme. Dans le schéma, nous avons :

  • les informations qualifiée et souvent très structurée provenant des applicatifs métiers (ERP, CRM, Gestion commerciale, etc.)
  • les informations non structurées et non qualifiée (informations publiques, mails, etc.)
  • les informations structurées et non qualifiées (logs applicatifs)

Hadoop est le bon ODS (ou plus précisément « réservoir de données » permettant le mélange structuré / non structuré) car il permet de stocker une grande quantité d’information sans la modéliser formellement et surtout, à faible coût. De plus, augmenter les capacités de stockage (et de calcul) est très facile, autant d’un point de vue logiciel que matériel.

Les flèches représentent les différents flux ; les outils utilisés peuvent être très variables en fonction du contexte :

  • ETL pour les données structurés car on va mettre en place de nombreuses jointures et transformations (notons que Talend et PDI disposent  des connecteurs et des méthodes pour générer du code lisible par Hadoop)
  • Scripting Pig Latin, scala (ou même PHP) pour les logs car ils ne nécessitent pas de transformations complexes, mais plutôt de la performance en vue du volume de captation.
  • Pour alimenter l’entrepôt, je pencherais pour l’utilisation d’un ETL, car ce flux peut nécessiter un peu de transformation et surtout beaucoup d’évolution (Talend ou PDI génèrent du pig et du mapreduce).

On pourrait aussi utiliser un ESB (ou des briques spécifiques de l’écosystème Hadoop) pour faire de la captation en temps réel…

ElasticSearch, en tant qu’entrepôt, est la bonne base pour ce type de besoin (rapprochement de données sémantiques et pondérées). Dans un but plus analytique, on pourrait imaginer utiliser Cassandra. Vous pouvez également vous servir de votre Teradata !

La dernière brique est une petite application web, vous permettant de rechercher un terme dans ElasticSearch et d’afficher une fiche (compte, client, etc.) ou de propager vos informations consolidées dans vos applications existantes.

Fonctionnement en Quick Win

La première étape que nous proposons pour lancer votre projet « CRM 360° Big Data » est l’étude des logs applicatifs. Ce n’est pas compliqué et les logs portent de nombreuses informations, simples et à faible valeur unitairement, mais qui peuvent apporter beaucoup une fois combinées.

Pour monter ce projet, 3 étapes sont nécessaires :

1/ Modifier vos applicatifs web en effectuant un marquage intelligent des pages.

Ces marqueurs utiliseront 3 niveaux d’information :

  • Les informations utilisateurs à l’aide du cookie
  • Les informations de session à l’aide de… la session
  • Les informations spécifiques à la navigation et issues des pages visitées

En deux mots, on associe X pages à 1 session et X sessions à un cookie.

Ci-dessous, un exemple de tag :

Voici maintenant ce qui ce passe lors des visites d'un prospect (moi) sur l'ensemble des vos sites :

Je visite le site marqueX.fr avec mon ordinateur de bureau et je regarde la page du produit 1.

N’ayant jamais été sur un des sites de cet organisme, il me crée un cookie (C007) avec la session S001.

  • log applicatif : C007|S001|www.marqueX.fr|/home
  • log : C007|S001|www.marqueX.fr|/catalogue/produit1

Je me rends ensuite sur le site maboutique.fr avec mon portable et j’achète le produit2

  • log : C008|S003|www. maboutique.fr |/home
  • log : C008|S003|www. maboutique.fr |/catalogue/produit2

Je m’identifie car je passe commande. J’ai donc associé mon cookie C008, stocké sur mon mobile, avec mon identité, mail, adresse…

J’accède ensuite au site portailclient.fr avec mon ordinateur de bureau et m’identifie avec mon mail :

  • log : C007|S004| portailclient.fr|/home
  • log : C007|S004| portailclient.fr|/catalogue/produit2

Je viens donc d’associer mon mail avec C007 qui était déjà associé avec C008 et je commence donc à construire ma fiche client.

Ce rapprochement est très simple, mais on peut aller beaucoup plus loin, en associant des métadonnées différentes (un mail et un nom, une ville et un magasin, etc.) et ElasticSearch est très efficace pour faire ce type de rapprochement (c’est aussi un moteur de recherche).

2/ On charge ses informations dans la base de recherche (ElasticSearch) à l'aide d'une des options de flux décrits précédemment et selon votre contexte.

Dans ce cas précis d'utilisation, Hadoop n'est utile que comme espace de stockage. En effet, les logs applicatifs finissent par être très volumineux. Par contre, Hadoop permettra à termes de brancher les sources de données non structurées dans les étapes suivantes de la construction de votre vue 360°.

3/ Créer une petite interface de requêtage simple

ElasticSearch étant un moteur de recherche / base de données, la mise en place d’une fonction de recherche dans les métadonnées associées est facilitée. Ainsi, une simple recherche full text s’effectuera sur l’ensemble des métadonnées et vous pourrez donc aisément afficher vos fiches clients par produit consulté, produit acheté, date, nom, société, adresse…

Et voilà, la première pierre de votre CRM 360° est posée !

Avec ces données, vous pouvez déjà faire beaucoup de choses, telles que :

  • Visualiser un intérêt pour un domaine ou produit à la fois en termes unitaires ou tirer de grandes tendances (création d’un modèle)
  • Rassembler les contacts en fonction de métadonnées très libres
  • Mener des actions marketing ciblées toujours en fonction des métadonnées
  • Disposer de fiches clients à jour rapidement et automatiquement

La suite

Ensuite, on complète le CRM au fur et à mesure et en fonction des besoins (ou des idées) :

  • Lien vers les réseaux sociaux  (facebook, Viadeo et LinkedIn...)
  • Parsage des emails du contact pour en déduire un sentiment
  • Informations de ventes, historique de la relation, listes des actions marketing engagées
  • Etc…
Laury MAGNE
picto

Commentaires

Soyez la premiere personne à ajouter un commentaire sur cet article.
Ecrire un nouveau commentaire