Actualités

[08/09/2017] Breaking news ! Smile décroche le label Happy Trainees 2018

Après le label HappyAtWork, Smile s’offre celui décerné par ses stagiaires et alternants !

[21/07/2017] Smile lance les premiers vélos solaires connectés à l’occasion du Sun Trip Tour 2017

Smile, leader des solutions IoT et open source, confirme sa solide expertise sur le marché de l’embarqué en participant activement à la course de vélos solaires du Sun Trip Tour.

[03/07/2017] Smile remporte le Drupagora d'Or 2017 du meilleur site e-commerce

Le vendredi 30 juin, la 3ème édition des Drupagora d'Or s'est déroulée à Paris.

Toutes les actualités picto
       

Vous avez besoin de mettre à jour votre Lecteur Flash Flash 7

Guillemet ouvrant l'actualité des solutions
et des technologies open source Guillemet fermant
picto

Passer à la BI « Just in Time»  avec Pentaho 5

La version 5 de Pentaho apporte nativement la possibilité d'utiliser un traitement Pentaho Data Integration (PDI/Kettle) comme source de données au reporting, dashboarding, au requêtage et à l'analyse OLAP.
Les données exploitées à la restitution sont récupérées, à la volée, de manière analogue au résultat d'une requête SQL classique.

S'il était déjà possible de connecter le portail Pentaho à une base opérationnelle « temps réel » avec les versions précédentes, cette nouvelle version permet de combiner les données de différentes sources, pouvant être hétérogènes, et d'y appliquer quelques calculs. De plus, les opérations, hors simple extraction des sources, sont déportées sur le système ETL et non plus la source de données opérationnelle, dont la disponibilité et les performances peuvent être critiques.

Cela apporte donc une réponse intéressante aux besoins de consolidation de données « just in time » telles que les phases de clôtures comptables, la publication de tableaux de bord permettant de visualiser du « monitoring instantané » de processus opérationnels en plus d'analyses de tendances,...

La richesse des possibilités techniques est à l'image des connecteurs de l'ETL Pentaho Data Integration : extraction de bases de données classiques ou Big Data, fichiers plats, Excel, applications dans le cloud, Web Services, calculs, nettoyage de données...

Cette solution ne remplace pas un entrepôt de données, qui reste la meilleure solution pour consolider des données à des fins d'analyse et de restitution. Elle la complète avec des données instantanées.

L 'opération se fait en 3 étapes :

1) Élaborer le traitement PDI fournisseur de données

Depuis l'interface PDI Spoon, élaborer le traitement. Identifier l'étape cible, qui peut être une étape de type « factice », représentant les données à fournir.

Exporter le traitement au format ktr.

Exemple de traitement consolidant les sources de 2 bases de données distinctes :

Il est conseillé que le traitement soit léger et optimisé afin de ne pas trop pénaliser les performances de restitution ainsi que celle des sources de données.

2) Inscrire le traitement comme service de données

Inscrire le traitement comme service dans la configuration du processus PDI Carte :

  • name : nom du service → de la « table » de données générée
  • filename : chemin vers le fichier de traitement ktr
  • service_step : nom de l'étape

3) Définir la connexion au service de données

Depuis le portail web, comme des outils de développement, créer une nouvelle connexion, en utilisant le driver JDBC de manière générique :

  • driver JDBC : org.pentaho.di.core.jdbc.ThinDriver
  • url JDBC : jdbc:pdi://SERVEUR_CARTE:10001/kettle
  • les login et mot de passe par défaut sont cluster

Les traitements PDI référencés sous forme de service sont ensuite disponibles sous forme de tables :

La définition de métadonnées se fait ensuite de manière classique.

Florent Béranger
picto

Commentaires

Soyez la premiere personne à ajouter un commentaire sur cet article.
Ecrire un nouveau commentaire