Les nouveautés de SAP BI4.2 SP4

Vous utilisez SAP BI ? Voici un article récapitulatif des nouveautés du SP4 de la version SAP BI4.2, disponible depuis fin mai 2017.

Nous ne prétendons pas ici être exhaustifs et vous lister dans le détail toutes les nouvelles fonctionnalités et options du SP4, mais si vous ne devez retenir que quelques éléments, voici les principales nouveautés qui ont attiré notre attention.

Du point de vue des équipes IT…

 

1/ Fin des problèmes de version de JVM sur les postes clients et de compatibilité avec les autres applications

Le viewer HTML inclut maintenant toutes les fonctionnalités du viewer Java, qui n’est plus nécessaire.

Les personnes ayant déjà été en charge du déploiement, de la production ou du support d’une application SAP BI comprendront que c’est un point majeur !

2/ Optimisation de la maintenance, de la sécurité et des performances

  • Un nouveau droit permet d’autoriser ou interdire l’utilisation ou l’édition de SQL à la carte ou personnalisé sur une connexion spécifique (auparavant, le droit « Edit SQL » au niveau de l’application Web Intelligence s’appliquait sur l’ensemble des connexions et des univers)
  • Intégration d’un anti-virus scannant tous les fichiers déposés dans le File Repository
  • Possibilité de désactiver temporairement un utilisateur
  • Amélioration de la performance lors d’une recherche
  • Possibilité d’assigner un groupe de serveurs à un dossier ou à un groupe d’utilisateurs

3/ Inclusion des rapports et univers d’audit dans le contenu standard livré par SAP

 

4/ Migration en masse des rapports depuis les univers UNV vers le nouveau format UNX

 

info

SAP BI4.2 SP4 implique d’être sous Windows 10 ou Windows Server 2016, ou une version ultérieure.

 

Du point de vue des utilisateurs…

 

1/ Nouvelles interfaces pour la zone de lancement (ex Infoview) et pour Web Intelligence

  • Ces nouvelles interfaces adoptent le style FIORI, qui est une librairie graphique utilisée par SAP pour standardiser l’ensemble de ses interfaces, pensées pour le tactile et permettant une lecture et une analyse simplifiées des rapports.
  • Ces interfaces sont disponibles pour l’ensemble des rapports existants, sans migration.
  • Elles permettent notamment d’utiliser les filtres et la fonction drill (navigation dans les hiérarchies) de manière plus simple et conviviale.
  • Elles coexistent avec l’ancienne version des interfaces, à une autre URL.
  • La nouvelle interface n’est pas à iso-fonctionnalités par rapport aux viewer HTML, applet ou Rich Client ; en particulier, elle ne permet pas d’éditer les rapports.
  • SAP indique que l’édition des rapports dans la nouvelle interface est planifiée pour les prochaines versions.

Nouvelle Interface Web Intelligence :

webi

A noter que si c’est nécessaire, il est maintenant possible de visualiser un document de droite à gauche.

2/ Améliorations au niveau des graphes

Le paramétrage des graphes (ajout d’options pour personnaliser l’affichage) ainsi que le rendu des éléments personnalisés (ou custom elements qui sont des graphiques de type « data visualisation » disponibles depuis la version BI4.2) sont améliorés et trois nouveaux types de graphiques (jauges et tuiles) sont disponibles.

 jauges

Les éléments personnalisés sont également intégrés dans Live Office en tant qu’images.

3/ Amélioration de l’interface de développement des rapports WebIntelligence

  • Deux nouvelles fonctions disponibles dans le langage de création de variables au niveau de la manipulation des dates (DatesBetween et TimeBetween) pour calculer le nombre de périodes (de la milliseconde à l’année) entre deux dates
  • Possibilité de créer (dans le langage de création de variables) ses propres fonctions réutilisables

editeur_formule

En bref ! Les nouveautés du SP4 

  • Suppression de java pour la création des rapports Web Intelligence
  • Nouvelle interface (Fiori) plus conviviale et orientée tactile pour la zone de lancement et pour la visualisation des rapports Web Intelligence
  • Migration massive des rapports vers le nouveau format d’univers UNX
  • Deux nouveaux graphes (jauges et tuiles) et possibilité de créer ses propres fonctions de calcul sous Web Intelligence

 

Pour finir, de manière plus large, au cas où peut-être vous auriez attendu avant d’installer les derniers services packs, voici un rappel des nouveautés majeures de la version SAP BI 4.2 et ses différents services packs (jusqu’au SP3) :

  • Principe de la corbeille pour les documents publics
  • Web Intelligence : Ajout de commentaires et possibilité de partager des éléments (dans différents rapports et pour différents utilisateurs)
  • Disponibilité d’éléments personnalisés ou custom elements (graphiques de type « data visualization »)
  • Possibilité de filtrer les objets dans l’ugrade management tool
  • Parallélisation de l’éxécution pour les rapports multi-requêtes
  • Possibilité d’interroger les vues ou la base HANA
  • Cartes géographiques
  • Sets (SP3) : filtres complexes à sauvegarder et à réutiliser (plus d’infos dans l’article suivant : https://blogbi.asi.fr/2016/12/15/les-ensembles-en-bi-4-2-sp3-une-premiere-approche/)

info

A partir de l’installation du SP3, il est nécessaire de demander de nouvelles clés de licences.

 

Décidé(e) à upgrader votre plate-forme SAP BI4 ? Sachez que vous avez au plus tard jusqu’à fin 2018 (fin de la maintenance SAP BI4.1) pour le faire.

Ressources 

 

 

Démarrer avec Dataiku 4.0 : réaliser votre premier modèle d’analyse prédictive (la suite)

Dans l’article précédent, nous avons préparé et nettoyé nos données clients. Voyons maintenant comment, à partir de celles-ci, nous pouvons prévoir quels clients deviendront de bons clients.

3ème étape : Visualisation des données

  • Cliquer sur Charts

image_14

  • Par exemple, pour commencer à chercher des corrélations que les modèles établiront de manière plus précise, nous allons visualiser la répartition des clients en fonction de la valeur de leur 1er achat et de leur statut de bon client au bout d’un an (ce statut est stocké dans la variable high_revenue).

image_15

De manière assez intuitive, nous voyons que la proportion de clients ayant acheté un premier article d’une valeur élevée (en vert : entre 96 et 117 euros) est significativement plus forte chez les clients étant devenus de bons clients au bout d’un an.

Est-ce qu’il ne serait pas possible de prévoir de manière plus précise et fiable quels clients deviendront de bons clients ?

L’analyse prédictive analyse des faits présents et passés pour faire des hypothèses prédictives sur les événements futurs et identifier les risques et les opportunités.

Voyons, sur cet exemple concret d’analyse prédictive appliquée au domaine du marketing, comment procéder.

4ème étape : Analyse prédictive

4.1 Définition de la variable d’intérêt

  • Nous choisissons la variable « high revenue » comme variable d’intérêt : c’est cette variable que les modèles vont s’entraîner à prédire en fonction des autres variables sur des données existantes (phase d’apprentissage dans le processus de machine learning), de façon à être capables à l’avenir de la prédire à partir d’un fichier de nouveaux clients dont on ne sait pas encore si ce seront de bons clients.

image_16

4.2 Exécution et performance des algorithmes d’analyse prédictive

En standard, DSS déroule les deux algorithmes suivants : régression logistique (logistic regression) et forêt d’arbres décisionnels (random forest).

L’indicateur ROC AUC indique l’efficacité de l’algorithme à prédire la variable d’intérêt sur le jeu d’essai (plus la valeur de l’indicateur est élevée, plus l’algorithme est performant).

image_17

Nous voyons que c’est l’algorithme de régression logistique qui est le plus performant.

4.3 Compréhension des résultats et de la qualité de la prédiction

En cliquant sur le nom des algorithmes, nous obtenons des informations supplémentaires pour comprendre les résultats et la qualité de la prédiction :

  • La liste des variables utilisées par l’algorithme : toutes ont été utilisées sauf l’identifiant du client.

image_18

  • L’importance des variables : comme nous l’avions deviné, la valeur du 1er article acheté a une importance significative mais les autres variables ont également été utilisées pour affiner la prédiction.

image_19

  • Le graphe de densité :  plus les courbes sont éloignées, plus l’algorithme est robuste car il y a peu ou pas de chevauchement entre les lignes prédites avec une valeur 1 et les lignes prédites avec une valeur 0.

image_20

La graphe de densité est meilleur pour l’algorithme random forest.

4.4 Optimisation des algorithmes d’analyse prédictive

Nous allons maintenant tenter d’optimiser la performance des modèles en ajoutant dans le scoring l’âge de chaque client.

Utilisation de la fonction « Compute time since » …

image_21

image_22

… et ajout de la colonne « âge » :

image_23

  • Les deux algorithmes ont amélioré leur performance et c’est maintenant l’algorithme « random forest » qui est le plus performant.

image_24

4.5 Déploiement du modèle choisi

Nous allons maintenant déployer ce modèle …

image_25

… pour pouvoir l’appliquer sur un jeu de données qui ne contient pas encore la variable d’intérêt à prédire.

image_26

  • Nous obtenons comme résultat pour chaque ligne (client) 3 variables supplémentaires :

– la prédiction : selon le modèle sélectionné, le client sera-t-il un bon client dans un an ?

– la probabilité que le client soit un bon client (l’outil choisit cette option à partir d’une probabilité de 0.65),

– la probabilité qu’il ne le soit pas.

image_27

Félicitations…. Vous êtes maintenant capables de réaliser votre première analyse prédictive avec Dataiku !

Facilité d’installation et de prise en main… l’objectif de Dataiku de rendre la data science plus accessible a bien l’air d’être en passe d’être réussi !

Démarrer avec Dataiku 4.0 : réaliser votre premier modèle d’analyse prédictive

Vous voulez découvrir l’analyse prédictive et les algorithmes de machine learning avec Dataiku ? C’est par ici… nous vous guidons pas à pas.

A quoi ça sert ?

Dataiku est un outil qui permet de :

  • préparer les données (nettoyage, enrichissement),
  • les analyser et les visualiser,
  • faire de l’analyse prédictive (par exemple, dans le domaine du marketing, être capable dès la première interaction avec un client de prédire si celui-ci sera un bon client),
  • automatiser ces analyses et modèles.

1ère étape : installation et lancement de DSS (Data Science Studio)

Dataiku est un outil qui fonctionne exclusivement sous Linux ; Il est possible de le faire fonctionner sous Windows en installant une machine virtuelle comme décrit ci-dessous :

  • Depuis le gestionnaire de programmes, lancer Oracle VM Virtual Box

image_1

  • Importer la machine virtuelle DSS que vous venez de télécharger (dataiku-dss-4.0.1.ova)

image_2

  • Démarrer la machine virtuelle

image_3

Note : l’URL à utiliser est affichée au moment du démarrage de la machine virtuelle (en standard, c’est celle qui est donnée ici).

Nous allons traiter comme exemple l’analyse d’un fichier de données, mais il est possible également avec dataiku d’analyser des données provenant de bases SQL, no SQL, de clouds, de clusters Hadoop…

Nous procéderons dans un premier temps à l’import des données, puis à leur nettoyage. Dans un deuxième temps, nous les analyserons grâce à la data visualisation et à l’analyse prédictive.

2ème étape : préparation des données

2.1 Importer le fichier de données à analyser

image_4

image_5

image_6

  • Ouvrir le LAB

image_7

2.2 Exemples d’actions de nettoyage de données

  • Supprimer les lignes pour lesquelles le pays n’est pas renseigné

image_8

  • Nous voyons que l’outil a automatiquement analysé les colonnes et positionné le type correspondant. Pour la colonne « campaign », qui indique si le client a été ciblé par une campagne de marketing, nous voyons ci-dessous que le type positionné par dataiku est « entier » et que des valeurs incorrectes ont été détectées.

image_9

Nous voyons que les valeurs incorrectes correspondent à des saisies non cohérentes (booléen 0/1 de manière générale mais quelques valeurs saisies en mode true/false).

Passons en mode analyse pour pouvoir corriger ces saisies incohérentes.

image_10

image_11

Il est possible de merger les saisies incohérentes avec celles qui sont correctes…

image_12

… de façon à avoir des données propres et analysables.

image_13

Les données sont prêtes à être analysées !

Nous verrons dans un prochain article comment les exploiter de manière simple dans un exemple concret d’analyse prédictive appliquée au domaine du marketing.

%d blogueurs aiment cette page :