Vidéo | GDPR, quels impacts sur les entreprises ?

ASI vous propose de découvrir la vidéo consacrée à la GDPR réalisée par ses experts :

Qu’est-ce que la GDPR ?

La GDPR, ou General Data Protection Regulation, est la directive européenne sur la protection des données personnelles qui entrera en vigueur le 25 mai 2018. Elle a pour objectif de donner un cadre éthique à toute collecte et utilisation de Données à Caractère Personnelle – les fameuses DCP.

Les 29 pays signataires ont prévu une application mondiale de cette directive pour l’ensemble des données des ressortissants de l’union européenne et de lourdes amendes pour les infractions, pouvant atteindre 4% du chiffre d’affaire global d’une entreprise avec un maximum de 20 millions d’euros.

Quel impact sur les entreprises ?

La GDPR accorde des droits aux personnes physiques (droit à l’oubli, à la modification des données, à la réparation et au contrôle de leur portabilité) que les entreprises devront respecter.

Les entreprises, comme leurs sous-traitants, seront tenues de réfléchir à la protection des données personnelles dès la conception, voire de réaliser une étude d’impact préalable à faire valider par l’autorité de contrôle – la CNIL en France – et de tenir un registre de toute utilisation et de tous traitements sur ces données.

Elles devront, dans la majorité des cas, nommer un DPO – un Data Privacy Officer – pour garantir la bonne application de cette directive et en assurer la transparence.

Les entreprises devront surtout obtenir le consentement explicite des personnes pour chaque traitement effectué, ce qui risque de changer beaucoup de pratiques actuelles.

Que faire pour s’y préparer dès aujourd’hui ?

Comme il est évident que tout le monde ne pourra pas respecter l’ensemble des dispositions de cette directive dans un an, il est important de montrer dès à présent que votre entreprise a bien pris conscience du sujet et met en oeuvre une démarche spécifique.

Vous devez rapidement monter une équipe transverse (métiers, techniques et juridiques) en charge du projet de mise en conformité afin de cartographier l’ensemble des données personnelles internes et externes que vous manipulez et évaluer, pour chaque traitement, les risques de « perte » des données pour prioriser vos actions.

ASI vous propose de vous aider dans cette démarche, nous sommes à votre disposition à l’adresse asicom@asi.fr ou par téléphone au 0806 700 800 (gratuit + prix d’appel).

L’Open Data ou comment contextualiser nos « insights »

Nous vous invitons à lire l’article L’Open Data ou comment contextualiser nos « insights » rédigé par Régis Marc sur notre blog ASI 360.

Il y rappelle ce qu’est l’Open Data, indique quels acteurs partagent des données et quel est leur intérêt à le faire.

Il donne aussi quelques exemples simples de réutilisations…

Bonne lecture !

 

 

Connaissez-vous le Folder95 sur une plateforme SAP Business Objects ?

Bonjour,

Un rapide article aujourd’hui pour vous parler de la sécurité SAP BusinessObjects et plus particulièrement la livraison d’un environnement à un autre depuis la CMC à l’aide de l’outil de gestion des promotions.

promotions_sap_bi42

Vue de la gestion des promotions dans la CMC

Il faut être relativement prudent lorsqu’on livre les éléments sur un environnement, en ne choisissant que le nécessaire : document, univers (sans les connexions !) sont les éléments les plus souvent livrés.

Mais il peut aussi arriver qu’il soit nécessaire de livrer utilisateurs, groupes et sécurité associée. Et c’est à cette occasion que j’ai fait la découverte du « Folder95 ». En effet, quelle ne fut pas ma surprise quand, après une livraison, tous les utilisateurs – sauf les membres du groupe administrateur – avaient perdu leurs accès : pas de documents, pas d’univers … aïe !

Un rapide tour de la plateforme indique que la sécurité des différentes racines (connexions, univers, etc.) n’était plus existante pour le groupe « Tout le monde ».

sap_bo_securite_niveau_superieur

Sécurité de niveau supérieur dans BO

Simple me direz-vous ? On la ré-applique partout ! Mais non, ce n’est pas suffisant. Les utilisateurs n’ont toujours pas accès aux univers et ne peuvent pas rafraîchir les documents.

Il faut donc se référer à la note SAP 2017435 pour découvrir qu’il existe une racine, au-dessus de la racine !

Et pour remettre les droits c’est beaucoup moins sympathique. Rendez-vous sur le serveur BO :

  • Arrêter le SIA
  • Faire un backup du CMS (au cas où)
  • Démarrer le CMS en mode « serverconsole » en utilisant la commande :
E:\SAP\SAP BusinessObjects\SAP BusinessObjects Enterprise XI 4.0\win64_x64>cms.exe -port "7400" -dbinfo "E:/SAP BusinessObjects/SAP BusinessObjects Enterprise XI 4.0/win64_x64/_boe_BOBJREPO.dbinfo" #name "BOBJREPO.cms" -serverconsole
  • Taper la commande
acl 95
  • Le message suivant est renvoyé
Object has no ACL
  • Taper ensuite
Setright 1 95 3 ANY this G
  • Puis à nouveau
acl 95
  • Le message « Everyone group Granted View for any object type for this object » doit être renvoyé.
  • Terminer par un simple :
Quit

Puis relancer le SIA… et tout est rentré dans l’ordre ! Ouf !

Bonne semaine et à bientôt !

 

‘Data Preparation’ : Cas pratique avec Trifacta Wrangler

Pour continuer à se familiariser avec les outils de Data Preparation présentés dans l’article « Qu’est-ce que la ‘Data Preparation’ et à quoi sert-elle ? », et maintenant que nous avons découvert le fonctionnement de Talend Data Preparation, nous allons aujourd’hui mettre en pratique un cas concret avec Trifacta Wrangler.

Dans cet exemple, les données ne sont pas très propres. Nous allons tenter de corriger les valeurs manquantes, éliminer les valeurs aberrantes, enrichir le jeu avec une autre source, et construire une adresse email à partir de colonnes existantes.

Etape 1 : Chargement des données

Lancer Trifacta Wrangler :

Interface Trifacta Wrangler

Dans la barre horizontale haute, nous remarquons les trois Eléments essentiels, FLOWS (Flux), DATASETS (Sources), RESULTS (Résultats) ainsi que l’interface de chaque élément.

Créer un nouveau Flux de travail et le nommer Flux_ASI :

Create flow - flux Trifacta Wrangler

FluxASI

Ajouter les DATASETS (sources), soit par drag & drop (glisser-déposer), ou en cliquant sur Choose File :

import_dataset-Trifacta

  • le premier (SALARIES) servira de flux primaire
  • le second (DOMAINE_COMPAGNIE) contient 2 colonnes (nom et mail de l’entreprise). La jointure avec le premier se fera sur le champ ‘company’.

Datasets

Etape 2 : Découverte des données

Une fois le DATASET ajouté, Trifacta propose un premier tableau de bord :

Il permet de voir la constitution du flux (dans le volet à droite, nous pouvons voir un premier aperçu des données ainsi que les premières étapes de la recette).

Espace_Flux

  • Dans le volet à droite, cliquer sur ‘Edit Recipe’ pour aller à l’interface principale

Voir_données_Edit-recipes_Trifacta

L’interface principale propose un tableur pour visualiser les données :

A droite, le volet permet de voir la recette. En bas, un builder contient l’ensemble des fonctions de transformations.

Interface_prin

Pour chaque colonne, une barre de Data Quality est présente, avec trois couleurs : verte (valeurs valides), rouge (valeurs invalides) et noire (valeurs nulles). En cliquant sur chaque tranche, il est possible d’accéder aux actions pouvant être appliquées à cette masse de données. Dans notre cas, nous allons accéder à la première colonne, et voir les détails de la colonne.

Détail_Col

En cliquant sur ‘Column Details’, nous aurons un tableau de bord de Data Profiling de cette colonne.

Data_Profiling

Etape 3 : Nettoyage

Nous allons éliminer les valeurs aberrantes (invalides) et les valeurs nulles :

Nous allons commencer par les valeurs nulles.

  • Cliquer sur la partie noire de la barre de Data Quality, Trifacta suggère un ensemble d’actions
  • Choisir l’action Delete rows where isMissing ([id])
  • Cliquer sur ‘Add to Recipe’. Il est également possible de cliquer sur ‘Modify’ pour avoir une transformation plus adaptée. La force de Trifacta est de pouvoir ajouter des expressions régulières et combiner plusieurs fonctions.

Supp_missingPour les valeurs aberrantes :

  • Cliquer sur la partie rouge de la barre de Data Quality
  • Appliquer l’action Delete rows where ismismatched([id], [‘Integer’])
  • Cliquer sur ‘Add to Recipe’

actions_abberantes

  • Répéter ces actions pour toutes les colonnes du jeu de données.

Nous allons maintenant supprimer les espaces de toutes les colonnes :

  • Sélectionner les colonnes concernées avec Ctrl+Clic
  • Cherche la fonction Remove whitespaces() qui se trouve dans le menu ‘Format’, et l’appliquer pour toutes les colonnes

remove whitespaces

Nous allons créer deux nouvelles colonnes, qui contiendront respectivement le firstname et lastname de la personne afin de les mettre en minuscule :

Nous allons les appeler respectivement Email_Firstname et Email_Lastname :

  • Cliquer sur le menu déroulant de la colonne
  • Dans Format, chercher la fonction to lowercase ()
  • Dans le builder des options de paramétrages, choisir la formule, et renommer la nouvelle colonne Email_First_Name.

lowercase

  • Répéter cette action pour la colonne last_name

Etape 4 : Enrichissement

Nom de domaine de l’entreprise

Nous allons, dans cette étape, enrichir le jeu de données avec un nouveau flux, afin d’extraire le nom du domaine de l’entreprise pour chaque salarié :

  • Cliquer sur le menu déroulant de la colonne company
  • Choisit Lookup, une nouvelle fenêtre apparait pour choisir le DATASET concerner par la jointure
  • Choisir le DATASET ‘Domaine_Compagnie’

lookupzoom

L’étape 2 du Lookup consiste à choisir l’attribut de jointure dans le DATASET secondaire :

  • Choisir ‘company’
  • Exécuter le Lookup

Look_up_col

Une fois le fichier chargé, nous allons construire la colonne ‘EMAIL’.

Comme Trifacta propose de faire nos propres formules, nous allons sélectionner les trois colonnes concernées, puis nous allons appliquer la fonction Merge() sur les trois colonnes avec un tiret entre le firstname et lastname et un @ entre la colonne résultante et le domaine_compagny.

La figure suivante montre comment nous avons pu combiner plusieurs fonctions pour construire une formule.

Dans notre exemple, nous avons fait plusieurs étapes en une seule grâce à la formule suivante :

MERGE ([MERGE([Lower(first_name),Lower(last_name)], ‘-’),email_domain], ’@’).

combiner-fonctions-formule

Etape 5 : Validation et Publication

En haut à droite, Trifacta permet de générer le résultat des transformations.

Validation Trifacta

Avec la version gratuite, il est possible d’exporter les résultats sous trois formats : CSV, JSON et TDE.

generate results trifacta

Le résultat sera publié dans le logiciel lui-même. Pour le voir, cliquer dessus afin d’avoir un tableau de bord résumant le résultat obtenu.

results summary trifacta

Conclusion

L’arrivée de la Big Data engendre forcément une explosion d’outils qui permettent aux entreprises de tirer profit de leurs données. Les éditeurs de ces solutions essayent de fournir des outils simples permettant à l’utilisateur sans compétences informatiques de se les approprier facilement.

Le domaine de la data preparation suit cette logique de vulgarisation (démocratisation). Cependant les outils qui permettent de le faire sont encore jeunes. Les solutions ne sont pas complètes ; plusieurs défis attendent les éditeurs.

La data preparation pourra permettre aux entreprises de passer plus de temps dans l’analyse des données, permettant d’accélérer les projets et d’avoir de meilleurs résultats.

‘Data Preparation’ : Cas pratique avec Talend Data Preparation

Pour se familiariser avec les outils de Data Preparation présentés dans mon précédent article, « Qu’est-ce que la ‘Data Preparation’ et à quoi sert-elle ? », nous allons aujourd’hui mettre en pratique un cas concret avec Talend Data Preparation. Nous ferons de même avec Trifacta dans un prochain article.

Dans cet exemple, les données ne sont pas très propres. Nous allons tenter de corriger les valeurs manquantes, éliminer les valeurs aberrantes, enrichir le jeu avec une autre source, et construire une adresse email à partir de colonnes existantes.

Etape 1 : Chargement des données

Lancer Talend Data Preparation :

Talend Data Preparation lancement

Créer un nouveau dossier de travail et le nommer ASI_PREPA :

ASI_PREPA

Ajouter 2 Dataset (sources) :

  • le premier (SALARIES) servira de flux primaire
  • le second (DOMAINE_COMPAGNIE) contient 2 colonnes (nom et mail de l’entreprise). La jointure avec le premier se fera sur le champ ‘company’.

Data sets

Data-preparation-datasets

Accéder au dossier ASI et cliquer sur ‘ADDPREPARATION’. Ajouter le flux primaire SALARIES, et confirmer :

ADDPREPARATION

Etape 2 : Découverte des données

Nous accédons à l’interface principale :

Interface_data-preparation

Cette interface se décompose en 4 volets principaux :

  • à gauche la recette,
  • au milieu un tableur qui contient les données,
  • en haut à droite les fonctions pouvant être appliquées sur les données
  • en bas un volet de data Profiling

Une barre de Data Quality est présente sur chaque colonne avec 3 couleurs :

Verte (valeurs valides), orange (valeurs invalides) et blanche (valeurs nulles). En cliquant sur chaque tranche, nous accédons aux actions qui peuvent être appliquées à cette masse de données.

Data quality

En cliquant sur une colonne, nous avons accès au menu de Data Profiling où se trouvent 4 onglets qui permettent de mieux comprendre les données :

data profiling

Etape 3 : Nettoyage

Nous allons éliminer les valeurs aberrantes (invalides) et les valeurs nulles :

  • Cliquer sur une colonne
  • Appliquer les actions (Delete the Rows with Empty Cell) et (Clear the Cells with Invalid Values)
  • Appliquer ces actions sur chaque colonne du jeu de données.

Supprimer_invalid-cell

Suppression_empty-cell

Nous allons maintenant supprimer les espaces de toutes les colonnes. Talend a dédié une fonction pour faire cela :

  • Cliquer sur la colonne
  • Chercher la fonction Remove Whitespaces (), et l’appliquer pour toutes les colonnes

RemoveWhitespaces

Nous allons créer deux nouvelles colonnes qui contiendront respectivement le firstname et lastname de la personne :

Le but étant de tout mettre en lettres minuscules. Nous les appellerons respectivement Email_Firstname et Email_Lastname. Pour cela :

  • Cliquer sur la colonne puis sur Duplicate Column
  • Cliquer sur Rename Column

First Name et last nameL’étape suivante consiste à transformer les nouvelles colonnes créées en minuscules :

  • Sélectionner les deux avec un Ctrl+Clic
  • Chercher dans la palette les fonctions Change Style to Lower Case, et l’appliquer sur les deux colonnes.

Lowercase

Maintenant que les deux colonnes sont construites, nous devons les fusionner pour avoir le format firstname_lastname :

  • Sélectionner la colonne Email_First_Name
  • Chercher la fonction Concatenate dans la palette
  • Paramétrer la concaténation et appliquer le changement

concatenate

  • Renommer la colonne
  • Supprimer les colonnes en plus

Etape 4 : Enrichissement

Nous allons, dans cette étape, enrichir le jeu de données avec un nouveau DATASET, afin d’extraire le nom du domaine de l’entreprise pour chaque salarié :

  • Sélectionner la colonne ‘company’
  • Cliquer sur l’icône de jointure (que vous verrez ci-dessous)
  • Choisir le Dataset DOMAINE_COMPAGNIE puis valider

jointure look

 

LookupUne fois le fichier chargé, la colonne de jointure est en bleu et les colonnes à garder avec une case à cocher :

Join

  • Confirmer, une nouvelle colonne apparaît alors : ‘EMAIL_DOMAIN’

Pour obtenir la colonne Email sous la forme firstname_lastname@Email_domaine :

Il ne reste maintenant plus qu’à concaténer la colonne ‘Email_First_Name_Last_Name’ avec la nouvelle colonne ‘EMAIL_DOMAIN’ avec un @ comme séparateur, pour obtenir la colonne Email sous la forme firstname_lastname@Email_domaine.

Puis renommer la nouvelle colonne ‘EMAIL’.

EMAIL-FIRST-NAME-EMAIL-LAST-

  • Supprimer les colonnes en plus

Le jeu de données est propre avec l’email de chaque salarié.

Email

Etape 5 : Validation et publication

Talend Data Preparation version gratuite permet d’exporter les résultats sous les formats Excel, CSV, Tableau.

Export

Dans la version entreprise, Talend annonce que la recette pourra être intégrer à un Job Talend.

Job Talend

Nous avons maintenant terminé l’atelier technique de Data Preparation avec Talend Data Preparation, rendez-vous dans un prochain article pour l’atelier Trifacta !

Qu’est-ce que la ‘Data Preparation’ et à quoi sert-elle ?

Selon Experian, 92% des entreprises n’ont pas confiance en leur données et 56% des entreprises sondées n’arrivent pas à prendre des décisions souhaitées. Gartner, de son côté, parle de la nouvelle BI et de la BI en self-service ; Il prévoit que d’ici 2020, la moitié des efforts consentis dans l’intégration des données passeront par des plateformes de la Data Preparation.

Aujourd’hui, un utilisateur ou un Data-Analyste passe 80% de son temps pour avoir des données propres et exploitables. Un autre problème auquel doivent faire face ces deux acteurs est le partage et la gouvernance des données.

Dans cet article, nous allons parler du domaine de la préparation des données, ainsi que des problématiques, des motivations, et du marché de la Data Preparation. Nous conclurons dans un prochain article par un atelier technique sur les deux outils leaders de ce marché : Trifacta et Talend Data Preparation.

Quelques Définitions

  • Data-Quality : Traitement d’amélioration de la qualité des données, permettant à l’utilisateur d’offrir des données fraîches, accessibles, fiables, cohérentes et exploitables.
  • Data-Wrangling : Processus de transformation des données d’une manière visuelle et interactive.
  • Data-Profiling : Processus de collecte des données et des statistiques sur ces données.
  • Data-Preparation : Ensemble des étapes (Découverte, Structuration, Nettoyage, Enrichissement, Validation, Publication) qui viennent en amont de la restitution des données.

Étapes de la Data Preparation

etapes data preparation

Problématiques de la Data Preparation

  • 80 % du temps d’un processus (BI/Big Data) est dans la préparation des données
  • Complexité de la construction d’un Data Warehouse
    • Le développement prend un temps énorme (problème de la fraîcheur des données)
    • Architecture Rigide (enrichissement, nouveau besoins)
  • Intégration et alimentation complexe
  • Faiblesse des outils de préparation classiques
    • Pas de gouvernance de données
    • Ne supportent pas le passage à l’échelle
    • Découverte et transformation difficile

Motivations et promesses de la Data Preparation

  • L’analytique en self-service
  • Gouvernance et collaboration
  • Accélération de l’exploitation des données

Cas d’utilisation des outils de la Data Preparation

Certains d’entre vous se posent déjà la question suivante : « Puis-je tirer profit de ces outils, comment et dans quels cas ? »

Nous avons détecté dans notre analyse des cas d’utilisation réels où ces outils peuvent être mis en œuvre afin d’apporter de la valeur dans les projets de la transformation des données.

  1. L’entreprise manque de compétences ETL

Dans le cas où l’entreprise ne possède pas des compétences ETL, et celle-ci a besoin de nettoyer et transformer ses données, les outils de la Data Preparation sont là pour subvenir à ses besoins. Cependant, ces outils ne remplacent pas un processus ETL, ils peuvent remplacer quelques besoins de transformation comme ils peuvent être associés à un processus, en apportant une certaine agilité dans le processus ETL. Talend mise beaucoup sur ce dernier point.

  1. Besoin de données fraîches

Dans le cas où la fraîcheur des données est importante (marchés financiers…), les données doivent être préparées dans les plus brefs délais, sans créer une architecture lourde (comme la constitution d’un Data Warehouse) et sachant que les flux de données ainsi que les besoins diffèrent chaque jour.

  1. Variété et vélocité dans la Big Data

La vélocité et la variété des types et des structures de données exigent de nouvelles stratégies pour l’identification et la rationalisation des données dans un système d’information.

Comme dans les plateformes big data, il peut y avoir une variété importante de données avec différentes structures, ne permettant pas le traitement avec un processus ETL unique standard. En construisant un nouveau processus, nous pouvons perdre en vélocité. Ces plateformes de la Data Preparation pourront limiter cette perte en vélocité. En effet, l’utilisateur pourra s’adapter à cette variation des données, et traiter chaque cas d’une manière manuelle selon son besoin.

Outils de la Data Preparation

Gartner classe ces outils en trois grandes familles :

Outils data preparation

Outils leaders dans la Data Preparation

Outils leaders data preparation

Démonstration

Pour se familiariser avec ces outils, nous mettrons en pratique -dans un prochain article- un cas concret avec Talend Data Preparation, puis avec  Trifacta.

Dans ce cas concret, les données ne seront pas très propres. Nous tenterons de corriger les valeurs manquantes, éliminer les valeurs aberrantes, enrichir le jeu avec une autre source, et construire une adresse email à partir de colonnes existantes.

Les nouveautés de SAP BI4.2 SP4

Vous utilisez SAP BI ? Voici un article récapitulatif des nouveautés du SP4 de la version SAP BI4.2, disponible depuis fin mai 2017.

Nous ne prétendons pas ici être exhaustifs et vous lister dans le détail toutes les nouvelles fonctionnalités et options du SP4, mais si vous ne devez retenir que quelques éléments, voici les principales nouveautés qui ont attiré notre attention.

Du point de vue des équipes IT…

 

1/ Fin des problèmes de version de JVM sur les postes clients et de compatibilité avec les autres applications

Le viewer HTML inclut maintenant toutes les fonctionnalités du viewer Java, qui n’est plus nécessaire.

Les personnes ayant déjà été en charge du déploiement, de la production ou du support d’une application SAP BI comprendront que c’est un point majeur !

2/ Optimisation de la maintenance, de la sécurité et des performances

  • Un nouveau droit permet d’autoriser ou interdire l’utilisation ou l’édition de SQL à la carte ou personnalisé sur une connexion spécifique (auparavant, le droit « Edit SQL » au niveau de l’application Web Intelligence s’appliquait sur l’ensemble des connexions et des univers)
  • Intégration d’un anti-virus scannant tous les fichiers déposés dans le File Repository
  • Possibilité de désactiver temporairement un utilisateur
  • Amélioration de la performance lors d’une recherche
  • Possibilité d’assigner un groupe de serveurs à un dossier ou à un groupe d’utilisateurs

3/ Inclusion des rapports et univers d’audit dans le contenu standard livré par SAP

 

4/ Migration en masse des rapports depuis les univers UNV vers le nouveau format UNX

 

info

SAP BI4.2 SP4 implique d’être sous Windows 10 ou Windows Server 2016, ou une version ultérieure.

 

Du point de vue des utilisateurs…

 

1/ Nouvelles interfaces pour la zone de lancement (ex Infoview) et pour Web Intelligence

  • Ces nouvelles interfaces adoptent le style FIORI, qui est une librairie graphique utilisée par SAP pour standardiser l’ensemble de ses interfaces, pensées pour le tactile et permettant une lecture et une analyse simplifiées des rapports.
  • Ces interfaces sont disponibles pour l’ensemble des rapports existants, sans migration.
  • Elles permettent notamment d’utiliser les filtres et la fonction drill (navigation dans les hiérarchies) de manière plus simple et conviviale.
  • Elles coexistent avec l’ancienne version des interfaces, à une autre URL.
  • La nouvelle interface n’est pas à iso-fonctionnalités par rapport aux viewer HTML, applet ou Rich Client ; en particulier, elle ne permet pas d’éditer les rapports.
  • SAP indique que l’édition des rapports dans la nouvelle interface est planifiée pour les prochaines versions.

Nouvelle Interface Web Intelligence :

webi

A noter que si c’est nécessaire, il est maintenant possible de visualiser un document de droite à gauche.

2/ Améliorations au niveau des graphes

Le paramétrage des graphes (ajout d’options pour personnaliser l’affichage) ainsi que le rendu des éléments personnalisés (ou custom elements qui sont des graphiques de type « data visualisation » disponibles depuis la version BI4.2) sont améliorés et trois nouveaux types de graphiques (jauges et tuiles) sont disponibles.

 jauges

Les éléments personnalisés sont également intégrés dans Live Office en tant qu’images.

3/ Amélioration de l’interface de développement des rapports WebIntelligence

  • Deux nouvelles fonctions disponibles dans le langage de création de variables au niveau de la manipulation des dates (DatesBetween et TimeBetween) pour calculer le nombre de périodes (de la milliseconde à l’année) entre deux dates
  • Possibilité de créer (dans le langage de création de variables) ses propres fonctions réutilisables

editeur_formule

En bref ! Les nouveautés du SP4 

  • Suppression de java pour la création des rapports Web Intelligence
  • Nouvelle interface (Fiori) plus conviviale et orientée tactile pour la zone de lancement et pour la visualisation des rapports Web Intelligence
  • Migration massive des rapports vers le nouveau format d’univers UNX
  • Deux nouveaux graphes (jauges et tuiles) et possibilité de créer ses propres fonctions de calcul sous Web Intelligence

 

Pour finir, de manière plus large, au cas où peut-être vous auriez attendu avant d’installer les derniers services packs, voici un rappel des nouveautés majeures de la version SAP BI 4.2 et ses différents services packs (jusqu’au SP3) :

  • Principe de la corbeille pour les documents publics
  • Web Intelligence : Ajout de commentaires et possibilité de partager des éléments (dans différents rapports et pour différents utilisateurs)
  • Disponibilité d’éléments personnalisés ou custom elements (graphiques de type « data visualization »)
  • Possibilité de filtrer les objets dans l’ugrade management tool
  • Parallélisation de l’éxécution pour les rapports multi-requêtes
  • Possibilité d’interroger les vues ou la base HANA
  • Cartes géographiques
  • Sets (SP3) : filtres complexes à sauvegarder et à réutiliser (plus d’infos dans l’article suivant : https://blogbi.asi.fr/2016/12/15/les-ensembles-en-bi-4-2-sp3-une-premiere-approche/)

info

A partir de l’installation du SP3, il est nécessaire de demander de nouvelles clés de licences.

 

Décidé(e) à upgrader votre plate-forme SAP BI4 ? Sachez que vous avez au plus tard jusqu’à fin 2018 (fin de la maintenance SAP BI4.1) pour le faire.

Ressources 

 

 

%d blogueurs aiment cette page :