Démarrer avec Dataiku 4.0 : réaliser votre premier modèle d’analyse prédictive (la suite)

Dans l’article précédent, nous avons préparé et nettoyé nos données clients. Voyons maintenant comment, à partir de celles-ci, nous pouvons prévoir quels clients deviendront de bons clients.

3ème étape : Visualisation des données

  • Cliquer sur Charts

image_14

  • Par exemple, pour commencer à chercher des corrélations que les modèles établiront de manière plus précise, nous allons visualiser la répartition des clients en fonction de la valeur de leur 1er achat et de leur statut de bon client au bout d’un an (ce statut est stocké dans la variable high_revenue).

image_15

De manière assez intuitive, nous voyons que la proportion de clients ayant acheté un premier article d’une valeur élevée (en vert : entre 96 et 117 euros) est significativement plus forte chez les clients étant devenus de bons clients au bout d’un an.

Est-ce qu’il ne serait pas possible de prévoir de manière plus précise et fiable quels clients deviendront de bons clients ?

L’analyse prédictive analyse des faits présents et passés pour faire des hypothèses prédictives sur les événements futurs et identifier les risques et les opportunités.

Voyons, sur cet exemple concret d’analyse prédictive appliquée au domaine du marketing, comment procéder.

4ème étape : Analyse prédictive

4.1 Définition de la variable d’intérêt

  • Nous choisissons la variable « high revenue » comme variable d’intérêt : c’est cette variable que les modèles vont s’entraîner à prédire en fonction des autres variables sur des données existantes (phase d’apprentissage dans le processus de machine learning), de façon à être capables à l’avenir de la prédire à partir d’un fichier de nouveaux clients dont on ne sait pas encore si ce seront de bons clients.

image_16

4.2 Exécution et performance des algorithmes d’analyse prédictive

En standard, DSS déroule les deux algorithmes suivants : régression logistique (logistic regression) et forêt d’arbres décisionnels (random forest).

L’indicateur ROC AUC indique l’efficacité de l’algorithme à prédire la variable d’intérêt sur le jeu d’essai (plus la valeur de l’indicateur est élevée, plus l’algorithme est performant).

image_17

Nous voyons que c’est l’algorithme de régression logistique qui est le plus performant.

4.3 Compréhension des résultats et de la qualité de la prédiction

En cliquant sur le nom des algorithmes, nous obtenons des informations supplémentaires pour comprendre les résultats et la qualité de la prédiction :

  • La liste des variables utilisées par l’algorithme : toutes ont été utilisées sauf l’identifiant du client.

image_18

  • L’importance des variables : comme nous l’avions deviné, la valeur du 1er article acheté a une importance significative mais les autres variables ont également été utilisées pour affiner la prédiction.

image_19

  • Le graphe de densité :  plus les courbes sont éloignées, plus l’algorithme est robuste car il y a peu ou pas de chevauchement entre les lignes prédites avec une valeur 1 et les lignes prédites avec une valeur 0.

image_20

La graphe de densité est meilleur pour l’algorithme random forest.

4.4 Optimisation des algorithmes d’analyse prédictive

Nous allons maintenant tenter d’optimiser la performance des modèles en ajoutant dans le scoring l’âge de chaque client.

Utilisation de la fonction « Compute time since » …

image_21

image_22

… et ajout de la colonne « âge » :

image_23

  • Les deux algorithmes ont amélioré leur performance et c’est maintenant l’algorithme « random forest » qui est le plus performant.

image_24

4.5 Déploiement du modèle choisi

Nous allons maintenant déployer ce modèle …

image_25

… pour pouvoir l’appliquer sur un jeu de données qui ne contient pas encore la variable d’intérêt à prédire.

image_26

  • Nous obtenons comme résultat pour chaque ligne (client) 3 variables supplémentaires :

– la prédiction : selon le modèle sélectionné, le client sera-t-il un bon client dans un an ?

– la probabilité que le client soit un bon client (l’outil choisit cette option à partir d’une probabilité de 0.65),

– la probabilité qu’il ne le soit pas.

image_27

Félicitations…. Vous êtes maintenant capables de réaliser votre première analyse prédictive avec Dataiku !

Facilité d’installation et de prise en main… l’objectif de Dataiku de rendre la data science plus accessible a bien l’air d’être en passe d’être réussi !

Démarrer avec Dataiku 4.0 : réaliser votre premier modèle d’analyse prédictive

Vous voulez découvrir l’analyse prédictive et les algorithmes de machine learning avec Dataiku ? C’est par ici… nous vous guidons pas à pas.

A quoi ça sert ?

Dataiku est un outil qui permet de :

  • préparer les données (nettoyage, enrichissement),
  • les analyser et les visualiser,
  • faire de l’analyse prédictive (par exemple, dans le domaine du marketing, être capable dès la première interaction avec un client de prédire si celui-ci sera un bon client),
  • automatiser ces analyses et modèles.

1ère étape : installation et lancement de DSS (Data Science Studio)

Dataiku est un outil qui fonctionne exclusivement sous Linux ; Il est possible de le faire fonctionner sous Windows en installant une machine virtuelle comme décrit ci-dessous :

  • Depuis le gestionnaire de programmes, lancer Oracle VM Virtual Box

image_1

  • Importer la machine virtuelle DSS que vous venez de télécharger (dataiku-dss-4.0.1.ova)

image_2

  • Démarrer la machine virtuelle

image_3

Note : l’URL à utiliser est affichée au moment du démarrage de la machine virtuelle (en standard, c’est celle qui est donnée ici).

Nous allons traiter comme exemple l’analyse d’un fichier de données, mais il est possible également avec dataiku d’analyser des données provenant de bases SQL, no SQL, de clouds, de clusters Hadoop…

Nous procéderons dans un premier temps à l’import des données, puis à leur nettoyage. Dans un deuxième temps, nous les analyserons grâce à la data visualisation et à l’analyse prédictive.

2ème étape : préparation des données

2.1 Importer le fichier de données à analyser

image_4

image_5

image_6

  • Ouvrir le LAB

image_7

2.2 Exemples d’actions de nettoyage de données

  • Supprimer les lignes pour lesquelles le pays n’est pas renseigné

image_8

  • Nous voyons que l’outil a automatiquement analysé les colonnes et positionné le type correspondant. Pour la colonne « campaign », qui indique si le client a été ciblé par une campagne de marketing, nous voyons ci-dessous que le type positionné par dataiku est « entier » et que des valeurs incorrectes ont été détectées.

image_9

Nous voyons que les valeurs incorrectes correspondent à des saisies non cohérentes (booléen 0/1 de manière générale mais quelques valeurs saisies en mode true/false).

Passons en mode analyse pour pouvoir corriger ces saisies incohérentes.

image_10

image_11

Il est possible de merger les saisies incohérentes avec celles qui sont correctes…

image_12

… de façon à avoir des données propres et analysables.

image_13

Les données sont prêtes à être analysées !

Nous verrons dans un prochain article comment les exploiter de manière simple dans un exemple concret d’analyse prédictive appliquée au domaine du marketing.

Important : Nouvelle URL pour ce blog, mettez vos liens à jour !

Merci de noter que l’adresse principale de ce blog est désormais blogbi.asi.fr au lieu de blogbi.asi-informatique.fr

Pensez à la modifier dans vos signets, favoris ou autres liens !

A très bientôt sur blogbi.asi.fr !

Démarrer avec Tableau Software

tableau software

Tableau Software et un éditeur américain de solutions de visualisation et d’analyse des données. Positionné sur le marché de la Business Discovery, le principe de cette solution est de permettre à des utilisateurs de pouvoir procéder à des analyses au travers d’une relation directe avec les données, en mode self-service, sans qu’il soit nécessaire de créer des couches intermédiaires ou des processus d’extraction. Cette relation directe permet aux utilisateurs de fusionner eux-mêmes des sources de données hétérogènes, ce qui répond à un vrai besoin car on constate aujourd’hui une ouverture de plus en plus forte des entreprises à l’acquisition de données extérieures. Données externes dont le format peut changer régulièrement, ou règles internes de consolidation mouvantes qui rendent difficiles l’automatisation de leur intégration.

Le point fort de Tableau Software est qu’il est parmi les plus simples à prendre en main pour un utilisateur de type analyste.

La solution se compose de deux parties :

  • Un client lourd, Tableau Desktop, qui permet de se connecter aux données, de faire des analyses visuelles et de créer des dashboards.
  • Un serveur, Tableau Server, qui permet de publier en mode web les dashboards interactifs créés avec le client lourd.

Tableau Desktop permet de se connecter à un large spectre de données.

spectre de données

Dans le cas où l’on accède à une base de données, il est possible d’importer les données d’une table ou de plusieurs tables. Dans le deuxième cas, il faudra soit utiliser l’assistant de jointure, soit saisir son propre code SQL.

importation des données d'une table

assistant de jointure

Pour les performances, Tableau Software sait travailler suivant trois modèles. L’extraction totale en mémoire vive, l’exploitation des ressources propres à la base de données ou l’extraction partielle en mémoire.

performances

Dans le troisième cas, il est ainsi possible de travailler sur un extrait des données afin d’avoir de meilleures performances ou de pouvoir travailler en mode déconnecté. L’extrait peut être réalisé via l’utilisation de filtres sur les données et d’un nombre ou d’un pourcentage de lignes données.

extrait de données

Il est possible de faire une actualisation incrémentielle en se basant sur la valeur d’un champ, par exemple un champ date de mise à jour ou un identifiant incrémentiel.

actualisation incrémentielle

Tableau va ensuite présenter la structure de données sous forme de dimensions et d’indicateurs. En fonction de la source, il peut prendre en compte la nature des données. Par exemple, les données géographiques seront identifiées par un globe terrestre ; Une structure hiérarchique par semaine, mois ou autre sera créée automatiquement pour les données temporelles.

dimensions

Si les données ne sont pas identifiées de façon pertinente, il est possible de :

  • modifier leur statut (transformer un indicateur en dimension ou inversement),
  • créer un champ calculé, un regroupement de valeurs, un ensemble, une hiérarchie, etc.,
  • modifier leur type (nombre, date, rôle géographique, etc.),
  • modifier leurs propriétés (commentaire, alias, couleur, etc.),
  • remplacer des références d’un champ par les valeurs d’un autre,
  • etc.

modifications possibles

Il est possible de fusionner plusieurs sources de données en créant une relation entre les différentes sources. Dans ce cas, il faut que les champs clés soient présents dans la vue afin de pouvoir utiliser des objets provenant de plusieurs sources.

fusion sources de données

Les champs liés sont identifiés par une chaîne rouge dans la vue des dimensions. La check box bleue devant la source de données signifie que c’est la source de données principale (table des faits) et les check box rouges indiquent que ce sont des sources secondaires (lookup / table de dimensions).

La partie représentation des données se fait presque uniquement par des glisser/déposer. Tableau Software dispose d’un nombre important et varié de modèles de présentations.Il est capable de proposer automatiquement les visualisations graphiques les plus adaptées à la sélection qui aura été effectuée. Des brevets ont d’ailleurs été déposés sur ces techniques de présentation de l’information.

visualisation graphique

Bien entendu, il est possible de réaliser de nombreuses opérations de mise en forme : masquer des éléments (étiquettes, titre, légende…), trier les données, formater (police, bordures…), créer des champs calculés, créer des variables, ajouter des courbes de tendance, une mise en forme conditionnelle, un filtre des données, ajouter des annotations, intégrer de la cartographie via WMS, etc.

On peut réaliser ainsi plusieurs analyses dans le même document, que l’on peut assimiler à un classeur Excel. Elles apparaîtront ainsi dans des feuilles de calcul différentes. Il est ensuite possible d’assembler les analyses dans un tableau de bord. On peut ajouter un titre, du texte, des images et des pages web au tableau de bord.

tableau de bord d'assemblage des analyses

pack OBRAu final, un classeur Tableau Software (.twb) fait référence à différents fichiers stockés sur votre poste local (ficher Excel utilisé en source, extraits Tableau, image de fond, etc.). Il est possible de sauvegarder un document Tableau sous la forme d’un package (classeur complet .twbx) qui va regrouper une copie de tous ces fichiers. Il sera ainsi plus facile de le partager avec d’autres utilisateurs.

Enfin, si l’on dispose de Tableau Server, il est possible de publier les feuilles ou les tableaux de bord de son classeur pour les visualiser depuis une interface web. On peut également ouvrir un classeur publié sur le serveur en local dans Tableau Desktop.

visualisation du classeur

Il n’est pas possible de modifier les feuilles ou les tableaux en mode web, mais ils sont complètement dynamiques. Il est possible d’actualiser les données, de filtrer les données via des curseurs, check box, etc. ou via des sélections dans les légendes, graphiques ou tableaux.

feuilles et tableaux dynamiques

On peut sauvegarder ses sélections sous la forme de vues personnalisées afin de pouvoir les appliquer plus rapidement une prochaine fois.

vues personnalisées des sauvegardes de sélections

Il est également possible d’exporter les données et de générer tout ou partie d’un classeur sous la forme d’un fichier PDF.

export des données

Tableau Server permet notamment de gérer des projets, des utilisateurs et des groupes ainsi que les programmations pour les rafraîchissements des classeurs. Les programmations sont définies dans Tableau Server et l’on peut choisir la programmation à utiliser lors de la publication du classeur dans le serveur depuis Tableau Desktop. Bien entendu, elle peut être définie ou modifiée dans un deuxième temps depuis le serveur.

création de programmation

Développement d’un connecteur pour faciliter l’intégration entre OBIEE et Planning

OracleOracle appuie ses solutions BI et d’élaboration budgétaire autour des produits phares que sont notamment Planning (Essbase), Oracle Business Intelligence Suite Enterprise Edition (OBIEE) et  Oracle Data Integrator (ODI). Héritage du passé et de rachats successifs, le reporting Essbase était pour l’essentiel assuré par l’outil Hyperion Financial Report, qui a peu évolué dans ses fonctionnalités.

Profitant d’une mise à niveau complète des solutions implémentées chez l’un de ses clients, ASI a mis en œuvre un connecteur permettant de tirer partie des richesses respectives d’OBIEE et de la solution d’élaboration budgétaire (Planning – Essbase).

Ce connecteur, usant de la capacité d’OBIEE de joindre des bases relationnelles et des bases OLAP, permet à notre client d’abandonner Hyperion Financial Report et de recentrer les compétences et la maîtrise de ses équipes sur un nombre plus réduit d’outils.

Longtemps attendu par la communauté, ce connecteur spécifique permet de tirer profit des informations spécifiques à Planning (commentaires, détails de valeur, attributs personnalisés, etc.), de les adosser aux données contenues dans le moteur Essbase et d’utiliser ainsi toute la puissance de la solution OBIEE pour du reporting, des tableaux de bords et des analyses personnalisables.

OBIEE devient donc une alternative moderne à l’outil « Reports » de constitution de reporting financier. Prochaine étape, en cours d’étude : adapter ce connecteur au reporting de masse  (BIPublisher).

Présentation de Roambi analytics ES4

MeLLmo, fondée en 2008 aux États-Unis, est l’éditeur de Roambi qui propose des applications innovantes permettant aux utilisateurs en mobilité de visualiser et d’interagir avec leurs données métiers critiques. L’avantage de cette solution est qu’elle permet de capitaliser sur son existant BI afin de pouvoir le diffuser simplement sur des terminaux mobiles.

Son offre se compose de 2 produits :

  • Roambi analytics, qui permet de visualiser et d’analyser rapidement vos données et vos rapports grâce à une application innovante conçue spécifiquement pour les dispositifs mobiles.
  • Roambi flow, qui permet de créer et de partager facilement tous les types d’informations et de renseignements via un format magazine numérique attrayant.

A ce jour, seuls les terminaux mobiles iOS (iPod, iPhone et iPad) sont supportés mais le support d’Android devrait arriver en 2013. Les Apps Roambi peuvent être téléchargées sur l’App Store.

Roambi analytics Enterprise Server (ES) 4 permet de transformer vos données et vos rapports existants en analyses visuelles, interactives et sécurisées. Elles sont simples et intuitives à utiliser. Elles suscitent l’intérêt des utilisateurs. Cela permet d’accroitre l’expérience utilisateur et de favoriser l’adoption par ceux-ci.

Roambi Analytics ES4 fournit 10 modèles de vues d’analyse qui peuvent être alimentées à partir de vos sources de données BI existantes ou de vos rapports BI existants. Roambi vous propose des templates Excel décrivant le format que doivent avoir les données sources pour être correctement affichées par les vues. Il vous fournit également des best practices d’utilisation des vues.

Le serveur Roambi analytics ES4 (Windows, Linux ou Mac) propose une interface Web, via l’utilisation d’un serveur d’application (Tomcat, JBoss ou WebLogic), qui permet de créer les vues d’analyse via Roambi Publisher. Les données propres à Roambi sont stockées dans une base MySQL (ou éventuellement MS SQL Server).

La première étape de création d’une vue d’analyse consiste à choisir la vue désirée et à importer les données sources qui doivent être dans le format attendu par la vue d’analyse Roambi. Les données sources peuvent être de 3 natures :

  • Fichier : Excel, CSV, HTML ou SAS (.spk)
  • Cube OLAP : Microsoft SSAS ou Oracle Hyperion Essbase
  • Rapport : SAP BusnessObjects, IBM Cognos, Oracle BI, Microsoft SSRS ou Salesforce.com

Toutes les vues ne supportent pas toutes les sources de données, en particulier les cubes OLAP. Quand la source est un fichier Excel, il est possible de mapper la plage de données à utiliser dans les feuilles. Quand la source de données est cube, il est possible de choisir les niveaux de dimension et les indicateurs. Quand la source est un rapport, il s’appuie sur le rendu graphique (tableau) et non pas sur la requête. Cela permet d’utiliser les formules de l’outil de reporting et de créer, par exemple, des colonnes calculées.

La deuxième étape permet d’ajuster certains paramètres de mise en forme (données affichées par défaut, regroupements d’indicateurs, affichage des données de détail, etc.) et d’en tester le rendu dans un émulateur iPhone.

Enfin, la troisième étape permet de publier la vue d’analyse dans un portail (SAP BusnessObjects BI Launch Pad (Infoview), IBM Cognos Connection, Oracle Hyperion Workspace, Microsoft SharePoint, Liferay ou Salesforce.com). Cela permet de rendre l’application disponible sur l’App Roambi analytics. Lors du processus de publication, il est également possible d’envoyer un email avec le lien vers la vue d’analyse pour l’ouvrir directement depuis son terminal si l’App Roambi est installée.

La sécurité s’appuie sur celle définie dans votre système BI ou dans votre portail. En effet la connexion à Roambi se fait via les utilisateurs BI ou portail. Cela permet de conserver la gestion centralisée des utilisateurs et groupes, de faire du SSO et de propager la sécurité sur les objets, les données et les documents. Il est également possible de s’appuyer sur SiteMinder pour l’authentification.

Roambi propose également sa propre gestion de sécurité (PIN, rappel de fichier, blocage de l’APP et effacement des données sur l’App) afin de renforcer la protection des données sur les terminaux mobiles car il est possible de télécharger la vue d’analyse pour une utilisation en mode déconnecté. A noter que contrairement à beaucoup d’applications mobiles BI en mode déconnecté, Roambi permet de naviguer dans toutes les données en mode offline.

D’un point de vue architecture, il est possible de rendre le serveur accessible depuis l’extérieur via un déploiement dans une DMZ, via un reverse proxy, via l’utilisation de certificats croisés ou via VPN.

En synthèse, Roambi analytics ES4 est une des solutions de BI Mobile les plus intuitives et « sexys » du marché et qui permet de capitaliser sur votre infrastructure BI existante (données, rapports, portail et sécurité). Si vous disposez déjà de données BI (Excel, cubes) ou de rapports BI, il est ainsi possible de déployer rapidement des vues d’analyses à des utilisateurs.

Charger des données spatiales dans PostGIS

PostGIS est le module spatial qui confère au serveur PostgreSQL le statut de système de gestion de base relationnel spatial. Le nom provient de la PostGIScontraction de PostgreSQL et de GIS (Geographic Information System). PostGIS permet le traitement d’objets spatiaux dans les serveurs PostgreSQL, autorisant le stockage en base de données pour les SIG. Il a été publié sous la licence de style BSD et est donc un logiciel libre.

Une base de données spatiales ajoute des types de données pour représenter les entités géographiques. Ces types de données spatiales permettent d’accéder à des propriétés de l’entité géographique comme ses contours ou sa dimension. Elle fournit également un ensemble complet de fonctions pour analyser les composants géographiques, déterminer les relations spatiales et manipuler les objets géographiques.

Si vous souhaitez installer PostgreSQL, cela peut se faire en téléchargeant les binaires de PostgreSQL sur le site du projet : http://postgresql.org/download. Après avoir installé PostgreSQL, utilisez l’outil StackBuilder pour ajouter l’extension PostGIS à votre installation.

PGAdmin3est l’outil d’administration graphique pour PostgreSQL et PostGIS. Si c’est la première fois que vous lancez pgAdmin, vous devriez avoir une entrée du type PostGIS (localhost:5432) déjà configurée dans pgAdmin.

PostgreSQL fournit ce que l’on appelle des modèles de bases de données qui peuvent être utilisés lors de la création d’une nouvelle base. Cette nouvelle base contiendra alors une copie de tout ce qui est présent dans le modèle. Lorsque vous installez PostGIS, une base de données appelée template_postgis_20 a été créé. Si vous utilisez ce template comme modèle lors de la création d’une nouvelle base, ce sera une base de données spatiales.

Pour créer une nouvelle base de données spatiales, cliquez avec le bouton droit sur l’élément « Bases de données » et sélectionnez « Ajouter une base de données… ». Renseignez les différents paramètres en vous assurant d’utiliser le modèle template_postgis_20.

capture d'écran PostGIS

 

 

 

 

 

 

 

 

 

 

Le moyen le plus simple pour charger des données spatiales dans PostGIS est le chargement de fichiers Shapefile en utilisant l’outil dédié de PostGIS. Il est possible de télécharger gratuitement sur le net un grand nombre de données spatiales dans ce format.

Le Shapefile est un format de fichier initialement développé par ESRI pour ses logiciels commerciaux, qui contient toute l’information liée à la géométrie des objets décrits, qui peuvent être :
– des points,
– des lignes,
– des polygones.

Ce format est désormais devenu un standard largement utilisé par un grand nombre de logiciels de Systèmes d’Informations Géographiques (SIG).

On utilise communément le terme « Shapefile » pour parler d’un ensemble de fichiers. Le fichier Shapefile, à proprement parlé, possède l’extension .SHP et contient les entités géographiques elles-mêmes. Mais il est toujours accompagné de deux autres fichiers de même nom mais avec des extensions différentes :
– un fichier .SHX qui stocke l’index de la géométrie basé sur les positions des entités géographiques,
– un fichier .DBF qui contient les données attributaires relatives aux objets.

Il peut également être accompagné d’autres fichiers optionnels, comme le fichier .PRJ qui décrit le système de coordonnées et l’information de projection au format WKT (Well Known Text).

Pour accéder à la documentation technique du format Shapefile : http://www.esri.com/library/whitepapers/pdfs/shapefile.pdf

Chaque instance spatiale a un identificateur de référence spatiale : le SRID (Spatial Reference System Identifier). Le SRID correspond à un système de référence spatiale basé sur l’ellipsoïde spécifique utilisée pour le mappage de monde en deux dimensions ou le mappage de monde sphérique. Il encapsule sous la forme d’un nombre toutes les informations à propos de la projection de la carte. Le système d’identification de référence spatiale est défini par la norme EPSG (European Petroleum Survey Group), qui regroupe un ensemble de normes développées pour la cartographie, l’arpentage et le stockage de données géodésiques.

Pour consulter la liste de toutes les références de projection :
http://spatialreference.org/ref/

On peut consulter la liste de toutes les références de projection dans PostGIS en interrogeant la table spatial_ref_sys. Elle définit tous les systèmes de référence spatiale connus par la base de données. Les données livrées avec PostGIS, contiennent 3000 systèmes de référence spatiale et précisent les informations nécessaires à la transformation ou à la reprojection.

table spatiale ref sys

 

 

 

 

 

 

Pour savoir quel est l’EPSG utilisé par un Shapefile il suffit de charger le contenu du fichier .PRJ ou d’en copier le contenu dans le formulaire accessible via ce lien : http://prj2epsg.org. Cela vous donnera l’EPSG (ou une liste) qui correspond le plus à votre définition de projection. Il n’y a pas de nombre pour toutes les projections de cartes existantes dans le monde, mais les plus courants sont disponibles dans la base de données de prj2epsg.

Google Maps et Open Street Map utilisent la projection EPSG 3857 (World Mercator WGS 84). Si vous souhaitez superposer vos données spatiales sur ces fonds de carte, il est primordial que vous utilisiez le même système de projection afin que toutes les couches soient correctement superposées.

Il peut donc être nécessaire de convertir un Shapefile dans un autre système de projection. Pour ce faire, vous pouvez utiliser l’outil de conversion en ligne proposé sur ce site : http://converter.mygeodata.eu/vector.

Pour importer les données du Shapefile dans PostGIS, allez dans le menu Plugins > PostGIS Shapefile and DBF loader 2.0. Validez la base de données cible en cliquant sur « View connexion details… ». Sélectionnez le fichier à importer en cliquant sur « Add File » puis cliquez sur « Import ».

Post GIS shapefile Import/Export manager

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Lorsque le fichier est chargé, cliquez sur le bouton rafraîchir (F5) de pgAdmin pour mettre à jour l’arbre affiché. Vous devriez voir votre nouvelle table affichée dans la section Tables.

%d blogueurs aiment cette page :