SAP BusinessObjects Data Services 4.1 Support Package 1 Mode d'emploi
Guide Designer
■ SAP BusinessObjects Data Services 4.1 Support Package 1 (14.1.1.0)
2012-11-22
Copyright © 2012 SAP AG. Tous droits réservés.SAP, R/3, SAP NetWeaver, Duet, PartnerEdge, ByDesign,
SAP BusinessObjects Explorer, StreamWork, SAP HANA et les autres produits et services SAP mentionnés dans ce document, ainsi que leurs logos respectifs, sont des marques commerciales ou des marques déposées de SAP AG en Allemagne ainsi que dans d'autres pays. Business Objects et le logo Business Objects, BusinessObjects, Crystal Reports, Crystal Decisions, Web Intelligence,
Xcelsius et les autres produits et services Business Objects mentionnés dans ce document, ainsi que leurs logos respectifs, sont des marques commerciales ou des marques déposées de Business
Objects Software Ltd. Business Objects est une société du Groupe SAP. Sybase et Adaptive Server, iAnywhere, Sybase 365, SQL Anywhere, et les autres produits et services Sybase mentionnés dans ce document, ainsi que leurs logos respectifs, sont des marques commerciales ou des marques déposées de Sybase, Inc. Sybase est une société du Groupe SAP. Crossgate, m@gic EDDY, B2B
360°, B2B 360° Services sont des marques commerciales ou des marques déposées de Crossgate
AG en Allemagne ainsi que dans d'autres pays. Crossgate est une société du Groupe SAP. Tous les autres noms de produits et de services mentionnés sont des marques commerciales ou des marques déposées de leurs entreprises respectives. Les données contenues dans ce document sont uniquement mentionnées à titre informatif. Les spécifications des produits peuvent varier d'un pays
à l'autre. Les informations du présent document sont susceptibles d'être modifiées sans préavis.
Elles sont fournies par SAP AG et ses filiales (« Groupe SAP ») uniquement à titre informatif, sans engagement ni garantie d'aucune sorte. Le Groupe SAP ne pourra en aucun cas être tenu pour responsable des erreurs ou omissions relatives à ces informations. Les seules garanties fournies pour les produits et les services du Groupe SAP sont celles énoncées expressément à titre de garantie accompagnant, le cas échéant, lesdits produits et services. Aucune des informations contenues dans ce document ne saurait constituer une garantie supplémentaire.
2012-11-22
Table des matières
3
Ensemble de documentation pour SAP BusinessObjects Data Services................................17
2012-11-22
4
Table des matières
2012-11-22
Table des matières
5
Parcourir les métadonnées depuis une banque de données de base de données...................82
Importation de métadonnées par une banque de données de base de données.....................85
Parcourir les métadonnées depuis une banque de données d'adaptateur.............................105
Importation de métadonnées par une banque de données d'adaptateur...............................105
Parcourir les métadonnées WSDL depuis une banque de données de services Web...........107
Importation de métadonnées par une banque de données de services Web.........................109
2012-11-22
6
Table des matières
Créer un nouveau format de fichier de copybook COBOL et un fichier de données.............153
Créer des règles pour identifier quels enregistrements représentent quels schémas...........154
Création des formats de classeur Microsoft Excel sur les plateformes UNIX .......................155
2012-11-22
7
Table des matières
Propager les colonnes dans un flux de données contenant une transformation Merge.........175
Poussée vers le bas des opérations vers le serveur de base de données............................183
Différences entre traitement des données de texte et transformations Data Cleanse..........209
2012-11-22
8
Table des matières
Ajout d'une transformation de traitement des données de texte à un flux de données..........212
Génération de schémas DTD et XML à partir d'un schéma NRDM......................................246
Vue d'ensemble des données imbriquées et de la transformation Query..............................247
2012-11-22
9
Table des matières
Astuces relatives à la conception pour flux de données dans des jobs en temps réel...........279
Création de branche de flux de données en fonction d'une valeur de cache de données......284
2012-11-22
10
Table des matières
Pour afficher les variables et les paramètres dans chaque job, workflow ou flux de données.299
Association d'une configuration des paramètres de substitution à une configuration système.318
2012-11-22
11
Table des matières
2012-11-22
12
Table des matières
Cycle de vie du package de nettoyage des données : développement, déploiement et gestion
2012-11-22
13
Table des matières
2012-11-22
14
Table des matières
Utilisation de SQL de préchargement pour autoriser des flux de données ré-exécutables ....700
2012-11-22
15
Table des matières
Utilisation de la CDM avec les bases de données Microsoft SQL Server ...........................732
A propos de la Management Information Base (MIB) de l'agent SNMP................................771
2012-11-22
16
Table des matières
2012-11-22
Introduction
Introduction
1.1 Bienvenue dans SAP BusinessObjects Data Services
1.1.1 Bienvenue
SAP BusinessObjects Data Services propose une solution d'entreprise unique pour l'intégration de données, la qualité des données, le profilage des données et le traitement des données de texte qui vous permet d'intégrer, de transformer, d'améliorer et de fournir des données sécurisées aux processus de gestion critiques. La solution propose une interface utilisateur de développement, un référentiel des métadonnées, une couche de connectivité de données, un environnement d'exécution et une console de gestion, permettant aux entreprises du domaine de l'informatique de réduire leur coût total en matière de propriété et d'accélérer la valeur temps. SAP BusinessObjects Data Services garantit aux entreprises du secteur informatique une meilleure efficacité avec une seule solution permettant d'améliorer la qualité des données et d'accéder à des sources et des applications hétérogènes.
1.1.2 Ensemble de documentation pour SAP BusinessObjects Data Services
Nous vous conseillons de vous familiariser avec les différents éléments de la documentation relative au produit SAP BusinessObjects Data Services.
Document Eléments fournis par ce document
Guide d'administration
Problèmes client résolus Informations relatives aux problèmes client résolus dans cette version.
Guide de Designer
Informations relatives aux tâches administratives telles que la surveillance, la gestion du cycle de vie, la sécurité, etc.
Organigramme de la documentation
Informations sur la façon d'utiliser SAP BusinessObjects Data Services Designer.
Informations relatives aux ouvrages, aux langues et aux sites de SAP BusinessObjects Data Services.
17 2012-11-22
Introduction
Document Eléments fournis par ce document
Guide d'installation pour
Windows
Informations relatives aux procédures d'installation de SAP BusinessObjects Data
Services dans un environnement Windows.
Guide d'installation pour
UNIX
Informations et procédures relatives à l'installation de SAP BusinessObjects Data
Services dans un environnement UNIX.
Guide d'intégration
Informations pour les développeurs tiers concernant l'accès à la fonctionnalité SAP
BusinessObjects Data Services à l'aide des services Web et d'API.
Guide principal
Guide de la Console de gestion
Guide d'optimisation de la performance
Guide de référence
Notes de version
Manuels techniques
Informations relatives à l'application, ses composantes et scénarios, pour la planification et la conception de votre infrastructure système. Des informations relatives
à SAP BusinessObjects Information Steward sont également disponibles dans ce guide.
Informations sur l'utilisation de l'Administrateur de SAP BusinessObjects Data
Services et des rapports de métadonnées de SAP BusinessObjects Data Services.
Informations relatives à la façon d'améliorer la performance de SAP BusinessObjects
Data Services.
Support de référence détaillé pour SAP BusinessObjects Data Services Designer.
Informations importantes requises avant l'installation et le déploiement de cette version de SAP BusinessObjects Data Services.
PDF “général” rassemblant les principaux ouvrages de SAP BusinessObjects Data
Services et contenant une table des matières et un index généraux permettant d'effectuer des recherches :
•
Guide d'administration
• Guide de Designer
• Guide de référence
• Guide de la Console de gestion
•
Guide d'optimisation de la performance
• Supplement for J.D. Edwards
• Supplement for Oracle Applications
• Supplement for PeopleSoft
•
Supplement for Salesforce.com
• Supplement for Siebel
• Supplement for SAP
• Guide de Workbench
Guide de personnalisation d'extraction pour le traitement des données de texte
Informations relatives à la constitution de dictionnaires et de règles d'extraction pour créer vos propres modèles d'extraction à utiliser avec les transformations de traitement des données de texte.
18 2012-11-22
Introduction
Document Eléments fournis par ce document
Guide de référence de langue de traitement des données de texte
Informations relatives à l'analyse linguistique et aux fonctionnalités de traitement d'extraction que fournit la composante de traitement des données de texte, ainsi qu'une section de référence pour chaque langue prise en charge.
Tutoriel
Guide de mise à niveau
Introduction étape par étape à l'utilisation de SAP BusinessObjects Data Services.
Modifications de comportement de produit spécifiques à la version, des versions antérieures de SAP BusinessObjects Data Services à la dernière version. Ce manuel contient également des informations sur la façon d'effectuer une migration de SAP
BusinessObjects Data Quality Management à SAP BusinessObjects Data Services.
Nouveautés
Guide de Workbench
Met en évidence les nouvelles fonctions clés dans cette version de SAP BusinessObjects Data Services. Ce document n'est pas mis à jour pour les versions Support
Package ou patch.
Fournit aux utilisateurs des informations sur la façon d'utiliser le Workbench pour la migration de données et des informations sur le schéma de base de données entre différents systèmes de base de données.
Différents guides complémentaires pourront en outre vous être utiles.
Document Eléments fournis par ce document
Supplement for J.D. Edwards
Supplement for PeopleSoft
Informations relatives aux interfaces entre SAP BusinessObjects Data Services, J.D. Edwards World et J.D. Edwards OneWorld.
Supplement for Oracle Applications
Informations relatives à l'interface entre SAP BusinessObjects Data Services et les applications Oracle.
Informations relatives aux interfaces entre SAP BusinessObjects Data Services et PeopleSoft.
Supplement for Salesforce.com
Informations relatives à l'installation, à la configuration et à l'utilisation de
SAP BusinessObjects Data Services Salesforce.com Adapter Interface.
Supplement for SAP
Informations relatives aux interfaces entre SAP BusinessObjects Data Services, les applications SAP, SAP Master Data Services et SAP NetWeaver
BW.
Supplement for Siebel
Informations relatives à l'interface entre SAP BusinessObjects Data Services et Siebel.
Des manuels d'information sur les services de plateforme d'informations SAP BusinessObjects sont
également inclus.
19 2012-11-22
Introduction
Document
Guide d'administration des services de plateforme d'informations
Eléments fournis par ce document
Informations destinées aux administrateurs responsables de la configuration et de la gestion d'une installation de services de plateforme d'informations.
Guide d'installation des services de plateforme d'informations pour UNIX
Procédures d'installation des services de plateforme d'informations SAP BusinessObjects sur un environnement UNIX.
Guide d'installation des services de plateforme d'informations pour Windows
Procédures d'installation des services de plateforme d'informations SAP BusinessObjects sur un environnement Windows.
1.1.3 Accès à la documentation
L'ensemble de la documentation de SAP BusinessObjects Data Services est disponible à différents endroits.
1.1.3.1 Accès à la documentation sous Windows
Une fois que vous avez installé SAP BusinessObjects Data Services, vous pouvez accéder à la documentation à partir du menu Démarrer.
1.
Sélectionnez Démarrer > Programmes > SAP BusinessObjects Data Services 4.1 >
Documentation Data Services > Tous les guides.
2.
Cliquez sur le raccourci du document que vous souhaitez afficher.
1.1.3.2 Accès à la documentation sous UNIX
Une fois que vous avez installé SAP BusinessObjects Data Services, vous pouvez accéder à la documentation sur le répertoire où se trouvent les fichiers PDF pouvant être imprimés.
1.
Accédez à <LINK_DIR>/doc/book/en/.
2.
A l'aide d'Adobe Reader, ouvrez le fichier PDF du document que vous voulez afficher.
20 2012-11-22
Introduction
1.1.3.3 Accès à la documentation à partir du Web
Vous pouvez accéder à l'ensemble de la documentation de SAP BusinessObjects Data Services à partir du site d'aide aux utilisateurs professionnels SAP BusinessObjects.
Pour ce faire, accédez à http://help.sap.com/bods .
Vous pouvez afficher les PDF en ligne ou les sauvegarder sur votre ordinateur.
1.1.4 Ressources d'informations SAP BusinessObjects
Un réseau global d'experts en technologie SAP BusinessObjects apporte au client aide, formation et conseils afin de garantir le meilleur en matière de gestion des informations pour votre activité.
Aperçu des adresses utiles :
21 2012-11-22
Introduction
Adresse
Services Support client, Conseil et Formation http://service.sap.com/
Contenu
Informations relatives aux programmes d'assistance des utilisateurs professionnels SAP, ainsi que des liens vers des articles techniques, des téléchargements et des forums en ligne. Les services de conseil peuvent vous donner des informations sur la façon dont SAP BusinessObjects peut améliorer votre gestion des informations. Les services de formation peuvent fournir des informations sur les options et les modules de formation. De la formation en salle classique aux séminaires e-learning,
SAP BusinessObjects fournit un package de formation permettant de répondre à vos besoins en formation et de proposer le type de formation le mieux adapté.
Documentation produit SAP BusinessObjects.
Documentation produit http://help.sap.com/bods/
Plateformes prises en charge (Matrice de disponibilité des produits) https://service.sap.com/PAM
Obtenir des informations sur les plateformes prises en charge pour SAP BusinessObjects Data Services.
Utilisez la fonction de recherche pour rechercher des Data Services. Cliquez sur le lien pour la version de Data Services que vous recherchez.
1.2 Présentation de ce guide
Bienvenue dans le Guide Designer. Data Services Designer fournit un environnement de développement d'interface utilisateur graphique dans lequel vous définissez une logique d'application de données pour extraire, transformer et charger des données de bases de données et d'applications dans un entrepôt de données utilisé pour les requêtes analytiques et à la demande. Vous pouvez également utiliser
Designer pour définir des chemins logiques pour traiter des requêtes basées sur des messages et des transactions d'applications Web, front-office et back-office.
1.2.1 A propos de ce guide
Le guide contient deux types d'informations :
22 2012-11-22
Introduction
• Des informations conceptuelles qui aident à comprendre Data Services Designer et son fonctionnement
• Des informations procédurales qui expliquent étape par étape comment accomplir une tâche
Vous trouverez ce guide très utile :
• En étudiant le produit
• En accomplissant les tâches de la phase de conception et de tests précoces de vos projets de déplacement de données.
• Comme source générale d'information durant toutes les phases de vos projets
1.2.2 Qui doit lire ce guide ?
Cette documentation ainsi que celles des autres produits SAP BusinessObjects Data Services repose sur ces principes :
• Vous êtes développeur d'applications, consultant ou administrateur de base de données travaillant sur l'extraction, l'entreposage, l'intégration ou la qualité des données.
• Vous comprenez les concepts de vos systèmes de sources de données, de RDBMS, de Business
Intelligence et de messagerie.
• Vous comprenez les besoins en matière de données de votre organisation.
• Vous connaissez bien SQL (Structured Query Language).
• Si vous désirez utiliser ce produit pour concevoir un traitement en temps réel, vous devez bien connaître :
• Les formats de schéma DTD et XML pour les fichiers XML
• Les services Web de publication (protocoles WSDL, HTTP et SOAP, etc.)
• Vous connaissez bien les environnements d'installation de SAP BusinessObjects Data Services :
Microsoft Windows ou UNIX.
23 2012-11-22
Introduction
24 2012-11-22
Connexion au Designer
Connexion au Designer
25
Pour vous connecter au progiciel, vous devez avoir accès à un référentiel local. En règle générale, vous créez un référentiel lors de l'installation. Vous pouvez néanmoins créer un référentiel à tout moment
à l'aide du Gestionnaire de référentiel et configurer les droits d'accès dans le CMS (Central Management
Server).
Par ailleurs, chaque référentiel doit être associé à au moins un Job Server pour que vous puissiez exécuter des jobs liés aux référentiels dans Designer. Vous définissez habituellement un Job Server que vous associez à un référentiel lors de l'installation. En revanche, vous pouvez définir ou modifier des Job Server ou les liens entre les référentiels et les Job Server à tout moment à l'aide du Gestionnaire de serveurs.
Lorsque vous vous connectez à Designer, vous devez vous connecter en tant qu'utilisateur défini dans le CMS (Central Management Server).
1.
Saisissez vos références de connexion pour le CMS.
Option
Système
Description
Indiquez le nom du serveur et éventuellement le port pour le CMS.
Nom d'utilisateur
Indiquez le nom d'utilisateur à utiliser pour se connecter au CMS.
Mot de passe
Indiquez le mot de passe à utiliser pour se connecter au CMS.
Authentification
Indiquez le type d'authentification utilisé par le CMS.
2.
Cliquez sur Se connecter.
Le logiciel tente de se connecter au CMS à l'aide des informations spécifiées. Lorsque vous êtes connecté, la liste des référentiels locaux disponibles s'affiche.
3.
Sélectionnez le référentiel que vous souhaitez utiliser.
4.
Pour vous connecter à l'aide du référentiel sélectionné, cliquez sur OK.
Lorsque vous cliquez sur OK, vous devez saisir le mot de passe pour le référentiel Data Services.
Ce comportement par défaut peut être modifié en ajoutant les droits nécessaires au référentiel dans le CMC. Pour en savoir plus, voir le Guide d'administration.
Rubriques associées
• Guide d'administration : Protection par mot de passe pour un référentiel Data Services
• Guide d'administration : Gestion des paramètres de sécurité des référentiels dans le CMC
2012-11-22
Connexion au Designer
2.1 Restrictions de version
La version du référentiel doit être associée à la même version principale que Designer et être inférieure ou égale à la version de Designer.
Lors de la connexion, le logiciel vous alerte en cas de non-concordance entre la version de Designer et celle de votre référentiel.
Une fois connecté, vous pouvez afficher la version du progiciel et la version du référentiel en sélectionnant Aide > A propos de Data Services.
Certaines fonctions de la version actuelle de Designer peuvent ne pas être prises en charge si vous n'êtes pas connecté à la dernière version du référentiel.
2.2 Réinitialisation des utilisateurs
Il peut arriver que plusieurs personnes tentent de se connecter à un même référentiel. Dans ce cas, la fenêtre Réinitialiser les utilisateurs s'affiche, indiquant les utilisateurs connectés au référentiel et l'heure de leur connexion.
Cette fenêtre vous offre plusieurs possibilités. Vous pouvez :
• Réinitialiser les utilisateurs dans le référentiel et définir votre propre utilisateur comme l'utilisateur connecté actuellement.
• Continuer et vous connecter au système indépendamment du fait que d'autres utilisateurs soient connectés ou non.
• Quitter pour interrompre la tentative de connexion et fermer la session.
Remarque :
Utilisez Réinitialiser les utilisateurs ou Continuer uniquement si vous êtes sûr d'être le seul utilisateur connecté au référentiel. Les modifications a posteriori risquent d'endommager le référentiel.
26 2012-11-22
Interface utilisateur du Designer
Interface utilisateur du Designer
Cette section présente l'interface graphique utilisateur de Designer.
3.1 Objets
Toutes les "entités" que vous définissez, modifiez ou utilisez dans Designer sont appelées objets. La bibliothèque d'objets locale affiche des objets tels que les métadonnées source et cible, les fonctions du système, les projets et les jobs.
De nature hiérarchique, les objets sont constitués :
• D'options qui en définissent le fonctionnement. Dans une banque de données, le nom de la base de données à laquelle vous vous connectez est une option de l'objet banque de données, par exemple.
• De propriétés donnant des informations sur l'objet. Le nom de l'objet et sa date de création constituent, par exemple, des propriétés. Les propriétés décrivent un objet mais n'affectent pas son fonctionnement.
Le progiciel comprend deux types d'objets : les objets réutilisables et à usage unique. Le type d'objet a une incidence sur la façon dont vous définissez et récupérez l'objet.
3.1.1 Objets réutilisables
Vous pouvez réutiliser et répliquer la plupart des objets définis dans le progiciel.
Une fois que vous avez défini et enregistré un objet réutilisable, le progiciel sauvegarde sa définition dans le référentiel local. Vous pouvez ensuite réutiliser la définition aussi souvent que vous le voulez en créant des appels. Les objets réutilisables sont accessibles par le biais de la bibliothèque d'objets locale.
Un objet réutilisable possède une définition unique ; tous les appels de l'objet font référence à cette définition. Si vous modifiez la définition d'objet à un endroit, vous modifiez toutes les autres occurrences de l'objet.
27 2012-11-22
Interface utilisateur du Designer
Un flux de données est, par exemple, un objet réutilisable. Plusieurs jobs, comme un job de chargement hebdomadaire et un job de chargement quotidien, peuvent appeler le même flux de données. Si le flux de données change, les deux jobs utilisent la nouvelle version du flux de données.
La bibliothèque d'objets contient les définitions des objets. Utiliser la fonction Glisser-déplacer sur un objet de la bibliothèque revient à créer une référence (ou un appel) pour la définition d'objet existante.
3.1.2 Objets à usage unique
Certains objets sont définis dans le contexte d'un seul job ou flux de données, comme les scripts et certaines définitions de transformations.
3.1.3 Hiérarchie d'objets
Les relations entre objets sont de nature hiérarchique. La figure suivante illustre les relations entre les principaux types d'objets :
28 2012-11-22
Interface utilisateur du Designer
3.2 Fenêtre Designer
L'interface utilisateur de Designer comprend une seule fenêtre d'application et plusieurs fenêtres de prise en charge intégrées.
29 2012-11-22
Interface utilisateur du Designer
Outre la barre de menus et la barre d'outils, la fenêtre d'application comprend les domaines clés suivants :
Domaine
1. Zone de projet
Description
Comprend le projet en cours (et le ou les jobs et autres objets qui y sont contenus), qui est disponible à un moment précis. Toutes les entités que vous créez, modifiez ou utilisez dans le progiciel sont des objets.
2. Espace de travail
Domaine de la fenêtre d'application dans lequel vous définissez, affichez et modifiez les objets.
3. Bibliothèque d'objets locale
Permet d'accéder aux objets du référentiel local, y compris les objets système intégrés comme les transformations, et aux objets que vous créez et enregistrez, comme les jobs et flux de données.
4. Palette d'outils
Les boutons disponibles sur la palette d'outils permettent d'ajouter des objets à l'espace de travail.
3.3 Barre de menus
30 2012-11-22
Interface utilisateur du Designer
Cette section propose une brève description des menus de Designer.
3.3.1 Menu Projet
Le menu Projet comprend des options Windows standard ainsi que des options spécifiques au progiciel.
Option
Nouveau
Ouvrir
Fermer
Supprimer
Enregistrer
Tout enregistrer
Imprimer
Configuration de l'impression
Quitter
Description
Définir un projet, un job batch, un job en temps réel, un workflow, un flux de données, une transformation, une banque de données, un format de fichier, un fichier DTD, un schéma XML ou une fonction personnalisée.
Ouvrir un projet existant.
Fermer le projet actif.
Supprimer l'objet sélectionné.
Enregistrer l'objet ouvert dans l'espace de travail.
Enregistrer toutes les modifications des objets pendant la session de Designer en cours.
Imprimer l'espace de travail actif.
Configurer les informations relatives à l'imprimante par défaut.
Quitter le Designer.
3.3.2 Menu Edition
Le menu Edition propose les commandes Windows standard avec quelques restrictions.
Option
Annuler
Couper
Copier
Coller
Description
Annuler la dernière opération.
Couper les objets ou le texte sélectionné(s) et le(s) placer dans le Presse-papiers.
Copier les objets ou le texte sélectionné(s) dans le Presse-papiers.
Coller le contenu du Presse-papiers dans la zone de texte ou l'espace de travail actif.
31 2012-11-22
Interface utilisateur du Designer
Option
Supprimer
Récupérer les derniers
éléments supprimés
Tout sélectionner
Tout effacer
Description
Supprimer les objets sélectionnés.
Restaurer les objets supprimés dans l'espace de travail dont ils ont été supprimés. Seuls les derniers objets supprimés sont récupérés.
Sélectionner tous les objets dans l'espace de travail actif.
Effacer tous les objets de l'espace de travail actif (et non annuler).
3.3.3 Menu Affichage
Une coche indique que l'outil est inactif.
Option
Barre d'outils
Barre d'état
Palette
Description
Afficher ou supprimer la barre d'outils dans la fenêtre Designer.
Afficher ou supprimer la barre d'état dans la fenêtre Designer.
Afficher ou supprimer l'outil flottant palette.
Descriptions activées
Afficher les descriptions des objets pour lesquels les descriptions sont activées.
Actualiser
Régénérer l'affichage. Cette commande permet de s'assurer que le contenu de l'espace de travail correspond aux informations les plus récentes du référentiel.
3.3.4 Menu Outils
Une icône avec une couleur de fond différente indique que l'outil est actif.
Option
Bibliothèque d'objets
Zone de projet
Variables
Sortie
Description
Ouvrir ou fermer la fenêtre de la bibliothèque d'objets.
Afficher ou supprimer la zone de projet dans la fenêtre Designer.
Ouvrir ou fermer la fenêtre Variables et paramètres.
Ouvrir ou fermer la fenêtre Sortie. La fenêtre Sortie affiche les erreurs survenues lors de la validation de jobs ou de l'exportation d'objets notamment.
32 2012-11-22
Interface utilisateur du Designer
Option
Moniteur du profileur
Description
Afficher le statut des tâches du profileur.
Exécuter l'Assistant de correspondance
Afficher l'Assistant de correspondance pour créer un flux de données de correspondance. Sélectionnez une transformation dans un flux de données pour activer ce point de menu. Les transformations générées par l'Assistant de correspondance seront placées en aval de la transformation que vous avez sélectionnée.
Editeur de correspondance
Afficher l'Editeur Match pour modifier les options de la transformation
Match.
Editeur associé
Afficher l'Editeur Associate pour modifier les options de la transformation Associate.
Editeur défini par l'utilisateur
Afficher l'Editeur User-Defined pour modifier les options de la transformation User-Defined.
Fonctions personnalisées
Configurations système
Configurations des paramètres de substitution
Connexion au serveur du profileur
Exporter
Afficher la fenêtre Fonctions personnalisées.
Afficher l'éditeur Configurations système.
Afficher l'Editeur de paramètres de substitution pour créer et modifier des paramètres de substitution et des configurations.
Se connecter au serveur du profileur.
Importer à partir du fichier
Exporter des objets du référentiel vers un autre référentiel ou fichier.
Cette commande permet d'ouvrir l'éditeur d'exportation dans l'espace de travail. Vous pouvez faire glisser des objets de la bibliothèque d'objets dans l'éditeur pour les exporter. Pour exporter votre référentiel en intégralité, cliquez avec le bouton droit dans la bibliothèque d'objets et sélectionnez Référentiel > Exporter vers le fichier.
Importer des objets dans le référentiel actif à partir d'un fichier. Les types de fichiers par défaut sont ATL, XML, DMT et FMT. Pour en savoir plus sur les fichiers DMT et FMT, voir le Guide de mise à niveau.
Echange de métadonnées
Univers BusinessObjects
Importer et exporter des métadonnées vers des systèmes tiers par le biais d'un fichier.
Exporter des métadonnées (création ou mise à jour) dans des univers
BusinessObjects.
33 2012-11-22
Interface utilisateur du Designer
Option
Référentiels centraux
Options
Console de gestion Data
Services
Description
Créer ou modifier des connexions à un référentiel central pour gérer des versions d'objets avec plusieurs utilisateurs.
Afficher la fenêtre Options.
Afficher la Console de gestion.
Rubriques associées
•
Configuration d'environnement multi-utilisateurs
• Guide d'administration : Exportation/Importation, Importation depuis un fichier
• Guide d'administration : Exportation/Importation, Exportation et importation d'objets
• Guide de référence : Fonctions et procédures, fonctions personnalisées
•
•
•
•
Utilisation du Profileur de données
•
Création et gestion de plusieurs configurations de banques de données
•
Connexion au serveur du profileur
•
•
•
Options générales et de l'environnement
3.3.5 Menu Débogage
Seules les options suivantes sont disponibles à tout moment dans ce menu : Afficher les filtres/points
d'arrêt et Filtres/Points d'arrêt. Les options Exécuter et Démarrer le débogage sont uniquement actives lorsqu'un job est sélectionné. Toutes les autres options sont disponibles au moment voulu lors de l'exécution d'un job en mode de débogage.
34 2012-11-22
Interface utilisateur du Designer
Option
Exécuter
Démarrer le débogage
Afficher les données au moment de la conception
Ouvre la fenêtre Propriétés de débogage qui permet d'exécuter un job en mode de débogage.
Ouvre des volets de données dans l'éditeur de transformation pour vous permettre d'afficher et d'analyser l'entrée et la sortie d'un jeu de données en temps réel lors de la conception d'une transformation.
Affichage automatique
Description
Ouvre la fenêtre Propriétés d'exécution qui permet d'exécuter le job sélectionné.
Filtrer le jeu de données d'entrée
Options
Permet d'afficher automatiquement les données d'entrée et de sortie après modification d'une transformation.
Permet de filtrer le nombre de lignes de données affiché dans les volets d'affichage des données lors de la conception.
Ouvre une fenêtre qui permet de configurer le nombre de lignes de données affiché et la durée autorisée avant le délai d'expiration pour les mises à jour.
Afficher les filtres/points d'arrêt
Filtres/Points d'arrêt
Affiche et masque les filtres et points d'arrêt dans les diagrammes de l'espace de travail.
Ouvre une fenêtre permettant de gérer les filtres et points d'arrêt.
Rubriques associées
•
Utilisation du débogueur interactif
•
Utilisation de l'affichage des données lors de la conception
•
Fenêtre Filtres et points d'arrêt
3.3.6 Menu Validation
Designer affiche les options appropriées de ce menu lorsqu'un objet est ouvert dans l'espace de travail.
35 2012-11-22
Interface utilisateur du Designer
Option
Valider
Afficher l'ATL
Afficher le SQL optimisé
Description
Valider les objets dans la vue active de l'espace de travail ou valider tous les objets dans le job avant d'exécuter l'application.
Afficher une version en lecture seule de la langue associée au job.
Afficher le SQL généré par Data Services pour un flux de données sélectionné.
Rubriques associées
• Guide d'optimisation de la performance : Maximizing Push-Down Operations, To view SQL
3.3.7 Menu Fenêtre
Le menu Fenêtre propose les options Windows standard.
Option
Précédent
Suivant
Afficher en cascade
Mosaïque verticale
Description
Revenir en arrière dans la liste des fenêtres actives de l'espace de travail.
Avancer dans la liste des fenêtres actives de l'espace de travail.
Afficher les volets des fenêtres en superposition avec affichage des titres.
Afficher les volets des fenêtres les uns au-dessus des autres.
Mosaïque horizontale
Afficher les volets des fenêtres côte à côte.
Fermer toutes les fenêtres
Fermer toutes les fenêtres ouvertes.
La liste des objets ouverts dans l'espace de travail est également affichée dans le menu Fenêtre. Le nom de l'objet sélectionné est indiqué par une coche. Vous pouvez accéder à un autre objet ouvert en sélectionnant son nom dans la liste.
3.3.8 Menu Aide
Le menu Aide propose des options d'aide standard.
36 2012-11-22
Interface utilisateur du Designer
Option
Notes de version
Nouveautés
Manuels techniques
Description
Affiche les notes de version relatives à la version actuelle.
Affiche une synthèse des nouvelles fonctions de cette version.
Didacticiel
Communauté Data Services
Forums sur SCN (SAP
Community Network)
Modèles
Affiche le fichier CHM Manuels techniques, compilation de nombreux documents techniques Data Services. Cette documentation est également accessible à partir du répertoire <LINKDIR>\Doc\Books.
Affiche le didacticiel Data Services, qui est une introduction étape par
étape à l'utilisation de SAP BusinessObjects Data Services.
Permet d'obtenir rapidement des informations sur SAP BusinessObjects
Data Services en ligne, notamment des trucs et astuces, des téléchargements supplémentaires et des échantillons. Tout le contenu est créé par la communauté pour la communauté. N'hésitez donc pas à participer et
à nous contacter si vous avez un élément à soumettre.
Explorez les forums SAP BusinessObjects sur SAP Community Network pour bénéficier des connaissances d'autres utilisateurs de SAP BusinessObjects Data Services, publier des questions ou partager vos connaissances avec la communauté.
Modèles à télécharger et à modifier en fonction de vos besoins. Chaque modèle contient le projet SAP BusinessObjects Data Services, les jobs, les flux de données, les formats de fichiers, les exemples de données, les tables de modèles et les fonctions personnalisées nécessaires pour exécuter les flux de données dans votre environnement en ne devant apporter que des modifications minimes.
Afficher la page d'accueil
Affiche la page d'accueil de Data ServicesDesigner.
A propos de Data Services
Affiche des informations sur le logiciel, notamment les versions de Designer, du Job Server et du moteur, ainsi que le copyright.
3.4 Barre d'outils
Icône
En plus des nombreux outils Windows standard, le progiciel fournit des outils spécifiques à l'application, dont voici des exemples :
Outil Description
Fermer toutes les fenêtres Ferme toutes les fenêtres ouvertes dans l'espace de travail.
Bibliothèque d'objets locale Ouvre et ferme la fenêtre de la bibliothèque d'objets locale.
37 2012-11-22
Interface utilisateur du Designer
Icône Outil
Variables
Description
Bibliothèque d'objets centrale Ouvre et ferme la fenêtre de la bibliothèque d'objets centrale.
Ouvre et ferme la fenêtre de création de variables et de paramètres.
Zone de projet
Sortie
Ouvre et ferme la zone de projet.
Ouvre et ferme la fenêtre de sortie.
Afficher les descriptions activées
Active au niveau du système le paramètre d'affichage des descriptions d'objets dans l'espace de travail.
Valider l'affichage en cours
Valide la définition d'objet ouverte dans l'espace de travail.
Les autres objets inclus dans la définition sont également activés.
Valider tous les objets de la vue
Valide la définition d'objet ouverte dans l'espace de travail.
Les objets inclus dans la définition sont également activés.
Objets d'Audit dans le flux de données
Ouvre la fenêtre Audit qui permet de définir les étiquettes et règles d'audit pour le flux de données.
Afficher les cas d'emploi
Ouvre la fenêtre Sortie qui affiche les objets parents (comme les jobs) de l'objet ouvert dans l'espace de travail (flux de données, par exemple). Cette commande permet de rechercher les autres jobs qui utilisent le même flux de données avant de décider de modifier la conception. Pour voir si un objet dans un flux de données est réutilisé ailleurs, cliquez avec le bouton droit et sélectionnez Afficher les cas d'emploi.
Précédent
Suivant
Console de gestion
Revenir en arrière dans la liste des fenêtres actives de l'espace de travail.
Avancer dans la liste des fenêtres actives de l'espace de travail.
Ouvre et ferme la fenêtre Console de gestion.
38 2012-11-22
Interface utilisateur du Designer
Icône Outil
Contenu
Description
Ouvre le PDF Manuels techniques qui contient des informations sur l'utilisation du progiciel.
Utilisez les outils à droite de l'outil A propos avec le débogueur interactif.
Rubriques associées
•
Options et barre d'outils du menu Débogage
3.5 Zone de projet
La zone de projet affiche les objets utilisés dans chaque projet de façon hiérarchique. Les onglets disponibles dans la partie inférieure permettent d'effectuer différentes tâches. Ces onglets sont les suivants :
Créer, afficher et gérer des projets. Propose une vue hiérarchique de tous les objets utilisés dans chaque projet.
Afficher le statut des jobs en cours d'exécution. Lorsque vous sélectionnez une exécution de job spécifique, son statut s'affiche, indiquant les étapes qui sont terminées et celles qui sont en cours d'exécution. Ces tâches peuvent également être réalisées à l'aide de lAdministrateur.
Afficher l'historique des jobs terminés. Les journaux peuvent également
être consultés à l'aide de l'Administrateur.
Pour gérer l'emplacement de la zone de projet, cliquez avec le bouton droit de la souris sur sa bordure grise et sélectionnez/désélectionnez Ancrage ou bien sélectionnez Masquer dans le menu.
• Lorsque vous sélectionnez Ancrage, vous pouvez cliquer sur la zone de projet et la faire glisser pour l'ancrer à un bord de la fenêtre de Designer ou l'en détacher. Lorsque vous faites glisser la zone de projet pour l'éloigner d'un bord de la fenêtre de Designer, elle reste détachée. Pour basculer rapidement entre vos derniers emplacements avec ancrage et sans ancrage, il vous suffit de cliquer deux fois sur la bordure grise.
Lorsque vous désélectionnez Ancrage, vous pouvez cliquer sur la zone de projet et la faire glisser vers n'importe quel emplacement de l'écran sans qu'elle ne soit ancrée dans la fenêtre de Designer.
39 2012-11-22
Interface utilisateur du Designer
• Lorsque vous sélectionnez Masquer, la zone de projet n'est plus visible dans la fenêtre de Designer.
Pour afficher à nouveau la zone de projet, cliquez sur son icône dans la barre d'outils.
Voici un exemple de l'onglet Designer de la fenêtre de projet, qui affiche la hiérarchie du projet :
Lorsque vous descendez dans la hiérarchie des objets au niveau de l'espace de travail de Designer, votre position dans la hiérarchie du projet est mise en surbrillance dans la fenêtre.
3.6 Palette d'outils
La palette d'outils est une fenêtre distincte qui apparaît par défaut sur le bord droit de l'espace de travail de Designer. Vous pouvez déplacer la palette d'outils à l'emplacement de votre choix sur l'écran ou l'ancrer à un bord de la fenêtre de Designer.
Les icônes disponibles dans la palette d'outils permettent de créer des objets dans l'espace de travail.
Celles qui ne peuvent pas être utilisées sur le diagramme ouvert dans l'espace de travail sont désactivées.
Pour afficher le nom d'une icône, placez le curseur dessus jusqu'à ce que l'info-bulle de l'icône apparaisse.
Lorsque vous créez un objet à l'aide de la palette d'outils, vous créez une définition d'un objet. Si un nouvel objet est réutilisable, il sera automatiquement disponible dans la bibliothèque d'objets une fois que l'aurez créé.
Si vous sélectionnez l'icône de flux de données dans la palette d'outils et que vous définissez un nouveau flux de données, vous pourrez ultérieurement extraire ce flux de données de la bibliothèque d'objets et ajouter un appel à la définition existante, par exemple.
La palette d'outils contient les icônes suivantes :
40 2012-11-22
Interface utilisateur du Designer
Icône Outil
Pointeur
Workflow
Description (classe)
Modifie le pointeur d'outil en pointeur de sélection permettant de sélectionner et déplacer des objets dans un diagramme.
Disponible
Partout
Crée un workflow (réutilisable).
Jobs et workflows
Flux de données Crée un flux de données (réutilisable).
Jobs et workflows
Flux de données
ABAP
Transformation
Query
Modèle de table
Uniquement utilisé avec l'application
SAP.
Crée un modèle pour une requête. A utiliser pour définir les mappages de colonnes et les sélections de lignes (à usage unique).
Flux de données
Crée une table pour une cible (à usage unique).
Flux de données
Modèle XML
Transport de données
Crée un modèle XML (à usage unique).
Uniquement utilisé avec l'application
SAP.
Flux de données
Script Crée un objet script (à usage unique).
Jobs et workflows
Structure conditionnelle
Crée un objet conditionnel (à usage unique).
Try Crée un objet Try (à usage unique).
Jobs et workflows
Jobs et workflows
Catch
Annotation
Crée un objet Catch (à usage unique).
Jobs et workflows
Crée une annotation (à usage unique).
Jobs, workflows et flux de données
3.7 Accessibilité du clavier Designer
Les touches suivantes sont disponibles pour la navigation dans Designer. L'ensemble des boîtes de dialogue et des affichages prennent en charge ces touches.
41 2012-11-22
Interface utilisateur du Designer
Pour
Entrer en mode modification.
Fermer une boîte de dialogue ou un menu, ou annuler une opération en cours.
Fermer la fenêtre en cours.
Faire défiler les fenêtres une par une.
Afficher un menu de système pour la fenêtre de l'application.
Appuyez sur
F2
Echap
CTRL+F4
CTRL+TABULATION
ALT+ESPACE
Passer à la page suivante d'une feuille de propriétés.
CTRL+PAGE SUIVANTE
Passer à la page précédente d'une feuille de propriétés.
CTRL+PAGE PRECEDENTE
Passer au contrôle suivant sur un affichage ou une boîte de dialogue.
Passer au contrôle précédent sur un affichage ou une boîte de dialogue.
Appuyer sur un bouton lorsqu'il est sélectionné.
Activer le menu contextuel (opérations à l'aide du clic droit).
TABULATION
MAJ+TABULATION
ENTREE ou ESPACE
MAJ+F10 ou Touche de menu
Développer ou réduire une arborescence (+).
Déplacer une arborescence vers le haut ou vers le bas.
Flèche droite ou Flèche gauche
Flèche du hautou Flèche du bas
Afficher le focus.
Opérations de touche de raccourci.
ALT
ALT+<LETTRE>
3.8 Espace de travail
Lorsque vous ouvrez ou sélectionnez un job ou un flux quelconque dans une hiérarchie de jobs, l'espace de travail devient "actif" avec votre sélection. L'espace de travail comporte un emplacement qui permet de manipuler les objets système et d'assembler les processus de déplacement de données en mode graphique.
42 2012-11-22
Interface utilisateur du Designer
Ces processus sont représentés par des icônes que vous pouvez glisser-déposer dans un espace de travail pour créer un diagramme d'espace de travail. Ce diagramme offre une représentation visuelle d'une application de déplacement de données complète ou partielle.
3.8.1 Déplacement d'objets dans l'espace de travail
Pour déplacer les objets dans l'espace de travail, utilisez les commandes de souris standard.
Pour déplacer un objet vers un autre emplacement de l'espace de travail, procédez comme suit :
1.
Cliquez sur l'objet pour le sélectionner.
2.
Faites glisser l'objet jusqu'à l'emplacement souhaité de l'espace de travail.
3.8.2 Création de liens entre les objets
Pour définir le flux de données à travers les jobs et les workflows, vous devez créer des relations entre les objets de la gauche vers la droite dans l'espace de travail, conformément à l'ordre dans lequel les données doivent être déplacées.
Pour créer des relations entre les objets, procédez comme suit :
1.
Placez les objets à relier dans l'espace de travail.
2.
Cliquez sur le triangle placé du côté droit d'un objet et faites-le glisser vers le triangle placé du côté gauche de l'objet suivant dans le flux.
3.8.3 Suppression des liens entre les objets
Pour supprimer les liens entre des objets, procédez comme suit :
1.
Cliquez sur la ligne de liaison.
2.
Appuyez sur Supprimer.
43 2012-11-22
Interface utilisateur du Designer
3.8.4 Description des objets
Pour ajouter des commentaires sur les objets, vous pouvez utiliser les descriptions. Les annotations permettent d'expliquer un job, un workflow ou un flux de données. Les descriptions et les annotations des objets sont visibles dans l'espace de travail. Utilisées conjointement, les descriptions et les annotations permettent de documenter une application SAP BusinessObjects Data Services. Vous pouvez décrire le comportement incrémental de différents jobs à l'aide de plusieurs annotations et affecter à chaque objet une description de base, par exemple.
Ce job charge les catégories et dépenses actuelles puis génère des tables à des fins d'analyse.
Rubriques associées
•
•
3.8.5 Mise à l'échelle de l'espace de travail
Vous pouvez gérer l'échelle de l'espace de travail. La mise à l'échelle de l'espace de travail vous permet de modifier la vue d'un job, d'un workflow ou d'un flux de données. Vous pouvez, par exemple, augmenter l'échelle pour examiner une partie définie d'un workflow ou réduire l'échelle pour pouvoir examiner l'ensemble d'un workflow sans devoir opérer de défilement.
Pour modifier l'échelle de l'espace de travail, procédez comme suit :
1.
Dans la liste déroulante au niveau de la barre d'outils, sélectionnez une échelle prédéfinie ou saisissez une valeur personnalisée (100 %, par exemple).
2.
Vous pouvez également cliquer avec le bouton droit dans l'espace de travail et sélectionner l'échelle souhaitée.
Remarque :
Vous disposez des options Mettre à l'échelle et Mise à l'échelle globale :
• Sélectionnez Mettre à l'échelle, et Designer calcule l'échelle pertinente pour le projet complet dans la zone d'affichage en cours.
• Si vous sélectionnez Mise à l'échelle globale, l'espace de travail est visible en intégralité dans la zone d'affichage en cours.
44 2012-11-22
Interface utilisateur du Designer
3.8.6 Organisation des fenêtres dans l'espace de travail
Le menu Fenêtre permet d'organiser les différentes fenêtres ouvertes dans l'espace de travail en cascade, en mosaïque horizontale ou en mosaïque verticale.
3.8.7 Fermeture des fenêtres dans l'espace de travail
Lorsque vous explorez un objet dans la zone de projet ou l'espace de travail, une vue de la définition d'objet s'affiche dans l'espace de travail. Cette vue est repérable grâce à un onglet en bas de l'espace de travail ; autrement dit, plus vous ouvrez d'objets dans l'espace de travail, plus les onglets sont nombreux. Vous pouvez afficher ou masquer ces onglets en sélectionnant Outils > Options. Allez à
Designer > Général et sélectionnez ou désélectionnez Afficher les onglets dans l'espace de travail.
Remarque :
Ces vues utilisent des ressources système. Si vous avez un grand nombre de vues ouvert, vous risquez de constater une dégradation des performances.
Fermez les vues une par une en cliquant sur la case de fermeture en haut à droite de l'espace de travail. Pour fermer toutes les vues ouvertes, sélectionnez Fenêtre > Fermer toutes les fenêtres ou cliquez sur l'icône Fermer toutes les fenêtres dans la barre d'outils.
Rubriques associées
•
Options générales et de l'environnement
3.9 Bibliothèque d'objets locale
La bibliothèque d'objets locale donne accès aux objets réutilisables. Il peut aussi bien s'agir d'objets système intégrés, comme des transformations, que des objets que vous créez et enregistrez, comme les banques de données, jobs, flux de données et workflows.
La bibliothèque d'objets locale se présente sous la forme d'une fenêtre dans votre référentiel local. Elle vous évite d'accéder directement au référentiel. Les mises à jour du référentiel interviennent dans le cadre du fonctionnement normal du progiciel. Lorsque vous enregistrez les objets que vous créez, ils sont ajoutés au référentiel. Les objets enregistrés sont accessibles par le biais de la bibliothèque d'objets locale.
Pour gérer l'emplacement de la bibliothèque d'objets, cliquez avec le bouton droit sur sa bordure grise et sélectionnez/désélectionnez Ancrage ou bien sélectionnez Masquer dans le menu.
45 2012-11-22
Interface utilisateur du Designer
• Lorsque vous sélectionnez Ancrage, vous pouvez cliquer sur la bibliothèque d'objets et la faire glisser pour l'ancrer à un bord de la fenêtre de Designer ou l'en détacher. Lorsque vous faites glisser la bibliothèque d'objets pour l'éloigner d'un bord de la fenêtre de Designer, elle reste détachée. Pour basculer rapidement entre vos derniers emplacements avec ancrage et sans ancrage, il vous suffit de cliquer deux fois sur la bordure grise.
Lorsque vous désélectionnez Ancrage, vous pouvez cliquer sur la bibliothèque d'objets et la faire glisser vers n'importe quel emplacement de l'écran sans qu'elle soit ancrée dans la fenêtre de
Designer.
• Lorsque vous sélectionnez Masquer, la bibliothèque d'objets n'est plus visible dans la fenêtre de
Designer. Pour afficher à nouveau la bibliothèque d'objets, cliquez sur son icône dans la barre d'outils.
Rubriques associées
•
Référentiel central et référentiel local
3.9.1 Pour ouvrir la bibliothèque d'objets, procédez comme suit :
Onglet
• Sélectionnez Outils > Bibliothèque d'objets ou cliquez sur l'icône de la bibliothèque d'objets dans la barre d'outils.
La bibliothèque d'objets permet d'accéder aux types d'objets indiqués dans le tableau suivant. Le tableau indique l'onglet dans lequel le type d'objet apparaît dans la bibliothèque d'objets et décrit el contexte dans lequel vous pouvez utiliser chaque type d'objet.
Description
Les projets sont des ensembles de jobs disponibles pendant une période définie.
Les jobs sont des workflows exécutables. Il existe deux types de jobs : les jobs batch et les jobs en temps réel.
Les workflows organisent les flux de données et les opérations qui prennent en charge les flux de données, définissant les interdépendances de ces objets.
Les flux de données décrivent le traitement d'une tâche.
Les transformations agissent sur les données et génèrent des jeux de données de sortie à partir des sources indiquées. La bibliothèque d'objets liste les transformations intégrées et personnalisées.
46 2012-11-22
Interface utilisateur du Designer
Onglet Description
Les banques de données représentent les liens avec les bases de données et applications utilisées dans votre projet. La liste des tables, documents et fonctions importés dans le progiciel est disponible sous chaque banque de données.
Les formats décrivent la structure d'un fichier plat, d'un fichier XML ou d'un message XML.
Les fonctions personnalisées sont des fonctions créées dans le langage de script du progiciel. Vous pouvez les utiliser dans le cadre des jobs.
3.9.2 Pour afficher le nom de chaque onglet et de son icône
1.
Agrandissez la fenêtre de la bibliothèque d'objets en largeur jusqu'à ce que les noms deviennent visibles.
ou
2.
Placez le curseur sur l'onglet jusqu'à ce que l'info-bulle correspondante apparaisse.
3.9.3 Pour trier les colonnes de la bibliothèque d'objets
• Cliquez sur l'intitulé de colonne.
Pour trier des flux de données, vous cliquez sur l'intitulé de colonne Flux de données, par exemple.
Les noms sont énumérés par ordre croissant. Pour afficher les noms par ordre décroissant, cliquez
à nouveau sur l'intitulé de colonne Flux de données.
3.10 Editeurs d'objets
Pour utiliser les options d'un objet, cliquez sur le nom de cet objet pour ouvrir son éditeur dans l'espace de travail. L'éditeur affiche les schémas d'entrée et de sortie de l'objet ainsi qu'un panneau en dessous,
47 2012-11-22
Interface utilisateur du Designer qui indique les options définies pour l'objet. S'il existe plusieurs options, elles sont regroupées dans des onglets au niveau de l'éditeur.
Un schéma est une structure de données qui peut contenir des colonnes, d'autres schémas imbriqués et des fonctions (le contenu correspondant aux éléments du schéma). Une table est un schéma qui contient uniquement des colonnes.
Un éditeur permet d'effectuer les opérations suivantes :
• Annuler ou rétablir les actions effectuées dans la fenêtre (clic droit puis Annuler ou Rétablir).
• Rechercher une chaîne dans l'éditeur (clic droit puis Rechercher).
• Glisser-déposer des noms de colonnes dans les cases d'option pertinentes à partir du schéma d'entrée.
• Utiliser des couleurs pour identifier les chaînes et les commentaires dans les zones de texte autorisant la modification des expressions (mots-clés affichés en bleu ; chaînes affichées en rose entre guillemets ; commentaires débutant par le signe livre et affichés en vert).
Remarque :
Il n'est pas possible d'ajouter des commentaires à une clause de mappage dans une transformation
Query. La syntaxe suivante n'est, par exemple, pas prise en charge dans l'onglet Mappage : table.column # comment
Le job ne s'exécutera pas et vous ne parviendrez pas à l'exporter. Utilisez plutôt la fonction de description d'objet ou d'annotation de l'espace de travail.
Rubriques associées
•
•
Editeurs de transformation Qualité des données
3.11 Utilisation des objets
Cette section traite des tâches courantes que vous réalisez lorsque vous utilisez des objets dans
Designer. Ces tâches font appel à plusieurs parties de Designer : la barre d'outils, la palette d'outils, l'espace de travail et la bibliothèque d'objets locale.
3.11.1 Création d'objets réutilisables
Vous pouvez créer des objets réutilisables à partir de la bibliothèque d'objets ou à l'aide de la palette d'outils. Une fois que vous avez créé un objet, vous pouvez l'utiliser en modifiant sa définition et en ajoutant des appels à d'autres objets.
48 2012-11-22
Interface utilisateur du Designer
3.11.1.1 Pour créer un objet réutilisable (dans la bibliothèque d'objets)
1.
Pour ouvrir la bibliothèque d'objets, sélectionnez Outils > Bibliothèque d'objets.
2.
Cliquez sur l'onglet correspondant au type d'objet.
3.
Cliquez avec le bouton droit n'importe où, hormis sur les objets existants, et sélectionnez Nouveau.
4.
Cliquez avec le bouton droit sur le nouvel objet et sélectionnez Propriétés. Saisissez des options comme le nom et la description pour définir l'objet.
3.11.1.2 Pour créer un objet réutilisable (à l'aide de la palette d'outils)
1.
Dans la palette d'outils, cliquez sur l'icône de l'objet que vous voulez créer.
2.
Déplacez le curseur vers l'espace de travail et cliquez à nouveau.
L'icône de l'objet apparaît à l'endroit où vous avez cliqué dans l'espace de travail.
3.11.1.3 Pour ouvrir la définition d'un objet
Pour ouvrir la définition d'un objet, vous pouvez procéder de l'une ou l'autre des façons suivantes :
1.
Dans l'espace de travail, cliquez sur le nom de l'objet. Un espace de travail vide s'affiche pour vous permettre de définir l'objet.
2.
Dans la zone de projet, cliquez sur l'objet.
Vous définissez un objet à l'aide d'autres objets. Si vous cliquez sur le nom d'un flux de données batch, par exemple, un nouvel espace de travail apparaît pour vous permettre d'assembler les sources, les cibles et les transformations qui constituent le flux réel.
49
3.11.1.4 Pour ajouter un objet existant (créer un appel pour un objet existant)
1.
Pour ouvrir la bibliothèque d'objets, sélectionnez Outils > Bibliothèque d'objets.
2.
Cliquez sur l'onglet correspondant à un type d'objet.
3.
Sélectionnez un objet.
4.
Faites glisser l'objet vers l'espace de travail.
2012-11-22
Interface utilisateur du Designer
Remarque :
Les objets déposés dans l'espace de travail doivent obéir à la logique de la hiérarchie. Vous pouvez, par exemple, déposer un flux de données dans un job, mais vous ne pouvez pas déposer un workflow dans un flux de données.
Rubriques associées
•
3.11.2 Modification des noms des objets
Vous pouvez modifier le nom d'un objet à partir de l'espace de travail ou de la bibliothèque d'objets.
Vous pouvez également créer une copie d'un objet existant.
Remarque :
Il n'est pas possible de modifier le nom des objets intégrés.
1.
Pour modifier le nom d'un objet dans l'espace de travail, procédez comme suit : a.
Cliquez pour sélectionner l'objet dans l'espace de travail.
b.
Cliquez avec le bouton droit et sélectionnez Renommer.
c.
Modifiez le texte affiché dans la zone de texte de nom.
d.
Pour enregistrer le nouveau nom, cliquez en dehors de la zone de texte ou appuyez sur Entrée.
2.
Pour modifier le nom d'un objet dans la bibliothèque d'objets, procédez comme suit : a.
Sélectionnez l'objet dans la bibliothèque d'objets.
b.
Cliquez avec le bouton droit et sélectionnez Propriétés.
c.
Modifiez le texte dans la première zone de texte.
d.
Cliquez sur OK.
3.
Pour copier un objet, procédez comme suit : a.
Sélectionnez l'objet dans la bibliothèque d'objets.
b.
Cliquez avec le bouton droit et sélectionnez Répliquer.
c.
Le progiciel effectue une copie de l'objet supérieur (mais pas des objets qu'il appelle) et lui donne un nouveau nom que vous pouvez modifier.
3.11.3 Affichage et modification des propriétés des objets
Vous pouvez afficher (et, dans certains cas, modifier) les propriétés d'un objet via sa page de propriétés.
50 2012-11-22
Interface utilisateur du Designer
51
3.11.3.1 Pour afficher un objet, le modifier et lui ajouter des propriétés
1.
Sélectionnez l'objet dans la bibliothèque d'objets.
2.
Cliquez avec le bouton droit et sélectionnez Propriétés. Vous accédez à l'onglet Général de la fenêtre Propriétés.
3.
Renseignez les feuilles de propriétés. Les feuilles de propriétés diffèrent selon le type d'objet mais les onglets Général, Attributs et Attributs de classe, décrits dans les sections qui suivent, sont les plus communs.
4.
Lorsque vous avez terminé, cliquez sur OK pour enregistrer les modifications apportées aux propriétés de l'objet et fermer la fenêtre.
Vous pouvez également cliquer sur Appliquer pour enregistrer les modifications sans fermer la fenêtre.
3.11.3.2 Onglet Général
L'onglet Général comporte deux propriétés d'objet principales : le nom et la description.
L'onglet Général permet de modifier le nom de l'objet ainsi que de saisir ou modifier la description correspondante. Vous pouvez ajouter des descriptions d'objets à des objets à usage unique ou des objets réutilisables. Vous pouvez activer et désactiver la description d'un objet ; pour cela, cliquez dessus avec le bouton droit dans l'espace de travail et sélectionnez ou désélectionnez Afficher les
descriptions activées.
En fonction de l'objet, d'autres propriétés peuvent être affichées dans l'onglet Général. En voici des exemples :
•
Exécuter une seule fois
•
Restaurer en tant qu'unité
•
Degré de parallélisme
•
Utiliser les liens de base de données
•
Type de cache
Rubriques associées
• Guide d'optimisation de la performance : Using Caches
•
• Guide d'optimisation de la performance : Using Parallel Execution
•
•
Création et définition des flux de données
2012-11-22
Interface utilisateur du Designer
3.11.3.3 Onglet Attributs
L'onglet Attributs permet d'affecter des valeurs aux attributs de l'objet en cours.
Pour affecter une valeur à un attribut, sélectionnez l'attribut et saisissez la valeur dans la zone Valeur en bas de la fenêtre.
Certaines valeurs d'attribut sont définies par le progiciel et ne peuvent pas être modifiées. Lorsque vous sélectionnez un attribut qui possède une valeur système, le champ Valeur n'est pas accessible.
3.11.3.4 Onglet Attributs de classe
L'onglet Attributs de classe affiche les attributs disponibles pour le type d'objet sélectionné. Tous les objets de flux de données possèdent, par exemple, les mêmes attributs de classe.
Pour créer un attribut pour une classe d'objets, cliquez avec le bouton droit dans la liste d'attributs et sélectionnez Ajouter. Le nouvel attribut est maintenant disponible pour l'ensemble des objets de la classe.
Pour supprimer un attribut, sélectionnez-le, cliquez avec le bouton droit et sélectionnez Supprimer.
Vous ne pouvez pas supprimer les attributs de classe prédéfinis par Data Services.
3.11.4 Création de descriptions
Les descriptions permettent de donner des informations sur les objets. Elles sont visibles dans les diagrammes de l'espace de travail. De ce fait, les descriptions sont un moyen pratique d'ajouter des commentaires aux objets dans l'espace de travail.
Une description est associée à un objet spécifique. Lorsque vous importez ou exportez cet objet du référentiel (lors de la migration entre environnements de développement, de test et de production, par exemple), vous importez ou exportez également sa description.
Designer détermine quand afficher les descriptions des objets en fonction d'un paramètre au niveau système et d'un paramètre au niveau objet. Les deux paramètres doivent être activés pour que la description d'un objet particulier s'affiche.
Le paramètre au niveau système est spécifique à votre configuration. Il est désactivé par défaut. Pour l'activer, sélectionnez AffichageDescriptions activées ou cliquez sur le bouton Afficher les
descriptions activées dans la barre d'outils.
52 2012-11-22
Interface utilisateur du Designer
53
Le paramètre au niveau objet est enregistré avec l'objet dans le référentiel. Il est également désactivé par défaut, sauf si vous ajoutez ou modifiez une description à partir de l'espace de travail. Pour activer le paramètre au niveau objet, cliquez avec le bouton droit sur l'objet et sélectionnez Activer la
description de l'objet.
Une ellipse après le texte d'une description indique la présence de texte supplémentaire. Pour voir tout le texte, redimensionnez la description par cliquer-déplacer. Lorsque vous déplacez un objet, sa description est elle aussi déplacée. Pour connaître l'objet associé à une description donnée, affichez le nom de l'objet dans la barre d'état.
3.11.4.1 Pour ajouter une description à un objet
1.
Dans la zone de projet ou la bibliothèque d'objets, cliquez avec le bouton droit sur un objet et sélectionnez Propriétés.
2.
Saisissez vos commentaires dans la zone de texte Description.
3.
Cliquez sur OK.
La description de l'objet s'affiche dans la bibliothèque d'objets.
3.11.4.2 Pour afficher une description dans l'espace de travail
1.
Dans la zone de projet, sélectionnez un objet existant (tel qu'un job) contenant un objet auquel vous avez ajouté une description (tel qu'un workflow).
2.
Dans le menu Affichage, sélectionnez Descriptions activées.
Vous pouvez également cliquer sur le bouton Afficher les descriptions activées dans la barre d'outils.
3.
Cliquez avec le bouton droit sur le workflow et sélectionnez Activer la description d'objets.
La description s'affiche dans l'espace de travail au-dessous de l'objet.
3.11.4.3 Pour ajouter une description à un objet depuis l'espace de travail
1.
Dans le menu Affichage, sélectionnez Descriptions activées.
2.
Dans l'espace de travail, cliquez avec le bouton droit sur un objet et sélectionnez Propriétés.
3.
Dans la fenêtre Propriétés, renseignez la section Description.
4.
Cliquez sur OK.
2012-11-22
Interface utilisateur du Designer
La description s'affiche automatiquement dans l'espace de travail (et l'option Activer la description d'objets est sélectionnée pour l'objet).
3.11.4.4 Pour masquer la description d'un objet particulier
1.
Dans le diagramme de l'espace de travail, cliquez avec le bouton droit sur un objet.
Vous pouvez également sélectionner plusieurs objets en procédant comme suit :
• Appuyez sur la touche Ctrl et maintenez-la enfoncée tout en sélectionnant des objets dans le diagramme de l'espace de travail, puis cliquez avec le bouton droit sur l'un des objets sélectionnés.
• Faites glisser une zone de sélection autour de tous les objets à sélectionner, puis cliquez avec le bouton droit sur l'un des objets sélectionnés.
2.
Dans le menu contextuel, désélectionnez Activer la description d'objets.
La description de l'objet sélectionné est masquée même si l'option Afficher les descriptions activées est sélectionnée car le basculement au niveau objet est prioritaire sur le basculement au niveau système.
3.11.4.5 Pour modifier les descriptions d'objets
1.
Dans l'espace de travail, double-cliquez sur la description d'un objet.
2.
Saisissez, coupez, copiez ou collez du texte dans la description.
3.
Dans le menu Projet, sélectionnez Enregistrer.
Vous pouvez également cliquer avec le bouton droit sur un objet et sélectionner Propriétés pour ouvrir la fenêtre Propriétés de l'objet et créer ou modifier sa description.
Remarque :
Si vous tentez de modifier la description d'un objet réutilisable, le progiciel vous informe que la description sera mise à jour dans chaque occurrence de l'objet au niveau de tous les jobs. Vous pouvez cocher la case Ne plus afficher ce message pour éviter cette alerte. Néanmoins, une fois désactivée, l'alerte ne peut être réactivée qu'avec l'intervention du support technique.
3.11.5 Création d'annotations
54 2012-11-22
Interface utilisateur du Designer
Les annotations décrivent un flux, une partie de flux ou un diagramme dans un espace de travail. Une annotation est associée au job, workflow ou flux de données dans lequel elle apparaît. Lorsque vous importez ou exportez ce job, workflow ou flux de données, les annotations associées sont également transférées.
3.11.5.1 Pour annoter un diagramme d'espace de travail
1.
Ouvrez le diagramme d'espace de travail que vous voulez annoter.
Les annotations permettent de décrire un espace de travail tel qu'un job, un workflow, un flux de données, un bloc Catch, une structure conditionnelle ou une boucle While.
2.
Dans la palette d'outils, cliquez sur l'icône d'annotation.
3.
Cliquez à l'endroit où vous voulez placer l'annotation dans l'espace de travail.
Une annotation s'affiche dans le diagramme.
Vous pouvez ajouter, modifier et supprimer du texte directement dans l'annotation. Il est également possible de redimensionner l'annotation et de la déplacer par cliquer-glisser. Vous pouvez ajouter un nombre illimité d'annotations à un diagramme.
3.11.5.2 Pour supprimer une annotation
1.
Cliquez avec le bouton droit sur une annotation.
2.
Sélectionnez Supprimer.
Vous pouvez également sélectionner une annotation et appuyer sur Supprimer.
3.11.6 Copie d'objets
Vous pouvez couper ou copier des objets, puis les coller à l'emplacement souhaité dans l'espace de travail. Il est possible de copier et coller plusieurs objets dans un même ou dans d'autres flux de données, workflows ou jobs. Par ailleurs, vous pouvez couper ou copier des appels de flux de données et de workflows, puis les coller dans des objets valides au niveau de l'espace de travail.
Les références à des variables globales, à des variables locales, à des paramètres et à des paramètres de substitution sont copiées. Néanmoins, vous devez définir chacun de ces éléments dans son nouveau contexte.
55 2012-11-22
Interface utilisateur du Designer
Remarque :
L'opération de collage duplique les objets sélectionnés dans un flux mais continue à appeler les objets d'origine. Autrement dit, l'opération de collage utilise l'objet d'origine dans un autre emplacement.
L'opération de réplication crée un nouvel objet dans la bibliothèque d'objets.
Pour couper ou copier des objets puis les coller, procédez comme suit :
1.
Dans l'espace de travail, sélectionnez les objets à couper ou à copier.
Pour sélectionner plusieurs objets, utilisez les raccourcis clavier Ctrl-clic, Maj-clic ou Ctrl+A
2.
Cliquez avec le bouton droit et sélectionnez Couper ou Copier.
3.
Cliquez dans le même flux ou sélectionnez-en un autre. Cliquez avec le bouton droit et sélectionnez
Coller.
Si cela s'avère nécessaire pour éviter un conflit d'appellation, un nouveau nom est généré automatiquement.
Remarque :
Si vous cliquez avec le bouton droit et sélectionnez Coller, les objets sont collés à l'emplacement sélectionné.
Les objets sont collés dans l'angle supérieur gauche de l'espace de travail si vous utilisez l'une des méthodes suivantes :
• Clic sur l'icône Coller.
• Clic sur Edition > Coller.
• Utilisation du raccourci clavier Ctrl+V.
Si vous utilisez une méthode qui colle les objets dans l'angle supérieur gauche, les objets collés par la suite sont placés les uns au-dessus des autres.
3.11.7 Enregistrement et suppression des objets
Enregistrer un objet dans le logiciel équivaut à sauvegarder la langue qui décrit cet objet dans le référentiel. Vous pouvez enregistrer les objets réutilisables ; les objets à usage unique sont seulement enregistrés dans le cadre de la définition d'objet réutilisable qui les appelle.
Il est possible d'enregistrer les modifications de l'objet réutilisable actif dans l'espace de travail. Lorsque vous enregistrez l'objet, ses propriétés, les définitions des objets à usage unique qu'il appelle et les appels éventuels d'autres objets réutilisables sont sauvegardés dans le référentiel. Seul l'appel est enregistré, et non le contenu des objets réutilisables pris en compte.
Le progiciel sauvegarde la description même si l'objet n'est pas complet ou comporte une erreur
(validation non effectuée).
56 2012-11-22
Interface utilisateur du Designer
3.11.7.1 Pour enregistrer les modifications apportées à un objet réutilisable
1.
Ouvrez le projet dans lequel figure votre objet.
2.
Sélectionnez Projet > Enregistrer.
Cette commande enregistre tous les objets ouverts dans l'espace de travail.
Répétez ces étapes pour les autres objets à enregistrer.
3.11.7.2 Pour enregistrer tous les objets modifiés dans le référentiel
1.
Sélectionnez Projet > Tout enregistrer.
Le progiciel liste les objets réutilisables qui ont été modifiés depuis la dernière opération d'enregistrement.
2.
(facultatif) Désélectionnez tout objet listé pour éviter de l'enregistrer.
3.
Cliquez sur OK.
Remarque :
Le logiciel vous invite à enregistrer tous les objets modifiés lorsque vous exécutez un job et que vous quittez Designer. L'enregistrement d'un objet réutilisable entraîne l'enregistrement des objets
à usage unique qu'il contient le cas échéant.
3.11.7.3 Pour supprimer une définition d'objet du référentiel
1.
Dans la bibliothèque d'objets, sélectionnez l'objet.
2.
Cliquez avec le bouton droit et sélectionnez Supprimer.
• Si vous tentez de supprimer un objet en cours d'utilisation, le progiciel émet un message d'avertissement et vous propose d'utiliser la fonction Afficher les cas d'emploi.
• Si vous cliquez sur Oui, tous les appels de l'objet sont marqués par une icône rouge de suppression pour indiquer que les appels sont non valides. Pour produire un job exécutable, vous devez supprimer ou remplacer ces appels.
57 2012-11-22
Interface utilisateur du Designer
Remarque :
Les objets intégrés comme les transformations ne peuvent pas être supprimés de la bibliothèque d'objets.
Rubriques associées
•
Utilisation de Afficher les cas d'emploi
3.11.7.4 Pour supprimer un appel d'objet
1.
Ouvrez l'objet qui contient l'appel à supprimer.
2.
Cliquez avec le bouton droit sur l'appel d'objet et sélectionnez Supprimer.
Si vous supprimez un objet réutilisable de l'espace de travail ou de la zone de projet, seul l'appel de l'objet est supprimé. La définition d'objet figure toujours dans la bibliothèque d'objets.
3.11.8 Recherche d'objets
Dans la bibliothèque d'objets, vous pouvez rechercher des objets définis dans le référentiel ou des objets disponibles par le biais d'une banque de données.
58
3.11.8.1 Pour rechercher un objet
1.
Cliquez avec le bouton droit dans la bibliothèque d'objets et sélectionnez Rechercher.
La fenêtre de recherche s'affiche.
2.
Saisissez les valeurs pertinentes pour la recherche.
Les options disponibles dans la fenêtre de recherche sont décrites en détail après cette procédure.
3.
Cliquez sur Rechercher.
Les objets correspondant à vos entrées sont affichés dans la fenêtre. Le menu contextuel disponible dans la fenêtre de résultats de la recherche permet :
• d'ouvrir un élément,
• d'afficher les attributs (Propriétés),
• d'importer des tables externes en tant que métadonnées du référentiel.
Vous pouvez également faire glisser des objets depuis la fenêtre de résultats de la recherche et les déposer à l'emplacement de votre choix.
2012-11-22
Interface utilisateur du Designer
59
Option
La fenêtre de recherche propose les options suivantes :
Description
Rechercher dans
Emplacement où effectuer la recherche.
Sélectionnez le référentiel ou une banque de données spécifique.
Lorsque vous désignez une banque de données, vous pouvez également choisir d'effectuer la recherche dans les données importées (Données internes) ou dans la banque de données complète (Données externes).
Type d'objet
Nom
Description
Type d'objet à rechercher.
Dans le cas d'une recherche dans le référentiel, vous disposez des valeurs
Tables, Fichiers, Flux de données, Workflows, Jobs, Hiérarchies, IDocs et Domaines.
Dans le cas d'une recherche dans une banque de données ou une application, effectuez une sélection parmi les types d'objet disponibles par l'intermédiaire de la banque de données.
Nom de l'objet à rechercher.
Si la recherche porte sur le référentiel, le nom n'est pas sensible à la casse. Si la recherche porte sur une banque de données et que le nom est sensible à la casse dans cette banque de données, saisissez le nom tel qu'il figure dans la banque de données ou l'application et mettez-le entre guillemets doubles (") afin de conserver la casse.
Vous pouvez indiquer si l'information à rechercher contient le nom spécifié ou
est égale au nom spécifié à l'aide de la liste déroulante en regard du champ
Nom.
Description de l'objet à rechercher.
Les objets importés dans le référentiel ont une définition provenant de leur source. Par défaut, les objets que vous créez dans Designer ne possèdent aucune description sauf si vous en ajoutez une.
La recherche renvoie les objets dont l'attribut de description contient la valeur saisie.
La fenêtre de recherche comporte également un bouton Avancé qui permet de rechercher les objets d'après leurs valeurs d'attribut. Vous pouvez uniquement effectuer une recherche par valeurs d'attribut dans le référentiel.
Le bouton Avancé permet d'accéder aux options suivantes :
2012-11-22
Interface utilisateur du Designer
Option
Attribut
Valeur
Correspondance
Description
Attribut de l'objet dans lequel effectuer la recherche.
Valeur de l'attribut à rechercher.
Type de recherche exécuté.
Pour rechercher un attribut contenant la valeur indiquée, sélectionnez Co-
ntient. Pour rechercher un attribut contenant uniquement la valeur indiquée, sélectionnez Egal à.
3.12 Options générales et de l'environnement
Pour ouvrir la fenêtre Options, sélectionnez Outils > Options. La fenêtre affiche les groupes d'options relatifs à Designer aux données et aux options du Job Server.
Pour développer les options, cliquez sur le signe plus. Lorsque vous sélectionnez une option ou un groupe d'options, une description s'affiche sur la droite.
3.12.1 Designer : environnement
Tableau 3-9 : Administrateur par défaut pour le reporting des métadonnées
Option Description
Administrateur
Sélectionnez l'Administrateur utilisé par l'outil de reporting des métadonnées. Un Administrateur est défini par un nom d'hôte et un port.
60 2012-11-22
Interface utilisateur du Designer
Tableau 3-10 : Job Server par défaut
Option
Actuel
Nouveau
Description
Affiche la valeur actuelle du Job Server par défaut.
Permet d'indiquer une nouvelle valeur pour le Job
Server par défaut à partir d'une liste déroulante des Job Servers associés au référentiel. Les modifications sont appliquées immédiatement.
Si un référentiel est associé à plusieurs Job Servers, un seul Job Server doit être défini comme Job
Server par défaut à utiliser lors de la connexion.
Remarque :
Les options spécifiques au job et les noms de chemin indiqués dans Designer se rapportent au Job
Server par défaut actuel. Si vous modifiez le Job Server par défaut, modifiez ces options et noms de chemin.
Tableau 3-11 : Ports de communication Designer
Option Description
Autoriser Designer à définir le port de communication du job server
Si la case est cochée, Designer définit automatiquement un port disponible pour la réception des messages du Job Server actuel. Elle est cochée par défaut. Décochez-la pour indiquer un port d'écoute ou une plage de ports.
De
A
Saisissez les numéros de port dans les zones de texte correspondantes. Pour indiquer un port d'écoute spécifique, saisissez le même numéro de port dans les deux zones de texte de port De et A. Les modifications seront seulement appliquées au redémarrage du progiciel.
Uniquement activé lorsque vous désélectionnez le paramètre précédent. Permet d'indiquer une plage de ports dans laquelle Designer peut choisir un port d'écoute.
Vous pouvez décider de restreindre le port utilisé pour la communication entre Designer et le Job Server lorsque les deux composants sont séparés par un parefeu.
61 2012-11-22
Interface utilisateur du Designer
Option
Débogueur interactif
Groupe de serveurs pour le référentiel local
Description
Permet de définir un port de communication avec un
Job Server pour Designer, à utiliser lors de l'exécution en mode débogage.
Si le référentiel local auquel vous vous êtes connecté
à l'ouverture de Designer est associé à un groupe de serveurs, le nom du groupe de serveurs apparaît.
Rubriques associées
•
Modification du port du débogueur interactif
3.12.2 Designer : généralités
Option Description
Afficher la taille de l'échantillonnage des données (lignes)
Contrôle la taille de l'échantillon utilisé pour afficher les données dans les sources et cibles des flux de données en cours dans l'espace de travail.
Pour visualiser les données, cliquez sur l'icône de loupe dans les objets sources et cibles.
Nombre de caractères dans le nom de l'icône d'espace de travail
Contrôle la longueur des noms d'objets affichés dans l'espace de travail.
Les noms d'objets peuvent dépasser cette valeur mais Designer affiche seulement le nombre saisi ici. La valeur par défaut est de 17 caractères.
Nombre maximal d'éléments de l'arborescence de schéma à développer automatiquement
Nombre d'éléments affichés dans l'arborescence de schéma. Les noms d'éléments ne doivent pas dépasser cette valeur. Saisissez une valeur pour le schéma d'entrée et le schéma de sortie. La valeur par défaut est de 100.
Paramètres par défaut aux variables portant le même nom
Lorsque vous déclarez une variable au niveau du workflow, le progiciel transmet automatiquement la valeur sous forme de paramètre du même nom à un flux de données appelé par un workflow.
Importer les domaines automatiquement
Cochez cette case pour importer automatiquement les domaines lors de l'importation d'une table faisant référence à un domaine.
62 2012-11-22
Interface utilisateur du Designer
Option Description
Procéder à une validation complète avant l'exécution du job
Cette option permet d'exécuter une validation complète du job préalablement à son exécution. Elle est désactivée par défaut. Si vous conservez ce paramétrage par défaut, vous devez valider la conception manuellement avant l'exécution du job.
Ouvrir le moniteur à l'exécution du job
Détermine le comportement de Designer lors de l'exécution d'un job. Si cette option est activée, Designer bascule de l'espace de travail à la vue du moniteur lors de l'exécution d'un job. Dans le cas contraire, l'espace de travail reste tel quel. L'option est activée par défaut.
Calculer automatiquement les mappages de colonnes
Calcule les informations relatives aux tables et colonnes cible et aux sources utilisées pour les compléter. Le progiciel utilise ces informations pour les rapports de métadonnées (sur l'impact et le lignage des données, par exemple), l'auto-documentation ou les rapports personnalisés. Les informations sur le mappage des colonnes sont sauvegardées dans la table AL_COLMAP (vue ALVW_MAPPING) une fois que vous avez enregistré un flux de données, importé des objets dans un référentiel ou exporté des objets depuis un référentiel. Si l'option est sélectionnée, veillez
à valider le job complet avant de l'enregistrer car le calcul du mappage des colonnes est sensible aux erreurs et les flux de données présentant des problèmes de validation seront ignorés.
Afficher la boîte de dialogue une fois le job terminé
Permet d'indiquer si vous voulez obtenir une alerte ou simplement lire les messages de suivi.
Afficher les onglets dans l'espace de travail
Permet d'indiquer si vous voulez naviguer à l'aide des onglets en bas de l'espace de travail.
Exclure les éléments non exécutables de l'exportation vers le document
XML
Exclut les éléments non traités lors de l'exécution du job des documents
XML exportés. Par exemple, les coordonnées d'affichage de l'espace de travail de Designer ne seraient pas exportées.
Rubriques associées
•
Utilisation de l'affichage des données
• Guide Management Console Guide : onglet Actualiser les données d'utilisation
3.12.3 Designer : éléments graphiques
63 2012-11-22
Interface utilisateur du Designer
Sélectionnez et prévisualisez les éléments de style afin de personnaliser vos espaces de travail. Ces options permettent d'établir une distinction claire entre l'espace de travail de conception de jobs/workflows et l'espace de travail de conception de flux de données.
Option
Type de flux de l'espace de travail
Description
Passez de l'un à l'autre des types de flux d'espace de travail (Job/Workflow et Flux de données) pour visualiser les paramètres par défaut. Modifiez les paramètres de chaque type à l'aide des options restantes.
Type de ligne
Choisissez un style pour les lignes de connecteurs d'objets.
Epaisseur de ligne
Définit l'épaisseur de ligne du connecteur.
Style d'arrière-plan
Choisissez un motif d'arrière-plan simple ou en mosaïque pour le type de flux sélectionné.
Jeu de couleurs
Définit la couleur d'arrière-plan en bleu, gris ou blanc.
Utiliser le filigrane de navigation
Ajoute un filigrane à l'arrière-plan du type de flux sélectionné. Cette option est uniquement disponible avec un style d'arrière-plan simple.
3.12.4 Designer : connexions au référentiel central
Option Description
Connexions au référentiel central
Affiche les connexions au référentiel central et le référentiel central actif.
Pour activer un référentiel central, cliquez avec le bouton droit sur l'une des connexions de la liste et sélectionnez Activer.
Réactiver automatiquement
Indiquez si vous voulez que le référentiel central actif soit réactivé chaque fois que vous vous connectez au progiciel à l'aide du référentiel local en cours.
3.12.5 Données : généralités
64 2012-11-22
Interface utilisateur du Designer
Option
Changement de siècle
Description
Indique la façon dont le progiciel interprète le siècle pour les années à deux chiffres. Les années à deux chiffres supérieures ou égales à cette valeur sont interprétées comme 19##. Les années à deux chiffres inférieures à cette valeur sont interprétées comme 20##. La valeur par défaut est de 15.
Si, par exemple, vous donnez la valeur 15 à l'option Changement de
siècle :
Année à deux chiffres
99
16
15
14
Interprétation
1999
1916
1915
2014
Convertir les valeurs vides en valeurs nulles pour le Bulk Loader
Oracle
Convertit les valeurs vides en valeurs nulles lors du chargement de données via l'utilitaire Bulk Loader Oracle :
• si la colonne ne fait pas partie de la clé primaire
• et si la colonne accepte la valeur Null.
3.12.6 Job Server : environnement
Option Description
Nombre maximal de traitements de moteur
Définit le nombre limite de traitements parallèles du moteur pour le
Job Server.
3.12.7 Job Server : généralités
Cette fenêtre permet de réinitialiser les options du Job Server ou de faire appel aux conseils du support technique SAP.
65 2012-11-22
Interface utilisateur du Designer
Rubriques associées
•
Modification des options du Job Server
66 2012-11-22
Projets et Jobs
Projets et Jobs
Les objets Projet et Job représentent les deux niveaux supérieurs d'organisation pour les flux d'application que vous créez à l'aide de Designer.
4.1 Projets
Un projet désigne un objet réutilisable qui vous permet de regrouper des jobs. Un projet désigne le niveau le plus élevé d'organisation proposé par le logiciel. L'ouverture d'un projet permet d'accéder facilement à un groupe d'objets dans l'interface utilisateur.
Vous pouvez utiliser un projet pour regrouper des jobs ayant des planifications dépendantes les unes des autres ou pour lesquelles vous souhaitez effectuer un suivi commun..
Les projets ont des caractéristiques communes :
• Les projets sont listés dans la bibliothèque d'objets.
• Vous pouvez ouvrir un seul projet à la fois.
• Les projets ne peuvent pas être partagés entre plusieurs utilisateurs.
4.1.1 Objets constituant un projet
Dans un projet, les objets s'affichent hiérarchiquement dans la zone de projet. Si un signe plus (+) s'affiche en regard d'un objet, développez-le pour afficher les objets de niveau inférieur figurant dans l'objet. Le logiciel indique le contenu comme noms dans la hiérarchie de zone de projet et des icônes dans l'espace de travail.
Dans l'exemple suivant, le job Job_KeyGen contient deux flux de données et le flux de données
DF_EmpMap contient plusieurs objets.
67 2012-11-22
Projets et Jobs
Chaque élément sélectionné dans la zone de projet s'affiche également dans l'espace de travail :
4.1.2 Création d'un projet
1.
Sélectionnez Projet > Nouveau > Projet.
2.
Entrez le nom de votre nouveau projet.
Le nom peut comporter des caractères alphanumériques et des traits de soulignement (_). Il ne peut pas contenir d'espaces.
3.
Cliquez sur Créer.
Le nouveau projet s'affiche dans la zone de projet. Si vous ajoutez des jobs et d'autres objets de niveau inférieur, ils apparaissent également dans la zone de projet.
4.1.3 Ouverture de projets existants
68 2012-11-22
Projets et Jobs
4.1.3.1 Pour ouvrir un projet existant
1.
Sélectionnez Projet > Ouvrir.
2.
Sélectionnez le nom d'un projet existant dans la liste.
3.
Cliquez sur Ouvrir.
Remarque :
Si un autre projet a déjà été ouvert, le logiciel le ferme et ouvre le nouveau.
4.1.4 Enregistrement de projets
4.1.4.1 Pour enregistrer toutes les modifications apportées à un projet
1.
Sélectionnez Projet > Tout enregistrer.
Le logiciel liste les jobs, les workflows et les flux de données modifiés depuis le dernier enregistrement.
2.
(facultatif) Désélectionnez tout objet listé pour éviter de l'enregistrer.
3.
Cliquez sur OK.
Remarque :
Le logiciel vous invite à enregistrer tous les objets modifiés lorsque vous exécutez un job et que vous quittez Designer. L'enregistrement d'un objet réutilisable entraîne l'enregistrement des objets
à usage unique qu'il contient le cas échéant.
4.2 Jobs
Un job est le seul objet que vous pouvez exécuter. Vous pouvez exécuter manuellement des jobs et les tester en mode développement. En mode production, vous pouvez planifier des jobs batch et configurer des jobs en temps réel comme services qui exécutent un processus lorsque le logiciel reçoit une demande de message.
69 2012-11-22
Projets et Jobs
Un job se compose d'étapes que vous souhaitez exécuter ensemble. Chaque étape est représentée par une icône objet que vous placez dans l'espace de travail pour créer un diagramme de jobs. Un diagramme de jobs se compose de deux objets ou plus reliés ensemble. Vous pouvez inclure l'un des objets suivants dans une définition de job :
• Flux de données
• Sources
• Cibles
• Transformations
• Workflows
• Scripts
• Structures conditionnelles
• Boucles WHILE
• Blocs Try/Catch
Si un job devient complexe, organisez son contenu en workflows individuels puis créez un job individuel qui appelle ces workflows.
Les jobs en temps réel utilisent les mêmes composants que les jobs batch. Vous pouvez ajouter des workflows et des flux de données aux jobs batch et aux jobs en temps réel. Lorsque vous faites glisser une icône de workflow ou de flux de données dans un job, vous demandez au logiciel de valider ces objets selon les exigences du type de job (batch ou temps réel).
Il existe certaines restrictions en ce qui concerne l'utilisation de certaines fonctions du logiciel avec les jobs en temps réel.
Rubriques associées
•
•
4.2.1 Création de jobs
70
4.2.1.1 Pour créer un job dans la zone de projet
1.
Dans la zone de projet, sélectionnez le nom du projet.
2.
Cliquez avec le bouton droit de la souris et sélectionnez Nouveau jobJob ou Job en temps réel.
2012-11-22
Projets et Jobs
3.
Modifiez le nom.
Le nom peut comporter des caractères alphanumériques et des traits de soulignement (_). Il ne peut pas contenir d'espaces.
Le logiciel ouvre un nouvel espace de travail où vous définissez le job.
4.2.1.2 Pour créer un job dans la bibliothèque d'objets
1.
Accédez à l'onglet Jobs.
2.
Cliquez avec le bouton droit de la souris sur Jobs batch ou Jobs en temps réel et sélectionnez
Nouveau.
3.
Un nouveau job s'affiche avec un nom par défaut.
4.
Cliquez avec le bouton droit de la souris et sélectionnez Propriétés pour modifier le nom des objets et ajouter une description.
Le nom peut comporter des caractères alphanumériques et des traits de soulignement (_). Il ne peut pas contenir d'espaces.
5.
Pour ajouter le job au projet en cours, faites-le glisser dans la zone de projet.
4.2.2 Conventions d'appellation pour objets dans jobs
Nous vous recommandons de suivre les conventions d'appellation cohérentes pour simplifier l'identification d'objet dans tous les systèmes de votre entreprise. Vous pourrez ainsi travailler plus facilement avec des métadonnées dans toutes les applications, par exemple :
• Applications de modélisation des données
• Applications ETL
• Applications de reporting
• Kits de développement de logiciel Adapter
Des exemples de conventions recommandées pour l'utilisation de jobs et autres objets sont indiqués dans le tableau suivant.
Préfixe
DF_
EDF_
Suffixe
n/a
_Input
Objet
Flux de données
Flux de données imbriquées
Exemple
DF_Currency
EDF_Example_Input
71 2012-11-22
Projets et Jobs
Préfixe
EDF_
RTJob_
WF_
JOB_ n/a
DC_
SC_ n/a
PROC_
Suffixe
_Output n/a n/a n/a
_DS n/a n/a
_Memory_DS n/a
Objet
Flux de données imbriquées
Job en temps réel
Workflow
Job
Banque de données
Exemple
EDF_Example_Output
RTJob_OrderStatus
WF_SalesOrg
JOB_SalesOrg
ORA_DS
Configuration de banque de données
Configuration du système
DC_DB2_production
SC_ORA_test
Banque de données en mémoire Catalog_Memory_DS
Procédure stockée PROC_SalesStatus
Bien que Designer soit une interface utilisateur graphique avec des icônes représentant des objets dans sa fenêtre, d'autres interfaces peuvent vous amener à identifier les types d'objets par le texte seul. En utilisant un préfixe ou un suffixe vous pouvez plus facilement identifier votre type d'objet.
Outre les préfixes et les suffixes, vous pouvez être amené à fournir des noms standardisés pour des objets identifiant une action spécifique dans tous les types d'objets. Par exemple : DF_OrderStatus,
RTJob_OrderStatus.
Outre les préfixes et les suffixes, les conventions d'appellation peuvent également inclure des identificateurs de nom du chemin. Par exemple, la convention d'appellation de procédure stockée peut
être la suivante :
<datastore>.<owner>.<PROC_Name>
<datastore>.<owner>.<package>.<PROC_Name>
72 2012-11-22
Banques de données
Banques de données
Cette section décrit les différents types de banques de données, fournit des détails sur la banque de données du connecteur Attunity et des instructions pour la configuration des banques de données.
5.1 Qu'est-ce qu'une banque de données
Les banques de données représentent des configurations de connexion entre le logiciel et les bases de données ou les applications. Ces configurations peuvent être directes ou via un adaptateur. Les configurations de banque de données permettent au logiciel d'accéder aux métadonnées d'une base de données ou d'une application, et de lire depuis ou d'écrire dans cette base de données ou application pendant que le logiciel exécute un job.
Les banques de données SAP BusinessObjects Data Services peuvent se connecter à :
• Des bases de données et des systèmes de fichier de l'ordinateur principal.
• Des applications qui ont des adaptateurs pré-packagés ou écrits par l'utilisateur.
• One World et World de JD Edwards, Oracle Applications, PeopleSoft, applicationsSAP, SAP Master
Data ServicesSAP NetWeaver BW et les applications Siebel. Voir les guides suppléments appropriés.
Remarque :
Le logiciel lit et écrit des données stockées dans des fichiers plats à l'aide de formats de fichiers plats.
Le logiciel lit et écrit des données stockées dans des documents XML à l'aide de schémas DTD et XML.
Les informations spécifiques auxquelles un objet de banque de données peut accéder dépendent de la configuration de connexion. Lorsque la base de données ou l'application est modifiée, apportez les modifications correspondantes dans les informations de banque de données dans le logiciel. Le logiciel ne détecte pas automatiquement les nouvelles informations.
Remarque :
Les objets supprimés d'une connexion à la banque de données sont identifiés dans la zone du projet et dans l'espace de travail par une icône rouge "supprimé".
Cet indicateur visuel permet de trouver et de mettre à jour les flux de données affectés par les modifications de la banque de données.
Il est possible de créer plusieurs configurations pour une banque de données. Cela vous permet de prévoir en avance les différents environnements dans lesquels la banque de données peut être utilisée et limite le travail impliqué par la migration de jobs. Par exemple, il est possible d'ajouter un ensemble de configurations(DEV, TEST et PROD) au même nom de banque de données. Ces paramètres de connexion restent avec la banque de données lors de l'exportation ou de l'importation. Il est possible
73 2012-11-22
Banques de données de grouper tous les ensembles de configurations de la banque de données dans une configuration système. Lors de l'exécution ou de la planification d'un job, sélectionnez une configuration système et ainsi l'ensemble des configurations de la banque de données pour l'environnement actuel.
Rubriques associées
•
Banques de données de bases de données
•
Banques de données de l'adaptateur
•
•
Mise en forme des documents XML
•
Création et gestion de plusieurs configurations de banques de données
5.2 Banques de données de bases de données
Les banques de données de bases de données représentent des connexions uniques ou multiples avec :
• Des systèmes hérités à l'aide de Attunity Connect
• Des bases de données IBM DB2, HP Neoview, Informix, Microsoft SQL Server, Oracle, Sybase
ASE, Sybase IQ, MySQL, Netezza, SAP HANA, SAP BusinessObjects Data Federator, et Teradata
(à l'aide de connexions natives)
• D'autres bases de données (par ODBC)
• Un référentiel, à l'aide d'une banque de données en mémoire ou d'une banque de données de cache persistant
Vous créez une connexion à la plupart des sources de données à l'aide du nom de serveur au lieu du nom du DSN (nom de source de données) ou du nom du TNS (Transparent Network Substrate). Les connexions avec nom de serveur (également appelées connexions sans DSN et connexions sans TNS) suppriment le besoin de configurer les mêmes entrées DSN ou TNS sur chaque ordinateur dans un environnement distribué.
Rubriques associées
• Administrator Guide: DSN-less and TNS-less connections
5.2.1 Interface de l'ordinateur central
Le logiciel fournit la banque de données du connecteur Attunity qui accède aux sources de données de l'ordinateur central par Attunity Connect. Les sources de données auxquelles Attunity Connect accède sont dans la liste suivante : Pour une liste complète des sources, consultez la documentation d'Attunity.
74 2012-11-22
Banques de données
• Adabas
• DB2 UDB pour OS/390 et DB2 UDB pour OS/400
• IMS/DB
• VSAM
• Fichiers plats sur OS/390 et fichiers plats sur OS/400
5.2.1.1 Conditions préalables pour une banque de données Attunity
Le connecteur Attunity accède aux données de l'ordinateur central à l'aide du logiciel que vous devez installer manuellement sur le serveur de l'ordinateur central et sur l'ordinateur du client local (Job
Server). Le logiciel se connecte au connecteur Attunity à l'aide de son interface ODBC.
Il n'est pas nécessaire d'acheter un gestionnaire de pilotes ODBC distinct pour UNIX et pour les plateformes Windows.
Serveurs
Installez et configurez le produit Attunity Connect sur le serveur (par exemple, un ordinateur z Series).
Clients
Pour accéder aux données de l'ordinateur central à l'aide du connecteur Attunity, installez le produit
Attunity Connect. Le pilote ODBC est requis. Attunity offre également un outil facultatif appelé Attunity
Studio, qu'il est possible d'utiliser pour la configuration et l'administration.
Configurez les sources de données ODBC sur le client (Job Server de SAP BusinessObjectsData
Services).
Lorsque vous installez un Job Server sur UNIX, l'installateur vous invite à fournir un chemin du répertoire d'installation pour le logiciel du connecteur Attunity. De plus, il n'est pas nécessaire d'installer un gestionnaire de pilotes parce que le logiciel charge les pilotes ODBC directement sur les plateformes
UNIX.
Pour plus d'informations sur la manière d'installer et de configurer ces produits, consultez leur documentation.
75
5.2.1.2 Configuration d'une banque de données Attunity
Pour utiliser l'option de la banque de données du connecteur Attunity, mettez à niveau le référentiel vers la version 6.5.1 ou ultérieure de SAP BusinessObjectsData Services.
Pour créer une banque de données du connecteur Attunity :
2012-11-22
Banques de données
76
1.
Dans l'onglet Banques de données de la bibliothèque d'objets, faites un clic droit et sélectionnez
Nouveau.
2.
Saisissez un nom pour la banque de données.
3.
Dans la case Type de la banque de données, sélectionnez Base de données.
4.
Dans la case Type de la base de données, sélectionnez Connecteur Attunity.
5.
Saisissez le nom de la source de données Attunity, l'emplacement du démon Attunity (Emplacement
de l'hôte), le numéro du port du démon Attunity, et un nom unique de l'espace de travail du serveur
Attunity.
6.
Pour modifier les options par défaut (telles que Lignes par validation ou Langue), cliquez sur le bouton Avancé.
7.
Cliquez sur OK.
Vous pouvez désormais utiliser la nouvelle connexion à la banque de données pour importer les tables de métadonnées dans le référentiel actuel.
5.2.1.3 Spécification de plusieurs sources de données dans une banque de données Attunity
Il est possible d'utiliser la banque de données du connecteur Attunity pour accéder à plusieurs sources de données Attunity sur le même emplacement de démon Attunity. Si plusieurs types de données existent sur le même ordinateur, par exemple une base de données DB2 et VSAM, il est possible que vous souhaitiez accéder aux deux types de données à l'aide d'une seule connexion. Par exemple, vous pouvez utiliser une connexion unique pour relier les tables (et pousser vers le bas l'opération de jointure vers un serveur distant), ce qui réduit la quantité de données transmises par le réseau.
Pour spécifier plusieurs sources dans l'éditeur de banque de données :
1.
Séparez les noms des sources de données par des points virgules dans la case de la source de données Attunity à l'aide du format suivant :
AttunityDataSourceName;AttunityDataSourceName
Par exemple, si vous possédez une source de données DB2 appelée DSN4 et une source de données VSAM appelée Navdemo, saisissez les valeurs suivantes dans la case Source de données :
DSN4;Navdemo
2.
Si vous faites une liste de plusieurs noms de source de données pour une banque de données du connecteur Attunity, assurez-vous de respecter les conditions suivantes :
• Toutes les sources de données Attunity doivent être accessibles avec le même nom d'utilisateur et mot de passe.
• Toutes les sources de données Attunity doivent utiliser le même espace de travail. Lorsque vous configurez l'accès aux sources de données dans Attunity Studio, utilisez le même nom d'espace de travail pour chaque source de données.
2012-11-22
Banques de données
77
5.2.1.4 Convention d'appellation Data Services pour les tables Attunity
Le format Data Services pour l'accès aux tables Attunity est particulier à Data Services. Puisqu'une seule banque de données peut accéder à plusieurs systèmes logiciels qui ne partagent pas le même espace de noms, le nom de la source de données Attunity doit être indiqué lorsqu'elle fait référence à une table. Avec un connecteur Attunity, faites précéder le nom de la table avec les noms de la source de données et du propriétaire, séparés par deux points. Le format est le suivant :
AttunityDataSource:OwnerName.TableName
Lors de l'utilisation de Designer pour créer les jobs avec des tables Attunity importées, Data Services génère automatiquement l'expression SQL correcte pour ce format. Cependant, lorsque vous créez
SQL, assurez-vous d'utiliser ce format. Il est possible de créer SQL dans les constructions suivantes :
• Fonction SQL
• Transformation SQL
• Fonction pushdown_sql
• Commandes de pré-chargement dans un chargeur de table
• Commandes de post-chargement dans un chargeur de table
Remarque :
Pour toutes les tables dans Data Services, la taille maximale du nom du propriétaire est de 64 caractères.
Dans le cas des tables Attunity, la taille maximale du nom de la source de données Attunity et du nom du propriétaire réel est de 63 caractères (les deux points comptent pour 1 caractère). Data Services ne peut pas accéder à une table dont le nom du propriétaire est plus long que 64 caractères.
5.2.1.5 Limitations
Toutes les fonctionnalités Data Services sont disponibles lorsque vous utilisez une banque de données du connecteur Attunity, excepté les fonctionnalités suivantes :
• Chargement par lots
• Fonctions importées (importe les métadonnées pour les tables uniquement)
• Tables de modèle (création de tables)
• Le type de données date-heure prend en charge jusqu'à 2 multiples décimaux de secondes uniquement
2012-11-22
Banques de données
• Data Services ne peut pas charger des données d'horodatage dans une colonne d'horodatage dans une table car Attunity tronque les données varchar à 8 caractères, ce qui n'est pas assez pour représenter correctement une valeur d'horodatage.
• Lors de l'exécution d'un job sur UNIX, le job peut échouer avec l'erreur suivante :
[D000] Cannot open file /usr1/attun/navroot/def/sys System error 13: The file access permissions do not allow the specified action.; (OPEN)
Cette erreur se produit à cause des autorisations de fichier insuffisantes pour certains des fichiers dans le répertoire d'installation Attunity. Pour éviter cette erreur, remplacez les autorisations de fichier pour tous les fichiers dans le répertoire Attunity par 777 en exécutant la commande suivante depuis le répertoire d'installation Attunity :
$ chmod -R 777 *
5.2.2 Définition d'une banque de données d'une base de données
Définissez au moins une banque de données d'une base de données pour chaque base de données ou système de fichier central avec lesquels vous échangez des données.
Pour définir une banque de données, obtenez les privilèges d'accès à la base de données ou au système de fichier appropriés décrits par la banque de données.
Par exemple, le fait de permettre au logiciel d'utiliser le SQL paramétré lors de la lecture ou de l'écriture sur des bases de données DB2 autorise l'utilisateur (de la banque de données/base de données) à créer, exécuter et déposer les procédures stockées. Si l'utilisateur n'est pas autorisé à créer, exécuter et déposer les procédures stockées, les jobs continuent d'exécuter. Cependant, les jobs produiront un message d'avertissement et exécuteront moins efficacement.
5.2.2.1 Définir une banque de données d'une base de données
1.
Dans l'onglet Banques de données de la bibliothèque d'objets, faites un clic droit et sélectionnez
Nouveau.
2.
Saisissez le nom de la nouvelle banque de données dans le champ Nom de la banque de données.
Le nom peut contenir tous les caractères alphabétiques ou numériques, ou des tirets de soulignement
(_). Il ne peut pas contenir d'espace.
3.
Sélectionnez le Type de banque de données.
Sélectionnez la base de données. Lorsque vous sélectionnez un type de banque de données, le logiciel affiche les autres options pertinentes pour ce type.
4.
Sélectionnez le Type de base de données.
78 2012-11-22
Banques de données
5.
Saisissez les informations appropriées pour le type de base de données sélectionné.
a.
Si vous avez sélectionné Oracle et que vous souhaitez utiliser des connexions sans TNS, définissez la valeur de Utiliser le nom du TNS sur Non.
b.
Si vous avez sélectionné un type de base de données prenant en charge des connexions sans
DSN (par exemple, DB2, Informix, MySQL, Netezza, ou SAP HANA) et que vous souhaitez utiliser des connexions sans DSN, définissez la valeur de Utiliser le nom de source de données
(DSN) sur Non.
Pour obtenir la dernière liste des bases de données prises en charge pour les connexions sans
DSN, reportez-vous à la documentation relative aux plateformes prises en charge (Matrice de disponibilité des produits) https://service.sap.com/PAM .
c.
Si vous avez sélectionné Data Federator, vous devez également indiquer le nom du catalogue et le nom du schéma dans l'URL. Si vous ne le faites pas, il est possible que vous voyiez toutes les tables de chaque catalogue.
1.
Sélectionnez Admin ODBC puis l'onglet Système DNS.
2.
Mettez en surbrillance Data Federator, puis cliquez sur Configurer.
3.
Dans l'option URL, saisissez le nom du catalogue et le nom du schéma ; par exemplejdbc:leselect://localhost/catalognameschéma=schema=.
6.
La case à cocher Activer le transfert automatique des données est sélectionnée par défaut lorsque vous créez une nouvelle banque de données et que vous sélectionnez Base de données pour Type de banque de donnée. Cette case à cocher s'affiche pour toutes les bases de données, sauf le connecteur Attunity, Data Federator, le cache mémoire et le cache persistant.
Gardez la case Activer le transfert automatique des données sélectionnée pour activer les tables de transfert dans cette banque de données que la transformation Data_Transfer peut utiliser pour pousser vers le bas les opérations de base de données ultérieures.
7.
A ce stade, il est possible d'enregistrer la banque de données ou d'y ajouter plus d'informations :
• Pour enregistrer la banque de données et fermer l'éditeur de banque de données, cliquez sur
OK.
• Pour ajouter plus d'informations, sélectionnez Avancé.
Pour saisir des valeurs pour chaque option de configuration, cliquez sur les cellules en-dessous de chaque nom de configuration.
Pour l'ensemble de la banque de données, les options et les boutons suivants sont disponibles :
Boutons Description
Importer les types de données non pris en charge comme VARCHAR de taille
Les types de données pris en charge par le logiciel sont documentés dans le Guide de référence. Si vous souhaitez que le logiciel convertisse un type de données de votre source qu'il ne prendrait normalement pas en charge, sélectionnez cette option et saisissez le nom de caractères que vous autorisez.
79 2012-11-22
Banques de données
Boutons
Modifier
Afficher l'ATL
OK
Annuler
Appliquer
Description
Ouvre la Configuration pour la boîte de dialogue Banque de données. Utilisez la barre d'outils de cette fenêtre pour ajouter, configurer et gérer plusieurs configurations pour une banque de données.
Ouvre une fenêtre de texte qui affiche la manière dont le logiciel code vos sélections pour cette banque de données dans son langage de script.
Enregistre les sélections and ferme la fenêtre Editeur de banque de données (Créer une banque de données).
Annule les sélections et ferme la fenêtre Editeur de banque de données
Enregistre les sélections.
8.
Cliquez sur OK.
Remarque :
Sur les versions de Data Integrator antérieures à la version 11.7.0, le type de base de données approprié
à utiliser lors de la création d'une banque de données sur Netezza était ODBC. SAP
BusinessObjectsData Services 11.7.1 fournit une option Netezza spécifique comme Type de base de
données à la place d'ODBC. Lors de l'utilisation de Netezza comme base de données avec le logiciel, nous recommandons de sélectionner l'option Netezza du logiciel comme le Type de base de données plutôt qu'ODBC.
Rubriques associées
• Administration Guide: DSN-less and TNS-less connections
• Guide d'optimisation de la performance : transformation DataTransfer pour opérations poussées vers le bas
• Guide de référence : objets, banque de données
•
Création et gestion de plusieurs configurations de banques de données
•
Comment importer des métadonnées
80 2012-11-22
Banques de données
5.2.3 Configuration des sources de données ODBC sur UNIX
Pour utiliser les sources de données ODBC sur les plateformes UNIX, il est possible que vous deviez effectuer une configuration supplémentaire.
Data Services fournit le Gestionnaire de connexions pour simplifier la configuration des sources de données ODBC nativement prises en charges telles que MySQL et Teradata. Les autres sources de données ODBC peuvent exiger une configuration manuelle.
Rubriques associées
• Guide d'administration : configuration des sources de données ODBC sur UNIX.
5.2.4 Modification d'une définition de banque de données
Comme tous les objets, les banques de données sont définies par des options et des propriétés :
• Les options contrôlent l'opération des objets. Par exemple, le nom de la base de données à laquelle se connecter est une option de banque de données.
• Les propriétés documentent l'objet. Par exemple, le nom de la banque de données et la date à laquelle elle a été créée sont des propriétés de banque de données. Les propriétés sont simplement des descriptions de l'objet et n'affectent pas son opération.
81
5.2.4.1 Modifier les options de la banque de données
1.
Accédez à l'onglet Banques de données dans la bibliothèque d'objets.
2.
Faites un clic droit sur le nom de la banque de données et sélectionnez Modifier.
L'éditeur de banque de données apparaît (la barre de titre pour cette boîte de dialogue affiche
Modifier la banque de données). Il est possible de réaliser les tâches suivantes :
• Modifier les informations de connexion pour la configuration de banque de données actuelle.
• Cliquez sur Avancé et modifiez les propriétés pour la configuration actuelle.
• Cliquez sur Modifier pour ajouter, modifier ou supprimer des configurations supplémentaires.
La boîte de dialogue Configurations pour la banque de données s'ouvre lorsque vous sélectionnez
Modifier dans l'éditeur de banque de données. Après avoir ajouté une nouvelle configuration à une banque de données existante, vous pouvez utiliser les champs dans la grille pour modifier les valeurs et les propriétés de connexion pour la nouvelle configuration.
2012-11-22
Banques de données
3.
Cliquez sur OK.
Les options prennent immédiatement effet.
Rubriques associées
• Guide de référence : banques de données de base de données.
5.2.4.2 Modifier les propriétés de la banque de données
1.
Accédez à l'onglet Banque de données dans la bibliothèque d'objets.
2.
Faites un clic droit sur le nom de la banque de données et sélectionnez Propriétés.
La fenêtre Propriétés s'ouvre.
3.
Modifiez les propriétés de la banque de données.
4.
Cliquez sur OK.
Rubriques associées
• Guide de référence : banque de données
5.2.5 Parcourir les métadonnées depuis une banque de données de base de données
Le logiciel enregistre les informations de métadonnées pour tous les objets importés dans une banque de données. Il est possible d'utiliser le logiciel pour afficher les métadonnées pour les objets importés et non importés, et pour contrôler si les métadonnées ont changé pour les objets déjà importés.
5.2.5.1 Afficher les objets importés
1.
Accédez à l'onglet Banques de données dans la bibliothèque d'objets.
2.
Cliquez sur le signe plus (+) à côté du nom de la banque de données pour afficher les types d'objet dans la banque de données. Par exemple, les banques de données de base de données ont des fonctions, des tables, et des tables de modèle.
3.
Cliquez sur le signe plus (+) à côté d'un type d'objet pour afficher les objets de ce type importés depuis la banque de données. Par exemple, cliquez sur le signe plus (+) à côté des tables pour afficher les tables importées.
82 2012-11-22
Banques de données
83
5.2.5.2 Trier la liste des objets
Cliquez sur l'en-tête de colonne pour trier par ordre alphabétique les objets dans chaque regroupement, et les regroupements dans chaque banque de données. Cliquez à nouveau pour trier par ordre alphabétique inversé.
5.2.5.3 Afficher les métadonnées de banque de données
1.
Sélectionnez l'onglet Banques de données dans la bibliothèque d'objets.
2.
Sélectionnez une banque de données, faites un clic droit et sélectionnez Ouvrir. (Il est également possible de double-cliquer sur l'icône de la banque de données.)
Le logiciel ouvre l'explorateur de banque de données dans l'espace de travail. L'explorateur de banque de données liste les tables dans la banque de données. Il est possible de voir des tables dans la base de données externe ou dans le référentiel interne. Il est également possible de faire une recherche dans ces composants.
3.
Sélectionnez Métadonnées externes pour afficher les tables dans la base de données externe.
Si vous sélectionnez une table ou plus, il est possible de faire un clic droit pour plus d'options.
Commande Description
Ouvrir (uniquement disponible si vous sélectionnez une seule table).
Ouvre l'éditeur pour les métadonnées de table.
Importer
Rapprocher
Importe (ou réimporte) des métadonnées de la base de données vers le référentiel.
Contrôle les différences entre les métadonnées de la base de données et celles dans le référentiel.
4.
Sélectionnez Métadonnées du référentiel pour afficher les tables importées.
Si vous sélectionnez une table ou plus, il est possible de faire un clic droit pour plus d'options.
2012-11-22
Banques de données
Commande Description
Ouvrir (uniquement disponible si vous sélectionnez une seule table).
Ouvre l'éditeur pour les métadonnées de table.
Rapprocher
Réimporter
Contrôle les différences entre les métadonnées du référentiel et celles de la base de données.
Réimporte les métadonnées de la base de données vers le référentiel.
Supprime la table ou les tables du référentiel.
Supprimer
Propriétés (uniquement disponible si vous sélectionnez une seule table).
Affiche les propriétés de la table sélectionnée.
Afficher les données
Ouvre la fenêtre Afficher les données qui permet de voir les données qui sont actuellement dans la table.
Rubriques associées
•
5.2.5.4 Déterminer si un schéma a changé depuis son importation
1.
Dans la fenêtre du navigateur qui affiche la liste des tables du référentiel, sélectionnez Métadonnées
externes.
2.
Sélectionnez la table ou les tables dont vous souhaitez contrôler les modifications.
3.
Faites un clic droit et sélectionnez Rapprocher.
La colonne Modifiée affiche OUI pour indiquer que les tables de la base de données sont différentes des métadonnées importées dans le logiciel. Pour utiliser les métadonnées du logiciel les plus récentes, réimportez la table.
La colonne Importée affiche OUI pour indiquer que la table a été importée dans le référentiel.
84 2012-11-22
Banques de données
5.2.5.5 Parcourir les métadonnées pour une table externe
1.
Dans la fenêtre du navigateur qui affiche la liste des tables externes, sélectionnez la table que vous souhaitez afficher.
2.
Faites un clic droit et sélectionnez Ouvrir.
Un éditeur de table apparait dans l'espace de travail et affiche le schéma et les attributs de la table.
5.2.5.6 Afficher les métadonnées pour une table importée
1.
Sélectionnez le nom de la table dans la liste des tables importées.
2.
Faites un clic droit et sélectionnez Ouvrir.
Un éditeur de table apparait dans l'espace de travail et affiche le schéma et les attributs de la table.
5.2.5.7 Voir les informations d'index secondaires pour les tables
Les informations d'index secondaires peuvent aider à comprendre le schéma d'une table importée.
1.
Dans l'onglet des banques de données de Designer, cliquez avec le bouton droit de la souris sur la table pour ouvrir le menu contextuel.
2.
Dans le menu contextuel, cliquez sur Propriétés pour ouvrir la fenêtre Propriétés.
3.
Dans la fenêtre Propriétés, cliquez sur l'onglet Index. La partie gauche de la fenêtre affiche la liste d'index.
4.
Cliquez sur un index pour voir le contenu.
5.2.6 Importation de métadonnées par une banque de données de base de données
Pour les banques de données de base de données, il est possible d'importer les métadonnées pour des tables et des fonctions.
85 2012-11-22
Banques de données
5.2.6.1 Informations de table importée
Le logiciel détermine et enregistre un set spécifique d'informations de métadonnées pour les tables.
Après avoir importé les métadonnées, il est possible de modifier les noms de colonne, les descriptions et les types de données. Les modifications sont propagées vers tous les objets qui appellent ces objets.
Métadonnées Description
Nom de table
Le nom de la table tel qu'il apparait dans la base de données.
Remarque :
La longueur maximale du nom de table prise en charge par le logiciel est de 64 caractères. Si le nom de la table dépasse les 64 caractères, il est possible que vous ne puissiez pas importer la table.
Description de la table
Nom de colonne
Description de la colonne
Type de données de la colonne
Type de contenu de la colonne
La description de la table.
Le nom de la colonne.
La description de la colonne.
Le type de données pour la colonne.
Si une colonne est définie comme un type de données non pris en charge, le logiciel convertit le type de données en un type pris en charge. Dans certains cas, si le logiciel ne peut pas convertir le type de données, il ignore la colonne entière.
Le type de contenu identifie le type de données dans le champ.
86 2012-11-22
Banques de données
87
Métadonnées
Colonne de la clé primaire
Attribut de la table
Nom du propriétaire
Description
La/Les colonne(s) qui contient/contiennent la clé primaire pour la table.
Après qu'une table ait été ajoutée à un diagramme de flux de données, ces colonnes sont indiquées dans la liste de colonne par une icône de clé à côté du nom de colonne.
Les informations enregistrées par le logiciel sur la table telles que la date de création et la date de modification si ces valeurs sont disponibles.
Nom du propriétaire de la table.
Remarque :
Le nom du propriétaire pour les sources de données
MySQL et Netezza correspond au nom de la base de données ou du schéma dans lequel la table apparait.
Informations de varchar et de colonne à partir des tables SAP BusinessObjects Data Federator
Toutes les colonnes de décimales importées dans Data Serves depuis une source de données SAP
BusinessObjects Data Federator sont converties à la précision et à l'échelle décimale (28,6)
Toutes les colonnes varchar importées dans le logiciel à partir d'une source de données SAP
BusinessObjects Data Federator sont de type varchar (1024)
Il est possible de modifier la précision ou l'échelle décimale et la taille du varchar dans le logiciel après les avoir importés de la source de données SAP BusinessObjects Data Federator.
5.2.6.2 Informations importées de procédure et de fonction stockées
Le logiciel peut importer des procédures stockées depuis les bases de données DB2, MS SQL Server,
Oracle, SAP HANA, Sybase ASE, Sybase IQ, et Teredata. Il est également possible d'importer des fonctions stockées et des packages depuis Oracle. Il est possible d'utiliser ces fonctions et procédures dans les spécifications d'extraction que vous avez données à Data Services.
Les informations importées pour les fonctions incluent :
• Les paramètres de fonction
• Le type de renvoi
2012-11-22
Banques de données
• Le nom, le propriétaire
Les fonctions et les procédures importées apparaissent sur l'onglet Banques de données de la bibliothèque d'objets. Les fonctions et les procédures apparaissent dans la branche Fonction de chaque arborescence de banque de données.
Il est possible de configurer les fonctions et les procédures importées grâce à l'assistant de fonction et l'éditeur rapide dans une catégorie identifiée par le nom de la banque de données.
Rubriques associées
• Guide de référence : à propos des procédures
88
5.2.6.3 Comment importer des métadonnées
Cette section décrit les méthodes d'importation des métadonnées.
5.2.6.3.1 Importer par navigation
Remarque :
Les fonctions ne peuvent pas être importées par navigation.
1.
Ouvrez la bibliothèque d'objets.
2.
Accédez à l'onglet Banques de données.
3.
Sélectionnez la banque de données que vous souhaitez utiliser.
4.
Faites un clic droit et sélectionnez Ouvrir.
Les éléments disponibles pour importer via la banque de données apparaissent dans l'espace de travail.
Dans certains environnements, les tables sont organisées et affichées sous forme d'arborescence.
Si c'est le cas, un signe plus (+) se trouve à gauche du nom. Cliquez sur le signe plus pour naviguer dans l'arborescence.
L'espace de travail contient des colonnes qui indiquent si la table a déjà été importée dans le logiciel
(Importée) et si le schéma de table a été modifié depuis qu'il a été importé (Modifié). Pour vérifier si le référentiel contient les métadonnées les plus récentes pour un objet, faites un clic droit sur l'objet et sélectionnez Rapprocher.
5.
Sélectionnez les éléments pour lesquels vous souhaitez importer des métadonnées.
Par exemple, pour importer une table, vous devez sélectionner une table plutôt qu'un dossier qui contient des tables.
6.
Faites un clic droit et sélectionnez Importer.
7.
Dans la bibliothèque d'objets, accédez à l'onglet Banques de données pour afficher la liste des objets importés.
2012-11-22
Banques de données
89
5.2.6.3.2 Importer par nom
1.
Ouvrez la bibliothèque d'objets.
2.
Cliquez sur l'onglet Banques de données.
3.
Sélectionnez la banque de données que vous souhaitez utiliser.
4.
Faites un clic droit et sélectionnez Importer par nom
5.
Dans la fenêtre Importer par nom, sélectionnez le type d'élément que vous souhaitez importer de la liste Type.
Si vous importez une procédure stockée, sélectionnez Fonction.
6.
Pour importer des tables : a.
Saisissez un nom de table dans la case Nom pour indiquer une table particulière, ou sélectionnez la case à cocher Tout, si disponible, pour spécifier toutes les tables.
Si le nom respecte la casse dans la base de données (et non pas tout en majuscules), saisissez le nom tel qu'il apparait dans la base de données et utilisez les guillemets doubles (") autour du nom pour conserver la casse.
b.
Saisissez un nom de propriétaire dans la case Propriétaire pour limiter les tables indiquées à un propriétaire particulier. Si vous laissez le nom de propriétaire vide, vous indiquez des tables correspondantes qui ne tiennent pas compte du propriétaire (c'est-à-dire, toutes les tables avec le nom de table indiqué).
7.
Importer des fonctions et des procédures :
• Dans la case Nom, saisissez le nom de la fonction ou de la procédure stockée.
Si le nom respecte la casse dans la base de données (et non pas tout en majuscules), saisissez le nom tel qu'il apparait dans la base de données et utilisez les guillemets doubles (") autour du nom pour conserver la casse. Autrement, le logiciel convertit les noms en des caractères majuscules.
Il est également possible de saisir le nom d'un package. Un package Oracle est une collection encapsulée d'objets de programme reliés (par exemple des procédures, fonctions, variables, curseurs et exceptions) stockés ensemble dans une base de données. Le logiciel permet d'importer des procédures ou des fonctions créées dans des packages et de les utiliser comme des procédures ou des fonctions de niveau supérieur.
Si vous saisissez un nom de package, le logiciel importe toutes les fonctions et les procédures stockées définies dans le package Oracle. Il est impossible d'importer une fonction ou une procédure individuelle définie dans un package.
• Saisissez un nom de propriétaire dans la casePropriétaire pour limiter les fonctions indiquées
à un propriétaire particulier. Si vous laissez le nom de propriétaire vide, vous indiquez des fonctions correspondantes qui ne tiennent pas compte du propriétaire (c'est-à-dire, toutes les fonctions avec le nom indiqué).
• Si vous importez une fonction Oracle ou une procédure stockée et que l'une des conditions suivantes s'applique, décochez la case Joignable depuis l'expression SQL. Une procédure stockée ne peut pas être poussée vers le bas vers une base de données à l'intérieur d'une autre instruction SQL lorsque la procédure stockée contient une instruction DDL, qu'elle termine la
2012-11-22
Banques de données transaction actuelle avec COMMIT ou ROLLBACK, ou qu'elle émet une commande ALTER
SESSION ou ALTER SYSTEM.
8.
Cliquez sur OK.
5.2.6.3.3 Importer par recherche
Remarque :
Les fonctions ne peuvent pas être importées par recherche
1.
Ouvrez la bibliothèque d'objets.
2.
Cliquez sur l'onglet Banques de données.
3.
Sélectionnez le nom de la banque de données que vous souhaitez utiliser.
4.
Faites un clic droit et sélectionnez Rechercher.
La fenêtre Rechercher apparait.
5.
Saisissez le nom entier de l'élément ou une partie dans la zone de texte Nom.
Si le nom respecte la casse dans la base de données (et non pas tout en majuscules), saisissez le nom tel qu'il apparait dans la base de données et utilisez les guillemets doubles (") autour du nom pour conserver la casse.
6.
Sélectionnez Contient ou Egal à depuis la liste déroulante à droite en fonction de si vous avez fourni une valeur de recherche complète ou partielle.
Egal à sélectionne uniquement la chaîne de recherche complète. C'est à dire que vous devez rechercher nom_table.propriétaire plutôt que nom_table.
7.
(Facultatif) Saisissez une description dans la zone de texte Description.
8.
Sélectionnez le type d'objet dans la case Type.
9.
Sélectionnez la banque de données dans laquelle vous souhaitez faire la recherche à partir de la case Rechercher dans.
10.
Sélectionnez Externe dans la boîte déroulante à droite de la boîte Rechercher dans.
Externe indique que le logiciel recherche l'élément dans la base de données entière définie par la banque de données.
Interne indique que le logiciel recherche uniquement les éléments qui ont été importés.
11.
Accédez à l'onglet Avancé pour faire une recherche à l'aide des valeurs d'attribut du logiciel.
Les options avancées s'appliquent uniquement aux recherches d'éléments importés.
12.
Cliquez sur Rechercher.
Le logiciel liste les tables qui correspondent à vos critères de recherche.
13.
Pour importer une table à partir de la liste retournée, sélectionnez la table, faites un clic droit et sélectionnez Importer.
90 2012-11-22
Banques de données
5.2.6.4 Réimportation d'objets
Si vous avez déjà importé un objet tel qu'une banque de données, une fonction ou une table, il est possible de le réimporter, ce qui met à jour les métadonnées de l'objet depuis la base de données (la réimportation remplace toutes les modifications que vous avez apportées à l'objet dans le logiciel).
Dans les anciennes versions du logiciel, pour réimporter les objets, vous ouvriez la banque de données, affichiez les métadonnées du référentiel et sélectionniez les objets à réimporter. Dans cette version du logiciel, il est possible de réimporter les objets à l'aide de la bibliothèque d'objets à plusieurs niveaux :
• Objets individuels : réimporte les métadonnées pour un objet individuel tel qu'une table ou une fonction
• Niveau de nœud de catégorie : réimporte les définitions de tous les objets de ce type dans cette banque de données, par exemple, toutes les tables dans la banque de données
• Niveau de banque de données : réimporte l'ensemble de la banque de données et tous les objets dépendants, dont les tables, les fonctions, les IDOC et les hiérarchies
5.2.6.4.1 Réimporter les objets depuis la bibliothèque d'objets
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Banques de données.
2.
Faites un clic droit sur un objet individuel et cliquez sur Réimporter, ou faites un clic droit sur un nœud de catégorie ou sur un nom de banque de données et cliquez sur Tout réimporter.
Il est également possible de sélectionner plusieurs objets individuels en appuyant sur Ctrl ou Shift et en cliquant.
3.
Cliquez sur Oui pour réimporter les métadonnées.
4.
Si vous avez sélectionné plusieurs objets à réimporter (par exemple avec Tout réimporter), le logiciel demande confirmation pour chaque objet à moins que vous cochiez la caseNe plus me
poser la question pour les objets restants.
Il est possible d'ignorer des objets à réimporter en cliquant sur Non pour cet objet.
Si vous n'êtes pas sur de vouloir réimporter (et donc remplacer) l'objet, cliquez sur Afficher utilisation pour afficher l'emplacement où l'objet est actuellement utilisé dans les jobs.
5.2.7 Banques de données en mémoire
Le logiciel permet de créer une banque de données de base de données à l'aide de la Mémoire comme
Type de la base de données. Les banques de données en mémoire sont conçues pour améliorer la performance de traitement des flux de données qui exécutent des jobs en temps réel. Les données
91 2012-11-22
Banques de données
92
(en petite quantité en général dans un job en temps réel) sont stockées en mémoire pour offrir un accès immédiat plutôt que d'accéder aux données sources d'origine.
Une banque de données en mémoire est un conteneur pour des tables en mémoire. Une banque de données offre normalement une connexion à une base de données, à une application ou à un adaptateur.
En revanche, une banque de données en mémoire contient des schémas de tables en mémoire enregistrés dans le référentiel.
Les tables en mémoire sont des schémas qui permettent de cacher les données intermédiaires. Les tables en mémoire peuvent cacher les données des tables de base de données relationnelles ou des fichiers de données hiérarchiques tels que les messages XML et les IDocs SAP (qui contiennent tous les deux des schémas imbriqués).
Les tables en mémoire peuvent être utilisées pour :
• Déplacer les données entre des flux de données dans des jobs en temps réel. En cachant les données intermédiaires, la performance des jobs en temps réel avec plusieurs flux de données est largement meilleure qu'elle le serait si des fichiers ou des tables ordinaires étaient utilisés pour stocker les données intermédiaires. Pour obtenir la meilleure performance, utilisez uniquement les tables en mémoire lors du traitement de petites quantités de données.
• Stockez les données de table en mémoire pour la durée du job. En enregistrant les données de table en mémoire, la fonction LOOKUP_ECT et les autres transformations et fonctions qui ne nécessitent pas d'opérations de base de données peuvent accéder aux données sans avoir à les lire depuis une base de données distante.
La durée de vie des données de table en mémoire correspond à la durée du job. Les données des tables en mémoire ne peuvent pas être partagées entre plusieurs jobs en temps réel. La prise en charge de l'utilisation des tables en mémoire pour les jobs batch n'est pas disponible.
5.2.7.1 Création de banques de données en mémoire
Il est possible de créer des banques de données en mémoire à l'aide de la fenêtre Editeur de banque de données.
5.2.7.1.1 Définir une banque de données en mémoire
1.
A partir du menu Projet, sélectionnez Nouveau > Banque de données.
2.
Dans la case Nom, saisissez le nom de la nouvelle banque de données.
Assurez-vous d'utiliser la convention d'appellation ''Memory_DS". Les noms des banques de données sont ajoutés aux noms des tables lorsque les icônes de table apparaissent dans l'espace de travail.
Les tables en mémoire sont représentées dans l'espace de travail avec des icônes de table ordinaires.
Par conséquent, étiquetez une banque de données en mémoire pour distinguer ses tables en mémoire des tables de base de données ordinaires dans l'espace de travail.
3.
Dans la case Type de la banque de données, laissez le paramètre par défaut Base de données.
4.
Dans la case Type de la base de données, sélectionnez Mémoire.
2012-11-22
Banques de données
Aucun attribut supplémentaire n'est requis pour la banque de données en mémoire.
5.
Cliquez sur OK.
5.2.7.2 Création de tables en mémoire
Lors de la création d'une table en mémoire, il n'est pas nécessaire d'indiquer le schéma de la table ou d'importer les métadonnées de la table. A la place, le logiciel crée automatiquement le schéma pour chaque table en mémoire en fonction du schéma précédent, qui peut être soit un schéma d'une table de base de données relationnelle, soit un schéma des fichiers de données hiérarchiques tels que les messages XML. Lors de la première sauvegarde du job, le logiciel définit le schéma de la table en mémoire et enregistre la table. Par la suite, la table apparait avec une icône de table dans l'espace de travail et dans la bibliothèque d'objets sous la banque de données en mémoire.
5.2.7.2.1 Créer une table en mémoire
1.
A partir de la palette d'outils, cliquez sur l'icône de table de modèle.
2.
Cliquez dans un flux de données pour placer la table de modèle.
La fenêtre Créer une table s'ouvre.
3.
A partir de la fenêtre Créer une table, sélectionnez la banque de données en mémoire.
4.
Saisissez un nom de table.
5.
Si vous souhaitez une colonne d'ID de ligne générée par le système dans la table, cliquez sur la case à cocher Créer un ID de ligne.
6.
Cliquez sur OK.
La table en mémoire apparait dans l'espace de travail comme une icône de table de modèle.
7.
Connectez la table en mémoire au flux de données comme une cible.
8.
Depuis le menu Projet, sélectionnez Enregistrer.
Dans l'espace de travail, l'icône de la table en mémoire est remplacée par une icône de table cible, et la table apparait dans la bibliothèque d'objets sous la liste des tables de la banque de données en mémoire.
Rubriques associées
•
5.2.7.3 Utilisation des tables en mémoire comme des sources et des cibles
93 2012-11-22
Banques de données
Après avoir créé une table en mémoire comme une cible dans un flux de données, il est possible d'utiliser une table en mémoire comme une source ou une cible dans n'importe quel flux de données.
Rubriques associées
•
5.2.7.3.1 Utiliser une table en mémoire comme une source ou une cible
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Banques de données.
2.
Développez la banque de données en mémoire qui contient la table en mémoire que vous souhaitez utiliser.
3.
Développez Tables.
Une liste des tables apparait.
4.
Sélectionnez la table en mémoire que vous souhaitez utiliser comme une source ou une cible, et faites-la glisser dans un flux de données ouvert.
5.
Connectez la table en mémoire comme une source ou une cible dans le flux de données.
Si vous utilisez une table en mémoire comme une cible, ouvrez l'éditeur de table cible de la table en mémoire pour définir les options de table.
6.
Enregistrez le job
Rubriques associées
•
Options de cible de la table en mémoire
5.2.7.4 Option Mettre à jour le schéma
Il est possible que vous souhaitiez mettre à jour rapidement un schéma de table cible en mémoire si le schéma précédent a été modifié. Pour ce faire, utilisez l'option Mettre à jour le schéma. Autrement, vous devriez ajouter une nouvelle table en mémoire pour mettre à jour un schéma.
5.2.7.4.1 Mettre à jour le schéma d'une table cible en mémoire
1.
Faites un clic droit sur l'icône de la table cible en mémoire dans l'espace de travail.
2.
Sélectionnez Mettre à jour le schéma.
Le schéma de l'objet précédent est utilisé pour mettre à jour le schéma de la table cible en mémoire.
La table en mémoire actuelle est mise à jour dans le référentiel. Toutes les occurrences de la table en mémoire actuelle sont mises à jour avec le nouveau schéma.
94 2012-11-22
Banques de données
95
5.2.7.5 Options de cible de la table en mémoire
L'option Supprimer les données de la table avant le chargement est disponible pour les cibles de la table en mémoire. L'option est activée par défaut (la case est sélectionnée). Pour définir cette option, ouvrez l'éditeur de table cible en mémoire. Si vous décochez cette option, de nouvelles données sont ajoutées aux données de table existantes.
5.2.7.6 Option Créer un ID de ligne
Si l'option Créer un ID de ligne est cochée dans la fenêtre Créer table en mémoire, le logiciel génère une colonne d'entier appelée DI_Row_ID dans laquelle la première ligne insérée obtient la valeur 1, la deuxième ligne insérée obtient la valeur 2, etc. Cette nouvelle colonne permet d'utiliser une expression
LOOKUP_EXT comme un itérateur dans un script.
Remarque :
La même fonctionnalité est disponible pour les autres types de banque de données qui utilisent la fonction SQL.
Utilisez la colonne DI_Row_ID pour itérer sur une table à l'aide d'une fonction lookup_ext dans un script. Par exemple :
$NumOfRows = total_rows (memory_DS..table1)
$I = 1;
$count=0 while ($count < $NumOfRows) begin
$data = lookup_ext([memory_DS..table1, 'NO_CACHE','MAX'],[A],[O],[DI_Row_ID,'=',$I]);
$1 = $I + 1; if ($data != NULL) begin
$count = $count + 1; end end
Dans le script précédent, table1 est une table en mémoire. Le nom de la table est précédé par son nom de banque de données (memory_DS), d'un point, d'un espace vide (où se trouverait le propriétaire de la table pour une table ordinaire), puis d'un second point. Il n'existe pas de propriétaires pour les banques de données en mémoire, donc les tables sont uniquement identifiées par le nom de la banque de données et le nom de la table comme indiqué.
Sélectionnez les arguments de la fonction LOOKUP_EXT (ligne 7) depuis l'éditeur de fonctions lorsque vous définissez une fonction LOOKUP_EXT.
La fonction TOTAL_ROWS(DatastoreName.Owner.TableName) renvoie le nombre de lignes d'une table particulière dans une banque de données. Cette fonction peut être utilisée avec tout type de
2012-11-22
Banques de données banque de données. Dans le cas d'une utilisation avec une banque de données en mémoire, utilisez la syntaxe suivante : LIGNES_TOTALES( DatastoreName..TableName )
Le logiciel fournit également une fonction intégrée qu'il est possible d'utiliser pour effacer explicitement les données d'une table en mémoire. Cette fonction offre un meilleur contrôle que le celui qu'offre le job actif sur les données et l'utilisation de la mémoire. La fonction TRUNCATE_TABLE ( Datastore
Name..TableName
) peut uniquement être utilisée avec les tables en mémoire.
Rubriques associées
• Guide de référence : fonctions et procédures, descriptions de fonctions intégrées
5.2.7.7 Dépannage des tables en mémoire
• Une erreur possible, particulièrement avec l'utilisation des tables en mémoire, est que le logiciel exécute en dehors de la zone de mémoire virtuelle. Le logiciel quitte s'il exécute en dehors de la mémoire en exécutant une opération.
• Une erreur de validation et d'exécution se produit si le schéma d'une table en mémoire ne correspond pas au schéma de l'objet précédent dans le flux de données.
Pour corriger cette erreur, utilisez l'option Mettre à jour le schéma ou créez une nouvelle table en mémoire qui correspond au schéma de l'objet précédent dans le flux de données.
• Deux fichiers journaux contiennent les informations spécifiques aux tables en mémoire : le journal trace_memory_reader et le journal trace_memory_loader.
5.2.8 Banques de données de cache persistant
Le logiciel permet de créer une banque de données de base de données à l'aide d'un Cache persistant comme Type de la base de données. Les banques de données de cache persistant offrent les avantages ci-dessous pour les flux de données qui traitent de larges volumes de données.
• Il est possible de stocker une grande quantité de données dans un cache persistant que le logiciel charge rapidement dans la mémoire pour fournir un accès immédiat durant un job. Par exemple, il est possible d'accéder à une table de recherche ou à une table de comparaison localement (plutôt que de les lire depuis une base de données distante).
• Il est possible de créer des tables de cache qui peuvent être partagées par les flux de données (à la différence d'une table en mémoire qui ne peut pas être partagée entre plusieurs jobs en temps réel). Par exemple, si une grande table de recherche utilisée dans une fonction lookup_ext est rarement modifiée, il est possible de créer un cache une seule fois, et les jobs ultérieurs peuvent utiliser ce cache plutôt que d'en créer un à chaque fois.
96 2012-11-22
Banques de données
Une banque de données de cache persistent est un conteneur pour ces tables de cache. Une banque de données offre normalement une connexion à une base de données, à une application ou à un adaptateur. En revanche, une banque de données de cache persistant contient des schémas de tables de cache enregistrés dans le référentiel.
Les tables de cache persistant permettent de cacher de grandes quantités de données. Les tables de cache persistant peuvent cacher des données provenant de tables de base de données relationnelles et de fichiers.
Remarque :
Il est impossible de cacher les données des fichiers de données hiérarchiques tels que les messages
XML et les IDocs SAP (qui contiennent tous les deux des schémas imbriqués). Il est impossible d'effectuer des insertions, des suppressions ou des mises à jour incrémentielles sur une table de cache persistant.
Vous créez une table de cache persistant en chargeant les données dans la table cible de cache persistant qui utilise un flux de données. Vous pouvez ensuite lire depuis la table de cache dans un autre flux de données. Lorsque vous chargez des données dans une table de cache persistant, le logiciel tronque et recrée systématiquement la table.
5.2.8.1 Création de banques de données de cache persistant
Il est possible de créer des banques de données de cache persistant à l'aide de la fenêtre Editeur de banque de données.
5.2.8.1.1 Définir une banque de données de cache persistant
1.
A partir du menu Projet, sélectionnez Nouveau > Banque de données.
2.
Dans la case Nom, saisissez le nom de la nouvelle banque de données.
Assurez-vous d'utiliser une convention d'appellation telle que ''Persist_DS". Les noms des banques de données sont ajoutés aux noms des tables lorsque les icônes de table apparaissent dans l'espace de travail. Les tables de cache persistant sont représentées dans l'espace de travail avec des icônes de table ordinaires. Par conséquent, étiquetez une banque de données de cache persistant pour distinguer ses tables de cache persistant des tables de base de données ordinaires dans l'espace de travail.
3.
Dans la case Type de la banque de données, laissez le paramètre par défaut Base de données.
4.
Dans la case Type de la base de données, sélectionnez Cache persistant.
5.
Dans la case Répertoire du cache, vous pouvez soit saisir soit naviguer vers un répertoire dans lequel vous souhaitez stocker le cache persistant
6.
Cliquez sur OK.
97 2012-11-22
Banques de données
98
5.2.8.2 Création de tables de cache persistant
Lors de la création d'une table de cache persistant, il n'est pas nécessaire d'indiquer le schéma de la table ou d'importer les métadonnées de la table. A la place, le logiciel crée automatiquement le schéma pour chaque table de cache persistant en fonction du schéma précédent. Lors de la première sauvegarde du job, le logiciel définit le schéma de la table de cache persistant et enregistre la table. Par la suite, la table apparait avec une icône de table dans l'espace de travail et dans la bibliothèque d'objets sous la banque de données de cache persistant.
Vous créez une table de cache persistant sous l'une des formes suivantes :
• Comme une table de modèle cible dans un flux de données
• Comme une partie de la transformation Data_Transfer lors de l'exécution d'un job
Rubriques associées
• Guide de référence : Data_Transfer
5.2.8.2.1 Créer une table de cache persistant comme une cible dans un flux de données
1.
Utilisez l'une des méthodes suivantes pour ouvrir la fenêtre Créer un modèle :
• Depuis la palette d'outils :
a.
Cliquez sur l'icône de table de modèle.
b.
Cliquez dans un flux de données pour placer la table de modèle dans l'espace de travail.
c.
Sur la fenêtre Créer un modèle, sélectionnez la banque de données de cache persistant.
• Depuis la bibliothèque d'objets :
a.
Développez une banque de données de cache persistant.
b.
Cliquez sur l'icône de table de modèle et faites-la glisser dans l'espace de travail.
2.
Sur la fenêtre Créer un modèle, saisissez un nom de table.
3.
Cliquez sur OK.
La table de cache persistant apparait dans l'espace de travail comme une icône de table de modèle.
4.
Connectez la table de cache persistant au flux de données comme une cible (généralement une transformation Query).
5.
Dans la transformation Query, mappez les colonnes Entrée de schéma que vous souhaitez inclure dans la table de cache persistant.
6.
Ouvrez l'éditeur de table cible de la table de cache persistant pour définir les options de table.
2012-11-22
Banques de données
7.
Sur l'onglet Options de l'éditeur de table cible de cache persistant, il est possible de modifier les options suivantes pour la table de cache persistant.
• Comparaison des colonnes : indique la manière dont les colonnes d'entrée sont mappées aux colonnes de table de cache persistant. Il existe deux options :
• Comparer_par_position : le logiciel ne prend pas en compte les noms de colonnes et mappe les colonnes sources aux colonnes cibles par position.
• Comparer_par_nom : le logiciel mappe les colonnes sources aux colonnes cibles par le nom.
Cette option est celle par défaut
• Inclure les clés en double : sélectionnez cette case à cocher pour cacher les clés en double.
Cette option est sélectionnée par défaut.
8.
Sur l'onglet Clés, indiquez la/les colonne(s) clé(s) à utiliser comme clé dans la table de cache persistant.
9.
Depuis le menu Projet, sélectionnez Enregistrer. Dans l'espace de travail, l'icône de la table de modèle est remplacée par une icône de table cible, et la table apparait dans la bibliothèque d'objets sous la liste des tables de la banque de données de cache persistant.
Rubriques associées
• Guide de référence : tables de cache persistant cible
5.2.8.3 Utilisation de tables de cache persistant comme des sources
Après avoir créé une table de cache persistant comme une cible dans un flux de données, il est possible d'utiliser une table de cache persistant comme une source dans n'importe quel flux de données. Il est
également possible de l'utiliser comme une table de recherche ou une table de comparaison.
Rubriques associées
• Guide de référence : source de cache persistant.
5.2.9 Banques de données liées
Plusieurs fournisseurs de base de données prennent en charge des chemins de communication à sens unique entre un serveur de base de données à un autre. Oracle appelle ces chemins liens de base de donnés. Dans DB2, le chemin de communication à sens unique d'un serveur de base de données à un autre est fourni par un serveur d'informations qui permet à un set de serveurs d'obtenir des données des sources de données distantes. Dans Microsoft SQL Server, les serveurs liés fournissent le chemin de communication à sens unique d'un serveur de base de données à un autre. Ces solutions permettent
99 2012-11-22
Banques de données aux utilisateurs locaux d'accéder à des données sur une base de données distante, qui peut se trouver sur l'ordinateur local ou distant, du même type de base de données ou d'un type différent.
Par exemple, un serveur de base de données local Oracle, appelé Ordres, peut stocker un lien de base de données pour accéder aux informations dans une base de données Oracle distante, appelée Clients.
Les utilisateurs connectés à Clients ne peuvent cependant pas utiliser le même lien pour accéder aux données dans Ordres. Les utilisateurs connectés à la base de données Client doivent définir un lien différent, stocké dans le dictionnaire de données de la base de données Client, pour accéder aux données sur Ordres.
Le logiciel fait référence aux chemins de communication entre les bases de données sous le nom de liens de base de données. Les banques de données dans une relation de lien de base de données sont appelées banques de données liées. Le logiciel utilise les banques de données liées pour améliorer sa performance en poussant vers le bas des opérations vers une base de données cible à l'aide d'une banque de données cibles.
Rubriques associées
• Guide d'optimisation de la performance : prise en charge des liens de base de données pour les opérations poussées vers le bas dans les banques de données.
5.2.9.1 Relations entre les liens de base de données et les banques de données
Un lien de base de données enregistre les informations sur la manière de se connecter à une source de données distante, telles que son nom d'hôte, le nom de la base de données, le nom de l'utilisateur, le mot de passe et le type de base de données. Les mêmes informations sont stockées dans une banque de données de base de données SAP BusinessObjects Data Services. Il est possible d'associer la banque de données à une autre banque de données et ensuite d'importer un lien de base de données externe comme une option de la banque de données. Les banques de données doivent se connecter aux bases de données définies dans le lien de base de données.
Les conditions supplémentaires sont les suivantes :
• Un serveur local pour des liens de base de données doit être un serveur cible dans le logiciel
• Un serveur distant pour des liens de base de données doit être un serveur source dans le logiciel
• Un lien de base de données externe (qui existe en premier dans une base de données) établit la relation entre une banque de données cible et une banque de données source
• Une banque de données locale peut être reliée à zéro ou plusieurs banques de données à l'aide d'un lien de base de données pour chaque base de données distante
• Deux banques de données peuvent être reliées ensemble à l'aide d'un seul lien
Le diagramme ci-dessous affiche les relations possibles entre les liens de base de données et les banques de données liées :
100 2012-11-22
Banques de données
Quatre liens de base de données, les DBLink 1 à 4, sont sur la base de données DB1 et le logiciel les lit par la banque de données Ds1.
• Le DBlink 1 relie la banque de données Ds1 à la banque de données Ds2. Cette relation est appelée banque de données liée Dblink1 (la banque de données liée porte le même nom que le lien de base de données externe).
• Dblink2 n'est mappé à aucune banque de données dans le logiciel car il relie Ds1 à Ds2, qui sont
également reliées à Dblink1. Bien qu'il ne s'agisse pas d'un cas ordinaire, il est possible de créer plusieurs liens de base de données externe qui connectent à la même source distante. Cependant, le logiciel n'autorise qu'un seul lien de base de données entre une banque de données cible et une paire de banques de données source. Par exemple, si vous sélectionnez DBLink1 pour lier la banque de données cible DS1 à la banque de données source DS2, vous ne pouvez pas importer DBLink2 pour réaliser la même chose.
• Dblink3 n'est mappé à aucune banque de données dans le logiciel car il n'existe aucune banque de données définie pour la source de données distante à laquelle le lien de base de données externe fait référence.
• Dblink4 relie Ds1 avec Ds3.
Rubriques associées
• Guide de référence : éditeur de banque de données
5.3 Banques de données de l'adaptateur
En fonction de l'implémentation de l'adaptateur, les adaptateurs permettent de :
• Parcourir les métadonnées d'application
• Importer les métadonnées d'application dans un référentiel
• Déplacer les données batch et en temps réel entre le logiciel et les applications
SAP offre un kit de développement de logiciel (SDK) pour adaptateur pour développer vos propres adaptateurs personnalisés. Vous pouvez également acheter les adaptateurs pré-packagés du logiciel
101 2012-11-22
Banques de données pour accéder aux métadonnées et aux données d'applications dans n'importe qu'elle application. Pour plus d'informations sur ces produits, contactez votre représentant commercial SAP.
Les adaptateurs sont représentés dans Designer par des banques de données d'adaptateur. Les jobs fournissent un mouvement de données batch et en temps réel entre le logiciel et les applications par des objets subordonnés d'une banque de données d'adaptateur :
Objets subordonnés Utilisés comme Pour
Tables Source ou cible
Documents
Fonctions
Source ou cible
Appel de fonction dans une requête
Mouvement de données batch
Fonctions de message
Messages sortants
Appel de fonction dans une requête
Cible uniquement
Les adaptateurs peuvent donner accès aux données et aux métadonnées d'une application, ou simplement aux métadonnées. Par exemple, si la source de données est compatible avec SQL, l'adaptateur peut être conçu pour accéder aux métadonnées, tandis que le logiciel extrait les données de ou charge les données directement dans l'application.
Rubriques associées
• Guide Management Console Guide : adaptateurs
•
•
Objets source et cible en temps réel
5.3.1 Définition d'une banque de données d'adaptateur
Vous devez définir au moins une banque de données pour chaque adaptateur par lequel vous extrayez ou chargez des données.
Pour définir une banque de données, vous devez avoir les privilèges d'accès à l'application servie par l'adaptateur.
102 2012-11-22
Banques de données
103
5.3.1.1 Définir une banque de données d'adaptateur
Pour créer une banque de données d'adaptateur, vous devez d'abord installer l'adaptateur sur l'ordinateur du Job Server, configurer le Job Server pour prendre en charge les adaptateurs locaux à l'aide de l'utilitaire Gestionnaire de serveurs et vérifier que le service du Job Server est en cours d'exécution.
1.
Dans la bibliothèque d'objets, cliquez pour sélectionner l'onglet Banques de données.
2.
Faites un clic droit et sélectionnez Nouveau.
La fenêtre Créer une banque de données s'ouvre.
3.
Saisissez un nom d'identification unique pour la banque de données.
Le nom de la banque de données apparaît uniquement dans Designer. Il peut être identique à celui de l'adaptateur.
4.
Dans la liste Type de la banque de données, sélectionner Adaptateur.
5.
Sélectionnez un Job Server dans la liste.
Les adaptateurs qui se trouvent sur l'ordinateur du Job Server et qui sont enregistrés avec le Job
Server sélectionné apparaissent dans la liste du Job Server.
6.
Sélectionnez une instance d'adaptateur dans la liste Nom de l'instance de l'adaptateur.
7.
Saisissez toutes les informations de l'adaptateur requises pour terminer la connexion à la banque de données.
Remarque :
Si le développeur a inclut une description pour chaque option, le logiciel l'affiche en dessous de la grille. La documentation de l'adaptateur doit lister toutes les informations requises pour une connexion
à la banque de données.
Pour l'ensemble de la banque de données, les boutons suivants sont disponibles
Boutons Description
Modifier
Afficher l'ATL
OK
Ouvre la Configuration pour la boîte de dialogue Banque de données.
Utilisez la barre d'outils de cette fenêtre pour ajouter, configurer et gérer plusieurs configurations pour une banque de données.
Ouvre une fenêtre de texte qui affiche la manière dont le logiciel code vos sélections pour cette banque de données dans son langage de script.
Enregistre les sélections and ferme la fenêtre Editeur de banque de données (Créer une banque de données).
2012-11-22
Banques de données
104
Boutons
Annuler
Appliquer
Description
Annule les sélections et ferme la fenêtre Editeur de banque de données
Enregistre les sélections.
8.
Cliquez sur OK.
La configuration de banque de données est enregistrée dans le référentiel de métadonnées et la nouvelle banque de données apparait dans la bibliothèque d'objets.
Après avoir créé une connexion à la banque de données, il est possible de parcourir et/ou d'importer les métadonnées depuis la source de données par le biais de l'adaptateur.
5.3.1.2 Modifier la configuration d'une banque de données d'adaptateur
1.
Faites un clic droit sur la banque de données que vous souhaitez parcourir et sélectionnez Modifier pour ouvrir la fenêtre Editeur de banques de données.
2.
Modifiez les informations de configuration.
Lorsque vous modifiez une banque de données d'adaptateur, saisissez ou sélectionnez une valeur.
Le logiciel recherche le Job server et le nom de l'instance de l'adaptateur que vous avez indiqués.
Si le Job Server et l'instance de l'adaptateur existent tous les deux, et que Designer peut communiquer pour obtenir les propriétés de l'adaptateur, alors il les affiche en conséquence. Si Designer ne peut pas obtenir les propriétés de l'adaptateur, il conserve les anciennes propriétés.
3.
Cliquez sur OK.
La configuration modifiée de la banque de données est enregistrée dans le référentiel de métadonnées.
5.3.1.3 Supprimer une banque de données d'adaptateur et les objets de métadonnées associés
1.
Faites un clic droit sur la banque de données que vous souhaitez supprimer et sélectionnez
Supprimer.
2.
Cliquez sur OK dans la fenêtre de confirmation.
2012-11-22
Banques de données
Le logiciel supprime du référentiel de métadonnées la banque de données et tous les objets de métadonnées contenus dans cette banque de données.
Si ces objets existent dans des flux établis, ils apparaissent avec une icône de suppression.
5.3.2 Parcourir les métadonnées depuis une banque de données d'adaptateur
Les métadonnées que vous pouvez parcourir dépendent de l'adaptateur spécifique.
5.3.2.1 Parcourir les métadonnées d'application
1.
Faites un clic droit sur la banque de données que vous souhaitez parcourir puis sélectionnez Ouvrir.
Une fenêtre s'ouvre et affiche les métadonnées sources.
2.
Faites défiler pour voir les attributs de nom et de description des métadonnées.
3.
Cliquez sur le signe plus (+) pour développer les objets et afficher les objets subordonnés.
4.
Faites un clic droit sur un objet pour contrôler l'importabilité.
5.3.3 Importation de métadonnées par une banque de données d'adaptateur
Les métadonnées que vous pouvez importer dépendent de l'adaptateur spécifique. Après avoir importé les métadonnées, il est possible de les modifier. Les modifications sont propagées vers tous les objets qui appellent ces objets.
5.3.3.1 Importer les métadonnées d'application en naviguant
1.
Faites un clic droit sur la banque de données que vous souhaitez parcourir puis sélectionnez Ouvrir.
2.
Trouvez dans la liste navigable l'objet de métadonnées que vous souhaitez importez.
3.
Faites un clic droit sur l'objet et sélectionnez Importer.
4.
L'objet est importé dans un des conteneurs de banque de données de l'adaptateur (documents, fonctions, tables, messages sortants ou fonctions de message).
105 2012-11-22
Banques de données
5.3.3.2 Importer les métadonnées d'application par nom
1.
Faites un clic droit sur la banque de données de laquelle vous souhaitez les métadonnées, puis sélectionnez Importer par nom.
La fenêtre Importer par nom apparait ; elle contient les paramètres d'importation avec les zones de texte correspondantes.
2.
Cliquez sur chaque zone de texte des paramètres d'importation et saisissez les informations spécifiques liées à l'objet que vous souhaitez importer.
3.
Cliquez sur OK. Tous les objets qui correspondent à vos contraintes de paramètres sont importés dans l'une des catégories correspondantes indiquées dans la banque de données.
5.4 Banques de données de services Web
Les banques de données de services Web représentent une connexion depuis Data Services vers une source de données externe basée sur les services Web.
5.4.1 Définition d'une banque de données de services Web
Vous devez définir au moins une banque de données pour chaque service Web avec lequel vous
échangez des données.
Pour définir une banque de données, vous devez avoir les privilèges d'accès aux services Web appropriés décrits par la banque de données.
5.4.1.1 Définir une banque de données de services Web
1.
Dans l'onglet Banques de données de la bibliothèque d'objets, faites un clic droit et sélectionnez
Nouveau.
2.
Saisissez le nom de la nouvelle banque de données dans le champ Nom de la banque de données.
Le nom peut contenir tous les caractères alphabétiques ou numériques, ou des tirets de soulignement
(_). Il ne peut pas contenir d'espace.
106 2012-11-22
Banques de données
3.
Sélectionnez le Type de banque de données.
Sélectionnez service Web. Lorsque vous sélectionnez un type de banque de données, Data Services affiche les autres options pertinentes pour ce type.
4.
Indiquez l'URL du service Web.
L'URL doit accepter les connexions et renvoyer le WSDL.
5.
Cliquez sur OK.
La configuration de banque de données est enregistrée dans le référentiel de métadonnées et la nouvelle banque de données apparait dans la bibliothèque d'objets.
Après avoir terminé la connexion à la banque de données, il est possible de parcourir et/ou d'importer les métadonnées du service Web par le biais de la banque de données.
5.4.1.2 Modifier la configuration d'une banque de données de services Web
1.
Faites un clic droit sur la banque de données que vous souhaitez parcourir et sélectionnez Modifier pour ouvrir la fenêtre Editeur de banques de données.
2.
Modifiez les informations de configuration.
3.
Cliquez sur OK.
La configuration modifiée de la banque de données est enregistrée dans le référentiel de métadonnées.
5.4.1.3 Supprimer une banque de données de services Web et les objets de métadonnées associés
1.
Faites un clic droit sur la banque de données que vous souhaitez supprimer et sélectionnez
Supprimer.
2.
Cliquez sur OK dans la fenêtre de confirmation.
Data Services supprime du référentiel de métadonnées la banque de données et tous les objets de métadonnées contenus dans cette banque de données. Si ces objets existent dans des flux de données établis, ils apparaissent avec une icône de suppression.
5.4.2 Parcourir les métadonnées WSDL depuis une banque de données de services
Web
107 2012-11-22
Banques de données
Data Services enregistre les informations de métadonnées pour tous les objets importés dans une banque de données. Il est possible d'utiliser Data Services pour afficher les métadonnées pour les objets importés et non importés, et pour contrôler si les métadonnées ont changé pour les objets déjà importés.
5.4.2.1 Afficher les objets importés
1.
Accédez à l'onglet Banques de données dans la bibliothèque d'objets.
2.
Cliquez sur le signe plus (+) à côté du nom de la banque de données pour afficher les types d'objet dans la banque de données. Les banques de données de services Web possèdent des fonctions.
3.
Cliquez sur le signe plus (+) à côté d'un type d'objet pour afficher les objets de ce type importés depuis la banque de données.
5.4.2.2 Trier la liste des objets
Cliquez sur l'en-tête de colonne pour trier par ordre alphabétique les objets dans chaque regroupement, et les regroupements dans chaque banque de données. Cliquez à nouveau pour trier par ordre alphabétique inversé.
5.4.2.3 Afficher les métadonnées WSDL
1.
Sélectionnez l'onglet Banques de données dans la bibliothèque d'objets.
2.
Sélectionnez une banque de données, faites un clic droit et sélectionnez Ouvrir. (Il est également possible de double-cliquer sur l'icône de la banque de données.)
Data Services ouvre l'explorateur de banque de données dans l'espace de travail. L'explorateur de banque de données liste les ports et les opérations de services Web dans la banque de données.
Il est possible de voir les ports et les opérations dans le service Web externe ou dans le référentiel interne. Il est également possible de faire une recherche dans ces composants.
3.
Sélectionnez Métadonnées externes pour afficher les ports et opérations de services Web à partir d'un WSDL externe.
Si vous sélectionnez une opération ou plus, il est possible de faire un clic droit pour plus d'options.
108 2012-11-22
Banques de données
Commande
Importer
Description
Importe (ou ré-importe) des opérations de la base de données vers le référentiel.
4.
Sélectionnez Métadonnées du référentiel pour afficher les opérations de services Web importées.
Si vous sélectionnez une opération ou plus, il est possible de faire un clic droit pour plus d'options.
Commande
Supprimer
Propriétés
Description
Supprime l'opération ou les opérations du référentiel.
Affiche les propriétés de l'opération de service Web sélectionnée.
5.4.3 Importation de métadonnées par une banque de données de services Web
Pour les banques de données de services Web, il est possible d'importer les métadonnées pour des opérations de service Web.
5.4.3.1 Importer les opérations de services Web
1.
Faites un clic droit sur la banque de données que vous souhaitez parcourir puis sélectionnez Ouvrir.
2.
Trouvez dans la liste navigable l'opération de services Web que vous souhaitez importez.
3.
Faites un clic droit sur l'opération et sélectionnez Importer.
L'opération est importée dans le conteneur de fonctions de la banque de données de services Web.
5.5 Création et gestion de plusieurs configurations de banques de données
La création de plusieurs configurations pour une seule banque de données permet de consolider des connexions aux banques de données distinctes pour des sources ou des cibles similaires dans une banque de données source ou cible avec plusieurs configurations. Il est alors possible de sélectionner un ensemble de configurations qui inclut les sources et les cibles que vous souhaitez en sélectionnant une configuration système lorsque vous exécutez ou planifiez le job. La possibilité de créer plusieurs configurations de banque de données offre une plus grande facilité d'utilisation pour les scénarios de portabilité de job, tels que :
109 2012-11-22
Banques de données
• OEM (différentes bases de données pour la conception et la distribution)
• Migration (différentes connexions pour DEV, TEST et PROD)
• Multi-instance (bases de données avec des versions différentes ou des paramètres régionaux)
• Multi-utilisateurs (bases de données pour les référentiels centraux et locaux)
Rubriques associées
•
5.5.1 Définitions
Faites référence aux termes suivants lors de la création et la gestion de plusieurs configurations de banque de donnés
110 2012-11-22
Banques de données
Terme
Configuration de banque de données
Configuration de banque de données par défaut
Configuration de banque de données actuelle
Objets de base de données
Définition
Permet de fournir plusieurs sources ou cibles de métadonnées pour les banques de données. Chaque configuration est une propriété d'une banque de données qui fait référence à un ensemble d'options configurables (telles que le nom de connexion à la base de données, le type de base de données, le nom d'utilisateur, le mot de passe, et le paramètre régional) et à leurs valeurs.
La configuration de banque de données utilisée par le logiciel pour parcourir et importer les objets de la base de données (tables et fonctions), et pour exécuter les jobs si aucune configuration système n'est indiquée. Si une banque de données a plus d'une configuration, sélectionnez une configuration par défaut au besoin.
Si la banque de données a une seule configuration, le logiciel l'utilise comme configuration par défaut.
La configuration de banque de données utilisée par le logiciel pour exécuter un job. Si vous définissez une configuration système, le logiciel exécute le job à l'aide de la configuration de système. Indiquez une configuration actuelle pour chaque configuration système. Si vous ne créez pas une configuration de système, ou que la configuration système ne spécifie pas de configuration pour une banque de données, le logiciel utilise la configuration de banque de données par défaut comme la configuration actuelle lors de l'exécution du job.
Les tables et les fonctions qui sont importées d'une banque de données. Les objets de base de données possèdent normalement des propriétaires. Certains objets de base de données n'ont pas de propriétaire. Par exemple, les objets de base de données dans une banque de données ODBC connectée à une base de données
Access n'ont pas de propriétaire.
111 2012-11-22
Banques de données
Terme
Nom du propriétaire
Alias
Objets dépendants
Définition
Le nom du propriétaire pour un objet de base de données (par exemple, une table) dans une base de données sous-jacente.
Egalement connu comme nom du propriétaire de la base de données ou nom du propriétaire physique.
Un nom de propriétaire logique. Créez un alias pour les objets qui sont dans des environnements de base de données différents s'il existe des noms de propriétaire différents dans ces environnements. Il est possible de créer un alias depuis un éditeur de banque de données pour n'importe quelle configuration de banque de données.
Les objets dépendants sont les jobs, les workflows, les flux de données et les fonctions personnalisées dans lesquels un objet de base de données est utilisé. Les informations d'objets dépendants sont générées par l'utilitaire cas d'emploi.
5.5.2 Pourquoi utiliser plusieurs configurations de banque de données ?
En créant plusieurs configurations de banque de données, il est possible de réduire le temps de développement de bout en bout dans un environnement d'entrepôt des données d'entreprise multi-source,
24h/24, 7j/7, car il est possible de transporter facilement les jobs dans différents types, versions et instances de base de données.
Par exemple, le déplacement peut être aussi simple que :
1.
Créer une nouvelle configuration dans une banque de données source ou cible existante.
2.
Ajouter un alias de banque de données puis de mapper les configurations avec des noms de propriétaire d'objets différents à cet alias.
3.
Définir une configuration système puis d'ajouter des configurations de banque de données requises pour un environnement particulier. Sélectionner une configuration système lors de l'exécution d'un job.
5.5.3 Création d'une nouvelle configuration
Il est possible de créer plusieurs configurations pour tous les types de banque de données, hormis les banques de données en mémoire. Utilisez l'éditeur de banque de données pour créer et modifier les configurations de banque de données.
112 2012-11-22
Banques de données
Rubriques associées
• Guide de référence : descriptions d'objets, banques de données
113
5.5.3.1 Créer une nouvelle configuration de banque de données
1.
A partir de l'onglet Banques de données de la bibliothèque d'objets, faites un clic droit sur une banque de données existante et sélectionnez Modifier.
2.
Cliquez sur Avancé pour afficher les informations de la configuration existante.
Chaque banque de données doit avoir au moins une configuration. Si une seule configuration existe, c'est la configuration par défaut.
3.
Cliquez sur Modifier pour ouvrir la fenêtre Configurations pour la banque de données.
4.
Cliquez sur l'icône Créer une configuration dans la barre d'outils.
La fenêtre Créer une configuration s'ouvre.
5.
Dans la fenêtre Créer une configuration : a.
Saisissez un Nom de configuration unique et logique.
b.
Sélectionnez un Type de la base de données dans le menu déroulant.
c.
Sélectionnez une Version de la base de données dans le menu déroulant.
d.
Dans la section Valeurs des tables cibles et des transformations SQL, le logiciel présélectionne la valeur Utiliser les valeurs de en fonction du type et de la version de la base de données existante. Designer utilise automatiquement la transformation SQL et les valeurs cible existantes pour le même type et version de base de données.
De plus, si la base de données que vous souhaitez associer à la nouvelle configuration est une version postérieure à celle associée aux autres configurations existantes, Designer renseigne automatiquement l'option "Utiliser les valeurs de" avec l'ancienne version.
Cependant, si un type et une version de base de données ne sont pas déjà indiqués dans la configuration existante, ou si la version de la base de données est plus ancienne que la configuration existante, il est possible de choisir d'utiliser les valeurs d'une autre configuration existante ou de la configuration par défaut pour le type et la version de base de données.
e.
Cochez ou décochez l'option Restaurer des valeurs si elles existent déjà.
Lorsque vous supprimez les configurations de banque de données, le logiciel enregistre toutes les valeurs de cible et les transformations SQL associées. Si vous créez une nouvelle configuration de banque de données avec le même type et la même version de base de données que celle précédemment supprimée, l'option Restaurer des valeurs si elles existent déjà permet d'accéder et de profiter des paramètres de valeur enregistrés.
• Si vous conservez cette option (sélectionnée par défaut), le logiciel utilise les valeurs personnalisées cibles et de transformation SQL des anciennes configurations de banque de données supprimées.
2012-11-22
Banques de données
• Si vous désélectionnez Restaurer des valeurs si elles existent déjà, le logiciel n'essaye pas de restaurer les valeurs de cible et de transformation SQL, vous permettant de fournir de nouvelles valeurs.
f.
Cliquez sur OK pour enregistrer la nouvelle configuration.
Si la banque de données contient des flux de données préexistants avec des transformations
SQL ou des objets cibles, le logiciel doit ajouter de nouvelles valeur de type et de version de base de données pour ces transformations et objets cibles. Dans ce cas, lorsque vous ajoutez une nouvelle configuration de banque de données, le logiciel affiche la fenêtre "Nouvelles valeurs ajoutées - Objets modifiés" qui fournit des informations détaillées sur les flux de données affectés et les objets modifiés. Ces mêmes résultats s'affichent également dans la fenêtre Sortie de
Designer.
Pour chaque banque de données, le logiciel requiert qu'une configuration soit désignée comme la configuration par défaut. Le logiciel utilise la configuration par défaut pour importer les métadonnées et conserve également la configuration par défaut lors de l'exportation et des opérations multi-utilisateurs.
La première configuration de banque de données est automatiquement désignée comme la configuration par défaut ; cependant, après avoir ajouté une ou plusieurs configurations de banque de données supplémentaires, il est possible d'utiliser l'éditeur de banque de données pour marquer une configuration différente comme configuration par défaut.
Lorsque vous exportez un référentiel, le logiciel conserve toutes les configurations de toutes les banques de données, y compris les paramètres de texte de transformation SQL et de l'éditeur de table cible. Si la banque de données que vous exportez existe déjà dans le référentiel cible, le logiciel remplace les configurations dans la cible par les configurations sources. Le logiciel exporte les configurations système séparément des autres objets de jobs reliés.
5.5.4 Ajout d'un alias de banque de données
Depuis l'éditeur de banque de données, il est également possible de créer plusieurs alias pour une banque de données puis de mapper les configurations de banque de données à chaque alias.
114
5.5.4.1 Créer un alias
1.
Dans l'éditeur de banque de données, cliquez sur Avancé, puis sur Alias (cliquez ici pour les
créer).
La fenêtre Créer un alias s'ouvre.
2.
Sous Nom de l'alias dans Designer, utilisez uniquement des caractères alphanumériques et le symbole de tiret de soulignement (_) pour saisir un nom d'alias.
3.
Cliquez sur OK.
2012-11-22
Banques de données
La fenêtre "Créer un alias" se ferme et le nouvel alias apparaît sous la catégorie Alias.
Lorsque vous définissez un alias de banque de données, le logiciel remplace l'alias de la configuration de banque de données indiqué pour le nom du propriétaire réel lors de l'importation de métadonnées pour les objets de base de données. Il est également possible de renommer les tables et les fonctions après les avoir importées.
Rubriques associées
•
Modification du nom du propriétaire de table et de fonction
5.5.5 Fonctions pour identifier la configuration
Le logiciel fournit 6 fonctions qui sont utiles lors de l'utilisation de plusieurs configurations de banque de données cible et source.
Fonction Catégorie Description
type_de_BdD db_version
Divers
Divers
Renvoie le type de base de données de la configuration de banque de données actuelle.
Renvoie la version de base de données de la configuration de banque de données actuelle.
db_database_name db_owner current_configuration current_system_configura tion
Divers
Divers
Divers
Divers
Renvoie le nom de la base de données de la configuration de banque de données actuelle si le type de base de données est MS SQL Server ou Sybase ASE.
Renvoie le nom du propriétaire réel qui correspond au nom d'alias donné sous la configuration de banque de données actuelle.
Renvoie le nom de la configuration de banque de données qui est utilisée lors de l'exécution.
Renvoie le nom de la configuration système actuelle.
Si aucune configuration système n'est définie, renvoie une valeur nulle.
115 2012-11-22
Banques de données
Le logiciel lie les paramètres de transformation SQL et d'éditeur de table cible utilisés dans un flux de données aux configurations de banque de données. Il est également possible d'utiliser une interpolation de variable dans un texte SQL avec ces fonctions pour permettre à la transformation SQL de s'effectuer correctement sans tenir compte de la configuration utilisée par Job server lors de l'exécution du job.
Utilisez l'Administrateur pour sélectionner une configuration système ainsi que pour afficher la configuration de banque de données sous-jacente associée lorsque vous :
• Exécutez des jobs batch
• Planifiez des jobs batch
• Affichez l'historique d'un job batch
• Créez des services pour les jobs en temps réel
Pour utiliser plusieurs configurations correctement, concevez les jobs pour ne pas avoir à modifier les schémas, types de données, fonctions, variables, etc. lorsque vous passez d'une configuration de banque de données à une autre. Par exemple, si vous avez une banque de données avec une configuration pour des sources Oracle et des sources SQL, assurez-vous que les schémas de métadonnées de table correspondent exactement. Utilisez les mêmes noms de table, noms d'alias, numéros et ordre de colonnes, ainsi que les mêmes noms de colonne, types de données et types de contenu.
Rubriques associées
• Guide de référence : descriptions de fonctions intégrées
• Guide de référence : SQL
•
Astuces de portabilité des jobs
5.5.6 Solutions de portabilité
Définissez plusieurs configurations sources ou cibles pour une seule banque de données si vous souhaitez modifier rapidement les connexions à une base de données source ou cible différente. Le logiciel offre plusieurs solutions différentes pour les job de déplacement.
Rubriques associées
•
Développement multi-utilisateurs
•
Configuration d'environnement multi-utilisateurs
5.5.6.1 Migration entre environnements
116 2012-11-22
Banques de données
Lorsque vous devez déplacer les métadonnées du référentiel vers un autre environnement (par exemple du développement au test, ou du test à la production) qui utilise des bases de données sources et cibles différentes, le processus inclut généralement les caractéristiques suivantes :
• Les environnements utilisent le même type de base de données mais peuvent avoir des versions ou des paramètres régionaux de base de données uniques.
• Les objets de base de données (tables et fonctions) peuvent appartenir à des propriétaires différents.
• Chaque environnement a un nom de connexion à la base de données, un nom d'utilisateur, un mot de passe, d'autres propriétés de connexion et un mappage du propriétaire uniques.
• Vous utilisez une procédure de migration du référentiel typique. Soit vous exportez les jobs vers un fichier ATL puis importez le fichier ATL dans un autre référentiel, soit vous exportez directement les jobs d'un référentiel à un autre.
Puisque le logiciel remplace les configurations de banques de données lors de l'exportation, il est recommandé d'ajouter des configurations pour l'environnement cible (par exemple, ajouter des configurations pour l'environnement test lors de la migration du développement au test) au référentiel source (par exemple, ajouter au référentiel de développement avant la migration vers l'environnement test). L'utilitaire Exportation enregistre les configurations supplémentaires dans l'environnement cible, ce qui signifie que vous n'avez pas besoin de modifier les banques de données avant d'exécuter des jobs déplacés dans l'environnement cible.
Cette solution offre les avantages suivants :
• Temps d'arrêt de production minimal. Vous pouvez démarrer les jobs dès que vous les avez importés.
• Problèmes de sécurité minimaux. Les testeurs et les opérateurs en production n'ont pas besoin d'autorisation pour modifier les objets du référentiel.
Rubriques associées
• Guide d'administration : exportation/importation
117
5.5.6.2 Chargement de plusieurs instances
Si vous devez charger plusieurs instances d'une source de données dans un entrepôt de données cible, la tâche est la même que pour un scénario de migration, sauf que vous utilisez un seul référentiel.
5.5.6.2.1 Charger plusieurs instances d'une source de données dans un entrepôt de données cible
1.
Créez une banque de données qui se connecte à une instance particulière.
2.
Définissez la première configuration de banque de données. Cette configuration de banque de données contient toutes les propriétés configurables telles que le type de base de données, le nom de connexion à la base de données, le nom d'utilisateur, le mot de passe, la version de la base de données, et les informations des paramètres régionaux.
2012-11-22
Banques de données
Lorsque vous définissez une configuration d'une banque de données d'adaptateur, assurez-vous que le Job Server pertinent s'exécute afin que Designer puisse rechercher toutes les instances d'adaptateur disponibles pour la banque de données.
3.
Définissez un ensemble de mappage alias-au-propriétaire dans la configuration de banque de données. Lorsque vous utilisez un alias pour une configuration, le logiciel importe tous les objets à l'aide de l'alias de métadonnées plutôt qu'à l'aide des noms de propriétaire réels. Cela permet d'utiliser les objets de base de données pour les jobs qui sont transparents pour les autres instances de base de données.
4.
Utilisez l'outil de renommage du propriétaire de l'objet de la base de données pour renommer les propriétaires des objets de base de données existants.
5.
Importez les objets de la base de données et développez des jobs à l'aide de ces objets, puis exécutez les jobs.
6.
Pour prendre en charge les jobs qui exécutent sous différentes instances, ajoutez des configurations de banque de données pour chaque instance supplémentaire.
7.
Mappez les noms du propriétaire à partir des nouvelles configurations d'instance de base de données aux alias que vous avez définis dans une étape précédente.
8.
Exécutez les jobs dans toutes les instances de base de données.
Rubriques associées
•
Modification du nom du propriétaire de table et de fonction
118
5.5.6.3 Déploiement d'OEM
Si vous concevez des jobs pour un type de base de données et déployez ces jobs vers d'autres types de base de données comme partenaire OEM, le déploiement possède généralement les caractéristiques suivantes :
• L'instance nécessite plusieurs types et versions de base de données source.
• Puisqu'une banque de données peut seulement accéder à une instance à la fois, il est possible que vous deviez déclencher des fonctions lors de l'exécution pour correspondre aux différentes instances.
Si c'est le cas, le logiciel nécessite un texte SQL différent pour les fonctions (telles que lookup_ext et sql) et les transformations (telles que la transformation SQL). Le logiciel nécessite également des paramètres différents pour la table cible (configurables dans l'éditeur de table cible).
• Les instances peuvent utiliser des paramètres régionaux différents.
• Les tables de base de données dans différentes bases de données appartiennent à des propriétaires différents.
• Chaque instance a un nom de connexion à la base de données, un nom d'utilisateur, un mot de passe, d'autres propriétés de connexion et des mappages du propriétaire uniques.
• Vous exportez les jobs vers des fichiers ATL pour le déploiement.
2012-11-22
Banques de données
119
5.5.6.3.1 Déployer des jobs vers d'autres types de base de données comme des partenaires
OEM.
1.
Développez des jobs pour un type particulier de base de données en suivant les étapes décrites dans le scénario
Chargement de plusieurs instances
.
Pour prendre en charge une nouvelle instance sous un nouveau type de base de données, le logiciel copie les propriétés de base de données de la table cible et de la transformation SQL à partir de la configuration précédente vers chaque configuration supplémentaire lorsque vous l'enregistrez.
Si vous avez sélectionné une méthode de chargeur par lots pour une ou plusieurs table(s) cible dans les flux de données du job, et que de nouvelles configurations s'appliquent à des types de base de données différents, ouvrez les cibles et définissez manuellement l'option de chargeur par lots (si vous souhaitez toujours utiliser la méthode de chargeur par lots avec le nouveau type de base de données). Le logiciel ne copie pas les options de chargeur par lot pour les cibles d'un type de base de données à un autre.
Lorsque le logiciel enregistre une nouvelle configuration, il génère également un rapport qui fournit une liste des cibles automatiquement définies pour le chargement par lots. Faites référence à ce rapport pour apporter des modifications manuelles si besoin.
2.
Si le texte SQL dans une transformation SQL ne s'applique pas au nouveau type de base de données, modifiez le texte SQL pour le nouveau type de base de données.
Si le texte SQL contient des noms de propriétaire ou de base de données codés en dur, pensez à remplacer ces noms avec des variables pour fournir des noms de propriétaire et des noms de base de données pour plusieurs types de base de données. Ainsi, vous ne devez pas modifier le texte
SQL pour chaque environnement.
3.
Puisque le logiciel ne prend pas en charge un texte SQL unique pour chaque type ou version de base de données des fonctions sql(), lookup_ext(), et pushdown_sql(), utilisez la fonction db_type et les fonctions similaires pour obtenir le type et la version de base de données de la configuration de banque de données actuelle et fournir le texte SQL correct pour ce type et cette version de base de données à l'aide de la technique de substitution (interpolation) de variables.
Rubriques associées
• Guide de référence : SQL
5.5.6.4 Développement multi-utilisateurs
Si vous utilisez un système de gestion du référentiel central qui permet à plusieurs développeurs, chacun avec leur propre référentiel local, de recharger et d'extraire les jobs, l'environnement de développement possède généralement les caractéristiques suivantes :
• Il possède un référentiel central et un nombre de référentiels locaux.
2012-11-22
Banques de données
120
• Plusieurs environnements de développement sont parfois fusionnés (via des opérations de référentiel central telles que les rechargements et les extractions). Lorsque la fusion se produit, les noms de propriétaire réels (utilisés au départ pour l'importation d'objets) doivent être ensuite mappés à un ensemble d'alias partagés entre tous les utilisateurs.
• Le logiciel conserve l'historique des objets (versions et étiquettes).
• Les instances partagent le même type de base de données mais peuvent avoir des versions ou des paramètres régionaux de base de données différents.
• Les objets de base de données peuvent appartenir à des propriétaires différents.
• Chaque instance a un nom de connexion à la base de données, un nom d'utilisateur, un mot de passe, d'autres propriétés de connexion et un mappage du propriétaire uniques.
Dans le scénario de développement multi-utilisateurs, vous devez définir des alias pour que le logiciel puisse conserver correctement l'historique pour tous les objets dans l'environnement partagé.
5.5.6.4.1 Déplacement de jobs dans un environnement multi-utilisateurs
Lors du déplacement de jobs dans un environnement multi-utilisateurs, prenez en compte ces points :
• Renommez les propriétaires de table et les propriétaires de fonction pour consolider les noms de propriétaire des objets de base de données d'objets dans des alias
• La modification du nom se produit dans les référentiels locaux. Pour renommer les objets de base de données stockés dans le référentiel central, extrayez la banque de données vers un référentiel local et appliquez l'outil de renommage dans le référentiel local.
• Si les objets à renommer ont des objets dépendants, le logiciel vous demande d'extraire les objets dépendants.
• Si tous les objets dépendants peuvent être extraits, le renommage crée un nouvel objet qui possède l'alias et supprime l'objet d'origine qui possède le nom du propriétaire d'origine.
• Si tous les objets dépendants ne peuvent pas être extraits (les flux de données sont extraits par un autre utilisateur), le logiciel affiche un message qui vous laisse l'option de continuer ou d'annuler l'opération. Si vous ne pouvez pas extraire certains objets dépendants, l'outil de renommage affecte uniquement les flux que vous pouvez extraire. Après le renommage, l'objet d'origine coexiste avec le nouvel objet. Le nombre de flux touchés par le processus de renommage affecte les informations sur l'utilisation et les cas d'emploi dans Designer pour l'objet d'origine et le nouvel objet.
• Vous êtes responsable du rechargement de tous les objets dépendants qui ont été extraits durant le processus de renommage du propriétaire. Le rechargement de nouveaux objets n'entraine pas automatiquement le rechargement des objets dépendants qui ont été extraits.
• Le logiciel ne supprime pas les objets d'origine du référentiel central lorsque vous rechargez les nouveaux objets.
• Soyez prudents car le fait de recharger dans les banques de données et de les extraire comme des opérations multi-utilisateur peut remplacer les configurations de banque de données.
• Conservez les configurations de banque de données de tous les utilisateurs en ne remplaçant pas les configurations qu'ils ont créées. Ajoutez plutôt une configuration et définissez-la comme configuration par défaut lorsque vous travaillez dans votre propre environnement.
• Lorsque votre groupe termine la phase de développement, il est recommandé que le dernier développeur supprime les configurations qui s'appliquent aux environnements de
2012-11-22
Banques de données développement et ajoutez les configurations qui s'appliquent aux environnements de test ou de production.
5.5.7 Astuces de portabilité des jobs
• Le logiciel suppose que les métadonnées d'une table ou d'une fonction sont les mêmes dans les différents types et versions de base de données indiqués dans les différentes configurations d'une même banque de données. Par exemple, si vous importez une table lorsque la configuration par défaut de la banque de données est Oracle, puisque vous utilisez la table dans un job pour extraire depuis DB2, le job exécutera.
• Importez les métadonnées pour un objet de base de données à l'aide de la configuration par défaut et utilisez les mêmes métadonnées avec toutes les configurations définies dans la même banque de données.
• Le logiciel prend en charge ses options dans certains types ou versions de base de données qu'il ne prend pas en charge dans d'autres. Par exemple, le logiciel prend en charge la lecture parallèle sur les tables partitionnées par hachage Oracle, mais pas sur les tables partitionnées par hachage de DB2 ou d'autres bases de données. Si vous importez une table partitionnée par hachage Oracle et définissez le flux de données pour exécuter en parallèle, le logiciel lit à partir de chaque partition en parallèle. Cependant, lorsque vous exécutez un job à l'aide des sources de l'environnement DB2, la lecture parallèle ne se produit pas.
• Les fonctionnalités suivantes prennent en charge la portabilité de job :
• Transformation SQL améliorée
Avec la transformation SQL améliorée, il est possible de saisir un texte SQL différent pour les différents types/versions de base de données, et d'utiliser une substitution de variables dans le texte SQL pour permettre au logiciel de lire le bon texte pour la configuration de banque de données associée.
• Editeur de table cible amélioré
A l'aide des options de l'éditeur de table cible amélioré, il est possible de configurer les cibles de table de base de données pour les différents types/versions de base de données pour correspondre à leurs configurations de banque de données.
• Editeur de banque de données amélioré
A l'aide de l'éditeur de banque de données amélioré, il est possible de choisir lors de la création d'une nouvelle configuration de banque de données de copier les propriétés de la base de données (y compris les options de cible de table et de banque de données, ainsi que le texte de la transformation SQL) à partir d'une configuration existante, ou d'utiliser les valeurs actuelles.
• Lors de la conception d'un job qui est exécuté à partir de types ou versions de base de données différentes, nommez les tables de base de données, les fonctions, et les procédures stockées de la même façon pour toutes les sources. Si vous créez des configurations pour des bases de données
121 2012-11-22
Banques de données non sensibles à la casse et pour des bases de données sensibles à la casse dans la même banque de données, il est recommandé de nommer les tables, fonctions, et procédures stockées avec des caractères tout en majuscules.
• Les schémas de table doivent correspondre dans les bases de données de la banque de données.
Cela signifie que le nombre de colonnes, les noms des colonnes, et les positions des colonnes doit
être exactement les mêmes. Les types de données de la colonne doivent être les mêmes ou compatibles. Par exemple, si vous avez une colonne VARCHAR dans une source Oracle, utilisez
également une colonne VARCHAR dans la source Microsoft SQL Server. Si vous avez une colonne
DATE dans une source Oracle, utilisez une colonne DATETIME dans la source Microsoft SQL
Server. Définissez les clés primaires et étrangères de la même manière.
• Les schémas de procédures stockées doivent correspondre. Lorsque vous importez une procédure stockées depuis une configuration de banque de données, et que vous l'utilisez pour une autre configuration de banque de données, le logiciel suppose que la signature de la procédure stockées est exactement la même pour les deux bases de données. Par exemple, si une procédure stockée est une fonction stockée (uniquement les fonctions stockées prises en charge par Oracle), alors vous devez l'utiliser comme une fonction avec toutes les autres configurations dans une banque de données (en d'autres termes, toutes les bases de données doivent être Oracle). Si la procédure stockée a trois paramètres dans une base de données, elle doit avoir exactement trois paramètres dans les autres bases de données. De plus, les noms, positions, types de données et les types in/out des paramètres doivent correspondre exactement.
Rubriques associées
•
Développement multi-utilisateurs
•
Configuration d'environnement multi-utilisateurs
5.5.8 Modification du nom du propriétaire de table et de fonction
Le logiciel permet de renommer le propriétaire des tables importées, tables de modèle ou des fonctions.
Ce processus est appelé renommage de propriétaire.
Utilisez le renommage de propriétaire pour affecter un alias de métadonnées unique au lieu du nom du propriétaire réel pour les objets de la base de données dans la banque de données. La consolidation de métadonnées sous un nom d'alias unique permet d'accéder à des informations cohérentes et précises sur les dépendances à tout moment tout en permettant également de passer plus facilement d'une configuration à une autre lorsque vous déplacez les jobs dans différents environnements.
Lors de l'utilisation d'objets stockés dans un référentiel central, un alias partagé permet de suivre facilement les objets rechargés par plusieurs utilisateurs. Si tous les utilisateurs des référentiels locaux utilisent le même alias, le logiciel peut suivre les dépendances pour les objets rechargés et extraits du référentiel central par votre équipe.
Lorsque vous renommez un propriétaire, les instances d'une table ou d'une fonction dans un flux de données sont affectées, et non pas la banque de données depuis laquelle elles ont été importées.
122 2012-11-22
Banques de données
123
5.5.8.1 Renommer le propriétaire d'une table ou d'une fonction
1.
A partir de l'onglet Banque de données de la bibliothèque d'objets locale, développez une table, une table de modèle ou une catégorie de fonction.
2.
Faites un clic droit sur la table ou sur la fonction et sélectionnez Renommer le propriétaire.
3.
Saisissez un Nouveaunom du propriétaire puis cliquez sur Renommer.
Lorsque vous saisissez un Nouveau nom du propriétaire, le logiciel l'utilise comme un alias de métadonnées pour la table ou la fonction.
Remarque :
Si l'objet que vous renommez existe déjà dans la banque de données, le logiciel détermine si les deux objets ont le même schéma. Si c'est le cas, alors le logiciel poursuit. Si les schémas sont différents, alors le logiciel affiche un message à cet effet. Il est possible que vous deviez choisir un nom d'objet différent.
Le logiciel prend en charge les renommages de propriétaire sensibles à la casse ou non sensibles à la casse.
• Si les objets que vous souhaitez renommer proviennent d'une base de données sensible à la casse, le mécanisme de renommage du propriétaire conserve la sensibilité à la casse.
• Si les objets que vous souhaitez renommer proviennent d'une banque de données qui contient des bases de données sensibles à la casse et non sensibles à la casse, le logiciel reposera la sensibilité
à la casse des nouveaux noms de propriétaire sur la sensibilité à la casse de la configuration par défaut. Pour s'assurer que tous les objets sont portables dans toutes les configurations de ce scénario, saisissez tous les noms de propriétaire et les noms d'objet avec des caractères tout en majuscules.
Lors du processus de renommage du propriétaire :
• Le logiciel met à jour les objets dépendants (jobs, workflows et flux de données qui utilisent l'objet renommé) pour utiliser le nouveau nom du propriétaire.
• La bibliothèque d'objets affiche l'entrée de l'objet avec le nouveau nom du propriétaire. Les informations d'utilisation et de cas d'emploi affichées reflètent le nombre d'objets dépendants mis
à jour.
• Si le logiciel met à jour avec succès tous les objets dépendants, il supprime les métadonnées pour l'objet avec le nom du propriétaire d'origine de la bibliothèque d'objets et du référentiel.
5.5.8.2 Utilisation de la fenêtre Renommer dans un scénario multi-utilisateurs
2012-11-22
Banques de données
Cette section offre une description détaillée du comportement de la fenêtre Renommer le propriétaire dans un scénario multi-utilisateurs.
L'utilisation d'un alias pour tous les objets stockés dans un référentiel central permet au logiciel de suivre tous les objets rechargés par plusieurs utilisateurs. Si tous les utilisateurs des référentiels locaux utilisent le même alias, le logiciel peut suivre les dépendances pour les objets rechargés et extraits du référentiel central par votre équipe.
Lorsque vous rechargez et extrayez les objets d'un référentiel central, en fonction de l'état d'extraction d'un objet renommé et de si l'objet est associé à des objets dépendants, il existe plusieurs comportements possible lorsque vous sélectionnez le bouton Renommer.
Cas 1
L'objet n'est pas extrait et n'a aucun objet dépendant dans le référentiel local ou central.
Comportement : lorsque vous cliquez sur Renommer, le logiciel renomme le propriétaire de l'objet.
Cas 2
L'objet est extrait et n'a aucun objet dépendant dans le référentiel local ou central.
Comportement : identique à celui du cas 1
Cas 3
L'objet n'est pas extrait et a un ou plusieurs objet(s) dépendant(s) (dans le référentiel local).
Comportement : lorsque vous cliquez sur Renommer, le logiciel affiche une seconde fenêtre avec une liste des objets dépendants (qui utilisent ou font référence à l'objet renommé).
Si vous cliquez sur Continuer, le logiciel renomme les objets et modifie les objets dépendants qui font référence à l'objet renommé à l'aide du nouveau nom du propriétaire. Si vous cliquez sur Annuler,
Designer renvoie à la fenêtre Renommer le propriétaire.
Remarque :
Il est possible qu'un objet ait toujours un ou plusieurs objet(s) dépendant(s) dans le référentiel central.
Cependant, si l'objet à renommer n'est pas extrait, le mécanisme Renommer le propriétaire (par dessein) n'affecte pas les objets dépendants dans le référentiel central.
Cas 4
L'objet est extrait et a un ou plusieurs objet(s) dépendant(s).
Comportement : ce cas est complexe.
• Si vous n'êtes pas connecté au référentiel central, le message de statut lit :
This object is checked out from central repository X. Please select Tools | Central Repository… to activate that repository before renaming.
• Si vous êtes connecté au référentiel central, la fenêtre Renommer le propriétaire s'ouvre.
124 2012-11-22
Banques de données
125
Lorsque vous cliquez sur Renommer, une deuxième fenêtre s'ouvre pour afficher les objets dépendants et un statut qui indique leur état d'extraction et leur emplacement. Si un objet dépendant se trouve dans le référentiel local uniquement, le message de statut lit :
Used only in local repository. No check out necessary.
• Si l'objet dépendant se trouve dans le référentiel central et qu'il n'est pas extrait, le message de statut lit :
Not checked out
• Si l'objet dépendant est extrait ou extrait par un autre utilisateur, le message de statut affiche le nom du référentiel extrait. Par exemple : Oracle.production.user1
Comme dans le cas 2, le but de cette deuxième fenêtre est d'afficher les objets dépendants. De plus, cette fenêtre permet d'extraire les objets dépendants nécessaires du référentiel central, sans avoir à accéder à la fenêtre Bibliothèque d'objets centrale.
Cliquez sur le bouton Actualiser la liste pour mettre à jour le statut d'extraction dans la liste. Cette mise à jour est utile lorsque le logiciel identifie un objet dépendant dans le référentiel central mais qu'un autre utilisateur l'a extrait. Lorsque cet utilisateur recharge l'objet dépendant, cliquez sur
Actualiser la liste pour mettre à jour le statut et vérifier que l'objet dépendant n'est plus extrait.
Pour tirer le meilleur parti de la fonctionnalité Renommer le propriétaire, extrayez les objets dépendants associés du référentiel central. Cette extraction aide à éviter d'avoir des objets dépendants qui font référence à des objets avec des noms de propriétaire qui n'existent pas. A partir du référentiel central, sélectionnez un ou plusieurs objet(s), puis faites un clic droit et sélectionnez
Extraire.
Après avoir extrait l'objet dépendant, Designer met à jour le statut. Si l'extraction était réussie, le statut affiche le nom du référentiel local.
Cas 4a
Vous cliquez sur Continuer, mais un ou plusieurs objet(s) dépendant(s) ne sont pas extraits du référentiel central.
Dans cette situation, le logiciel affiche une autre boîte de dialogue pour vous prévenir des objets pas encore traités et pour confirmer votre désir de continuer.
Cliquez sur Non pour revenir à la boîte de dialogue précédente qui affiche les objets dépendants.
Cliquez sur Oui pour continuer le renommage de l'objet sélectionné et pour modifier ses objets dépendants. Le logiciel modifie les objets qui ne sont pas extraits dans le référentiel local pour faire référence au nouveau nom de propriétaire. Il est de votre responsabilité de maintenir une cohérence avec les objets dans le référentiel central.
Cas 4b
Vous cliquez sur Continuer et tous les objets dépendants sont extraits du référentiel central.
Le logiciel renomme le propriétaire de l'objet sélectionné et modifie tous les objets dépendants pour faire référence au nouveau nom du propriétaire. Bien qu'il semble que l'objet d'origine ait un nouveau nom du propriétaire, le logiciel n'a en réalité pas modifié l'objet d'origine ; il a créé un nouvel objet identique à l'original mais utilise le nouveau nom du propriétaire. L'objet d'origine avec l'ancien nom du
2012-11-22
Banques de données propriétaire existe toujours. Le logiciel effectue alors une "annulation de l'extraction" sur l'objet d'origine.
C'est alors à vous de devoir recharger l'objet renommé.
Lorsque l'opération de renommage est réussie, dans l'onglet Banque de données de la bibliothèque d'objets locale, le logiciel met à jour la table ou la fonction avec le nouveau nom du propriétaire et la fenêtre Sortie affiche le message suivant :
Object <Object_Name>: owner name <Old_Owner> successfully renamed to <New_Owner>, including references from dependent objects.
Si le logiciel n'a pas renommé avec succès le propriétaire, la fenêtre Sortie affiche le message suivant :
Object <Object_Name>: Owner name <Old_Owner> could not be renamed to <New_Owner >.
5.5.9 Définition d'une configuration système
Quelle est la différence entre des configurations de banque de données et des configurations systèmes ?
Configurations de banque de données
Configurations système
: chaque configuration de banque de données définit une connexion à une base de données particulière depuis une banque de données unique.
Chaque configuration système définit un ensemble de configurations de banque de données qu'il est préférable d'utiliser ensemble lors de l'exécution d'un job. Il est possible de définir une configuration de système si le référentiel contient au moins une banque de données avec plusieurs configurations. Il est également possible d'associer des configurations de paramètres de substitution à des configurations système.
Lors de la conception de jobs, déterminez et créez des configurations de banque de données et des configurations système en fonction de votre environnement et de vos règles d'entreprise. Créez des configurations de banque de données pour les banques de données du référentiel avant de créer des configurations système pour les organiser et les associer.
Sélectionnez une configuration de système à utiliser au moment de l'exécution. Dans de nombreuses entreprises, un concepteur de jobs définit les configurations de banque de données et de système requises, puis un administrateur système détermine quelle configuration de système utiliser lors de la planification et du lancement d'un job.
Le logiciel conserve les configurations système séparément des jobs. Il est impossible de recharger ou d'extraire les configurations système dans un environnement multi-utilisateurs. Cependant, il est possible d'exporter des configurations système vers un fichier plat distinct que vous pouvez ensuite importer.
Rubriques associées
•
Création d'une nouvelle configuration
126 2012-11-22
Banques de données
127
5.5.9.1 Créer une configuration système
1.
Dans la barre de menu de Designer, sélectionnez Outils > Configurations système.
La fenêtre "Modifier les configurations système" s'affiche.
2.
Pour ajouter une nouvelle configuration système, réalisez l'une des opérations suivantes :
• Cliquez sur l'icône Créer une configuration pour ajouter une configuration qui fait référence à la configuration par défaut des paramètres de substitution et à chaque connexion à la base de données.
• Sélectionnez une configuration existante et cliquez sur l'icône Dupliquer la configuration pour créer une copie de la configuration sélectionnée.
Il est possible d'utiliser la copie comme modèle et de modifier les sélections de paramètres de substitution ou de configuration de banque de données pour qu'elles s'adaptent à vos besoins.
3.
Renommez la nouvelle configuration système si vous le souhaitez.
a.
Sélectionnez la configuration système que vous souhaitez renommer.
b.
Cliquez sur l'icône Renommer la configuration pour activer le mode de modification pour le champ du nom de la configuration.
c.
Saisissez un nouveau nom unique et cliquez en dehors du champ du nom pour accepter votre choix.
Il est recommandé de suivre une convention d'appellation cohérente et d'utiliser le préfixe CS_ dans chaque nom de configuration système pour pouvoir identifier facilement ce fichier comme
étant une configuration système. Cette pratique est particulièrement utile lorsque vous exportez la configuration système.
4.
A partir de la liste, sélectionnez une configuration de paramètres de substitution à associer avec la configuration système.
5.
Pour chaque banque de données, sélectionnez la configuration de banque de données que vous souhaitez utiliser lors de l'exécution d'un job à l'aide de la configuration système.
Si vous ne mappez pas une configuration de banque de données à une configuration système, le
Job Server utilise la configuration de banque de données par défaut au moment de l'exécution.
6.
Cliquez sur OK pour enregistrer les paramètres de la configuration système.
Rubriques associées
•
Association d'une configuration des paramètres de substitution à une configuration système
5.5.9.2 Exporter une configuration système
2012-11-22
Banques de données
1.
Dans la bibliothèque d'objets, sélectionnez l'onglet Banques de données et faites un clic droit sur une banque de données.
2.
Sélectionnez Référentiel > Exporter les configurations système.
Il est recommandé d'ajouter le préfixe CS_ à chaque fichier .atl de configuration système exportée pour identifier facilement ce fichier comme étant une configuration système.
3.
Cliquez sur OK.
128 2012-11-22
Formats de fichier
Formats de fichier
Cette section évoque les formats de fichier, de la manière d'utiliser l'éditeur de format de fichier, et de la manière de créer un format de fichier dans le logiciel.
Rubriques associées
• Guide de référence : format de fichier
6.1 Comprendre les formats de fichier
Un format de fichier est un ensemble de propriétés qui décrivent la structure d'un fichier plat (ASCII).
Les formats de fichier décrivent la structure de métadonnées. Un format de fichier décrit un fichier spécifique. Un modèle de format de fichier est une description générique qui peut être utilisé pour plusieurs fichiers de données.
Le logiciel peut utiliser les données stockées dans des fichiers pour les sources et les cibles de données.
Un format de fichier définit une connexion à un fichier. Par conséquent, vous utilisez un format de fichier pour connecter aux données sources ou cibles lorsque les données sont stockées dans un fichier plutôt que dans une table de base de données. La bibliothèque d'objets enregistre les modèles de format de fichier que vous utilisez pour définir les formats de fichier spécifiques comme des sources ou des cibles dans des flux de données.
Pour travailler avec des formats de fichier, effectuez les tâches suivantes :
• Créez un modèle de format de fichier qui définit la structure pour un fichier.
• Créez un format de fichier source ou cible dans un flux de données. Le format de fichier source ou cible est basé sur un modèle et indique les informations de connexion telles que le nom du fichier.
Les objets de format de fichier peuvent décrire les fichiers des types suivants :
• Délimité : les caractères comme les virgules ou les tabulations séparent chaque champ.
• Largeur fixe : vous indiquez la largeur de la colonne.
• Transport SAP : permet de définir les objets de transport de données dans les flux de données des applications SAP.
• Texte non structuré : permet de lire un ou plusieurs fichiers de texte non structuré à partir d'un répertoire.
• Binaire non structuré : permet de lire un ou plusieurs documents binaires à partir d'un répertoire.
129 2012-11-22
Formats de fichier
Rubriques associées
•
6.2 Editeur de format de fichier
Utilisez l'éditeur de format de fichier pour définir des propriétés pour les modèles de format de fichier et les formats de fichier source et cible. Les propriétés disponibles varient selon le mode de l'éditeur de format de fichier :
• Mode Nouveau : créer un nouveau modèle de format de fichier
• Mode Modification : modifier un modèle de format de fichier existant
• Mode Source : modifier le format de fichier d'un fichier source particulier
• Mode Cible : modifier le format de fichier d'un fichier cible particulier
L'éditeur de format de fichier est composé de trois zones de travail :
• Propriétés-Valeurs : modifier les valeurs pour les propriétés de format de fichier. Développez et réduisez les groupes de propriétés en cliquant sur le signe plus ou le signe moins principal.
• Attributs de la colonne : modifier et définir les colonnes ou les champs dans le fichier. Les formats spécifiques au champ remplacent le format par défaut défini dans la zone Propriétés-Valeurs.
• Aperçu des données : afficher la manière dont les paramètres affectent les exemples de données.
L'éditeur de format de fichier contient des barres de "fractionnement" pour permettre le redimensionnement de la fenêtre et de toutes les zones de travail. Il est possible d'étendre l'éditeur de format de fichier en plein écran.
Les propriétés et les apparences des zones de travail varient avec le format du fichier.
130 2012-11-22
Formats de fichier
Il est possible de naviguer dans l'éditeur de format de fichier de la manière suivante :
• Passez d'une zone de travail à une autre à l'aide de la touche Tab.
• Naviguez dans les champs dans la zone Aperçu des données avec les touches Page suivante,
Page précédente, et les flèches.
• Ouvrez un menu déroulant dans la zone Propriétés-Valeurs en appuyant sur les touches ALT + flèche du bas.
• Lorsque le type de format de fichier est de largeur fixe, il est également possible de modifier la structure des métadonnées de colonnes dans la zone Aperçu des données.
Remarque :
Le bouton Afficher l'ATL affiche une copie en lecture seule du fichier Transformation Language généré pour le format de fichier. Il est possible que l'assistance des utilisateurs professionnels SAP vous dise d'utiliser ce bouton.
Rubriques associées
• Guide de référence : format de fichier
6.3 Création de formats de fichier
Pour indiquer un fichier source ou cible, vous créez un modèle de format de fichier qui définit la structure pour un fichier. Lorsque vous glissez-déplacez le format de fichier dans un flux de données, le format
131 2012-11-22
Formats de fichier représente un fichier qui est basé sur le modèle et indique les informations de connexion telles que le nom du fichier.
6.3.1 Créer un nouveau format de fichier
1.
Dans la bibliothèque d'objets locale, accédez à l'onglet Formats, faites un clic droit sur Fichiers
plats et sélectionnez Nouveau.
2.
Pour l'option Type, sélectionnez :
• Délimité : pour un fichier qui utilise une séquence de caractères pour séparer les colonnes.
• Largeur fixe : pour un fichier qui utilise des largeurs spécifiées pour chaque colonne
• Transport SAP : pour les objets de transport de données dans les flux de données des applications SAP.
• Texte non structuré : pour un ou plusieurs fichiers de texte non structuré à partir d'un répertoire.
Le schéma est fixé pour ce type.
• Binaire non structuré : pour un ou plusieurs documents binaires et de texte non structurés à partir d'un répertoire. Le schéma est fixé pour ce type.
Les options changent dans l'éditeur en fonction du type sélectionné.
3.
Pour l'option Nom, saisissez un nom qui décrit le modèle de format de fichier.
Après avoir sauvegardé ce modèle de format de fichier, il est impossible de changer le nom.
4.
Pour les fichiers Délimités et de Largeur fixe, il est possible de lire et de charger des fichiers à l'aide d'un programme de transfert de fichiers tiers en cochant Oui à Programme de transfert
personnalisé.
5.
Remplissez les autres propriétés pour décrire les fichiers représentés par ce modèle.
Recherchez les propriétés disponibles lorsque l'éditeur de format de fichier est en mode source ou en mode cible.
6.
Pour les fichiers sources, certains formats de fichier permettent de spécifier la structure des colonnes dans la zone de travail Attributs de la colonne (le volet supérieur à droite) : a.
Saisissez un nom de champ.
b.
Définissez les types de données c.
Saisissez des tailles de champ pour les types de données.
d.
Saisissez les informations d'échelle et de précision pour les types de données décimales et numériques.
e.
Saisissez le Type de contenu. Si vous avez ajouté une colonne lors de la création d'un nouveau format, le type de contenu peut être fourni en fonction du nom de champ. Si un type de contenu approprié n'est pas disponible, le type de contenu est vide par défaut.
f.
Saisissez les informations dans le champ Format pour les types de données appropriés si vous le souhaitez. Ces informations remplacent le format par défaut défini dans la zone
Propriétés-Valeurs pour ce type de données.
Il est possible de modeler un format de fichier sur un exemple de fichier.
132 2012-11-22
Formats de fichier
Remarque :
• Vous n'avez pas besoin d'indiquer les colonnes pour les fichiers utilisés comme des cibles. Si vous indiquez des colonnes et qu'elles ne correspondent pas au schéma de sortie de la transformation précédente, le logiciel écrit dans le fichier cible à l'aide du schéma de sortie de la transformation.
• Pour le type de données décimale ou réelle, si vous indiquez seulement un format de colonne source et que les noms de colonnes et les types de données dans le schéma cible ne correspondent pas à ceux dans le schéma source, le logiciel ne peut pas utiliser le format de colonne source spécifié. A la place, il utilise par défaut le format utilisé par la page de code sur l'ordinateur où le Job Server est installé.
7.
Cliquez sur Enregistrer et fermer pour enregistrer le modèle de format de fichier et fermer l'éditeur de format de fichier.
Rubriques associées
• Guide de référence : paramètres régionaux et fonctionnalité multi-octets
•
• Guide de référence : format de fichier
6.3.2 Modélisation d'un format de fichier sur un exemple de fichier.
1.
Depuis l'onglet Formats dans la bibliothèque d'objets locale, créez un nouveau modèle de format de fichier ou modifiez un modèle de format de fichier plat existant.
2.
Sous Fichier(s) de données :
• Si le modèle de fichier se trouve sur l'ordinateur de Designer, définissez l'Emplacement sur
Local. Naviguez pour définir les options Répertoire racine et Fichier(s) pour spécifier l'exemple de fichier.
Remarque :
Lors de la conception, il est possible de spécifier un fichier qui se trouve sur l'ordinateur où
Designer s'exécute ou sur l'ordinateur où le Job Server s'exécute. Indiquez l'emplacement du fichier dans la propriété Emplacement. Lors de l'exécution, vous devez spécifier un fichier qui se trouve sur l'ordinateur du Job Server qui exécute le job.
• Si l'exemple de fichier se trouve sur l'ordinateur du Job Server actuel , définissez l'Emplacement sur Local. Saisissez les options Répertoire racine et Fichier(s) pour spécifier l'exemple de fichier. Lorsque vous sélectionnez Job Server, l'icône Parcourir est désactivée ; vous devez donc saisir le chemin d'accès au fichier. Vous pouvez saisir un chemin absolu ou un chemin relatif mais le job server doit pouvoir y accéder. Par exemple, un chemin sur UNIX devrait être
/usr/data/abc.txt
. Un chemin sur Windows devrait être C:\DATA\abc.txt.
Remarque :
Dans le système d'exploitation Windows, les fichiers ne sont pas sensibles à la casse ; cependant, les noms de fichier sont sensibles à la casse dans l'environnement UNIX. (Par exemple, abc.txt
et aBc.txt sont deux fichiers différents dans le même répertoire UNIX.)
133 2012-11-22
Formats de fichier
Pour réduire le risque de saisir des erreurs, il est possible d'effectuer un telnet sur l'ordinateur du Job Server (UNIX ou Windows) et de trouver le nom complet du chemin du fichier que vous souhaitez utiliser. Ensuite, copiez-collez le nom du chemin depuis l'application de telnet directement dans la zone de texte Répertoire racine dans l'éditeur de format de fichier. Il est impossible d'utiliser Windows Explorer pour déterminer l'emplacement exact du fichier sur
Windows.
3.
Si le type de fichier est délimité, définissez le séparateur de colonne approprié pour l'exemple de fichier. Il est possible de choisir dans la liste déroulante ou de spécifier des séparateurs Unicodes en saisissant directement le code de caractère Unicode sous la forme /XXXX où XXXX est un code de caractère Unicode décimal. Par exemple, /44 est le caractère Unicode pour la virgule (,).
4.
Sous Entrée/Sortie, définissez Ignorer l'en-tête de la ligne sur Oui si vous souhaitez utiliser la première ligne dans le fichier pour désigner les noms de champ.
L'éditeur de format de fichier affiche les noms de colonne dans la zone Aperçu des données et crée automatiquement la structure des métadonnées.
5.
Modifiez la structure des métadonnées si nécessaire.
Pour les fichiers délimités et de largeur fixe, il est possible de modifier la structure des métadonnées dans la zone de travail Attributs de la colonne : a.
Faites un clic droit pour insérer ou supprimer des champs.
b.
Renommez les champs.
c.
Définissez les types de données d.
Saisissez des longueurs de champ pour les types de données Blob et Varchar.
e.
Saisissez les informations d'échelle et de précision pour les types de données Numérique et
Décimale.
f.
Saisissez les informations du champ Format pour les types de données appropriés si vous le souhaitez. Ces informations de format remplacent le format par défaut défini dans la zone Valeurs dans les Propriétés pour ce type de données.
g.
Saisissez les informations de Type de contenu. Vous n'avez pas besoin d'indiquer les colonnes pour les fichiers utilisés comme des cibles. Si vous avez ajouté une colonne lors de la création d'un nouveau format, le type de contenu peut automatiquement se renseigner en fonction du nom de champ. Si un type de contenu approprié ne peut pas être automatiquement renseigné, il est vide par défaut.
Pour les fichiers de largeur fixe, il est possible de modifier la structure des métadonnées dans la zone de travail Attributs de la colonne : a.
Cliquez pour sélectionner et mettre en surbrillance les colonnes b.
Faites un clic droit pour insérer ou supprimer des champs.
Remarque :
Le volet Aperçu des données ne peut pas afficher les données Blob.
6.
Cliquez sur Enregistrer et Fermer pour enregistrer le modèle de format de fichier et fermer l'éditeur de format de fichier.
134 2012-11-22
Formats de fichier
6.3.3 Réplication et renommage des formats de fichier
Après avoir créé un schéma de format de fichier, il est possible de créer rapidement un autre objet de format de fichier avec le même schéma en répliquant le format de fichier existant et en le renommant :
Pour gagner du temps dans la création d'objets de format de fichier, répliquez et renommez au lieu de configurer en partant de zéro.
6.3.3.1 Créer un format de fichier à partir d'un format de fichier existant
1.
Dans l'onglet Formats de la bibliothèque d'objets, faites un clic droit sur un format de fichier existant et sélectionnez Répliquer dans le menu.
L'Editeur de format de fichier s'ouvre et affiche le schéma du format de fichier copié.
2.
Double-cliquez pour sélectionner la valeur de la propriété Nom (qui contient le même nom que l'objet de format de fichier d'origine).
3.
Saisissez un nouveau nom unique pour le format de fichier répliqué.
Remarque :
Vous devez saisir un nouveau nom pour le fichier répliqué. Le logiciel ne vous autorise pas à enregistrer le fichier répliqué avec le même nom que celui d'origine (ou que celui d'un autre objet de format de fichier existant). De plus, c'est votre seule chance de modifier la valeur de la propriété
Nom. Une fois enregistré, il n'est plus possible de modifier à nouveau le nom.
4.
Modifiez les autres propriétés comme souhaité.
Recherchez les propriétés disponibles lorsque l'éditeur de format de fichier est en mode source ou en mode cible.
5.
Pour enregistrer et afficher le nouveau schéma de format de fichier, cliquez sur Enregistrer.
Pour terminer le processus de réplication (même après avoir modifié le nom et cliqué sur Enregistrer), cliquez sur Annuler ou appuyez sur le bouton Ech du clavier.
6.
Cliquez sur Enregistrer et fermer.
Rubriques associées
• Guide de référence : format de fichier
135 2012-11-22
Formats de fichier
6.3.4 Créer un format de fichier à partir d'un schéma de table plate existant
1.
Depuis l'éditeur de requêtes, faites un clic droit sur un schéma et sélectionnez Créer un format de
fichier.
L'éditeur de format de fichier s'ouvre, rempli avec le schéma que vous avez sélectionné.
2.
Modifiez le nouveau schéma de façon appropriée et cliquez sur Enregistrer et Fermer.
Le logiciel enregistre le format de fichier dans le référentiel. Vous pouvez y accéder depuis l'onglet
Formats de la bibliothèque d'objets.
6.3.5 Créer un fichier source ou cible spécifique
1.
Sélectionnez un modèle de format de fichier plat dans l'onglet Formats de la bibliothèque d'objets locale.
2.
Faites glisser le modèle de format de fichier vers l'espace de travail du flux de données.
3.
Sélectionnez Créer la source pour définir un format de fichier source, ou sélectionnez Créer la
cible pour définir un format de fichier cible.
4.
Cliquez sur le nom de l'objet de format de fichier dans l'espace de travail pour ouvrir l'éditeur de format de fichier.
5.
Saisissez les propriétés spécifiques au fichier source ou cible.
Recherchez les propriétés disponibles lorsque l'éditeur de format de fichier est en mode source ou en mode cible.
Sous Nom(s) de fichier, assurez-vous de spécifier le nom et l'emplacement du fichier dans les propriétés Fichier et Emplacement.
Remarque :
Il est possible d'utiliser des variables comme des noms de fichier.
6.
Connectez l'objet de format de fichier à d'autres objets dans le flux de données.
Rubriques associées
• Guide de référence : format de fichier
•
Définition de noms de fichier lors de l'exécution à l'aide de variables
136 2012-11-22
Formats de fichier
6.4 Edition de formats de fichier
Il est possible de modifier des modèles de format de fichier existants pour correspondre aux modifications apportées dans le format ou la structure d'un fichier. Il est impossible de modifier le nom d'un modèle de format de fichier.
Par exemple, si vous avez un champ de date dans un fichier source ou cible dont le format est mm/jj/aa et que les données pour ce champ passent au format jj-mm-aa à cause de changements dans le programme qui génère le fichier source, vous pouvez modifier le modèle de format de fichier correspondant et les informations sur le format de la date.
Pour les formats de fichier source ou cible spécifiques, il est possible de modifier les propriétés qui définissent uniquement cette source ou cette cible telles que le nom et l'emplacement du fichier.
Attention :
Si le modèle est utilisé dans d'autres jobs (l'utilisation est supérieure à 0), les modifications que vous apportez au modèle sont également apportées aux fichiers qui utilisent le modèle.
6.4.1 Modifier un modèle de format de fichier
1.
Dans l'onglet Formats de la bibliothèque d'objets, double-cliquez sur un format de fichier plat existant
(ou faites un clic droit et sélectionnez Modifier).
L'éditeur de format de fichier s'ouvre avec les valeurs du format existant.
2.
Modifiez les valeurs selon vos besoins.
Recherchez les propriétés disponibles lorsque l'éditeur de format de fichier est en mode source ou en mode cible.
Attention :
Si le modèle est utilisé dans d'autres jobs (l'utilisation est supérieure à 0), les modifications que vous apportez au modèle sont également apportées aux fichiers qui utilisent le modèle.
3.
Cliquez sur Enregistrer.
Rubriques associées
• Guide de référence : format de fichier
137 2012-11-22
Formats de fichier
6.4.2 Editer un fichier source ou cible
1.
Dans l'espace de travail, cliquez sur le nom d'un fichier source ou cible.
L'éditeur de format de fichier s'ouvre et affiche les propriétés pour le fichier source ou cible sélectionné.
2.
Modifiez les propriétés souhaitées.
Recherchez les propriétés disponibles lorsque l'éditeur de format de fichier est en mode source ou en mode cible.
Pour modifier les propriétés qui ne sont pas disponibles en mode source ou cible, vous devez modifier le modèle de format de fichier du fichier. Toutes les modifications de valeurs que vous apportez dans l'éditeur de fichier source ou cible remplacent celles du format de fichier d'origine.
3.
Cliquez sur Enregistrer.
Rubriques associées
• Guide de référence : format de fichier
6.4.3 Modifier plusieurs propriétés de colonne
Utilisez ces étapes lors de la création d'un nouveau format de fichier ou de la modification d'un format de fichier existant.
1.
Sélectionnez l'onglet "Format" dans la bibliothèque d'objets.
2.
Faites un clic droit sur un format de fichier existant listé sous Fichiers plats et sélectionnez Modifier.
L'"Editeur de format de fichier" s'ouvre.
3.
Dans la zone des attributs de colonne (volet en haut à droite), sélectionnez les colonnes que vous souhaitez modifier.
• Pour sélectionner une série de colonnes, sélectionnez la première colonne et appuyez sur la touche "Maj" du clavier, puis sélectionnez la dernière colonne.
• Pour sélectionner des colonnes non consécutives, maintenez la touche "Contrôle" enfoncée et sélectionnez les colonnes.
4.
Faites un clic droit et sélectionnez Propriétés.
La fenêtre "Propriétés de colonnes multiples" s'ouvre.
5.
Modifiez le Type de données et/ou le Type de contenu puis cliquez sur Ok.
Le Type de données et le Type de contenu des colonnes sélectionnées sont modifiés en fonction de vos paramètres.
138 2012-11-22
Formats de fichier
6.5 Fonctionnalités des formats de fichiers
Le logiciel offre plusieurs possibilités pour le traitement des fichiers.
6.5.1 Lecture de plusieurs fichiers en une fois
Le logiciel peut lire plusieurs fichiers avec le même format à partir d'un seul répertoire à l'aide d'un seul objet source.
6.5.1.1 Spécifier plusieurs fichiers à lire
1.
Ouvrez l'éditeur pour le format de fichier source
2.
Sous Fichier(s) de données dans l'éditeur de format de fichier, définissez l'Emplacement des fichiers sources sur Local ou Job Server.
3.
Définissez le répertoire racine dans Répertoire racine.
Remarque :
Si le Job Server se trouve sur un autre ordinateur que Designer, il est impossible d'utiliser la fonction
Parcourir pour indiquer le répertoire racine. Vous devez saisir le chemin. Vous pouvez saisir un chemin absolu ou un chemin relatif mais le Job Server doit pouvoir y accéder.
4.
Sous Nom(s) de fichier, saisissez soit :
• Une liste des noms de fichier séparés par des virgules, soit
• Un nom de fichier contenant un caractère générique (* ou ?).
Par exemple :
1999????.txt lit les fichiers de l'année 1999
*.txt lit tous les fichiers avec l'extension txt à partir du Répertoire racine spécifié
6.5.2 Identification des noms de fichiers sources
139 2012-11-22
Formats de fichier
Il est possible que vous souhaitiez identifier le fichier source pour chaque ligne dans la cible dans les situations suivantes :
• Vous avez spécifié un caractère générique pour lire plusieurs fichiers sources en même temps
• Vous chargez depuis différents fichiers sources sur différentes exécutions
6.5.2.1 Identifier le fichier source pour chaque ligne dans la cible
1.
Sous Informations source dans l'éditeur de format de fichier, définissez Inclure la colonne Nom
du fichier sur Oui. Cette option génère une colonne appelée DI_FILENAME qui contient le nom du fichier source.
2.
Dans l'éditeur Query, mappez la colonne DI_FILENAME de l'Entrée de schéma à la Sortie de schéma.
3.
Lors de l'exécution du job, la colonne DI_FILENAME pour chaque ligne dans la cible contient le nom du fichier source.
6.5.3 Formats des nombres
Le point (.) et la virgule (,) sont les deux formats les plus utilisés pour déterminer les séparateurs de décimales et de milliers pour les types de données numériques. Lors de la mise en forme des fichiers dans le logiciel, les types de données dans lesquels ces symboles peuvent être utilisés incluent Décimal,
Numérique, Flottant et Double. Il est possible d'utiliser n'importe quel symbole pour l'indicateur des milliers, et n'importe quel symbole pour le séparateur de décimales. Par exemple : 2,098.65 ou
2.089,65
.
140 2012-11-22
Formats de fichier
Format
{aucun}
#,##0.0
#.##0,0
Description
Le logiciel s'attend à ce que le nombre contienne uniquement le séparateur de décimales.
La lecture des données numériques et de ce séparateur de décimales est déterminée par les paramètres régionaux du Job Server de Data Service. La virgule (,) est le séparateur de décimales lorsque les Paramètres régionaux de Data Service sont définis sur un pays qui utilise des virgules (par exemple, l'Allemagne ou la France). Le point (.) est le séparateur de décimales lorsque les Paramètres régionaux sont définis sur un pays qui utilise des points (par exemple les Etats-Unis, l'Inde et le RU). Dans ce format, le logiciel renvoie une erreur si un nombre contient un séparateur des milliers. Lorsque le logiciel écrit les données, il utilise uniquement le séparateur de décimales des paramètres régionaux du Job Server. Il n'utilise pas de séparateur de milliers.
Le logiciel s'attend à ce que le séparateur de décimales d'un nombre soit un point (.) et que le séparateur des milliers soit une virgule (,). Lorsque le logiciel charge les données dans un fichier plat, il utilise une virgule (,) comme séparateur des milliers et un point (.) comme séparateur de décimales.
Le logiciel s'attend à ce que le séparateur de décimales d'un nombre soit une virgule (,) et que le séparateur des milliers soit un point (.). Lorsque le logiciel charge les données dans un fichier plat, il utilise un point (.) comme séparateur des milliers et une virgule (,) comme séparateur de décimales.
Les signes décimaux de début et de fin sont également pris en charge. Par exemple : +12,000.00
ou 32.32-.
6.5.4 Ignorer les lignes avec des marqueurs spécifiés
L'éditeur de format de fichier offre une façon d'ignorer les lignes qui contiennent un marqueur (ou des marqueurs) spécifié(s) lors de la lecture des fichiers. Par exemple, il est possible que vous souhaitiez ignorer les marqueurs des lignes de commentaires tels que # et //.
Associés avec cette fonction, deux caractères spéciaux (le point-virgule (;) et la barre oblique inverse
(\) ) rendent possible la définition de plusieurs marqueurs dans la chaîne pour ignorer les marqueurs de lignes. Utilisez le point-virgule pour délimiter chaque marqueur, et la barre oblique inverse pour indiquer des caractères spéciaux comme des marqueurs (tels quel la barre oblique inverse et le point-virgule).
La valeur par défaut de marqueur est une chaîne vide. Lorsque vous spécifiez la valeur par défaut, aucune ligne n'est ignorée.
141 2012-11-22
Formats de fichier
6.5.4.1 Spécifier des marqueurs pour les lignes à ignorer
1.
Ouvrez l'éditeur de format de fichier depuis la Bibliothèque d'objets ou en ouvrant un objet source dans l'espace de travail.
2.
Trouvez Ignorer les marqueurs de ligne sous la Propriété Format.
3.
Cliquez dans la zone de texte associée et saisissez une chaîne pour indiquer un ou plusieurs marqueurs représentant les lignes que le logiciel doit ignorer durant la lecture du fichier et/ou la création de métadonnées.
La table suivante donne quelques exemples de marqueur(s) de lignes à ignorer. (Chaque valeur est délimitée par un point-virgule à moins que le point-virgule soit précédé d'une barre oblique inverse.)
Valeur(s) de marqueur
abc abc;def;hi abc;\; abc;\\;\;
Ligne(s) ignorées
Aucun (c'est la valeur par défaut)
Toutes celles qui commencent par la chaîne abc
Toutes celles qui commencent par abc ou def ou hi
Toutes celles qui commencent par abc ou ;
Toutes celles qui commencent par abc ou \ ou ;
6.5.5 Formats de date au niveau du champ
Il est possible de spécifier un format de date au niveau du champ pour remplacer les formats de date, d'heure ou de date-heure définis dans la zone Propriétés-Valeurs.
Par exemple, lorsque le Type de données est défini sur Date, il est possible de modifier la valeur dans le champ Format correspondant par un format de date différent tel que :
• aaaa.mm.jj
• mm/jj/aa
• jj.mm.aa
142 2012-11-22
Formats de fichier
6.5.6 Threads de traitement en parallèle
Data Services peut utiliser des threads parallèles pour lire et charger les fichiers pour maximiser la performance.
Pour spécifier des threads parallèles pour traiter les formats de fichier :
1.
Ouvrez l'éditeur de format de fichier de l'une des manières suivantes :
• Dans l'onglet Formats de la bibliothèque d'objets, faites un clic droit sur un nom de format de fichier et cliquez sur Modifier.
• Dans l'espace de travail, double-cliquez sur l'objet source ou cible.
2.
Trouvez les Threads de traitement en parallèle sous la Propriété "Général".
3.
Indiquez le nombre de threads pour lire ou charger ce format de fichier.
Par exemple, si vous avez 4 processeurs sur l'ordinateur du Job Server, saisissez le nombre 4 dans la case Threads de traitement en parallèle.
Rubriques associées
• Guide d'optimisation de la performance : utilisation de l'exécution parallèle, multithread de fichier
6.5.7 Erreur de traitement pour les sources de fichier plat
Lors de l'exécution du job, le logiciel traite les lignes des sources de fichiers plats une par une. Il est possible de configurer l'Editeur de format de fichier pour identifier les lignes dans des sources de fichiers plats qui contiennent les types d'erreur suivants :
• Erreurs de conversion des types de données : par exemple, un champ peut être défini dans l'Editeur de format de fichier comme contenant un type de donné de nombre entier, alors que les données rencontrées sont de type varchar.
• Erreurs de format de lignes : par exemple, en cas d'un fichier de largeur fixe, le logiciel identifie une ligne qui ne correspond pas à la valeur de largeur attendue.
Ces propriétés d'erreur de traitement s'appliquent uniquement aux sources de fichiers plats.
Rubriques associées
• Guide de référence : format de fichier
143 2012-11-22
Formats de fichier
144
6.5.7.1 Options d'erreur de traitement
Dans l'Editeur de format de fichier, l'ensemble de propriétés Erreur de traitement permet de choisir si le logiciel doit effectuer les actions suivantes ou non :
• vérifier l'un ou l'autre des deux types d'erreur de la source de fichier plat
• écrire la/les ligne(s) non valide(s) dans un fichier d'erreur spécifique
• arrêter le traitement du fichier source après avoir atteint un nombre spécifié de lignes non valides
• enregistrer les avertissements de conversion des types de données ou de format de lignes dans le journal des erreurs ; si c'est le cas, il est possible de limiter le nombre d'avertissements à enregistrer sans arrêter le job
6.5.7.2 A propos du fichier d'erreur
S'il est activé, le fichier d'erreur inclue les deux types d'erreurs. Le format est un fichier texte délimité par un point-virgule. Il est possible d'avoir plusieurs fichiers d'entrée sources pour le fichier d'erreur.
Le fichier reste sur le même ordinateur que le Job Server.
Les entrées dans un fichier d'erreur a la syntaxe suivante : source file path and name; row number in source file; Data Services error; column number where the error occurred; all columns from the invalid row
L'entrée suivante illustre une erreur de format de lignes : d:/acl_work/in_test.txt;2;-80104: 1-3-A column delimiter was seen after column number <3> for row number <2> in file <d:/acl_work/in_test.txt>. The total number of columns defined is <3>, so a row delimiter should be seen after column number <3>. Please check the file for bad data, or redefine the input schema for the file by editing the file format in the UI.;3;defg;234;def où 3 indique une erreur qui s'est produite après la troisième colonne, et defg;234;def sont les trois colonnes de données à partir de la ligne non valide.
Remarque :
Si vous définissez l'option Threads de traitement en parallèle du format de fichier sur n'importe quelle valeur supérieure à 0 ou sur {aucun}, le numéro de la ligne dans la valeur du fichier source est -1.
6.5.7.3 Configuration de l'Editeur de mise en forme pour la gestion des erreurs
2012-11-22
Formats de fichier
6.5.7.3.1 Capture d'erreurs de conversion des types de données ou de format de lignes
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Formats.
2.
Développez Fichiers plats, faites un clic droit sur un format et cliquez sur Modifier.
3.
L'Editeur de format de fichier s'ouvre.
4.
Pour capturer les erreurs de conversion des types de données, sous les propriétés Erreur de
traitement pour l'option Capturer les erreurs de conversion des données, cliquez sur Oui.
5.
Pour capturer les erreurs dans les formats de lignes, pour l'option Capturer les erreurs de format
de lignes, cliquez sur Oui.
6.
Cliquez sur Enregistrer ou Enregistrer et fermer.
6.5.7.3.2 Ecrire des lignes non valides dans un fichier d'erreur.
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Formats.
2.
Développez Fichiers plats, faites un clic droit sur un format et cliquez sur Modifier.
L'Editeur de format de fichier s'ouvre.
3.
Sous les propriétés Erreur de traitement, cliquez sur Oui pour l'une des propriétés Capturer les
erreurs de conversion des données ou Capturer les erreurs de format de lignes, ou pour les deux.
4.
Pour l'optionEcrire les lignes d'erreur dans le fichier, cliquez sur Oui.
Deux champs supplémentaires apparaissent : Répertoire racine du fichier d'erreur et Nom du fichier d'erreur.
5.
Saisissez un Répertoire racine du fichier d'erreur dans lequel stocker le fichier d'erreur.
Si vous saisissez un chemin d'accès à un répertoire à cet endroit, saisissez alors uniquement le nom du fichier dans la propriété Nom du fichier d'erreur.
6.
Saisissez un Nom du fichier d'erreur.
Si vous laissez le champ Répertoire racine du fichier d'erreur vide, saisissez alors un chemin complet et le nom du fichier à cet endroit.
7.
Cliquez sur Enregistrer ou Enregistrer et fermer.
Pour plus de flexibilité lors du nommage du fichier d'erreur, il est possible de saisir une variable qui est définie pour un fichier particulier avec un nom de chemin complet. Utilisez des variables pour spécifier des noms de fichier que vous ne pouvez pas saisir autrement, comme ceux qui contiennent des caractères multioctets
6.5.7.3.3 Limiter le nombre de lignes non valides traitées avant l'arrêt du job
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Formats.
2.
Développez Fichiers plats, faites un clic droit sur un format et cliquez sur Modifier.
L'Editeur de format de fichier s'ouvre.
145 2012-11-22
Formats de fichier
3.
Sous les propriétés Erreur de traitement, cliquez sur Oui pour l'une des propriétés Capturer les
erreurs de conversion des données ou Capturer les erreurs de format de lignes, ou pour les deux.
4.
Pour l'option Nombre maximum d'erreurs avant l'arrêt du job, saisissez un nombre.
Remarque :
Cette propriété était anciennement connue comme la Limite des lignes incorrectes.
5.
Cliquez sur Enregistrer ou Enregistrer et fermer.
6.5.7.3.4 Enregistrer les avertissements de conversion des types de données dans le journal des erreurs
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Formats.
2.
Développez Fichiers plats, faites un clic droit sur un format et cliquez sur Modifier.
L'Editeur de format de fichier s'ouvre.
3.
Sous les propriétés Erreur de traitement, pour Journaliser les avertissements de conversion
des données, cliquez sur Oui.
4.
Cliquez sur Enregistrer ou Enregistrer et fermer.
6.5.7.3.5 Enregistrer des avertissements de format de lignes dans le journal des erreurs
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Formats.
2.
Développez Fichiers plats, faites un clic droit sur un format et cliquez sur Modifier.
L'Editeur de format de fichier s'ouvre.
3.
Sous les propriétés Erreur de traitement, pour Journaliser les avertissements de format de
lignes, cliquez sur Oui.
4.
Cliquez sur Enregistrer ou Enregistrer et fermer.
6.5.7.3.6 Limiter le nombre de messages d'avertissement à enregistrer
Si vous choisissez d'enregistrer les avertissements des types de données ou de format de lignes, vous pouvez limiter le nombre total d'avertissements à enregistrer sans interférer avec l'exécution du job.
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Formats.
2.
Développez Fichiers plats, faites un clic droit sur un format et cliquez sur Modifier.
L'Editeur de format de fichier s'ouvre.
3.
Sous les propriétés Erreur de traitement, pour Journaliser les avertissements de format de
lignes ou Journaliser les avertissements de conversion des données (ou les deux), cliquez sur
Oui.
4.
Pour l'option Nombre maximum d'avertissements dans le journal, saisissez un nombre.
5.
Cliquez sur Enregistrer ou Enregistrer et fermer.
146 2012-11-22
Formats de fichier
6.6 Transferts de fichiers
Le logiciel peut lire et charger les fichiers à l'aide d'un programme de transfert de fichier tiers pour les fichiers plats. Il est possible d'utiliser des programmes de transfert tiers (personnalisés) pour :
• Incorporer des applications de transfert de fichiers de standards de société comme une partie de l'exécution d'un job de logiciel.
• Fournir une grande flexibilité et une sécurité élevée pour les fichiers transférés par un pare-feu.
L'option de programme de transfert personnalisé permet de spécifier :
• Un programme de transfert personnalisé (appelé durant l'exécution d'un job)
• Des arguments supplémentaires, en fonction de ce qui est disponible dans votre programme, tels que :
• Des données de connexion
• Des mécanismes de cryptage/décryptage
• Des mécanismes de compression
6.6.1 Variables de système de transfert personnalisé pour les fichiers plats
Lorsque vous définissez des options de transfert personnalisé pour des cibles et des sources de fichiers externes, certaines informations de transfert, comme le nom du serveur distant à partir duquel ou vers lequel le fichier est transféré, peuvent avoir besoin d'être saisies littéralement comme argument de programme de transfert. Vous pouvez saisir d'autres informations à l'aide des variables de système suivantes :
Données saisies pour :
Sont remplacées par cette variable si cette option a
été définie dans le champ Argument
Nom d'utilisateur $AW_USER
Mot de passe
Répertoire local
Fichier(s)
$AW_PASSWORD
$AW_LOCAL_DIR
$AW_FILE_NAME
147 2012-11-22
Formats de fichier
Avec l'utilisation de ces variables comme des arguments de programme de transfert personnalisé, il est possible de collecter les informations de connexion saisies dans le logiciel et d'utiliser ces données au moment de l'exécution avec votre programme de transfert personnalisé.
Par exemple, les options de transfert personnalisé suivantes utilisent un fichier de commande Windows
(Myftp.cmd) avec cinq arguments. Les arguments 1 à 4 sont des variables de système :
• Les variables Utilisateur et Mot de passe sont pour le serveur externe
• La variable Répertoire local est pour l'emplacement dans lequel les fichiers transférés sont stockés dans le logiciel
• La variable Nom du fichier est pour les noms des fichiers à transférer
L'argument 5 fournit le nom littéral du serveur externe.
Remarque :
Si vous ne spécifiez pas un fichier de sortie standard (comme ftp.out dans l'exemple ci-dessous), le logiciel écrit la sortie standard dans le journal de suivi du job.
@echo off set USER=%1 set PASSWORD=%2 set LOCAL_DIR=%3 set FILE_NAME=%4 set LITERAL_HOST_NAME=%5 set INP_FILE=ftp.inp
echo %USER%>%INP_FILE% echo %PASSWORD%>>%INP_FILE% echo lcd %LOCAL_DIR%>>%INP_FILE% echo get %FILE_NAME%>>%INP_FILE% echo bye>>%INP_FILE% ftp -s%INPT_FILE% %LITERAL_HOST_NAME%>ftp.out
6.6.2 Options de transfert personnalisé pour les fichiers plats
Dans les options de programme de transfert personnalisé, seule l'option Exécutable de programme est obligatoire.
La saisie des valeurs de Nom d'utilisateur, Mot de passe et Arguments est facultative. Ces options sont fournies pour que vous indiquiez des arguments qui peuvent être traités par le programme de transfert personnalisé (comme les données de connexion).
Il est également possible d'utiliser Arguments pour activer ou désactiver les fonctionnalités intégrées dans le programme telles que les mécanismes de cryptage/décryptage et de compression. Par exemple, vous pouvez concevoir le programme de transfert de manière à ce que lorsque vous saisissez -sSe cureTransportOn ou -CCompressionYES, la sécurité ou la compression soient activées.
148 2012-11-22
Formats de fichier
Remarque :
Les arguments disponibles dépendent de ce qui est inclus dans le programme de transfert personnalisé.
Consultez la documentation du programme de transfert personnalisé pour une liste des arguments valides.
Il est possible d'utiliser la case Arguments pour saisir un nom d'utilisateur et un mot de passe.
Cependant, le logiciel fournit également des cases séparées Nom d'utilisateur et Mot de passe. En saisissant les variables $AW_USER et $AW_PASSWORD comme des Arguments puis en utilisant les cases Utilisateur et Mot de passe pour saisir des chaînes littérales, ces cases supplémentaires sont utiles de deux manières :
• Vous pouvez mettre plus facilement à jour les utilisateurs et les mots de passe dans le logiciel lorsque vous configurez le logiciel pour utiliser un programme de transfert, et lorsque vous exportez par la suite le job. Par exemple, lorsque vous migrez le job vers un autre environnement, il est possible que vous souhaitiez changer les informations de connexion sans faire défiler les autres arguments.
• Il est possible d'utiliser les propriétés de masque et de cryptage de la case Mot de passe. Les données saisies dans la case Mot de passe sont masquées dans les fichiers journaux et sur l'écran, stockées dans le référentiel, et encryptées par Data Services.
Remarque :
Le logiciel envoie un mot de passe au programme de transfert personnalisé en texte en clair. Si vous n'autorisez pas que les mots de passe en clair soient exposés comme des arguments dans les exécutables de ligne de commande, configurez le programme personnalisé pour :
• Récupérer le mot de passe depuis un emplacement approuvé
• Hériter des privilèges de sécurité du programme qui appelle (dans ce cas, du logiciel)
6.6.3 Paramétrage des options de transfert personnalisé
L'option de transfert personnalisé permet d'utiliser un programme tiers pour transférer les sources et les cibles de fichiers plats. Il est possible de configurer le programme de transfert personnalisé dans la fenêtre Editeur de format de fichier. Comme d'autres paramètres de format de fichier, il est possible de remplacer les paramètres de programme de transfert personnalisé s'ils sont modifiés pour une source ou une cible dans un flux de données en particulier. Il est également possible de modifier l'option de transfert personnalisé lors de l'exportation d'un format de fichier.
6.6.3.1 Configurer un programme de transfert personnalisé dans l'éditeur de format de fichier
1.
Sélectionnez l'onglet Formats dans la bibliothèque d'objets.
149 2012-11-22
Formats de fichier
2.
Faites un clic droit sur Fichiers plats dans l'onglet et sélectionnez Nouveau.
L'Editeur de format de fichier s'ouvre.
3.
Sélectionnez soit le type de fichier Délimitésoit Largeur fixe.
Remarque :
Bien que l'option de programme de transfert personnalisé n'est pas prise en charge par les types de fichier des applications SAP, il est possible de l'utiliser comme une méthode de transport de données pour un flux de donnée SAP ABAP.
4.
Saisissez un nom de format
5.
Sélectionnez Oui pour l'option Programme de transfert personnalisé.
6.
Développez "Transfert personnalisé" et saisissez le nom du programme de transfert personnalisé et les arguments.
7.
Remplissez les autres cases dans la fenêtre de l'éditeur de format de fichier.
Dans la section Fichier(s) de données, indiquez l'emplacement du fichier dans le logiciel.
Pour indiquer des variables de système pour Répertoire racine et Fichier(s) dans la case Arguments :
• Associer la variable de système $AW_LOCAL_DIR avec l'argument du répertoire local du programme de transfert personnalisé.
• Associer la variable de système $AW_FILE_NAME avec l'argument du nom de fichier du programme de transfert personnalisé.
Par exemple, saisissez : -l$AW_LOCAL_DIR\$AW_FILE_NAME
Lorsque le programme exécute, les paramètres Répertoire racine et Fichier(s) sont remplacés par ces variables et lus par le programme de transfert personnalisé.
Remarque :
L'indicateur -1 utilisé dans l'exemple ci-dessus est un indicateur de programme personnalisé. Les arguments que vous pouvez utiliser comme des arguments de programme personnalisé dans le logiciel dépendent de ce qu'attend le programme de transfert personnalisé.
8.
Cliquez sur Enregistrer.
Rubriques associées
• Supplement for SAP : méthode de transfert personnalisé
• Guide de référence : format de fichier
6.6.4 Astuces de conception
Gardez en tête les concepts suivants lors de l'utilisation des options de transfert personnalisé :
150 2012-11-22
Formats de fichier
• Les variables ne sont pas prises en charge dans les noms de fichier lors de l'appel d'un programme de transfert personnalisé pour le fichier.
• Il est uniquement possible de modifier les options du transfert personnalisé dans la fenêtre Editeur de format de fichier (ou Editeur de banque de données dans le cas de l'application SAP) avant qu'elles soient exportées. Il est impossible de modifier les mises à jour des sources et cibles de fichier au niveau du flux de données une fois exportées. Une fois importés, il est possible d'ajuster les paramètres de l'option de transfert personnalisé au niveau du flux de données. Ils remplacent les paramètres au niveau du format de fichier.
Lors de la conception d'un programme de transfert personnalisé pour travailler avec le logiciel, souvenez-vous que :
• Le logiciel s'attend à ce que le programme de transfert appelé renvoie 0 en cas de réussite, et une valeur différente de zéro en cas d'échec.
• Le logiciel fournit des informations de suivi avant et après que le programme de transfert personnalisé exécute. Le programme de transfert complet et ses arguments avec le mot de passe masqué (le cas échéant) sont écrits dans le journal de suivi. Lorsque "Transfert personnalisé exécuté" apparait dans le journal de suivi, le programme de transfert personnalisé est terminé.
• Si le programme de transfert personnalisé termine avec succès (code de retour = 0), le logiciel contrôle les éléments suivants :
• Pour un flux de données ABAP, si le fichier de transport n'existe pas dans le répertoire local, il affiche une erreur et le logiciel s'arrête.
• Pour une source de fichier, si le fichier ou les fichiers à lire par le logiciel n'existent pas dans le répertoire local, le logiciel écrit un message d'avertissement dans le journal de suivi.
• Si le programme de transfert personnalisé affiche une erreur ou que l'exécution échoue (le code de retour n'est pas 0), alors le logiciel produit une erreur avec le code de retour et la sortie stdout/st derr
.
• Si le programme de transfert personnalisé réussit mais produit une sortie standard, le logiciel émet un avertissement, enregistre les premiers 1 000 octets de la sortie produite, et poursuit le traitement.
• Le concepteur du programme de transfert personnalisé doit fournir des arguments d'option valides pour garantir que les fichiers sont transférés vers et depuis le répertoire local (spécifié dans le logiciel). Cette opération peut exiger que le fichier distant et le nom du répertoire soient spécifiés comme des arguments puis envoyés à l'interface Designer à l'aide de variables de système.
Rubriques associées
• Supplement for SAP : méthode de transfert personnalisé
6.7 Création des formats de fichier copybook COBOL
Lors de la création d'un format de copybook COBOL, il est possible de :
151 2012-11-22
Formats de fichier
• créer juste le format, puis de configurer la source après avoir ajouté le format à un flux de données, ou
• créer le format et l'associer avec un fichier de données en même temps
Cette section décrit également comment :
• créer des règles pour identifier quels enregistrements représentent quels schémas à l'aide d'une option d'ID de champ
• identifier le champ qui contient la longueur de l'enregistrement du schéma à l'aide d'une option de champ de longueur d'enregistrement
Rubriques associées
• Guide de référence : importer ou modifier les options du format du copybook COBOL
• Guide de référence : options de la source de copybook COBOL
• Guide de référence : types de données, conversion vers ou depuis des types de données internes
6.7.1 Créer un nouveau format de fichier de copybook COBOL
1.
Dans la bibliothèque d'objets locale, cliquez sur l'onglet Formats, faites un clic droit sur Copybook
COBOL et cliquez sur Nouveau.
La fenêtre Importer le copybook COBOL s'ouvre.
2.
Nommez le format en saisissant un nom dans le champ Nom du format .
3.
Sur l'onglet Format pour l'option Nom du fichier, spécifiez le format de fichier du copybook COBOL
à importer, qui porte généralement l'extension .cpy.
Lors de la conception, il est possible de spécifier un fichier de l'une des façons suivantes :
• Pour un fichier situé sur l'ordinateur où Designer s'exécute, vous pouvez utiliser le bouton
Parcourir.
• Pour un fichier localisé sur l'ordinateur où le Job Server est exécuté, vous devez saisir le chemin vers le fichier. Vous pouvez saisir un chemin absolu ou un chemin relatif mais le Job Server doit pouvoir y accéder.
4.
Cliquez sur OK.
Le logiciel ajoute le copybook COBOL à la bibliothèque d'objets.
5.
La boîte de dialogue Nom(s) de schéma du copybook COBOL s'affiche. Si vous le souhaitez, sélectionnez ou double-cliquez sur un nom de schéma pour le renommer.
6.
Cliquez sur OK.
Lorsque vous ajoutez ultérieurement le format à un flux de données, vous pouvez utiliser les options dans l'éditeur de source pour définir les sources.
152 2012-11-22
Formats de fichier
Rubriques associées
• Guide de référence : options de la source de copybook COBOL
6.7.2 Créer un nouveau format de fichier de copybook COBOL et un fichier de données
1.
Dans la bibliothèque d'objets locale, cliquez sur l'onglet Formats, faites un clic droit sur Copybook
COBOL et cliquez sur Nouveau.
La fenêtre Importer le copybook COBOL s'ouvre.
2.
Nommez le format en saisissant un nom dans le champ Nom du format .
3.
Sur l'onglet Format pour l'option Nom du fichier, spécifiez le format de fichier du copybook COBOL
à importer, qui porte généralement l'extension .cpy.
Lors de la conception, il est possible de spécifier un fichier de l'une des façons suivantes :
• Pour un fichier situé sur l'ordinateur où Designer s'exécute, vous pouvez utiliser le bouton
Parcourir.
• Pour un fichier localisé sur l'ordinateur où le Job Server est exécuté, vous devez saisir le chemin vers le fichier. Vous pouvez saisir un chemin absolu ou un chemin relatif mais le Job Server doit pouvoir y accéder.
4.
Cliquez sur l'onglet Fichier de données.
5.
Pour l'option Répertoire, saisissez ou naviguez vers le répertoire qui contient le fichier de données du copybook COBOL à importer.
Si vous incluez un chemin d'accès à un répertoire à cet endroit, saisissez alors uniquement le nom du fichier dans le champ Nom.
6.
Indiquez le Nom du fichier de données du copybook COBOL.
Si vous laissez le champ Répertoire vide, saisissez alors un chemin complet et le nom du fichier à cet endroit.
Lors de la conception, il est possible de spécifier un fichier de l'une des façons suivantes :
• Pour un fichier situé sur l'ordinateur où Designer s'exécute, vous pouvez utiliser le bouton
Parcourir.
• Pour un fichier localisé sur l'ordinateur où le Job Server est exécuté, vous devez saisir le chemin vers le fichier. Vous pouvez saisir un chemin absolu ou un chemin relatif mais le Job Server doit pouvoir y accéder.
7.
Si un fichier de données n'est pas sur le même ordinateur que le Job Server, cliquez sur l'onglet
Accès aux données. Sélectionnez FTP ou Personnalisé puis saisissez les critères pour l'accès au fichier de données.
8.
Cliquez sur OK.
153 2012-11-22
Formats de fichier
9.
La boîte de dialogue Nom(s) de schéma du copybook COBOL s'affiche. Si vous le souhaitez, sélectionnez ou double-cliquez sur un nom de schéma pour le renommer.
10.
Cliquez sur OK.
L'onglet ID de champ permet de créer des règles pour identifier quels enregistrements représentent quel schéma.
Rubriques associées
• Guide de référence : importer ou modifier les options du format du copybook COBOL
6.7.3 Créer des règles pour identifier quels enregistrements représentent quels schémas
1.
Dans la bibliothèque d'objets locale, cliquez sur l'onglet Formats, faites un clic droit sur Copybook
COBOL et cliquez sur Modifier.
La fenêtre Modifier le copybook COBOL s'ouvre.
2.
Dans le volet supérieur, sélectionnez un champ pour représenter le schéma.
3.
Cliquez sur l'onglet ID de champ.
4.
Sur l'onglet ID de champ, sélectionnez la case à cocher Utiliser le champ <nom du schéma. nom
du fichier> comme ID.
5.
Cliquez sur Insérer en dessous pour ajouter une valeur éditable à la liste Valeurs.
6.
Saisissez une valeur pour le champ.
7.
Continuez à insérer (ajouter) les valeurs si nécessaire.
8.
Sélectionnez les champs supplémentaires et insérez des valeurs si nécessaire.
9.
Cliquez sur OK.
6.7.4 Identifier le champ qui contient la longueur de l'enregistrement du schéma
1.
Dans la bibliothèque d'objets locale, cliquez sur l'onglet Formats, faites un clic droit sur Copybook
COBOL et cliquez sur Modifier.
La fenêtre Modifier le copybook COBOL s'ouvre.
2.
Cliquez sur l'onglet Champ de longueur d'enregistrement.
3.
Pour le schéma à modifier, cliquez sur sa colonne Champ de longueur d'enregistrement pour activer un menu déroulant.
4.
Sélectionnez le champ (un par schéma) qui contient la longueur d'enregistrement.
154 2012-11-22
Formats de fichier
La valeur de décalage est automatiquement remplacée par la valeur par défaut, 4 ; cependant, vous pouvez la modifier avec une autre valeur numérique. Le décalage est la valeur obtenue dans la longueur d'enregistrement totale lorsqu'elle est ajoutée à la valeur dans le champ Longueur d'enregistrement.
5.
Cliquez sur OK.
6.8 Création des formats de classeur Microsoft Excel sur les plateformes UNIX
Cette section décrit comment utiliser un classeur Microsoft Excel comme une source avec un Job Server sur une plateforme UNIS.
Pour créer des formats de classeur Microsoft Excel sur Windows, consultez le
Guide de référence.
Pour accéder au classeur, vous devez créer et configurer une instance d'adaptateur dans l'Administrateur.
La procédure suivante offre une vue d'ensemble du processus de configuration. Pour plus de détails sur la création d'adaptateurs, consultez le
Guide de la Console de gestion.
Pensez également aux conditions suivantes :
• Pour importer le classeur, il doit être disponible sur un système de fichier Windows. Il est possible de modifier par la suite l'emplacement du fichier actuel à utiliser pour le traitement dans l'éditeur de source du format de classeur Excel. Consultez le Guide de référence.
• Pour réimporter ou afficher les données dans Designer, le fichier doit être disponible sous Windows.
• Les entrées dans le fichier du journal des erreurs peuvent être représentées numériquement pour les champs de date et d'heure.
De plus, Data Services écrit les enregistrements avec les erreurs vers la sortie (dans Windows, ces enregistrements sont ignorés).
Rubriques associées
• Guide de référence : format de classeur Excel
• Guide Management Console Guide : adaptateurs
• Guide de référence : options de la source de classeur Excel
6.8.1 Créer un format de classeur Microsoft sur UNIX
1.
A l'aide du Gestionnaire de serveurs (<REP_LIEN>/bin/svrcfg), vérifiez que le Job Server UNIX peut prendre en charge les adaptateurs. Consultez le Guide d'installation pour UNIX.
2.
Assurez-vous qu'un référentiel associé au Job Server est enregistré dans la CMC (Central
Management Console). Pour enregistrer un référentiel dans le CMC, consultez le Guide d'administration.
155 2012-11-22
Formats de fichier
3.
Dans l'Administrateur, ajoutez un adaptateur pour accéder aux classeurs Excel. Voir le guide
Management Console Guide.
Il est possible de configurer seulement un adaptateur Excel par Job Server. Utilisez les options suivantes :
• Sur l'onglet Statut, cliquez sur l'adaptateur du job server à droite pour le configurer.
• Sur l'onglet Configuration de l'adaptateur de la page Instances de l'adaptateur, cliquez sur Ajouter.
• Sur l'onglet Configuration de l'adaptateur, saisissez le Nom de l'instance de l'adaptateur.
Saisissez BOExcelAdapter (requis et sensible à la casse).
Vous pouvez laisser toutes les options sur leur valeur par défaut sauf s'il s'agit d'un traitement de fichiers supérieur à 1 MB. Dans ce cas, remplacez la valeur dans Options supplémentaires du programme de lancement Java par -Xms64m -Xmx512 ou -Xms128m -Xmx1024m (la valeur par défaut est Xms64m -Xmx256m). Notez que la gestion de la mémoire Java peut empêcher le traitement de fichiers très volumineux (ou de plusieurs fichiers plus petits).
4.
Depuis l'onglet Administrateur > Adaptateur > Statut de l'instance de l'adaptateur, lancez l'adaptateur.
5.
Dans Designer, onglet "Formats"de la bibliothèque d'objets, créez le format de fichier en important le classeur Excel. Pour plus de détails, consultez le
Guide de référence.
Rubriques associées
• Guide d'administration : enregistrer un référentiel dans le CMC
• Guide Management Console Guide : ajout et configuration d'instances de l'adaptateur
• Guide de référence : format de classeur Excel
6.9 Création de formats de fichier de journal Web
Les journaux Web sont des fichiers plats générés par les serveurs Web et qui sont utilisés pour Business
Intelligence. Les journaux Web suivent généralement les détails des accès au site Web tels que :
• Les noms de domaine du client ou les adresses IP
• Les noms d'utilisateur
• Les horodatages
• Les actions demandées (peut inclure la chaîne de recherche)
• Les octets transférés
• L'adresse en référence
• L'ID de témoin de connexion en charge
Les journaux Web utilisent un format de fichier commun et un format de fichier commun étendu.
156 2012-11-22
Formats de fichier
Format de journal Web commun :
151.99.190.27 - - [01/Jan/1997:13:06:51 -0600]
"GET /~bacuslab HTTP/1.0" 301 -4
Format de journal Web commun étendu : saturn5.cun.com - - [25/JUN/1998:11:19:58 -0500]
"GET /wew/js/mouseover.html HTTP/1.0" 200 1936
"http://av.yahoo.com/bin/query?p=mouse+over+javascript+source+code&hc=0"
"Mozilla/4.02 [en] (x11; U; SunOS 5.6 sun4m)"
Le logiciel prend en charge les formats de journal Web commun et commun étendu comme des sources.
L'éditeur de format de fichier prend également en charge les éléments suivants :
• Un tiret comme un indicateur de valeur nulle
• Le fuseau horaire dans le format date-heure, par exemple 01/Jan/1997:13:06:51 –0600
Le logiciel inclut plusieurs fonctions pour le traitement des données du journal Web :
• Fonction word_ext
• Fonction concat_data_time
• Fonction WL_GetKeyValue
Rubriques associées
•
•
•
6.9.1 Fonction word_ext
word_ext est une fonction de chaîne qui étend la fonction de mot en renvoyant le mot identifié par sa position dans une chaîne délimitée. Cette fonction est utile pour l'analyse des noms de fichier ou d'URL.
Format
word_ext(string, word_number, separator(s))
Un nombre de mot négatif signifie qu'il faut compter de droite à gauche
Exemples
word_ext('www.bodi.com', 2, '.') renvoie 'bodi'.
word_ext('www.cs.wisc.edu', -2, '.') renvoie 'wisc'.
word_ext('www.cs.wisc.edu', 5, '.') renvoieNULL.
word_ext('aaa+=bbb+=ccc+zz=dd', 4, '+=') renvoie 'zz'. Si deux séparateurs sont spécifiés
(+=), la fonction recherche l'un ou l'autre.
word_ext(',,,,,aaa,,,,bb,,,c ', 2, '.') renvoie 'bb'. Cette fonction ignore les séparateurs consécutifs.
157 2012-11-22
Formats de fichier
6.9.2 Fonction concat_date_time
concat_date_time est une fonction de date qui renvoie l'horodatage à partir d'entrées distinctes de date et d'heure.
Format
concat_date_time(date, time)
Exemple
concat_date_time(MS40."date",MS40."time")
6.9.3 Fonction WL_GetKeyValue
WL_GetKeyValue est une fonction personnalisée (écrite en langage de script) qui renvoie les valeurs d'un mot clé donné. Elle est utile pour l'analyse des chaînes de recherche.
Format
WL_GetKeyValue(string, keyword)
Exemple
Une recherche sur Google pour bodi B2B est enregistré dans un journal Web comme :
GET "http://www.google.com/search?hl=en&lr=&safe=off&q=bodi+B2B&btnG=Google+Search"
WL_GetKeyValue('http://www.google.com/search?hl=en&lr=&safe=off&q=bodi+B2B&btnG=Google+Search','q') returns
'bodi+B2B'.
6.10 Formats de fichier non structurés
Les formats de fichier non structurés sont un type de format de fichier plat. Pour les créer, consultez
Création de formats de fichier
.
Pour lire les fichiers qui contiennent du contenu non structuré, créez un format de fichier comme une source qui lit un ou plusieurs fichier(s) à partir d'un référentiel. Lors de l'exécution, l'objet source dans le flux de données produit une ligne par fichier et contient une référence à chaque fichier pour accéder
à son contenu. Dans le flux de données, vous pouvez utiliser une transformation de traitement des données de texte telle que Entity Extraction pour traiter le texte non structuré ou utiliser une autre transformation pour manipuler les données.
Les types de format de fichier non structurés incluent :
158 2012-11-22
Formats de fichier
• Texte non structuré : Utilisez ce format pour traiter un répertoire de fichiers texte incluant :
• tester
• HTML
• XML
Data Services enregistre le contenu de chaque fichier à l'aide du type de données Long.
• Binaire non structuré : utilisez ce format pour lire les documents binaires. Data Services enregistre le contenu de chaque fichier à l'aide du type de données Blob.
• Il est possible de traiter une variété de formats de documents en obtenant votre entrée à partir d'une variété de fichiers au format binaire, puis en transmettant cet objet BLOB à la transformation
Traitement des données de texte. De cette manière, les formats suivants sont acceptés :
• Microsoft Word : 2003, 2007 et 2010 (Office Open XML)
• Microsoft PowerPoint : 2003, 2007 et 2010
• Microsoft Excel : 2003, 2007 et 2010
• Adobe PDF : 1.3 – 1.7
• Microsoft RTF : 1.8 et 1.9.1
• Microsoft Outlook E-mail Message : 2003, 2007, 2010
• Message électronique généré : fichiers ".eml"
• Texte Open Document, feuille de calcul et présentation : 1.0, 1.1, 1.2
• Corel WordPerfect : 6.0 (1993) – X5 (2010)
• Vous pouvez également utiliser le format de fichier binaire non structuré pour déplacer un répertoire de fichiers graphiques sur le disque vers une table de base de données. Supposons que vous souhaitez associer des photos d'employés avec les données d'employés correspondantes qui sont stockées dans une base de données. Le flux de données inclurait la source du format de fichier binaire non structuré, une transformation Query qui associe la photo de l'employé avec les données de l'employé à l'aide du numéro d'ID de l'employée par exemple, et la table cible de base de données.
Rubriques associées
• Guide de référence : création de formats de fichier
• Guide de référence : objets, format de fichier
•
Présentation du Traitement des données de texte
159 2012-11-22
Formats de fichier
160 2012-11-22
Flux de données
Flux de données
Cette section décrit les fondements des flux de données, y compris les objets de flux de données, l'utilisation des recherches, l'exécution de flux de données et les audits.
7.1 Qu'est-ce qu'un flux de données ?
Les flux de données extraient, transforment et chargent les données. Tout ce qui a trait aux données, y compris la lecture des sources, la transformation des données et le chargement des cibles, se produit dans un flux de données. Les lignes qui connectent les objets dans un flux de données représentent le flux des données durant les étapes de transformation des données.
Après avoir défini un flux de données, il est possible de l'ajouter à un job ou à un workflow. A l'intérieur d'un workflow, un flux de données peut envoyer et recevoir des informations vers et depuis d'autres objets grâce aux paramètres d'entrée et de sortie.
7.1.1 Dénomination des flux de données
Les noms des flux de données peuvent inclure des caractères alphanumériques et des tirets de soulignement (_). Il ne peuvent pas contenir d'espace vide.
7.1.2 Exemple d'un flux de données
161 2012-11-22
Flux de données
Supposons que vous souhaitez renseigner la table des faits de votre entrepôt de données avec de nouvelles données à partir de deux tables contenues dans la base de données de transaction source.
Le flux de données comporte les éléments suivants :
• Deux tables sources
• Une jointure entre ces tables, définie dans une transformation Query
• Une table cible où les nouvelles lignes sont placées
Vous indiquez le flux des données par ces composants en les connectant dans l'ordre dans lequel les données se déplacent dans ces derniers. Le flux de données obtenu ressemble à l'image ci-dessous :
7.1.3 Etapes dans un flux de données
Chaque icône que vous placez dans le diagramme de flux de données devient une étape dans le flux de données. Il est possible d'utiliser les objets suivants comme des étapes dans un flux de données :
• source
• cible
• transformations
Les connexions que vous établissez entre les icônes déterminent l'ordre dans lequel le logiciel achève les étapes.
Rubriques associées
•
•
7.1.4 Les flux de données comme des étapes dans les workflows
162 2012-11-22
Flux de données
Les flux de données sont des opérations fermées, même lorsqu'ils sont des étapes dans un workflow.
Les jeux de données créés dans un flux de données ne sont pas disponibles pour les autres étapes dans le workflow.
Un workflow n'opère pas sur les jeux de données et ne peut pas fournir plus de données à un flux de données ; cependant, un worflow peut réaliser les opérations suivantes :
• Appeler les flux de données pour effectuer les opérations de mouvement des données
• Définir les conditions appropriées pour exécuter les flux de données
• Transmettre les paramètres vers et depuis les flux de données
7.1.5 Jeux de données intermédiaires dans un flux de données
Chaque étape dans un flux de données, jusqu'à la définition de cible, produit un résultat intermédiaire
(par exemple, les résultats d'une instruction SQL contenant une clause WHERE), qui se déplace vers l'étape suivante d'un flux de données. Le résultat intermédiaire comporte un ensemble de lignes de l'opération précédente et le schéma dans lequel les lignes sont organisées. Ce résultat est appelé un jeu de données. Ce jeu de données peut, à son tour, être davantage "filtré" et dirigé dans un autre jeu de données.
7.1.6 Codes d'opération
Chaque ligne dans un jeu de données est marquée d'un code d'opération qui identifie le statut de la ligne. Les codes d'opération sont comme suit :
163 2012-11-22
Flux de données
Code d'opération
NORMAL
INSERT
DELETE
UPDATE
Description
Crée une nouvelle ligne dans la cible.
Toutes les lignes dans un jeu de données sont marquées d'un indicateur NORMAL lorsqu'elles sont extraites d'une source. Si une ligne est marquée d'un indicateur
NORMAL lorsqu'elle est chargée dans une cible, elle est insérée comme une nouvelle ligne dans la cible.
Crée une nouvelle ligne dans la cible.
Les lignes peuvent être marquées d'un indicateur INSERT par les transformations dans le flux de données pour indiquer qu'une modification a eu lieu dans un jeu de données, par rapport à une image plus ancienne du même jeu de données.
La modification est enregistrée dans la cible séparément à partir des données existantes.
Ignoré par la cible. Les lignes marquées d'un indicateur DELETE ne sont pas chargées.
Les lignes peuvent être marquées d'un indicateur DELETE uniquement par la transformation Map_Operation.
Remplace une ligne existante dans la cible.
Les lignes peuvent être marquées d'un indicateur UPDATE par les transformations dans le flux de données pour indiquer qu'une modification a eu lieu dans un jeu de données, par rapport à une image plus ancienne du même jeu de données.
La modification est enregistrée dans la cible dans la même ligne que les données existantes.
7.1.7 Transfert des paramètres vers les flux de données
Les données ne circulent pas en dehors d'un flux de données, même lorsque vous ajoutez un flux de données à un workflow. Néanmoins, il est possible de transmettre des paramètres vers et depuis un flux de données. Les paramètres évaluent les valeurs individuelles plutôt que les ensembles de valeurs.
Lorsqu'un flux de données reçoit des paramètres, les étapes à l'intérieur du flux de données peuvent faire référence à ces paramètres comme des variables.
Les paramètres rendent les définitions de flux de donnés plus flexibles. Par exemple, un paramètre peut indiquer la dernière fois qu'une table des faits a été mise à jour. Il est possible d'utiliser cette valeur dans un flux de données pour extraire uniquement les lignes modifiées depuis la dernière mise à jour.
164 2012-11-22
Flux de données
Le schéma ci-dessous indique le paramètre last_update utilisé dans une requête pour déterminer le jeu de données utilisé pour charger la table des faits.
Rubriques associées
•
7.2 Création et définition des flux de données
Il est possible de créer des flux de données à l'aide d'objets de
• la bibliothèque d'objets
• la palette d'outils
Après avoir créé un flux de données, il est possible de modifier ses propriétés.
Rubriques associées
•
Modifier les propriétés d'un flux de données
7.2.1 Définir un nouveau flux de données à l'aide de la bibliothèque d'objets
1.
Dans la bibliothèque d'objets, accédez à l'onglet Flux de données.
2.
Sélectionnez la catégorie de flux de données, faites un clic droit et sélectionnez Nouveau.
3.
Sélectionnez le nouveau flux de données.
4.
Faites glisser le flux de données dans l'espace de travail pour un job ou un workflow.
5.
Ajoutez les sources, les transformations et les cibles dont vous avez besoin.
7.2.2 Définir un nouveau flux de données à l'aide de la palette d'outils
165 2012-11-22
Flux de données
1.
Sélectionnez l'icône du flux de données dans la palette d'outils.
2.
Cliquez sur l'espace de travail pour un job ou un workflow pour placer le flux de données.
Il est possible d'ajouter des flux de données à un job batch ou à un job en temps réel. Lorsque vous faites glisser une icône de flux de données dans un job, vous dites au logiciel de valider ces objets en fonction des conditions du type de job (batch ou en temps réel).
3.
Ajoutez les sources, les transformations et les cibles dont vous avez besoin.
7.2.3 Modifier les propriétés d'un flux de données
1.
Faites un clic droit sur le flux de données et sélectionnez Propriétés.
La fenêtre Propriétés s'ouvre pour le flux de données.
2.
Modifiez les propriétés souhaitées d'un flux de données.
3.
Cliquez sur OK.
Cette table décrit les différentes propriétés qu'il est possible de définir pour le flux de données.
166 2012-11-22
Flux de données
Option
Exécuter une seule fois
Utiliser les liens de base de données
Les liens de base de données sont des chemins de communication entre un serveur de base de données et un autre. Les liens de base de données permettent aux utilisateurs locaux d'accéder à des données sur une base de données distante, qui peut se trouver sur l'ordinateur local ou distant, du même type de base de données ou d'un type différent.
Degré de parallélisme
Description
Lorsque vous indiquez qu'un flux de données doit être exécuté une seule fois, un job batch ne ré-exécutera jamais ce flux de données après qu'il ait terminé avec succès, sauf si le flux de données est contenu dans un workflow qui est une unité de restauration qui ré-exécute et qui n'a pas terminé avec succès ailleurs en dehors de l'unité de restauration. Il est recommandé de ne pas marquer un flux de données
à Exécuter une seule fois si un workflow parent est une unité de restauration.
Type de cache
Le degré de parallélisme (DOP) est une propriété d'un flux de données qui définit le nombre de fois que chaque transformation dans un flux de données réplique pour traiter un sous-ensemble parallèle de données.
Il est possible de cacher les données pour améliorer la performance des opérations telles que les jointures, les groupements, les tris, les filtrages, les recherches et les comparaisons de table. Il est possible de sélectionner l'une des valeurs suivantes pour l'option Type de cache dans la fenêtre de Propriétés du flux de données :
• En mémoire : sélectionnez cette valeur si le flux de données traite une petite quantité de données qui peuvent être contenues dans la mémoire disponible.
• Paginable : cette valeur est celle par défaut.
Rubriques associées
• Guide d'optimisation de la performance : maximisation des opérations poussées vers le bas, prise en charge des liens de base de données pour les opérations poussées vers le bas dans les banques de données.
• Guide d'optimisation de la performance : utilisation d'exécution parallèle, degré de parallélisme
• Guide d'optimisation de la performance : Utilisations de caches
• Guide de référence : objets, flux de données
7.3 Objets sources et cibles
167 2012-11-22
Flux de données
Un flux de données lit et charge directements les données à l'aide de deux types d'objets :
Objets sources : définissent les sources à partir desquelles vous lisez les données
Objets cibles : définissent les cibles vers lesquelles vous écrivez (ou chargez) les données
Rubriques associées
•
•
7.3.1 Objets sources
Les objets sources représentent les sources de données lues à partir des flux de données.
Objet source
Table
Table de modèle
Fichier
Document
Fichier XML
Message XML
Description
Un fichier mis en forme avec des colonnes et des lignes tel qu'utilisé dans les bases de données relationnelles.
Une table de modèle créée et enregistrée dans un autre flux de données (utilisée pour le développement).
Accès au logiciel
Direct ou par un adaptateur
Direct
Un fichier plat délimité ou de largeur fixe
Un fichier avec un format spécifique à l'application (non accessible en lecture par les analyseurs SQL ou XML)
Direct
Par adaptateur
Un fichier mis en forme avec les balises XML
Utilisé comme une source dans les jobs en temps réel.
Direct
Direct
Il est également possible d'utiliser des messages IDoc comme des sources en temps réel pour les applications SAP.
Rubriques associées
•
•
Objets source et cible en temps réel
• Supplément pour SAP : sources IDoc dans des jobs en temps réel
7.3.2 Objets cibles
168 2012-11-22
Flux de données
Les objets cibles représentent les cibles de données vers lesquelles il est possible d'écrire dans des flux de données.
Objet cible
Table
Description
Un fichier mis en forme avec des colonnes et des lignes tel qu'utilisé dans les bases de données relationnelles.
Accès au logiciel
Direct ou par un adaptateur
Table de modèle
Fichier
Document
Une table dont le format est basé sur la sortie de la transformation précédente (utilisé pour le développement)
Un fichier plat délimité ou de largeur fixe
Direct
Direct
Un fichier avec un format spécifique à l'application (non accessible en lecture par les analyseurs SQL ou XML)
Un fichier mis en forme avec les balises XML
Par adaptateur
Direct Fichier XML
Fichier modèle XML
Message XML
Un fichier XML dont le format est basé sur la sortie de la transformation précédente (utilisé pour le développement, essentiellement pour déboguer les flux de données)
Voir
Objets source et cible en temps réel
Direct
Message sortant
Voir
Objets source et cible en temps réel
Il est également possible d'utiliser des messages IDoc comme des sources en temps réel pour les applications SAP.
Rubriques associées
• Supplément pour SAP : cibles IDoc dans des jobs en temps réel
7.3.3 Ajout d'objets sources ou cibles aux flux de données
Remplissez les conditions préalables suivantes avant d'utiliser un objet source ou cible dans un flux de données :
Pour Condition préalable
Tables accédées directement à partir d'une base de données
Définir une banque de données d'une base de données et importer les métadonnées de table.
169 2012-11-22
Flux de données
Pour
Tables de modèle
Fichiers
Fichiers et messages XML
Objets accédés par un adaptateur
Rubriques associées
•
Banques de données de bases de données
•
•
•
Importer un format de schéma XML ou DTD
•
Banques de données de l'adaptateur
Condition préalable
Définir une banque de données d'une base de données.
Définir un format de fichier et importer le fichier.
Importer un format de fichier XML
Définir une banque de données de l'adaptateur et importer les métadonnées de l'objet.
7.3.3.1 Ajouter un objet source ou cible dans un flux de données
1.
Ouvrez le flux de données dans lequel vous souhaitez placer l'objet.
2.
Si la bibliothèque d'objets n'est pas déjà ouverte, sélectionnez Outils > Bibliothèques d'objets pour l'ouvrir.
3.
Sélectionnez l'onglet de la bibliothèque d'objets approprié : sélectionnez l'onglet Formats pour les fichiers plats, les DTD ou les schémas XML, ou sélectionnez l'onglet Banques de données pour les bases de données et les objets adaptateurs.
4.
Sélectionnez l'objet que vous souhaitez ajouter comme une cible ou une source. (Développez les listes réduites en cliquant sur le signe plus à côté d'une icône conteneur.)
Pour une nouvelle table de modèle, sélectionnez l'icône Table de modèle dans la palette d'outils.
Pour un nouveau fichier XML modèle, sélectionnez l'icône Modèle XML dans la palette d'outils.
5.
Déplacez l'objet dans l'espace de travail.
6.
Pour les objets qui peuvent être soit sources soit cibles, un menu pop-up apparait lorsque vous relâchez le curseur. Sélectionnez le type d'objet à réaliser.
170 2012-11-22
Flux de données
Pour les nouvelles tables de modèle et les nouveaux fichiers XML modèle, une deuxième fenêtre apparait lorsque vous relâchez le curseur. Saisissez les informations requises pour le nouvel objet modèle. Les noms peuvent inclure des caractères alphanumériques et des tirets de soulignement
(_). Les tables de modèle ne peuvent pas avoir le même nom qu'une table existante dans une banque de données.
7.
L'objet source ou cible apparait dans l'espace de travail.
8.
Cliquez sur le nom de l'objet dans l'espace de travail
Le logiciel ouvre l'éditeur pour l'objet. Définissez les options requises pour l'objet.
Remarque :
Assurez-vous que les fichiers qui font référence aux formats du fichier plat, DTD ou du schéma XML sont accessibles depuis le Job Server où le job est exécuté et indiquez l'emplacement du fichier relatif
à cet ordinateur.
7.3.4 Tables de modèle
Lors de la conception initiale d'une application, il est possible que vous trouviez pratique d'utiliser des tables de modèle pour représenter les tables de base de données. Avec les tables de modèle, vous ne devez pas créer au départ une nouvelle table dans votre système de gestion de base de données ni importer les métadonnées dans le logiciel. A la place, le logiciel crée automatiquement la table dans la base de données avec le schéma défini par le flux de données lors de l'exécution d'un job.
Après la création d'une table de modèle comme cible dans un flux de données, il est possible de l'utiliser comme une source dans d'autres flux de données. Bien qu'une table de modèle puisse être utilisée comme une table source dans plusieurs flux de données, elle peut être utilisée comme table cible dans un seul flux de données.
Les tables de modèle sont particulièrement utiles au début du développement de l'application lorsque vous concevez et testez un projet. Si vous modifiez et enregistrez l'opération de transformation des données dans le flux de données dans lequel la table de modèle est une cible, le schéma de la table de modèle change automatiquement. Toutes les mises à jour du schéma s'appliquent automatiquement aux autres instances de la table de modèle. Lors du processus de validation, le logiciel vous avertit de toutes les erreurs telles que celles qui découlent de la modification du schéma.
7.3.4.1 Créer une table de modèle cible
1.
Utilisez l'une des méthodes suivantes pour ouvrir la fenêtre Créer un modèle :
• Depuis la palette d'outils :
•
Cliquez sur l'icône de table de modèle.
171 2012-11-22
Flux de données
• Cliquez dans un flux de données pour placer la table de modèle dans l'espace de travail.
• Sur la fenêtre Créer un modèle, sélectionnez une banque de données.
• Depuis la bibliothèque d'objets :
• Développez une banque de données.
• Cliquez sur l'icône de table de modèle et faites-la glisser dans l'espace de travail.
• Depuis la bibliothèque d'objets :
• Développez une banque de données.
• Cliquez sur l'icône de table de modèle et faites-la glisser dans l'espace de travail.
2.
Sur la fenêtre Créer un modèle, saisissez un nom de table.
3.
Cliquez sur OK.
La table apparait dans l'espace de travail comme une icône de table de modèle.
4.
Connectez la table de modèle au flux de données comme une cible (généralement une transformation
Query).
5.
Dans la transformation Query, mappez les colonnes Entrée de schéma que vous souhaitez inclure dans la table cible.
6.
Depuis le menu Projet, sélectionnez Enregistrer.
Dans l'espace de travail, l'icône de la table de modèle est remplacée par une icône de table cible, et la table apparait dans la bibliothèque d'objets sous la liste de la banque de données des tables.
Une fois que vous êtes satisfait de la conception du flux de données, enregistrez-le. Lorsque le job est exécuté, le logiciel utilise la table de modèle pour créer une nouvelle table dans la base de données que vous avez indiquée lors de la création de la table de modèle. Une fois qu'une table de modèle est créée dans la base de données, il est possible de convertir la table de modèle du référentiel en une table régulière.
7.3.5 Conversion des tables de modèle en tables régulières
Vous devez convertir les tables de modèle en tables régulières pour profiter de certaines fonctionnalités comme le chargement par lots. D'autres fonctionnalités, telles que l'exportation d'un objet, sont disponibles pour les tables de modèle.
Remarque :
Une fois qu'une table de modèle est convertie, il n'est plus possible de modifier le schéma.
7.3.5.1 Convertir une table de modèle en une table régulière depuis la bibliothèque d'objets
172 2012-11-22
Flux de données
1.
Ouvrez la bibliothèque d'objets et accédez à l'onglet Banques de données.
2.
Cliquez sur le signe plus (+) à côté de la banque de données qui contient la table de modèle que vous souhaitez convertir.
Une liste d'objets apparait.
3.
Cliquez sur le signe plus (+) à coté de Table de modèle.
La liste des tables de modèle apparait.
4.
Faite un clic droit sur la table de modèle que vous souhaitez convertir et sélectionnez Importer la
table.
Le logiciel convertit la table de données dans le référentiel en une table régulière en l'important de la base de données. Pour mettre à jour l'icône dans tous les flux de données, sélectionnez Afficher
> Actualiser. Dans la bibliothèque d'objets de la banque de données, la table est désormais listée sous Tables au lieu de Tables de modèle.
7.3.5.2 Convertir une table de modèle en une table régulière depuis un flux de données
1.
Ouvrez le flux de données qui contient la table de modèle
2.
Faites un clic droit sur la table de modèle que vous souhaitez convertir et sélectionnez Importer la
table.
Une fois qu'une table de modèle est convertie en une table régulière, il n'est plus possible de modifier le schéma de la table.
7.4 Ajout de colonnes dans un flux de données
Dans un flux de données, la commande Propager la colonne à partir de ajoute une colonne existante
à partir d'une source ou d'une transformation en amont par le biais d'objets intermédiaires vers le point d'arrivée sélectionné. Les colonnes sont ajoutées dans chaque objet sans aucune modification sur le type de données ou les autres attributs. Lorsqu'il existe plus d'un chemin possible entre le point de départ et le point d'arrivée, il est possible d'indiquer le chemin pour les colonnes ajoutées.
La propagation de colonnes est une opération de tirage. La commande Propager la colonne à partir
de est émise à partir de l'objet dans lequel la colonne est nécessaire. La colonne est extraite de la source ou transformation en amont sélectionnée et ajoutée à chaque objet intermédiaire ainsi qu'à l'objet du point d'arrivée sélectionné.
Par exemple, dans le flux de données ci-dessous, la table source Employee contient les informations de nom des employés ainsi que l'ID d'employé, l'information sur le travail et les dates d'embauche. La
173 2012-11-22
Flux de données transformation Name_Cleanse est utilisée pour normaliser les noms d'employés. Enfin, les données sont sorties dans un fichier XML appelé Noms_Employés.
Après avoir vu la sortie dans la table Employee_Names, vous vous rendez compte que l'initiale du milieu (colonne minit) doit être inclue dans la sortie. Faites un clic droit sur le schéma de niveau supérieur de la table Employee_Names et sélectionnez Propager la colonne à partir de. La fenêtre
"Propager la colonne vers Noms_Employés" apparait.
Dans le volet gauche de la fenêtre "Propager la colonne vers Employee_Names ", sélectionnez la table source Employee depuis la liste d'objets. La liste des colonnes de sortie affichées dans le volet droit change pour afficher les colonnes dans le schéma de l'objet sélectionné. Sélectionnez la colonne MINIT comme la colonne que vous souhaitez tirer à partir de la source, puis cliquez sur Propager.
Le schéma de la colonne minit est transporté par les transformations Queryet Name_Cleanse vers la table Employee_Names.
Les caractéristiques des colonnes propagées sont les suivantes :
• La commande Propager colonne à partir de peut être émise à partir du schéma de niveau supérieur d'une transformation ou d'une cible.
• Les colonnes sont ajoutées dans chaque objet sans aucune modification sur le type de données ou les autres attributs. Une fois qu'une colonne est ajoutée au schéma d'un objet, la colonne fonctionne exactement de la même façon que si elle avait été créée manuellement.
• La colonne propagée est ajoutée à la fin de la liste de schéma dans chaque objet.
• Le nom de la colonne de sortie est généré automatiquement pour éviter des conflits de nom avec les colonnes existantes. Il est possible de modifier le nom de colonne.
• Seules les colonnes inclues dans les schémas de niveau supérieur peuvent être propagées. Les colonnes dans les schémas imbriquées ne peuvent pas être propagées.
• Une colonne peut être propagée plus d'une fois. Toutes les colonnes existantes sont affichées dans le volet droit de la fenêtre "Propager la colonne vers" dans le champ "Existe déjà dans". Chaque colonne supplémentaire a un nom unique.
• Plusieurs colonnes peuvent être sélectionnées et propagées en même temps.
Remarque :
Il est impossible de propager une colonne avec une transformation Hierarchy_Flattening ou une transformation Table_Comparison.
7.4.1 Ajouter des colonnes dans un flux de données
Dans un flux de données, la commande Propager la colonne à partir de ajoute une colonne existante
à partir d'une source ou d'une transformation en amont par le biais d'objets intermédiaires vers un point
174 2012-11-22
Flux de données d'arrivée sélectionné. Les colonnes sont ajoutées dans chaque objet sans aucune modification sur le type de données ou les autres attributs.
Ajouter des colonnes dans un flux de données :
1.
Dans l'objet en aval dans lequel vous souhaitez ajouter la colonne (le point d'arrivée), faites un clic droit sur le schéma de niveau supérieur et cliquez sur Propager la colonne à partir de.
Propager la colonne à partir de peut être émis à partir du schéma de niveau supérieur dans une transformation ou un objet cible.
2.
Dans le volet gauche de la fenêtre "Propager la colonne vers", sélectionnez l'objet en amont qui contient la colonne que vous souhaitez mapper.
Les colonnes disponibles dans cet objet sont affichées dans le volet droit avec une liste des mappages existants depuis cette colonne.
3.
Dans le volet droit, sélectionnez la colonne que vous souhaitez ajouter et cliquez soit sur Propager soit sur Propager et fermer.
L'une des opérations suivantes se produit :
• S'il n'existe qu'un seul chemin possible, la colonne sélectionnée est ajoutée par les transformations intermédiaires à l'objet en aval.
• S'il existe plus d'un chemin possible par les objets intermédiaires, la boîte de dialogue "Choisir le routage vers" apparaît. Cela peut se produire lorsque le flux de données contient une transformation Query avec plusieurs objets d'entrée. Sélectionnez le chemin que vous préférez et cliquez sur OK.
7.4.2 Propager les colonnes dans un flux de données contenant une transformation
Merge
Dans un flux de données valide qui contient deux sources ou plus qui sont fusionnées à l'aide d'une transformation Merge, le schéma des entrées dans la transformation Merge doit être identique. Toutes les sources doit avoir le même schéma, y compris :
• le même nombre de colonnes
• les mêmes noms des colonnes
• les colonnes semblables doivent avoir le même type de données
Afin de conserver un flux de données valide lors de la propagation d'une colonne par une transformation
Merge, vous devez vous assurer de respecter cette restriction.
Lorsque vous propagez une colonne et qu'une transformation Merge se trouve entre le point de départ et le point d'arrivée, un message vous alerte qu'une fois l'opération de propagation terminée, le flux de données sera non valide puisque les schémas d'entrée dans la transformation Merge ne seront pas identiques. Si vous décidez de poursuivre l'opération de propagation de la colonne, vous devrez ajouter plus tard des colonnes aux schémas d'entrée dans la transformation Merge pour que le flux de données soit valide.
175 2012-11-22
Flux de données
Par exemple, dans le flux de données ci-dessous, les données de chaque table source sont filtrées, puis les résultats sont fusionnés dans la transformation Merge.
Si vous choisissez de propager une colonne à partir de la source SALES(Pubs.DBO)vers la cible
CountrySales
, la colonne est ajoutée au schéma TableFilter mais pas au schéma FileFilter, donnant lieu à des schémas d'entrée différents dans la transformation Merge et un flux de données non valide.
Afin de conserver un flux de données valide lors de la propagation d'une colonne par une transformation
Merge, suivez un processus à plusieurs étapes :
1.
Assurez-vous que la colonne que vous souhaitez propager est disponible dans les schémas de tous les objets qui mènent dans la transformation Merge sur le côté en aval. Cela garantit que toutes les entrées dans la transformation Merge sont identiques et que le flux de données est valide.
2.
Propagez la colonne sur le côté en amont de la transformation Merge vers le point d'arrivée souhaité.
7.5 Tables de recherche et fonction lookup_ext
Les tables de recherche contiennent des données auxquelles d'autres tables font référence. En règle générale, les tables de recherche peuvent comporter les types de colonnes suivants :
• Colonne de recherche : permet d'établir une correspondance avec une ou plusieurs lignes en fonction des valeurs d'entrée. Pour identifier une correspondance dans une ligne, vous appliquez des opérateurs tels que =, >, <, ~. Une table de recherche peut contenir plusieurs colonnes de recherche.
• Colonne de sortie : colonne renvoyée par la ligne, qui correspond à la condition de recherche définie pour la colonne de recherche. Une table de recherche peut contenir plusieurs colonnes de sortie.
• Colonne de politique de retour : permet d'indiquer les données à renvoyer lorsque plusieurs lignes correspondent à la ou aux conditions de recherche.
Utilisez la fonction lookup_ext pour extraire des données d'une table de recherche en fonction de conditions de recherche définies par l'utilisateur pour établir une correspondance entre les données d'entrée et les données de la table de recherche. La fonction lookup_ext permet non seulement d'extraire une valeur dans une table ou un fichier en fonction des valeurs d'une table source ou d'un fichier différent, mais elle propose aussi des fonctionnalités étendues permettant d'effectuer les opérations suivantes :
• Retourner plusieurs colonnes à partir d'une même recherche.
176 2012-11-22
Flux de données
• Effectuer une sélection parmi d'autres opérateurs, y compris les critères spéciaux, pour définir une condition de recherche.
• Indiquer une politique de retour pour la recherche.
• Appeler lookup_ext dans des scripts et des fonctions personnalisées (ce qui vous permet également de réutiliser la ou les recherches regroupées dans des scripts).
• Définir un SQL personnalisé à l'aide du paramètre SQL_override pour alimenter le cache de recherche et parvenir à affiner d'importantes quantités de données aux seules sections pertinentes pour la recherche.
• Appeler lookup_ext à l'aide de l'assistant de fonction dans le mappage de sortie de requête pour retourner plusieurs colonnes dans une transformation Query.
• Sélectionner une stratégie de mise en cache et, par exemple, décider de placer dans la mémoire cache l'intégralité de la table de recherche ou de générer des instructions SQL de façon dynamique pour chaque enregistrement d'entrée.
• Utiliser lookup_ext avec les tables de banque de données en mémoire ou les tables du cache persistant. En ce qui concerne les tables de recherche, l'utilisation du cache persistant présente les avantages suivants par rapport aux tables en mémoire :
• Plusieurs flux de données peuvent utiliser la même table de recherche disponible dans le cache persistant.
• Le progiciel n'a pas besoin de construire la table de recherche chaque fois qu'un flux de données l'utilise.
• Le cache persistant n'a aucune contrainte de mémoire car il est stocké sur disque et le progiciel exécute rapidement la pagination dans la mémoire.
• Utiliser le cache paginable (qui n'est pas disponible pour les fonctions lookup et lookup_seq).
• Utiliser des expressions dans les tables de recherche et retourner les valeurs obtenues.
Pour une description des fonctions lookup et lookup_seq associées, voir le Guide de référence.
Rubriques associées
• Guide de référence : Fonctions et procédures, lookup_ext
• Guide d'optimisation de la performance : Using Caches, Caching data
7.5.1 Accès à l'éditeur lookup_ext
La fonction lookup_ext possède son propre éditeur graphique. Vous pouvez appeler l'éditeur de l'une ou l'autre des façons suivantes :
• En ajoutant un appel de fonction à l'intérieur d'une transformation Query. Utilisez cette option si vous souhaitez que la table de recherche retourne plusieurs colonnes.
• A partir de l'onglet Mappage dans une requête ou une fonction de script.
177 2012-11-22
Flux de données
7.5.1.1 Ajout d'un appel de fonction
1.
Dans la transformation Query, au niveau du volet "Schéma de sortie", sans sélectionner de colonne de sortie spécifique, cliquez avec le bouton droit sur le volet et sélectionnez Nouvel appel de
fonction.
2.
Sélectionnez la catégorie de fonction Fonctions de recherche et le nom de fonction lookup_ext.
3.
Pour appeler l'éditeur, cliquez sur Suivant.
La section Sortie vous permet d'ajouter plusieurs colonnes au schéma de sortie.
Une fois que vous avez fermé la fenêtre lookup_ext, vous pouvez rouvrir l'éditeur graphique pour apporter des modifications (cliquez avec le bouton droit sur le nom de la fonction dans le schéma et sélectionnez Modifier l'appel de fonction), ce qui constitue un avantage du nouvel appel de fonction.
7.5.1.2 Appel de l'éditeur lookup_ext depuis l'onglet Mappage
1.
Sélectionnez le nom de la colonne de sortie.
2.
Dans l'onglet "Mappage", cliquez sur Fonctions.
3.
Sélectionnez la "catégorie de fonction"Fonctions de recherche et le "nom de fonction"lookup_ext.
4.
Pour appeler l'éditeur, cliquez sur Suivant.
Dans la section Sortie, le champ "Variable" remplace le champ "Nom de la colonne de sortie". Vous pouvez définir une colonne de sortie destinée à alimenter la colonne sélectionnée dans le schéma de sortie. Lorsque lookup_ext retourne plusieurs colonnes de sortie, utilisez des variables pour stocker les valeurs de sortie ou utilisez lookup_ext comme nouvel appel de fonction comme indiqué précédemment dans cette section.
L'éditeur graphique n'est pas disponible avec les fonctions utilisées dans les mappages. En revanche, vous pouvez traiter le texte manuellement dans l'onglet "Mappage".
7.5.2 Exemple : Définition d'une fonction lookup_ext simple
Cette procédure décrit la définition d'une fonction lookup_ext simple à l'aide d'un nouvel appel de fonction. L'exemple associé illustre l'utilisation d'une table de recherche pour extraire les noms des services des salariés.
Pour en savoir plus sur les options disponibles pour la fonction lookup_ext, voir le
Guide de référence.
178 2012-11-22
Flux de données
179
1.
Dans un flux de données, ouvrez l'éditeur de requêtes.
2.
Dans le volet "Entrée de schéma", faites glisser la colonne d'ID vers le volet "Sortie de schéma".
3.
Sélectionnez la colonne ID dans le volet "Sortie de schéma", cliquez avec le bouton droit et sélectionnez Nouvel appel de fonction. Cliquez sur Insérer en dessous.
4.
Sélectionnez la "catégorie de fonction"Fonctions de recherche et le "nom de fonction"lookup_ext, puis cliquez sur Suivant.
L'éditeur lookup_ext apparaît.
5.
Dans la fenêtre "Lookup_ext - Sélectionner les paramètres", sélectionnez une table de recherche : a.
En regard de la zone de texte Table de recherche, cliquez sur la flèche de liste déroulante puis cliquez deux fois sur la banque de données, le format de fichier ou le schéma actuel comprenant la table.
b.
Sélectionnez la table de recherche et cliquez sur OK.
Dans l'exemple, la table de recherche est un fichier au format txt appelé ID_lookup.txt, qui réside dans D:\Data.
6.
Pour la spécification du cache, la valeur par défaut de CACHE_DE_PRECHARGEMENT est utile lorsque le nombre de lignes de la table est peu élevé ou que vous pensez accéder à un fort pourcentage des valeurs de la table.
AUCUN_CACHE lit les valeurs de la table de recherche pour chaque ligne sans valeurs mises en cache. Sélectionnez CACHE_DE_CHARGEMENT_A_LA_DEMANDE lorsque la table comporte un grand nombre de lignes et que vous pensez accéder fréquemment à un faible pourcentage de ses valeurs ou lorsque vous utilisez la table dans plusieurs recherches avec des conditions de comparaison extrêmement sélectives, qui donnent un petit sous-ensemble de données.
7.
Pour disposer de ressources supplémentaires en vue de l'exécution de la fonction lookup_ext, sélectionnez Exécuter en tant que processus séparé. Cette option crée un processus de flux de données enfant séparé pour la fonction lookup_ext lorsque le progiciel exécute le flux de données.
8.
Définissez une ou plusieurs conditions. Pour chacune, ajoutez un nom de colonne de table de recherche (effectuez une sélection dans la liste déroulante ou faites glisser des éléments depuis le volet "Paramètre"), sélectionnez l'opérateur pertinent et entrez une expression en la saisissant, la faisant glisser, la collant ou à l'aide de l'éditeur rapide (cliquez sur l'icône dans la colonne de droite).
Dans l'exemple, la condition correspond à ID_DEPT = Employees.ID_DEPT.
9.
Définissez la sortie. Pour chaque colonne de sortie : a.
Ajoutez un nom de colonne de la table de recherche.
b.
Le cas échéant, modifiez la valeur par défaut (valeur nulle).
c.
Indiquez le "nom de la colonne de sortie" en la saisissant, la faisant glisser, la collant ou à l'aide de l'éditeur rapide (cliquez sur l'icône dans la colonne de droite).
Dans l'exemple, la colonne de sortie est ID_DEPT_NAME.
10.
Si plusieurs correspondances sont possibles, indiquez l'ordre et définissez une politique de retour
(MAX par défaut) pour la sélection d'une correspondance. Pour ordonner la sortie, saisissez le ou les noms de colonne dans la liste "Organiser par".
Exemple :
L'exemple suivant illustre le mode d'utilisation de la table de recherche ID_lookup.txt pour extraire les noms des services des salariés.
2012-11-22
Flux de données
La table des salariés (Employees) se présente comme suit :
ID
SSN111111111
SSN222222222
TAXID333333333
NAME
Employee1
Employee2
Employee3
La table de recherche ID_lookup.txt se présente comme suit :
ID_DEPT
10
20
ID_PATTERN
ms(SSN*) ms(TAXID*)
ID_RETURN
=substr(ID_Pattern,4,20)
=substr(ID_Pattern,6,30)
ID_DEPT_NAME
Payroll
Accounting
L'éditeur lookup_ext est alors configuré comme suit.
ID_DEPT
10
10
20
180
Rubriques associées
•
Exemple : Définition d'une fonction lookup_ext complexe
2012-11-22
Flux de données
7.5.3 Exemple : Définition d'une fonction lookup_ext complexe
Cette procédure décrit la définition d'une fonction lookup_ext complexe à l'aide d'un nouvel appel de fonction. L'exemple associé utilise les mêmes tables de recherche et d'entrée que
d'identification des salariés.
Pour en savoir plus sur les options disponibles pour la fonction lookup_ext, voir le Guide de référence.
1.
Dans un flux de données, ouvrez l'éditeur de requêtes.
2.
Dans le volet "Entrée de schéma", faites glisser la colonne d'ID vers le volet "Sortie de schéma".
Procédez de même pour la colonne Nom.
3.
Dans le volet "Sortie de schéma", cliquez avec le bouton droit sur la colonne Nom et cliquez sur
Nouvel appel de fonction. Cliquez sur Insérer en dessous.
4.
Sélectionnez la "catégorie de fonction"Fonctions de recherche et le "nom de fonction"lookup_ext, puis cliquez sur Suivant.
5.
Dans la fenêtre "Lookup_ext - Sélectionner les paramètres", sélectionnez une table de recherche :
Dans l'exemple, la table de recherche (au format txt) est nommée ID_lookup.txt et réside dans
D:\Data.
6.
Définissez une ou plusieurs conditions.
Dans l'exemple, la condition correspond à ID_PATTERN ~ Employees.ID.
7.
Définissez la sortie. Pour chaque colonne de sortie : a.
Ajoutez un nom de colonne de la table de recherche.
b.
Si vous voulez que le progiciel interprète la colonne dans la table de recherche comme une expression et retourne la valeur calculée, cochez la case Expression.
c.
Le cas échéant, modifiez la valeur par défaut (valeur nulle).
d.
Indiquez le "nom de la ou des colonnes de sortie" en le saisissant, en le faisant glisser ou en le collant ou à l'aide de l'éditeur rapide (cliquez sur l'icône dans la colonne de droite).
Dans l'exemple, les colonnes de sortie sont ID_RETURN et ID_DEPT_NAME.
Exemple :
Dans cet exemple, vous voulez extraire et normaliser des numéros de sécurité sociale et d'identification fiscale de salariés, avec des préfixes différents. Vous allez supprimer les préfixes afin de normaliser les numéros. Vous voulez également identifier le service d'origine du numéro. Le flux de données comporte une table source Employees, une requête configurée avec look_ext et une table cible.
Configurez l'éditeur lookup_ext comme dans le graphique suivant.
181 2012-11-22
Flux de données
182
La condition de recherche correspond à ID_PATTERN ~ Employees.ID.
Le progiciel lit les différentes lignes de la table source Employees, puis passe à la table de recherche
ID_lookup.txt pour identifier toutes les lignes qui répondent à la condition de recherche.
L'opérateur ~ indique que le progiciel appliquera une comparaison de modèles à Employees.ID.
Lorsqu'il rencontrera un modèle correspondant à Employees.ID dans ID_lookup.ID_PATTERN, le progiciel appliquera l'expression dans ID_lookup.ID_RETURN. Dans cet exemple, Employee1 et
Employee2 ont tous deux des ID qui correspondent au modèle ms(SSN*) dans la table de recherche.
Le progiciel applique ensuite l'expression =substr(ID_PATTERN,4,20) aux données, ce qui permet d'extraire de la chaîne de correspondance (Employees.ID) une sous-chaîne de 20 caractères maximum en partant de la quatrième position. Les résultats pour Employee1 et Employee2 sont respectivement de 111111111 et 222222222.
Pour la sortie de la colonne de recherche ID_RETURN, le progiciel évalue ID_RETURN comme une expression car la case Expression est cochée. Dans la table de recherche, la colonne ID_RETURN contient l'expression =substr(ID_PATTERN,4,20). Dans cette expression, ID_PATTERN se rapporte à la colonne ID_PATTERN de la table de recherche. Lorsque la condition de recherche
ID_PATTERN ~ Employees.ID
est vraie, le progiciel évalue l'expression. Dans le cas présent, le progiciel remplace le caractère générique ID_PATTERN par la véritable valeur de Employees.ID.
2012-11-22
Flux de données
La sortie comprend également la colonne ID_DEPT_NAME, que le progiciel retourne comme une valeur littérale (du fait que la case Expression n'est pas cochée). La table cible obtenue se présente comme suit :
ID
SSN111111111
SSN222222222
TAXID333333333
NAME
Employee1
Employee2
Employee3
ID_RETURN
111111111
222222222
333333333
ID_DEPT_NAME
Payroll
Payroll
Accounting
Rubriques associées
• Guide de référence : Fonctions et procédures, lookup_ext
•
•
Exemple : Définition d'une fonction lookup_ext simple
• Guide de référence : Fonctions et procédures, match_simple
7.6 Exécution d'un flux de données
Un flux de données est une spécification déclarative à partir de laquelle le logiciel détermine les bonnes données à traiter. Par exemple, dans des flux de données placés dans des jobs batch, l'ordre de la transaction est d'extraire, de transformer, puis de charger les données dans une cible. Les flux de données sont similaires aux instructions SQL. La spécification déclare la sortie souhaitée.
Le logiciel exécute un flux de données à chaque fois qu'un flux de données se produit dans un job.
Cependant, il est possible de spécifier qu'un job batch exécute un flux de données particulier une seule fois. Dans ce cas, le logiciel exécute uniquement la première occurrence du flux de données ; le logiciel ignore les occurrences suivantes dans le job.
Vous pouvez utiliser cette fonctionnalité lorsque vous développez des jobs batch complexes avec plusieurs chemins, tels que les jobs avec des blocs Try/Catch ou des structures conditionnelles, et que vous souhaitez vous assurer que le logiciel n'exécute qu'une seule fois un flux de données particulier.
Rubriques associées
•
Création et définition des flux de données
7.6.1 Poussée vers le bas des opérations vers le serveur de base de données
183 2012-11-22
Flux de données
A partir des informations contenues dans la spécification du flux de données, le logiciel produit une sortie tout en optimisant la performance. Par exemple, pour les sources et les cibles SQL, le logiciel crée des instructions SQL spécifiques à la base de données en fonction des diagrammes du flux de données du job. Pour optimiser la performance, le logiciel pousse vers le bas autant d'opérations de transformation que possibles vers la base de donnée source ou cible, et combine autant d'opérations que possible dans une requête vers la base de données. Par exemple, le logiciel essaye de pousser vers le bas les jointures et les évaluations de fonction. En poussant les opérations vers la base de données, le logiciel réduit le nombre de lignes et d'opérations que le moteur doit traiter.
La conception du flux de données influence le nombre d'opérations que le logiciel peut pousser vers la base de données sources ou cibles. Avant d'exécuter un job, il est possible d'examiner le SQL généré par le logiciel et de modifier la conception pour aboutir aux résultats les plus efficaces.
Il est possible d'utiliser la transformation Data_Transfer pour pousser vers le bas des opérations consommatrices de ressources n'importe où dans un flux de données vers une base de données. Les opérations consommatrices de ressources incluent les jointures, GROUP BY, ORDER BY et DISTINCT.
Rubriques associées
• Guide d'optimisation de la performance : maximisation des opérations poussées vers le bas
• Guide de référence : Data_Transfer
7.6.2 Exécution d'un flux de données distribué
Le logiciel offre la possibilité de distribuer les travaux de traitement des données consommatrices de mémoire et de processeurs (tels que les jointures, les regroupements, les comparaisons de table et les recherches) dans les multiples processus et ordinateurs. Ce travail de distribution offre les bénéfices potentiels suivants :
• Une meilleure gestion de la mémoire en tirant profit de plus de ressources processeurs et de mémoire physique
• Une meilleure performance et extensibilité de job en utilisant une exécution de flux de données secondaire simultanée pour tirer profit du grid computing
Il est possible de créer un flux de données secondaire pour que le logiciel n'ait pas besoin de traiter l'ensemble du flux de données en mémoire en une seule fois. Il est également possible de distribuer les flux de données secondaires aux différents job servers d'un groupe de serveurs pour utiliser plus de mémoire et des ressources processeurs supplémentaires.
Utilisez les fonctionnalités suivantes pour diviser un flux de données en plusieurs flux de données secondaires
• L'option Exécuter en tant que processus séparé sur les opérations consommatrices de ressources qui incluent :
• La transformation Hierarchy_Flattening
• Transformation Associate
184 2012-11-22
Flux de données
• Transformation Country ID
• Transformation Global Address Cleanse
• Transformation Global Suggestion Lists
• Match Transform
• Transformation United States Regulatory Address Cleanse
• Transformation User-Defined
• Les opérations de requête qui sont consommatrices de processeurs et de mémoire :
• Jointures
• GROUP BY
• ORDER BY
• DISTINCT
• Transformation Table_Comparison
• La fonction Lookup_ext
• La fonction Count_distinct
• La fonction Search_replace
Si vous sélectionnez l'option Exécuter en tant que processus séparé pour plusieurs opérations dans un flux de données, le logiciel divise le flux de données en des flux de données secondaires plus petits qui utilisent des ressources différentes (mémoire et ordinateur) les uns des autres. Lorsque vous indiquez plusieurs options Exécuter en tant que processus séparé, les processus de flux de données secondaire exécutent en parallèle.
• Transformation Data_Transfer
Avec cette transformation, le logiciel n'a pas besoin de traiter l'ensemble du flux de données sur l'ordinateur du Job Server. A la place, la transformation Data_Transfer peut pousser vers le bas le traitement d'une opération consommatrice de ressource vers le serveur de base de données. Cette transformation divise le flux de données en deux flux de données secondaires et transfère les données vers une table dans le serveur de base de données pour permettre au logiciel de pousser vers le bas l'opération.
Rubriques associées
• Guide d'optimisation de la performance : division d'un flux de données en flux de données secondaires.
• Guide d'optimisation de la performance : transformation Data_Transfer pour opérations poussées vers le bas
7.6.3 Equilibrage de charge
Il est possible de distribuer l'exécution d'un job ou une partie d'un job dans de multiples Job Servers dans un groupe de serveurs pour mieux équilibrer les opérations consommatrices de ressources. Il est possible d'indiquer les valeurs suivantes dans l'option Niveau de distribution lors de l'exécution d'un job :
• Niveau de job : un job peut exécuter sur un Job Server disponible.
185 2012-11-22
Flux de données
• Niveau de flux de données : chaque flux de données dans un job peut exécuter sur un Job Server disponible.
• Niveau de flux de données secondaire : une opération consommatrice de ressources (comme les tris, les comparaisons de table ou les recherches de table) dans un flux de données peut exécuter sur un Job Serveur disponible.
Rubriques associées
• Guide d'optimisation de la performance : utilisation de grid computing pour distribuer les exécutions de flux de données
7.6.4 Caches
Le logiciel offre l'option de cacher les données dans la mémoire pour améliorer les opérations dans les flux de données telles que :
• Jointures : puisqu'une source interne d'une jointure doit être lue pour chaque ligne d'une source externe, il est possible que vous souhaitiez cacher une source lorsqu'elle est utilisée comme source interne dans une jointure.
• Comparaisons de tables : puisqu'une table de comparaison doit être lue pour chaque ligne d'une source, il est possible que vous souhaitiez cacher la table de comparaison.
• Recherches : puisqu'une table de recherche peut exister dans une base de données distante, il est possible que vous souhaitiez la cacher dans la mémoire pour réduire les temps d'accès.
Le logiciel offre les types de caches suivants qui peuvent être utilisés par le flux de données pour toutes les opérations qu'il contient :
• En mémoire
Utilisez le cache en mémoire lorsque le flux de données traite une petite quantité de données qui peuvent être contenues dans la mémoire.
• Cache paginable
Utilisez le cache paginable lorsque le flux de données traite une très grande quantité de données qui ne peuvent pas être contenues dans la mémoire.
Si vous divisez le flux de données en flux de données secondaires qui exécutent chacun sur un Job
Server différent, chaque flux de données secondaires peut utiliser son propre type de cache.
Rubriques associées
• Guide d'optimisation de la performance : utilisations de caches
186 2012-11-22
Flux de données
7.7 Vue d'ensemble d'un audit de flux de données.
Il est possible d'auditer des objets dans un flux de données pour collecter les statistiques d'audit d'exécution. Il est possible d'effectuer les tâches suivantes avec cette fonctionnalité d'audit :
• Collecter des statistiques d'audit sur les données lues dans un job, traitées par plusieurs transformations et chargées dans des cibles.
• Définir des règles à propos des statistiques d'audit pour déterminer si les données correctes sont traitées.
• Générer une notification en cas d'échec d'audit.
• Faire une requête pour les statistiques d'audit qui persistent dans le référentiel.
Pour une description complète de l'audit des flux de données, consultez
187 2012-11-22
Flux de données
188 2012-11-22
Transformations
Transformations
Les transformations opèrent sur les jeux de données en manipulant les jeux d'entrées et en produisant un ou plusieurs jeux de sortie. A l'inverse, les fonctions opèrent sur les valeurs uniques dans des colonnes spécifiques dans un jeu de données.
De nombreuses transformations intégrées sont disponibles depuis la bibliothèque d'objets sur l'onglet
Transformation.
Les transformations que vous pouvez utiliser dépend du package logiciel que vous avez acheté. (Si une transformation appartient à un package que vous n'avez pas acheté, elle est désactivée et ne peut pas être utilisée dans un job.)
Les transformations sont regroupées dans les catégories suivantes :
• Data Integrator : Transformations permettant d'extraire, de transformer et de charger des données.
Ces transformations contribuent à assurer l'intégrité des données et à optimiser la productivité du développeur pour le chargement et la mise à jour de l'environnement d'entrepôt de données.
• Data Quality : Transformations permettant d'améliorer la qualité de vos données. Ces transformations peuvent analyser, corriger, enrichir, mettre en correspondance et consolider vos biens personnalisés et d'informations opérationnelles.
• Plateformes : Transformations requises pour des opérations de mouvements de données générales.
Ces transformations vous permettent de générer, mapper et fusionner des lignes à partir de deux sources ou plus, de créer des opérations de requête SQL (expressions, recherches, jointures et filtres), d'effectuer des répartitions conditionnelles, etc.
• Text Data Processing : Transformations aidant à extraire des informations spécifiques de votre texte.
Elles peuvent analyser d'importants volumes de texte, ce qui vous permet d'identifier et d'extraire des entités et des faits, par exemple, des clients, des produits, des emplacements et des informations financières pertinentes pour votre organisation.
Catégorie de transformations
Transformations Description
Data Integrator Data_Transfer
Date_Generation
Effective_Date
Permet à un flux de données de diviser son traitement en deux sous-flux de données et de pousser vers le bas des opérations consommatrices de ressources vers le serveur de base de données.
Génère une colonne contenant des valeurs de dates en fonction des dates de début et de fin, et de l'incrément que vous avez fournis.
Génère une colonne "fin de validité" supplémentaire en fonction de la "date de validité" de la clé primaire.
189 2012-11-22
Transformations
Catégorie de transformations
Transformations
Data Quality
Hierarchy_Flattening
History_Preserving
Key_Generation
Map_CDC_Operation
Pivot (Columns to Rows)
Reverse Pivot (Lignes en colonnes)
Table_Comparison
XML_Pipeline
Associate
Country ID
Description
Aplanit les données hiérarchiques sous forme de tables relationnelles pour qu'elles puissent participer
à un schéma en étoile. La mise à plat hiérarchique peut être verticale ou horizontale.
Convertit les lignes marquées d'un indicateur Mettre
à jour en Mettre à jour plus Insérer, pour que les valeurs d'origine soient conservées dans la cible.
Indiquez dans quelle colonne rechercher les données mises à jour.
Génère de nouvelles clés pour les données sources
à partir d'une valeur basée sur les clés existantes dans la table que vous avez indiquée.
Trie les données d'entrée, mappe les données de sortie et résout les pré-images et les post-images pour les lignes Mettre à jour. Bien qu'elle soit habituellement utilisée pour prendre en charge la capture des données modifiées d'Oracle, cette transformation prend en charge tous les flux de données si leurs conditions d'entrée sont respectées.
Fait pivoter les valeurs des colonnes spécifiques en lignes. (Voir aussi Reverse Pivot.)
Fait pivoter les valeurs des lignes spécifiques en colonnes.
Compare deux jeux de données et produit la différence entre eux sous forme de jeu de données avec des lignes marquées d'un indicateur Insérer et
Mettre à jour.
Traite des entrées XML volumineuses dans des petits lots.
Combine les résultats de deux ou plus transformations Match, ou deux ou plus transformations Asso ciate, ou une combinaison des deux, pour trouver les correspondances dans les sets de correspondance.
Analyse les données d'entrée puis identifie le pays de destination pour chaque enregistrement.
190 2012-11-22
Transformations
Catégorie de transformations
Transformations Description
Data Cleanse
DSF2 Walk Sequencer
Geocoder
Global Address Cleanse
Global Suggestion Lists
Match
Identifie et analyse les données de nom, de fonction et de société, les numéros de téléphone, les numéros de sécurité sociale, les dates et les adresses
électroniques. Elle peut affecter un sexe, ajouter des titres de civilité, générer des standards Match et convertir des sources d'entrée à un format standard. Elle peut également analyser et manipuler plusieurs formes de données internationales, de données opérationnelles et de produit.
Ajoute des informations de séquence de distribution aux données qu'il est possible d'utiliser avec un logiciel de tri préalable pour remplir les conditions pour des remises de séquence de tour.
Utilise les coordonnées géographiques, les adresses et les données de points d'intérêt (POI) pour ajouter une adresse, une latitude et une longitude, un recensement et d'autres informations aux enregistrements.
Identifie, analyse, valide et corrige les données d'adresses globales, telles que le numéro principal, le nom principal, le type principal, la direction, l'identificateur secondaire et le numéro secondaire.
Complète et renseigne les adresses avec des données minimales et peut fournir des propositions pour les correspondances possibles.
Identifie les enregistrements de correspondance en fonction des règles d'entreprise. Elle effectue
également la sélection de candidat, ID unique, le meilleur enregistrement et d'autres opérations.
USA Regulatory Address Cleanse
Identifie, analyse, valide et corrige les données d'adresses des Etats-Unis en fonction du CASS
(Coding Accuracy Support System).
User-Defined
Effectue tout ce pourquoi il est possible d'écrire un code Python. Il est possible d'utiliser la transformation User-Defined pour créer de nouveaux enregistrements et jeux de données, ou pour renseigner un champ avec une valeur spécifique, pour ne citer que quelques possibilités.
191 2012-11-22
Transformations
Catégorie de transformations
Transformations
Plateforme Case
Map_Operation
Merge
Query
Row_Generation
SQL
Validation
Text Data Processing
Entity_Extraction
Rubriques associées
• Guide de référence : transformations
Description
Simplifie la logique de branche dans les flux de données en consolidant la logique de case ou de prise de décisions dans une transformation. Les chemins sont définis dans une table d'expressions.
Permet les conversions entre les codes d'opération.
Unifie les lignes à partir de deux sources ou plus dans une seule cible.
Extrait un jeu de données qui satisfait les conditions que vous avez indiquées. Une transformation
Query est semblable à une instruction SQL SELE-
CT.
Génère une colonne contenant des valeurs de nombre entier démarrant à zéro par incrément de 1 pour la valeur de fin spécifiée.
Effectue les opérations de requête SQL indiquées.
Assure que les données dans le flux de données répondent à vos critères durant toutes les phases.
Il est possible de filtrer ou de remplacer les données qui ne répondent pas aux critères.
Extrait des informations (entités et faits) d'un contenu au format de type texte, HTML, XML ou binaire
(par exemple, PDF).
8.1 Ajouter une transformation à un flux de données
Il est possible d'utiliser Designer pour ajouter des transformations aux flux de données.
1.
Ouvrez un objet de flux de données.
2.
Ouvrez la bibliothèque d'objets si elle n'est pas déjà ouverte et cliquez sur l'onglet Transformations.
3.
Sélectionnez la transformation ou la configuration de transformation que vous souhaitez ajouter au flux de données.
4.
Faites glisser l'icône de transformation ou de configuration de transformation dans l'espace de travail du flux de données. Si vous avez sélectionné une transformation qui possède plusieurs configurations
192 2012-11-22
Transformations de transformation disponibles, un menu déroulant vous invite à sélectionner une configuration de transformation.
5.
Dessinez les connexions aux flux de données.
Pour connecter une source à une transformation, cliquez sur le carré sur le côté droit de la source et déplacez le curseur vers la flèche sur le côté gauche de la transformation.
Continuez à connecter les entrées et les sorties tel que requis pour la transformation.
• L'entrée pour la transformation peut être la sortie depuis une autre transformation, ou la sortie depuis une source ; ou bien la transformation peut ne pas exiger des données sources.
• Il est possible de connecter la sortie de la transformation à l'entrée d'une autre transformation ou cible.
6.
Double-cliquez sur le nom de la transformation.
Cette opération ouvre l'éditeur de transformation, ce qui permet de terminer la définition de la transformation.
7.
Saisissez des valeurs d'options.
Pour qu'une colonne de données soit marquée comme une option de transformation, saisissez le nom de la colonne tel qu'il apparait dans le schéma d'entrée ou faites glisser le nom de la colonne depuis le schéma d'entrée vers la boite d'option.
Rubriques associées
•
Ajouter une transformation Query à un flux de données
•
Ajout d'une transformation de qualité des données à un flux de données
•
Ajout d'une transformation de traitement des données de texte à un flux de données
8.2 Editeurs de transformations
Après avoir ajouté une transformation à un flux de données, configurez-la à l'aide de l'éditeur de transformation. Les présentations de l'éditeur de transformations varient.
La transformation la plus utilisée est la transformation Query, qui possède deux volets :
• Une zone de schéma d'entrée et/ou une zone de schéma de sortie
• Une zone d'options (ou zone de paramètres) qui permet de définir toutes les valeurs requises par la transformation
Les transformations Data Quality, telles que Match et Data Cleanse, utilisent un éditeur de transformations qui permet de définir les options et de mapper les champs d'entrée et de sortie.
L'éditeur de la transformation Entity Extraction permet de définir des options d'extraction et de mapper les champs d'entrée et de sortie.
193 2012-11-22
Transformations
Rubriques associées
•
•
Editeurs de transformation Qualité des données
•
Editeur de transformation Entity Extraction
8.3 Configurations de transformation
Une configuration de transformation désigne une transformation avec des champs de saisie et de sortie préconfigurés Meilleure pratique et des options pouvant être utilisées dans plusieurs flux de données.
Ces champs sont utiles lorsque vous utilisez de manière répétitive une transformation avec des options spécifiques et des champs de saisie et de sortie.
Certaines transformations, par exemple, Data Quality ont des configurations en lecture seule fournies lorsque Data Services est installé. Vous pouvez également créer votre propre configuration de transformation par la réplication d'une configuration de transformation existante ou par la création d'une autre. Vous ne pouvez pas exécuter une exportation ou des opérations multi-utilisateurs sur des configurations de transformation en lecture seule.
Dans la fenêtre Editeur de configuration de transformation, vous configurez les options par défaut, les champs de saisie et de sortie Meilleure pratique pour votre configuration de transformation. Lorsque vous avez créé une instance de la configuration de transformation dans un flux de données, vous pouvez remplacer celles qui existent par défaut.
Si vous modifiez une configuration de transformation, cette modification est héritée par chaque instance de la configuration de transformation utilisée dans les flux de données, sauf si un utilisateur a explicitement remplacé la même valeur d'option dans une instance.
Rubriques associées
•
Création d'une configuration de transformation
•
Ajout d'un champ défini par l'utilisateur
8.3.1 Création d'une configuration de transformation
1.
Dans l'onglet Transformations de la "Bibliothèque d'objets locale", cliquez avec le bouton droit sur une transformation et sélectionnez Nouvelle afin de créer une configuration de transformation ou cliquez avec le bouton droit sur une configuration de transformation existante et sélectionnez
Répliquer.
Si les options Nouvelle ou Répliquer ne sont pas disponibles dans le menu, le type de transformation sélectionné ne peut pas comporter de configurations de transformation.
La fenêtre "Editeur de configuration de la transformation" s'ouvre.
194 2012-11-22
Transformations
195
2.
Dans la zone Nom de configuration de la transformation, saisissez le nom de la configuration de transformation.
3.
Dans l'onglet Options, définissez les valeurs d'option pour déterminer la manière dont la transformation traitera vos données. Les options disponibles dépendent du type de transformation pour laquelle vous créez une configuration.
Pour les transformations Associate, Match et User-Defined, les options ne sont pas modifiables dans l'onglet Options. Vous devez définir les options dans l'Editeur Associate, l'Editeur Match ou l'Editeur User-Defined, qui sont accessibles en cliquant sur le bouton Modifier les options.
Si vous modifiez la valeur par défaut d'une option, un triangle vert s'affiche près du nom de l'option pour indiquer qu'un remplacement a été effectué.
4.
Pour désigner une option comme "meilleure pratique", cochez la case Meilleure pratique située près de la valeur de l'option. La désignation d'une option comme meilleure pratique indique aux autres utilisateurs qui emploient la configuration de transformation les options habituellement définies pour ce type de transformation.
Utilisez le filtre pour afficher toutes les options ou simplement les options qui sont désignées comme meilleure pratique.
5.
Cliquez sur le bouton Vérifier pour contrôler si les valeurs d'option sélectionnées sont valides.
S'il existe des erreurs, elles sont affichées en bas de la fenêtre.
6.
Dans l'onglet Meilleures pratiques d'entrée, sélectionnez les champs d'entrée que vous désirez désigner comme meilleure pratique pour la configuration de transformation.
Les configurations de transformation fournies avec SAP BusinessObjects Data Services n'indiquent pas les champs d'entrée meilleure pratique, il n'apparaît donc pas qu'un schéma d'entrée est préféré
à d'autres. Par exemple, vous pouvez mapper les champs de votre flux de données qui contiennent des données d'adresses si celles-ci se trouvent dans des champs discrets, des champs multilignes ou une combinaison de champs discrets et multilignes.
Ces champs d'entrée seront les seuls affichés si le filtre Meilleure pratique est sélectionné dans l'onglet Entrée de l'éditeur de transformation lorsque la configuration de la transformation est utilisée dans un flux de données.
7.
Pour les configurations de transformation Associate, Match et User-Defined, vous pouvez créer des champs d'entrée définis par l'utilisateur. Cliquez sur le bouton Créer et saisissez le nom du champ d'entrée.
8.
Dans l'onglet Meilleures pratiques de sortie, sélectionnez les champs de sortie que vous désirez désigner comme meilleure pratique pour la configuration de transformation.
Ces champs de sortie seront les seuls affichés si le filtre Meilleure pratique est sélectionné dans l'onglet Sortie de l'éditeur de transformation lorsque la configuration de la transformation est utilisée dans un flux de données.
9.
Cliquez sur OK pour enregistrer la configuration de transformation.
La configuration de transformation est affichée dans la "Bibliothèque d'objets locale" sous la transformation de base du même type.
Vous pouvez désormais utiliser la configuration de transformation dans les flux de données.
Rubriques associées
• Guide de référence : Transformations, Configurations de transformation
2012-11-22
Transformations
8.3.2 Ajout d'un champ défini par l'utilisateur
Pour certaines transformations comme les transformations Associate, Match et User-Defined, vous pouvez créer des champs d'entrée définis par l'utilisateur plutôt que des champs reconnus par la transformation. Ces transformations utilisent des champs définis par l'utilisateur parce qu'elles ne comportent pas de set prédéfini de champs d'entrée.
Vous pouvez ajouter un champ défini par l'utilisateur à une seule instance d'une transformation dans un flux de données ou à une configuration de transformation afin qu'il puisse être utilisé dans toutes les instances.
Dans la transformation User-Defined, vous pouvez également ajouter des champs de sortie définis par l'utilisateur.
1.
Dans l'onglet Transformations de la "bibliothèque d'objets locale" cliquez avec le bouton droit sur une configuration de transformation Associate, Match ou User-Defined existante et sélectionnez
Modifier.
La fenêtre "Editeur de configuration de la transformation" s'ouvre.
2.
Dans l'onglet Meilleures pratiques d'entrée, cliquez sur le bouton Créer et saisissez le nom du champ d'entrée.
3.
Cliquez sur OK pour enregistrer la configuration de transformation.
Lorsque vous créez un champ défini par l'utilisateur dans la configuration de transformation, il est affiché comme champ disponible dans chaque instance de la transformation utilisée dans un flux de données.
Vous pouvez également créer des champs définis par l'utilisateur dans chaque instance de transformation.
Rubriques associées
•
Editeurs de transformation Qualité des données
8.4 La transformation Query
La transformation Query est de loin la transformation la plus utilisée, c'est pourquoi cette section en propose une vue d'ensemble.
La transformation Query peut effectuer les opérations suivantes :
• Sélectionner (filtrer) les données à extraire à partir des sources
• Relier les données à partir de plusieurs sources
• Mapper les colonnes du schéma d'entrée vers le schéma de sortie
196 2012-11-22
Transformations
• Effectuer des transformations et des fonctions sur les données
• Effectuer des imbrications et des désimbrications de données
• Ajouter de nouvelles colonnes, des schémas imbriqués et des résultats de fonctions au schéma de sortie
• Affecter des clés primaires aux colonnes de sortie
Rubriques associées
•
• Guide de référence : transformations
8.4.1 Ajouter une transformation Query à un flux de données
Puisqu'elle est largement utilisée, l'icône de la transformation Query est inclue dans la palette d'outils, permettant d'ajouter plus facilement une transformation Query.
1.
Cliquez sur l'icône Query dans la palette d'outils.
2.
Cliquez n'importe où dans l'espace de travail du flux de données.
3.
Connectez la Query aux entrées et sorties.
Remarque :
• Les entrées pour une Query peuvent inclure la sortie d'une autre transformation ou la sortie d'une source.
• Les sorties d'une Query peuvent inclure une entrée dans une autre transformation ou une entrée dans une cible.
• Il est possible de modifier le type de contenu pour les colonnes dans les données en sélectionnant un type différent de la liste de type de contenu de sortie.
• Si vous connectez une table cible à une Query avec un schéma de sortie vide, le logiciel remplit automatiquement le schéma de sortie de la Query avec les colonnes de la table cible, sans aucun mappage.
8.4.2 Editeur Query
L'éditeur Query est une interface graphique qui permet d'effectuer des opérations de requête. Il contient les zones suivantes : zone schéma d'entrée (en haut à gauche), zone schéma de sortie (en haut à droite), et une zone paramètres (zone à onglets en bas). L'icône indique que l'onglet contient des entrées définies par l'utilisateur ou qu'il existe au moins une paire de jointures (onglet FROM uniquement).
Les zones de schéma d'entrée et de sortie peuvent contenir : des colonnes, des schémas imbriqués et des fonctions (uniquement de sortie).
197 2012-11-22
Transformations
Les listes "Entrée de schéma" et "Sortie de schéma" affichent les schémas actuellement sélectionnés dans chaque zone. Le schéma de sortie actuellement sélectionné est appelé schéma actuel et détermine les éléments suivants :
• Les éléments de sortie qui peuvent être modifiés (ajoutés, mappés ou supprimés)
• Le périmètre des onglets Sélectionner jusqu'à Organiser par dans la zone de paramètres
Le schéma actuel est mis en surbrillance tandis que tous les autres (non actuels) schémas de sortie sont en gris.
8.4.2.1 Modifier le schéma de sortie actuel
Les méthodes suivantes permettent de modifier le schéma de sortie actuel :
• Sélectionnez un schéma de la liste Sortie de manière à ce qu'il soit mis en surbrillance.
• Faites un clic droit sur un schéma, une colonne ou une fonction dans la zone Schéma de sortie et sélectionnez En faire l'élément actuel.
• Double-cliquez sur l'un des éléments non actuels (grisés) dans la zone Schéma de sortie.
8.4.2.2 Modifier les contenus du schéma de sortie
Il est possible de modifier le schéma de sortie en suivant plusieurs méthodes :
• Glissez-déposez (ou copiez-collez) les colonnes ou les schémas imbriqués de la zone de schéma d'entrée vers la zone de schéma de sortie pour créer des mappages simples.
• Utilisez les options du menu clic droit sur les éléments de sorties pour :
• Ajouter de nouvelles colonnes et nouveaux schémas de sortie.
• Utiliser des appels de fonction pour générer des nouvelles colonnes de sortie.
• Affecter ou inverser les paramètres de la clé primaire sur les colonnes de sortie. Les colonnes de clé primaire sont marquées par une icône clé.
• Désimbriquer ou réimbriquer les schémas.
• Utilisez l'onglet Mappage pour proposer des mappages de colonnes complexes. Glissez-déposez les schémas et les colonnes d'entrées dans le schéma de sortie pour activer l'éditeur. Utilisez l'assistant de fonctions et l'éditeur rapide pour construire des expressions. Lorsque l'éditeur de texte est activé, il est possible d'accéder à ces fonctionnalités à l'aide des boutons situés au-dessus de l'éditeur.
• Utilisez les onglets de Sélectionnerjusqu'à Organiser par pour apporter des paramètres supplémentaires pour le schéma actuel (similaire aux clauses d'instructions SQL SELECT). Il est possible de glisser-déposer les schémas et les colonnes dans ces zones.
198 2012-11-22
Transformations
Nom de l'onglet
Sélection ner
Description
Indique s'il faut sortir uniquement les lignes d'éléments uniques (sans prendre en compte les lignes identiques doublon).
De
Liste tous les schémas d'entrée. Il permet d'indiquer les paires de jointure et les conditions de jointure, ainsi que de saisir le classement de jointure et le cache pour chaque schéma d'entrée. La clause SQL FROM obtenue est affichée.
Où
Indique les conditions qui déterminent quelles lignes sont des sorties.
Saisissez les conditions dans la syntaxe SQL, comme une clause WHERE dans une instruction SQL SELECT. Par exemple :
TABLE1.EMPNO = TABLE2.EMPNO AND
TABLE1.EMPNO > 1000 OR
TABLE2.EMPNO < 9000
Utilisez les boutons Fonctions, Domaines et Editeur rapide pour aider à construire des expressions.
Regrouper par
Organiser par
Indique la manière dont les lignes de sortie sont regroupées (le cas échéant).
Indique la manière dont les lignes de sortie sont séquencées (le cas échéant).
• Utilisez l'onglet Rechercher pour localiser les éléments de sortie et d'entrée contenant un mot ou un terme spécifique.
8.5 Transformations Qualité des données
Les transformations Qualité des données sont un ensemble de transformations qui aident à améliorer la qualité des données. Elles peuvent analyser, standardiser, corriger et ajouter des informations à vos données clients et opérationnelles.
Les transformations Qualité des données comprennent :
• Associate
• Country ID
• Data Cleanse
• DSF2 Walk Sequencer
• Global Address Cleanse
• Global Suggestion Lists
199 2012-11-22
Transformations
• Match
• USA Regulatory Address Cleanse
• User-Defined
Rubriques associées
• Guide de référence : Transformations
8.5.1 Ajout d'une transformation de qualité des données à un flux de données
Les transformations Qualité des données ne peuvent pas être directement connectées à une transformation en amont qui contient ou génère des tables imbriquées. C'est commun dans les flux de données en temps réel, en particulier ceux qui effectuent une comparaison. Pour connecter ces transformations, il faut insérer une transformation Query ou une transformation Pipeline XML entre la transformation comportant la table imbriquée et la transformation Qualité des données.
1.
Ouverture d'un objet flux de données.
2.
Ouvrez la bibliothèque d'objets si ce n'est pas déjà fait.
3.
Accédez à l'onglet Transformations.
4.
Développez le dossier de transformations Qualité des données et sélectionnez la transformation ou la configuration de transformation à ajouter au flux de données.
5.
Faites glisser l'icône de la transformation ou de la configuration de transformation dans l'espace de travail du flux de données. Si vous avez sélectionné une transformation disposant de configurations de transformation, un menu déroulant vous invite à en sélectionner une.
6.
Dessinez les connections du flux de données.
Pour connecter une source ou une transformation à une autre transformation, cliquez sur le carré situé sur le bord droit de la source ou de la transformation en amont et faites glisser le curseur vers la flèche placée sur le bord gauche de la transformation Qualité des données.
• L'entrée pour la transformation peut être la sortie d'une autre transformation ou d'une source.
Ou bien, la transformation peut ne pas requérir de données source.
• Vous pouvez connecter la sortie de la transformation à l'entrée d'une autre transformation ou cible.
7.
Double-cliquez sur le nom de la transformation.
Cette action ouvre l'éditeur de transformation, qui permet de réaliser la définition de la transformation.
8.
Dans le schéma d'entrée, sélectionnez les champs d'entrée que vous désirez mapper et faites-les glisser vers le champ approprié de l'onglet Entrée.
Cette action mappe le champ d'entrée à un nom de champ reconnu par la transformation afin que celle-ci sache comment le traiter correctement. Par exemple, un champ d'entrée nommé
"Organisation" serait mappé au champ Société. Lorsque les types de contenu de l'entrée sont définis, ces colonnes sont automatiquement mappées aux champs d'entrée appropriés. Vous pouvez modifier
200 2012-11-22
Transformations le type de contenu des colonnes de vos données en sélectionnant un type différent dans la liste des types de contenu de sortie.
9.
Pour les transformations Associate, Match et User-Defined, vous pouvez ajouter des champs définis par l'utilisateur dans l'onglet Entrée. Vous pouvez le faire de deux manières :
• Cliquez sur la première ligne vide en bas de la table et appuyez sur la touche F2 de votre clavier.
Saisissez le nom du champ. Sélectionnez le champ d'entrée approprié dans la zone déroulante pour mapper le champ.
• Faites glisser le champ d'entrée approprié vers la première ligne vide en bas de la table.
Pour renommer le champ défini par l'utilisateur, cliquez sur le nom, appuyez sur la touche F2 du clavier et saisissez le nouveau nom.
10.
Dans l'onglet Options, sélectionnez les valeurs de l'option appropriée pour déterminer la manière dont la transformation traitera vos données.
• Mappez vos champs d'entrée avant de définir les valeurs d'option, parce que dans certaines transformations, les options disponibles et les valeurs d'option dépendent des champs d'entrée mappés.
• Pour les transformations Associate, Match et User-Defined, les options ne sont pas modifiables dans l'onglet Options. Vous devez définir les options dans l'Editeur Associate, l'Editeur Match et l'Editeur User-Defined . Vous pouvez accéder à ces éditeurs en cliquant sur le bouton Modifier les options de l'onglet Options ou en cliquant avec le bouton droit sur la transformation dans le flux de données.
Si vous modifiez la valeur par défaut d'une option, un triangle vert s'affiche près du nom de l'option pour indiquer qu'un remplacement a été effectué.
11.
Dans l'onglet Sortie, double-cliquez sur les champs que vous désirez sortir de la transformation.
Les transformations Qualité des données peuvent générer des champs en plus des champs d'entrée que traite la transformation, vous pouvez donc sortir plusieurs champs.
Vérifiez que vous avez défini les options avant de mapper les champs de sortie.
Les champs sélectionnés apparaissent dans le schéma de sortie. Le schéma de sortie de cette transformation devient le schéma d'entrée de la prochaine transformation dans le flux de données.
12.
Si vous désirez transmettre des données via la transformation sans les traiter, faites glisser directement les champs du schéma d'entrée vers le schéma de sortie.
13.
Pour renommer ou redimensionner un champ de sortie, double-cliquez dessus et modifiez les propriétés dans la fenêtre "Propriétés des colonnes".
Rubriques associées
• Guide de référence : Champs Qualité des données
•
Editeurs de transformation Qualité des données
8.5.2 Editeurs de transformation Qualité des données
201 2012-11-22
Transformations
Les éditeurs Qualité des données, interfaces graphiques pour configurer les champs et options d'entrée et de sortie, contiennent les zones suivantes : schéma d'entrée (en haut à gauche), schéma de sortie
(en haut à droite) et paramètres (zone inférieure à onglets).
La zone des paramètres comporte trois onglets : Entrée, Options et Sortie. Généralement, la meilleure pratique consiste à remplir les onglets dans cet ordre parce que les paramètres disponibles dans un onglet peuvent dépendre de ceux sélectionnés dans l'onglet précédent.
Zone Schéma d'entrée
La zone Schéma d'entrée affiche les champs d'entrée qui sont sortis par la transformation en amont dans le flux de données.
Zone Schéma de sortie
La zone Schéma de sortie affiche les champs sortis par la transformation et qui deviennent les champs d'entrée de la transformation en aval dans le flux de données.
Onglet Entrée
L'onglet Entrée affiche les noms des champs disponibles reconnus par la transformation. Mappez ces champs aux champs d'entrée de la zone Schéma d'entrée. Le mappage des champs d'entrée aux noms des champs reconnus par la transformation indique à celle-ci comment traiter ces champs.
Onglet Options
L'onglet Options contient les règles de gestion qui déterminent la manière dont la transformation traite les données. Chaque transformation comporte un ensemble d'options disponibles différent. Si vous modifiez la valeur par défaut d'une option, un triangle vert s'affiche près du nom de l'option pour indiquer qu'un remplacement a été effectué.
Dans les transformations Associate, Match et User-Defined, vous ne pouvez pas modifier directement les options dans l'onglet Options. Vous devez utiliser à la place les éditeurs Associate, Match et User-
Defined, qui sont accessibles à l'aide du bouton Modifier les options.
Onglet Sortie
L'onglet Sortie affiche les noms des champs pouvant être sortis par la transformation. Les transformations
Qualité des données peuvent générer des champs en plus des champs d'entrée que traite la transformation, vous pouvez donc sortir plusieurs champs. Ces champs de sortie mappés sont affichés dans la zone Schéma de sortie.
Filtre et tri
Les onglets Entrée, Options et Sortie contiennent chacun des filtres qui déterminent les champs à afficher dans les onglets.
202 2012-11-22
Transformations
Filtre
Meilleure pratique
En cours d'utilisation
Tout
Description
Affiche les champs ou les options ayant été désignés comme meilleure pratique pour ce type de transformation. Ce ne sont toutefois que des propositions, elles peuvent ne pas répondre à vos besoins de traitement ou de sortie des données.
Les configurations de transformation fournies avec le progiciel n'indiquent pas de champs d'entrée meilleure pratique.
Affiche les champs ayant été mappés à un champ d'entrée ou de sortie.
Affiche tous les champs disponibles.
L'onglet Sortie comporte des fonctionnalités supplémentaires de filtrage et de tri, accessibles en cliquant sur les en-têtes des colonnes. Vous pouvez filtrer chaque colonne de données pour afficher une ou plusieurs valeurs et également trier les champs dans l'ordre croissant ou décroissant. Les icônes dans l'en-tête de colonne indiquent si un filtre ou un tri est appliqué à la colonne. Comme il est possible d'appliquer les filtres et les tris sur plusieurs colonnes, l'opération se fait de gauche à droite. Le menu
Filtre et tri n'est pas disponible s'il n'existe qu'un type d'élément dans la colonne.
Aide intégrée
L'aide intégrée sert à rechercher des informations supplémentaires sur les transformations et options de SAP BusinessObjects Data Services. La rubrique change pour fournir une aide sur le contexte dans lequel vous évoluez. Lorsque vous sélectionnez une nouvelle transformation ou un nouveau groupe d'options, la rubrique s'actualise pour refléter cette sélection.
Vous pouvez également naviguer vers d'autres rubriques à l'aide des liens hypertexte de la rubrique ouverte.
Remarque :
Pour afficher les informations des options des transformations Associate, Match et User-Defined, il faut ouvrir leurs éditeurs respectifs en sélectionnant la transformation dans le flux de données, puis Outils
> Editeur <transformation>.
Rubriques associées
•
Editeurs des transformations Associate, Match et User-Defined
8.5.2.1 Editeurs des transformations Associate, Match et User-Defined
203 2012-11-22
Transformations
Les transformations Associate, Match et User-Defined comportent chacune leur propre éditeur dans lequel vous pouvez ajouter des groupes d'options et modifier les options. Les éditeurs de ces trois transformations ont une apparence et des fonctions similaires, dans certains cas, ils partagent les mêmes groupes d'options.
204
La fenêtre de l'éditeur est partagée en quatre zones :
1.
Explorateur d'options — Dans cette zone, vous sélectionnez les groupes d'options ou les opérations disponibles pour la transformation. Pour afficher un groupe d'options masqué, cliquez avec le bouton droit sur le groupe d'options auquel il appartient et sélectionnez son nom dans le menu.
2.
Editeur d'options — Dans cette zone, vous indiquez la valeur de l'option.
3.
Boutons — Utilisez-les pour ajouter, supprimer et ordonner les groupes d'options.
4.
Aide intégrée — L'aide intégrée affiche des informations supplémentaires sur l'utilisation de l'écran actif de l'éditeur.
Rubriques associées
• Guide de référence : Transformations, Associate
• Guide de référence : Transformations, Match
• Guide de référence : Transformations, User-Defined
8.5.2.2 Editeur d'options classées
2012-11-22
Transformations
Certaines transformations permettent de sélectionner et d'indiquer l'ordre de plusieurs valeurs pour une seule option. L'option de séquence d'analyse de la transformation Data Cleanse constitue un exemple.
Pour configurer une option classée :
1.
Cliquez sur les boutons de commande Ajouter et Supprimer pour supprimer des valeurs d'option entre des listes de valeurs Disponible et Sélectionné.
Remarque :
Supprimer toutes les valeurs.Pour supprimer la liste des valeurs Sélectionné et déplacer toutes les valeurs d'option à la liste de valeurs Disponible, cliquez sur Tout supprimer.
2.
Sélectionnez une valeur dans la liste de valeurs Disponible et cliquez sur les boutons de commande
Flèche vers le haut et le bas pour modifier la position de la valeur dans la liste.
3.
Cliquez sur OK pour sauvegarder les modifications apportées à la configuration de l'option. Les valeurs sont répertoriées dans Designer et séparées par des caractères tiret vertical (|).
8.6 Transformations Traitement des données de texte
Les transformations Traitement des données de texte permettent d'extraire des informations spécifiques du texte. Elles peuvent analyser d'importants volumes de texte, identifier et extraire des entités et des faits, par exemple, des clients, des produits, des emplacements et des informations financières pertinentes pour votre organisation. Les sections suivantes présentent cette fonctionnalité et la transformation Entity Extraction.
8.6.1 Présentation du Traitement des données de texte
Le Traitement des données de texte analyse le texte, identifie automatiquement les entités, notamment les personnes, les dates, les lieux, les organisations etc. et les extrait en plusieurs langues. Il recherche
également des modèles, des activités, des événements et des relations parmi des entités et active leur extraction. L'extraction de telles informations à partir du texte, indique le sujet du texte, ces informations peuvent être utilisées dans des applications pour la gestion de l'information, l'intégration de données et la qualité des données ; Business Intelligence ; requête, analyse et reporting ; recherche, navigation, gestion des documents et de contenu parmi d'autres scénarios d'utilisation.
Traitement des données de texte va au-delà des outils conventionnels de correspondance de caractère pour la récupération des informations, permettant de rechercher les correspondances exactes pour des chaînes spécifiques. Il comprend la sémantique des mots. Outre la correspondance d'entité, il exécute une fonction complémentaire de découverte de nouvelle entité. Pour personnaliser l'extraction d'entité, le logiciel vous permet d'indiquer votre propre liste d'entités dans un dictionnaire personnalisé.
205 2012-11-22
Transformations
Ces dictionnaires vous permettent d'archiver des entités et de gérer des variations de nom. Les noms d'entité connus peuvent être standardisés à l'aide d'un dictionnaire.
Le Traitement des données de texte automatise l'extraction des informations clés de sources de texte pour réduire la vérification et le taggage manuels. Ceci permet une réduction des coûts, en facilitant la compréhension des importants insights masqués dans le texte. L'accès aux informations pertinentes
à partir d'un texte non structuré peut faciliter la rationalisation et réduire les coûts superflus.
Dans Data Services, le traitement des données de texte fait référence à un ensemble de transformations qui extrait des informations à partir de données non structurées et crée des données structurées pouvant
être utilisées par divers outils de Business Intelligence.
8.6.2 Présentation de la transformation Entity Extraction
Le traitement des données de texte est réalisé dans le logiciel à l'aide de la transformation suivante :
• Entity Extraction - Extrait des entités et des faits d'un texte non structuré.
L'extraction implique le traitement et l'analyse de texte, la recherche d'entités d'intérêt, leur affectation au type approprié et la présentation de ces métadonnées sous un format standard. Les dictionnaires et les règles vous permettent de personnaliser votre sortie d'extraction pour inclure des entités qui y sont définies. Les applications d'extraction s'adaptent aux besoins de vos informations. Les exemples suivants sont des informations pouvant être extraites à l'aide de cette transformation :
• Co-occurrence et associations de noms de marque, noms de société, personne, volume d'affaires etc.
• Informations concurrentielles sur le marché telles que les activités de concurrent, fusion et
événements d'acquisition, communiqués, contact information etc.
• Associations d'une personne, activités ou rôle dans un événement spécifique.
• Informations sur la réclamation client, rapports ou informations relatives au patient, par exemple les effets inverses du médicament.
• Divers modèles alphanumériques, par ex. numéros ID, dates de contrat, profits etc.
8.6.2.1 Entités et faits - Présentation
Les Entités indiquent des noms de personnes, des lieux et des éléments pouvant être extraits. Les
Entités sont définies comme couplage d'un nom et son type. Le Type indique la catégorie principale d'une entité.
Vous trouverez ci-dessous des exemples d'entités :
• Paris est une entité ayant comme nom "Paris" et comme type LOCALITE.
• M. Joe Smith est une entité ayant comme nom "M. Joe Smith" et comme type PERSONNE.
206 2012-11-22
Transformations
Les entités peuvent avoir des sous-types. Un sous-type indique une autre classification d'une entité ; il désigne une spécification hiérarchique d'un type d'entité permettant de distinguer différentes variétés sémantiques du même type d'entité. Un sous-type peut être décrit comme une sous-catégorie d'une entité.
Vous trouverez ci-dessous des exemples d'entités et de sous-types :
• Boeing 747 est une entité du type VEHICULE et a comme sous-type AIR.
• Mercedes-Benz SL500 est une entité du type VEHICULE et a comme sous-type TERRAIN.
• SAP est une entité du type ORGANISATION et a comme sous-type COMMERCIALE.
Les Faits indiquent un modèle qui crée une expression pour extraire des informations telles que les sentiments, les événements ou les relations. Les faits sont extraits à l'aide de règles d'extraction personnalisées. Un fait désigne un terme de protection couvrant des extractions de modèles plus complexes incluant une ou plusieurs entités, une relation entre une ou plusieurs entités ou une sorte de prédicat concernant une entité. Les faits indiquent dans quel contexte différentes entités sont reliées dans le texte. Les entités par elles-mêmes indiquent uniquement qu'elles figurent dans un document mais les faits fournissent des informations sur la façon dont ces entités sont reliées. Les types de faits identifient la catégorie d'un fait ; par exemple, des sentiments et des demandes. Un sous-fait désigne des informations clés imbriquées dans un fait. Un type de sous-fait peut être décrit comme une catégorie associée au sous-fait.
Vous trouverez ci-dessous quelques exemples de faits et de types de faits :
• SAP a acquis Business Objects dans de bonnes conditions. Il s'agit d'un événement de type fusion et acquisition (M&A).
• Monsieur Joe Smith est très préoccupé par ses réservations auprès de la compagnie aérienne. Il s'agit d'un fait de type SENTIMENT.
Comment fonctionne l'extraction
Le processus d'extraction utilise sa connaissance inhérente de la sémantique des mots et du contexte linguistique dans lequel ces mots apparaissent pour rechercher des entités et des faits. Il crée des modèles spécifiques pour extraire des entités et des faits en fonction de règles système. Vous pouvez ajouter des entrées dans un dictionnaire et écrire des règles personnalisées pour personnaliser une sortie d'extraction. Le texte d'exemple suivant et la sortie de l'exemple suivante indiquent comment un contenu non structuré peut être transformé en une information structurée pour être traité et analysé ultérieurement.
Exemple : Texte d'exemple et informations relatives à l'extraction
"M. Jones est très ennuyé par rapport à Green Insurance Corp. L'offre relative à son véhicule soldé n'est pas assez importante. Il déclare que Green lui a proposé 1250 $ mais sa voiture est estimée partout à 2500 $ et 4500 $. Monsieur Jones souhaiterait que Green s'aligne sur d'autres concurrents."
Cet exemple de texte, lorsqu'il est traité avec la transformation d'extraction, configuré à l'aide des règles personnalisées de sentiment et de demande identifierait et regrouperait les informations de façon logique (identification d'entités, sous-types, faits, types de faits, sous-faits et types de sous-faits) pouvant être traités ultérieurement.
207 2012-11-22
Transformations
Les tableaux suivants indiquent des résultats partiels avec des informations marquées comme entités, types d'entités, sous-types, faits, types de faits, sous-faits et types de sous-faits à partir de l'exemple de texte :
Sous-type Entités
M. Jones
Green Insurance
Green
1250 $
Type d'entité
PERSONNE
ORGANISATION
DIVERS_PROPRIETE
DEVISE
COMMERCIALE
Type de sous-fait Faits Type de fait Sous-fait
M. Jones est très ennuyé par rapport
à Green Insurance
Corp.
SENTIMENT très ennuyé
Jones souhaiterait que Green s'aligne sur d'autres concurrents.
DEMANDE
SentimentTrèsNégatif
208
8.6.2.2 Présentation du dictionnaire
Un dictionnaire d'extraction désigne un répertoire d'entités défini par l'utilisateur. Il s'agit d'un outil de personnalisation facile à utiliser qui indique une liste d'entités que la transformation Entity Extraction doit toujours extraire lors du traitement d'un texte. Les informations sont classées sous le formulaire standard et la variante d'une entité. Un formulaire standard peut avoir une ou plusieurs variantes imbriquées ; les variantes sont d'autres noms connus d'une entité. Par exemple, United Parcel Service of America est le formulaire standard pour cette société et United Parcel Service et UPS sont tous deux des variantes de la même société.
Alors que chaque formulaire standard doit avoir un type, les variantes peuvent de manière facultative avoir leur propre type , par exemple alors que United Parcel Service of America est associé à un type de formulaire standard ORGANISATION, vous devez peut-être définir un type de varianteABBREV pour inclure des abréviations. Une structure du dictionnaire peut permettre de standardiser les références d'une entité.
2012-11-22
Transformations
8.6.2.3 Aperçu de règle
Une règle d'extraction définit des modèles personnalisés pour extraire des entités, des relations, des
événements et d'autres extractions plus importantes soumises ensemble en tant que faits. Vous écrivez des règles d'extraction personnalisées pour exécuter une extraction répondant à vos besoins spécifiques.
8.6.3 Utilisation de la transformation Entity Extraction
La transformation Entity Extraction peut extraire des informations à partir d'un contenu au format texte,
HTML, XML, ou binaire (tel que PDF) et générer une sortie structurée. Vous pouvez utiliser la sortie de plusieurs façons en fonction de votre workflow. Vous pouvez l'utiliser comme entrée pour une autre transformation ou l'écrire dans plusieurs sources de sortie, par exemple une table de base de données ou un fichier plat. La sortie est générée en codage UTF-16. La liste suivante indique des scénarios sur le moment où utiliser la transformation seule ou associée à d'autres transformations Data Services.
• Recherche d'informations et de relations spécifiques issues d'une quantité importante de texte liée
à un domaine générale. Par exemple, une société est intéressée par l'analyse des commentaires client reçus dans un texte en forme libre suite au lancement d'un nouveau produit.
• Relier des informations structurées à partir d'un texte non structuré avec des informations structurées existantes pour effectuer de nouvelles connexions. Par exemple, un service de poursuite pénale essaie d'établir des connexions entre divers crimes et des personnes impliquées à l'aide de sa propre base de données et des informations disponibles dans divers rapports au format texte.
• Analyse et rapport relatif aux problèmes de qualité d'un produit, par exemple des réparations trop
élevées et des retours de certains produits. Par exemple, vous pouvez disposer d'informations structurées sur des produits, des pièces, des clients et des fournisseurs dans une base de données, alors que des informations importantes relatives aux problèmes peuvent se présenter sous forme de notes : champs d'enregistrements de maintenance, journaux de réparation, escalades produit et journaux de centre de support. Pour identifier les problèmes, vous devez établir des connexions entre diverses formes de données.
8.6.4 Différences entre traitement des données de texte et transformations Data
Cleanse
La transformation Entity Extraction propose une fonctionnalité similaire à la transformation Data Cleanse dans certains cas, notamment concernant les fonctions de personnalisation. Cette section décrit les différences entre les deux transformations et celle qui doit être utilisée conformément à vos objectifs.
La transformation Traitement des données de texte et la transformation Entity Extraction sont logiques
209 2012-11-22
Transformations pour un contenu non structuré et la transformation Data Cleanse permet de standardiser et de nettoyer des données structurées. Le tableau suivant décrit certaines des principales différences. Dans de nombreux cas, l'utilisation d'une combinaison transformations Entity Extraction/Data Cleanse génèrera les données les mieux adaptées à vos analyses et rapports Business Intelligence.
Critères
Type d'entrée
Traitement des données de texte Data Cleanse
Texte non structuré nécessitant une analyse linguistique pour générer des informations pertinentes.
Données structurées représentées comme champs d'enregistrements.
Taille d'entrée
Supérieure à 5 Ko du texte.
Inférieure à 5 Ko du texte.
Périmètre d'entrée
Tâche correspondante
Normalement domaine général avec variations.
Découverte de contenu, réduction bruit, correspondance de modèle et relation entre différentes entités.
Domaine de données spécifique avec variations limitées.
Recherche dans le dictionnaire, reconnaissance des dépendances.
Utilisation potentielle
Sortie
Identifie les informations potentiellement significatives à partir d'un contenu non structuré et les extrait sous un format pouvant être archivé dans un référentiel.
Garantit la qualité des données pour la correspondance et l'archivage dans un référentiel tel que
Meta Data Management.
Crée des annotations sur le texte source sous forme d'entités, de types d'entités, de faits et leur décalage, longueur etc. L'entrée n'est pas modifiée.
Crée des champs analysés et standardisés.
L'entrée est modifiée si nécessaire.
8.6.5 Utilisation de plusieurs transformations
Vous pouvez inclure plusieurs transformations dans le même flux de données pour effectuer diverses analyses sur des informations non structurées.
Par exemple, pour extraire des noms et des adresses imbriqués dans un texte et valider les informations avant l'exécution de l'analyse sur les informations extraites, vous pourriez effectuer les opérations suivantes :
• Utiliser la transformation Extraction d'entité pour traiter un texte contenant des noms et des adresses et extraire différentes entités.
210 2012-11-22
Transformations
• Transférer la sortie d'extraction à la transformation Case pour identifier les lignes représentant des noms et les lignes représentant des adresses
• Utiliser la transformation Data Cleanse pour standardiser les noms extraits et utiliser la transformation
Global Address Cleanse pour valider et corriger les données d'adresse extraites.
Remarque :
Pour générer les données correctes, incluez les champs standard_form et type dans le schéma de sortie de transformation Extraction d'entité ; mappez le champ type dans la transformation Case en fonction du type d'entité, par exemple PERSONNE, ADRESSE1 etc. Puis mappez toute entité PERSONNE de la transformation Case à la transformation Data Cleanse et mappez toute entité ADRESSE1 ) à la transformationGlobal Address Cleanse.
8.6.6 Exemples d'utilisation de transformation Entity Extraction
Cette section décrit des exemples d'utilisation de la transformation Entity Extraction.
Le scénario est le suivant : un service de ressources humaines souhaite analyser des CV reçus sous divers formats. Les formats sont les suivants :
• Un fichier texte en tant que pièce jointe à un e-mail
• Un CV texte collé dans un champ sur le site Web de la société
• Mises à jour de contenu de CV que le service souhaite traiter en temps réel
Exemple : Pièce jointe d'e-mail de fichier texte
Le service des ressources humaines reçoit fréquemment des CV comme pièces jointes aux e-mails de la part de candidats. Il archive ces pièces jointes dans un répertoire distinct sur un serveur.
Pour analyser et traiter des données à partir de ces fichiers texte :
1.
Configurez un format de fichier Texte non structuré indiquant le répertoire des CV.
2.
Créez un flux de données avec le format de fichier texte non structuré comme source, une transformation Entity Extraction et une cible.
3.
Configurez la transformation à traiter et analysez le texte.
Exemple : Le CV texte collé dans un champ sur un site Web
Le formulaire de candidature en ligne du service des ressources humaines comprend un champ où les candidats peuvent coller leurs CV. Ce champ est capturé dans une colonne de table de base de données.
Pour analyser et traiter les données de la base de données :
1.
Configurez une connexion à la base de données via une banque de données.
2.
Créez un flux de données avec la table de base de données comme source, une transformation
Entity Extraction et une cible.
211 2012-11-22
Transformations
3.
Configurez la transformation à traiter et analysez le texte.
Exemple : Contenu mis à jour à traiter en temps réel
Supposez que le service des ressources humaines recherche une compétence spécifique chez une candidate. Lorsque la candidate met à jour son CV sur le formulaire Web de la société avec la compétence requise, le responsable RH souhaite immédiatement en être informé. Utilisez un job en temps réel pour activer cette fonctionnalité.
Pour analyser et traiter les données en temps réel :
1.
Ajoutez un job en temps réel incluant des marqueurs de début et de fin et un flux de données.
Connectez les objets.
2.
Créez le flux de données avec une source de message, une transformation Entity Extraction et une cible de message.
3.
Configurez la transformation à traiter et analysez le texte.
Rubriques associées
•
Banques de données de bases de données
•
8.6.7 Ajout d'une transformation de traitement des données de texte à un flux de données
1.
Ouverture d'un objet flux de données.
2.
Ouvrez la bibliothèque d'objets locale si ce n'est pas déjà fait.
3.
Accédez à l'onglet Transformations.
4.
Développez le dossier de transformations Traitement des données de texte et sélectionnez la transformation ou la configuration de transformation à ajouter au flux de données.
5.
Faites glisser l'icône de la transformation ou de la configuration de transformation dans l'espace de travail du flux de données. Si vous avez sélectionné une transformation disposant de configurations de transformation, un menu déroulant vous invite à en sélectionner une.
6.
Dessinez les connections du flux de données.
Pour connecter une source ou une transformation à une autre transformation, cliquez sur le carré situé sur le bord droit de la source ou de la transformation en amont et faites glisser le curseur vers la flèche placée sur le bord gauche de la transformation de traitement des données de texte.
• L'entrée pour la transformation peut être la sortie d'une autre transformation ou d'une source.
• Vous pouvez connecter la sortie de la transformation à l'entrée d'une autre transformation ou cible.
212 2012-11-22
Transformations
7.
Double-cliquez sur le nom de la transformation.
Cette action ouvre l'éditeur de transformation, qui permet d'effectuer la définition de la transformation.
8.
Dans le schéma d'entrée, sélectionnez le champ d'entrée que vous désirez mapper et faites-le glisser vers le champ approprié de l'onglet Entrée.
Cette action mappe le champ d'entrée à un nom de champ qui est reconnu par la transformation afin que celle-ci sache comment la traiter correctement. Par exemple,
• un champ d'entrée nommé Contenu sera mappé au champ d'entrée TEXT.
• un champ d'entrée qui peut identifier de manière unique le contenu sera mappé au champ d'entrée
TEXT_ID.
9.
Dans l'onglet Options, sélectionnez les valeurs de l'option appropriée pour déterminer la manière dont la transformation traitera vos données.
Mappez les champs d'entrée avant de définir les valeurs des options.
Si vous modifiez la valeur par défaut d'une option, un triangle vert s'affiche près du nom de l'option pour indiquer qu'un remplacement a été effectué.
10.
Dans l'onglet Sortie, double-cliquez sur les champs que vous désirez sortir de la transformation.
Les transformations peuvent générer des champs en plus des champs d'entrée que traite la transformation, vous pouvez donc sortir plusieurs champs.
Vérifiez que vous avez défini les options avant de mapper les champs de sortie.
Les champs sélectionnés apparaissent dans le schéma de sortie. Le schéma de sortie de cette transformation devient le schéma d'entrée de la prochaine transformation dans le flux de données.
11.
Si vous désirez transmettre des données via la transformation sans les traiter, faites glisser directement les champs du schéma d'entrée au schéma de sortie.
12.
Pour renommer ou redimensionner un champ de sortie, double-cliquez dessus et modifiez les propriétés dans la fenêtre "Propriétés des colonnes".
Rubriques associées
•
Editeur de transformation Entity Extraction
• Guide de référence : Transformation Entity Extraction, Champs d'entrée
• Guide de référence : Transformation Entity Extraction, Champs de sortie
• Guide de référence : Transformation Entity Extraction, Options d'extraction
8.6.8 Editeur de transformation Entity Extraction
Les options de transformation Entity Extraction indiquent divers paramètres de traitement de contenu
à l'aide de la transformation. Les options de filtrage parmi différentes options d'extraction permettent de limiter les entités et les fais extraits, à des entités spécifiques à partir d'un dictionnaire, de fichiers système, d'entités/de faits issus de règles ou une combinaison de ces éléments.
Les options d'extraction sont divisées en catégories qui sont les suivantes :
213 2012-11-22
Transformations
•
Commun
Cette option est définie pour indiquer que la transformation Entity Extraction doit être exécutée comme un processus séparé.
•
Langues
Option obligatoire. Utilisez cette option pour indiquer la langue du processus d'extraction. L'option de filtrage Types d'entités est facultative et vous pouvez la sélectionner lorsque vous sélectionnez la langue pour limiter votre sortie d'extraction.
•
Options de traitement
Utilisez ces options pour indiquer les paramètres à utiliser lors du traitement du contenu.
•
Dictionnaires
Utilisez cette option pour indiquer différents dictionnaires à utiliser pour le traitement du contenu.
Pour utiliser l'option de filtrage Types d'entités , vous devez indiquer le Fichier dictionnaire.
Remarque :
Traitement des données de texte comprend le fichier schéma dictionnairedictionnaire d'extraction.xsd
. Par défaut, ce fichier est installé dans le dossier LINK_DIR/bin, où LI
NK_DIR est votre répertoire d'installation Data Services. Reportez-vous à ce schéma pour créer vos propres fichiers dictionnaire.
•
Règles
Utilisez cette option pour indiquer différents fichiers de règles à utiliser pour traiter le contenu. Pour utiliser l'option de filtrage Noms de règles , vous devez indiquer le Fichier de règles.
Si vous n'indiquez aucune option de filtrage, la sortie d'extraction contiendra toutes les entités extraites
à l'aide des types d'entités définis dans la langue sélectionnée, fichier(s) dictionnaire et nom(s) de règles dans le(s) fichier(s) dictionnaire sélectionné(s).
Remarque :
La sélection d'un fichier dictionnaire ou un fichier de règles dans le processus d'extraction est facultative.
La sortie d'extraction inclura les entités internes, si elles sont indiquées.
Rubriques associées
•
• Guide de référence : Transformation Entity Extraction, options d'extraction
• Guide de personnalisation Extraction traitement des données de texte : Utilisation de dictionnaires
8.6.9 Utilisation d'options de filtrage
Les options de filtrage sous différentes options d'extraction contrôlent la sortie générée par la transformation Entity Extraction. L'utilisation de ces options permet de limiter les entités extraites à des
214 2012-11-22
Transformations entités spécifiques d'un dictionnaire, les fichiers système, les entités/faits de règles ou une combinaison de ces éléments. Par exemple, vous traitez des champs de commentaires client pour une société automobile et vous êtes intéressé par les commentaires liés à un modèle spécifique. L'utilisation des options de filtrage permet de contrôler votre sortie pour extraire des données uniquement liées à ce modèle.
Les options de filtrage sont divisées en trois catégories :
• L'option Filtrer par types d'entités sous le groupe d'options Langues - Utilisez cette option pour limiter la sortie d'extraction uniquement à l'inclusion d'entités sélectionnées pour cette langue.
• L'option Filtrer par types d'entités sous le groupe d'options Dictionnaire - Utilisez cette option pour limiter la sortie d'extraction uniquement à l'inclusion d'entités définies dans un dictionnaire.
• L'option Filtrer par noms de règles sous le groupe d'options Règles - Utilisez cette option pour limiter la sortie d'extraction uniquement à l'inclusion d'entités et des faits renvoyés par les règles spécifiques.
Le tableau suivant décrit des informations figurant dans la sortie d'extraction en fonction de la combinaison de ces options :
La ngues
Types d'entités
Oui
Non
Oui
Non
Diction naires
Types d'entités
Règles Contenu de sortie d'extraction
Noms de règle
Non
Oui
Oui
Non
Non
Non
Non
Oui
Remarque
Entités (extraites à l'aide des types d'entités) sélectionnées dans le filtre.
Entités (extraites à l'aide des types d'entités) définies dans la langue sélectionnée et types d'entités sélectionnés à partir du filtre des dictionnaires.
Si plusieurs dictionnaires contenant le même type d'entité sont indiqués, mais que ce type est sélectionné uniquement comme filtre pour l'un de ces dictionnaires, les entités de ce type seront également renvoyées à partir de l'autre dictionnaire.
Entités (extraites à l'aide des types d'entités) définies dans les filtres pour la langue sélectionnée et tout dictionnaire indiqué.
Entités (extraites à l'aide des types d'entités) définies dans la langue sélectionnée et tout nom de règle sélectionné dans le filtre à partir de tout fichier de règles indiqué.
Si plusieurs fichiers de règles contenant le même nom de règle sont indiqués mais si ce nom est sélectionné uniquement comme filtre pour l'un de ces fichiers, les entités et les faits de ce type seront également renvoyés à partir de l'autre fichier de règles.
215 2012-11-22
Transformations
La ngues
Diction naires
Règles Contenu de sortie d'extraction
Non
Oui
Oui
Oui
Non
Oui
Oui
Oui
Oui
Remarque
Entités (extraites à l'aide de types d'entités) définies dans la langue sélectionnée, types d'entités sélectionnés à partir du filtre de dictionnaires et tout nom de règle sélectionné dans le filtre à partir de tout fichier de règles indiqué.
Entités (extraites à l'aide de types d'entités) définies dans les filtres pour la langue sélectionnée et tout nom de règle sélectionné dans le filtre à partir de tout fichier de règles indiqué.
Entités (extraites à l'aide de types d'entités) définies dans les filtres pour la langue sélectionnée, types d'entités sélectionnés à partir du filtre de dictionnaires et tout nom de règle sélectionné dans le filtre à partir de tout fichier de règles indiqué.
Le processus d'extraction filtre la sortie à l'aide de l'union d'entités ou de faits extraits pour la langue sélectionnée, les dictionnaires et les fichiers de règles.
Si vous modifiez la langue, les dictionnaires ou les règles sélectionné(e)s, tout filtrage associé à cette option sera uniquement réinitialisée en cliquant sur l'option Filtrer par.... Vous devez sélectionner de nouveaux choix de filtrage en fonction de la sélection modifiée.
Remarque :
• Si vous utilisez plusieurs dictionnaires (ou règles) et avez défini des options de filtrage pour certains des dictionnaires sélectionnés (ou règles), le processus d'extraction combine les dictionnaires en interne et la sortie est filtrée à l'aide de l'union des types d'entités sélectionnés pour chaque dictionnaire et des noms de règle sélectionnés pour chaque fichier de règles. La sortie identifiera la source comme un fichier de dictionnaire (ou règle) et non le nom individuel d'un fichier de dictionnaire (ou règle).
• Si vous sélectionnez l'option Dictionnaire uniquement sous le groupe Options de traitement avec un fichier de dictionnaire valide, les types d'entités définis pour la langue ne sont pas inclus dans la sortie d'extraction mais toute entité et tout fait de fichiers de règles extrait(e) est inclus(e).
Rubriques associées
•
Editeur de transformation Entity Extraction
216 2012-11-22
Worflows
Worflows
Rubriques associées
•
•
•
Ordre d'exécution dans les workflows
•
•
•
•
•
•
9.1 Qu'est-ce qu'un workflow ?
Un workflow définit le processus de prise de décision pour l'exécution de flux de données. Par exemple, les éléments d'un workflow peuvent déterminer le chemin d'exécution en fonction d'une valeur définie par un job précédent ou peut indiquer un autre chemin si le chemin principal est incorrect. Finalement, un workflow a pour but de préparer l'exécution de flux de données et de définir l'état du système à la fin de l'exécution des flux de données.
217
Les jobs (présentés dans
) sont des workflows spécifiques. Les jobs ont une particularité en ce sens où vous pouvez les exécuter. Presque toutes les fonctionnalités documentées pour les workflows s'appliquent également aux jobs, à une exception : les jobs n'ont pas de paramètre.
2012-11-22
Worflows
9.2 Etapes d'un workflow
Les étapes de workflow prennent la forme d'icône que vous placez dans l'espace de travail pour créer un diagramme de workflows. Les objets suivants peuvent être des éléments de workflows :
• Workflows
• Flux de données
• Scripts
• Structures conditionnelles
• Boucles WHILE
• Blocs Try/Catch
Les workflows peuvent appeler d'autres workflows et vous pouvez imbriquer des appels dans n'importe quelle profondeur. Un workflow peut également s'appeler lui-même.
Les connexions que vous établissez entre les icônes dans l'espace de travail déterminent l'ordre dans lequel des workflows sont exécutés, sauf si les jobs contenant ces workflows sont exécutés en parallèle.
9.3 Ordre d'exécution dans les workflows
Les étapes d'un workflow sont exécutées dans une séquence de gauche à droite, indiquée par les lignes reliant les étapes. Vous trouverez ci-dessous le diagramme d'un workflow appelant trois flux de données :
Notez que Data_Flow1 n'a aucune connexion de la gauche mais est relié de la l'arête droite à l'arête gauche de Data_Flow2 et que ce Data_Flow2 est relié à Data_Flow3. Un seul thread de contrôle relie les trois étapes. L'exécution commence par Data_Flow1 et se poursuit à travers les trois flux de données.
Reliez les étapes d'un workflow lorsqu'il existe une dépendance entre les étapes. S'il n'existe aucune dépendance, les étapes ne doivent pas être reliées. Dans ce cas, le logiciel peut exécuter les étapes indépendantes dans le workflow en tant que processus distincts. Dans le workflow suivant, le logiciel exécute les flux de données 1 à 3 en parallèle :
218 2012-11-22
Worflows
Pour exécuter des workflows plus complexes en parallèle, définissez chaque séquence comme workflow distinct puis appelez chacun des workflows d'un autre workflow comme dans l'exemple suivant :
Vous pouvez indiquer qu'un job exécute un workflow spécifique ou un flux de données à la fois. Dans ce cas, le logiciel exécute la première occurrence du workflow ou de flux de données ; le logiciel ignore les occurrences suivantes dans le job. Vous pouvez utiliser cette fonctionnalité pour un développement complexe de jobs avec plusieurs chemins, par exemple des jobs avec des blocs Try/Catch ou des structures conditionnelles et vous souhaitez garantir que le logiciel exécute uniquement un workflow spécifique ou un flux de données à la fois.
9.4 Exemple de workflow
Supposez que vous souhaitiez mettre à jour une table de faits. Vous définissez un flux de données dans lequel la transformation de données actuelle a lieu. Cependant, avant de déplacer des données de la source, vous souhaitez déterminer la dernière date de mise à jour de la table de faits, de telle sorte que seules les lignes ajoutées ou modifiées depuis cette date, soient extraites.
Vous devez écrire un script pour déterminer la dernière date de mise à jour. Vous pouvez alors transférer cette date au flux de données comme paramètre.
En outre, vous voulez vérifier que les connexions de données requises pour créer la table de faits sont actives lorsque les données sont lues à partir de cette dernière. Pour ce faire, dans le logiciel, définissez un bloc Catch/Try. Si les connexions ne sont pas actives, le catch exécute un script que vous avez
écrit, qui envoie automatiquement un e-mail informant un Administrateur du problème.
Les scripts et la détection d'erreur ne peuvent pas être exécutés dans le flux de données. Il existe plutôt des étapes de processus de prise de décision influençant le flux de données. Ce processus de prise de décision est défini comme workflow, tel que le suivant :
219 2012-11-22
Worflows
Le logiciel exécute ces étapes dans l'ordre dans lequel vous les avez reliées.
9.5 Création de workflows
Vous pouvez créer des workflows via l'une des deux méthodes suivantes :
• Bibliothèque d'objets
• Palette d'outils
Une fois que vous avez créé un workflow, vous pouvez indiquer qu'un seul job exécute le workflow à la fois, sous forme de processus simple ou continu, même si ce dernier apparaît plusieurs fois dans le job.
9.5.1 Pour créer un workflow à l'aide de la bibliothèque d'objets
1.
Ouvrez la bibliothèque d'objets.
2.
Accédez à l'onglet Workflows.
3.
Cliquez avec le bouton droit de la souris et sélectionnez Nouveau.
4.
Faites glisser le workflow dans le diagramme.
5.
Ajoutez les flux de données, les workflows, les structures conditionnelles et les scripts dont vous avez besoin.
9.5.2 Pour créer un workflow à l'aide de la palette d'outils
1.
Sélectionnez l'icône Workflow dans la palette d'outils.
2.
Cliquez sur l'endroit où vous souhaitez placer le workflow dans le diagramme.
Si plusieurs instances d'un workflow apparaissent dans un job, vous pouvez améliorer la performance de l'exécution en lançant le workflow une seule fois.
220 2012-11-22
Worflows
9.5.3 Pour indiquer qu'un job exécute le workflow une seule fois
Lorsque vous indiquez qu'un workflow doit être exécuté une seule fois, un job n'exécutera jamais ce workflow à nouveau, sauf si le workflow figure dans un workflow qui est une unité de restauration pour laquelle l'exécution a de nouveau échoué ailleurs en dehors de cette unité de restauration.
Il est recommandé de ne pas activer l'option Exécuter une seule fois pour un workflow, si ce dernier ou un workflow parent est une unité de restauration.
1.
Cliquez avec le bouton droit de la souris sur le workflow et sélectionnez Propriétés.
La fenêtre Propriétés s'ouvre pour le workflow.
2.
Sélectionnez Régulier dans la liste déroulante Type d'exécution.
3.
Cochez la case Exécuter une seule fois
4.
Cliquez sur OK.
Rubriques associées
• Guide de référence : Workflow
9.6 Structures conditionnelles
Les structures conditionnelles sont des objets à utilisation unique utilisés pour implémenter une logique if/then/else dans un workflow. Les structures conditionnelles et leurs composants (expressions if, diagrammes then et else) sont incluses dans le périmètre des variables et des paramètres de flux de contrôle parent.
Pour définir une structure conditionnelle, indiquez une condition et deux branches logiques :
221 2012-11-22
Worflows
Branche conditionnelle Description
If
Expression booléenne qui donne la valeur VRAI ou FAUX Vous pouvez utiliser des fonctions, des variables et des opérateurs standard pour créer l'expression.
Then
Else
Eléments de workflow à exécuter si l'expression If donne la valeur VRAIE
(Facultatif) Eléments de workflow à exécuter si l'expressionIf donne la valeur
FALSE.
Définissez les branches Then et Else dans la structure conditionnelle.
Une structure conditionnelle peut être intégrée à un workflow. Supposez que vous utilisiez un fichier de commandes Windows pour transférer des données d'un système hérité dans le logiciel. Vous écrivez un script dans un workflow pour exécuter le fichier de commandes et renvoyer un indicateur correct.
Vous définissez ensuite une structure conditionnelle qui lit l'indicateur pour déterminer si les données sont disponibles pour le reste du workflow.
222
Pour implémenter cette structure conditionnelle dans le logiciel, vous définissez deux workflows, un pour chaque branche de la structure conditionnelle. Si les éléments de chaque branche sont simples, vous pouvez les définir dans l'éditeur de structures conditionnelles lui-même.
Les branches Then et Else de la structure conditionnelle peuvent contenir tout objet susceptible de se trouver dans un workflow, notamment d'autres workflows, des structures conditionnelles imbriquées, des blocs Try/Catch, etc.
2012-11-22
Worflows
9.6.1 Pour définir une structure conditionnelle
1.
Définissez les workflows appelés par les branches Then et Else de la structure conditionnelle.
Il est recommandé de définir, tester et sauvegarder chaque workflow comme objet distinct plutôt qu'en créant ces workflows dans l'éditeur de structures conditionnelles.
2.
Ouvrez le workflow dans lequel vous souhaitez placer la structure conditionnelle.
3.
Cliquez sur l'icône pour une structure conditionnelle dans la palette d'outils.
4.
Cliquez sur l'emplacement où vous souhaitez placer la structure conditionnelle dans le diagramme.
La structure conditionnelle apparaît dans le diagramme.
5.
Cliquez sur le nom de la structure conditionnelle pour ouvrir l'éditeur de structures conditionnelles.
6.
Cliquez sur if.
7.
Saisissez l'expression booléenne contrôlant la structure conditionnelle.
Poursuivez la création de votre expression. Vous souhaitez peut-être utiliser l'assistant de fonction ou l'éditeur rapide.
8.
Une fois l'expression créée, cliquez sur OK.
9.
Ajoutez le workflow prédéfini dans la case Then.
Pour ajouter un workflow existant, ouvrez la bibliothèque d'objets dans l'onglet Workflows, sélectionnez le workflow souhaité puis faites-le glisser dans la case Then.
10.
(Facultatif) Ajoutez le workflow prédéfini dans la case Else.
Si l'expression IF donne la valeur FAUX et la case Else n'est pas cochée, le logiciel quitte la structure conditionnelle et poursuit avec le workflow.
11.
Une fois la structure conditionnelle exécutée, sélectionnez DeboggerValider.
Le logiciel teste votre structure conditionnelle par rapport aux erreurs de syntaxe et affiche toutes les erreurs rencontrées.
12.
La structure conditionnelle est à présent définie. Cliquez sur le bouton Retour pour revenir au workflow appelant la structure conditionnelle.
9.7 Boucles WHILE
Utilisez une boucle WHILE pour répéter une séquence d'étapes dans un workflow tant qu'une condition est vraie.
Cette section aborde les thèmes suivants :
223 2012-11-22
Worflows
•
Considérations en matière de conception
•
•
Utilisation d'une boucle WHILE avec Afficher les données
9.7.1 Considérations en matière de conception
La boucle WHILE désigne un objet à utilisation unique que vous pouvez utiliser dans un workflow. La boucle WHILE répète une séquence d'étapes tant que la condition est vraie.
224
Généralement, les étapes exécutées au cours de la boucle WHILE se traduisent par une modification de la condition de telle sorte qu'éventuellement, la condition ne soit plus remplie et que le workflow existe à partir de la boucle WHILE. Si la condition n'est pas modifiée, la boucle WHILE n'est pas interrompue.
Par exemple, vous souhaitez peut-être qu'un workflow attende jusqu'à ce que le système écrive un fichier spécifique. Vous pouvez utiliser une boucle WHILE pour vérifier l'existence du fichier à l'aide de la fonction file_exists. Tant que le fichier n'existe pas, vous pouvez exécuter le workflow en mode veille pour une durée spécifique, soit une minute avant que le contrôle ne reprenne.
Comme le système peut ne jamais écrire le fichier, vous devez ajouter un autre contrôle à la boucle, par exemple un compteur, pour garantir que la boucle WHILE existe éventuellement. En d'autres mots, modifiez la boucle WHILE pour vérifier l'existence du fichier et la valeur du compteur. Dès que le fichier n'existe pas et que la valeur du compteur est inférieure à une valeur spécifique, répétez la boucle
WHILE. Dans chaque itération de la boucle, mettez le workflow en mode veille puis augmentez le compteur.
2012-11-22
Worflows
9.7.2 Définition d'une boucle WHILE
Vous pouvez définir une boucle WHILE dans tout workflow.
225
9.7.2.1 Pour définir une boucle WHILE
1.
Ouvrez la workflow où vous souhaitez placer la boucle WHILE.
2.
Cliquez sur l'icône Boucle WHILE dans la palette d'outils.
3.
Cliquez sur l'emplacement où vous souhaitez placer la boucle WHILE dans le diagramme d'espace de travail.
La boucle WHILE s'affiche dans le diagramme.
4.
Cliquez sur la boucle WHILE pour ouvrir l'éditeur de boucles WHILE.
5.
Dans la case WHILE en haut de l'éditeur, saisissez la condition qui s'applique à l'initialisation et répétez les étapes dans la boucle WHILE.
Vous pouvez également cliquer sur pour ouvrir l'éditeur d'expressions qui vous permet, en agrandissant l'espace, de saisir une expression et d'accéder à l'assistant de fonction. Cliquez sur
OK dès que vous avez saisi une expression dans l'éditeur.
6.
Ajoutez les étapes que vous voulez exécuter au cours de la boucle WHILE dans l'espace de travail, dans l'éditeur de boucles WHILE.
2012-11-22
Worflows
Vous pouvez ajouter tout objet valide dans un workflow incluant des scripts, des workflows et des flux de données. Reliez ces objets pour représenter l'ordre dans lequel vous souhaitez exécuter les
étapes.
Remarque :
Même si vous pouvez inclure le workflow dans la boucle WHILE, des appels récursifs peuvent créer une boucle infinie.
7.
Une fois que vous avez défini les étapes dans la boucle WHILE, sélectionnez Débogage > Valider.
Le logiciel teste votre définition par rapport aux erreurs de syntaxe et affiche les erreurs rencontrées.
8.
Fermez l'éditeur de boucles WHILE pour revenir au workflow appelant.
9.7.3 Utilisation d'une boucle WHILE avec Afficher les données
Lorsque vous utilisez Afficher les données, un job est interrompu lorsque le logiciel a récupéré le nombre de lignes indiqué pour tous les objets pouvant être analysés.
Selon la conception de votre job, le logiciel peut ne pas exécuter toutes les itérations d'une boucle
WHILE si vous exécutez un job en mode Affichage de données :
• Si la boucle WHILE contient des objets pouvant être analysés et qu'il n' y en a pas en dehors de la boucle WHILE (par exemple si la boucle WHILE est le dernier objet d'un job), l'exécution du job prendra fin après l'analyse des objets dans la boucle WHILE, peut-être à la fin de la première itération de la boucle WHILE.
• S'il reste des objets pouvant être analysés par la suite, la boucle WHILE est exécutée normalement.
Les objets analysés dans la boucle WHILE indiqueront les résultats de la dernière itération.
• S'il n'existe aucun objet pouvant être analysé suite à la boucle WHILE mais s'il existe des objets pouvant être analysés terminés parallèlement à la boucle WHILE, l'exécution du job se termine à la fin de l'analyse de tous les objets pouvant être analysés. La boucle WHILE peut exécuter n'importe quel nombre d'itérations.
9.8 Blocs Try/Catch
Un bloc Try/Catch désigne une combinaison d'un objet Try et d'un ou plusieurs objets Catch qui permettent d'indiquer d'autres workflows si des erreurs surviennent lorsque le logiciel exécute un job.
Blocs Try/Catch :
• Groupes d'exceptions "Catch" "levées" par le logiciel, le DBMS ou le système d'exploitation.
• Appliquez les solutions aux groupes d'exceptions ou aux erreurs spécifiques dans un groupe.
• Poursuivez l'exécution.
226 2012-11-22
Worflows
Les objets Try et Catch sont des objets à utilisation unique.
Voici une méthode générale d'implémentation de la gestion des exceptions :
1.
Insérez un objet Try avant les étapes de gestion des erreurs.
2.
Insérez un objet Catch dans le workflow après les étapes.
3.
Dans l'objet Catch, exécutez les étapes suivantes :
• Sélectionnez un ou plusieurs groupes d'erreurs que vous souhaitez intercepter.
• Définissez les actions exécutées par une exception levée. Un objet de script unique, un flux de données, un workflow ou une combinaison de ces objets sont des actions.
• Facultatif. Utilisez des fonctions Catch dans le bloc Catch pour identifier les détails de l'erreur.
Si une exception est renvoyée au cours de l'exécution d'un bloc Try/Catch et si aucun objet Catch ne recherche cette exception, l'exception est traitée par la logique d'erreur normale.
Le workflow suivant indique un bloc Try/Catch autour d'un flux de données :
Dans ce cas, si le flux de données BuildTable provoque des exceptions générées par le système indiquées dans le catch Catch_A, les actions définies dans Catch_A sont exécutées.
L'action initialisée par l'objet catch peut être simple ou complexe. Voici des exemples d'actions d'exceptions possibles :
• Envoyer le message d'erreur à une base de données de reporting en ligne ou à votre groupe de support.
• Exécuter à nouveau un workflow échoué ou un flux de données.
• Exécuter une diminution de version d'un workflow échoué ou un flux de données.
Rubriques associées
•
Définition d'un bloc Try/Catch
•
Catégories d'exceptions disponibles
•
Exemple : détermination des détails d'une erreur
• Guide de référence : Objets, Catch
9.8.1 Définition d'un bloc Try/Catch
Pour définir des blocs Try/Catch :
1.
Ouvrez le workflow qui contiendra le bloc Try/Catch.
2.
Cliquez sur l'icône Try dans la palette d'outils.
3.
Cliquez sur l'emplacement où vous voulez placer le try dans le diagramme.
227 2012-11-22
Worflows
228
L'icône Try s'affiche dans le diagramme.
Remarque :
Aucun éditeur n'existe pour un Try ; le Try initialise le bloc Try/Catch.
4.
Cliquez sur l'icône Catch dans la palette d'outils.
5.
Cliquez sur l'emplacement où vous voulez placer l'objet catch dans l'espace de travail.
L'objet catch s'affiche dans l'espace de travail.
6.
Reliez les objets Try et Catch aux objets liés.
7.
Cliquez sur le nom de l'objet catch pour ouvrir l'éditeur catch.
8.
Sélectionnez un ou plusieurs groupes dans la liste des Exceptions.
Pour sélectionner tous les groupes d'exceptions, cochez la case en haut.
9.
Définissez les actions à exécuter pour chaque groupe d'exceptions et ajoutez les actions à la boîte de workflows catch. Les actions peuvent être un script individuel, un flux de données, un workflow ou toute combinaison de ces objets.
a.
Il est recommandé de définir, de tester et de sauvegarder les actions comme objet distinct plutôt que de les créer dans l'éditeur Catch.
b.
Pour définir des actions pour des erreurs spécifiques, utilisez les fonctions catch suivantes dans un script exécutant le workflow :
• error_context()
• error_message()
• error_number()
• error_timestamp() c.
Pour ajouter un workflow existant à la case de workflow catch, ouvrez la bibliothèque d'objets dans l'onglet Workflows, sélectionnez le workflow souhaité et glissez-le dans la case.
10.
Une fois le catch exécuté, sélectionnez Validation > Valider > Tous les objets de la vue.
Le logiciel teste votre définition par rapport aux erreurs de syntaxe et affiche les erreurs rencontrées.
11.
Cliquez sur le bouton Retour pour revenir au workflow appelant le catch.
12.
Pour intercepter plusieurs groupes d'exceptions et affecter différentes actions à chacun d'entre eux, répétez les étapes 4 à 11 pour chaque catch dans le workflow.
Remarque :
Dans une séquence de blocs Catch, si un bloc Catch intercepte une exception, les blocs Catch suivants ne seront pas exécutés. Par exemple, si votre workflow a la séquence suivante et que
Catch1 intercepte une exception, Catch2 et CatchAll ne seront pas exécutés.
Try > DataFlow1 > Catch1 > Catch2 > CatchAll
Si une erreur du groupe d'exceptions listée dans le Catch survient au cours de l'exécution de ce bloc
Try/Catch, le logiciel exécute le workflow Catch.
Rubriques associées
•
Catégories d'exceptions disponibles
•
Exemple : détermination des détails d'une erreur
2012-11-22
Worflows
• Guide de référence : Objets, Catch
9.8.2 Catégories d'exceptions disponibles
Les catégories d'exceptions disponibles comprennent les éléments suivant :
• Erreurs d'exécution (1001)
• Erreurs d'accès à la base de données (1002)
• Erreurs de connexion à la base de données (1003)
• Erreurs de traitement de fichier plat (1004)
• Erreurs d'accès au fichier (1005)
• Erreurs d'accès au référentiel (1006)
• Erreurs de système SAP (1007)
• Exception de ressource système (1008)
• Erreurs d'exécution BW SAP (1009)
• Erreurs de traitement XML (1010)
• Erreurs de copybook COBOL (1011)
• Erreurs de classeur Excel (1012)
• Erreurs de transformation Data Quality (1013)
9.8.3 Exemple : détermination des détails d'une erreur
Cet exemple illustre la façon d'utiliser les fonctions d'erreur dans un script de catch. Supposez que vous souhaitiez déterminer des erreurs d'accès à la base de données et envoyer les détails de l'erreur
à votre groupe de support.
1.
Dans l'éditeur catch, sélectionnez le groupe d'exceptions que vous souhaitez déterminer. Dans cet exemple, cochez la case devant Erreurs d'accès à la base de données(1002).
2.
Dans la zone de workflow de l'éditeur catch, créez un objet de script avec le script suivant : mail_to('support@my.com',
'Data Service error number' || error_number(),
'Error message: ' || error_message(),20,20); print('DBMS Error: ' || error_message());
3.
Cet exemple de script de catch inclut la fonction mail_to pour effectuer les opérations suivantes :
• Indiquer l'adresse e-mail de votre groupe de support.
• Envoyer le numéro d'erreur renvoyé par la fonction error_number() pour l'exception détectée.
• Envoyer le message d'erreur renvoyé par la fonction error_message() pour l'exception détectée.
4.
L'exemple de script de catch inclut une commande d'impression permettant d'imprimer le message d'erreur pour l'erreur de la base de données.
229 2012-11-22
Worflows
Rubriques associées
• Guide de référence : Objets, fonctions d'erreur catch
• Guide de référence : Objets, scripts catch
9.9 Scripts
Les scripts sont des objets à utilisation unique, utilisés pour appeler des fonctions et affecter des valeurs aux variables dans un workflow.
Par exemple, vous pouvez utiliser la fonction SQL dans un script pour déterminer la dernière heure de mise à jour pour une table et affecter cette valeur à une variable. Vous pouvez ensuite affecter la variable à un paramètre transféré dans un flux de données et qui identifie les lignes à extraire d'une source.
Un script peut contenir les instructions suivantes :
• Appels de fonction
• Instructions IF
• Instructions WHILE
• Instructions d'affectation
• Opérateurs
Les règles de base pour la syntaxe du script sont les suivantes :
• Chaque ligne se termine par un point-virgule (;).
• Les noms de variables commencent par le symbole dollar ($).
• Les valeurs de chaîne sont entre parenthèses simples (').
• Les commentaires commencent par un symbole dièse (#).
• Les appels de fonction indiquent toujours des paramètres même si la fonction n'utilise aucun paramètre.
Par exemple, l'instruction de script suivante détermine la date du jour et affecte la valeur à la variable
$AUJOURD'UI
:
$TODAY = sysdate();
Vous ne pouvez pas utiliser des variables à moins de les déclarer dans le workflow appelant le script.
Rubriques associées
• Guide de référence : Langue de script Data Services
9.9.1 Création d'un script
230 2012-11-22
Worflows
1.
Ouvrez le workflow.
2.
Cliquez sur l'icone Script dans la palette d'outils.
3.
Cliquez sur l'emplacement où vous souhaitez placer le script dans le diagramme.
L'icône Script s'affiche dans le diagramme.
4.
Cliquez sur le nom du script pour ouvrir l'éditeur de scripts.
5.
Saisissez les instructions de scripts, chacune suivie d'un point-virgule.
L'exemple suivant illustre un script qui détermine l'heure de début d'une fonction personnalisée.
AW_StartJob ('NORMAL','DELTA', $G_STIME,$GETIME);
$GETIME =to_date( sql('ODS_DS','SELECT to_char(MAX(LAST_UPDATE) ,
\'YYYY-MM-DDD HH24:MI:SS\')
FROM EMPLOYEE'),
'YYYY_MMM_DDD_HH24:MI:SS');
Cliquez sur le bouton Fonction pour inclure des fonctions dans votre script.
6.
Une fois le script exécuté, sélectionnez Validation > Valider.
Le logiciel teste votre script par rapport aux erreurs de syntaxe et affiche toutes les erreurs rencontrées.
7.
Cliquez sur le bouton ... puis Sauvegarder pour nommer et sauvegarder votre script.
Le script est toujours sauvegardé sous <LINKDIR>/BusinessObjects Data Services/
DataQuality/Exemples.
9.9.2 Débogage de scripts à l'aide de la fonction d'impression
Le logiciel dispose de fonctionnalité de débogage permettant d'imprimer les éléments suivants :
• Les valeurs de variables et de paramètres lors de l'exécution
• Le chemin d'exécution suivi dans un script
Vous pouvez utiliser la fonction d'impression pour écrire les valeurs de paramètres dans un workflow pour le journal de suivi. Par exemple, cette ligne est un script : print('The value of parameter $x: [$x]'); crée la sortie suivante dans le journal de suivi :
The following output is being printed via the Print function in <Session job_name>.
The value of parameter $x: value
231 2012-11-22
Worflows
Rubriques associées
• Guide de référence : Fonctions et procédure d'impression
232 2012-11-22
Données imbriquées
Données imbriquées
Cette section décrit les données imbriquées ainsi que leur utilisation dans le progiciel.
10.1 Que sont les données imbriquées ?
Les données réelles ont souvent des relations hiérarchiques représentées dans une base de données relationnelle avec des schémas maître-détail utilisant des clés étrangères pour créer le mappage.
Toutefois, certains jeux de données, tels que les documents XML et les IDocs SAP ERP, traitent les relations hiérarchiques à l'aide de données imbriquées.
Le progiciel mappe les données imbriquées avec un schéma distinct qui est implicitement lié à une seule ligne et une seule colonne du schéma parent. Ce mécanisme s'intitule le NRDM (Nested Relational
Data Modelling, modélisation de données relationnelles imbriquées). Le NRDM permet d'afficher et de manipuler les relations hiérarchiques au sein des cibles, des transformations et des sources des flux de données.
Les commandes clients sont souvent présentées en utilisant l'imbrication : les postes d'une commande client sont liés à un seul en-tête et sont affichés à l'aide d'un schéma imbriqué. Chaque ligne du jeu de données de la commande client contient un schéma imbriqué du poste.
10.2 Représentation de données hiérarchiques
Vous pouvez représenter les mêmes données hiérarchiques de différentes manières. Celles-ci incluent notamment :
233 2012-11-22
Données imbriquées
• Lignes multiples dans un seul jeu de données
Jeu de données de commande
N° de commande
IDClient
AdresseLi vraison1
9999
9999
1001
1001
123 State
St
123 State
St
Adresse
Livrai son2
Town,
CA
Town,
CA
Elé me nt
Qté
001 2
002 4
PrixElément
10
5
• Jeux de données multiples liés par une jointure
Jeu de données de l'en-tête de commande
N° de commande
IDClient
9999 1001
AdresseLi vraison1
123 State
St
AdresseLivraison2
Town, CA
Jeu de données des postes
N° de commande
Elément
9999
9999
001
002
Qté
2
4
PrixElément
10
5
OU En-tête de commande N° de commande = Poste N° de commande
• Données imbriquées
La méthode des données imbriquées peut s'avérer plus concise (aucune information répétée) et peut se mettre à l'échelle pour présenter un niveau supérieur de complexité hiérarchique. Par exemple, les colonnes d'un schéma imbriqué peuvent également contenir des colonnes. Il existe une instance unique de chaque schéma imbriqué pour chaque ligne à chaque niveau de la relation.
Jeu de données de la commande
234 2012-11-22
Données imbriquées
En généralisant davantage le concept des données imbriquées, chaque ligne de chaque niveau peut disposer d'un nombre quelconque de colonnes contenant des schémas imbriqués.
Jeu de données de commande
235
Vous pouvez afficher la structure des données imbriquées dans les schémas d'entrée et de sortie des sources, cibles et transformations dans les flux de données. Les schémas imbriqués s'affichent avec une icône de schéma associée d'un signe plus, indiquant que l'objet contient des colonnes. La structure du schéma indique la manière dont les données sont classées.
• Ventes est le schéma de niveau supérieur.
• LineItems est un schéma imbriqué. Le signe moins précédant l'icône de schéma indique que la liste de colonnes est ouverte.
• CustInfo est un schéma imbriqué dont la liste de colonnes est fermée.
2012-11-22
Données imbriquées
10.3 Mise en forme des documents XML
Le progiciel permet d'importer et d'exporter des métadonnées pour des documents XML (fichiers ou messages) utilisés en tant que sources ou cibles dans les jobs. Les documents XML sont des documents hiérarchiques. Leur structure valide est stockée dans des documents aux formats distincts.
Un schéma XML (.xsd, par exemple) ou un fichier Document Type Definition (définition du type de document, .dtd) spécifient le format d'un fichier ou d'un message XML (.xml).
Lors de l'importation de métadonnées du format d'un document, celles-ci sont structurées dans le schéma interne du progiciel pour les documents hiérarchiques utilisant le modèle NRDM.
Rubriques associées
•
•
Spécification d'options de source pour les fichiers XML
•
Mappage de schémas facultatifs
•
Utilisation de Document Type Definitions (DTD)
•
Génération de schémas DTD et XML à partir d'un schéma NRDM
236 2012-11-22
Données imbriquées
10.3.1 Importation de schémas XML
Le progiciel prend en charge les spécifications XML Schema 1.0 du WC3.
Pour un document XML contenant des informations pour passer une commande (en-tête de commande, client et postes), le schéma XML correspondant inclut la structure de la commande et les relations entre les données.
Message avec des données
N° de commande
IDClient
AdresseLi vraison1
9999 1001 123 State St
AdresseLi vraison2
Town, CA
Postes
Elément
001
002
QtéElément PrixElément
2
4
10
5
Chaque colonne du document XML correspond à un ELEMENT ou une définition d'attribut dans le schéma XML.
Schéma XML correspondant
<?xml version="1.0"?>
<xs:schema xmlns:xs="http://www.w3.org/2001/XMLSchema">
<xs:element name="Order">
<xs:complexType>
<xs:sequence>
<xs:element name="OrderNo" type="xs:string" />
<xs:element name="CustID" type="xs:string" />
<xs:element name="ShipTo1" type="xs:string" />
<xs:element name="ShipTo2" type="xs:string" />
<xs:element maxOccurs="unbounded" name="LineItems">
<xs:complexType>
<xs:sequence>
<xs:element name="Item" type="xs:string" />
<xs:element name="ItemQty" type="xs:string" />
<xs:element name="ItemPrice" type="xs:string" />
</xs:sequence>
</xs:complexType>
</xs:element>
</xs:sequence>
</xs:complexType>
</xs:element>
</xs:schema>
Rubriques associées
• Guide de référence schéma XML
237 2012-11-22
Données imbriquées
238
10.3.1.1 Importation de schémas XML
Importez les métadonnées de chaque schéma XML que vous utilisez. La bibliothèque d'objets répertorie les schémas XML importés dans l'onglet Formats.
Lors de l'importation d'un schéma XML, le logiciel lit les éléments et les attributs définis puis importe les éléments suivants :
• Structure de document
• Espace de noms
• Noms de table et de colonne
• Type de données de chaque colonne
• Type de contenu de chaque colonne
• Table imbriquée et attributs de colonne
Alors que les schémas XML effectuent une distinction entre éléments et attributs, le logiciel les importe et les convertit vers une table imbriquée et vers les attributs de colonne.
Rubriques associées
• Guide de référence schéma XML
10.3.1.1.1 Pour importer un schéma XML
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Format.
2.
Cliquez avec le bouton droit de la souris sur l'icône Schémas XML, puis sélectionnezNouveau.
3.
Saisissez les options pour les schémas XML que vous importez.
Lorsque vous importez un schéma XML :
• Saisissez le nom que vous voulez utiliser pour le format dans le logiciel.
• Saisissez le nom de fichier du schéma XML ou son adresse URL.
Remarque :
Si le Job Server se trouve sur un autre ordinateur que Designer, il est impossible d'utiliser Parcourir pour indiquer le chemin du fichier. Vous devez saisir le chemin. Vous pouvez saisir un chemin absolu ou un chemin relatif mais le Job Server doit pouvoir y accéder.
• Si le nom de l'élément racine n'est pas unique dans le schéma XML, sélectionnez un nom dans la liste déroulante Espace de noms pour identifier le schéma XML importé.
Remarque :
Lorsque vous importez un schéma XML pour un job service Web en temps réel, vous devez utiliser un espace de noms cible unique pour le schéma. Lorsque Data Services génère le fichier
2012-11-22
Données imbriquées
WSDL pour un job en temps réel avec un schéma source ou cible qui n'a pas d'espace de noms cible, il ajoute un espace de noms cible généré automatiquement à la section de types du schéma
XML. Ce processus peut réduire la performance car Data Services doit supprimer les informations de l'espace de noms de la demande de service Web au cours du traitement, puis joindre à nouveau les informations correctes de l'espace de noms avant de renvoyer la réponse au client.
• Dans la liste déroulante Nom de l'élément racine, sélectionnez le nom du nœud principal que vous souhaitez importer. Le logiciel importe uniquement les éléments du schéma XML appartenant
à ce nœud ou à tout sous-nœud.
• Si le schéma XML contient des éléments récursifs (l'élément A contient l'élément B et l'élément
B contient l'élément A), spécifiez le nombre de ses niveaux en saisissant une valeur dans la zone Niveau circulaire. Cette valeur doit correspondre au nombre de niveaux récursifs dans le contenu du schéma XML. Dans le cas contraire, le job qui utilise ce schéma XML va échouer.
• Vous pouvez configurer le progiciel pour importer des chaînes en tant que varchar de toute taille.
Varchar 1024 est la valeur par défaut.
4.
Cliquez sur OK.
Après l'importation d'un schéma XML, vous pouvez modifier les propriétés de sa colonne, comme le type de données, à l'aide de l'onglet Général de la fenêtre Propriétés des colonnes. Il est également possible d'afficher et de modifier les attributs des colonnes et des tables imbriquées à partir de la fenêtre
Propriétés des colonnes.
10.3.1.1.2 Afficher et modifier les attributs des colonnes et des tables imbriquées pour le schéma
XML
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Formats.
2.
Développez la catégorie Schéma XML.
3.
Cliquez deux fois sur un nom de schéma XML.
La fenêtre Format du schéma XML s'affiche dans l'espace de travail.
La colonne Type affiche les types de données qu'utilise le logiciel lorsqu'il importe les métadonnées du document XML.
4.
Cliquez deux fois sur une table imbriquée ou une colonne et sélectionnez Attributs pour afficher ou modifier les attributs de schéma XML.
Rubriques associées
• Guide de référence : schéma XML
10.3.1.2 Importation de types abstraits
239 2012-11-22
Données imbriquées
240
Un schéma XML utilise des types abstraits pour forcer la substitution pour un élément ou un type spécifique.
• Lorsqu'un élément est défini comme étant abstrait, un membre du groupe de substitution de l'élément doit s'afficher dans ce document d'instance.
• Lorsqu'un type est défini comme étant abstrait, le document d'instance doit utiliser un type dérivé
(identifié par l'attribut xsi:type).
Par exemple, un élément abstrait PublicationType peut avoir un groupe de substitution composé de types complexes, par exemple MagazineType, BookType et NewspaperType.
Par défaut, tous les types complexes ou tous les types dérivés sont sélectionnés dans le groupe de substitution pour le type abstrait, mais vous pouvez choisir de sélectionner un sous-ensemble.
10.3.1.2.1 Pour limiter le nombre de types dérivés pour importer un type abstrait
1.
Dans la fenêtre Importer format de schéma XML, lorsque vous saisissez le nom du fichier ou l'adresse
URL d'un schéma XML contenant un type abstrait, le bouton de commande Type abstrait est activé.
Par exemple, l'extrait suivant d'un xsd définit l'élément PublicationType comme étant abstrait avec des types dérivés BookType et MagazineType :
<xsd:complexType name="PublicationType" abstract="true">
<xsd:sequence>
<xsd:element name="Title" type="xsd:string"/>
<xsd:element name="Author" type="xsd:string" minOccurs="0" maxOccurs="unbounded"/>
<xsd:element name="Date" type="xsd:gYear"/>
</xsd:sequence>
</xsd:complexType>
<xsd:complexType name="BookType">
<xsd:complexContent>
<xsd:extension base="PublicationType">
<xsd:sequence>
<xsd:element name="ISBN" type="xsd:string"/>
<xsd:element name="Publisher" type="xsd:string"/>
</xsd:sequence>
</xsd:extension>
/xsd:complexContent>
</xsd:complexType>
<xsd:complexType name="MagazineType">
<xsd:complexContent>
<xsd:restriction base="PublicationType">
<xsd:sequence>
<xsd:element name="Title" type="xsd:string"/>
<xsd:element name="Author" type="xsd:string" minOccurs="0" maxOccurs="1"/>
<xsd:element name="Date" type="xsd:gYear"/>
</xsd:sequence>
</xsd:restriction>
</xsd:complexContent>
</xsd:complexType>
2.
Pour sélectionner un sous-ensemble de types dérivés pour un type abstrait, cliquez sur le bouton
Type abstrait et effectuez les actions suivantes : a.
Dans la zone déroulante de la case Type abstrait, sélectionnez le nom du type abstrait.
b.
Cochez les cases en regard de chaque nom de type dérivé que vous voulez importer.
c.
Cliquez sur OK.
Remarque :
Lorsque vous modifiez votre format de schéma XML, le logiciel sélectionne tous les types dérivés pour le type abstrait par défaut. En d'autres termes, le sous-ensemble que vous avez précédemment sélectionné n'est pas conservé.
2012-11-22
Données imbriquées
10.3.1.3 Importation de groupes de substitution
Un schéma XML utilise des groupes de substitution pour affecter des éléments à un groupe spécifique d'éléments qui peut être substitué pour un élément spécifique nommé appelé élément principal. La liste des groupes de substitution peut avoir des centaines ou même des milliers de membres mais une application utilise généralement uniquement un nombre limité d'entre eux. Tous les groupes de substitution sont sélectionnés par défaut mais vous pouvez décider de sélectionner un sous-ensemble.
10.3.1.3.1 Pour limiter le nombre de groupes de substitution à importer
1.
Dans la fenêtre Format de schéma XML, lorsque vous saisissez le nom du fichier ou l'adresse URL d'un schéma XML contenant des groupes de substitution, le bouton Groupe de substitutionest activé.
Par exemple, l'extrait suivant d'un xsd définit l'élément PublicationType avec des groupes de substitution MagazineType, BookType, AdsType et NewspaperType :
<xsd:element name="Publication" type="PublicationType"/>
<xsd:element name="BookStore">
<xsd:complexType>
<xsd:sequence>
<xsd:element ref="Publication" maxOccurs="unbounded"/>
</xsd:sequence>
</xsd:complexType>
</xsd:element>
<xsd:element name="Magazine" type="MagazineType" substitutionGroup="Publication"/>
<xsd:element name="Book" type="BookType" substitutionGroup="Publication"/>
<xsd:element name="Ads" type="AdsType" substitutionGroup="Publication"/>
<xsd:element name="Newspaper" type="NewspaperType" substitutionGroup="Publication"/>
2.
Cliquez sur le bouton Groupe de substitution.
a.
Dans la liste déroulante, dans la case Groupe de substitution, cochez le nom du groupe de substitution.
b.
Cochez les cases devant chaque nom de groupe de substitution que vous voulez importer.
c.
Cliquez sur OK.
Remarque :
Lorsque vous modifiez votre format de schéma XML, le logiciel sélectionne tous les éléments pour le groupe de substitution par défaut. En d'autres termes, le sous-ensemble que vous avez précédemment sélectionné n'est pas conservé.
10.3.2 Spécification d'options de source pour les fichiers XML
Une fois les métadonnées importées pour les documents XML (fichiers ou messages), vous créez un flux de données pour utiliser les documents XML en tant que sources ou cibles dans les jobs.
241 2012-11-22
Données imbriquées
242
10.3.2.1 Création d'un flux de données avec un fichier source XML
10.3.2.1.1 Créer un flux de données avec un fichier XML source
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Format.
2.
Développez le schéma XML et faites glisser le schéma XML définissant le fichier XML source vers le flux de données.
3.
Placez une requête dans le flux de données et connectez la source XML à l'entrée de la requête.
4.
Cliquez deux fois sur la source XML dans l'espace de travail pour ouvrir l'Editeur de fichiers source
XML.
5.
Vous devez spécifier le nom du fichier source XML dans la zone de texte Fichier XML.
Rubriques associées
•
Lecture de plusieurs fichiers XML en une fois
•
Identification des noms de fichiers sources
• Guide de référence : source du fichier xml
10.3.2.2 Lecture de plusieurs fichiers XML en une fois
Le logiciel peut lire plusieurs fichiers au même format à partir d'un seul répertoire à l'aide d'un seul objet source.
10.3.2.2.1 Lire plusieurs fichiers XML en une fois
1.
Ouvrez l'éditeur pour votre fichier XML source.
2.
Dans la zone Fichier XML de l'onglet Source, saisissez un nom de fichier contenant un caractère générique (* ou ?).
Par exemple :
D:\orders\1999????.xml peut lire les fichiers à partir de l'année 1999.
D:\orders\*.xml lit tous les fichiers avec l'extension xml à partir du répertoire spécifié.
Rubriques associées
• Guide de référence : source du fichier XML
2012-11-22
Données imbriquées
10.3.2.3 Identification des noms de fichiers source
Vous pouvez souhaiter identifier le fichier XML source pour chaque ligne de votre sortie de source dans les situations suivantes :
• Vous avez spécifié un caractère générique pour lire plusieurs fichiers source en une fois.
• Vous chargez à partir de plusieurs fichiers source à différents jours.
10.3.2.3.1 Identifier le fichier XML source pour chaque ligne dans la cible
1.
Dans l'Editeur de fichiers source XML, sélectionnez Inclure la colonne Nom du fichier. Cela génère une colonne DI_FILENAME contenant le nom du fichier XML source.
2.
Dans l'Editeur Query, mappez la colonne DI_FILENAME de l'entrée de schéma vers la sortie de schéma.
3.
Lors de l'exécution du job, la colonne cible DI_FILENAME contiendra le nom du fichier XML source pour chaque ligne de la cible.
10.3.3 Mappage de schémas facultatifs
Il est possible de spécifier rapidement un mappage par défaut pour les schémas facultatifs sans devoir construire manuellement une table imbriquée vide pour chaque schéma facultatif dans la transformation
Query. De même, lors de l'importation de schémas XML (via des fichiers DTD ou XSD), le progiciel marque automatiquement les tables imbriquées comme facultatives si l'option correspondante a été définie dans le fichier DTD ou XSD. Le progiciel conserve cette option lorsque vous copiez et collez des schémas dans les transformations Query.
Cette fonctionnalité est particulièrement utile lorsque vous disposez de schémas XML très volumineux et de nombreux niveaux imbriqués dans les jobs. Lorsque vous rendez une colonne de schéma facultative et ne lui affectez aucun mappage, le progiciel instance automatiquement la table imbriquée lors de l'exécution du job.
Même si un élément de schéma est marqué comme facultatif, il est toujours possible de lui affecter un mappage. Il faut pour cela programmer de manière appropriée le bloc de sous-requête correspondant avec une logique d'application spécifiant la manière dont le progiciel doit générer la sortie. Toutefois, si vous modifiez une partie du bloc de sous-requête, le bloc de requête obtenu doit être complet et conforme aux règles de validation normales requises pour un bloc de requête imbriqué. Vous devez mapper tout schéma de sortie non facultatif vers un bloc de requête imbriqué valide. Le progiciel génère une valeur nulle dans l'emplacement de la liste de projets correspondant de l'ATL pour tout schéma facultatif sans bloc de sous-requête défini et associé.
243 2012-11-22
Données imbriquées
10.3.3.1 Rendre une table imbriquée "facultative"
1.
Cliquez avec le bouton droit de la souris sur une table imbriquée, puis sélectionnez Facultatif pour l'activer. Pour la désactiver, cliquez de nouveau avec le bouton droit de la souris sur la table imbriquée, puis sélectionnez à nouveau Facultatif.
2.
Vous pouvez également cliquer avec le bouton droit de la souris sur une table imbriquée et sélectionner Propriétés, puis ouvrir l'onglet Attributs et définir la valeur d'attribut Table facultative sur oui ou non. Cliquez sur Appliquer puis sur OK pour définir la valeur.
Remarque :
Si la valeur Table facultative est différente de oui ou de non, il est impossible de marquer la table imbriquée comme facultative
Lorsque vous exécutez un job avec une table imbriquée définie comme facultative et que vous n'avez pas défini de colonne ni de table imbriquée sous cette table, le progiciel génère un ATL spécifique et n'exécute pas la validation de l'interface utilisateur pour cette table imbriquée.
Exemple :
CREATE NEW Query ( EMPNO int KEY ,
ENAME varchar(10),
JOB varchar (9)
NT1 al_nested_table ( DEPTNO int KEY ,
DNAME varchar (14),
NT2 al_nested_table (C1 int) ) SET("Optional
Table" = 'yes') )
AS SELECT EMP.EMPNO, EMP.ENAME, EMP.JOB,
NULL FROM EMP, DEPT;
Remarque :
Vous ne pouvez pas marquer comme facultatifs des schémas de niveau supérieur, des tables non imbriquées ou des tables imbriquées contenant des appels de fonction.
10.3.4 Utilisation de Document Type Definitions (DTD)
Un fichier DTD peut spécifier le format d'un document XML (fichier ou message). Le DTD décrit les données contenues dans le document XML et les relations entre les éléments dans les données.
Pour un document XML contenant des informations pour passer une commande (en-tête de commande, client et poste), le DTD correspondant inclut la structure de la commande et les relations entre les données.
244 2012-11-22
Données imbriquées
Message avec des données
N° de commande
IDClient
AdresseLi vraison1
9999 1001 123 State St
AdresseLi vraison2
Town, CA
Postes
Elément
001
002
QtéElément PrixElément
2
4
10
5
Chaque colonne du document XML correspond à une définition d'ELEMENT.
Définition DTD correspondante
<?xml encoding="UTF-8"?>
<!ELEMENT Order (OrderNo, CustID, ShipTo1, ShipTo2, LineItems+)>
<!ELEMENT OrderNo (#PCDATA)>
<!ELEMENT CustID (#PCDATA)>
<!ELEMENT ShipTo1 (#PCDATA)>
<!ELEMENT ShipTo2 (#PCDATA)>
<!ELEMENT LineItems (Item, ItemQty, ItemPrice)>
<!ELEMENT Item (#PCDATA)>
<!ELEMENT ItemQty (#PCDATA)>
<!ELEMENT ItemPrice (#PCDATA)>
Importez les métadonnées de chaque DTD que vous souhaitez utiliser. La bibliothèque d'objets répertorie les DTD importés dans l'onglet Formats.
Vous pouvez importer des métadonnées de tout fichier XML (avec une référence à un DTD) ou DTD existant. Si vous importez les métadonnées d'un fichier XML, le progiciel extrait automatiquement le
DTD pour ce fichier XML.
Lors de l'importation d'un DTD, le progiciel lit les éléments et attributs définis. Il ignore d'autres parties de la définition, telles que le texte et les commentaires. Cela permet de modifier les données XML importées ainsi que le type de données au besoin.
Rubriques associées
• Guide de référence : DTD
245
10.3.4.1 Importer un format de schéma XML ou DTD
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Format.
2.
Cliquez avec le bouton droit de la souris sur l'icône Fichiers DTD, puis sélectionnez Nouveau.
3.
Saisissez les paramètres dans la fenêtre Importer le format DTD :
• Dans la zone Nom de la définition DTD, saisissez le nom que vous souhaitez attribuer au format
DTD importé dans le progiciel.
2012-11-22
Données imbriquées
• Saisissez le fichier spécifiant le DTD que vous souhaitez importer.
Remarque :
Si le Job Server se trouve sur un autre ordinateur que Designer, il est impossible d'utiliser Parcourir pour indiquer le chemin du fichier. Vous devez saisir le chemin. Vous pouvez saisir un chemin absolu ou un chemin relatif mais le Job Server doit pouvoir y accéder.
• Si vous importez un fichier XML, sélectionnez XML pour l'option Type de fichier. Si vous importez un fichier DTD, sélectionnez l'option DTD.
• Dans la zone Nom de l'élément racine, sélectionnez le nom du nœud principal que vous souhaitez importer. Le progiciel importe uniquement les éléments du DTD appartenant à ce nœud ou à tout sous-nœud.
• Si le DTD contient des éléments récursifs (l'élément A contient l'élément B et l'élément B contient l'élément A), spécifiez le nombre de ses niveaux en saisissant une valeur dans la zone Niveau
circulaire. Cette valeur doit correspondre au nombre de niveaux récursifs dans le contenu du
DTD. Dans le cas contraire, le job qui utilise ce DTD va échouer.
• Vous pouvez configurer le progiciel pour importer des chaînes en tant que varchar de toute taille.
Varchar 1024 est la valeur par défaut.
4.
Cliquez sur OK.
Après l'importation d'un DTD, vous pouvez modifier les propriétés de sa colonne, comme le type de données, à l'aide de l'onglet Général de la fenêtre Propriétés des colonnes. Il est également possible d'afficher et de modifier les attributs des colonnes et des tables imbriquées du DTD à partir de la fenêtre
Propriétés des colonnes.
10.3.4.2 Afficher et modifier les attributs des colonnes et des tables imbriquées des DTD
1.
Dans la bibliothèque d'objets, cliquez sur l'onglet Formats.
2.
Développez la catégorie Fichiers DTD.
3.
Cliquez deux fois sur le nom d'un DTD.
La fenêtre Format DTD s'affiche dans l'espace de travail.
4.
Cliquez deux fois sur une colonne ou une table imbriquée.
La fenêtre Propriétés des colonnes s'ouvre.
5.
Sélectionnez l'onglet Attributs pour afficher ou modifier les attributs du DTD.
10.3.5 Génération de schémas DTD et XML à partir d'un schéma NRDM
246 2012-11-22
Données imbriquées
Vous pouvez cliquer avec le bouton droit sur un schéma à partir d'un éditeur de requêtes dans Designer et générer un schéma DTD ou XML correspondant à la structure du schéma sélectionné (NRDM ou relationnel).
Cette fonctionnalité est utile pour stocker des données dans un fichier XML puis les lire dans un autre flux de données.
1.
Générez un schéma DTD ou XML.
2.
Utilisez le schéma DTD ou XML pour configurer un format XML.
3.
Utilisez le format XML pour configurer une source XML pour le fichier stocké.
Le schéma DTD ou XML généré reposera sur les informations suivantes :
• Les colonnes deviennent des éléments ou des attributs, selon la configuration de l'attribut de type
XML sur ATTRIBUT ou ELEMENT.
• Si l'attribut Requis est défini sur NON, l'élément ou l'attribut correspondant est marqué comme facultatif.
• Les tables imbriquées deviennent des éléments intermédiaires.
• L'attribut Type natif est utilisé pour définir le type de l'élément ou de l'attribut.
• Lors de la génération de schémas XML, les valeurs MinOccurs et MaxOccurs sont définies selon les attributs Occurrences minimum et Occurrences maximum de la table imbriquée correspondante.
Aucune autre information n'est prise en compte lors de la génération du schéma DTD ou XML.
Rubriques associées
• Guide de référence : DTD
• Guide de référence : schéma XML
10.4 Opérations sur les donnés imbriquées
Cette section décrit les opérations que vous pouvez effectuer sur les données imbriquées.
10.4.1 Vue d'ensemble des données imbriquées et de la transformation Query
Avec les données relationnelles, une transformation Query permet d'exécuter une instruction SELECT.
Le mappage entre les schémas d'entrée et de sortie définit la liste de projets pour l'instruction. Lors du travail avec des données imbriquées, la transformation Query fournit une interface pour exécuter des instructions SELECT à chaque niveau de la relation définie dans le schéma de sortie.
247 2012-11-22
Données imbriquées
Vous utilisez la transformation Query pour manipuler les données imbriquées. Pour extraire une partie des données imbriquées uniquement, vous pouvez utiliser la transformation XML_Pipeline.
Sans données imbriquées, la transformation Query suppose que la clause FROM dans l'instruction
SELECT contient les jeux de données connectés en tant qu'entrées dans l'objet de requête. Lorsque vous travaillez avec des données imbriquées, il est nécessaire de définir explicitement la clause FROM dans une requête. Le progiciel assiste en définissant les entrées de niveau supérieur en tant que valeurs de la clause FROM par défaut pour le schéma de sortie de niveau supérieur.
Les autres éléments de l'instruction SELECT définis par la requête fonctionnent de la même manière avec les données imbriquées et les données plates. Toutefois, une instruction SELECT ne pouvant inclure que des références aux jeux de données relationnelles, une requête qui inclut des données imbriquées contient également une instruction SELECT pour définir les opérations de chaque schéma parent et enfant dans la sortie.
L'Editeur Query contient un onglet pour chaque clause de la requête :
• SELECT permet de spécifier des lignes d'éléments uniques de la sortie (sans prendre en compte les lignes identiques doublon).
• FROM répertorie tous les schémas d'entrée et permet de spécifier des paires et des conditions de jointure.
Les paramètres saisis pour les onglets suivants s'appliquent uniquement au schéma en cours (affiché dans la zone de texte Sortie de schéma située en haut à droite de l'Editeur Query) :
• WHERE
• GROUP BY
• ORDER BY
Rubriques associées
•
• Guide de référence : XML_Pipeline
10.4.2 Construction de la clause FROM
La clause FROM se trouve au bas de l'onglet FROM. Elle se remplit automatiquement avec les informations incluses dans les sections Schéma(s) d'entrée en haut et Paires de jointures au milieu de l'onglet. Vous pouvez modifier la clause FROM en modifiant les schémas sélectionnés dans la zone
Schéma(s) d'entrée et la section Paires de jointures.
Les schémas sélectionnés dans la section Schéma(s) d'entrée (et reflétés dans la clause FROM), notamment les colonnes contenant des schémas imbriqués, peuvent être inclus dans la sortie.
248 2012-11-22
Données imbriquées
Lorsque vous incluez plus d'un schéma dans la section Schéma(s) d'entrée (en sélectionnant la case
à cocher "De"), il est possible de spécifier des paires et des conditions de jointure et de saisir un cache et un classement de jointure pour chaque schéma d'entrée.
Les descriptions de la clause FROM et le comportement de la requête sont similaires pour les données imbriquées et les données relationnelles. Le schéma en cours permet de distinguer plusieurs instructions
SELECT au sein d'une seule requête. Toutefois, les instructions SELECT étant dépendantes les unes des autres et l'interface utilisateur facilitant la construction de jeux de données arbitraires, la détermination des clauses FROM appropriées pour plusieurs niveaux d'imbrication peut s'avérer complexe.
Une clause FROM peut inclure :
• Tout schéma de niveau supérieur de l'entrée
• Tout schéma représentant une colonne d'un schéma dans la clause FROM du schéma parent
• Toute condition de jointure des paires de jointure
La clause FROM forme un chemin pouvant débuter à tout niveau de la sortie. Le premier schéma du chemin doit toujours être un schéma de niveau supérieur de l'entrée.
Les données produites par une instruction SELECT d'un schéma de niveau inférieur diffèrent en fonction de la présence d'un schéma dans la clause FROM du niveau supérieur.
Les deux exemples suivants utilisent le jeu de données d'une commande client pour illustrer des scénarios dans lesquels les valeurs de la clause FROM modifient les données obtenues de la requête.
Rubriques associées
•
Modifier les contenus du schéma de sortie
10.4.2.1 Exemple : la clause FROM inclut toutes les entrées de niveau supérieur
Pour inclure les informations détaillées d'un client pour toutes les commandes dans la sortie, reliez le schéma Order_Status_In du niveau supérieur avec le schéma Cust. Incluez les deux schémas d'entrée du niveau supérieur dans la clause FROM pour générer les données appropriées. Lorsque vous sélectionnez les deux schémas d'entrée dans la zone Schéma(s) d'entrée de l'onglet FROM, ils apparaissent automatiquement dans la clause FROM.
249 2012-11-22
Données imbriquées
250
Respectez les points suivants :
• La table Schéma(s) d'entrée dans l'onglet FROM inclut les deux schémas de niveau supérieur
Order_Status_In et Cust (ce qui se reflète également dans la clause FROM).
• Le volet Sortie de schéma affiche le schéma imbriqué cust_info et les colonnes Cust_ID,
Customer_name et Address.
10.4.2.2 Exemple : la clause FROM de niveau inférieur contient une entrée de niveau supérieur
Supposons que vous souhaitiez faire apparaître les informations détaillées d'un schéma dans chaque ligne d'un niveau inférieur d'un autre schéma. Par exemple, l'entrée inclut un schéma de niveau supérieur intitulé Materials et un schéma imbriqué intitulé LineItems. Vous souhaitez que l'entrée comprenne les informations détaillées des articles pour chaque poste. Le graphique ci-dessous illustre cette configuration dans Designer.
2012-11-22
Données imbriquées
L'exemple sur la gauche affiche la configuration suivante :
• La zone Schéma d'entrée dans l'onglet FROM affiche le schéma imbriqué LineItems sélectionné.
• L'onglet FROM affiche la clause FROM “FROM "Order".LineItems”.
L'exemple sur la droite affiche la configuration suivante :
• Le schéma Materials.Description est mappé au schéma de sortie LineItems.Item.
• Les Schéma(s) d'entrée Materials et Order.LineItems sont sélectionnés dans la zone Schéma d'entrée dans l'onglet FROM (la colonne From contient des cases cochées).
• Une paire de jointure est créée en reliant le schéma imbriqué Order.LineItems au schéma de niveau supérieur Materials à l'aide d'un type de jointure externe gauche.
• Une condition de jointure est ajoutée lorsque le champ Item sous le schéma imbriqué LineItems est
égal au champ Item du schéma de niveau supérieur Materials.
Clause FROM obtenue :
"Order".LineItems.Item = Materials.Item
10.4.3 Imbrication de colonnes
251 2012-11-22
Données imbriquées
Lorsque vous imbriquez des lignes d'un schéma dans un autre schéma, le jeu de données produit dans le schéma imbriqué représente le résultat d'une requête sur le premier schéma utilisant les valeurs associées du second.
Par exemple, si vous disposez d'informations concernant une commande client dans un schéma d'en-tête et un schéma de postes, vous pouvez imbriquer les postes sous le schéma d'en-tête. Les postes d'une seule ligne du schéma d'en-tête sont égaux aux résultats d'une requête incluant le numéro de commande :
SELECT * FROM LineItems
WHERE Header.OrderNo = LineItems.OrderNo
Vous pouvez utiliser une transformation Query pour construire un jeu de données imbriquées à partir des données relationnelles. Lorsque vous indiquez les colonnes incluses dans le schéma imbriqué, spécifiez la requête utilisée pour définir le jeu de données imbriquées pour chaque ligne du schéma parent.
10.4.3.1 Construire un jeu de données imbriquées
Suivez les étapes suivantes pour configurer un jeu de données imbriquées.
1.
Créez un flux de données avec les sources d'entrée que vous souhaitez inclure dans le jeu de données imbriquées.
2.
Placez une transformation Query et une table cible dans le flux de données. Connectez les sources
à l'entrée de la requête.
252
3.
Ouvrez la transformation Query et configurez la liste SELECT, la clause FROM et la clause WHERE afin de décrire l'instruction SELECT exécutée par la requête pour déterminer le jeu de données de niveau supérieur.
• Liste SELECT : mappez les éléments du schéma d'entrée au schéma de sortie en faisant glisser les colonnes du schéma d'entrée vers le schéma de sortie. Il est également possible d'inclure de nouvelles colonnes ou des expressions de mappage pour les colonnes.
• Clause FROM : incluez les sources d'entrée dans la liste de l'onglet FROM, puis incluez toute jointure et condition de jointure requises pour définir les données.
• Clause WHERE : incluez tout filtrage requis pour définir le jeu de données pour la sortie de niveau supérieur.
4.
Créez un nouveau schéma dans la sortie.
2012-11-22
Données imbriquées
Cliquez avec le bouton droit de la souris dans la zone Sortie de schéma de l'Editeur Query, sélectionnez Nouveau schéma de sortie, puis nommez le nouveau schéma. Une nouvelle icône de schéma s'affiche dans la sortie, imbriquée sous le schéma de niveau supérieur.
Vous pouvez également faire glisser un schéma complet de l'entrée vers la sortie.
5.
Remplacez le schéma de sortie actuel par le schéma imbriqué en cliquant avec le bouton droit de la souris sur le schéma imbriqué puis en sélectionnant En faire l'élément actuel.
L'Editeur Query se modifie pour afficher le nouveau schéma actuel.
6.
Indiquez la clause FROM, la liste SELECT et la clause WHERE afin de décrire l'instruction SELECT exécutée par la requête pour déterminer le jeu de données de niveau supérieur.
• Clause FROM : si vous avez créé un nouveau schéma de sortie, il convient de faire glisser les schémas de l'entrée pour remplir la clause FROM. Si vous avez fait glisser un schéma existant de l'entrée vers la sortie de niveau supérieur, ce schéma est automatiquement mappé et répertorié dans l'onglet FROM.
• Liste SELECT : seules les colonnes respectant les exigences de la clause FROM sont disponibles.
• Clause WHERE : seules les colonnes respectant les exigences de la clause FROM sont disponibles.
7.
Si la sortie l'exige, imbriquez un autre schéma à ce niveau.
Répétez les étapes 4 à 6 dans ce schéma actuel pour tous les schémas imbriqués que vous souhaitez configurer.
8.
Si la sortie l'exige, imbriquez un autre schéma sous le niveau supérieur.
Faites du schéma de niveau supérieur le schéma actuel.
Rubriques associées
•
•
Construction de la clause FROM
•
Modifier les contenus du schéma de sortie
10.4.4 Utilisation de colonnes corrélées dans des données imbriquées
La corrélation permet d'utiliser des colonnes d'un schéma de niveau supérieur pour construire un schéma imbriqué. Dans un modèle relationnel imbriqué, les colonnes d'un schéma imbriqué sont implicitement liées aux colonnes de la ligne parente. Pour tirer parti de cette relation, il est possible d'utiliser des colonnes du schéma parent pour construire le schéma imbriqué. La colonne de niveau supérieur est une colonne corrélée.
L'inclusion d'une colonne corrélée dans un schéma imbriqué peut servir à deux fins :
253 2012-11-22
Données imbriquées
• La colonne corrélée est une clé dans le schéma parent. Inclure la clé dans le schéma imbriqué permet de conserver une relation entre les deux schémas après leur conversion d'un modèle de données imbriqué à un modèle relationnel.
• La colonne corrélée est un attribut dans le schéma parent. Inclure l'attribut dans le schéma imbriqué permet d'utiliser cet attribut pour simplifier les requêtes corrélées sur les données imbriquées.
Pour inclure une colonne corrélée dans un schéma imbriqué, il n'est pas nécessaire d'inclure le schéma contenant cette colonne dans la clause FROM du schéma imbriqué.
10.4.4.1 Utiliser une colonne corrélée dans un schéma imbriqué
1.
Créez un flux de données avec une source incluant un schéma parent avec un schéma imbriqué.
Par exemple, la source peut être un schéma d'en-tête de commande incluant une colonne LineItems qui contient un schéma imbriqué.
2.
Connectez une requête à la sortie de la source.
3.
Dans l'éditeur de requêtes, copiez toutes les colonnes du schéma parent à la sortie.
Outre les colonnes de niveau supérieur, le progiciel crée une colonne intitulée LineItems qui contient un schéma imbriqué correspondant au schéma imbriqué LineItems dans l'entrée.
4.
Remplacez le schéma actuel par le schéma LineItems. (Pour en savoir plus sur la configuration du schéma actuel et son paramétrage, voir
5.
Incluez une colonne corrélée dans le schéma imbriqué.
Les colonnes corrélées peuvent inclure des colonnes du schéma parent et tout autre schéma inclus dans la clause FROM du schéma parent.
Faites par exemple glisser la colonne OrderNo du schéma d'en-tête vers le schéma LineItems.
L'inclusion de la colonne corrélée crée une nouvelle colonne de sortie dans le schéma LineItems intitulée OrderNo et la mappe à la colonne Order.OrderNo. Le jeu de données créé pour LineItems inclut toutes les colonnes LineItems et OrderNo.
Si la colonne corrélée provient d'un schéma autre que le parent immédiat, les données du schéma imbriqué contiennent uniquement les lignes correspondant aux valeurs associées dans la ligne actuelle du schéma parent et les valeurs de la colonne corrélée.
Vous pouvez toujours supprimer la colonne corrélée du schéma de niveau inférieur dans une transformation Query ultérieure.
10.4.5 Lignes d'éléments uniques et données imbriquées
254 2012-11-22
Données imbriquées
L'option Lignes d'éléments uniques dans les transformations Query supprime toute ligne doublon au niveau supérieur d'une jointure. Cette option est particulièrement utile pour éviter des produits croisés dans des jointures générant une sortie imbriquée.
10.4.6 Regroupement de valeurs de schémas imbriqués
Lorsque vous spécifiez une clause GROUP BY pour un schéma contenant un schéma imbriqué, l'opération de regroupement combine les schémas imbriqués de chaque groupe.
Par exemple, pour assembler tous les postes inclus dans toutes les commandes pour chaque statut d'un jeu de commande, vous pouvez définir la clause GROUP BY au niveau supérieur du jeu de données sur la colonne de statut (Order.State) et créer un schéma de sortie qui inclut une colonne State (définie sur Order.State) et le schéma imbriqué LineItems.
Il en résulte un jeu de lignes (une pour chaque statut) comprenant la colonne State et le schéma imbriqué
LineItems contenant tous les schémas LineItems pour toutes les commandes de ce statut.
10.4.7 Suppression de l'imbrication de données imbriquées
Pour charger un jeu de données contenant des schémas imbriqués dans une cible relationnelle (non imbriquée), il est nécessaire de supprimer l'imbrication des lignes imbriquées. Une commande client peut par exemple utiliser un schéma imbriqué pour définir la relation entre l'en-tête et les postes de la commande. Pour charger les données dans des schémas relationnels, il convient de supprimer l'imbrication des multiniveaux. La suppression de l'imbrication génère un produit croisé du schéma de niveau supérieur (parent) et du schéma imbriqué (enfant).
255 2012-11-22
Données imbriquées
Il est également possible de charger différentes colonnes de différents niveaux imbriqués dans des schémas distincts. Une commande client peut par exemple être aplanie afin que le numéro de commande soit conservé séparément avec chaque poste et les informations d'en-têtes et de postes chargées dans différents schémas.
Le progiciel permet de supprimer l'imbrication de tout nombre de schémas imbriqués à toute profondeur.
Quel que soit le nombre de niveaux impliqués, le résultat des schémas desquels l'imbrication a été supprimée est un produit croisé des schémas parent et enfant. Lorsque plusieurs niveaux d'imbrications doivent être supprimés, l'imbrication du schéma enfant le plus profond est supprimée en premier, puis celle du résultat (le produit croisé du schéma parent et du schéma enfant le plus profond) et ainsi de suite jusqu'à l'imbrication du schéma de niveau supérieur.
256 2012-11-22
Données imbriquées
La suppression de l'imbrication de tous les schémas (produit croisé de l'ensemble des données) peut générer un résultat inattendu. Par exemple, si une commande client inclut plusieurs valeurs client, telles que les adresses de livraison et de facturation, l'aplatissement d'une commande client par la suppression de l'imbrication des schémas client et de postes produit des lignes de données pouvant ne pas être utiles pour le traitement de la commande.
257
10.4.7.1 Suppression de l'imbrication de données imbriquées
1.
Créez la sortie dont vous voulez supprimer l'imbrication dans le schéma de sortie d'une requête.
Les données de colonnes ou schémas non imbriqués peuvent s'avérer plus complexes à filtrer après l'opération de suppression de l'imbrication. Vous pouvez exécuter la commande Couper pour supprimer des colonnes ou schémas du niveau supérieur. Pour supprimer des schémas ou colonnes imbriqués dans des schémas imbriqués, faites du schéma imbriqué le schéma actuel puis coupez les colonnes non nécessaires ou les colonnes imbriquées.
2.
Cliquez avec le bouton droit de la souris sur le nom du schéma dont vous souhaitez supprimer l'imbrication et sélectionnez Supprimer l'imbrication.
2012-11-22
Données imbriquées
La sortie de la requête (l'entrée de la prochaine étape dans le flux de données) inclut les données dans la nouvelle relation, comme illustré dans le diagramme suivant.
10.4.8 Transformation de niveaux inférieurs de données imbriquées
Les données imbriquées incluses dans l'entrée de transformations (à l'exception des transformations
Query ou XML_Pipeline) passent par la transformation sans être incluses dans l'opération de transformation. Seules les colonnes de niveau supérieur du jeu de données d'entrée sont disponibles pour des transformations ultérieures.
10.4.8.1 Transformer des valeurs de niveaux inférieurs de schémas imbriqués
1.
Exécutez l'une des actions suivantes pour obtenir les données imbriquées :
• Utilisez une transformation Query pour supprimer l'imbrication des données.
• Utilisez une transformation XML_Pipeline pour sélectionner des parties des données imbriquées.
• Exécutez la transformation.
2.
Imbriquez de nouveau les données pour recréer les relations imbriquées.
Rubriques associées
•
Suppression de l'imbrication de données imbriquées
• Guide de référence : XML_Pipeline
258 2012-11-22
Données imbriquées
10.5 Extraction et analyse XML pour les colonnes
Outre l'extraction de données de fichiers et de messages XML, leur représentation sous forme de données NRDM lors d'une transformation puis leur chargement dans un fichier ou un message XML, le progiciel permet également d'extraire des données XML stockées dans une table source ou dans une colonne de fichier plat, de les transformer en données NRDM, puis de les charger dans une colonne de fichier cible ou plat.
De plus en plus de fournisseurs de bases de données permettent de stocker des données XML dans une seule colonne. Le champ est en général une valeur varchar, long ou clob. La fonctionnalité de gestion XML du progiciel prend également en charge la lecture et l'écriture de tels champs. Le progiciel fournit quatre fonctions prenant en charge l'extraction et le chargement de colonnes :
• extract_from_xml
• load_to_xml
• long_to_varchar
• varchar_to_long
La fonction extract_from_xml extrait le contenu XML stocké dans une seule colonne et crée la structure
NRDM correspondante pour permettre sa transformation par le progiciel. Cette fonction prend uniquement en charge les données varchar.
Pour permettre l'extraction et l'analyse de colonnes, les données de colonnes long et clob doivent être converties en varchar avant de pouvoir être transformées par le progiciel.
• Le progiciel convertit une entrée de type de données clob en données varchar si vous sélectionnez l'option Importer les types de données non pris en charge comme VARCHAR de taille lors de la création d'une connexion de banque de données de base de données dans l'Editeur de banque de données.
• Si la source utilise un type de données long, appliquez la fonction long_to_varchar pour convertir les données en valeur varchar.
Remarque :
Le progiciel limite la taille des données XML prises en charge par ces méthodes à 100 Ko en raison de la limitation actuelle de ce type de données varchar. Il est prévu que cette restriction soit levée à l'avenir.
La fonction load_to_xml génère du contenu XML d'une structure NRDM donnée dans le progiciel, puis charge ce contenu dans une colonne varchar. Si vous souhaitez qu'un job convertisse la sortie en colonne long, appliquez la fonction varchar_to_long qui utilise la sortie de la fonction load_to_xml en tant qu'entrée.
259 2012-11-22
Données imbriquées
10.5.1 Exemples de scénarios
Les scénarios suivants décrivent l'utilisation des fonctions permettant d'extraire des données XML d'une colonne source et de les charger dans une colonne cible.
Rubriques associées
•
Extraction de données XML d'une colonne dans le progiciel
•
Chargement de données XML vers une colonne du type de données long
•
Extraction de chaînes XML data quality à l'aide de la fonction extract_from_xml
260
10.5.1.1 Extraction de données XML d'une colonne dans le progiciel
Ce scénario utilise les fonctions long_to_varchar et extract_from_xml pour extraire les données XML d'une colonne avec des données de type long.
1.
Supposons tout d'abord que vous avez déjà effectué les étapes suivantes : a.
Importé une table Oracle contenant une colonne nommée Contenu avec le type de données long qui contient les données XML pour un bon de commande.
b.
Importé dans le référentiel le schéma XML PO.xsd qui fournit le format pour les données XML.
c.
Créé un projet, un job et un flux de données pour votre conception.
d.
Ouvert le flux de données et déposé la table source avec la colonne nommée contenu dans le flux de données.
2.
Effectuez alors les actions suivantes : a.
Créez une requête avec une colonne de sortie du type de données varchar et assurez-vous que sa taille est suffisante pour contenir les données XML.
b.
Nommez cette colonne de sortie contenu.
c.
Dans la section Mappage de l'éditeur de requêtes, ouvrez l'Assistant Fonction, sélectionnez le type de fonction Conversion, puis sélectionnez la fonction long_to_varchar et configurez-la en saisissant ses paramètres.
long_to_varchar(content, 4000)
Le second paramètre de cette fonction (4000 dans ce cas) représente la taille maximale des données XML stockées dans la colonne de la table. Utilisez ce paramètre avec prudence. Si la taille n'est pas suffisante pour contenir le maximum de données XML pour la colonne, le progiciel tronquera les données, engendrant une erreur d'exécution. Inversement, ne saisissez pas un nombre trop important, ce qui exploiterait trop de mémoire de l'ordinateur lors de l'exécution.
d.
Dans l'éditeur de requêtes, mappez la colonne de table source vers une nouvelle colonne de sortie.
2012-11-22
Données imbriquées
261 e.
Créez une seconde requête utilisant la fonction extract_from_xml pour extraire les données XML.
Pour appeler la fonction extract_from_xml, cliquez avec le bouton droit de la souris sur le contexte actuel dans la requête puis sélectionnez Nouvel appel de fonction.
Lorsque l'Assistant Fonction s'ouvre, sélectionnez Conversion puis extract_from_xml.
Remarque :
Vous pouvez utiliser la fonction extract_from_xml uniquement dans un nouvel appel de fonction.
Autrement, la fonction ne sera pas affichée dans l'Assistant Fonction.
f.
Entrez les valeurs pour les paramètres d'entrée.
• La première valeur est le nom de la colonne XML. Saisissez contenu, qui correspond à la colonne de sortie dans la requête précédente contenant les données XML.
• Le second paramètre est le nom du schéma DTD ou XML. Saisissez le nom du schéma du bon de commande (dans ce cas PO).
• Le troisième paramètre est la fonction Activer la validation. Saisissez 1 si vous souhaitez que le progiciel valide les données XML avec le schéma spécifié. Dans le cas contraire, saisissez
0
.
g.
Cliquez sur Suivant.
h.
Pour la fonction, sélectionnez une ou plusieurs colonnes que vous souhaitez utiliser à la sortie.
Imaginez que ce schéma de bon de commande contienne cinq éléments de niveau supérieur :
DateCommande, AdresseLivraison, AdresseFacturation, Commentaire et Eléments. Vous pouvez sélectionner un nombre quelconque de colonnes de niveau supérieur d'un schéma XML qui inclut des données de colonnes scalaires ou NRDM. Le type de renvoi de la colonne est défini dans le schéma. Si la fonction échoue en raison d'une erreur lors de la tentative de production de la sortie XML, le progiciel renvoie une valeur nulle pour les colonnes scalaires et des tables imbriquées vides pour les colonnes NRDM.
La fonction extract_from_xml ajoute également deux colonnes :
• AL_ERROR_NUM : renvoie des codes d'erreur : 0 pour une réussite et un entier autre que zéro pour les échecs.
• AL_ERROR_MSG : renvoie un message d'erreur si la valeur de AL_ERROR_NUM est autre que 0. Renvoie une valeur nulle si la valeur de AL_ERROR_NUM est 0
Sélectionnez une ou plusieurs de ces colonnes en tant que sortie appropriée pour la fonction extract_from_xml.
i.
Cliquez sur Terminer.
Le progiciel génère l'appel de fonction dans le contexte en cours et remplit le schéma de sortie de la requête avec les colonnes de sortie spécifiées.
Avec les données converties dans la structure NRDM, vous êtes prêt à lui appliquer des opérations de transformation appropriées.
Par exemple, si vous souhaitez charger la structure NRDM vers un fichier XML cible, créez un fichier
XML cible puis connectez la seconde requête à ce dernier.
2012-11-22
Données imbriquées
Remarque :
Si vous souhaitez modifier l'appel de fonction, cliquez avec le bouton droit de la souris sur l'appel de fonction dans la seconde requête et sélectionnez Modifier l'appel de fonction.
Dans cet exemple, pour extraire des données XML d'une colonne du type de données long, nous avons créé deux requêtes : la première pour convertir les données à l'aide de la fonction long_to_varchar et la seconde pour ajouter la fonction extract_from_xml.
Il est également possible d'utiliser une seule requête en saisissant l'expression de la fonction long_to_varchar directement dans le premier paramètre de la fonction extract_from_xml. Le premier paramètre de la fonction extract_from_xml peut utiliser une colonne du type de données varchar ou une expression qui renvoie les données de type varchar.
Si le type de données de la colonne source n'est pas long mais varchar, n'incluez pas la fonction long_to_varchar à votre flux de données.
262
10.5.1.2 Chargement de données XML vers une colonne du type de données long
Ce scénario utilise les fonctions load_to_xml et varchar_to_long pour convertir une structure NRDM en données scalaires de type varchar dans un format XML puis la charger vers une colonne du type de données long.
Dans cet exemple, vous souhaitez convertir en données XML une structure NRDM pour un bon de commande à l'aide de la fonction load_to_xml. Vous voulez ensuite charger ces données vers une colonne de table Oracle intitulée contenu du type de données long. La fonction load_to_xml renvoyant une valeur du type de données varchar, vous utilisez la fonction varchar_to_long pour convertir la valeur de type de données varchar en valeur de type de données long.
1.
Créez une requête et connectez-la à une requête ou source précédente (présentant la structure
NRDM d'un bon de commande). Dans cette requête, créez une colonne de sortie du type de données varchar intitulée contenu. Assurez-vous que la taille de la colonne est suffisante pour contenir les données XML.
2.
Dans la zone Mappage, ouvrez l'Assistant Fonction, cliquez sur la catégorie Fonctions de
conversion puis sélectionnez la fonction load_to_xml.
3.
Cliquez sur Suivant.
4.
Entrez les valeurs pour les paramètres d'entrée.
La fonction load_to_xml dispose de sept paramètres.
5.
Cliquez sur Terminer.
Dans la zone de mappage de la fenêtre Query, notez l'expression de la fonction : load_to_xml(PO, 'PO', 1, '<?xml version="1.0" encoding = "UTF-8" ?>', NULL, 1, 4000)
Dans cet exemple, la fonction convertit la structure NRDM du bon de commande PO en données
XML et affecte la valeur au contenu de la colonne de sortie.
6.
Créez une autre requête avec les colonnes de sortie correspondant aux colonnes de la table cible.
2012-11-22
Données imbriquées a.
Supposons que la colonne soit intitulée contenu et soit du type de données long.
b.
Ouvrez l'Assistant Fonction dans la section de mappage de la requête puis sélectionnez la catégorie Fonctions de conversion.
c.
Utilisez la fonction varchar_to_long pour mapper la colonne d'entrée contenu vers la colonne de sortie contenu.
La fonction varchar_to_long n'utilise qu'un seul paramètre d'entrée.
d.
Saisissez une valeur pour le paramètre d'entrée.
varchar_to_long(content)
7.
Connectez cette requête à une cible de base de données.
De même que dans l'exemple utilisant la fonction extract_from_xml, vous avez ici utilisé deux requêtes.
La première requête a converti une structure NRDM en données XML puis a affecté la valeur à une colonne du type de données varchar. La seconde requête a converti le type de données varchar en long.
Il est possible de ne mettre qu'une seule requête en œuvre en utilisant les deux fonctions dans une seule expression : varchar_to_long( load_to_xml(PO, 'PO', 1, '<?xml version="1.0" encoding = "UTF-8" ?>', NULL, 1, 4000) )
Si le type de données de la colonne de la table de la base de données cible stockant les données XML est varchar, la fonction varchar_to_long n'est pas utile dans la transformation.
Rubriques associées
• Guide de référence : fonctions et procédures
10.5.1.3 Extraction de chaînes XML data quality à l'aide de la fonction extract_from_xml
Ce scénario utilise la fonction extract_from_xml pour extraire des données XML des transformationsGeocoder, Global Suggestion Lists, Global Address Cleanse et USA Regulatory Address
Cleanse.
La transformation Geocoder, la transformation Global Suggestion Lists et la fonctionnalité Liste de propositions dans les transformations Global Address Cleanse et USA Regulatory Address Cleanse peuvent éditer un champ contenant une chaîne XML. Les transformations éditent les champs suivants pouvant contenir une chaîne XML.
263 2012-11-22
Données imbriquées
264
Transformation
Geocoder
Global Address Cleanse
Global Suggestion List
USA Regulatory Address Cleanse
Champ de sortie
XML Description de champ de sortie
Result_List
Contient une chaîne de sortie XML lorsque plusieurs enregistrements sont renvoyés pour une recherche. Le contenu dépend des données disponibles.
Suggestion_List
Contient une chaîne de sortie XML incluant toutes les valeurs de champ de composant de la liste de propositions indiquées dans les options de transformation.
Pour éditer ces champs comme champs XML, vous devez sélectionner XML comme style de sortie dans les options de transformation.
Pour utiliser les données figurant dans les chaînes XML (par exemple, dans une application Web qui utilise le job publié comme service Web), vous devez extraire les données. Il existe deux méthodes d'extraction de données :
1.
Insérer une transformation Query à l'aide de la fonction extract_from_xml.
Cette méthode permet d'insérer une transformation Query dans le flux de données après les transformations Geocoder, Global Suggestion Lists, Global Address Cleanse ou USA Regulatory
Address Cleanse. Utilisez ensuite la fonction extract_from_xml pour analyser les données de sortie imbriquées.
Cette méthode est considérée comme meilleure pratique car elle propose des données de sortie analysées, facilement accessibles dans un intégrateur.
2.
Développez un flux de données simple qui ne supprime pas l'imbrication des données.
Cette méthode permet d'éditer facilement le champ de sortie contenant la chaîne XML sans suppression de l'imbrication de données.
Cette méthode permet au développeur d'application ou à l'intégrateur de sélectionner de manière dynamique les composants de sortie dans le schéma de sortie final avant de les exposer comme service Web. Le développeur d'application doit travailler étroitement avec le concepteur de flux de données pour comprendre le flux de données au delà d'un service Web en temps réel. Le développeur d'application doit comprendre les options de transformation et indiquer les éléments à renvoyer de la liste de propositions d'adresse retour puis supprimer l'imbrication de la chaîne de sortie XML pour générer des éléments discrets d'adresse.
10.5.1.3.1 Extraire les chaînes XML de qualité des données à l'aide d'une fonction extract_from_xml
1.
Créez un fichier XSD pour la sortie.
2012-11-22
Données imbriquées
2.
Dans l'onglet Format de la bibliothèque d'objets locale, créez un schéma XML pour la XSD de sortie.
3.
Dans l'onglet Format de la bibliothèque d'objets locale, créez un schéma XML pour gac_sugges tion_list.xsd
, global_suggestion_list.xsd,urac_suggestion_list.xsd, ou re sult_list.xsd
.
4.
Dans le flux de données, incluez le champ suivant dans la Sortie de schéma de la transformation :
• Pour les transformations Global Address Cleanse, Global Suggestion Lists, et USA Regulatory
Address Cleanse, incluez le champ Liste_Proposition.
• Pour la transformation Geocoder, incluez le champ Liste_Résultats
5.
Ajoutez une transformation Query après la transformation Global Address Cleanse, Global Suggestion
Lists, USA Regulatory Address Cleanse ou Geocoder. Terminez-la comme suit.
6.
Passez par tous les champs sauf le champ Liste_Propositions ou le champ Liste_Résultats à partir de l'entrée de schéma jusqu'à la sortie de schéma. Pour ce faire, faites glisser les champs directement du schéma d'entrée vers le schéma de sortie.
7.
Dans Sortie de schéma, faites un clic droit sur le nœud Requête et sélectionnez Nouveau schéma de sortie. Saisissez Liste_Propositions ou Liste_Résultats comme le nom du schéma (ou peu importe le nom du champ qui est dans la sortie XSD).
8.
Dans Sortie de schéma, faites un clic droit sur le champ Liste_Proposition ou Liste_Résultats et sélectionnez En faire l'élément actuel.
9.
Dans Sortie de schéma, faites un clic droit sur le champ Liste_Proposition ou Liste_Résultats et sélectionnez Nouvel appel de fonctions.
10.
Sélectionnez extract_from_xml dans la catégorie Fonctions de conversion et cliquez sur Suivant.
Dans la fenêtre Définir les paramètres d'entrée, saisissez les informations suivantes et cliquez sur
Suivant.
• Nom du champ XML : sélectionnez le champ Liste_Propositions ou Liste_Résultats de la transformation en amont.
• DTD ou nom de schéma : sélectionnez le schéma XML que vous avez créé pour gac_suggestion_list.xsd, urac_suggestion_list.xsd, ou result_list.xsd.
• Activer la validation : saisissez 1 pour activer la validation.
11.
Sélectionnez LISTE ou ENREGISTREMENT dans la liste des paramètres à gauche et cliquez sur le bouton de la flèche à droite pour l'ajouter à la liste Paramètres de sortie sélectionnés.
12.
Cliquez sur Terminer.
La Sortie de schéma inclut les champs de la liste de propositions/ liste de résultats dans le champ
Liste_Propositions ou Liste_Résultats.
13.
Incluez le schéma XML pour le XML de sortie après la Requête. Ouvrez le schéma XML pour valider que les champs sont identiques dans l'Entrée de schéma et dans la Sortie de schéma.
14.
Si vous extrayez des données depuis une transformation Global Address Cleanse, Global Suggestion
Lists, ou USA Regulatory Address Cleanse et que vous avez choisi de sortir uniquement un sous-ensemble des champs de sortie de la liste de propositions disponibles dans l'onglet Options, insérez une deuxième transformation Query pour spécifier les champs que vous souhaitez sortir.
Cette opération permet de sélectionner les composants de sortie dans le schéma de sortie final avant qu'il soit exposé comme un service Web.
265 2012-11-22
Données imbriquées
266 2012-11-22
Jobs en temps réel
Jobs en temps réel
Le logiciel prend en charge une transformation de données en temps réel. Temps réel signifie que le logiciel peut recevoir des demandes de systèmes ERP et d'applications Web et envoyer les réponses immédiatement après l'accès aux données demandées d'une mémoire cache de données ou d'une deuxième application. Vous définissez des opérations de traitement des messages à la demande en créant des jobs en temps réel dans le Designer.
11.1 Traitement d'un message de demande/réponse
Le message transféré via un système en temps réel comprend les informations requises pour exécuter une transaction commerciale. Le contenu de ce message peut varier :
• Il pourrait être une commande client ou une facture traitée par un système ERP, destinée à un cache de données.
• Il pourrait être une demande de statut de commande créée par une application Web nécessitant une réponse de la part d'un cache de données ou d'un système back-office.
Le serveur d'accès écoute sans cesse les messages entrants. Lorsqu'il reçoit un message, le serveur d'accès dirige le message vers un processus d'attente qui effectue un ensemble prédéfini d'opérations pour le type de message. Le serveur d'accès reçoit alors une réponse pour le message et répond à l'application initiale.
Deux composants prennent en charge le traitement du message de demande-réponse :
• Serveur d'accès — Ecoute les messages et dirige chaque message en fonction du type de message.
• Job en temps réel — Effectue un ensemble prédéfini d'opérations pour ce type de message et crée une réponse.
Le traitement peut nécessiter l'ajout de données supplémentaire au message à partir d'un cache de données ou le chargement des données du message dans un cache de données. Le serveur d'accès renvoie la réponse à l'application initiale.
267 2012-11-22
Jobs en temps réel
11.2 Qu'est-ce qu'un job en temps réel ?
Designer permet de définir le traitement de messages en temps réel à l'aide d'un job en temps réel.
Vous créez un job en temps réel différent pour chaque type de message que votre système peut créer.
11.2.1 Temps réel par rapport à job
Tout comme un job batch, un job en temps réel extrait, transforme et charge des données. Les jobs en temps réel "extraient" des données du corps du message reçu et de toutes sources secondaires utilisées dans le job. Chaque job en temps réel peut extraire des données d'un type de message individuel. Il peut également extraire des données d'autres sources, par exemple de tables ou de fichiers.
Les mêmes transformations que vous pouvez définir dans des batch jobs sont disponibles dans des jobs en temps réel. Cependant vous pouvez utiliser les transformations différemment dans des jobs en temps réel. Par exemple, vous pouvez utiliser des branches et des contrôles logiques plus souvent que vous ne le souhaiteriez dans les jobs batch. Si un client souhaite connaître le moment où il peut enlever sa commande au centre de distribution, vous serez amené à créer un job CheckOrderStatus
à l'aide d'une fonction de recherche pour compter les postes de commande client puis une transformation
Case pour indiquer le statut sous forme de chaînes : "Aucun poste n'est prêt pour l'enlèvement" ou "X poste de votre commande sont prêts pour l'enlèvement" ou "Votre commande est prête pour l'enlèvement".
Dans les jobs en temps réel, le logiciel écrit également des données dans les cibles de message et les cibles secondaires en parallèle. Chaque message reçoit ainsi une réponse dès que possible.
Contrairement aux jobs batch, les jobs en temps réel ne sont pas exécutés en réponse à une planification ou un déclencheur interne ; les jobs en temps réel sont exécutés comme des services en temps réel lancés via l'Administrateur. Les services en temps réel attendent alors des messages du serveur d'accès.
Lorsque le serveur d'accès reçoit un message, il le transfère à un service en temps réel en cours d'exécution conçu pour traiter ce type de message. Le service en temps réel traite le message et renvoie
268 2012-11-22
Jobs en temps réel une réponse. Le service en temps réel continue à écouter et traiter les messages à la demande jusqu'à ce qu'il reçoive une instruction pour arrêter.
11.2.2 Messages
La façon dont vous créez un job en temps réel dépend du type de message que vous souhaitez qu'il traite. Les messages types comprennent des informations requises pour implémenter une transaction commerciale spécifique et pour donner une réponse appropriée.
Par exemple, supposez qu'un message contienne des informations requises pour déterminer le statut d'une commande spécifique. Le message peut juste contenir le numéro de la commande client. Le job en temps réel correspondant peut utiliser l'entrée pour interroger les sources correctes et renvoyer les informations produit appropriées.
Dans ce cas, le message contient des données qui peuvent être représentées comme colonne individuelle dans un tableau comportant une seule ligne.
Dans un deuxième cas, un message pourrait être une commande client à saisir dans un système ERP.
Le message pourrait contenir le numéro de la commande, des informations client et les détails du poste de la commande. Le traitement des messages pourrait renvoyer une confirmation indiquant que la commande a été correctement soumise.
269
Dans ce cas, le message contient des données qui ne peuvent pas être représentées dans un seul tableau ; les informations de l'en-tête de la commande peuvent être représentées par un tableau et les postes de la commande par un deuxième tableau. Le logiciel représente les données d'en-tête et de poste du message dans une relation imbriquée.
2012-11-22
Jobs en temps réel
Au cours du traitement du message, le job en temps réel traite toutes les lignes de la table imbriquée pour chaque ligne de la table de niveau supérieur. Dans cette commande client, les deux postes sont traités pour la ligne individuelle des informations d'en-tête.
Les jobs en temps réel peuvent envoyer uniquement une ligne de données dans un message de réponse
(cible de message). Cependant vous pouvez structurer des cibles de message de sorte que toutes les données figurent sur une seule ligne en imbriquant des tableaux dans des colonnes d'un seul tableau de niveau supérieur.
Les flux de données du logiciel prennent en charge l'imbrication de tableaux dans d'autres tableaux.
Rubriques associées
•
11.2.3 Exemples de jobs en temps réel
Ces exemples donnent une description de niveau supérieur sur la façon dont des jobs en temps réel accèdent à des scénarios en temps réel classiques. Les sections suivantes décrivent les objets réels que vous souhaitez utiliser pour créer la logique dans Designer.
11.2.3.1 Chargement de transactions dans une application back-office
Un job en temps réel peut recevoir une transaction de la part d'une application Web et la charge dans une application back-office (ERP, SCM, système hérité). Une transformation Query vous permet d'inclure des valeurs d'un cache de données pour compléter la transaction avant de l'appliquer par rapport à l'application back-office (par exemple, un système ERP).
270 2012-11-22
Jobs en temps réel
11.2.3.2 Collection de données back-office dans un cache de données
Vous pouvez utiliser des messages pour conserver le cache de données actuel. Les jobs en temps réel peuvent recevoir des messages d'une application back-office et les charger dans un cache de données ou un entrepôt de données.
271
11.2.3.3 Récupération de valeurs, de cache de données, applications back-office
Vous pouvez créer des jobs en temps réel qui utilisent des valeurs issues d'un cache de données pour déterminer si l'application back-office (par exemple, un système ERP) doit être interrogée directement.
2012-11-22
Jobs en temps réel
11.3 Création de jobs en temps réel
Vous pouvez créer des jobs en temps réel en utilisant les mêmes objets comme jobs batch (flux de données, workflows, structures conditionnelles, boucles WHILE etc.). Cependant, l'utilisation d'objet doit respecter un modèle de job en temps réel valide.
11.3.1 Modèles de job en temps réel
11.3.1.1 Modèle de flux de données simple
Le modèle de flux de données simple permet de créer un job en temps réel à l'aide d'un flux de données simple dans sa boucle de traitement en temps réel. Ce flux de données simple doit comprendre une source de message simple et une cible de message simple.
272 2012-11-22
Jobs en temps réel
11.3.1.2 Modèle de flux de données multiples
Le modèle de flux de données multiples permet de créer un job en temps réel à l'aide de flux de données multiples dans sa boucle de traitement en temps réel.
L'utilisation de flux de données multiples, permet de garantir que les données de chaque message sont entièrement traitées dans un flux de données initial avant le début du traitement des flux de données suivants. Par exemple, si les données représentent 40 éléments, l'ensemble des 40 éléments doit être transféré par le premier flux de données vers une table de stockage ou une table en mémoire avant le transfert vers un deuxième flux de données. Vous pouvez ainsi contrôler et collecter toutes les données dans un message à tout point d'un job en temps réel pour la conception et la correction des erreurs.
Si vous utilisez des flux de données multiples dans une boucle en temps réel :
• Le premier objet de la boucle doit être un flux de données. Ce flux de données doit avoir une seule source de message.
• Le dernier objet de la boucle doit être un flux de données. Ce flux de données doit avoir une cible de message.
• Des flux de données supplémentaires ne peuvent pas avoir des sources ou des cibles de message.
• Vous pouvez ajouter n'importe quel nombre de flux de données supplémentaires à la boucle et vous pouvez les ajouter à n'importe quel nombre de workflows.
• Tous les flux de données peuvent utiliser des tables en mémoire entrantes et/ou sortantes pour transférer des jeux de données au flux de données suivant. Les tables en mémoire stockent les données dans la mémoire parallèlement à l'exécution d'une boucle. Elles améliorent la performance des jobs en temps réel avec des flux de données multiples.
11.3.2 Utilisation des modèles de job en temps réel
11.3.2.1 Modèle de flux de données simple
273 2012-11-22
Jobs en temps réel
Lorsque vous utilisez un flux de données simple dans une boucle de traitement en temps réel, l'apparence de votre diagramme de flux de données peut être la suivante :
274
Notez que le flux de données a une source de message et une cible de message.
11.3.2.2 Modèle de flux de données multiples
Lorsque vous utilisez des flux de données multiples dans une boucle de traitement en temps réel, vos diagrammes de flux de données peuvent ressembler à ceux de l'exemple de scénario suivant dans lequel Data Services écrit des données sur plusieurs cibles selon la conception de vos flux de données multiples.
Exigences de l'exemple de scénario :
Votre job doit effectuer les tâches suivantes, en terminant une tâche avant de passer à la suivante :
• Recevoir des demandes sur le statut d'ordres individuels de la part d'un portail Web et enregistrer chaque message sur un fichier plat de sauvegarde
• Exécuter une jointure de demande pour rechercher le statut de l'ordre et l'écrire dans une table de base de données client.
• Répondre à chaque message avec les résultats de la jointure de demande
Solution :
Créer d'abord un job en temps réel et ajouter un flux de données, un workflow et un autre flux de données à la boucle en temps réel. Ajouter ensuite un flux de données au workflow. Puis configurer les tâches dans chaque flux de données :
• Le premier flux de données reçoit le message XML (à l'aide d'une source de message XML) et enregistre le message dans le fichier plat (cible de format de fichier plat). Pendant ce temps, ce même flux de données écrit les données dans une table en mémoire (cible de la table).
2012-11-22
Jobs en temps réel
Remarque :
Vous voulez peut-être créer une table en mémoire pour déplacer les données vers des flux de données séquentiels. Pour en savoir plus, voir
Banques de données en mémoire .
• Le deuxième flux de données lit les données de message de la table en mémoire (source de la table), crée une jointure avec les données archivées (source de la table) et écrit les résultats dans une table de base de données (cible de la table) et une nouvelle table en mémoire (cible de la table).
Notez que ce flux de données ne comporte ni source de message ni cible de message.
• Le dernier flux de données envoie la réponse. Il lit le résultat de la jointure dans la table en mémoire
(source de la table) et charge la réponse (cible du message XML).
Rubriques associées
•
Conception d'applications en temps réel
11.3.3 Création d'un job en temps réel avec un flux de données simple
1.
Dans Designer, créez ou ouvrez un projet existant.
2.
Dans la zone de projet, cliquez avec le bouton droit de la souris sur l'espace et sélectionnez Nouveau
job en temps réel dans le menu contextuel.
275 2012-11-22
Jobs en temps réel
New_RTJob1 s'affiche dans la zone de projet. L'espace de travail affiche la structure du job, composée de deux marqueurs :
• RT_Process_begins
• Step_ends
Ces marqueurs représentent le début et la fin d'une boucle en temps réel.
3.
Dans la zone de projet, renommez New_RTJob1.
Ajoutez toujours un préfixe aux noms de job avec leur type de job. Dans ce cas, utilisez la convention d'appellation : RTJOB_JobName.
Même si les jobs en temps réel sauvegardés sont regroupés sous l'onglet Job de la bibliothèque d'objets, les noms de job peuvent également s'afficher dans les éditeurs de texte utilisés pour créer des appels d'adaptateur ou de services Web. Dans ces cas, un préfixe sauvegardé avec le nom du job vous aidera à l'identifier.
4.
Pour créer un job avec un flux de données simple : a.
Cliquez sur l'icône Flux de données dans la palette d'outils.
Vous pouvez ajouter des flux de données à un job batch ou à un job en temps réel. Lorsque vous placez une icône Flux de données dans un job, vous demandez au Data Services de valider le flux de données conformément aux exigences du type de job (batch ou temps réel).
b.
Cliquez sur la boucle.
Les limites d'une boucle sont indiquées par des marqueurs de début et de fin. Une source de message et une cible de message sont autorisées dans une boucle en temps réel.
c.
Connectez les marqueurs de début et de fin au flux de données.
d.
Créez le flux de données en incluant une source et une cible de message.
e.
Ajoutez, configurez et connectez un (des) objet(s) d'initialisation et de nettoyage le cas échéant.
11.4 Objets source et cible en temps réel
Objet
Les jobs en temps réel doivent contenir un objet source et/ou cible en temps réel. Normalement les objets disponibles sont les suivants :
Accès au logiciel
Message XML
Message sortant
Description
Message XML structuré au format de schéma
DTD ou XML
Utilisé en tant que :
Source ou cible
Message en temps réel avec un format spécifique
à l'application (non lisible par un analyseur XML)
Cible
Directement ou via des adaptateurs
Via un adaptateur
276 2012-11-22
Jobs en temps réel
Pour
Vous pouvez également utiliser des messages IDoc comme sources en temps réel pour des applications
SAP. Pour plus d'informations, voir Supplement for SAP.
La procédure d'ajout de sources et de cibles à des jobs en temps réel est identique à celle d'ajout de sources et de cibles à des jobs batch avec les éléments supplémentaires suivants :
Messages XML
Message sortant
Connaissances requises
Emplacement de la bibliothèque d'objets
Importer un schéma DTD ou XML pour définir un format
Onglet Formats
Définir une banque de données d'adaptateur et importer des métadonnées d'objet.
Onglet Banques de données sous banque de données d'adaptateur
Rubriques associées
•
Importer un format de schéma XML ou DTD
•
Banques de données de l'adaptateur
11.4.1 Pour afficher un schéma source ou cible de message XML
Dans l'espace de travail d'un job en temps réel, cliquez sur le nom d'une source ou d'une cible de message XML pour ouvrir son éditeur.
Si la source ou la cible de message XML contient des données imbriquées, le schéma affiche des tables imbriquées pour représenter les relations entre les données.
11.4.2 Sources et cibles secondaires
Les jobs en temps réel peuvent également avoir des sources ou des cibles secondaires (voir
). Par exemple, supposez que vous traitiez un message contenant une commande client à partir d'une application Web. La commande contient le nom du client mais lorsque vous appliquez la commande par rapport à votre système ERP, vous devez fournir des informations client plus détaillées.
Dans un flux de données d'un job en temps réel, vous pouvez compléter le message par les informations client pour créer le document complet à envoyer au système ERP. Les informations supplémentaires peuvent provenir du système ERP lui-même ou d'un cache de données contenant les mêmes informations.
277 2012-11-22
Jobs en temps réel
Les tables et les fichiers (notamment fichiers XML) en tant que sources peuvent fournir ces informations supplémentaires.
Le logiciel lit des données à partir de sources secondaires conformément à la façon dont vous configurez le flux de données. Le logiciel charge des données dans les cibles secondaires parallèlement à un message cible.
Ajoutez des sources et des cibles secondaires aux flux de données dans des jobs en temps réel de la même façon qu'aux flux de données dans des jobs batch (Voir
Ajout d'objets sources ou cibles aux flux de données ).
11.4.3 Chargement opérationnel de tables
Les tables cible dans des jobs en temps réel prennent en charge un chargement opérationnel dans lequel les données résultant du traitement d'un flux de données simple peuvent être chargées dans plusieurs tables en tant que transaction simple. Aucun élément de la transaction ne s'applique si un
élément échoue.
Remarque :
Les tables cible dans des jobs batch prennent également en charge un chargement opérationnel.
Cependant soyez prudent lorsque vous activez cette option pour un job batch car elle nécessite l'utilisation d'une mémoire, ce qui peut réduire la performance lorsque vous déplacez d'importantes quantités de données.
Vous pouvez indiquer l'ordre dans lequel les tables sont incluses dans la transaction à l'aide de l'éditeur de table cible. Cette fonctionnalité prend en charge un scénario dans lequel vous avez un groupe de tables avec des clés externes qui dépendent d'un groupe contenant des clés primaires.
Vous pouvez utiliser le chargement opérationnel uniquement lorsque toutes les cibles dans un flux de données sont dans la même banque de données. Si le flux de données charge des tables dans plusieurs banques de données, les cibles de chaque banque de données sont chargées indépendamment. Alors que plusieurs cibles d'une banque de données peuvent être incluses dans une transaction, les cibles d'autres banques de données doivent être incluses dans une autre transaction.
Vous pouvez indiquer le même ordre de transaction ou des ordres de transaction distincts pour toutes les cibles à inclure dans la même transaction. Si vous indiquez le même ordre de transaction pour toutes les cibles dans la même banque de données, les tables sont toujours incluses dans la mêle transaction mais sont chargées ensemble. Le chargement est validé une fois que le chargement de toutes les tables est terminé dans la transaction.
278 2012-11-22
Jobs en temps réel
Si vous indiquez des ordres de transaction distincts pour toutes les cibles dans la même banque de données, les ordres de transaction indiquent les ordres de chargement des tables. La table avec l'ordre de transaction le plus petit est chargée en premier etc., jusqu'à ce que la table avec l'ordre de transaction le plus grand soit chargée en dernier. Deux tables ne sont pas chargées simultanément. Le chargement est validé lorsque le chargement de la dernière table est terminé.
11.4.4 Astuces relatives à la conception pour flux de données dans des jobs en temps réel
Tenez compte des éléments suivants lorsque vous concevez des flux de données :
• Si vous incluez une table à une jointure avec une source en temps réel, le logiciel inclut le jeu de données de la source en temps réel comme boucle externe de la jointure. Si plusieurs sources supplémentaires sont incluses dans la jointure, vous pouvez contrôler quelle table est incluse à la boucle suivante la plus externe de la jointure à l'aide des classements de jointure des tables.
• Dans des jobs en temps réel, ne mettez pas en mémoire cache les données de sources secondaires sauf si ces données sont statiques. Les données seront lues au début du job en temps réel et ne seront pas mises à jour lors de l'exécution du job.
• Si aucune ligne n'est transférée à la cible XML, le job en temps réel renvoie une réponse vide au serveur d'accès. Par exemple, si le système reçoit une demande pour un numéro de produit qui n'existe pas, votre job peut être conçu de telle sorte qu'aucune donnée ne soit transférée au message de réponse. Vous pouvez être amené à fournir des instructions appropriées à votre utilisateur
(traitement d'exception dans votre job) dans le cadre de ce type de scénario.
• Si plusieurs lignes sont transférées à la cible XML, la cible lit la première ligne et rejette les autres lignes. Afin d'éviter ce problème, utilisez vos connaissances relatives au Modèle de données relationnel imbriqué et structurez vos formats de message source et cible de telle sorte qu'une "ligne" corresponde à un message. Le modèle de données relationnel imbriqué permet de structurer toute quantité de données sur une seule "ligne" car les colonnes des tableaux peuvent contenir d'autres tableaux.
• Les mécanismes de récupération ne sont pas pris en charge dans les jobs en temps réel.
Rubriques associées
• Guide de référence : Objets, job en temps réel
•
11.5 Test des jobs en temps réel
279 2012-11-22
Jobs en temps réel
11.5.1 Exécution d'un job en temps réel en mode test
Vous pouvez tester des conceptions de job en temps réel sans configurer le job comme service associé
à un serveur d'accès. En mode test, vous pouvez exécuter un job en temps réel à l'aide d'un exemple de message source à partir d'un fichier pour déterminer si le logiciel crée le message cible escompté.
11.5.1.1 Pour indiquer un exemple de message XML et un fichier test cible
1.
Dans les éditeurs de cible et de source de message XML, entrez un nom de fichier dans la case
Fichier test XML.
Entrez le nom de chemin complet pour le fichier source qui contient votre échantillon de données.
Utilisez les chemins pour les fichiers test relatifs à l'ordinateur qui exécute le job server pour le référentiel actuel.
2.
Exécutez le job.
Le mode test est toujours activé pour des jobs en temps réel. Le logiciel lit des données à partir du fichier test source et les charge dans le fichier test cible.
11.5.2 Utilisation de View Data
Pour garantir que la conception renvoie les résultats escomptés, exécutez votre job à l'aide de View data. View Data permet de capturer un échantillon de données de sortie pour garantir que la conception fonctionne.
Rubriques associées
•
11.5.3 Utilisation d'une cible de fichier XML
Vous pouvez utiliser une "cible de fichier XML" pour capturer le message créé par un flux de données en autorisant le renvoi du message au serveur d'accès.
280 2012-11-22
Jobs en temps réel
Tout comme un message XML, vous définissez un fichier XML en important un schéma DTD ou XML pour le fichier puis faites glisser le format dans la définition de flux de données. Contrairement aux messages XML, vous pouvez inclure des fichiers XML comme sources ou cibles dans des jobs batch et des jobs en temps réel.
11.5.3.1 Pour utiliser un fichier pour une capture de sortie à partir d'étapes de job en temps réel
1.
Dans l'onglet Formats de la bibliothèque d'objets, faites glisser le schéma DTD ou XML dans un flux de données d'un job en temps réel.
Un menu vous invite à indiquer la fonction du fichier.
2.
Sélectionnez Créer la cible du fichier XML.
La cible du fichier XML s'affiche dans l'espace de travail.
3.
Dans l'éditeur de fichiers, indiquez l'emplacement où le logiciel écrit les données.
Saisissez un nom de fichier par rapport à l'ordinateur exécutant le job server.
4.
Reliez la sortie de l'étape du flux de données de capture à l'entrée du fichier.
11.6 Building blocks des jobs en temps réel
281 2012-11-22
Jobs en temps réel
11.6.1 Complément aux données de message
Les données incluses dans des messages de sources en temps réel peuvent ne pas correspondre exactement à vos besoins pour le traitement ou l'archivage des informations. Dans ce cas, vous pouvez définir des étapes dans le job en temps réel pour compléter les informations du message.
Une technique permettant de compléter les données dans une source en temps réel comprend les
étapes suivantes :
1.
Inclure une table ou un fichier en tant que source.
Outre la source en temps réel, inclure les fichiers ou les tables pour lesquels vous avez besoin d'informations complémentaires.
2.
Utiliser une demande pour extraire les données requises de la table ou du fichier.
3.
Utiliser les données de la source en temps réel pour rechercher les données supplémentaires nécessaires.
Vous pouvez inclure une expression JOIN dans la demande pour extraire les valeurs spécifiques requises de la source supplémentaire.
282
La condition de jointure relie les deux schémas d'entrée, ce qui se traduit par une sortie uniquement pour le document de poste de vente et les postes de ligne inclus dans la saisie à partir de l'application.
Utilisez prudemment les données dans la jointure pour garantir un retour de valeur. Si la jointure ne renvoie aucune donnée, la demande ne crée aucune ligne et le message retourne sans valeur au serveur d'accès. Si vous ne pouvez pas garantir le retour d'une valeur, tenez compte des alternatives suivantes :
2012-11-22
Jobs en temps réel
• Appel de la fonction de recherche – Renvoie une valeur par défaut si le système ne trouve aucune donnée
• Jointure externe – Renvoie toujours une valeur même si le système ne trouve aucune donnée
11.6.1.1 Complément aux données de message
Dans cet exemple, un message de demande comprend des informations sur la commande client et son message de réponse renvoie le statut de la commande. La logique applicative utilise le numéro de client et la classification de priorité pour déterminer le niveau du statut à renvoyer. Le message contient uniquement le nom du client et le numéro de la commande. Un job en temps réel est alors défini pour récupérer le numéro de client et la classification d'autres sources avant de déterminer le statut de la commande.
283
1.
Incluez la source en temps réel au job en temps réel.
2.
Incluez la source complémentaire au job en temps réel.
Cette source pourrait être une tableau ou un fichier. Dans cet exemple, les informations complémentaires requises ne changent pas très souvent, il est donc judicieux d'extraire les données d'un cache de données plutôt que d'accéder directement à un système ERP.
3.
Relier les sources.
Dans une transformation Query, créez une jointure sur le nom du client :
Message.CustName = Cust_Status.CustName
Vous pouvez créer la sortie pour inclure uniquement les colonnes requises par le job en temps réel pour déterminer le statut de la commande.
4.
Complétez le job en temps réel pour déterminer le statut de la commande.
L'exemple indiqué ici détermine le statut de la commande dans l'une des deux méthodes, en fonction de la valeur du statut client. Le statut de la commande des clients les mieux classés est déterminé directement de l'ERP. Le statut de la commande pour les autres clients est déterminé à partir d'un cache de données d'informations relatives à la commande client.
La logique peut être organisée en flux de données simple ou multiples. L'illustration ci-dessous présente un modèle de flux de données simple.
2012-11-22
Jobs en temps réel
Les deux branches renvoient le statut de commande pour chaque ligne de poste de la commande.
Le flux de données fusionne les résultats et crée la réponse. La section suivante décrit comment concevoir des chemins de branche dans un flux de données.
11.6.2 Création de branche de flux de données en fonction d'une valeur de cache de données
L'une des choses les plus importantes que vous pouvez faire avec un job en temps réel est de concevoir une logique qui détermine si des réponses doivent être générées à partir d'un cache de données ou de données d'une application back-office (ERP, SCM, CRM).
Voici une technique permettant de créer cette logique :
1.
Déterminez la règle d'accès au cache de données et à l'application back-office.
2.
Comparez les données de la source en temps réel à la règle.
3.
Définissez chaque chemin pouvant résulter de la sortie.
Vous pouvez être amené à prendre en compte le cas où la règle indique l'accès à l'application back-office mais le système n'est pas disponible actuellement.
4.
Fusionnez les résultats de chaque chemin dans un jeu de données simple.
5.
Transférez le résultat unique vers la cible en temps réel.
Vous pouvez être amené à effectuer un contrôle des erreurs et un traitement des exceptions pour
être sûr qu'une valeur est transférée à la cible. Si la cible reçoit un jeu vide, le job en temps réel renvoie une réponse vide (début et fin de balise XML uniquement) au serveur d'accès.
284 2012-11-22
Jobs en temps réel
Cet exemple décrit une section d'un job en temps réel qui traite une nouvelle commande client. La section assure le contrôle du stock disponible des produits commandés, elle répond à la question "le stock magasin est-il suffisant pour satisfaire cette commande ? "
La règle contrôlant l'accès à l'application back-office indique que le stock (Stck.) doit être supérieur à une valeur prédéfinie (IMargin), supérieure à la quantité commandée (Qté) pour considérer la valeur en stock des données mises en cache comme acceptable.
Le logiciel compare chaque poste de la commande dans l'ordre de mappage.
Tableau 11-3 : Commande d'achat entrante
N°Commande
9999
IDClient
1001
Elément
001
002
Poste
Article
7333
2288
Qté
300
1400
Tableau 11-4 : Cache de données de stock
Article
7333
2288
Stock
600
1500
IMargin
100
200 stock.
Remarque :
La quantité d'articles dans la commande client est comparée aux valeurs en stock du cache de données.
11.6.3 Appel de fonctions d'application
Un job en temps réel peut utiliser des fonctions d'application pour traiter des données. Vous pouvez inclure des tables comme paramètres d'entrée ou de sortie à la fonction.
Les fonctions d'application nécessitent des valeurs de saisie pour certains paramètres et certains peuvent ne pas être renseignés. Vous devez déterminer les exigences de la fonction pour préparer les entrées appropriées.
Pour créer l'entrée, vous pouvez indiquer la table de niveau supérieur, les colonnes de niveau supérieur et toutes les tables imbriquées un niveau au-dessous des tables listées dans la clause FROM du contexte appelant la fonction. Si la fonction d'application comprend une structure comme paramètre d'entrée, vous devez indiquer les colonnes individuelles composant la structure.
285 2012-11-22
Jobs en temps réel
Un flux de données peut contenir plusieurs étapes qui appellent une fonction, récupèrent des résultats puis les placent dans les colonnes et les tables requises pour une réponse.
11.7 Conception d'applications en temps réel
Le logiciel propose une connexion à faible impact fiable entre une application Web et des applications back-office, par exemple un système ERP. Chaque implémentation d'un système ERP étant différente et le logiciel incluant une logique d'aide à la décision polyvalente, vous disposez de plusieurs opportunités pour concevoir un système répondant à vos besoins en matière de ressource et d'informations internes et externes.
11.7.1 Baisse des requêtes nécessitant un accès à une application back-office
Cette section propose un ensemble de recommandations et de considérations permettant de réduire le temps passé à tester des cycles de développement.
Les informations auxquelles vos clients sont autorisés à accéder via votre application Web peuvent influencer la performance que les clients voient sur le Web. Vous pouvez améliorer la performance par vos décisions en matière de conception d'application Web. Notamment, vous pouvez structurer votre application pour réduire le nombre de requêtes nécessitant un accès direct à l'application back-office
(ERP, SCM, système hérité).
Par exemple, si votre système ERP prend en charge une structure de détermination du prix complexe qui comprend des dépendances, par exemple la priorité du client, la disponibilité du produit ou la quantité commandée, vous ne pourrez peut-être pas compter sur les valeurs d'un cache de données pour les informations prix. L'autre solution serait de demander les informations prix directement à partir du système ERP. L'accès au système ERP semble plus lent que l'accès direct à la base de données, réduisant la performance des expériences de vos clients avec l'application Web.
Pour réduire l'impact des requêtes nécessitant un accès direct au système ERP, modifiez votre application Web. Via l'exemple de la détermination du prix, personnalisez l'application pour éviter l'affichage des informations prix avec des informations produit standard et affichez la détermination du prix uniquement après le choix d'un produit ou d'une quantité spécifique par le client. Ces techniques paraissent évidentes dans le cadre des systèmes de réservations de compagnies aériennes qui fournissent des informations prix, une offre pour un vol spécifique, contrairement à d'autres sites Web qui indiquent la détermination du prix pour chaque article affiché comme élément des catalogues de produit.
286 2012-11-22
Jobs en temps réel
11.7.2 Messages de jobs en temps réel aux instances d'adaptateur
Si un job en temps réel souhaite envoyer un message à une instance d'adaptateur, reportez-vous à la documentation sur l'adaptateur pour décider si vous devez créer un appel de fonction message ou un message sortant.
• Les appels de fonction message permettent à l'instance d'adaptateur de collecter des demandes et d'envoyer des réponses.
• Les objets de message sortant peuvent uniquement envoyer des messages sortants. Ils ne peuvent pas être utilisés pour recevoir des messages.
Rubriques associées
•
Importation de métadonnées par une banque de données d'adaptateur
11.7.3 Service en temps réel appelé par une instance d'adaptateur
Cette section utilise des termes propres à la programmation Java. (Reportez-vous à la documentation
SDK sur l'adaptateur pour en savoir plus sur les termes tels que instance de l'opération et ressource de l'information.)
Lorsqu'une instance de l'opération (dans un adaptateur) reçoit un message d'une ressource d'information, elle le convertit en fichier XML (le cas échéant) puis envoie le message XML à un service en temps réel.
Dans le service en temps réel, le message de l'adaptateur est représenté par un objet de schéma DTD ou XML (archivé dans l'onglet Formats de la bibliothèque d'objets). Le schéma DTD ou XML représente le schéma de données pour la ressource d'information.
Le service en temps réel traite le message de la ressource de l'information (transmis par l'adaptateur) et renvoie une réponse.
Dans l'exemple de flux de données ci-dessous, le Query traite un message (représenté ici par "Activité") reçu d'une source (une instance de l'adaptateur) et renvoie la réponse à une cible (à nouveau une instance de l'adaptateur).
287 2012-11-22
Jobs en temps réel
288 2012-11-22
Flux de données intégrés
Flux de données intégrés
Le logiciel fournit une option facile à utiliser pour créer des flux de données intégrés.
12.1 Vue d'ensemble des flux de données intégrés
Un flux de données intégré est un flux de données qui est appelé depuis un autre flux de données. Les données sont transmises dans ou en dehors du flux de données intégré à partir du flux parent par une seule source ou cible. Le flux de données intégré peut contenir autant de sources ou cibles que nécessaire, mais uniquement un seule entrée ou une seule sortie peut transmettre les données vers ou depuis le flux de données parent.
Il est possible de créer les types de flux de données intégrés suivants :
Type
Une entrée
Une sortie
Aucune entrée ni sortie
A utiliser lorsque vous souhaitez...
Ajouter un flux de données intégré à la fin d'un flux de données.
Ajouter un flux de données intégré au début d'un flux de données.
Répliquer un flux de données existant.
Un flux de données intégré est une aide à la conception qui n'a aucun effet sur l'exécution des jobs.
Lorsque le logiciel exécute le flux de données parent, il développe les flux de données intégrés, optimise le flux de données parent puis l'exécute.
Utilisez les flux de données intégrés pour :
• Simplifier l'affichage du flux de données. Regroupez des sections d'un flux de données dans les flux de données intégrés pour permettre une documentation et une présentation plus claires.
• Réutiliser la logique du flux de données. Enregistrez les sections logiques d'un flux de données pour pouvoir utiliser la logique exacte dans d'autres flux de données, ou fournir ou manière simple de répliquer la logique et de la modifier pour d'autres flux.
• Déboguer la logique du flux de données. Répliquez les sections d'un flux de données comme des flux de données intégrés pour pouvoir les exécuter indépendamment.
289 2012-11-22
Flux de données intégrés
12.2 Exemple des cas où utiliser les flux de données intégrés
Dans cet exemple, un flux de données utilise une source unique pour charger trois systèmes cibles différents. La transformation Case envoie chaque ligne de la source aux différentes transformations qui les traitent pour obtenir une sortie cible unique.
Il est possible de simplifier le flux de données parent en utilisant des flux de données intégrés pour les trois cas différents.
12.3 Création de flux de données intégrés
Il existe deux manières de créer des flux de données intégrés.
• Sélectionnez les objets dans un flux de donnée, faites un clic droit et sélectionnez Créer un flux
de données intégré.
290 2012-11-22
Flux de données intégrés
• Faites glisser un flux de données complet et validé de la bibliothèque d'objets vers un flux de données ouvert dans l'espace de travail. Puis :
• Ouvrez le flux de données que vous venez à l'instant d'ajouter.
• Faites un clic droit sur un objet que vous souhaitez utiliser comme un port d'entrée ou de sortie et sélectionnez Créer le port pour cet objet.
Le logiciel marque l'objet que vous sélectionnez comme le point de connexion pour ce flux de données intégré.
Remarque :
Il est possible d'indiquer un seul port, ce qui signifie que le flux de données intégré peut apparaitre uniquement au début ou à la fin du flux de données parent.
Data Services ignore certains des fichiers physiques requis pour les sources et cibles auxquelles des ports sont affectés.
• Lors de l'utilisation d'un flux de données intégré, certaines données seront directement transmises de l'appelant vers la ou les transformations en regard du port source.
• Lors de l'utilisation directe d'un flux de données, Data Services utilisera les fichiers physiques dans les sources et cibles, mais ignorera les ports.
12.3.1 Utilisation de l'option Créer un flux de données intégré
291
12.3.1.1 Créer un flux de données intégré
1.
Sélectionnez les objets dans un flux de données ouvert à l'aide d'une des méthodes suivantes :
• Cliquez sur l'espace vide et faites glisser le rectangle autour des objets
• Appuyez sur Ctrl et cliquez sur chaque objet
Assurez-vous que les objets que vous sélectionnez sont :
• Tous connectés les uns avec les autres
• Connectés à d'autres objets en fonction du type de flux de données intégré que vous souhaitez créer, tel qu'une entrée, une sortie, ou aucune entrée ni sortie.
2.
Faites un clic droit et sélectionnez Créer un flux de données intégré.
La fenêtre Créer un flux de données intégré s'ouvre, avec le flux de données intégré connecté au flux parent par un objet d'entrée.
3.
Nommez le flux de données intégré à l'aide de la convention FDI_NomFDI par exemple FDI_ERP.
Si vous décochez la case Remplacer les objets dans le flux de données d'origine, le logiciel n'apporte aucune modification dans le flux de données d'origine. Le logiciel enregistre le nouvel objet du flux
2012-11-22
Flux de données intégrés de données intégré dans le référentiel et l'affiche dans la bibliothèque d'objets sous l'onglet Flux de données.
Il est possible d'utiliser un flux de données intégré créé sans remplacement comme un flux de données autonome pour le dépannage.
Si l'option Remplacer les objets dans le flux de données d'origine est sélectionnée, le flux de données d'origine devient un flux de données parent, qui a un appel vers le nouveau flux de données intégré.
4.
Cliquez sur OK.
292
Le flux de données intégré apparait dans le nouveau flux de données parent.
5.
Cliquez sur le nom du flux de données intégré pour l'ouvrir.
6.
Notez que le logiciel a créé un nouvel objet, FDI_ERP_Entrée qui correspond au port d'entrée qui connecte ce flux de données intégré au flux de données parent.
Lorsque vous utilisez l'option Créer un flux de données intégré, le logiciel crée automatiquement un objet d'entrée ou de sortie en fonction de l'objet qui est connecté au flux de données intégré lors de sa création.
Par exemple, si un flux de données intégré a une connexion de sortie, le flux de données intégré inclut alors un objet du fichier XML cible étiqueté NomFDI_Sortie
Les conventions d'appellation pour chaque type de flux de données intégré sont :
Type Conventions d'appellation
Une entrée
Une sortie
NomFDI_Entrée
NomFDI_Sortie
2012-11-22
Flux de données intégrés
Type
Aucune entrée ni sortie
Conventions d'appellation
Le logiciel crée un flux de données intégré sans objet d'entrée ou de sortie
12.3.2 Création de flux de données intégrés à partir de flux existants
Pour appeler un flux de données existant depuis un autre flux de données, placez le flux de données dans le flux de données parent, puis marquez quelle source ou quelle cible utiliser pour transmettre les données entre les flux de données parent et intégré.
12.3.2.1 Créer un flux de données intégré en dehors d'un flux de données existant
1.
Faites glisser un flux de données valide existant de la bibliothèque d'objets dans un flux de données qui est ouvert dans l'espace de travail.
2.
Pensez à renommer le flux à l'aide de la convention d'appellation FDI_NomFDI.
Le flux de données intégré apparait sans aucune pointe de flèche (ports) dans l'espace de travail.
3.
Ouvrez le flux de données intégré.
4.
Faites un clic droit sur un objet cible ou source (fichier ou table) et sélectionnez Créer le port.
Remarque :
Assurez-vous d'indiquer uniquement un port de sortie ou d'entrée.
De la même façon qu'un flux de données normal, les différents types de ports de flux de données intégrés sont indiqués par des marquages directionnels sur l'icône du flux de données intégré.
12.3.3 Utilisation des flux de données intégrés
Lorsque vous créez et configurez un flux de données intégré à l'aide de l'option Créer un flux de
données intégré, le logiciel crée un nouveau fichier XML d'entrée ou de sortie et enregistre le schéma dans le référentiel comme un schéma XML. Il est possible de réutiliser un flux de données intégré en le faisant glisser de l'onglet Flux de données de la bibliothèque d'objets vers d'autres flux de données.
Pour enregistrer l'heure de mappage, il est possible que vous souhaitiez utiliser l'option Mettre à jour le schéma ou l'option Schéma de correspondance.
293 2012-11-22
Flux de données intégrés
Le scénario d'exemple suivant utilise les deux options :
• Créez le flux de données 1.
• Sélectionnez les objets dans le flux de données 1 et créez le flux de données intégré 1 pour que le flux de données parent 1 appelle le flux de données intégré 1.
• Créez le flux de données 2 et le flux de données 3 et ajoutez le flux de données intégré 1 aux deux flux.
• Retournez au flux de données 1. Modifiez le schéma de l'objet précédant le flux de données intégré
1 et utilisez l'option Mettre à jour le schéma avec le flux de données intégré 1. Cette option met à jour le schéma du flux de données intégré 1 dans le référentiel.
• Désormais, les schémas dans les flux de données 2 et 3 qui sont alimentés dans le flux de données intégré 1 seront différents du schéma attendu par le flux de données intégré.
• Utilisez l'option Schéma de correspondance pour le flux de données intégré 1 dans les flux de données 2 et 3 pour résoudre les incohérences au moment de l'exécution. L'option Schéma de correspondance affecte uniquement les paramètres dans le flux de données actuel.
Les sections suivantes décrivent plus en détail l'utilisation des options Mettre à jour le schéma et Schéma de correspondance.
12.3.3.1 Mise à jour des schémas
Le logiciel fournit une option pour mettre à jour un schéma d'entrée d'un flux de données intégré. Cette option met à jour le schéma d'un objet d'entrée d'un flux de données intégré avec le schéma de l'objet précédent dans le flux de données parent. Toutes les occurrences du flux de données intégré se mettent
à jour lorsque vous utilisez cette option.
12.3.3.1.1 Mettre à jour un schéma
1.
Ouvrez le flux de données parent du flux de données intégré.
2.
Faites un clic droit sur l'objet du flux de données intégré et sélectionnez Mettre à jour le schéma.
294
12.3.3.2 Correspondance des données entre les flux de données parent et intégré
Le schéma d'un objet d'entrée d'un flux de données intégré peut correspondre à un schéma de l'objet précédent dans le flux de données parent par le nom ou par le poste. Une correspondance par poste est celle par défaut.
12.3.3.2.1 Spécifier la manière dont les schémas doivent correspondre
1.
Ouvrez le flux de données parent du flux de données intégré.
2012-11-22
Flux de données intégrés
2.
Faites un clic droit sur l'objet du flux de données intégré et sélectionnez Schéma de
correspondancePar nom ou Schéma de correspondancePar poste.
L'option Schéma de correspondance affecte uniquement les paramètres pour le flux de données actuel.
Data Services permet également au schéma de l'objet précédent dans le flux de données parent d'avoir plus ou moins de colonnes que le flux de données intégré. Le flux de données intégré ignore les colonnes supplémentaires et lit les colonnes manquantes comme des valeurs nulles.
Les colonnes dans les deux schémas doivent avoir des types de données identiques ou convertibles.
Consultez la section sur la "Conversion de type" dans le
Guide de référence pour plus d'informations.
12.3.3.3 Suppression d'objets de flux de données intégré
Il est possible de supprimer les ports du flux de données intégré ou de supprimer l'intégralité des flux de données intégrés.
12.3.3.3.1 Supprimer un port
Faites un clic droit sur l'objet d'entrée ou de sortie dans le flux de données intégré et décochezCréer
le port. Data Services supprime la connexion à l'objet parent.
Remarque :
Il est impossible de supprimer un port en supprimant simplement la connexion dans le flux parent.
12.3.3.3.2 Supprimer un flux de données intégré
Sélectionnez-le dans le flux de données parent ouvert et sélectionnez Supprimer dans le menu clic droit ou dans le menu Edition.
Si vous supprimez des flux de données intégrés de la bibliothèque d'objets, l'icône du flux de données intégré apparait avec un cercle rouge barré dans le flux de données parent.
Supprimez ces objets de flux de données intégré qui n'existent plus des flux de données parent.
12.3.4 Test séparé d'un flux de données intégré
Les flux de données intégrés peuvent être testés en les exécutant séparément comme des flux de donnés réguliers.
295 2012-11-22
Flux de données intégrés
1.
Indiquez un fichier XML pour le port d'entrée ou le port de sortie.
Lorsque vous utilisez l'option Créer un flux de données intégré, un objet du fichier XML d'entrée ou de sortie est créé puis connecté (facultatif) à l'objet précédent ou suivant dans le flux de données parents. Pour tester le fichier XML sans le flux de données parent, cliquez sur le nom du fichier XML pour ouvrir son éditeur source ou cible pour indiquer un nom de fichier.
2.
Placez le flux de données intégré dans un job.
3.
Exécutez le job.
Il est également possible d'utiliser les fonctionnalités suivantes pour tester des flux de données intégrés :
• Afficher les données pour les exemples de données passées dans un flux de données intégré.
• Statistiques d'audit sur les données lues depuis les sources, transformées, et chargées dans les cibles, et règles sur les statistiques d'audit pour vérifier que les données attendues sont traitées.
Rubriques associées
• Guide de référence : fichier XML
•
12.3.5 Dépannage des flux de données intégrés
Les situations suivantes produisent des erreurs :
• Un port d'entrée et un port de sortie sont indiqués dans un flux de données intégré.
• Flux de données qui n'existent plus piégés.
• Connexion au flux de données parent supprimée alors que l'option Créer le port dans le flux de données intégré reste sélectionnée.
• Les transformations avec des séparateurs (comme la transformation Case) indiquées comme l'objet du port de sortie car un séparateur produit plusieurs sorties, et les flux de données intégrés peuvent seulement en avoir une.
• Variables et paramètres déclarés dans le flux de données intégré qui ne sont pas déclarés dans le flux de données parent.
• Intégration du même flux de données à tous les niveaux de ce flux de données.
Il est cependant possible d'avoir des niveaux d'intégration illimités. Par exemple, le flux de données
FDI1 appelle le flux de données intégré FDI1 qui appelle le FDI2.
Rubriques associées
•
Supprimer un flux de données intégré
•
296 2012-11-22
Variables et paramètres
Variables et paramètres
Cette section propose des informations sur les éléments suivants :
• Ajout et définition de variables locales et globales pour des jobs
• Utilisation de variables d'environnement
• Utilisation de paramètres de substitution et configurations
13.1 Présentation des variables et des paramètres
Vous pouvez améliorer la flexibilité et la réutilisabilité des workflows et des flux de données en utilisant des variables locales et globales lorsque vous créez des jobs. Les variables sont des caractères génériques symboliques pour les valeurs. Le type de données d'une variable peut être pris en charge par le logiciel comme un entier, une décimale, une date ou une chaîne texte.
Vous pouvez utiliser des variables dans des expressions pour simplifier la prise de décision ou l'utilisation de données (utilisation de l'arithmétique ou substitution de caractère). Par exemple, une variable peut
être utilisée dans une instruction LOOP ou IF pour vérifier une valeur de variable afin de définir l'étape
à exécuter :
If $amount_owed > 0 print('$invoice.doc');
Si vous définissez des variables dans un job ou un workflow, le logiciel les utilise généralement dans un script, un catch ou un processus conditionnel.
297 2012-11-22
Variables et paramètres
298
Vous pouvez utiliser des variables dans des flux de données. Par exemple, utilisez-les dans une fonction personnalisée ou dans la clause WHERE d'une transformation Query.
Dans le logiciel, les variables locales sont limitées à l'objet dans lequel elles sont créées (job ou workflow). Vous devez utiliser des paramètres pour transférer des variables locales aux objets enfant
(worflows et flux de données).
Les variables locales sont limitées au job dans lequel elles sont créées ; cependant, les paramètres ne doivent pas être nécessairement transférés aux workflows et aux flux de données.
Remarque :
Si vous avez des workflows exécutés en parallèle, les variables globales ne sont pas affectées.
Les paramètres sont des expressions transférées dans un workflow ou un flux de données lorsqu'ils sont appelés dans un job.
Vous créez des variables locales, des paramètres et des variables globales à l'aide de la fenêtre
Variables et paramètres dans Designer.
Vous pouvez définir des valeurs pour des variables locales ou globales dans des objets de script. Vous pouvez également définir des valeurs de variables globales à l'aide d'un job externe, d'une exécution ou de propriétés de planification.
L'utilisation de variables globales apporte un maximum de flexibilité. Par exemple, au cours de la production, vous pouvez modifier des valeurs de variables globales par défaut au cours de l'exécution
à partir d'une planification de job ou d'un appel “SOAP” sans avoir à ouvrir un job dans Designer.
Les variables peuvent être utilisées comme noms de fichier pour :
• Sources et cibles de fichier plat
• Sources et cibles de fichier XML
• Cibles de message XML (exécutées dans Designer en mode test)
2012-11-22
Variables et paramètres
• Sources et cibles de fichier IDoc (dans un environnement d'application SAP)
• Sources et cibles de message IDoc (dans un environnement d'application SAP)
Rubriques associées
• Le guide de la Console de gestion : Administrateur, Support pour services Web
13.2 Fenêtre Variables et paramètres
Le logiciel affiche les variables et les paramètres définis pour un objet dans la fenêtre "Variables et paramètres".
13.2.1 Pour afficher les variables et les paramètres dans chaque job, workflow ou flux de données
1.
Dans le menu Outils, sélectionnez Variables.
La fenêtre "Variables et paramètres" s'ouvre.
2.
Dans la bibliothèque d'objets, cliquez deux fois sur un objet, ou dans la zone de projet, cliquez sur un objet pour l'ouvrir dans l'espace de travail.
Le cadre Contexte dans la fenêtre affiche alors l'objet que vous consultez. Si aucun objet n'est sélectionné, la fenêtre n'indique aucun contexte.
La fenêtre Variables et paramètres contient deux onglets.
L'onglet Définitions permet de créer et d'afficher des variables (nom et type de données) et des paramètres (nom, type de données et type de paramètre) pour un type d'objet. La variable locale et les paramètres peuvent être uniquement définis au niveau du workflow et du flux de données. Les variables globales peuvent être uniquement définies au niveau du job.
Le tableau suivant liste le type de variables et de paramètres que vous pouvez créer à l'aide de la fenêtre Variables et paramètres lorsque vous sélectionnez différents objets.
Type d'objet
Données que vous pouvez créer pour l'objet
Utilisé par
Job
Variables locales
Variables globales
Script ou structure conditionnelle dans le job
Tout objet dans le job
299 2012-11-22
Variables et paramètres
Type d'objet
Workflow
Flux de données
Données que vous pouvez créer pour l'objet
Utilisé par
Variables locales
Paramètres
Workflow transféré vers d'autres workflows ou flux de données à l'aide d'un paramètre.
Objets parents pour transférer des variables locales. Les workflows peuvent également renvoyer des variables ou des paramètres aux objets parents.
Paramètres
Clause WHERE, mappage de colonne ou fonction dans le flux de données.
Les flux de données ne peuvent pas renvoyer des valeurs de sortie.
L'onglet Appels permet d'afficher le nom de chaque paramètre défini pour tous les objets dans une définition d'objet parent. Vous pouvez également saisir des valeurs pour chaque paramètre.
Pour le type de paramètre d'entrée, les valeurs de l'onglet Appels peuvent être des constantes, des variables ou un autre paramètre.
Pour la sortie ou le type de paramètre entrée/sortie, les valeurs de l'onglet Appels peuvent être des variables ou des paramètres.
Les valeurs de l'onglet Appels doivent également utiliser :
• Le même type de données que la variable si elles se situent dans une entrée ou un type de paramètre entrée/sortie et un type de données compatible si elles se situent dans un type de paramètre de sortie.
• Règles de la langue de script et syntaxe
L'illustration suivante présente la relation entre un workflow en cours appelé DeltaFacts, le cadreContexte dans la fenêtre Variables et paramètres et le contenu dans les onglets Définition et Appels.
300 2012-11-22
Variables et paramètres
13.3 Utilisation de variables locales et de paramètres
Pour transférer une variable locale vers un autre objet, définissez la variable locale, puis à partir de l'objet appelant, créez un paramètre et mappez le paramètre à la variable locale en saisissant une valeur de paramètre.
Par exemple, pour utiliser une variable locale dans un flux de données, définissez la variable dans un workflow parent puis transférez la valeur de la variable comme paramètre du flux de données.
301 2012-11-22
Variables et paramètres
13.3.1 Paramètres
Des paramètres peuvent être définis pour :
• Transférer leurs valeurs aux workflows ou à l'extérieur de workflows
• Transférer leurs valeurs aux flux de données
Un type : entrée, sortie ou entrée/sortie est affecté à chaque paramètre. La valeur transférée par le paramètre peut être utilisée par tout objet appelé par le workflow ou flux de données.
Remarque :
Vous pouvez également créer des variables locales et des paramètres à utiliser dans des fonctions personnalisées.
Rubriques associées
• Guide de référence : Fonctions personnalisées
13.3.2 Transfert de valeurs aux flux de données
Vous pouvez utiliser une valeur transférée comme paramètre dans un flux de données pour contrôler les données transformées dans le flux de données. Par exemple, le flux de données DF_PartFlow traite quotidiennement des valeurs en stock. Il peut traiter tous les numéros de pièce fabricant utilisés ou une gamme de numéros de pièce fabricant en fonction d'exigences externes, par exemple la tranche de numéros traitée en dernier.
Si le workflow qui appelle DF_PartFlow enregistre la tranche de numéros traitée, il peut transférer la valeur de fin de la tranche $EndRange comme paramètre aux flux de données pour indiquer la valeur de début de la tranche suivante à traiter.
Le logiciel peut calculer une nouvelle valeur de fin en fonction d'un numéro de pièce fabricant archivé
à traiter chaque fois, par exemple $SizeOfSet puis transférer cette valeur au flux de données comme valeur de fin. Une transformation Query dans le flux de données utilise les paramètres transférés pour filtrer les numéros de pièce fabricant extraits de la source.
302 2012-11-22
Variables et paramètres
Le flux de données pourrait être utilisé par plusieurs appels figurant dans un ou plusieurs workflows pour exécuter la même tâche sur différentes tranches de numéros en indiquant différents paramètres pour les appels spécifiques.
13.3.3 Définition d'une variable locale
1.
Cliquez sur le nom du job ou du workflow dans la zone de projet ou l'espace de travail ou cliquez deux fois sur la bibliothèque d'objets.
2.
Cliquez sur Outils > Variables.
La fenêtre "Variables et paramètres" s'affiche.
3.
Dans l'onglet Définitions, sélectionnez Variables.
4.
Cliquez avec le bouton droit de la souris et sélectionnez Insérer.
Une nouvelle variable s'affiche (par exemple $NewVariable0). Une boîte de contexte s'affiche autour de la cellule du nom et le curseur prend la forme d'une flèche avec un crayon jaune.
5.
Pour modifier le nom d'une variable, cliquez sur la cellule du nom.
Le nom peut contenir des caractères alphanumériques ou des traits de soulignement, mais il ne peut pas contenir d'espace. Le nom doit toujours commencer par un symbole dollar ($).
6.
Cliquez sur la cellule du type de données pour la nouvelle variable et sélectionnez le type de données approprié dans la liste déroulante.
7.
Fermez la fenêtre "Variables et paramètres".
13.3.4 Définition de paramètres
Deux étapes permettent de configurer un paramètre pour un workflow ou un flux de données :
• Ajouter la définition de paramètre au flux.
• Définir la valeur du paramètre dans l'appel de flux.
303 2012-11-22
Variables et paramètres
304
13.3.4.1 Pour ajouter le paramètre à la définition de flux
1.
Cliquez sur le nom du workflow ou du flux de données.
2.
Cliquez sur Outils > Variables.
La fenêtre "Variables et paramètres" s'affiche.
3.
Accédez à l'onglet Définition.
4.
Sélectionnez Paramètres.
5.
Cliquez avec le bouton droit de la souris et sélectionnez Insérer.
Un nouveau paramètre s'affiche (par exemple, $NewParameter0). Un cadre de contexte s'affiche et le curseur prend la forme d'une flèche avec un crayon jaune.
6.
Pour modifier le nom d'une variable, cliquez sur la cellule du nom.
Le nom peut contenir des caractères alphanumériques ou des traits de soulignement, mais il ne peut pas contenir d'espace. Le nom doit toujours commencer par un symbole dollar ($).
7.
Cliquez sur la cellule du type de données pour le nouveau paramètre et sélectionnez le type de données approprié dans la liste déroulante.
Si le paramètre est une entrée ou un paramètre d'entrée/de sortie, il doit avoir le même type de données que la variable ; si le paramètre est un type de paramètre de sortie, il doit avoir un type de données compatible.
8.
Cliquez sur la cellule du type de paramètre et sélectionnez le type de paramètre (entrée, sortie ou entrée/sortie).
9.
Fermez la fenêtre "Variables et paramètres".
13.3.4.2 Pour définir la valeur du paramètre dans l'appel de flux
1.
Ouvrez le job appelant, le workflow ou le flux de données.
2.
Cliquez sur Outils > Variables pour ouvrir la fenêtre "Variables et paramètres".
3.
Sélectionnez l'onglet Appels.
L'onglet Appels affiche tous les objets appelés à partir du job en cours, workflow ou flux de données.
4.
Cliquez sur la cellule Valeur d'argument.
Un cadre de contexte s'affiche et le curseur prend la forme d'une flèche avec un crayon jaune.
5.
Saisissez l'expression que le paramètre transfèrera dans la cellule.
2012-11-22
Variables et paramètres
Si le type de paramètre est une entrée, sa valeur peut être une expression contenant une constante
(par exemple, 0, 3 ou 'string1'), une variable ou un autre paramètre (par exemple, $startID ou
$parm1
).
Si le type de paramètre est une sortie ou une entrée/sortie, la valeur doit être une variable ou un paramètre. La valeur ne peut pas être une constante car par définition, la valeur d'un paramètre sortie ou entrée/sortie peut être modifiée par tout objet dans le flux.
Pour indiquer des valeurs spécifiques, utilisez la syntaxe suivante :
Type de valeur Syntaxe spécifique
Variable
$variable_name
Chaîne
'string
'
13.4 Utilisation de variables globales
Les variables globales sont globales dans un job. Vous ne devez pas définir de paramètres lorsque vous utilisez des variables globales. Cependant, lorsque vous utilisez un nom pour une variable globale dans un job, ce nom est alors réservé au job. Les variables globales sont exclusives dans le cadre du job dans lequel elles sont créées.
13.4.1 Création de variables globales
Définir des variables dans la fenêtre Variables et paramètres.
13.4.1.1 Création d'une variable globale
1.
Cliquez sur le nom d'un job dans la zone de projet ou cliquez deux fois sur un job dans la bibliothèque d'objets.
2.
Cliquez sur Outils > Variables.
La fenêtre "Variables et paramètres" s'affiche.
305 2012-11-22
Variables et paramètres
3.
Dans l'onglet Définitions, sélectionnez Variables globales.
4.
Cliquez avec le bouton droit de la souris sur Variables globales et sélectionnez Insérer.
Une nouvelle variable globale s'affiche (par exemple, $NewJobGlobalVariable0). Un cadre de contexte s'affiche et le curseur prend la forme d'une flèche avec un crayon jaune.
5.
Pour modifier le nom d'une variable, cliquez sur la cellule du nom.
Le nom peut contenir des caractères alphanumériques ou des traits de soulignement, mais il ne peut pas contenir d'espace. Le nom doit toujours commencer par un symbole dollar ($).
6.
Cliquez sur la cellule du type de données pour la nouvelle variable et sélectionnez le type de données approprié dans la liste déroulante.
7.
Fermez la fenêtre "Variables et paramètres".
13.4.2 Affichage de variables globales
Les variables globales définies dans un job sont visibles pour les objets relatifs à ce job. Une variable globale définie dans un job ne peut pas être modifiée ou affichée à partir d'un autre job.
Vous pouvez afficher des variables globales dans la fenêtre Variables et paramètres (avec un job en cours dans l'espace de travail) ou dans la boîte de dialogue Propriétés d'un job sélectionné.
13.4.2.1 Pour afficher des variables globales dans un job à partir de la boîte de dialogue Propriétés
1.
Dans la bibliothèque d'objets, sélectionnez l'onglet Jobs.
2.
Cliquez avec le bouton droit de la souris sur le job dont vous voulez afficher les variables globales et sélectionnez Propriétés.
3.
Cliquez sur l'onglet Variable globale.
Les variables globales s'affichent dans cet onglet.
13.4.3 Définition de valeurs de variables globales
Outre la définition d'une variable dans un job à l'aide d'un script d'initialisation, vous pouvez définir et gérer des valeurs de variable globale à l'extérieur d'un job. Les valeurs définies à l'extérieur d'un job sont traitées de la même façon que celles définies dans un script d'initialisation. Cependant, si vous
306 2012-11-22
Variables et paramètres définissez une valeur pour la même variable à l'intérieur et à l'extérieur d'un job, la valeur interne se substituera à la valeur de job externe.
Des valeurs de variables globales peuvent être définies à l'extérieur d'un job :
• Comme propriété de job
• Comme propriété d'exécution ou de planification
Les variables globales sans valeur définie sont également autorisées. Elles sont lues comme valeurs nulles.
Toutes les valeurs définies comme propriétés de job sont affichées dans les boîtes de dialogue Propriétés et Propriétés d'exécution de Designer et dans les pages Options d'exécution et Planification de l'Administrateur. En définissant des valeurs à l'extérieur d'un job, vous pouvez vous référer à ces boîtes de dialogue pour afficher des valeurs définies pour des variables globales et modifier facilement des valeurs lors d'un test ou de la planification d'un job.
Remarque :
Vous ne pouvez pas transférer des variables globales comme arguments de ligne de commande pour des jobs en temps réel.
13.4.3.1 Pour définir une valeur de variable globale comme propriété de job
1.
Cliquez avec le bouton droit de la souris sur la librairie d'objets ou sur la zone de projet
2.
Cliquez sur Propriétés.
3.
Cliquez sur l'onglet Variable globale.
Toutes les variables globales créées dans ce job s'affichent.
4.
Saisissez des valeurs pour les variables globales dans ce job.
Vous pouvez utiliser toute instruction utilisée dans un script avec cette option.
5.
Cliquez sur OK.
Le logiciel sauvegarde les valeurs dans le référentiel comme propriétés de job.
Vous pouvez également afficher et modifier ces valeurs par défaut dans la boîte de dialogue
Propriétés d'exécution de Designer et dans les pages Options d'exécution et Planification de l'Administrateur. Vous pouvez ainsi substituer les valeurs de propriété du job lors de l'exécution.
Rubriques associées
• Guide de référence : Langue de script
307 2012-11-22
Variables et paramètres
308
13.4.3.2 Pour définir une valeur de variable globale comme propriété d'exécution
1.
Exécutez un job à partir de Designer ou bien exécutez ou planifiez un job batch à partir de l'Administrateur.
Remarque :
A des fins de test, vous pouvez exécuter des jobs en temps réel à partir de Designer en mode test.
Vérifiez que vous avez défini les propriétés d'exécution pour un job en temps réel.
2.
Affichez les variables globales dans le job et leurs valeurs par défaut (le cas échéant).
3.
Modifiez les valeurs des variables globales le cas échéant.
4.
Si vous utilisez Designer, cliquez sur OK. Si vous utilisez l'Administrateur, cliquez sur Exécuter ou
Planifier.
Le job est exécuté à l'aide les valeurs que vous saisissez. Les valeurs saisies comme propriétés d'exécution ne sont pas sauvegardées. Les valeurs saisies en tant que propriétés de planification sont sauvegardées mais sont accessibles uniquement depuis l'Administrateur.
13.4.3.3 Classement automatique de valeurs de variables globales dans un job
Si vous utilisez les méthodes décrites à la section précédente et si vous saisissez différentes valeurs pour une seule variable globale, le logiciel sélectionne la valeur de classement la plus élevée pour l'utiliser dans le job. Une valeur saisie comme propriété de job a le plus petit classement. Une valeur définie à l'intérieur d'un job a le classement le plus élevé.
• Si vous définissez une valeur de variable globale à la fois comme job et comme propriété d'exécution, la valeur de propriété d'exécution se substitue à la valeur de propriété de job et devient la valeur par défaut pour l'exécution de job en cours. Vous ne pouvez pas sauvegarder de valeurs de variables globales de propriété d'exécution.
Par exemple, supposez qu'un job, JOB_Test1, ait trois variables globales déclarées : $YEAR,
$MONTH et $DAY. La variable $YEAR est définie comme propriété de job avec une valeur 2003.
Pour l'exécution du job, vous définissez JANVIER et 31 respectivement comme variables $MONTH et $DAY comme propriétés d'exécution. Le logiciel exécute une liste d'instructions contenant des valeurs par défaut pour JOB_Test1 :
$YEAR=2003;
$MONTH='JANUARY';
$DAY=31;
2012-11-22
Variables et paramètres
Pour la deuxième exécution de job, si vous définissez les valeurs 2002 et JANUARY respectivement comme variables $YEAR et $MONTH comme propriétés d'exécution, l'instruction $YEAR=2002 remplacera $YEAR=2003. Le logiciel exécute la liste suivante d'instructions :
$YEAR=2002;
$MONTH='JANUARY';
Remarque :
Dans ce scénario, $DAY n'est pas défini et le logiciel lit cette valeur comme valeur nulle. Vous définissez 31 comme valeur pour $DA, au cours de la première exécution du job , cependant, les propriétés d'exécution pour les valeurs de variables globales ne sont pas sauvegardées.
• Si vous avez défini une valeur de variable globale à la fois pour une propriété de planification et de job, la valeur de propriété de planification se substitue à la valeur de propriété de job et devient la valeur par défaut externe pour l'exécution de job en cours.
Le logiciel sauvegarde les valeurs de propriété de planification dans le référentiel. Cependant, ces valeurs sont uniquement associées à une planification de job, pas au job lui-même. Par conséquent, ces valeurs sont affichées et modifiées dans l'Administrateur.
• Une valeur de variable globale définie à l'intérieur d'un job se substitue toujours à toute valeur externe. Cependant, la substitution n'est pas exécutée tant que le logiciel tente d'appliquer les valeurs externes au job en cours d'exécution avec la valeur interne. Jusque là, le logiciel traite les valeurs d'exécution, de planification ou de propriété comme valeurs par défaut.
Par exemple, supposez un job nommé JOB_Test2 contenant trois workflows, chacun comportant un flux de données. Le deuxième flux de données se trouve dans un workflow précédé d'un script dans lequel la valeur MAY est définie pour $MONTH. Le premier et le troisième flux de données ont la même variable globale sans valeur définie. La propriété d'exécution $MONTH = 'APRIL' constitue la valeur de variable globale.
Dans ce scénario, 'APRIL' devient la valeur par défaut pour le job. 'APRIL' reste la valeur de la variable globale tant qu'elle ne se chevauche pas avec une autre valeur pour la même variable dans le deuxième workflow. La valeur du script se trouvant dans le job, 'MAY' se substitue à 'APRIL' pour la variable $MONTH. Le logiciel continue à traiter le job avec cette nouvelle valeur.
309 2012-11-22
Variables et paramètres
13.4.3.4 Avantages à définir des valeurs à l'extérieur d'un job
Alors que vous pouvez définir des valeurs à l'intérieur de jobs, définir des valeurs de variables globales
à l'extérieur d'un job présente certains avantages.
Par exemple, des valeurs définies comme propriétés de job sont affichées dans les boîtes de dialogue
Propriétés et Propriétés d'exécution de Designer et dans les pages Options d'exécution et Planification de l'Administrateur. En définissant des valeurs à l'extérieur d'un job, vous pouvez vous référer à ces boîtes de dialogue pour afficher toutes les variables globales et leurs valeurs. Vous pouvez également facilement les modifier à des fins de test et de planification.
Dans l'Administrateur, vous pouvez définir des valeurs de variables globales lorsque vous créez ou modifiez une planification sans ouvrir Designer. Par exemple, utilisez des variables globales comme noms de fichier et dates de début et de fin.
13.5 Règles de variables locales et globales
310 2012-11-22
Variables et paramètres
Lorsque vous définissez des variables locales ou globales, tenez compte des règles relatives aux
éléments suivants :
• Attribution de nom
• Réplication de jobs et de workflows
• Importation et exportation
13.5.1 Attribution de nom
• Les variables locales et globales doivent avoir des noms uniques dans leur contexte de job.
• Toute modification de nom apportée à une variable globale peut être effectuée au niveau du job uniquement.
13.5.2 Réplication de jobs et de workflows
• Lorsque vous répliquez tous les objets, les variables locales et globales définies dans ce contexte de job sont également répliquées.
• Lorsque vous répliquez un flux de données ou un workflow, tous les paramètres et toutes les variables locales et globales sont également répliqués. Cependant vous devez valider ces variables locales et globales dans le contexte de job dans lequel elles ont été créées. Si vous tentez de valider un flux de données ou un workflow contenant des variables globales sans job, Data Services indique une erreur.
13.5.3 Importation et exportation
• Lorsque vous exportez un objet du job, vous exportez également toutes les variables locales et globales définies pour ce job.
• Lorsque vous exportez un objet de niveau inférieur (par exemple, un flux de données) sans le job parent, la variable globale n'est pas exportée. Seul l'appel vers cette variable globale est exporté.
Si vous utilisez cet objet dans un autre job sans définir la variable globale dans le nouveau job, une erreur de validation se produira.
311 2012-11-22
Variables et paramètres
13.6 Variables d'environnement
Vous pouvez utiliser des variables d'environnement système dans des jobs, des workflows ou des flux de données. Les fonctions get_env, set_env et is_set_env donnent accès aux variables de système d'exploitation sous-jacent qui se comportent comme l'autorise le système d'exploitation.
Vous pouvez définir temporairement la valeur d'une variable d'environnement dans un job, un workflow ou un flux de données. Une fois définie, la valeur est visible pour tous les objets de ce job.
Utilisez les fonctions get_env, set_env et is_set_env pour définir, récupérer et tester les valeurs de variables d'environnement.
Rubriques associées
• Guide de référence : fonctions et procédures
13.7 Définition de noms de fichier lors de l'exécution à l'aide de variables
Vous pouvez définir des noms de fichier lors de l'exécution en indiquant une variable comme nom de fichier.
Les variables peuvent être utilisées comme noms de fichier pour :
• Les sources et les cibles suivantes :
• Fichiers plats
• Fichiers XML et messages
• Fichiers IDoc et messages (dans un environnement SAP)
• La fonction lookup_ext (pour un fichier plat utilisé comme paramètre de table de recherche)
13.7.1 Pour utiliser une variable dans un nom de fichier plat
1.
Créer une variable locale ou globale à l'aide de la fenêtre Variables et Paramètres.
2.
Créer un script pour définir la valeur d'une variable locale ou globale ou appeler une variable d'environnement système.
3.
Déclarer la variable dans l'éditeur de format de fichier ou dans l'éditeur de fonctions comme paramètre lookup_ext
.
312 2012-11-22
Variables et paramètres
• Lorsque vous définissez une valeur de variable pour un fichier plat, indiquez le nom de fichier et le nom du répertoire. Saisissez la variable dans la propriété Fichier(s) sous Fichier(s) de
données dans l'éditeur de format de fichier. Vous ne pouvez pas saisir une variable dans la propriété Répertoire racine.
• Pour les recherches, remplacez le chemin et le nom de fichier dans le cadre Table de recherche de l'éditeur de fonctions lookup_ext, par le nom de variable.
Le schéma suivant indique comment définir des valeurs pour des variables dans les sources et cibles de fichier plat dans un script.
313
Lorsque vous utilisez des variables comme sources et cibles, vous pouvez également utiliser plusieurs noms de fichier et caractères génériques. Ni l'un ni l'autre n'est pris en charge dans la fonction loo kup_ext
.
Le schéma ci-dessus donne un exemple sur la façon d'utiliser plusieurs noms de variables et caractères génériques. Notez que la variable $FILEINPUT comprend deux noms de fichier (séparés par une virgule). Les deux noms KNA1comma.* et KNA1c?mma.in) utilisent également les caractères génériques
(* et ? pris en charge par le logiciel.
Rubriques associées
• Guide de référence : lookup_ext
• Guide de référence : Langue de script Data Services
2012-11-22
Variables et paramètres
13.8 Paramètres de substitution
13.8.1 Présentation des paramètres de substitution
Les paramètres de substitution sont utiles lorsque vous souhaitez exporter et exécuter un job contenant des valeurs constantes dans un environnement spécifique. Par exemple, si vous créez un job faisant référence à un répertoire unique sur votre ordinateur local et que vous exportez ce job vers un autre ordinateur, le job recherchera le seul répertoire dans le nouvel environnement. Si ce répertoire n'existe pas, le job ne sera pas exécuté.
Au lieu d'utiliser un paramètre de substitution, vous pouvez facilement affecter une valeur pour la valeur constante initiale afin d'exécuter le job dans le nouvel environnement. Une fois que vous avez créé une valeur de paramètre de substitution pour le répertoire dans votre environnement, vous pouvez exécuter le job dans un environnement différent et tous les objets faisant référence au répertoire d'origine utiliseront automatiquement la valeur. En d'autres termes, vous devez uniquement modifier la valeur constante (le nom du répertoire d'origine) à un endroit (le paramètre de substitution) et sa valeur sera automatiquement transférée à tous les objets de ce job lorsqu'il est exécuté dans un nouvel environnement.
Vous pouvez configurer un groupe de paramètres de substitution pour un environnement d'exécution spécifique en associant leurs valeurs constantes sous une configuration de paramètre de substitution.
13.8.1.1 Paramètres de substitution par rapport aux variables globales
Les paramètres de substitution diffèrent des variables globales en ce sens où elles s'appliquent au niveau du référentiel. Les variables globales s'appliquent uniquement au job dans lequel elles sont définies. Vous utiliseriez une variable globale lorsque vous ne connaissez pas la valeur avant l'exécution et qu'elle doit être calculée dans le job. Vous utiliseriez un paramètre de substitution pour des constantes qui ne changent pas au cours de l'exécution. Un paramètre de substitution défini dans un référentiel local donné est disponible pour tous les jobs de ce référentiel. Par conséquent, l'utilisation d'un paramètre de substitution signifie que vous ne devez pas définir une variable globale dans chaque job pour paramétrer une valeur constante.
Le tableau suivant décrit les principales différences entre les variables globales et les paramètres de substitution.
314 2012-11-22
Variables et paramètres
315
Variables globales
Définies au niveau du job
Ne peuvent pas être partagées via des jobs
Spécifiques au type de données
La valeur peut varier au cours de l'exécution de job
Paramètres de substitution
Définis au niveau du référentiel
Disponibles pour tous les jobs dans un référentiel
Aucun type de données (toutes les chaînes)
Ensemble de constantes avant l'exécution du job
(constantes)
Cependant, vous pouvez utiliser des paramètres de substitution partout où des variables globales sont prises en charge, par exemple :
• Clauses WHERE de transformation Query
• Mappages
• Identificateurs d'instruction SQL pour transformation SQL
• Options de fichier plat
• User-defined transformations
• Address cleanse options de transformation
• Seuils de correspondance
13.8.1.2 Utilisation de paramètres de substitution
Vous pouvez utiliser des paramètres dans les expressions, les instructions SQL, les champs d'option et les chaînes de constante. Par exemple, de nombreuses options et de nombreux éditeurs d'expressions comprennent un menu de zone déroulante qui affiche une liste de tous les paramètres de substitution disponibles.
Le logiciel installe certains paramètres de substitution par défaut utilisés par des transformations Data
Quality. Par exemple, la transformation USA Regulatory Address Cleanse utilise les paramètres de substitution intégrés suivants :
• $$RefFilesAddressCleanse définit l'emplacement des répertoires address cleanse.
• $$ReportsAddressCleanse (activé sur Oui ou Non) active la collection de données pour la création de rapports avec les statistiques address cleanse. Ce paramètre de substitution indique l'emplacement où vous pouvez activer ou désactiver cette option pour tous les jobs du référentiel.
Les exemples suivants indiquent d'autres emplacements où vous pouvez utiliser des paramètres de substitution :
• Dans un script, par exemple :
Print('Data read in : [$$FilePath]'); or Print('[$$FilePath]');
• Dans un format de fichier, par exemple[$$FilePath]/file.txt comme nom de fichier.
2012-11-22
Variables et paramètres
13.8.2 Utilisation de l'éditeur de paramètres de substitution
Ouvrez l'"Editeur de paramètres de substitution" de Designer en sélectionnant Outils > Configurations
des paramètres de substitution. Utilisez l'éditeur de paramètres de substitution pour effectuer les tâches suivantes :
• Ajouter et définir un paramètre de substitution en ajoutant une nouvelle ligne dans l'éditeur.
• Pour chaque paramètre de substitution, utilisez les menus clic droit et les raccourcis clavier pour couper, copier, coller, supprimer et insérer des paramètres.
• Modifier l'ordre des paramètres de substitution en faisant glisser des lignes ou à l'aide des commandes
Couper, Copier, Coller et Insérer.
• Ajouter une configuration des paramètres de substitution en cliquant sur l'icône Créer une
configuration des paramètres de substitution dans la barre d'outils.
• Dupliquer une configuration des paramètres de substitution existante en cliquant sur l'icône Créer
une configuration des paramètres de substitution dupliquée.
• Renommer une configuration des paramètres de substitution en cliquant sur l'icône Renommer la
configuration des paramètres de substitution.
• Supprimer une configuration des paramètres de substitution en cliquant sur l'icône Supprimer la
configuration des paramètres de substitution.
• Réorganiser l'affichage des configurations en cliquant sur les icônes Trier les noms de configuration
par ordre croissant et Trier les noms de configuration par ordre décroissant.
• Déplacer la configuration par défaut de telle sorte qu'elle s'affiche en regard de la liste des paramètres de substitution en cliquant sur l'icône Déplacer la configuration par défaut vers l'avant.
• Modifier la configuration par défaut.
Rubriques associées
•
Ajout et définition de paramètres de substitution
13.8.2.1 Attribution de noms aux paramètres de substitution
Lorsque vous définissez des paramètres de substitution et leur attribuez des noms, utilisez les règles suivantes :
• Le préfixe de nom correspond à deux signes dollar $$ (les variables globales comportent un préfixe avec un signe dollar). Lorsque vous ajoutez de nouveaux paramètres de substitution dans l'éditeur de paramètres de substitution, l'éditeur ajoute automatiquement le préfixe.
316 2012-11-22
Variables et paramètres
• Lorsque vous saisissez des noms dans l'éditeur de paramètres de substitution, n'utilisez pas de ponctuation (ni guillemets ni crochets) sauf des traits de soulignement. Les caractères suivants ne sont pas autorisés :
,: / ' \ " = < > + | - * % ; \t [ ] ( ) \r \n $ ] +
• Vous pouvez saisir des noms directement dans des zones, des mappages de colonnes, des options de transformation etc. Cependant, vous devez les mettre entre crochets, par exemple,
[$$SamplesInstall].
• Les noms peuvent contenir tout caractère numérique ou alphanumérique ou des traits de soulignement mais pas d'espaces.
• Les noms ne sont pas sensibles à la casse.
• La longueur maximale d'un nom est de 64 caractères.
• Les noms doivent être uniques dans le référentiel.
13.8.2.2 Ajout et définition de paramètres de substitution
1.
Dans Designer, ouvrez l'Editeur de paramètres de substitution en sélectionnant Outils >
Configurations des paramètres de substitution.
2.
La première colonne liste les paramètres de substitution disponibles dans le référentiel. Pour en créer un, cliquez deux fois sur une cellule vide (une icône crayon s'affichera à gauche) et saisissez un nom. Le logiciel ajoute automatiquement un préfixe de sigle de double dollar ($$) au nom lorsque vous naviguez dans la cellule.
3.
La deuxième colonne identifie le nom de la première configuration par défaut Configuration1 (vous pouvez modifier les noms de configuration en cliquant deux fois sur la cellule et en saisissant à nouveau le nom). Cliquez deux fois sur la cellule vide en regard du nom du paramètre de substitution et saisissez la valeur constante que représente le paramètre dans cette configuration. Le logiciel applique cette valeur lorsque vous exécutez le job.
4.
Pour ajouter une autre configuration pour définir une deuxième valeur pour le paramètre de substitution, cliquez sur l'icône Créer configuration de paramètre de substitution dans la barre d'outils.
5.
Saisissez un nom unique pour la nouvelle configuration de paramètre de substitution.
6.
Saisissez la valeur qu'utilisera le paramètre de substitution pour cette configuration.
Vous pouvez maintenant sélectionner l'une des deux configurations de paramètre de substitution que vous venez de créer.
Pour modifier la configuration par défaut qui s'appliquera lorsque vous exécutez des jobs, sélectionnez-la dans la zone de liste déroulante en haut de la fenêtre.
Vous pouvez également exporter ces configurations de paramètre de substitution pour les utiliser dans d'autres environnements.
317 2012-11-22
Variables et paramètres
Exemple :
Dans l'exemple suivant, le paramètre de substitution $$NetworkDir a la valeur D:/Data/Staging dans la configuration nommée Windows_Subst_Param_Conf et la valeur /usr/data/staging dans la configuration UNIX_Subst_Param_Conf.
Notez que chaque configuration peut contenir plusieurs paramètres de substitution.
Rubriques associées
•
Attribution de noms aux paramètres de substitution
•
Exportation et importation de paramètres de substitution
13.8.3 Association d'une configuration des paramètres de substitution à une configuration système
Une configuration système regroupe un ensemble de configurations de banque de données et une configuration des paramètres de substitution. Une configuration des paramètres de substitution peut
être associée à une ou plusieurs configurations système. Par exemple, vous pouvez créer une configuration système pour votre système local et une configuration système différente pour un autre système. Selon votre environnement, les deux configurations système peuvent indiquer la même configuration des paramètres de substitution ou chaque configuration système peut nécessiter une configuration des paramètres de substitution différente.
Au cours de l'exécution d'un job, vous pouvez définir la configuration système et le job sera exécuté avec les valeurs de la configuration des paramètres de substitution associée.
318 2012-11-22
Variables et paramètres
Pour associer une configuration des paramètres de substitution à une nouvelle configuration du système ou une configuration système existante :
1.
Dans Designer, ouvrez l'éditeur de configuration système en sélectionnant Outils > Configurations
système.
2.
De manière facultative, créez une configuration système.
3.
Sous le nom de la configuration système souhaité, sélectionnez une configuration des paramètres de substitution à associer à la configuration système.
4.
Cliquez sur OK.
Exemple :
L'exemple suivant présente deux configurations système, Amérique et Europe. Dans ce cas, des configurations des paramètres de substitution existent pour chaque région (Europe_Subst_Parm_Conf and Americas_Subst_Parm_Conf). Chaque configuration des paramètres de substitution définit où les fichiers source de données sont situés pour cette région, par exemple D:/Data/Americas et
D:/Data/Europe. Sélectionnez la configuration des paramètres de substitution appropriée et les configurations de banque de données pour chaque configuration système.
Rubriques associées
•
Définition d'une configuration système
13.8.4 Remplacement d'un paramètre de substitution dans l'Administrateur
Dans l'Administrateur, vous pouvez remplacer les paramètres de substitution ou sélectionner une configuration système pour indiquer une configuration des paramètres de substitution sur quatre pages :
319 2012-11-22
Variables et paramètres
• Exécuter le job batch
• Planifier le job batch
• Commande de l'exécution de l'exportation
• Configuration du service en temps réel
Par exemple, la page Exécuter le job batch affiche le nom de la configuration système sélectionnée, la configuration des paramètres de substitution et le nom de chaque paramètre de substitution et sa valeur.
Pour remplacer un paramètre de substitution :
1.
Sélectionnez la configuration système appropriée.
2.
Sous Paramètres de substitution, cliquez sur Ajouter un paramètre ignoré qui affiche les paramètres de substitution disponibles.
3.
Dans la liste déroulante, sélectionnez le paramètre de substitution à remplacer.
4.
Dans la deuxième colonne, saisissez la valeur de remplacement. Saisissez la valeur comme une chaîne sans guillemets (contrairement aux variables globales).
5.
Exécutez le job.
13.8.5 Exécution d'un job avec des paramètres de substitution
Pour voir les détails sur la façon dont les paramètres de substitution sont utilisés dans le job au cours de l'exécution dans le journal de suivi Designer :
1.
Cliquez avec le bouton droit de la souris sur le nom de job et cliquez sur Propriétés.
2.
Cliquez sur l'onglet Suivi.
3.
Pour l'option Effectuer le suivi des assembleurs, définissez la valeur sur Oui.
4.
Cliquez sur OK.
Lorsque vous exécutez un job à partir de Designer, la fenêtre Propriétés d'exécution s'affiche. Vous disposez des options suivantes :
• Dans l'onglet Options d'exécution du menu déroulant Configuration système, vous pouvez sélectionner la configuration système avec laquelle vous souhaitez exécuter le job. Si vous ne sélectionnez pas de configuration système, le logiciel applique la configuration des paramètres de substitution par défaut comme le définit l'éditeur de paramètres de substitution.
Vous pouvez cliquer sur Parcourir pour afficher la fenêtre "Sélectionner la configuration système" afin de voir la configuration des paramètres de substitution associée à chaque configuration système.
La fenêtre "Sélectionner la configuration système" est en lecture seule. Pour modifier une configuration système, cliquez sur Outils > Configurations système.
• Vous pouvez remplacer la valeur des paramètres de substitution spécifiques au moment de l'exécution. Cliquez sur l'onglet Paramètres de substitution, sélectionnez un paramètre de substitution dans la colonne Nom et saisissez une valeur en cliquant deux fois sur la cellule Valeur.
Pour remplacer les valeurs du paramètre de substitution, lorsque vous lancez un job via un service
Web, reportez-vous au Guide d'intégration.
320 2012-11-22
Variables et paramètres
Rubriques associées
•
Association d'une configuration des paramètres de substitution à une configuration système
•
Remplacement d'un paramètre de substitution dans l'Administrateur
13.8.6 Exportation et importation de paramètres de substitution
Les paramètres de substitution sont archivés dans un référentiel local avec leurs valeurs configurées.
Le logiciel ne comprend pas de paramètres de substitution en temps qu'élément d'une exportation normale. Vous pouvez cependant exporter des paramètres de substitution et des configurations vers d'autres référentiels en les exportant dans un fichier et en important le fichier dans un autre référentiel.
13.8.6.1 Exportation de paramètres de substitution
1.
Cliquez avec le bouton droit de la souris sur la bibliothèque d'objets locale référentiel > Exporter
les configurations des paramètres de substitution.
2.
Cochez la case de la colonne Exportation pour les configurations des paramètres de substitution
à exporter.
3.
Sauvegardez le fichier.
Le logiciel le sauvegarde comme un fichier texte avec une extension .atl.
13.8.6.2 Importation de paramètres de substitution
Les paramètres de substitution doivent d'abord avoir été exportés dans un fichier ATL.
Tenez compte des comportements suivants lors de l'importation de paramètres de substitution :
• Le logiciel ajoute tous les nouveaux paramètres de substitution et les configurations au référentiel local de destination.
• Si le référentiel a un paramètre de substitution avec le même nom que celui du fichier exporté, l'importation écrasera la valeur du paramètre. De la même façon, si le référentiel a une configuration des paramètres de substitution avec le même nom que la configuration exportée, l'importation
écrasera toutes les valeurs de paramètre pour cette configuration.
1.
Dans Designer, cliquez avec le bouton droit sur la bibliothèque d'objets et sélectionnez Référentiel
> Importer à partir du fichier.
2.
Naviguez jusqu'au fichier à importer.
321 2012-11-22
Variables et paramètres
3.
Cliquez sur OK.
Rubriques associées
•
Exportation de paramètres de substitution
322 2012-11-22
Exécution de jobs
Exécution de jobs
Cette section contient une vue d'ensemble de l'exécution d'un job par le logiciel, les étapes pour exécuter les jobs, déboguer les erreurs et modifier les options du job server.
14.1 Vue d'ensemble d'une exécution de job
Il est possible d'exécuter les jobs de trois façons différentes. En fonction de vos besoins, vous pouvez configurer :
•
Jobs immédiats
Le logiciel lance les jobs batch et les jobs en temps réel, puis les exécute immédiatement depuis
Designer. Pour ces jobs, Designer et le Job Server désigné (où le job s'exécute, généralement plusieurs fois sur le même ordinateur) doivent être en cours d'exécution. Vous exécuterez probablement les jobs immédiats uniquement durant le cycle de développement.
•
Jobs planifiés
Les jobs batch sont planifiés. Pour planifier un job, utilisez l'Administrateur ou un planificateur tiers.
Lorsque les jobs sont planifiés par un logiciel tiers :
• Le job démarre en dehors du logiciel.
• Le job opère sur un job batch (ou script shell pour UNIX) qui a été exporté du logiciel.
Lorsqu'un job est appelé par un planificateur tiers :
• Le Job Server correspondant doit être en cours d'exécution.
• Designer n'a pas besoin d'être en cours d'exécution.
•
Services
Les jobs en temps réel sont configurés comme des services qui écoutent en continu les requêtes d'un serveur d'accès et traitent les requêtes à la demande dès leur réception. Utilisez l'Administrateur pour créer un service à partir d'un job en temps réel.
323 2012-11-22
Exécution de jobs
14.2 Préparation de l'exécution des jobs
14.2.1 Validation des jobs et des composants de jobs
Il est également possible de valider explicitement les jobs et leurs composants lors de leur création en :
Cliquant sur le bouton Tout valider dans la barre d'outils (ou en sélectionnantVa-
lider > Tous les objets de la vue depuis le menu Débogage). Cette commande contrôle la syntaxe de la définition d'objet pour l'espace de travail actif et pour tous les objets qui sont appelés de façon récursive depuis la vue de l'espace de travail actif.
En cliquant sur le bouton Valider l'affichage en cours dans la barre d'outils (ou en sélectionnant Valider > Vue actuelle depuis le menu Débogage. Cette commande contrôle la syntaxe de la définition d'objet pour l'espace de travail actif.
Vous pouvez définir les options de Designer (Outils > Options > Designer > Général) pour valider les jobs démarrés dans Designer avant l'exécution du job. Le paramètre par défaut est de ne pas valider.
Le logiciel valide également les jobs avant de les exporter.
Si lors de la validation le logiciel découvre une erreur dans la définition d'objet, il ouvre une boîte de dialogue indiquant qu'une erreur existe, puis il ouvre la fenêtre Sortie pour afficher l'erreur.
S'il existe des erreurs, double-cliquez sur l'erreur dans la fenêtre Sortie pour ouvrir l'éditeur de l'objet contenant l'erreur.
Si vous ne pouvez pas lire le texte d'erreur complet dans la fenêtre, vous pouvez accéder à des informations supplémentaires en faisant un clic droit sur la liste des erreurs et en sélectionnant Afficher depuis le menu contextuel.
Les messages d'erreur ont les niveaux de gravité suivants :
Gravité Description
Information
Message d'information uniquement ; n'empêche pas le job d'exécuter. Aucune action n'est requise.
324 2012-11-22
Exécution de jobs
Gravité
Avertissement
Erreur
Description
L'erreur n'est pas assez grave pour arrêter l'exécution du job, mais il est possible que vous obteniez des résultats imprévus. Par exemple, si le type de données d'une colonne source dans une transformation dans un flux de données ne correspond pas au type de données d'une colonne cible dans une transformation, le logiciel vous alerte avec un message d'avertissement.
L'erreur est assez gave pour arrêter l'exécution du job. Vous devez réparer l'erreur avant que le job exécute.
14.2.2 S'assurer que le Job Server est en cours d'exécution
Avant d'exécuter un job (comme une tâche immédiate ou planifiée), assurez-vous que le Job Server est associé avec le référentiel dans lequel le client exécute.
Lorsque Designer démarre, il affiche le statut du Job Server pour le référentiel auquel vous êtes connecté.
Icône Description
Le Job Server est en cours d'exécution
Le Job Server est inactif
Le nom du Job Server actif et le numéro du port apparaissent dans la barre de statut lorsque le curseur se trouve sur l'icône.
14.2.3 Paramétrage des options d'exécution du job
Les options pour les jobs incluent le débogage et le suivi. Bien qu'il s'agisse d'options d'objet (elles affectent la fonction de l'objet), elles se trouvent soit dans la fenêtre Propriété soit dans la fenêtre
Exécution associée avec le job.
Les options d'exécution pour les jobs peuvent être définies pour une instance unique ou comme une valeur par défaut.
325 2012-11-22
Exécution de jobs
• Le menu clic droit Exécuter définit les options pour une exécution unique seulement et remplace les paramètres par défaut
• Le menu clic droit Propriétés définit les paramètres par défaut
14.2.3.1 Définir les options d'exécution pour chaque exécution du job
1.
Dans la zone Projet, faites un clic droit sur le nom du job et sélectionnez Propriétés.
2.
Sélectionnez les options sur la fenêtre Propriétés.
Rubriques associées
•
Affichage et modification des propriétés des objets
• Guide de référence : paramètres
• Guide de référence : propriétés de suivi
•
Définition de valeurs de variables globales
14.3 Exécution des jobs comme des tâches immédiates
Les tâches immédiates ou "à la demande" sont initiées depuis Designer. Designer et le Job Server doivent être tous deux en cours d'exécution pour que le job s'exécute.
14.3.1 Pour exécuter un job comme une tâche immédiate
1.
Dans la zone de projet, sélectionnez le nom du job.
2.
Cliquez avec le bouton droit et sélectionnez Exécuter.
Le logiciel vous invite à enregistrer tous les objets qui comportent des modifications qui n'ont pas
été enregistrées.
3.
L'étape suivante est différente si la case Procéder à une validation complète avant l'exécution
du job est cochée dans les Options de Designer :
• Si vous n'avez pas sélectionné cette case à cocher, une fenêtre s'ouvre et affiche les propriétés d'exécution (débogage et suivi) pour le job. Passez à l'étape suivante.
• Si vous avez sélectionné cette case à cocher, le logiciel valide le job avant son exécution. Vous devez corriger toutes les erreurs graves avant l'exécution du job. Il est possible également que des messages d'avertissement apparaissent, comme par exemple des messages qui indiquent
326 2012-11-22
Exécution de jobs que les valeurs de date seront converties en valeurs date-heure. Corrigez-les si vous le souhaitez
(ils n'empêchent pas l'exécution du job) ou cliquez sur OK pour continuer. Après la validation du job, une fenêtre s'ouvre et affiche les propriétés d'exécution (débogage et suivi) pour le job.
4.
Définissez les propriétés d'exécution.
Vous pouvez sélectionner le Job Server de votre choix pour traiter ce job, les profils de banque de données pour les sources et cibles le cas échéant, activer une récupération automatique, remplacer les propriétés de suivi par défaut ou sélectionner des variables globales lors de l'exécution.
Pour plus d'informations, consultez :
Remarque :
La configuration des propriétés d'exécution affecte ici une modification temporaire pour l'exécution en cours uniquement.
5.
Cliquez sur OK.
Dès que le logiciel débute l'exécution, la fenêtre d'exécution s'ouvre avec le bouton du journal de suivi actif.
Utilisez les boutons en haut de la fenêtre du journal pour afficher le journal de suivi, le journal de surveillance et le journal des erreurs (s'il existe des erreurs).
Une fois le job terminé, utilisez un outil de requête RDBMS pour contrôler les contenus de la table ou du fichier cible.
Rubriques associées
•
• Guide de référence : paramètres
• Guide de référence : propriétés de suivi
•
Définition de valeurs de variables globales
•
Débogage des erreurs d'exécution
•
14.3.2 Onglet Surveillance
L'onglet Surveillance liste les journaux de suivi de toutes les exécutions d'un job en cours ou les plus récentes.
Les icônes des feux de signalisation dans l'onglet Surveillance ont les significations suivantes :
• Un feu vert indique que le job est en cours d'exécution
Il est possible de faire un clic droit et de sélectionner Supprimer le job pour arrêter un job qui est toujours en cours d'exécution.
• Un feu rouge indique que le job est arrêté
327 2012-11-22
Exécution de jobs
Il est possible de faire un clic droit et de sélectionner Propriétés pour ajouter une description pour un journal de suivi spécifique. Cette description est enregistrée avec le journal auquel il est possible d'accéder ultérieurement par l'onglet Journal.
• Une croix rouge indique que le job a rencontré une erreur
14.3.3 Onglet Journal
Il est également possible de sélectionner l'onglet Journal pour afficher l'historique du journal de suivi d'un job.
Cliquez sur le journal de suivi pour l'ouvrir dans l'espace de travail.
Utilisez les icônes du journal de suivi, de surveillance et des erreurs (de gauche à droite en haut de la fenêtre d'exécution du job dans l'espace de travail) pour afficher chaque type de journal disponible pour la date et heure à laquelle le job a été exécuté.
14.4 Débogage des erreurs d'exécution
Les tables suivantes listent les outils qui peuvent vous aider à comprendre les erreurs d'exécution :
Outil
Journal de suivi
Journal de surveillance
Journal des erreurs
Données cible
Définition
Enumère les étapes exécutées dans le job et l'heure à laquelle l'exécution a commencé et terminé.
Affiche chaque étape de chaque flux de données dans le job, le nombre de lignes qui se déplacent dans chaque étape, et la durée de chaque étape.
Affiche le nom de l'objet qui était exécuté au moment où une erreur s'est produite, et le texte du message d'erreur obtenu. Si le job a exécuté par rapport aux données SAP, certaines erreurs ABAP sont aussi disponibles dans le journal des erreurs.
Examine toujours les données cibles pour voir si le job a produit les résultats attendus.
Rubriques associées
•
328 2012-11-22
Exécution de jobs
•
•
Examen des journaux de surveillance
•
Examen des journaux des erreurs
•
14.4.1 Utilisation des journaux
Cette section décrit la manière d'utiliser les journaux dans Designer.
• Pour ouvrir le journal de suivi à l'exécution du job, sélectionnez Outils > Options > Designer >
Général > Ouvrir le moniteur à l'exécution du job.
• Pour copier le contenu du journal à partir d'un journal ouvert, sélectionnez une ou plusieurs lignes et utilisez les commandes clés [Ctrl+C].
14.4.1.1 Accéder à un journal lors de l'exécution du job
Si Designer est exécuté lors de l'exécution du job, la fenêtre d'exécution s'ouvre automatiquement et affiche les informations du journal de suivi.
Utilisez les icônes du moniteur et du journal des erreurs (icônes du milieu et de droite en haut de la fenêtre d'exécution) pour afficher ces journaux.
La fenêtre d'exécution reste ouverte jusqu'à ce que vous la fermiez.
14.4.1.2 Accéder à un journal après que la fenêtre d'exécution a été fermée
1.
Dans la zone du projet, cliquez sur l'onglet Journal.
2.
Cliquez sur un nom de job pour afficher tous les fichiers des journaux de suivi, de surveillance et des erreurs dans l'espace de travail. Ou développez le job qui vous intéresse pour afficher la liste des fichiers du journal de suivi et cliquez sur l'un d'entre eux.
Les indicateurs de journal signifient les éléments suivants :
329 2012-11-22
Exécution de jobs
Indicateur du journal de job
Description
N_
Indique que le job a exécuté avec succès sur le Job Server explicitement sélectionné.
Indique que job a été exécuté avec succès par un groupe de serveurs.
Le Job Server listé a exécuté le job.
Indique que le job a rencontré une erreur sur le Job Server explicitement sélectionné.
Indique que le job a rencontré une erreur alors qu'il était exécuté par un groupe de serveurs. Le Job Server listé a exécuté le job.
3.
Cliquez sur l'icône du journal pour l'exécution du job qui vous intéresse. (Identifiez l'exécution à partir du poste dans la séquence ou de l'horodatage.)
4.
Utilisez la zone de liste pour passer d'un type de journal à un autre ou pour afficher Aucun journal ou Tous les journaux.
14.4.1.3 Supprimer un journal
Il est possible de configurer la durée durant laquelle un journal doit être gardé dans l'Administrateur.
Si vous souhaitez supprimer manuellement les journaux de Designer :
1.
Dans la zone du projet, cliquez sur l'onglet Journal.
2.
Faites un clic droit sur le journal que vous souhaitez supprimer et sélectionnez Supprimer le journal.
Rubriques associées
• Guide d'administration : configuration de la période de rétention d'un journal
14.4.1.4 Examen des journaux de suivi
Utilisez les journaux de suivi pour déterminer à quel endroit une exécution a échoué, si les étapes d'exécution se sont produites dans l'ordre attendu, et quelles parties de l'exécution prennent le plus de temps.
330 2012-11-22
Exécution de jobs
14.4.1.5 Examen des journaux de surveillance
Le journal de surveillance quantifie les activitiés des composants du job. Il fait une liste du temps passé sur un composant donné d'un job et du nombre de lignes de données qui se déplacent par ce composant.
14.4.1.6 Examen des journaux des erreurs
Le logiciel produit un journal des erreurs pour chaque exécution de job. Utilisez les journaux des erreurs pour déterminer la manière dont une exécution a échoué. Si l'exécution s'est terminée sans erreur, le journal des erreurs est vide.
14.4.2 Examen des données cibles
La meilleure mesure de la réussite d'un job est l'état des données cibles. Examinez toujours les données pour vous assurer que l'opération de mouvement des données a produit les résultats que vous attendiez.
Assurez-vous que :
• Les données n'aient pas été tronquées ou converties dans des types incompatibles.
• Les données n'aient pas été dupliquées dans la cible.
• Les données ne se soient pas perdues entre les mises à jour de la cible.
• Les clés générées aient été correctement incrémentées.
• Les valeurs mises à jour aient été correctement gérées.
14.5 Modification des options du Job Server
Familiarisez-vous avec les aspects les plus techniques de la gestion des données effectuée par le logiciel (à l'aide du
Guide de référence) et certaines de ses interfaces comme celles pour les adaptateurs et les applications SAP.
Il existe de nombreuses options disponibles dans le logiciel pour le dépannage et l'ajustement d'un job.
331 2012-11-22
Exécution de jobs
Option Description de l'option Valeur par défaut
Adapter Data Exchange
Time-out
(Pour les adaptateurs). Définit la durée durant laquelle un appel de fonction ou un message sortant attend une réponse de l'opération de l'adaptateur.
10800000
(3 heures)
Adapter Start Time-out
(Pour les adaptateurs). Définit la durée durant laquelle l'Administrateur ou Designer attend une réponse du
Job Serveur qui gère les adaptateurs (démarrage/arrêt/statut).
90000 (90 secondes)
AL_JobServerLoadBalan ceDebug
Permet à un Job Serveur de noter les informations du groupe de serveurs si la valeur est définie sur VRAI.
Les informations sont enregistrées dans : $LI
NK_DIR/log/<JobServerName>/server_event log.txt
FAUX
AL_JobServerLoadOSPol ling
Définit l'intervalle d'interrogation (en secondes) que le logiciel utilise pour obtenir les informations sur le statut utilisées pour calculer l'index d'équilibrage de chargement. Cet index est utilisé par des groupes de serveurs.
60
Display DI Internal Jobs
Affiche la banque de données interne du logiciel,
CD_DS_d0cafae2, et les jobs associés dans la bibliothèque d'objets. La banque de données
CD_DS_d0cafae2 prend en charge deux jobs internes.
Le premier calcule les dépendances d'utilisation sur les tables de référentiel, et le deuxième met à jour les configurations du groupe de serveurs.
Si vous modifiez le mot de passe du référentiel, le nom d'utilisateur ou d'autres informations de connexion, remplacez la valeur par défaut de cette option par VRAI, fermez et rouvrez Designer, puis mettez à jour la configuration de banque de données
CD_DS_d0cafae2 pour qu'elle corresponde à la nouvelle configuration du référentiel. Cela permet au job de calcul des dépendances d'utilisation
(CD_JOBd0cafae2) et au job du groupe de serveurs
(di_job_al_mach_info) d'exécuter sans aucune erreur de connexion.
FAUX
FTP Number of Retry
Définit le nombre de tentatives pour une connexion au FTP qui échoue initialement.
0
332 2012-11-22
Exécution de jobs
Option
FTP Retry Interval
Global_DOP
Ignore Reduced Msg
Type
Description de l'option Valeur par défaut
Définit l'intervalle de tentative de connexion au FTP en millisecondes.
1000
Définit le degré de parallélisme pour tous les flux de données exécutés par un Job Server donné. Il est
également possible de définir le Degré de paralléli-
sme pour les flux de données individuellement à partir de la fenêtre Propriétés de chaque flux de données.
Si la valeur de Degré de parallélisme d'un flux de données est 0, alors le Job Server utilise la valeur
Global_DOP. Le Job Server utilise la valeur Degré de
parallélisme du flux de données si elle est définie sur une autre valeur que 0 car elle remplace la valeur
Global_DOP.
2
(Pour les applications SAP). Désactive le traitement du type de message réduit IDoc pour tous les types de message si la valeur est définie sur VRAI.
FAUX
Ignore Reduced Msg
Type_foo
Splitter Optimization
(Pour les applications SAP). Désactive le traitement du type de message réduit IDoc pour un type de message spécifique (tel quefoo) si la valeur est définie sur VRAI.
FAUX
OCI Server Attach Retry
Le moteur appelle la fonction OCIServerAttach d'Oracle chaque fois qu'il établit une connexion avec
Oracle. Si le moteur appelle cette fonction trop rapidement (en traitant des flux de données parallèles par exemple), la fonction peut échouer. Pour corriger cette erreur, augmenter la valeur de tentative à 5.
3
Le logiciel peut se bloquer si vous créez un job dans lequel une source de fichier alimente deux requêtes.
Si cette option est définie sur VRAI, le moteur crée en interne deux fichiers sources qui alimentent les deux requêtes au lieu d'un séparateur qui alimente les deux requêtes.
FAUX
333 2012-11-22
Exécution de jobs
Option Description de l'option Valeur par défaut
Use Explicit Database Links
Les jobs avec des liens de base de données normalement importés font preuve d'une performance améliorée car le logiciel utilise ces liens pour pousser vers le bas le traitement vers une base de données. Si vous définissez cette option sur FAUX, aucun flux de données n'utilise les banques de données liées.
L'utilisation des banques de données liées peut également être désactivée depuis n'importe qu'elle boîte de dialogue des propriétés des flux de données.
L'option de niveau du flux de données a la priorité sur cette option de niveau du Job Server.
VRAI
Use Domain Name
Ajoute un nom de domaine à un nom de Job Server dans le référentiel. Cet ajout crée un nom de serveur complet et permet à Designer de localiser un Job
Server sur un domaine différent.
VRAI
Rubriques associées
• Guide d'optimisation de la performance : utilisation d'exécution parallèle, degré de parallélisme
• Guide d'optimisation de la performance : maximisation des opérations poussées vers le bas, prise en charge des liens de base de données pour les opérations poussées vers le bas dans les banques de données.
14.5.1 Modifier les valeurs d'option pour un Job Server individuel
1.
Sélectionnez le Job Server avec lequel vous souhaitez travailler en le configurant comme Job Server par défaut.
a.
Sélectionnez Outils > Options > Designer > Environnement.
b.
Sélectionnez un Job Server dans la section Job server par défaut.
c.
Cliquez sur OK.
2.
Sélectionnez Outils > Options > Job Server > Général.
334 2012-11-22
Exécution de jobs int
AL_JobServer
AL_JobServer string
AL_Engine
AL_Engine
AL_Engine
AL_Engine
AL_Engine
AL_Engine
AL_Engine
AL_Engine
Repository
Section
3.
Saisissez la section et la clé que vous souhaitez utiliser dans la liste suivante des paires de valeurs :
Clé
int AdapterDataExchangeTimeout
AdapterStartTimeout
AL_JobServerLoadBalanceDebug
AL_JobServerLoadOSPolling
DisplayDIInternalJobs
FTPNumberOfRetry
FTPRetryInterval
Global_DOP
IgnoreReducedMsgType
IgnoreReducedMsgType_foo
OCIServerAttach_Retry
SPLITTER_OPTIMIZATION
UseExplicitDatabaseLinks
UseDomainName
335 2012-11-22
Exécution de jobs
4.
Saisissez une valeur.
Par exemple, saisissez les informations suivantes pour modifier la valeur par défaut du nombre de fois qu'un Job Serveur retente d'établir une connexion au FTP s'il a initialement échoué.
Option
Section
Clé
Valeur
Exemple de valeur
AL_Engine
FTPNumberOfRetry
2
Ces paramètres modifient la valeur par défaut pour l'option FTPNumberOfRetry passant de zéro à deux.
5.
Pour enregistrer les paramètres et fermer la fenêtre Options, cliquez sur OK.
6.
Sélectionnez à nouveau un Job Serveur par défaut en répétant l'étape 1, si besoin.
14.5.2 Utilisation des noms de lecteurs mappés dans un chemin d'accès
Le progiciel prend uniquement en compte les chemins d'accès au format UNC (Universal Naming
Convention) pour les répertoires. Si vous configurez un chemin d'accès pour un lecteur mappé, le progiciel convertit le lecteur en question dans son équivalent UNC.
Pour éviter que votre lecteur mappé ne soit reconverti en chemin d'accès UNC, vous devez ajouter les noms des lecteurs dans la fenêtre "Options" de Designer.
1.
Sélectionnez Outils > Options.
2.
Dans la fenêtre "Options", développez Job Server et sélectionnez Général.
3.
Dans la zone d'édition Section, saisissez MappedNetworkDrives.
4.
Dans la zone d'édition Clé, saisissez LecteurLocal1 pour établir le mappage avec un lecteur local ou LecteurDistant1 pour établir le mappage avec un lecteur distant.
5.
Dans la zone d'édition Valeur, saisissez une lettre de lecteur, comme M:\ pour un lecteur local ou
\\<nom_ordinateur>\<nom_partage> pour un lecteur distant.
6.
Pour fermer la fenêtre, cliquez sur OK.
Si vous voulez ajouter un autre lecteur mappé, vous devez fermer la fenêtre "Options" et recommencer la saisie. Veillez à ce que chaque entrée dans la zone d'édition Clé corresponde à un nom unique.
336 2012-11-22
Evaluation des données
Evaluation des données
337
Puisque les systèmes opérationnels changent fréquemment, le contrôle de la qualité des données devient critique dans vos jobs d'extraction, de transformation et de chargement (ETL). Designer propose des contrôles de qualité des données qui agissent comme un pare-feu pour identifier et réparer les erreurs dans les données. Ces fonctionnalités peuvent aider à s'assurer que vous avez des informations fiables.
Vous pouvez utiliser les fonctionnalités suivantes proposées par Designer pour déterminer et améliorer la qualité et la structures de vos données source :
• Utilisation du Profileur de données pour déterminer :
• La qualité des données source avant de les extraire. Le Profileur de données peut identifier les anomalies dans les données sources pour vous aider à mieux définir des mesures de correction pour la transformation Validation, Data Quality ou pour d'autres transformations.
• La distribution, la relation et la structure des données sources pour mieux concevoir les jobs et les flux de données, ainsi que l'entrepôt de données cible.
• Le contenu des données sources et cibles pour pouvoir vérifier que le job d'extraction des données renvoie les résultats attendus.
• Utilisation de la fonctionnalité Afficher les données pour :
• Afficher les données sources avant d'exécuter un job pour vous aider à créer des conceptions de job de meilleure qualité.
• Comparer les exemples de données des différentes étapes du job pour vérifier que le job d'extraction des données renvoie les résultats attendus.
• Utiliser la fonctionnalité Affichage des données lors de la conception pour afficher et analyser l'entrée et la sortie pour un jeu de données en temps réel lors de la conception d'une transformation avant même que le flux de données soit terminé ou valide.
• Utilisation la transformation Validation pour :
• Vérifier que les données sources répondent à vos règles d'entreprise.
• Prendre des mesures appropriées lorsque les données ne répondent pas aux règles d'entreprise.
• Utilisation de la fonctionnalité d'audit du flux de données pour :
• Définir des règles qui déterminent si une source, une transformation ou un objet cible traite les données correctes.
• Définir les mesures à prendre lorsqu'une règle d'audit échoue.
• Utilisation des transformations de qualité des données pour améliorer la qualité des données.
2012-11-22
Evaluation des données
• Utilisation des tableaux de bords Validation des données dans l'outil de rapports de métadonnées pour évaluer l'exactitude des données cibles en fonction des règles de validation créées dans les jobs batch. Ce retour permet aux utilisateurs professionnels de réviser, d'évaluer et d'identifier rapidement les incohérences ou les erreurs potentielles dans les données sources.
Rubriques associées
•
Utilisation du Profileur de données
•
Utilisation de l'affichage des données pour déterminer la qualité des données
•
Utilisation de l'affichage des données lors de la conception
•
Utilisation de la transformation Validation
•
•
Présentation de la qualité des données
• Guide Management Console Guide : rapports de tableaux de bords de validation des données
15.1 Utilisation du Profileur de données
Le Profileur de données exécute sur un serveur de profileur pour fournir les informations de profileur de données suivantes qui peuvent être vues par plusieurs utilisateurs :
• Analyse de colonne : le Profileur de données fournit deux types de profils de colonne :
• Profilage de base : cette information inclut la valeur minimale, la valeur maximale, la valeur moyenne, la longueur minimale de la chaîne et la longueur maximale de la chaîne.
• Profilage détaillé : l'analyse de colonne détaillée inclut le nombre distinct, le pourcentage distinct, la médiane, la longueur médiane de la chaîne, le nombre modèle et le pourcentage modèle.
• Analyse de relation : cette information identifie les incohérences de données entre deux colonnes pour lesquelles vous définissez une relation, y compris les colonnes qui ont une clé primaire existante et une relation de la clé étrangère. Il est possible d'enregistrer deux niveaux de données :
• Enregistrez les données uniquement dans les colonnes que vous avez sélectionnées pour la relation.
• Enregistrez les valeurs dans toutes les colonnes dans chaque ligne.
15.1.1 Sources de données qu'il est possible de profiler.
Il est possible d'exécuter le Profileur de données sur les données contenues dans les sources suivantes :
Voir les Notes de version pour la liste complète des sources prises en charge par le Profileur de données.
• Bases de données, ce qui inclut :
338 2012-11-22
Evaluation des données
• Connecteur Attunity pour les bases de données sur l'ordinateur central
• DB2
• Oracle
• SQL Server
• Sybase IQ
• Teradata
• Applications, ce qui inclut :
• One World de JD Edwards
• JD Edwards World
• Applications Oracle
• PeopleSoft
• Applications SAP
• SAP Master Data Services
• SAP NetWeaver Business Warehouse
• Siebel
• Fichiers plats
15.1.2 Connexion au serveur du profileur
Vous devez installer et configurer le serveur du profileur avant de pouvoir utiliser le Profileur de données.
Designer doit être connecté au serveur du profileur pour exécuter le Profileur de données et afficher ses résultats. Vous fournissez cette information de connexion sur la fenêtre Connexion au serveur du profileur.
1.
Utilisez l'une des méthodes suivantes pour appeler la fenêtre Connexion au serveur du profileur.
• Depuis le menu de la barre d'outils, sélectionnez Outils > Connexion au serveur du profileur.
• Sur la barre de statut en bas, double-cliquez sur l'icône Serveur du profileur qui se trouve à droite de l'icône Job server.
2.
Saisissez vos informations de connexion pour le CMS.
•
Système
Indiquez le nom du serveur et éventuellement le port pour le CMS.
•
Nom d'utilisateur
Indiquez le nom d'utilisateur à utiliser pour se connecter au CMS.
•
Mot de passe
339 2012-11-22
Evaluation des données
Indiquez le mot de passe à utiliser pour se connecter au CMS.
•
Authentification
Indiquez le type d'authentification utilisé par le CMS.
3.
Cliquez sur Se connecter.
Le logiciel essaye de se connecter au CMS à l'aide des informations indiquées. Lorsque vous vous connectez avec succès, la liste des référentiels du profileur qui sont à votre disposition est affichée.
4.
Sélectionnez le référentiel que vous souhaitez utiliser.
5.
Cliquez sur OK pour vous connecter à l'aide du référentiel sélectionné.
Lorsque vous vous connectez avec succès au serveur du profileur, l'icône Serveur du profileur sur la barre de statut en bas n'a plus le signe X rouge dessus. De plus, lorsque vous déplacez le pointeur sur l'icône, la barre de statut affiche l'emplacement du serveur du profileur.
Rubriques associées
• Guide Management Console Guide : gestion du serveur du profileur
• Guide d'administration : gestion des utilisateurs et des droits
15.1.3 Statistiques du profileur
340
15.1.3.1 Profil de colonne
Il est possible de générer des statistiques pour une ou plusieurs colonnes. Les colonnes peuvent toutes appartenir à une source de données ou à plusieurs sources de données. Dans le cas d'une génération de statistiques pour plusieurs sources dans une tâche du profileur, toutes les sources doivent être dans la même banque de données.
Profilage de base
Par défaut, le Profileur de données génère les attributs de profileur de base suivants pour chaque colonne sélectionnée.
Attribut de base
Min.
Nombre min.
Max.
Description
La valeur la plus basse dans cette colonne.
Nombre de lignes qui contiennent la valeur la plus basse dans cette colonne.
La valeur la plus élevée dans cette colonne.
2012-11-22
Evaluation des données
Attribut de base
Nombre max.
Moyenne
Longueur minimale de la chaîne
Longueur maximale de la chaîne
Longueur moyenne de la chaîne
Valeurs nulles
% de valeurs nulles
Zéros
% de zéros
Vides
% de vides
Description
Nombre de lignes qui contiennent la valeur la plus élevée dans cette colonne.
Pour les colonnes numériques, la valeur moyenne dans cette colonne.
Pour les colonnes avec des caractères, la longueur de la valeur de chaîne la plus courte dans cette colonne.
Pour les colonnes avec des caractères, la longueur de la valeur de chaîne la plus longue dans cette colonne.
Pour les colonnes avec des caractères, la longueur moyenne des valeurs de chaîne dans cette colonne.
Nombre de valeurs nulles dans cette colonne.
Pourcentage de lignes contenant une valeur nulle dans cette colonne.
Nombre de valeurs 0 dans cette colonne.
Pourcentage de lignes contenant une valeur 0 dans cette colonne.
Pour les colonnes avec des caractères, le nombre de lignes qui contiennent un vide dans cette colonne.
Pourcentage de lignes contenant un vide dans cette colonne.
Profilage détaillé
Il est possible de générer plusieurs attributs détaillés en plus des attributs ci-dessus, mais la génération d'attributs détaillés consomme plus de temps et de ressources de l'ordinateur. Par conséquent, il est recommandé de ne pas sélectionner le profil détaillé à moins d'avoir besoin des attributs suivants :
Attribut détaillé
Médiane
Description
La valeur qui se trouve dans la ligne du milieu de la table source.
Longueur médiane de la chaîne
Distincts
Pour les colonnes avec des caractères, la valeur qui se trouve dans la ligne du milieu de la table source.
Nombre de valeurs distinctes dans cette colonne.
% de distincts
Modèles
% de modèle
Pourcentage de lignes contenant chaque valeur distincte dans cette colonne.
Nombre des différents modèles dans cette colonne.
Pourcentage de lignes contenant chaque modèle dans cette colonne.
341 2012-11-22
Evaluation des données
Exemples d'utilisation des statistiques de profilage de colonne pour améliorer la qualité des données
Il est possible d'utiliser les attributs de profil de colonnes pour vous aider dans les différentes tâches, y compris les tâches suivantes :
• Obtenir des statistiques, des fréquences, des plages et des valeurs hors normes de base. Par exemple, ces statistiques de profilage peuvent indiquer qu'une valeur de colonne est notamment plus élevée que les autres valeurs dans la source de données. Il est possible que vous décidiez alors de définir une transformation Validation pour activer un indicateur dans une table différente avant de charger cette valeur hors normes dans la table cible.
• Identifier des variantes du même contenu. Par exemple, le numéro de référence peut être un type de données integer dans une source de données, et un type de données varchar dans une autre source de données. Il est possible que vous décidiez alors quel type de données vous souhaitez utiliser dans votre entrepôt de données cible.
• Découvrir des modèles et des formats de données. Par exemple, les statistiques de profilage peuvent indiquer que le numéro de téléphone se trouve sous des formats différents. Avec ces informations de profil, il est possible que vous décidiez de définir une transformation Validation pour toutes les convertir afin qu'elles utilisent le même format cible.
• Analyser la plage numérique. Par exemple, le numéro de client peut avoir une plage de chiffres dans une source, et une plage différente dans une autre source. La cible requiert d'avoir un type de données qui s'adapte à la plage maximale.
• Identifier les informations manquantes, les valeurs nulles et les vides dans le système source. Par exemple, les statistiques de profilage peuvent indiquer que les valeurs nulles apparaissent pour les numéros de fax. Il est possible que vous décidiez alors de définir une transformation Validation pour replacer la valeur nulle avec une phrase telle que "Inconnu" dans la table cible.
Rubriques associées
•
Affichage des attributs de colonne générés par le profileur de données
•
Soumission des tâches du profileur de colonnes
15.1.3.2 Profil de relation
Un profil de relation indique le pourcentage des valeurs non correspondantes dans les colonnes des deux sources. Les sources incluent :
• Tables
• Fichiers plats
• Une combinaison d'une table et d'un fichier plat
342 2012-11-22
Evaluation des données
Les colonnes clés peuvent avoir une clé primaire et une relation de la clé étrangère définies, ou elles peuvent n'avoir aucun lien (si l'une d'elle provient d'une banque de données et l'autre d'un format de fichier).
Il est possible de choisir entre deux niveaux de profils de relation à enregistrer :
•
Enregistrer uniquement les données de colonnes clés
Par défaut, le Profileur de données enregistre uniquement les données des colonnes que vous avez sélectionnées pour la relation.
Remarque :
Le niveau Enregistrer uniquement les données de colonnes clés n'est pas disponible avec l'utilisation des banques de données Oracle.
•
Enregistrer toutes les données de colonnes
Il est possible d'enregistrer les valeurs des autres colonnes dans chaque ligne, mais ce processus prend plus de temps et consomme plus de ressources d'ordinateur.
Lorsque vous affichez les résultats du profil de relation, vous pouvez descendre dans la hiérarchie pour voir les données réelles qui ne correspondent pas.
Il est possible d'utiliser le profil de relation pour vous aider dans les différentes tâches, y compris les tâches suivantes :
• Identifier les données manquantes dans le système source. Par exemple, une source de données peut inclure la région, mais il est possible que ce ne soit pas le cas d'une autre source.
• Identifier les données redondantes dans les sources de données. Par exemple, il est possible qu'il existe des noms et des adresses en double entre deux sources, ou qu'aucun nom n'existe pour une adresse dans une source.
• Valider les relations dans les sources de données. Par exemple, deux systèmes de suivi des problèmes différents peuvent inclure un sous-ensemble de problèmes signalés par le client, mais certains problèmes existent uniquement dans un système ou dans l'autre.
Rubriques associées
•
Soumission des tâches du profileur de relations
•
Affichage des résultats du profileur
15.1.4 Exécution d'une tâche du profileur
Le profileur de données permet de calculer les statistiques du profileur pour tous les ensembles de colonnes sélectionnés.
343 2012-11-22
Evaluation des données
Remarque :
Cette fonctionnalité facultative n'est pas disponible pour les colonnes avec des schémas imbriqués, ou les types de données LONG ou TEXT.
Il est impossible d'exécuter une tâche du profileur de la colonne avec une tâche du profileur de la relation.
15.1.4.1 Soumission des tâches du profileur de colonnes
1.
Dans la bibliothèque d'objets de Designer, vous pouvez sélectionner une table ou un fichier plat.
Pour une table, accédez à l'onglet "Banques de données" et sélectionnez une table. Pour profiler toutes les tables d'une banque de données, sélectionnez le nom de celle-ci. Pour sélectionner un sous-ensemble de tables dans l'onglet "Banques de données", maintenez la touche Ctrl enfoncée en sélectionnant chaque table.
Pour un fichier plat, accédez à l'onglet "Formats" et sélectionnez un fichier.
2.
Après avoir sélectionné la source de données, vous pouvez générer des statistiques de profil de colonne selon une des méthodes suivantes :
• Cliquez avec le bouton droit et sélectionnez Soumettre la demande de profil de la colonne.
Le calcul de certaines statistiques de profil peut durer longtemps. Sélectionnez cette méthode pour que la tâche du profileur s'exécute de manière asynchrone et que vous puissiez lancer d'autres tâches Designer pendant l'exécution de la tâche du profileur.
Cette méthode permet également de profiler plusieurs sources en une seule tâche du profileur.
• Cliquez avec le bouton droit, sélectionnez Afficher les données, cliquez sur l'onglet "Profil", puis sur Mettre à jour. Cette option soumet une tâche du profileur synchrone et vous devez attendre qu'elle soit terminée pour pouvoir lancer d'autres tâches dans Designer.
Vous pouvez éventuellement utiliser cette option si vous êtes déjà dans la fenêtre "Afficher les données" et que vous remarquez que les statistiques de profil n'ont pas encore été générées ou que la date où elles l'ont été est antérieure à vos besoins.
3.
(Facultatif) Modifiez le nom de la tâche du profileur.
Le profileur de données génère un nom par défaut pour chaque tâche du profileur. Vous pouvez modifier le nom de la tâche afin de créer un nom plus significatif, un nom unique ou supprimer les tirets qui sont autorisés dans les noms des colonnes, mais pas dans ceux des tâches.
Si vous sélectionnez une source unique, le format du nom par défaut est le suivant :
nomutilisateur_t_nomsource
Si vous sélectionnez plusieurs sources, le format du nom par défaut est le suivant :
nomutilisateur_t_nompremièresource_nomdernièresource
344 2012-11-22
Evaluation des données
345 t
Colonne
nomutilisateur nompremièresource nomdernièresource
Description
Nom d'utilisateur utilisé par le progiciel pour accéder aux services système.
Type de profil. La valeur est C pour le profil de colonne qui obtient des attributs (comme valeur faible et valeur élevée) pour chaque colonne sélectionnée.
Nom de la première source par ordre alphabétique.
Nom de la dernière source par ordre alphabétique si vous en sélectionnez plusieurs.
4.
Si vous sélectionnez une source, la fenêtre "Soumettre la demande de profil de colonne" liste les colonnes et les types de données.
Conservez la coche devant chaque colonne à profiler et supprimez la coche devant chaque colonne que vous ne désirez pas profiler.
Autrement, vous pouvez cliquer dans la case à cocher placée en haut devant Nom pour désélectionner toutes les colonnes, puis cocher les cases.
5.
Si vous avez sélectionné plusieurs sources, la fenêtre "Soumettre la demande du profileur de colonne
" liste les sources à gauche.
a.
Sélectionnez une source pour afficher ses colonnes du côté droit.
b.
Du côté droit de la fenêtre "Soumettre la demande de profil de colonne", conservez la coche devant chaque colonne à profiler et supprimez la coche devant chaque colonne que vous ne désirez pas profiler.
Autrement, vous pouvez vous pouvez cliquer dans la case à cocher placée en haut devant Nom pour désélectionner toutes les colonnes, puis cocher chaque case des colonnes à profiler.
c.
Répétez les étapes 1 et 2 pour chaque source de données.
6.
(Facultatif) Sélectionnez Profilage détaillé pour une colonne.
Remarque :
Le profileur de données consomme beaucoup de ressources lorsqu'il génère des statistiques de profil détaillées. Choisissez le profilage détaillé uniquement si vous avez besoin de ces attributs : comptage distinct, pourcentage distinct, valeur médiane, longueur de chaîne médiane, modèle, nombre de modèles. Si vous avez sélectionné le profilage détaillé, vérifiez que le répertoire de cache paginable indiqué contient suffisamment d'espace disque pour la taille des données que vous profilez.
Si vous voulez des attributs détaillés pour toutes les colonnes de toutes les sources listées, cliquez sur "Profilage détaillé" et sélectionnez Appliquer pour toutes les colonnes de toutes les sources.
Si vous voulez supprimer le profilage détaillé pour toutes les colonnes, cliquez sur "Profilage détaillé" et sélectionnez Supprimer pour toutes les colonnes de toutes les sources.
7.
Cliquez sur Soumettre pour exécuter la tâche du profileur.
2012-11-22
Evaluation des données
Remarque :
Si les métadonnées de la table ont été modifiées depuis que vous les avez importées (par exemple, ajout d'une colonne), vous devez réimporter la table source avant d'exécuter la tâche du profileur.
Si vous avez cliqué sur l'option Soumettre la demande de profil de colonne pour atteindre cette fenêtre "Soumettre la demande du profileur de colonne", le panneau du moniteur du profileur s'affiche automatiquement en cliquant sur Soumettre.
Si vous avez cliqué sur Mettre à jour dans l'onglet "Profil" de la fenêtre "Afficher les données", la fenêtre du moniteur du "Profileur" ne s'affiche pas en cliquant sur Soumettre. A la place, une tâche du profileur est soumise de manière asynchrone et vous devez attendre qu'elle soit terminée pour pouvoir effectuer d'autres tâches dans Designer.
Vous pouvez également surveiller votre tâche de profileur d'après son nom dans l'Administrateur.
8.
Quand la tâche du profileur est terminée, vous pouvez afficher les résultats de profil dans l'option
Afficher les données.
Rubriques associées
•
•
Surveillance des tâches du profileur à l'aide de Designer
•
Affichage des résultats du profileur
• Guide d'administration : Configuration des ressources d'exécution
• Guide Management Console Guide : Surveillance des tâches du profileur à l'aide de l'Administrateur
15.1.4.2 Soumission des tâches du profileur de relations
Un profil de relation montre le pourcentage de valeurs sans correspondance dans les colonnes de deux sources. Les sources peuvent être un des éléments suivants :
• Tables
• Fichiers plats
• Combinaison d'une table et d'un fichier plat
Une relation de clé primaire et de clé étrangère peut être définie pour les colonnes ou bien elles peuvent
être sans relation (comme quand l'une vient d'une banque de données et l'autre d'un format de fichier).
Les deux colonnes ne doivent pas obligatoirement être du même type, mais elles doivent être convertibles. Par exemple, si vous exécutez une tâche du profileur de relations sur une colonne Integer et une colonne Varchar, le profileur de données convertit les valeurs des entiers en valeur de caractères
(Varchar) pour effectuer la comparaison.
346 2012-11-22
Evaluation des données
347
Remarque :
Le profileur de données consomme beaucoup de ressources lorsqu'il génère des valeurs de relations.
Si vous prévoyez d'utiliser le profilage de relations, vérifiez que le répertoire de cache paginable indiqué contient suffisamment d'espace disque pour la taille des données que vous profilez.
Rubriques associées
•
Sources de données qu'il est possible de profiler.
• Guide d'administration : Configuration des ressources d'exécution
15.1.4.2.1 Génération d'un profil de relation pour les colonnes de deux sources
1.
Dans la bibliothèque d'objets de Designer, sélectionnez deux sources.
Pour sélectionner deux sources dans la même banque de données ou le même format de fichier : a.
Accédez à l'onglet "Banque de données" ou "Format" dans la bibliothèque d'objets.
b.
Maintenez la touche Ctrl enfoncée en sélectionnant la deuxième table.
c.
Cliquez avec le bouton droit et sélectionnez Soumettre la demande de profil de relation.
Pour sélectionner deux sources de banques de données ou formats de fichier différents : a.
Accédez à l'onglet "Banque de données" ou "Format" dans la bibliothèque d'objets.
b.
Cliquez avec le bouton droit sur la première source, sélectionnez Soumettre la demande de
profil de la relation > Relation avec.
c.
Changez de banque de données ou de format dans la bibliothèque d'objets d.
Cliquez sur la deuxième source.
La fenêtre "Soumettre la demande de profil de la relation" s'affiche.
Remarque :
Il est impossible de créer un profil de relation pour les colonnes dont les données sont de type LONG ou TEXTE.
2.
(Facultatif) Modifiez le nom de la tâche du profileur.
Vous pouvez modifier le nom de la tâche afin de créer un nom plus significatif, un nom unique ou supprimer les tirets qui sont autorisés dans les noms des colonnes, mais pas dans ceux des tâches.
Le nom par défaut généré par le profileur de données pour plusieurs sources a le format suivant :
nomutilisateur
_t_nompremièresource_nomdernièresource
Colonne
nomutilisateur
Description
Nom d'utilisateur utilisé par le progiciel pour accéder aux services système.
t
Type de profil. La valeur est R pour le profil de relation qui obtient des valeurs sans correspondance dans les deux colonnes sélectionnées.
nompremière source
Nom de la première source sélectionnée.
nomdernièresource Nom de la dernière source sélectionnée.
2012-11-22
Evaluation des données
3.
Par défaut, s'il existe une relation, le volet supérieur de la fenêtre "Soumettre la demande de profil de la relation" affiche une ligne entre la colonne de clé primaire et la colonne de clé étrangère des deux sources. Vous pouvez changer les colonnes à profiler.
La moitié inférieure de la fenêtre "Soumettre la demande de profil de la relation" montre que la tâche du profileur va utiliser l'opération égale (=) pour comparer les deux colonnes. Le profileur de données va déterminer les valeurs qui ne sont pas égales et calculer le pourcentage de valeurs non correspondantes.
4.
Pour supprimer une relation existante entre deux colonnes, sélectionnez la ligne, cliquez avec le bouton droit et sélectionnez Supprimer la relation sélectionnée.
Pour supprimer toutes les relations existantes entre deux sources, exécutez une des actions suivantes :
• Cliquez avec le bouton droit dans le volet supérieur et cliquez sur Supprimer toutes les relations.
• Cliquez sur Supprimer toutes les relations près du bas de la fenêtre "Soumettre la demande de profil de la relation".
5.
S'il n'existe pas de relation de clé primaire et clé étrangère entre les deux sources de données, indiquez les colonnes à profiler. Vous pouvez redimensionner chaque source de données pour afficher toutes les colonnes.
Pour indiquer ou modifier les colonnes dont vous voulez voir les valeurs de relation : a.
Déplacez le curseur sur la première colonne à sélectionner. Maintenez le curseur enfoncé et dessinez une ligne vers l'autre colonne à sélectionner.
b.
Si vous avez supprimé toutes les relations et que vous voulez que le profileur de données sélectionne une relation de clé primaire et clé étrangère existante, cliquer avec le bouton droit dans le volet supérieur et cliquez sur Proposer une relation, ou bien cliquez sur Proposer une
relation près du bas de la fenêtre "Soumettre la demande de profil de la relation".
6.
L'option Enregistrer uniquement les données de colonnes clés est sélectionnée par défaut. Elle indique que le profileur de données enregistre les données uniquement dans les colonnes sélectionnées pour la relation. Aucun échantillon de données n'est visible dans les autres colonnes lorsque vous affichez le profil de la relation.
Pour voir les valeurs des autres colonnes dans le profil de la relation, sélectionnez l'option Enregistrer
les données de toutes les colonnes.
7.
Cliquez sur Soumettre pour exécuter la tâche du profileur.
Remarque :
Si les métadonnées de la table ont été modifiées depuis que vous les avez importées (par exemple, ajout d'une colonne), vous devez réimporter la table source avant d'exécuter la tâche du profileur.
8.
Le volet du moniteur du profileur s'affiche automatiquement lorsque vous cliquez sur Soumettre.
Vous pouvez également surveiller votre tâche de profileur d'après son nom dans l'Administrateur.
9.
Lorsque la tâche du profileur est terminée, vous pouvez afficher les résultats du profil dans l'option
Afficher les données en cliquant avec le bouton droit sur une tables dans la bibliothèque d'objets.
348 2012-11-22
Evaluation des données
Rubriques associées
•
Affichage des données de profil de la relation générées par le profileur de données
•
Surveillance des tâches du profileur à l'aide de Designer
• Guide Management Console Guide : Surveillance des tâches du profileur à l'aide de l'Administrateur
•
Affichage des résultats du profileur
15.1.5 Surveillance des tâches du profileur à l'aide de Designer
La fenêtre du moniteur du "Profileur" s'affiche automatiquement lorsque vous soumettez une tâche du profileur si vous avez cliqué sur la barre de menu pour afficher la fenêtre du moniteur du "Profileur".
Vous pouvez ancrer ce volet du moniteur du profileur dans Designer ou le laisser séparé.
Le volet du moniteur du profileur affiche la tâche en cours d'exécution et toutes les tâches du profileur ayant été exécutées durant un nombre de jours configuré.
Vous pouvez cliquer sur les icônes dans le coin supérieur droit du moniteur du profileur pour afficher les informations suivantes :
Actualise le volet du moniteur du profileur pour qu'il affiche le dernier statut des tâches du profileur.
Sources profilées par la tâche sélectionnée.
Si la tâche a échoué, la fenêtre "Informations" affiche également le message d'erreur.
Le moniteur du profileur affiche les colonnes suivantes :
Colonne Description
Nom
Nom de la tâche du profileur envoyée depuis Designer.
Si la tâche du profileur s'applique à une seule source, le nom par défaut a le format suivant :
username_t_sourcename
Si la tâche du profileur s'applique à plusieurs sources, le nom par défaut a le format suivant :
username_t_firstsourcename_lastsourcename
349 2012-11-22
Evaluation des données
Colonne
Type
Statut
Horodatage
Sources
Description
Le type de la tâche du profileur peut être :
• Colonne
• Relation
Le statut d'une tâche du profileur peut être :
• Terminé : la tâche est terminée avec succès.
• En attente : la tâche est dans la file d'attente parce que le nombre maximal de tâches simultanées est atteint ou qu'une autre tâche profile la même table.
• Exécution en cours : la tâche est en train de s'exécuter.
• Erreur : la tâche a été interrompue avec une erreur. Double-cliquez sur la valeur de cette colonne Statut pour afficher le message d'erreur.
Date et heure d'exécution de la tâche du profileur.
Noms des tables sur lesquelles s'exécute la tâche du profileur.
Rubriques associées
•
Exécution d'une tâche du profileur
• Guide Management Console Guide : Configuration des paramètres de tâche du profileur
15.1.6 Affichage des résultats du profileur
Le profileur de données calcule et enregistre les attributs du profileur dans un référentiel du profileur pouvant être affiché par plusieurs utilisateurs.
Rubriques associées
•
Affichage des attributs de colonne générés par le profileur de données
•
Affichage des données de profil de la relation générées par le profileur de données
350 2012-11-22
Evaluation des données
15.1.6.1 Affichage des attributs de colonne générés par le profileur de données
1.
Dans la bibliothèque d'objets, sélectionnez la table dont vous voulez afficher les attributs du profileur.
2.
Cliquez avec le bouton droit et sélectionnez Afficher les données.
3.
Cliquez sur l'onglet "Profil" (deuxième) pour afficher les attributs de profil de colonne.
a.
L'onglet "Profil" affiche le nombre d'enregistrement physiques traités par le profileur de données pour générer les valeurs de la grille de profil.
b.
La grille de profil contient les noms de colonne de la source actuelle et les attributs de profil de chaque colonne. Pour remplir la grille de profil, exécutez une tâche du profileur ou sélectionnez les noms dans cette colonne et cliquez sur Mettre à jour.
c.
Vous pouvez trier les valeurs de chaque colonne d'attribut en cliquant sur leurs en-têtes. La valeur n/a dans la grille de profil indique qu'un attribut ne s'applique pas à un type de données.
Attribut de profil de base
Description
Min.
Nombre min.
Max.
Nombre max.
Moyenne
Type de données pertinent
Caractère Numérique
La plus faible de toutes les valeurs de cette colonne.
Oui
Nombre de lignes de cette colonne qui contiennent cette valeur la plus faible.
Oui
La plus élevée de toutes les valeurs de cette colonne.
Oui
Nombre de lignes de cette colonne qui contiennent cette valeur la plus élevée.
Oui
Pour les colonnes numériques, valeur moyenne de cette colonne.
n/a
Oui
Oui
Oui
Oui
Oui
Date/heure
Oui
Oui
Oui
Oui n/a
351 2012-11-22
Evaluation des données
Attribut de profil de base
Description
Type de données pertinent
Caractère Numérique
Longueur minimale de la chaîne
Pour les colonnes de caractères, longueur de la chaîne la plus courte dans cette colonne.
Oui
Longueur maximale de la chaîne
Longueur moyenne de la chaîne
Pour les colonnes de caractères, longueur de la chaîne la plus longue dans cette colonne.
Oui
Pour les colonnes de caractères, longueur moyenne de chaîne dans cette colonne.
Oui
Non
Non
Non
Valeurs nulles
Nombre de valeurs
NULL dans cette colonne.
Oui
% de valeurs nulles
Pourcentage de lignes qui contiennent une valeur NULL dans cette colonne.
Oui
Zéros
% de zéros
Vides
% de vides
Nombre de valeurs
0 dans cette colonne.
Pourcentage de lignes qui contiennent une valeur 0 dans cette colonne.
Non
Non
Pour les colonnes de caractères, nombre de lignes comportant un vide dans cette colonne.
Oui
Pourcentage de lignes qui contiennent un vide dans cette colonne.
Oui
Oui
Oui
Oui
Oui
Non
Non
Date/heure
Non
Non
Non
Oui
Oui
Non
Non
Non
Non
352 2012-11-22
Evaluation des données d.
Si vous avez sélectionné l'option Profilage détaillé dans la fenêtre "Soumettre la demande du profileur de colonne", l'onglet "Profil" affiche également les colonnes d'attribut détaillées suivantes.
Attribut de profil détaillé
Description Type de données pertinent Caractère Numérique Date/heure
Distinctes
% de distinctes
Médiane
Longueur de la chaîne médiane
% de modèles
Modèles
Nombre de valeurs distinctes dans cette colonne.
Oui
Pourcentage de lignes qui contiennent chacune une valeur distincte dans cette colonne.
Oui
Valeur de la ligne du milieu de la table source.
Oui
Pour les colonnes de caractères, valeur de la ligne du milieu de la table source.
Pourcentage de lignes qui contiennent chacune une valeur distincte dans cette colonne. Format de chaque modèle unique de cette colonne.
Oui
Oui
Nombre de modèles différents dans cette colonne.
Oui
Oui
Oui
Oui
Non
Non
Non
Oui
Oui
Oui
Non
Non
Non
4.
Cliquez sur une valeur d'attribut pour afficher la ligne entière de la table source. La moitié inférieure de la fenêtre "Afficher les données" affiche les lignes qui contiennent la valeur d'attribut sur laquelle vous avez cliqué. Vous pouvez masquer les colonnes que vous ne désirez pas afficher en cliquant sur l'icône Afficher/masquer les colonnes.
Par exemple, votre colonne ADRESSE cible doit comporter uniquement 45 caractères, mais les données de profilage de cette table source Client affichent que la longueur maximale de chaîne est
46. Cliquez sur la valeur 46 pour afficher les données réelles. Vous pouvez redimensionner la largeur de la colonne pour afficher la chaîne entière.
353 2012-11-22
Evaluation des données
5.
(Facultatif) Cliquez sur Mettre à jour pour mettre à jour les attributs de profil. Raisons d'une mise
à jour à ce moment :
• Les attributs de profil n'ont pas encore été générés.
• La date de génération des attributs de profil est antérieure à celle voulue. La valeur Date de dernière mise à jour dans l'angle inférieur gauche de l'onglet "Profil" est l'horodatage de la dernière génération des profils d'attribut.
Remarque :
L'option Mettre à jour soumet une tâche synchrone du profileur et vous devez attendre qu'elle soit terminée pour pouvoir exécuter d'autres tâches dans Designer.
La fenêtre "Soumettre la demande de profil de colonne" s'affiche.
Comme les calculs de mise à jour ont un impact sur les performances, sélectionnez uniquement les noms des colonnes dont vous avez besoin pour cette opération de profilage. Vous pouvez
également cliquer dans la case à cocher située en haut devant Nom pour désélectionner toutes les colonnes, puis cocher la case placée devant chaque colonne à profiler.
6.
Cliquez sur une statistique dans Distinctes ou Modèles pour afficher le pourcentage de chaque valeur distincte ou valeur de modèle dans une colonne. Les valeurs de modèle, le nombre d'enregistrements de chaque valeur de modèle et les pourcentages s'affichent dans la partie droite de l'onglet "Profil".
Par exemple, l'onglet "Profil" suivant pour la table CUSTOMERS affiche les attributs de profil pour la colonne REGION. L'attribut Distincts de la colonne REGION affiche la statistique 19, c'est-à-dire qu'il existe 19 valeurs distinctes pour REGION.
354
7.
Cliquez sur la statistique de la colonne Distincts pour afficher chacune des 19 valeurs et le pourcentage de lignes de la table CUSTOMERS ayant cette valeur pour la colonne REGION. En outre, les barres de la colonne la plus à droite affichent la taille relative de chaque pourcentage.
2012-11-22
Evaluation des données
8.
Les données de profilage du côté droit montrent qu'un important pourcentage des valeurs de REGION est Null. Cliquez sur Null sous Valeur ou sur 60 sous Enregistrements pour afficher les autres colonnes des lignes qui comportent une valeur Null dans la colonne REGION.
9.
Vos règles de gestion peuvent indiquer que REGION de doit pas contenir de valeur NULL dans votre entrepôt de données cible. Décidez donc quelle valeur doit remplacer les valeurs NULL lorsque vous définissez une transformation Validation.
Rubriques associées
•
Exécution d'une tâche du profileur
•
Définition d'une règle de validation en fonction du profil de colonne
15.1.6.2 Affichage des données de profil de la relation générées par le profileur de données
Les données de profil de relation affichent le pourcentage de valeurs sans correspondance dans les colonnes de deux sources. Les sources peuvent être des tables, des fichiers plats ou une combinaison d'une table et d'un fichier plat. Une relation de clé primaire et de clé étrangère peut être définie pour les colonnes ou bien elles peuvent être sans relation (comme quand l'une vient d'une banque de données et l'autre d'un format de fichier).
1.
Dans la bibliothèque d'objets, sélectionnez la table ou le fichier dont vous voulez afficher les données de profil de relation.
2.
Cliquez avec le bouton droit et sélectionnez Afficher les données.
3.
Cliquez sur l'onglet "Relation" (troisième) pour afficher les résultats du profil de relation.
Remarque :
L'onglet "Relation" n'est visible que si vous avez exécuté une tâche du profileur de relations.
4.
Cliquez sur le pourcentage non nul dans le diagramme pour afficher les valeurs de clé non contenues dans l'autre table.
Par exemple, l'onglet Relation ci-dessous de Afficher les données montre le pourcentage de clients
(16,67) n'ayant pas de commande. Le profil de la relation a été défini sur la colonne CUST_ID de la table ODS_CUSTOMER et la colonne CUST_ID de la table ODS_SALESORDER. La valeur de l'ovale de gauche indique que 16,67 % des lignes de la table ODS_CUSTOMER ont des valeurs de CUST_ID qui n'existent pas dans la table ODS_SALESORDER.
355 2012-11-22
Evaluation des données
Cliquez sur le pourcentage 16,67 dans l'ovale ODS_CUSTOMER pour afficher les valeurs de
CUST_ID qui n'existent pas dans la table ODS_SALESORDER. Les valeurs sans correspondance
KT03 et SA03 s'affichent sur le côté droit de l'onglet Relation. Chaque ligne affiche une valeur de
CUST_ID sans correspondance, le nombre d'enregistrements comportant cette valeur de CUST_ID et le pourcentage total de clients comportant cette valeur de CUST_ID.
5.
Cliquez sur l'une des valeurs du côté droit pour afficher les autres colonnes des lignes qui contiennent cette valeur.
La moitié inférieure de l'onglet "Profil de relation" affiche les valeurs des autres colonnes de la ligne comportant la valeur KT03 dans la colonne CUST_ID.
Remarque :
Si vous n'avez pas sélectionné l'option Enregistrer les données de toutes les colonnes dans la fenêtre "Soumettre la demande de profil de la relation", vous ne pouvez pas afficher les données des autres colonnes.
Rubriques associées
•
Soumission des tâches du profileur de relations
15.2 Utilisation de l'affichage des données pour déterminer la qualité des données
356 2012-11-22
Evaluation des données
Utilisez l'affichage des données pour vous aider à déterminer la qualité des données source et cible.
L'affichage des données fournit une fonctionnalité pour :
• Afficher des échantillons de données source avant d'exécuter un job afin de créer des conceptions de job de qualité supérieure.
• Comparer des échantillons de données de différentes étapes de votre job pour vérifier que le job d'extraction des données renvoie les résultats attendus.
Rubriques associées
•
Définition d'une règle de validation en fonction du profil de colonne
•
Utilisation de l'affichage des données
15.2.1 Onglet Données
L'onglet "Données" est toujours disponible et affiche le contenu des données de modèles de lignes.
Vous pouvez afficher un sous-ensemble de colonnes de chaque ligne et définir des filtres pour afficher un sous-ensemble de lignes.
Par exemple, vos règles de gestion peuvent imposer que tous les numéros de téléphone et de fax aient un seul format pour chaque pays. L'onglet "Données" ci-dessous affiche un sous-ensemble de lignes des clients résidant en France.
357
Notez que les colonnes PHONE et FAX affichent des valeurs ayant deux formats différents. Vous pouvez désormais décider du format à utiliser dans l'entrepôt de données cible et définir une transformation Validation en conséquence.
2012-11-22
Evaluation des données
Rubriques associées
•
Propriétés de l'affichage des données
•
Définition d'une règle de validation en fonction du profil de colonne
•
15.2.2 Onglet Profil
Deux affichages sont disponibles sur l'onglet "Profil" :
• Sans le Profileur de données, l'onglet "Profil" affiche les attributs de colonnes suivants : valeurs distinctes, valeurs nulles, valeur minimale et valeur maximale.
• Si vous avez configuré et que vous utilisez le Profileur de données, l'onglet "Profil" affiche les mêmes attributs de colonnes ci-dessus, ainsi que de nombreuses autres statistiques calculées, telles que la valeur moyenne, la longueur minimale de la chaîne et la longueur maximale de la chaîne, le nombre distinct, le pourcentage distinct, la médiane, la longueur médiane de la chaîne, le nombre du modèle et le pourcentage du modèle.
Rubriques associées
•
•
Affichage des attributs de colonne générés par le profileur de données
15.2.3 Onglet Profil de relation ou Profil de colonne
Le troisième onglet affiché dépend de si vous avez configuré et que vous utilisez le Profileur de données ou non.
• Si vous n'utilisez pas le Profileur de données, l'onglet "Profil de colonne" permet de calculer les informations statistiques pour une seule colonne.
• Si vous utilisez le Profileur de données, l'onglet "Relation" affiche les incohérences de données entre les deux colonnes à partir desquelles il est possible de déterminer l'intégrité des données entre les deux sources.
Rubriques associées
•
•
Affichage des données de profil de la relation générées par le profileur de données
358 2012-11-22
Evaluation des données
15.3 Utilisation de la transformation Validation
Les fonctionnalités Profileur de données et Afficher les données peuvent identifier les anomalies dans les données entrantes. Il est alors possible d'utiliser une transformation Validation pour définir les règles qui séparent les bonnes données des mauvaises. Il est possible d'écrire les mauvaises données dans une table ou un fichier pour une révision ultérieure.
Pour plus de détails sur la transformation Validation, y compris sur la manière d'implémenter les fonctions réutilisables de validation, consultez le Guide de référence SAP BusinessObjects Data Services.
Rubriques associées
• Guide de référence : transformations, validation
15.3.1 Analyse du profil de colonne
Il est possible d'obtenir des informations sur le profil de colonne en soumettant des tâches du profileur de colonne.
Par exemple, si vous souhaitez analyser les données dans la table Clients dans l'exemple de base de données Northwinds sur Microsoft SQL Server.
Rubriques associées
•
Soumission des tâches du profileur de colonnes
15.3.1.1 Analyse des attributs de profil de colonne
1.
Dans la bibliothèque d'objets, cliquez sur la table profilée Clients et sélectionnez Afficher les
données.
2.
Sélectionnez l'onglet Profil dans la fenêtre "Afficher les données". L'onglet Profil affiche les attributs de profil de colonne indiqués sur l'illustration suivante.
359 2012-11-22
Evaluation des données
360
L'attribut Modèles pour la colonne PHONE indique la valeur 20, ce qui signifie qu'il existe 20 modèles différents.
3.
Cliquez sur la valeur 20 sur la colonne de l'attribut "Modèles". Le volet "Données de profilage" affiche les modèles pour la colonne PHONE individuellement et le pourcentage de lignes pour chaque modèle.
4.
Supposons que vos règles d'entreprise imposent que tous les numéros de téléphone en France doivent être sous le format 99.99.99.99. Cependant, les données de profilage indiquent que deux enregistrements sont sous le format (9) 99.99.99.99. Pour afficher les colonnes pour ces deux enregistrements dans le volet du bas, cliquez soit sur (9) 99.99.99.99 sous Valeur, soit sur 2 sous Enregistrement Vous pouvez voir que certains numéros de téléphone en France ont le préfixe
(1).
Il est possible d'utiliser une transformation Validation pour identifier les lignes contenant le préfixe non souhaité. Vous pouvez alors corriger les données pour vous conformer à vos règles d'entreprise, puis les recharger.
La section suivante décrit comment configurer la transformation Validation pour identifier les lignes erronée.
Rubriques associées
•
Définition d'une règle de validation en fonction du profil de colonne
2012-11-22
Evaluation des données
15.3.2 Définition d'une règle de validation en fonction du profil de colonne
Cette section utilise les résultats du Profileur de données et définit la transformation Validation selon l'exemple de règles d'entreprise. A partir de l'exemple précédent du préfixe téléphonique (1) pour les numéros de téléphone en France, la procédure suivante décrit la manière de définir un flux de données et une règle de validation qui identifient ce modèle. Il est alors possible de réviser les données ayant
échoué, d'apporter des modifications et de recharger les données.
15.3.2.1 Définition de la règle de validation identifiant un modèle
Cette procédure décrit la façon de définir un flux de données et une règle de validation qui identifie des lignes contenant le préfixe (1) décrit à la section précédente.
1.
Créez un flux de données avec la table de Clients comme source, ajoutez une transformation
Validation et une cible et reliez les objets.
2.
Ouvrez la transformation Validation en cliquant sur son nom.
3.
Dans l'éditeur de transformation, cliquez sur Ajouter.
La boîte de dialogue Editeur de règles s'affiche.
4.
Saisissez un Nom et de manière facultative une Description pour la règle.
5.
Vérifiez que la case Actif est cochée.
6.
Pour "Action en cas d'échec", sélectionnez Envoi vers échec.
7.
Sélectionnez la case d'option Validation de colonne.
a.
Sélectionnez la "colonne" CUSTOMERS.PHONE dans la liste déroulante.
b.
Pour "Condition", dans la liste déroulante, sélectionnez Modèle de correspondance.
c.
Pour la valeur, saisissez l'expression "99.99.99.99".
8.
Cliquez sur OK.
La règle s'affiche dans la liste de règles.
Après l'exécution du job, les lignes mal formatées s'affichent dans la sortie Fail. Vous pouvez à présent vérifier les données ayant échouées, effectuer des corrections le cas échéant et recharger les données.
Rubriques associées
•
361 2012-11-22
Evaluation des données
15.4 Utilisation de l'Audit
L'audit offre la possibilité de s'assurer qu'un flux de données charge les données correctes dans l'entrepôt. Utilisez l'audit pour effectuer les tâches suivantes :
• Définir les points de vérification pour collecter les statistiques d'exécution sur les données qui sortent des objets. L'audit enregistre ces statistiques dans le référentiel.
• Définir des règles avec ces statistiques d'audit pour s'assurer qu'aux points suivants d'un flux de données, les données correspondent à celles attendues :
• Extraites des sources
• Traitées par des transformations
• Chargées dans les cibles
• Générer une notification d'exécution qui inclut la règle d'audit qui a échoué et les valeurs des statistiques d'audit au moment de l'échec.
• Afficher les statistiques d'audit après l'exécution du job pour aider à identifier les objets dans le flux de données qui peuvent avoir produit les données incorrectes.
Remarque :
Si vous ajoutez un point de vérification avant une opération qui est normalement poussée vers le bas vers le serveur de base de données, la performance peut se dégrader car ces opérations ne peuvent avoir lieu après un point de vérification.
15.4.1 Audit d'objets dans un flux de données
Il est possible de collecter les statistiques d'audit sur les données qui sortent d'un objet, tel qu'une source, une transformation ou une cible. Si une transformation a plusieurs sorties distinctes ou différentes
(telles que Validation ou Case), il est possible de réaliser un audit pour chaque sortie indépendamment.
Pour utiliser l'audit, définissez les objets suivant dans la fenêtre "Audit" :
Nom de l'objet
Point de vérification
Description
L'objet dans un flux de données dans lequel vous collectez les statistiques d'audit. Il est possible de réaliser un audit pour une source, une transformation ou une cible. Vous identifiez l'objet à vérifier lors de la définition d'une fonction d'audit sur celui-ci.
362 2012-11-22
Evaluation des données
Nom de l'objet
Fonction d'audit
Etiquette d'audit
Règle d'audit
Description
Les statistiques d'audit collectées par le logiciel pour une table, un schème de sortie ou une colonne. La table suivante montre les fonctions d'audit qu'il est possible de définir.
Objet de données Fonction d'audit Description
Table ou schéma de sortie
Count
Cette fonction collecte deux statistiques :
• Un nombre correct pour les lignes qui ont été traitées avec succès.
• Un nombre d'erreur pour les lignes qui ont généré certains types d'erreurs si vous avez activé la gestion des erreurs.
Colonne
Colonne
Colonne
Sum
Average
Checksum
Somme des valeurs numériques dans la colonne. Les types de données applicables incluent les nombres décimaux, doubles, entiers et réels. Cette fonction comprend uniquement les lignes correctes.
Moyenne des valeurs numériques dans la colonne. Les types de données applicables incluent les nombres décimaux, doubles, entiers et réels. Cette fonction comprend uniquement les lignes correctes.
Total de contrôle des valeurs dans la colonne.
Le seul nom dans le flux de données généré par le logiciel pour les statistiques d'audit collectées pour chaque fonction d'audit définie. Ces étiquettes permettent de définir des règles d'audit pour le flux de données.
Une expression booléenne dans laquelle vous utilisez les étiquettes d'audit pour vérifier le job. Si vous définissez plusieurs règles dans un flux de données, toutes les règles doivent réussir, sinon l'audit échoue.
363 2012-11-22
Evaluation des données
Nom de l'objet Description
Actions en cas d'échec de l'audit
Une ou plus des trois façons de générer des notifications d'un échec de la règle (ou des règles) d'audit : adresse électronique, script personnalisé, lever une exception.
15.4.1.1 Fonction d'audit
Cette section décrit les types de données pour les fonctions d'audit et pour les statistiques du nombre d'erreurs.
Types de données
La table suivant montre le type de données par défaut pour chaque fonction d'audit et les types de données autorisés. Il est possible de modifier le type de données dans la fenêtre "Propriétés" pour chaque fonction d'audit de Designer.
Fonctions d'audit Type de données par défaut
Nombre
Somme
Moyenne
Total de contrôle
ENTIER
Type de colonne audité
Type de colonne audité
VARCHAR(128)
Types de données autorisés
ENTIER
ENTIER, DECIMAL, DOUBLE, REEL
ENTIER, DECIMAL, DOUBLE, REEL
VARCHAR(128)
Statistique du nombre d'erreurs
Lorsque vous activez une fonction d'audit Nombre, le logiciel collecte deux types de statistiques :
• Nombre de lignes correctes pour les lignes traitées sans erreur.
• Nombre de lignes d'erreurs pour les lignes qui n'ont pas pu être traitées par le job, et que ce dernier ignore pour pouvoir continuer à traiter. Les lignes d'erreur peuvent se produire lorsque vous spécifiez l'option Utiliser le filtre de dépassement de capacité dans l'Editeur source ou l'Editeur cible.
364
15.4.1.2 Etiquette d'audit
Le logiciel génère un nom unique pour chaque fonction d'audit définie à un point de vérification. Il est possible de modifier les noms d'étiquettes. Vous pouvez souhaiter modifier un nom d'étiquette pour créer un nom significatif plus court ou pour supprimer les tirets, qui sont autorisés dans les noms de colonnes mais pas dans les noms d'étiquettes.
2012-11-22
Evaluation des données
Génération de noms d'étiquette
Si le point de vérification se trouve sur une table ou sur un schéma de sortie, le logiciel génère les deux
étiquettes suivantes pour la fonction d'audit Nombre :
$Count_objectname
$CountError_objectname
Si le point de vérification se trouve sur une colonne, le logiciel génère une étiquette d'audit sous le format suivant :
$ fonctionaudit_nomobjet
Si le point de vérification se trouve dans un flux de données incorporé, les étiquettes sont sous les formats suivants :
$Count_objectname_embeddedDFname
$CountError_objectname_embeddedDFname
$auditfunction_objectname_embeddedDFname
Modification de noms d'étiquette
Il est possible de modifier le nom de l'étiquette d'audit lors de la création de la fonction d'audit, et avant la création d'une règle d'audit qui utilise l'étiquette.
Si vous modifiez le nom d'étiquette après l'avoir utilisé dans une règle d'audit, la règle d'audit n'utilise pas automatiquement le nouveau nom. Vous devez redéfinir la règle avec le nouveau nom.
15.4.1.3 Règle d'audit
Une règle d'audit est une expression booléenne qui comporte un côté gauche, un opérateur booléen et un côté droit.
• Le côté gauche peut être une seule étiquette d'audit, plusieurs étiquettes d'audit qui forment une expression avec un ou plusieurs opérateur(s) mathématique(s), ou une fonction avec des étiquettes d'audit comme paramètres.
• Le côté droit peut être une seule étiquette d'audit, plusieurs étiquettes d'audit qui forment une expression avec un ou plusieurs opérateur(s) mathématique(s), une fonction avec des étiquettes d'audit comme paramètres, ou une constante.
Les expressions booléennes suivantes sont des exemples de règles d'audit :
$Count_CUSTOMER = $Count_CUSTDW
$Sum_ORDER_US + $Sum_ORDER_EUROPE = $Sum_ORDER_DW round($Avg_ORDER_TOTAL) >= 10000
15.4.1.4 Notification d'audit
365 2012-11-22
Evaluation des données
Vous pouvez choisir n'importe quelle combinaison parmi les actions suivantes pour la notification d'un
échec d'audit. Si vous sélectionnez les trois actions, le logiciel les exécute dans cet ordre :
• Liste d'adresse électronique : le logiciel envoie une notification à propos de la règle d'audit qui a
échoué aux adresses électroniques listées dans cette option. Utilisez une virgule pour séparer la liste des adresses électroniques.
Il est possible d'indiquer une variable pour la liste d'adresses électroniques.
Cette option doit utiliser la fonction smtp_to pour envoyer le courrier électronique. Par conséquent, vous devez définir le serveur et l'expéditeur pour le protocole SMTP dans le Gestionnaire de serveurs.
• Script : le logiciel exécute le script personnalisé que vous avez créé dans cette option.
• Lever une exception : le job échoue si une règle d'audit échoue, et le journal des erreurs indique quelle règle d'audit a échoué. Le job s'arrête dès que la première règle d'audit échoue. Cette action est celle par défaut.
Il est possible d'utiliser cette exception d'audit dans un bloc Try/Catch. Il est possible de continuer l'exécution du job dans un bloc Try/Catch.
Si vous effacez cette action et qu'une règle d'audit échoue, le job s'achève avec succès et l'audit n'envoie pas de messages au journal des erreurs. Il est possible de voir quelles règles ont échoué dans le rapport de Détails de l'audit dans l'outil de rapports de métadonnées.
Rubriques associées
•
Affichage des résultats d'audit
15.4.2 Accès à la fenêtre Audit
Accédez à la fenêtre "Audit" depuis l'un des emplacements suivants de Designer :
• Depuis l'onglet Flux de données de la bibliothèque d'objets, faites un clic droit sur le nom du flux de données et sélectionnez l'option Audit.
• Dans l'espace de travail, faites un clic droit sur l'icône du flux de données et sélectionnez l'option
Audit.
• Lorsqu'un flux de données est ouvert dans l'espace de travail, cliquez sur l'icône Audit dans la barre d'outils.
Lorsque vous accédez pour la première fois à la fenêtre "Audit", l'onglet Etiquette affiche les sources et les cibles dans le flux de données. Si le flux de données contient plusieurs transformations Query consécutives, la fenêtre "Audit" affiche la première requête.
Cliquez sur les icônes en haut à gauche de l'onglet Etiquette pour modifier l'affichage.
366 2012-11-22
Evaluation des données
Icône Astuce
Tout réduire
Afficher tous les objets
Afficher la source, la cible et la requête de premier niveau
Afficher les objets étiquetés
Description
Réduit les extensions des objets source, cible, et de transformation.
Affiche tous les objets du flux de données.
Affichage par défaut qui montre les objets source, cible et de requête de premier niveau dans le flux de données. Si le flux de données contient plusieurs transformations
Query consécutives, seule la requête de premier niveau s'affiche.
Affiche les objets qui ont des étiquettes d'audit définies.
15.4.3 Définition de points de vérification, de règles et des actions en cas d'échec.
1.
Accédez à la fenêtre "Audit".
2.
Définissez des points de vérification.
Sur l'onglet Etiquette, faites un clic droit sur l'objet que vous souhaitez vérifier et sélectionnez une fonction d'audit ou des propriétés.
Lorsque vous définissez un point de vérification, le logiciel génère les éléments suivants :
• Une icône d'audit sur l'objet dans le flux de données dans l'espace de travail
• Une étiquette d'audit utilisée pour définir les règles d'audit.
En plus de choisir une fonction d'audit, la fenêtre Propriétés permet de modifier l'étiquette d'audit et le type de données de la fonction d'audit.
Par exemple, le flux de données Case_DF dispose des objets ci-dessous, et vous souhaitez vérifier que toutes les lignes de source sont traitées par la transformation Case.
• Table source ODS_CUSTOMER
• Quatre tables cible :
R1 contient les lignes où ODS_CUSTOMER.REGION_ID = 1
367 2012-11-22
Evaluation des données
R2 contient les lignes où ODS_CUSTOMER.REGION_ID = 2
R3 contient les lignes où ODS_CUSTOMER.REGION_ID = 3
R123 contient les lignes où ODS_CUSTOMER.REGION_ID IN (1, 2 ou 3) a.
Faites un clic droit sur la table source ODS_CUSTOMER et sélectionnez Nombre.
Le logiciel crée les étiquettes d'audit $Count_ODS_CUSTOMER et
$CountError_ODS_CUSTOMER, et une icône d'audit apparaît sur l'objet source dans l'espace de travail.
368 b.
De la même façon, faites un clic droit sur chaque table cible et sélectionnez Nombre. La fenêtre
Audit affiche les étiquettes d'audit suivantes :
Table cible
ODS_CUSTOMER
R1
R2
R3
R123
Fonction d'audit
Nombre
Nombre
Nombre
Nombre
Nombre
Etiquette d'audit
$Count_ODS_CUSTOMER
$Count_ R1
$Count_ R2
$Count_ R3
$Count_ R123 c.
Si vous souhaitez supprimer une étiquette d'audit, faites un clic droit sur l'étiquette, et la fonction d'audit précédemment définie s'affiche avec une coche devant. Cliquez sur la fonction pour supprimer la coche et supprimez l'étiquette d'audit associée.
Lorsque vous faites un clic droit sur l'étiquette, vous pouvez également sélectionner Propriétés et sélectionner la valeur (Aucun audit) dans la liste déroulante Fonction d'audit.
3.
Définissez des règles d'audit. Sur l'onglet Règle dans la fenêtre "Audit", cliquez sur Ajouter, ce qui active l'éditeur d'expression de la section Règles d'audit.
Si vous souhaitez comparer les statistiques d'audit pour un objet par rapport à un autre, utilisez l'éditeur d'expression, qui comporte trois zones de texte avec des listes déroulantes :
2012-11-22
Evaluation des données
369 a.
Sélectionnez l'étiquette du premier point de vérification dans la première liste déroulante.
b.
Sélectionnez un opérateur booléen depuis la deuxième liste déroulante. Les options dans l'éditeur fournissent des opérateurs booléens courants. Si vous avez besoin d'un opérateur booléen qui ne se trouve pas dans cette liste, utilisez la zone d'expression personnalisée avec ses fonctions et éditeurs rapides pour saisir l'opérateur.
c.
Sélectionnez l'étiquette pour le second point de vérification depuis la troisième liste déroulante.
Si vous souhaitez comparer la première valeur d'audit à une constant plutôt qu'à une seconde valeur d'audit, utilisez la zone d'expression personnalisée.
Par exemple, pour vérifier que le nombre de lignes de la table source est égal à celui des lignes dans la table cible, sélectionnez les étiquettes d'audit et l'opération booléenne dans l'éditeur d'expression comme suit :
Si vous souhaitez comparer les statistiques d'audit pour un objet ou plus par rapport aux statistiques pour plusieurs autres objets ou constantes, sélectionnez la zone d'expression personnalisée.
a.
Cliquez sur le bouton d'ellipse pour ouvrir la fenêtre d'éditeur rapide en taille réelle.
b.
Cliquez sur l'onglet Variables sur la gauche et développez le nœud Etiquettes.
c.
Faites glisser la première étiquette d'audit de l'objet vers le volet de l'éditeur.
d.
Saisissez un opérateur booléen e.
Faites glisser les étiquettes d'audit des autres objets auxquels vous souhaitez comparer les statistiques d'audit du premier objet, et placez les opérateurs mathématiques appropriés entre eux.
f.
Cliquez sur OK pour fermer l'éditeur rapide.
g.
La règle d'audit s'affiche dans l'éditeur personnalisé. Pour mettre à jour la règle dans la zone supérieure Règle d'audit, cliquez sur le titre "Règle d'audit" ou sur une autre option.
h.
Cliquez sur Fermer dans la fenêtre Audit.
Par exemple, pour vérifier que le nombre de lignes de la table source est égal à la somme des lignes dans les trois premières tables cible, faites glisser les étiquettes d'audit et saisissez l'opération booléenne et des signes plus dans l'éditeur rapide comme suit :
Count_ODS_CUSTOMER = $Count_R1 + $Count_R2 + $Count_R3
4.
Définissez la mesure à prendre si l'audit échoue.
Il est possible de sélectionner une ou plusieurs mesures suivantes :
• Lever exception : le job échoue si une règle d'audit échoue, et le journal des erreurs indique quelle règle d'audit a échoué. Cette action est celle par défaut.
Si vous désactivez cette option et qu'une règle d'audit échoue, le job s'achève avec succès et l'audit n'envoie pas de messages au journal des erreurs. Il est possible de voir quelles règles ont échoué dans le rapport de Détails de l'audit dans l'outil de rapports de métadonnées.
• Liste d'adresse électronique : le logiciel envoie une notification à propos de la règle d'audit qui a échoué aux adresses électroniques listées dans cette option. Utilisez une virgule pour séparer la liste des adresses électroniques.
Il est possible d'indiquer une variable pour la liste d'adresses électroniques.
• Script : le logiciel exécute le script que vous avez créé dans cette option.
2012-11-22
Evaluation des données
5.
Exécutez le job.
La fenêtre "Propriétés d'exécution" a l'option Activer l'audit cochée par défaut. Décochez cette case si vous ne souhaitez pas collecter les statistiques d'audit pour cette exécution de job spécifique.
6.
Regardez les résultats d'audit.
Il est possible de voir les règles d'audit passées et ayant échoué dans les rapports de métadonnées.
Si vous activez le suivi d'audit dans l'onglet Suivi dans la fenêtre "Propriétés d'exécution", vous pouvez voir tous les résultats d'audit sur le journal de surveillance des jobs.
Rubriques associées
•
Audit d'objets dans un flux de données
•
Affichage des résultats d'audit
15.4.4 Indications pour sélectionner les points de vérification
Voici des indications pour sélectionner des points de vérification :
• Lorsque vous vérifiez les données de sortie d'un objet, l'optimiseur ne peut pas pousser vers le bas les opérations après le point de vérification. Par conséquent, si la performance d'une requête poussée vers le serveur de base de données est plus importante que de regrouper les statistiques d'audit de la source, définissez le premier point de vérification sur la requête ou plus tard dans le flux de données.
Par exemple, supposons que le flux de données dispose d'objets source, cible et de requête, et que la requête a une clause WHERE qui est poussée vers le serveur de base de données qui réduit de manière significative le total de données qui sont renvoyées au logiciel. Définissez le premier point de vérification sur la requête, plutôt que sur la source, pour obtenir des statistiques d'audit sur les résultats de la requête.
• Si une fonction pushdown_sql se trouve après le point de vérification, le logiciel ne peut pas l'exécuter.
• Il est uniquement possible de vérifier un chargement par lots qui utilise la méthode API d'Oracle.
Pour les autres méthodes de chargements par lots, le logiciel n'a pas accès au nombre de lignes chargées.
• L'audit est désactivé lorsque vous exécutez un job avec le débogueur.
• Il est impossible de vérifier des schèmes MLD ou des jobs en temps réel.
• Il est impossible d'auditer dans un flux de données ABAP, mais il est possible d'auditer la sortie d'un flux de données ABAP.
• Si vous utilisez la fonction d'audit CHECKSUM dans un job qui exécute normalement en parallèle, le logiciel désactive le DOP pour l'ensemble du flux de données. L'ordre des lignes est important pour le résultat du CHECKSUM, et le DOP traite les lignes dans un ordre différent que dans la source.
370 2012-11-22
Evaluation des données
15.4.5 Audit du flux de données intégré
Il est possible de définir des étiquettes d'audit et des règles d'audit dans un flux de données intégré.
Cette section décrit les considérations suivante lors de l'audit d'un flux de données intégré :
•
Activation d'audit dans un flux de données intégré
•
Points de vérification non visibles en dehors du flux de données intégré
15.4.5.1 Activation d'audit dans un flux de données intégré
Si vous souhaitez collecter les statistiques d'audit sur un flux de données intégré lors de l'exécution d'un flux de données parent, vous devez activer l'étiquette d'audit du flux de données intégré.
15.4.5.1.1 Activer l'audit dans un flux de données intégré
1.
Ouvrez le flux de données parent dans l'espace de travail de Designer
2.
Cliquez sur l'icône Audit dans la barre d'outils pour ouvrir la fenêtre Audit.
3.
Sur l'onglet Etiquette, développez les objets pour afficher les fonctions d'audit définies dans le flux de données intégré. Si un flux de données est intégré au début ou à la fin du flux de données parent, une fonction d'audit peut exister sur le port de sortie ou sur le port d'entrée.
4.
Faites un clic droit sur le nom de la fonction Audit et sélectionnez Activer. Vous pouvez également sélectionner Propriétés pour modifier le nom de l'étiquette et l'activer.
5.
Il est également possible de définir des règles d'audit avec l'étiquette activée.
15.4.5.2 Points de vérification non visibles en dehors du flux de données intégré
Lorsque vous intégrez un flux de données au début d'un autre flux de données, les données sont transmises du flux de données intégré au flux de données parent par une seule source. Lorsque vous intégrez un flux de données à la fin d'un autre flux de données, les données sont transmises du flux de données parent au flux de données intégré par une seule cible. Dans les deux cas, certains objets ne sont pas visibles dans le flux de données parent.
Parce que certains objets ne sont pas visibles dans le flux de données parent, les points de vérification sur ces objets ne sont pas non plus visibles dans le flux de données parent. Par exemple, le flux de données intégré suivant dispose d'une fonction d'audit définie dans la transformation SQL source et d'une fonction d'audit définie dans la table cible.
371 2012-11-22
Evaluation des données
La fenêtre Audit ci-dessous affiche ces deux points de vérification.
372
Lorsque vous intégrez ce flux de données, la sortie cible devient une source pour le flux de données parent et la transformation SQL n'est plus visible.
Un point de vérification existe toujours pour l'ensemble du flux de données intégré, mais l'étiquette n'est plus applicable. La fenêtre Audit ci-dessous pour le flux de données parent affiche la fonction d'audit définie dans le flux de données intégré, mais n'affiche aucune étiquette d'audit.
2012-11-22
Evaluation des données
Si vous souhaitez vérifier le flux de données intégré, faites un clic droit sur la fonction d'audit dans la fenêtre Audit et sélectionnez Activer.
15.4.6 Résolution des étiquettes d'audit non valides
Une étiquette d'audit peut devenir non valide dans les situations suivantes :
• Si vous supprimez l'étiquette d'audit dans un flux de données intégré activé par un flux de données parent.
• Si vous supprimez ou renommez un objet dans lequel un point de vérification était défini.
15.4.6.1 Résoudre des étiquettes d'audit non valides
1.
Ouvrez la fenêtre Audit.
2.
Développez le nœud Etiquettes non valides pour afficher les étiquettes.
3.
Notez les étiquettes que vous souhaitez définir sur n'importe quel nouvel objet dans le flux de données.
4.
Après avoir défini une étiquette d'audit correspondante sur un nouvel objet, faites un clic droit sur l'étiquette non valide et sélectionnez Supprimer.
5.
Si vous souhaitez supprimer toutes les étiquettes non valides en même temps, faites un clic droit sur le nœud Etiquettes non valides et cliquez sur Tout supprimer.
15.4.7 Affichage des résultats d'audit
Il est possible de voir le statut de l'audit à l'un des endroits suivants :
• Journal de surveillance des jobs
• Si la règle d'audit échoue, les endroits qui affichent l'information d'audit dépendent de l'option Action
en cas d'échec que vous avez sélectionnée :
Action en cas d'échec
Lever une exception
Endroits où il est possible d'afficher les informations d'audit
Journal des erreurs des jobs, rapports de métadonnées
373 2012-11-22
Evaluation des données
Action en cas d'échec
Liste d'adresse électronique
Script
Rubriques associées
•
Journal de surveillance des jobs
•
•
Endroits où il est possible d'afficher les informations d'audit
Message électronique, rapports de métadonnées
Tous les endroits où le script personnalisé envoie les messages d'audit, rapports de métadonnées
15.4.7.1 Journal de surveillance des jobs
Si vous définissez Effectuer le suivi des données d'audit sur Oui dans l'onglet Suivi de la fenêtre
Propriétés d'exécution, des messages d'audit apparaissent dans le journal de surveillance des jobs. Il est possible de voir des messages pour les règles d'audit qui sont passées et ont échoué.
Les exemples de messages de réussite d'audit suivants apparaissent dans le journal de surveillance des jobs lorsque le Suivi d'audit est défini sur Oui :
Audit Label $Count_R2 = 4. Data flow <Case_DF>.
Audit Label $CountError_R2 = 0. Data flow <Case_DF>.
Audit Label $Count_R3 = 3. Data flow <Case_DF>.
Audit Label $CountError_R3 = 0. Data flow <Case_DF>.
Audit Label $Count_R123 = 12. Data flow <Case_DF>.
Audit Label $CountError_R123 = 0. Data flow <Case_DF>.
Audit Label $Count_R1 = 5. Data flow <Case_DF>.
Audit Label $CountError_R1 = 0. Data flow <Case_DF>.
Audit Label $Count_ODS_CUSTOMER = 12. Data flow <Case_DF>.
Audit Label $CountError_ODS_CUSTOMER = 0. Data flow <Case_DF>.
Audit Rule passed ($Count_ODS_CUSTOMER = (($CountR1 + $CountR2 + $Count_R3)): LHS=12, RHS=12. Data flow
<Case_DF>.
Audit Rule passed ($Count_ODS_CUSTOMER = $CountR123): LHS=12, RHS=12. Data flow <Case_DF>.
15.4.7.2 Journal des erreurs des jobs
374 2012-11-22
Evaluation des données
Lorsque vous sélectionnez l'option Lever une exception et que la règle d'audit échoue, le journal des erreurs des jobs affiche la règle qui a échoué. Les exemples de messages suivants apparaissent dans le journal des erreurs des jobs :
Audit rule failed <($Count_ODS_CUSTOMER = $CountR1)> for <Data flow Case_DF>.
15.4.7.3 Rapports de métadonnées
Il est possible de voir la colonne Audit Status dans les rapports Statistiques d'exécution du flux de données de l'outil de rapport de métadonnées. Cette colonne Audit Status contient les valeurs suivantes :
• Non audité
• Réussite : toutes les règles d'audit ont réussi. Cette valeur est un lien avec le rapport Détails de l'audit qui affiche les règles d'audit et les valeurs des étiquettes d'audit.
• Informations collectées : ce statut apparait lorsque vous définissez des étiquettes d'audit pour collecter des statistiques, mais que vous ne définissez pas de règles d'audit. Cette valeur est un lien avec le rapport Détails de l'audit qui affiche les valeurs des étiquettes d'audit.
• Echec : la règle d'audit a échoué Cette valeur est un lien avec le rapport Détails de l'audit qui affiche la règle d'audit qui a échoué et les valeurs des étiquettes d'audit.
Rubriques associées
• Guide Management Console Guide : rapports de tableaux de bords opérationnels
375 2012-11-22
Evaluation des données
376 2012-11-22
Qualité des données
Qualité des données
16.1 Présentation de la qualité des données
Qualité des données est un terme qui fait référence à l'ensemble de transformations qui fonctionnent ensemble pour améliorer la qualité des données en nettoyant, améliorant, faisant correspondre et consolidant les éléments de données.
La qualité des données est principalement obtenue dans le progiciel à l'aide de quatre transformations :
• Address Cleanse. Analyse, standardise, corrige et améliore les données d'adresses.
• Data Cleanse. Analyse, standardise, corrige et améliore les données clients et opérationnelles.
• Geocoding. Utilise des données de coordonnées géographiques, d'adresses, de points d'intérêt pour ajouter adresse, latitude et longitude, recensement et autres informations à vos enregistrements.
• Match. Identifie les enregistrements doublons à plusieurs niveaux lors d'un seul transfert des individus, des membres ou des organisations dans plusieurs tables ou bases de données et les consolide en une source unique.
Rubriques associées
•
•
A propos du nettoyage de données
•
•
16.2 Data Cleanse
16.2.1 A propos du nettoyage de données
Le nettoyage de données désigne le processus d'analyse et de standardisation des données.
377 2012-11-22
Qualité des données
Les règles d'analyse et autres informations qui définissent le mode d'analyse et de standardisation sont stockées dans un package de nettoyage des données. Le Cleansing Package Builder de SAP
BusinessObjects Information Steward fournit une interface utilisateur graphique permettant de créer et d'affiner les packages de nettoyage des données. Pour respecter vos besoins et standards spécifiques en matière de nettoyage des données, il est possible de créer un package de nettoyage des données en partant de zéro d'après un exemple de données ou bien d'en adapter un existant ou fourni par SAP.
Un package de nettoyage des données est créé et publié dans le Cleansing Package Builder, puis référencé par la transformation Data Cleanse dans SAP BusinessObjects Data Services à des fins de tests et de déploiement de la production.
Dans un workflow de Data Services, la transformation Data Cleanse identifie et isole des parties spécifiques de différentes données, puis les analyse et les met en forme selon le package de nettoyage des données référencé ainsi que les options définies directement dans la transformation.
Le diagramme suivant illustre comment SAP BusinessObjects Data Services et SAP BusinessObjects
Information Steward travaillent ensemble pour permettre de développer un package de nettoyage des données spécifique à vos besoins en matière de données et de l'appliquer lors du nettoyage de vos données.
16.2.2 Cycle de vie du package de nettoyage des données : développement, déploiement et gestion
Le processus de développement, de déploiement et de gestion d'un package de nettoyage des données est le résultat d'actions et de communications entre l'administrateur de Data Services, le testeur de
Data Services et l'administrateur de données du Générateur de packages de nettoyage. Les rôles, responsabilités et titres exacts varient selon les organisations, mais comprennent souvent ce qui suit :
378 2012-11-22
Qualité des données
Rôle
Administrateur de données du Générateur de packages de nettoyage des données
Responsabilité
Utilise le Générateur de packages de nettoyage et possède des connaissances en matière de domaines pour développer et affiner un package de nettoyage des données spécifique à un domaine de données.
Testeur de Data Services
Administrateur Data Services
Dans un environnement de test de Data Services, utilise la transformation
Data Services pour nettoyer les données et vérifier les résultats. Travaille avec l'administrateur de données du Générateur de packages de nettoyage de données pour affiner un package de nettoyage des données.
Dans un environnement de production Data Services, utilise la transformation Data Cleanse pour nettoyer les données selon les règles et les standards définis dans le package de nettoyage des données sélectionné.
Il existe habituellement trois phases itératives dans un workflow de package de nettoyage des données : développement (création et test), déploiement et gestion.
Durant la phase de création et de test, l'administrateur de données crée un package de nettoyage des données personnalisé d'après un exemple de données fourni par l'administrateur de Data Services, puis travaille avec le testeur de Data Services pour affiner le package de nettoyage des données.
Quand tout un chacun est satisfait des résultats, le package de nettoyage des données est déployé en production.
Durant la phase de déploiement, l'administrateur, le testeur et l'administrateur de données de Data
Services travaillent ensemble pour affiner encore le package de nettoyage des données afin que les données de production soient nettoyées en respectant la plage acceptable établie.
Pour terminer, le package de nettoyage des données passe en phase de gestion et mis à jour uniquement si les résultats des jobs planifiés régulièrement ne respectent pas la plage ou lorsque de nouvelles données sont introduites.
Un workflow classique est illustré par le diagramme ci-dessous :
379 2012-11-22
Qualité des données
380
Pour en savoir plus sur le processus de déplacement d'un package de nettoyage des données du développement vers la production et vers la maintenance, voir le
Guide d'administration SAP
BusinessObjects Information Steward.
Pour en savoir plus sur l'utilisation de l'outil de gestion des promotions de la Central Management
Console (CMC) pour déplacer des packages de nettoyage des données (ce qui est désigné sous le terme de promotion d'“objets” ou d'“InfoObjects”), voir le
Guide d'administration de la plateforme Business
Intelligence.
2012-11-22
Qualité des données
16.2.3 Configuration de la transformation Data Cleanse
Les conditions préalables pour la configuration de la transformation Data Cleanse incluent :
• L'accès aux packages de nettoyages des données nécessaires.
• L'accès au fichier ATL transféré à partir du générateur de packages de nettoyage des données.
• Les informations sur le mappage du champ d'entrée et de l'attribut (champ de sortie) pour les règles de correspondance des modèles définis par l'utilisateur définies dans l'onglet Données de référence de Cleansing Package Builder.
Configurer la transformation Data Cleanse :
1.
Importez le fichier ATL transféré à partir du générateur de packages de nettoyage des données.
L'importation du fichier ATL apporte les informations requises et définissez automatiquement les options suivantes :
• Package de nettoyage des données
• Champ de sortie de filtre
• Séparateur de mots dans l'entrée
• Configuration de l'analyseur
Remarque :
Il est possible d'installer et d'utiliser le package de nettoyage des données personnelles et professionnelles fourni par SAP sans modification directement dans Data Services. Pour ce faire, sautez l'étape 1 et définissez manuellement les options requises dans la transformation Data Cleanse.
2.
Dans le schéma d'entrée, sélectionnez les champs d'entrée que vous souhaitez mapper et faites les glisser vers les champs appropriés dans l'onglet Entrée
• Les données de nom et de société peuvent être mappées vers des champs discrets ou des champs multilignes.
• Les données personnalisées doivent être mappées vers des champs multilignes.
• Les données de téléphone, date, courrier électronique, numéro de sécurité sociale et de modèle défini par l'utilisateur peuvent être mappées vers des champs discrets ou des champs multilignes.
L'analyseur correspondant doit être activé.
3.
Dans l'onglet Options , sélectionnez les valeurs d'option appropriées pour déterminer la manière dont Data Cleanse doit traiter les données.
Si vous modifiez la valeur par défaut d'une valeur d'option, un triangle vert apparait à côté du nom de l'option pour indiquer que la valeur a été modifiée.
Le fichier ATL que vous avez importé à l'étape 1 définit certaines options en fonction des informations contenues dans le package de nettoyage des données.
4.
Dans l'onglet Sortie, sélectionnez les champs que vous souhaitez sortir de la transformation. Dans le Cleansing Package Builder, les champs de sortie sont appelés attributs.
Assurez-vous d'avoir mappé tous les attributs (champs de sortie) définis dans les modèles définis par l'utilisateur dans les données de référence de Cleansing Package Builder.
381 2012-11-22
Qualité des données
Rubriques associées
•
Configurations de transformation
•
Editeurs de transformation Qualité des données
•
Ajout d'une transformation de qualité des données à un flux de données
16.2.4 Classement et définition de priorité des moteurs d'analyse
Pour les entrées multilignes, il est possible de configurer la transformation Data Cleanse pour utiliser uniquement des analyseurs spécifiques et pour indiquer l'ordre dans lequel ils sont exécutés. Le fait de sélectionner soigneusement les analyseurs à utiliser et dans quel ordre peut être bénéfique. Le fait d'éteindre les analyseurs dont vous n'avez pas besoin améliore significativement la vitesse d'analyse et réduit les chances que les données soient mal analysées.
Il est possible de modifier l'ordre des analyseurs pour une entrée multiligne spécifique en modifiant l'option de séquence d'analyseur correspondante dans le groupe des options Configuration_Analyseur de la transformation Data Cleanse. Par exemple, pour modifier l'ordre des analyseurs pour le champ d'entrée Multiligne1, modifiez l'option Sequence_analyseur_Multiligne1.
Pour modifier les analyseurs sélectionnés ou l'ordre des analyseurs, sélectionnez une séquence d'analyseur, cliquez sur OK sur le message puis utilisez la fenêtre "Options classées" pour effectuer les modifications.
Rubriques associées
•
16.2.5 Données d'analyse
La transformation Data Cleanse peut identifier et isoler une large variété de données. Dans la transformation Data Cleanse, vous mappez les champs d'entrée des données aux champs d'entrée appropriés dans la transformation. Les données personnalisées contenant des données opérationnelles ou de produit sont toujours mappées aux champs multilignes. Les données personnelles et professionnelles, les données de téléphone, adresse électronique, date et numéro de sécurité sociale peuvent être mappées aux champs d'entrée ou aux champs d'entrée multilignes.
L'exemple ci-dessous indique la manière dont Data Cleanse analyse les données de produit à partir d'un champ d'entrée multiligne et les affiche dans les champs de sortie discrets. Les données peuvent
également être affichées dans des champs composites, tels que “Description standard”, qui peuvent
être personnalisés dans le Générateur de packages de nettoyage des données pour répondre à vos besoins.
382 2012-11-22
Qualité des données
Données d'entrée
Gant ultra grip profit 2.3 grand noir cuir synthétique élastique avec Velcro
Mechanix Wear
Données analysées
Catégorie du produit
Taille
Matière
Marque déposée
Style de poignet
Type de la paume
Couleur
Fournisseur
Description standard
Gant
Grand
Cuir synthétique
Pro-Fit 2.3 Series
Velcro élastique
Ultra-Grip
Noir
Mechanix Wear
Gant - cuir synthétique, noir, taille : grand, Style de poignet :
Velcro élastique, Ultra-Grip,
Mechanix Wear.
L'exemple ci-dessous indique la manière dont Data Cleanse analyse les données de nom et de société, et les affiche dans les champs de sortie discrets. Les données peuvent également être affichées dans des champs composites qui peuvent être personnalisés dans le Générateur de packages de nettoyage des données pour répondre à vos besoins.
Données d'entrée Données analysées
Titre de civilité
M. Dan R. Smith, Jr., Responsable des comptes, expertcomptable agréé. Jones Inc.
Prénom 1
Prénom 2
Nom de famille
Titre de maturité
Titre honorifique
Fonction
Société
M.
Dan
R.
Smith
Jr.
Expert-comptable agréé
Responsable des comptes
Jones, Inc.
383 2012-11-22
Qualité des données
Données d'entrée
James Witt 421-55-2424 jwitt@rdrindustries.com 507-
555-3423 20 Aout 2003
Données analysées
Prénom 1
Nom de famille
Sécurité sociale
Adresse électronique
Téléphone
Date
James
Witt
421-55-2424 jwitt@rdrindustries.com
507.555.3423
20 août 2003
La transformation Data Cleanse analyse jusqu'à 6 noms par enregistrement, 2 par champ d'entrée.
Pour les six noms trouvés, elle analyse les composants tels que le titre de civilité, les prénoms, le nom de famille et le suffixe du nom. Elle envoie ensuite les données vers les champs individuels La transformation Data Cleanse analyse également jusqu'à 6 titres par enregistrement.
La transformation Data Cleanse analyse jusqu'à 6 noms de société par enregistrement,1 par champ d'entrée.
16.2.5.1 Analyse des numéros de téléphone
Data Cleanse peut analyser le plan de numérotation nord-américain (NANP) et les numéros de téléphone internationaux. Lorsque Data Cleanse analyse un numéro de téléphone, il édite les composants individuels du numéro dans les champs appropriés.
Les systèmes de numérotation téléphonique sont différents à travers le monde. Data Cleanse reconnait les numéros de téléphone par leur modèle et également par leur indicatif du pays (pour les numéros hors NANP).
Data Cleanse recherche les numéros de téléphone d'Amérique du Nord à l'aide de modèles communément utilisés, tels que (234) 567-8901, 234-567-8901 et 2345678901. Data Cleanse donne la possibilité de modifier le format à la sortie (choix du séparateur, par exemple).
Data Cleanse recherche les numéros de téléphone non nord-américains par modèle. Les modèles utilisés sont indiqués dans le générateur de packages de nettoyage des données dans l'onglet Données
de référence. L'indicatif du pays doit apparaitre au début du numéro. Data Cleanse n'offre pas la possibilité de modifier le format des numéros de téléphone internationaux. De plus, Data Cleanse n'effectue pas une comparaison croisée avec les adresses pour voir si les indicatifs du pays et de la ville du numéro de téléphone correspondent à l'adresse.
Rubriques associées
•
384 2012-11-22
Qualité des données
16.2.5.2 Analyse des dates
Data Cleanse reconnait les dates dans de nombreux formats et les décompose en composants.
Data Cleanse peut analyser jusqu'à six dates de l'enregistrement défini. C'est-à-dire que Data Cleanse identifie jusqu'à six dates à l'entrée, les décompose dans des composants, et les rend disponibles en sortie, soit dans le format d'origine, soit dans le format standard sélectionné par l'utilisateur.
Rubriques associées
•
385
16.2.5.3 Analyse des numéros de sécurité sociale des Etats-Unis
Data Cleanse analyse les numéros de sécurité sociale des Etats-Unis qui sont seuls ou sur une ligne d'entrée entourés d'un autre texte.
Champs utilisés
Data Cleanse édite chaque composant d'un numéro de sécurité sociale analysé, c'est-à-dire l'ensemble du numéro, la zone, le groupe et la série.
Comment Data Cleanse analyse les numéros de sécurité sociale.
Data Cleanse analyse les numéros de sécurité sociale selon les étapes suivantes :
1.
Il identifie un numéro de sécurité sociale potentiel en regardant les modèles suivants :
Modèle
nnnnnnnnn nnn nn nnnn nnn-nn-nnnn
Chiffres par groupe
9 chiffres consécutifs
3, 2 et 4 (pour zone, groupe et série)
3, 2 et 4 (pour zone, groupe et série)
Délimité par
non applicable espaces
Tous les séparateurs pris en charge
2.
Il effectue un contrôle de validité sur les cinq premiers chiffres uniquement. Les résultats possibles de ce contrôle de validité sont :
Résultat Description
Réussite
Data Cleanse a analysé les données et le numéro de sécurité sociale est édit dans un champ de sortie de numéro de sécurité sociale.
2012-11-22
Qualité des données
Résultat
Echoué
Description
Data Cleanse n'a pas analysé les données parce qu'il ne s'agit pas d'un numéro de sécurité sociale tel que défini par le gouvernement américain. Les données sont sorties comme des données supplémentaires, non analysées.
Contrôle de la validité
Lors d'un contrôle de validité, Data Cleanse ne vérifie pas qu'un numéro de sécurité sociale à 9 chiffres particulier soit émis, ou qu'il s'agisse du bon numéro pour la personne nommée. Il valide à la place les
5 premiers chiffres (zone et groupe). Data Cleanse ne valide pas les 4 derniers chiffres (série), sauf pour confirmer que ce sont des chiffres.
Données des Administrations de sécurité sociale
Data Cleanse valide les cinq premiers chiffres en fonction d'une table de l'Administration de la Sécurité
Sociale ( http://www.socialsecurity.gov/employer/ssns/HGJune2411_final.txt
). Les règles et les données qui guident ce contrôle sont disponibles sur http://www.ssa.gov/history/ssn/geocard.html
. Les informations sur le numéro de sécurité sociale référencées par Data Cleanse sont inclues dans le package de nettoyage des données.
Sorties de numéros de sécurité sociale valides
Data Cleanse sort uniquement les numéros de sécurité sociale qui ont réussi la validation. Si un numéro de sécurité sociale apparent échoue la validation, Data Cleanse ne transmet pas le numéro comme un numéro de sécurité sociale analysé, mais comme un numéro non valide.
Rubriques associées
• Guide de référence : transformations, champs de sortie Data Cleanse
386
16.2.5.4 Analyse des adresses électroniques
Lorsque Data Cleanse analyse des données d'entrée qu'il détermine être une adresse électronique, il place les composants de ces données dans des champs spécifiques pour la sortie. Ci-dessous se trouve un exemple d'une adresse électronique simple : joex@sap.com
En identifiant les différents composants des données (nom d'utilisateur, hôte, etc.) par leur relation entre eux, Data Cleanse peut affecter les données à des attributs spécifiques (champs de sortie).
Champs de sortie utilisés par Data Cleanse
Data Cleanse édite les composants individuels d'une adresse électronique analysée, c'est-à-dire le nom d'utilisateur du courrier électronique, le nom de domaine complet, le domaine principal, le deuxième domaine, le troisième domaine, le quatrième domaine, le cinquième domaine et le nom de l'hôte.
2012-11-22
Qualité des données
Ce que fait Data Cleanse
Data Cleanse peut exécuter les actions suivantes :
• Analyser une adresse électronique située dans un champ discret ou combinée avec d'autres données dans un champ multiligne.
• Répartir le nom du domaine dans ses sous-éléments.
• Vérifier que l'adresse électronique se trouve dans le bon format.
• Indiquer que l'adresse inclut un fournisseur d'accès à internet (FAI) ou un nom de domaine de courrier électronique référencé dans le type de courrier électronique des données de référence dans
Data Cleanse. Cet indicateur est affiché dans le champ de sortie Email_is_ISP.
Ce que Data Cleanse ne vérifie pas
Plusieurs aspects d'une adresse électronique ne sont pas vérifiés par Data Cleanse. Data Cleanse ne vérifie pas :
• si le nom du domaine (la partie à droite du signe @) est enregistré.
• si un serveur de courrier électronique est activé à cette adresse.
• si le nom d'utilisateur (la partie à gauche du signe @) est enregistré sur ce serveur de courrier
électronique (le cas échéant).
• si le nom personnel dans l'enregistrement peut être atteint à cette adresse électronique.
Composants d'adresse électronique
Le champ de sortie dans lequel Data Cleanse place les données dépend de la position des données dans l'enregistrement. Data Cleanse suit le système de nom de domaine (DNS) pour déterminer le bon champ de sortie.
Par exemple, si expat@london.home.office.city.co.uk correspondait à des données d'entrée,
Data Cleanse éditerait les éléments dans les champs suivants :
Champs de sortie
Adresse électronique
Utilisateur_Email
Domaine_Messagerie_Complet
Domaine_Messagerie_Principal
Domaine_Messagerie_Deuxième
Domaine_Messagerie_Troisième
Domaine_Messagerie_Quatrième
Domaine_Messagerie_Cinquième
Domaine_Messagerie_Hôte
Valeur de sortie
expat@london.home.office.city.co.uk
expat london.home.office.city.co.uk
uk co city office home london
387 2012-11-22
Qualité des données
Rubriques associées
•
16.2.5.5 Analyse des modèles définis par l'utilisateur
Data Cleanse peut analyser les modèles trouvés dans une grande variété de données telles que :
• numéros de compte
• numéros de référence
• bons de commande
• numéros de facture
• NIV (numéro d'identification du véhicule)
• numéros du permis de conduire
Autrement dit, Data Cleanse peut analyser toutes les séquences alphanumériques pour lesquelles vous pouvez définir un modèle.
L'analyseur UDPM (correspondance des modèles définis par l'utilisateur) recherche le modèle dans chaque champ complet.
Les modèles sont définis à l'aide d'expressions régulières dans l'onglet Données de référence du générateur de packages de nettoyage des données. Faîtes un contrôle avec le propriétaire du package de nettoyage des données pour déterminer tout mappage requis pour les champs d'entrée et les champs de sortie (attributs).
16.2.5.6 Analyse des noms et numéros de rue
Data Cleanse n'identifie et n'analyse pas les composants individuels d'adresses. Pour analyser les données qui contiennent des informations d'adresse, traitez-les avec les transformations Global Address
Cleanse ou U.S. Regulatory Address Cleanse avant Data Cleanse. Si les données d'adresse sont traitées par la transformation Data Cleanse, elles sont généralement éditées dans les champs
"Supplément".
Rubriques associées
•
Fonctionnement d'Address Cleanse
388 2012-11-22
Qualité des données
389
16.2.5.7 A propos de l'analyse des données de société
Data Cleanse peut analyser des données de société.
Data Cleanse accepte ces noms de société seuls dans un champ ou avec d'autres données.
Une exception sur la manière dont Data Cleanserecombine les parties de mot contigües est faite pour les mots qui se terminent par un “S”, tels que Applebee's ou Macy's. Une chaîne d'entrée “Macy's” est divisée en trois jetons : MACY, ', s. Puisque le dernier jeton est un “S”, Data Cleanse combine d'abord les jetons et recherche le terme comprenant l'apostrophe (MACY'S). Si le terme n'est pas trouvé, Data
Cleanse recherche le terme sans l'apostrophe (MACYS). Si cette opération échoue, Data Cleanse laisse automatiquement les jetons ensemble (MACY'S) et ajoute la classification
FIRM_MISCELLANEOUS au terme. Puisque les mots terminant par “S” restent automatiquement ensemble, il n'est pas nécessaire d'ajouter au dictionnaire tous les noms de société comportant la marque du possessif.
16.2.5.8 A propos de l'analyse des données de nom et de titre
Data Cleanse peut analyser les données de nom et de titre.
Le nom d'une personne peut comprendre les parties suivantes : titre de civilité, prénoms, noms de famille, suffixes du nom, etc.
Data Cleanse peut accepter jusqu'à deux noms et titres comme composants discrets. Data Cleanse accepte également les données de nom et de titre avec d'autres données ou seules dans un champ.
La ligne du nom ou le champ multiligne peut contenir un ou deux noms par champ.
16.2.5.9 A propos du mappage un par un
Le mappage un par un est une option de la transformation Data Cleanse qui contrôle la manière dont plusieurs analyseurs éditent les données.
L'option Mappage un par un est disponible pour ces analyseurs :
• Date
• Courrier électronique
• Téléphone
2012-11-22
Qualité des données
Si l'option est définie sur Oui, la transformation Data Cleanse édite les données analysées de certains champs d'entrée discrets vers leurs champs de sortie correspondants. Les champs de sortie sont
“réservés” pour les analyses réalisées à partir de certains champs d'entrée discrets. Cette option affiche plus clairement le mappage du champ d'entrée qui contenait les données d'origine d'après les données analysées dans le champ de sortie. Par exemple, si les données d'entrée de Téléphone1 à Téléphone5
étaient vides et que le champ Téléphone6 contenait des données, à la sortie, les champs Téléphone1
à Téléphone5 sont toujours vides et Téléphone6 contient les données analysées.
Lorsque l'option Mappage un par un est définie sur Oui, tous les analyseurs qui utilisent cette option sont définis sur Oui. Par exemple, il est impossible d'activer l'option Mappage un par un uniquement pour l'analyseur de téléphone.
Si l'option Mappage un par un est définie sur Non, la transformation Data Cleanse analyse et édite les données dans l'ordre où elles sont entrées dans l'analyseur. Les données ne sont pas nécessairement envoyées vers le même champ que celui auquel elles étaient mappées à la sortie. Les données sont
éditées dans le premier champ disponible de la catégorie.
Remarque :
Les exemples de cette section illustrent les champs Date. Les mêmes exemples s'appliquent aussi aux champs Téléphone et Adresse électronique.
Exemple :
Cha mp
Date1
Données d'entrée
Données de sortie lorsque l'option est Non
<vide> 01/01/1968
Date2
Date3
Date4
Date5
Date6
01/01/1968
02/02/1968
<vide>
03/03/1968
04/04/1968
02/02/1968
03/03/1968
04/04/1968
<vide>
<vide>
Données de sortie lorsque l'option estOui
<vide>
01/01/1968
02/02/1968
<vide>
03/03/1968
04/04/1968
Champs multilignes
Les champs discrets Date, Adresse électronique et Téléphone sont analysés avant les champs multilignes afin que tous les champs non réservés puissent contenir des données des champs multilignes.
Exemple :
Cha mp
Données d'entrée
Date1 <vide>
Données de sortie lorsque l'option est Non
01/01/1968
Données de sortie lorsque l'option estOui
<vide>
390 2012-11-22
Qualité des données
Cha mp
Données d'entrée
Date2 01/01/1968
Date3 <vide>
Date4 02/02/1968
Date5 <vide>
Données de sortie lorsque l'option est Non
02/02/1968
03/03/1968
04/04/1968
<vide>
Date6 <vide>
Multi ligne1
03/03/1968
04/04/1968
<vide>
<vide>
Données de sortie lorsque l'option estOui
01/01/1968
<vide>
02/02/1968
03/03/1968 (non réservé, l'entrée multiligne peut être ajoutée ici)
04/04/1968 (non réservé, l'entrée multiligne peut être ajoutée ici)
<vide>
Champs Supplément
Quand l'option Mappage un par un est définie sur Oui et que le champ d'entrée contient plusieurs jeux de données, seul le premier jeu de données est placé dans le champ de sortie correspondant.
Tous les autres jeux de données sont placés dans le champ Supplément.
Exemple :
Champ
Données d'entrée
Date1
01/01/1968
02/02/1968
03/03/1968
04/04/1968
05/05/1968
06/06/1968
07/07/1968
08/08/1968
<vide> Date2
Date3
Date4
Date5
Date6
<vide>
<vide>
<vide>
<vide>
Données de sortie lorsque l'option est Non
Données de sortie lorsque l'option estOui
01/01/1968
02/02/1968
03/03/1968
04/04/1968
05/05/1968
06/06/1968
01/01/1968
<vide>
<vide>
<vide>
<vide>
<vide>
391 2012-11-22
Qualité des données
Champ
Données d'entrée
Supplé ment
<vide>
Données de sortie lorsque l'option est Non
Données de sortie lorsque l'option estOui
07/07/1968 08/08/1968
02/02/1968 03/03/1968 04/04/1968
05/05/1968 06/06/1968 07/07/1968
08/08/1968
Rubriques associées
•
•
Analyse des adresses électroniques
•
Analyse des numéros de téléphone
16.2.6 A propos de la normalisation des données
Les formes standard des variantes individuelles sont définies dans un package de nettoyage des données à l'aide du générateur de packages de nettoyage des données. De plus, la transformation
Data Cleanse peut normaliser les données pour que leur format soit plus cohérent. Les caractéristiques de données pouvant être normalisées par la transformation incluent la case, la ponctuation et les abréviations.
16.2.7 Affectation de descriptions de sexes et de titres de civilité.
Chaque variante dans un package de nettoyage des données a un sexe qui lui ait associée. Par défaut, le sexe est “non affecté”. Il est possible d'affecter un sexe à la variante dans le mode Avancé du
Générateur de packages de nettoyage des données. Les descriptions de sexe sont : masculin - fort, féminin - fort, masculin - faible, féminin - faible et ambigu.
Les variantes dans le package de nettoyage des données personnelles et professionnelles fourni par
SAP ont été affectées d'un sexe.
Il est possible d'utiliser la transformation Data Cleanse pour sortir le sexe associé à la variante dans le champ de sortie GENDER.
Le champ de sortie Titre de civilité inclut toujours des titres de civilité qui font partie des données d'entrée de nom. De plus, lorsque l'option Affecter des titres de civilités est définie sur Oui, Data Cleanse renseigne le champ de sortie PRENAME lorsqu'un sexe de type "Masculin - probabilité élevée" ou
"Féminin - probabilité élevée" est affecté à la variante.
392 2012-11-22
Qualité des données
Noms doubles
Lorsque les noms doubles sont analysés, Data Cleanse propose quatre descriptions de sexe supplémentaires : multi-nom féminin, multi-nom masculin, multi-nom mixte et multi-nom ambigu. Ces sexes sont générés avec Data Cleanse en fonction des sexes affectés aux deux noms. La table ci-dessous affiche la manière dont les sexes multi-noms sont affectés :
Nom double
Sexe du premier nom
Sexe du deuxième nom
Sexe affecté pour nom double
Bob et Sue Jones
Bob et Tom Jones
Sue et Sara Jones
Bob et Pat Jones masculin fort masculin fort féminin fort masculin fort féminin fort masculin fort féminin fort
Ambigu multi-nom mixte
Multi-nom masculins
Multi-nom féminins
Multi-nom ambigu
Prénoms chinois et japonais
Lorsqu'un prénom a été analysé comme le résultat des règles qui combinent intelligemment les caractères du prénom plutôt que d'inclure le nom donné comme une variante dans le package de nettoyage des données, Data Cleanse génère le sexe en combinant le sexe des caractères individuels qui constituent le prénom à l'aide de la table ci-dessous.
Féminin fort
Ambigu
Féminin fort
Masculin fort
Féminin faible
Ambigu féminin fort
Masculin faible
féminin fort
Ambigu féminin fort
Masculin fort
Ambigu masculin fort
Ambigu
Féminin faible
féminin fort
Ambigu
Féminin faible masculin fort masculin fort
Ambigu
Féminin faible
Masculin faible
Ambigu masculin fort
Ambigu
Masculin faible
Masculin faible
Ambigu
féminin fort masculin fort
Féminin faible
Masculin faible
Ambigu
16.2.8 Préparation d'enregistrements pour correspondance
Si vous planifiez un flux de données qui inclut une correspondance, il est recommandé d'utiliser d'abord
Data Cleanse pour normaliser les données afin d'améliorer la précision des correspondances. La transformation Data Cleanse doit être en amont de la transformation Match.
393 2012-11-22
Qualité des données
La transformation Data Cleanse peut générer des standards de correspondance ou d'autres noms pour de nombreux champs de nom et de société, ainsi que pour tous les champs de sortie personnalisée.
Par exemple, Data Cleanse peut affirmer que Patrick et Patricia sont des correspondances potentielles pour le nom Pat. Les standards de correspondance peuvent aider à surmonter deux types de problèmes de correspondance : orthographe différent (Catherine et Katherine) et surnoms (Pat et Patrick).
Cet exemple indique la manière dont Data Cleanse peut préparer des enregistrements pour la correspondance.
Tableau 16-13 : Source de données 1
Enregistrement d'entrée
Intl Marketing, Inc.
Pat Smith, directeur de comptabilité
Enregistrement nettoyé
Prénom 1
Standards de correspondance
Prénom 2
Nom de famille
Fonction
Société
Pat
Patrick, Patricia
Smith
Directeur de comptabilité
Intl. Mktg, Inc.
Tableau 16-14 : Source de données 2
Enregistrement d'entrée
Smith, Patricia R.
International Marketing, Incorp.
Enregistrement nettoyé
Prénom 1
Standards de correspondance
Prénom 2
Nom de famille
Fonction
Société
Patricia
R
Smith
Intl. Mktg, Inc.
Lorsqu'un package de nettoyage des données n'inclut pas un autre nom, le champ de sortie du standard de correspondance pour ce terme est vide. Dans le cas d'une sortie multi-mots telle qu'un nom de société, lorsqu'aucune des variantes dans le nom de société n'a un autre nom, alors la sortie du standard de correspondance est vide. Cependant, si au moins une variante a un autre nom associé, le standard de correspondance est généré à l'aide de l'autre nom de la variante lorsque disponible, et des variantes pour les mots qui n'ont pas un autre nom.
394 2012-11-22
Qualité des données
16.2.9 Données propres à une région
16.2.9.1 A propos des domaines
Un domaine décrit un type spécifique de données ou de contenu. Les domaines étendent les fonctionnalités de Data Cleanse afin de nettoyer correctement les données selon les standards culturels d'une région. Dans un package de nettoyage des données personnelles et professionnelles fourni par
SAP, chacun des paramètres régionaux constitue un domaine. Le tableau ci-dessous illustre la manière dont l'analyse des noms peut varier selon la culture :
Domaine Nom
Prénom1
Sortie analysée
Prénom2 Nom_Famille1 Nom_Famille2
Espagnol
Portugais
Français
Allemand
Juan C. Sánchez
João A. Lopes
Jean-Christophe Rousseau
Hans Joachim
Müller
Juan
João
Jean-Chris tophe
Hans
C.
Joachim
Sánchez
A.
Rousseau
Müller
Lopes
Anglais
(Etats-Unis et Canada)
James Andrew
Smith
James Andrew Smith
Chaque variante est automatiquement affectée au domaine global et peut être affectée à un ou plusieurs autres domaines. Une variante peut avoir une signification différente dans chaque domaine. Autrement dit, les propriétés associées à une variante donnée, comme le format et la classification standard, peuvent être spécifiques à un domaine. Par exemple, la variante AG a des significations différentes en allemand et en anglais des Etats-Unis. En allemand, AG est une abréviation de “Aktiengesellschaft”
(type de société), nettoyée sous la forme « AG », alors qu'en anglais, AG est une abréviation d'Agriculture, nettoyée sous la forme « Ag ». Vous pouvez contrôler la manière dont Data Cleanse nettoie vos données en indiquant le ou les domaines que Data Cleanse doit appliquer et dans quel ordre.
395 2012-11-22
Qualité des données
396
Remarque :
Plusieurs domaines sont pris en charge uniquement par les packages de nettoyage des données personnelles et professionnelles de la version 4.1 ou supérieure. Les variantes des packages de nettoyage des données personnalisés et de nettoyage des données personnelles et professionnelles créés avant Information Steward 4.1 sont affectés uniquement au domaine global.
Domaine global
Le domaine global est un domaine au contenu spécial, qui comporte toutes les variantes et leurs propriétés associées. Si une variante n'est pas associée à des informations propres au domaine, le domaine global sert de domaine par défaut.
Lorsque vous ajoutez une nouvelle variante, elle est d'abord ajoutée au domaine global. Si nécessaire, vous pouvez ensuite l'ajouter à d'autres domaines afin d'affecter toute information propre au domaine.
L'ajout d'une variante à un domaine autre que le domaine global est nécessaire uniquement si la variante comporte des propriétés comme le sexe, la classification, le format standard, etc., différentes entre le domaine global et les autres domaines.
Si vous supprimez une variante du domaine global, elle est également supprimée de tous les autres domaines auxquels elle est associée.
Contrôle du nettoyage propre au domaine
L'administrateur ou le testeur de Data Services peut définir la Séquence de domaines de contenu dans la transformation Data Cleanse afin de contrôler la manière dont Data Cleanse analyse vos données spécifiques au domaine. Dans l'exemple ci-dessous, regardez comment le sexe serait appliqué au nom Jean d'après les informations suivantes :
Nom
Jean
Domaine
Global
Jean
Jean
Français
Anglais (Etats-Unis et Canada)
Sexe
AMBIGU
SEXE_MASCU
LIN_PROBABI
LITE_ELEVEE
SEXE_FEMININ_PRO
BABILITE_FAIBLE
Si vous ne voulez favoriser aucune propriété propre au domaine, sélectionnez uniquement GLOBAL.
Sexe ambigu sera affecté au nom Jean car ni les informations spécifiques au domaine français, ni celles propres au domaine anglais ne sont prises en compte.
Lorsque les données proviennent d'une région à domaine unique, indiquez un domaine suivi de Global.
Par exemple, lorsque vous indiquez EN_US suivi de GLOBAL (EN_US|GLOBAL), le sexe féminin
(probabilité faible) sera affecté au nom Jean.
Lorsque les données proviennent d'une région à plusieurs domaines, sélectionnez la séquence préférée des domaines en terminant par Global. Par exemple, le Benelux (Belgique, Pays-Bas, Luxembourg) comprend les domaines hollandais, français et allemand. Selon vos préférences de nettoyage, vous pouvez classer les domaines selon la séquence voulue. Par exemple, pour favoriser le domaine
2012-11-22
Qualité des données hollandais, indiquez NL|FR|DE|GLOBAL. Quand il existe dans les données une variante comportant différentes propriétés dans les domaines du contenu sélectionné, le processus de nettoyage utilise d'abord les propriétés du hollandais s'il en trouve, puis les propriétés du français dans le cas contraire, et enfin les propriétés de l'allemand s'il n'existe aucune propriété spécifique au hollandais ni au français.
Si aucun des trois domaines n'a de propriétés spécifiques, Data Cleanse utilise celles indiquées dans le domaine global.
La Suisse est un autre exemple de région à plusieurs domaines. La Suisse comprend les domaines allemand, français et italien. Selon vos préférences de nettoyage, vous pouvez classer les domaines selon la séquence voulue, par exemple pour favoriser le domaine allemand, indiquez DE|FR|IT|GLOBAL.
Quand il existe dans les données une variante comportant différentes propriétés dans les domaines du contenu sélectionné, le processus de nettoyage utilise d'abord les propriétés de l'allemand s'il en trouve, puis les propriétés du français dans le cas contraire, et enfin les propriétés de l'italien s'il n'existe aucune propriété spécifique à l'allemand ni au français. Si aucune des trois n'a de signification particulière, Data Cleanse utilise celle qui existe dans le domaine global.
Rubriques associées
•
• Data Services Reference Guide: Cleansing Package options
• Data Services Reference Guide: Dynamic transform settings
•
397
16.2.9.2 A propos du format de sortie
D'après le domaine indiqué dans le format de sortie, Data Cleanse utilise certains champs de sortie et met en forme les données de ces champs selon les standards régionaux. Indiquez le domaine dans la zone Format de sortie de la transformation Data Cleanse.
Selon les standards régionaux, dans certains domaines, un prénom composé est combiné et édité dans le champ Prénom1, alors que dans d'autres domaines, le premier prénom est édité dans le champ
Prénom1 et le deuxième dans le champ Prénom2.
De même, dans certains domaines, un nom de famille composé est combiné et édité dans le champ
Nom de famille1
, alors que dans d'autres domaines, le premier nom de famille est édité dans le champ Nom de famille1 et le deuxième dans le champ Nom de famille2.
Dans certains domaines, le champ de sortie composite Personne comprend le prénom suivi du nom de famille alors que dans d'autres domaines, le champ de sortie composite Personne comprend le nom de famille suivi du prénom.
La transformation Data Cleanse requiert l'indication d'un format de sortie, même si les données sont vraiment globales.
Lorsque vous avez des données d'une région à domaine unique, indiquez le domaine. Par exemple, sélectionnez DE pour l'Allemagne et ZH pour la Chine.
2012-11-22
Qualité des données
Si vous avez des données d'une région à plusieurs domaines, vous devez sélectionner le domaine préféré. Vos données peuvent être mises en forme différemment selon le domaine sélectionné.
Par exemple, pour les données de Malaisie, vous pouvez choisir de sortir vos données selon le format de sortie malais, chinois ou indien. Comme l'illustre le tableau ci-dessous, le nom YI LING CHEN sera
édité dans des champs différents et selon un ordre différent en fonction du format de sortie sélectionné.
Champ de sortie
Prénom1
Prénom2
Nom_Famille1
Format de sortie
Malais
Yi Ling
Chen
Chinois
Yi LIng
Chen
Indien
Yi
Ling
Chen
Nom_Famille2
Personne
Yi LIng Chen Chen Yi LIng Yi LIng Chen
Autre exemple, les données des Philippines peuvent être éditées selon le format anglais ou espagnol.
Comme l'illustre le tableau ci-dessous, le nom Juan Carlos Sanchez Cruz sera édité dans des champs différents selon le format de sortie sélectionné.
Champ de sortie
Format de sortie
Anglais Espagnol
Prénom1
Prénom2
Nom_Famille1
Nom_Famille2
Personne
Juan
Carlos
Sánchez Cruz
Juan Carlos Sánchez Cruz
Juan
Carlos
Sánchez
Cruz
Juan Carlos Sánchez Cruz
Pour les données du Benelux, vous pouvez choisir d'éditer vos données selon le format hollandais, français ou allemand. Comme l'illustre le tableau ci-dessous, le nom H. D. BUDJHAWAN sera édité dans des champs différents selon le format de sortie sélectionné.
Champ de sortie
Prénom1
Format de sortie
Hollandais
H.D.
Français
H. D.
Allemand
H.
398 2012-11-22
Qualité des données
399
Champ de sortie
Prénom2
Nom_Famille1
Nom_Famille2
Personne
Format de sortie
Hollandais
Budjhawan
H.D. Budjhawan
Français
Budjhawan
H. D. Budjhawan
Allemand
D.
Budjhawan
H. D. Budjhawan
Vous pouvez modifier le format de sortie existant ou ajouter un format de sortie propre au domaine en modifiant les règles appropriées dans votre package de nettoyage des données.
Rubriques associées
• Data Services Reference Guide: Cleansing Package options
• Data Services Reference Guide: Dynamic transform settings
16.2.9.3 Personnalisation des titres de civilité par pays
Lorsque le nom d'entrée n'inclut pas de titre de civilité, Data Cleanse génère les titres de civilité anglais
Mr. et Ms. Pour modifier ces termes, ajoutez une transformation Query après la transformation Data
Cleanse et utilisez la fonction search_replace pour remplacer les termes avec les titres de civilité appropriés pour la région.
16.2.9.4 Numéros personnels d'identification
Data Cleanse peut identifier les numéros de sécurité sociale des Etats-Unis et les séparer dans des composants discrets Si vos données incluent des numéros personnels d'identification autres que des numéros de sécurité sociale des Etats-Unis, il est possible de créer des règles de modèle défini par l'utilisateur pour identifier les numéros. Les règles de modèle défini par l'utilisateur font partie des packages de nettoyage des données et sont définies dans l'onglet Modifier les données de référence du Générateur de package de nettoyages des données.
Les règles de modèle défini par l'utilisateur sont analysées dans Data Cleanse avec l'analyseur UDPM.
Les numéros de sécurité sociale des Etats-Unis sont analysés dans Data Cleanse avec l'analyseur
SSN.
2012-11-22
Qualité des données
16.2.9.5 Largeur du texte dans les champs de sortie
De nombreux caractères japonais sont représentés à la fois dans des formes pleine chasse et demi-chasse. Les caractères latins peuvent être codés soit dans une forme proportionnelle soit dans une forme pleine chasse. Dans les deux cas, la forme pleine chasse requiert plus d'espace que la forme demi-chasse ou la forme proportionnelle.
Pour normaliser les données, il est possible d'utiliser l'option Style de largeur de caractère pour définir la largeur de caractère pour tous les champs de sortie sur pleine chasse ou demi-chasse. La valeur de largeur normale reflète la largeur de caractère normalisée en fonction du type de script. Ainsi, certains champs de sortie contiennent des caractères de demi-chasse et d'autres champs contiennent des caractères de pleine chasse. Par exemple, tous les caractères latins de pleine chasse sont normalisés en fonction de leurs formes demi-chasse, et tous les caractères katakana de demi-chasse sont normalisés en fonction de leurs formes pleine chasse. NORMAL_WIDTH n'exige aucun traitement spécial, et est donc le paramètre le plus efficace.
Remarque :
Puisque la largeur de sortie est basée sur la largeur normalisée pour le type de caractère, les données de sortie peuvent être plus larges que les données d'entrée. Il est possible que vous ayez à augmenter la largeur de la colonne dans la table cible.
Pour les tables de modèle, le fait de sélectionner la case Utiliser le type NVARCHAR pour les colonnes
VARCHAR dans les bases de données prises en charge remplace le type de colonne VARCHAR par le type NVARCHAR et prend une compte une plus grande taille de données.
Rubriques associées
• Guide de référence : paramètres régionaux et fonctionnalité multi-octets, prise en charge multi-octets, dimensionnement de colonne
16.3 Géocodage
Cette section traite du fonctionnement de la transformation Geocoder, de ses différents modes d'utilisation et de la compréhension de la sortie.
Remarque :
La fonctionnalité GeoCensus présente dans la transformation USA Regulatory Address Cleanse sera mise hors service dans une version future de Data Services. Il est recommandé de mettre à niveau les flux de données qui utilisent actuellement la fonctionnalité GeoCensus pour pouvoir utiliser la transformation Geocoder. Pour en savoir plus sur la procédure de mise à niveau de GeoCensus vers la transformation Geocoder, voir le Guide de mise à niveau.
400 2012-11-22
Qualité des données
Fonctionnement de la transformation Geocoder
La transformation Geocoder utilise des coordonnées géographiques sous forme de données de latitude, longitude, adresses et point de référence (POI). Cette transformation permet d'ajouter des adresses, des données de latitude et de longitude, des données de recensement ainsi que d'autres informations.
En fonction des champs d'entrée mappés, la transformation Geocoder offre trois modes de géocodage :
• Géocodage d'adresse
• Géocodage inversé
• Recherche textuelle de POI
De façon générale, la transformation Geocoder est utilisée conjointement avec la transformation Global
Address Cleanse ou USA Regulatory Address Cleanse.
Rubriques associées
• Guide de référence : transformations, Geocoder
• Guide de référence : champs de qualité des données, champs Geocoder
•
GeoCensus (USA Regulatory Address Cleanse)
16.3.1 Géocodage d'adresse
Dans le mode de géocodage des adresses, la transformation Geocoder affecte les données géographiques. En fonction de la complétude des données d'adresse d'entrée, la transformation Geo coder peut renvoyer plusieurs niveaux de données de latitude et de longitude. Le fait d'ajouter au début les informations de latitude et de longitude à vos données peut aider l'entreprise à cibler certaines tailles de population et d'autres données géographiques régionales.
Préparer des enregistrements pour le géocodage
La transformation Geocoder fonctionne mieux lorsqu'elle a normalisé et corrigé les données d'adresse, donc pour obtenir les informations les plus précises possibles, placez une transformation Address
Cleanse avant la transformation Geocoder dans l'espace de travail.
401
16.3.1.1 Niveaux de latitude et longitude
Niveau numéro principal
Si vos données d'entrée possèdent une adresse complète (y compris le numéro principal), la transformation Geocoder renvoie les coordonnées de latitude et longitude à l'emplacement exact en fonction du type de répertoire (basé sur l'échelle ou la parcelle de terrain) auquel vous vous inscrivez.
En règle générale, la transformation Geocoder utilise des répertoires de géocodage pour calculer les valeurs de latitude et de longitude d'une adresse par interpolation du point de départ et du point d'arrivée
2012-11-22
Qualité des données d'un segment de ligne correspondant à une plage d'adresses. Les valeurs de latitude et de longitude peuvent présenter un léger décalage par rapport à l'emplacement exact de la maison. On nomme cela le niveau d'affectation PRI (primary range interpolated).
Remarque :
Si vous souhaitez obtenir une affectation au niveau de l'adresse, le champ d'entrée Numéro_principal doit être mappé et ne peut pas être vide.
La transformation Geocoder prend également en charge les répertoires de parcelle de terrain, qui contiennent les valeurs de latitude et de longitude les plus précises et exactes, en fonction des données de pays disponibles. Les données relatives aux parcelles de terrain sont stockées sous forme de points.
Elles ne vous mènent pas à proximité de la maison, mais juste devant la porte. On nomme cela le niveau d'affectation PRE (primary range exact).
Niveau centroïde Code postal
Si une adresse possède un code postal, vous recevez des coordonnées dans la zone de code postal appropriée. La transformation Geocoder possède les niveaux d'affectation Code postal complet (PF),
Code postal partiel2 (P2P) et Code postal1 (P1), selon les données de pays disponibles.
Niveau centroïde Localité
Si une adresse possède une localité, vous recevez des coordonnées dans la zone de localité appropriée.
La transformation Geocoder possède les niveaux d'affectation Localité1 (L1), Localité2 (L2), Localité3
(L3) et Localité4 (L4), selon les données de pays disponibles.
16.3.1.2 Mappage du champ Géocodage d'adresse
Les tableaux suivants spécifient les champs d'entrée et de sortie requis, facultatifs ou ceux qui ne peuvent pas être mappés en mode Géocodage d'adresse. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
Mappage du champ d'entrée
402 2012-11-22
Qualité des données
Catégorie du champ d'entrée
Adresse
Adresse POI
Latitude/Longitude
Nombre maximum d'enregistrements
Filtre de recherche
Mappage du champ de sortie
Catégorie du champ de sortie
Adresse
Adresse POI
Niveau d'affectation
Recensement
Distance
Code d'information
Latitude/Longitude
Mode Géocodage d'adresse
Au moins un champ est requis
Facultatif n/a
Sans objet n/a
Mode Géocodage d'adresse
n/a
Sans objet
Facultatif
Facultatif
Sans objet
Facultatif
Facultatif
403 2012-11-22
Qualité des données
Catégorie du champ de sortie
Population
Résultats
Côté de la rue
Mode Géocodage d'adresse
Facultatif n/a
Facultatif
16.3.1.3 Scénario de géocodage d'adresse
Scénario : utilisation d'une adresse ou d'une adresse et d'un point d'intérêt pour affecter les informations de latitude et de longitude.
Nombre de résultats de sortie : Un seul enregistrement
Les sections suivantes décrivent les champs d'entrée requis et facultatif, et les champs de sortie disponibles pour obtenir des résultats pour ce scénario. Nous fournissons également un exemple avec un exemple de données.
Champs d'entrée requis
Pour les champs d'entrée requis, le champ Pays doit être mappé. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
404 2012-11-22
Qualité des données
Catégorie
Adresse
Nom du champ d'entrée
Pays (requis)
Localité1-4
Code postal1-2
Nom_Principal1-4
Numéro_principal
Suffixe_Principal1
Préfixe_Principal1
Type_Principal1-4
Région1-2
Champs d'entrée facultatifs
Catégorie
Adresse POI
Nom du champ d'entrée
Nom_POI
Type_POI
Champs de sortie disponibles
Tous les champs de sortie sont facultatifs
405 2012-11-22
Qualité des données
Catégorie
Niveau d'affectation
Nom du champ de sortie
Niveau_Affectation
Niveau_affectation_localité
Niveau_affectation_code_postal
Recensement Ilot_secteur_recensement
Groupe_îlot_secteur_recensement
Code_comté_gouv
Code_localité1_gouv
Code_région1_gouv
Code_zone_stat_metro
Code_division_secondaire
Code_zone_statistique
Code_info Code d'info
Latitude/Longitude Latitude
Latitude_localité
Latitude_code_postal
Latitude_numéro_principal
Longitude
Longitude_localité
Longitude_code_postal
Longitude_numéro_principal
Population Localité_classe_population1
Côté de la rue Coté_Adresse_Principale
Exemple
Entrée : mappez les champs d'entrée qui contiennent les données suivantes :
406 2012-11-22
Qualité des données
Nom du champ d'entrée
Pays
Code postal1
Code postal2
Nom_Principal1
Numéro_principal
Type_Principal1
Valeur d'entrée
Etats-Unis
54601
4023
Devant
332
Rue
Sortie : les champs de sortie mappés contiennent les résultats suivants :
Nom du champ de sortie
Niveau_affectation
Latitude
Longitude
Valeur de sortie
PRE
43.811616
-91.256695
Rubriques associées
•
• Guide de référence : champs Data Quality, champs Geocoder, champs d'entrée
• Guide de référence : champs Data Quality, champs Geocoder, champs de sortie
16.3.2 Géocodage inversé
En mode Géocodage inversé, la transformation Geocoder identifie l'adresse la plus proche ou le point de référence basé sur l'emplacement de référence d'entrée. Basé sur le mappage d'entrée, le géocodage inversé peut s'opérer en quatre modes :
•
Attribuer à une entrée d'adresse une sortie d'enregistrement simple
Utilisez l'adresse et les champs de POI d'adresse facultative pour déterminer un point de référence unique pour ne générer que l'enregistrement unique le plus proche qui correspond au filtre de recherche.
Si les champs de filtre de recherche ne sont pas mappés, la transformation Geocoder désigne par défaut le point de référence ou l'adresse la plus proche.
•
Attribuer à une entrée d'adresse une sortie d'enregistrement multiple
Utilisez l'adresse et les champs de POI d'adresse facultative pour déterminer un point de référence unique pour générer les données du point de référence vers les champs de sortie et les
407 2012-11-22
Qualité des données enregistrements les plus proches qui correspondent aux champs de filtre de recherche dans le champ Liste_résultats.
Le nombre d'enregistrements est déterminé par le champ d'entrée Option_enregistrements_max s'il est mappé et renseigné ou par l'option Enregistrements max.
•
Attribuer à une entrée de latitude/longitude une sortie d'enregistrement simple
Utilisez les champs de latitude et longitude comme point de référence pour ne générer que l'enregistrement unique le plus proche qui correspond aux champs de filtre de recherche facultatifs.
Si les champs de filtre de recherche ne sont pas mappés, la transformation Geocoder désigne par défaut le point de référence ou l'adresse la plus proche.
•
Attribuer à une entrée de latitude/longitude une sortie d'enregistrement multiple
Utilisez les champs de latitude et longitude comme point de référence pour générer les enregistrements les plus proches qui correspondent aux champs de filtre de recherche facultatifs dans le champ Liste_Résultats.
Le nombre d'enregistrements est déterminé par le champ d'entrée Option_enregistrements_max s'il est mappé et renseigné ou par l'option Enregistrements max.
Si les champs de filtre de recherche ne sont pas mappés, la transformation Geocoder désigne par défaut le point de référence ou l'adresse la plus proche.
Remarque :
• Le mappage du champ d'entrée facultatif Option_Rayon permet de définir la distance par rapport au point de référence spécifié et d'identifier une zone dans laquelle des enregistrements de correspondance se trouvent.
• Pour rechercher un ou plusieurs emplacements de type point de référence et/ou adresse, configurez les champs d'entrée Nom_filtre_recherche ou Type_filtre_recherche. Ce paramétrage limite les correspondances de sortie aux critères de recherche.
• Pour renvoyer une adresse uniquement, saisissez ADDR dans le champ d'entrée
Type_filtre_recherche.
• Pour renvoyer un point de référence uniquement, saisissez son nom ou son type.
• Si vous ne définissez aucun filtre de recherche, la transformation renvoie à la fois les adresses et les points de référence.
16.3.2.1 Mappage du champ Géocodage inversé
Les tableaux suivants spécifient les champs d'entrée et de sortie requis, facultatifs ou ceux qui ne peuvent pas être mappés en mode Géocodage inversé. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
Mappage du champ d'entrée
408 2012-11-22
Qualité des données
Entrée d'adresse
Catégorie du champ d'entrée
Sortie simple
Entrée d'adresse
Sortie multiple
Entrée de latitude/longitude
Sortie simple
Adresse Au moins un champ est requis
Au moins un champ est requis n/a
Adresse POI Facultatif
Latitude/Longitude n/a
Facultatif n/a n/a
Entrée de latitude/longitude
Sortie multiple
n/a n/a
Au moins un champ est requis
Au moins un champ est requis
Nombre maximum d'enregistrements
Sans objet
Filtre de recherche
Au moins un champ est requis
Au moins un champ est requis n/a
Au moins un champ est requis
Facultatif
Au moins un champ est requis
Facultatif
Mappage du champ de sortie
Catégorie du champ de sortie
Entrée d'adresse
Sortie simple
Entrée d'adresse
Entrée de latitude/longitude
Entrée de latitude/longitude
Sortie multiple Sortie simple Sortie multiple
Adresse Facultatif n/a Facultatif n/a
Adresse
POI
Facultatif n/a Facultatif Sans objet
Facultatif Facultatif n/a Niveau d'affectation
Facultatif
Recensement
Facultatif
Distance Facultatif n/a n/a
Facultatif
Facultatif
Sans objet
Sans objet
409 2012-11-22
Qualité des données
Catégorie du champ de sortie
Entrée d'adresse
Sortie simple
Entrée d'adresse
Entrée de latitude/longitude
Entrée de latitude/longitude
Sortie multiple Sortie simple Sortie multiple
Code d'information
Facultatif Facultatif Facultatif Facultatif
Facultatif Facultatif n/a Latitude/Longitude
Facultatif
Population Facultatif n/a Facultatif n/a
Résultats n/a
Côté de la rue
Facultatif
Facultatif
Facultatif n/a
Facultatif
Facultatif n/a
16.3.2.2 Scénarios de géocodage inversé
Géocodage inversé, scénario 1
Scénario : Recherchez un ou plusieurs points d'intérêt ou adresses à l'aide de la latitude et de la longitude.
Les sections suivantes décrivent les champs d'entrée obligatoires et facultatifs et les champs de sortie disponibles pour obtenir des résultats sur un ou plusieurs enregistrements dans le cadre de ce scénario.
Un exemple vous est également proposé avec des données de démonstration.
Champs d'entrée obligatoires
Pour un résultat sur un seul enregistrement, les champs d'entrée Latitude et Longitude doivent tous deux être mappés. Pour des résultats sur plusieurs enregistrements, les champs d'entrée Latitude,
Longitude et Option_Enregistrements_Max doivent tous être mappés.
410 2012-11-22
Qualité des données
Catégorie
Latitude/Longitude
Résultats sur un seul enregistrement
Résultats sur plusieurs enregistrements
Nom du champ d'entrée Nom du champ d'entrée
Latitude
Longitude
Latitude
Longitude
Nombre maximum d'enregistrements
Sans objet Option_enregistrements_maximaux
Champs d'entrée facultatifs
Catégorie
Résultats sur un seul enregistrement
Résultats sur plusieurs enregistrements
Nom du champ d'entrée Nom du champ d'entrée
Filtre de recherche
Option Rayon
Nom_Filtre_Recherche
Type_Filtre_Recherche
Option_rayon
Nom_Filtre_Recherche
Type_Filtre_Recherche
Champs de sortie disponibles
Tous les champs de sortie sont facultatifs.
411 2012-11-22
Qualité des données
Résultats sur un seul enregistrement
Catégorie Nom du champ de sortie
Adresse Ligne_adresse
Code_pays
Localité1–4
Code_postal
Code_postal1–2
Nom_principal1–4
Numéro_principal
Suffixe_principal1
Préfixe_principal1
Plage_principale_élevée
Plage_principale_faible
Type_principal1–4
Région1–2
Adresse
POI
Nom_POI
Type_POI
Niveau d'affectation
Niveau_affectation
Niveau_affectation_localité
Niveau_affectation_code_postal
Recensement
Résultats sur plusieurs enregistrements
Nom du champ de sortie
Sans objet
Sans objet
Sans objet
Sans objet
412 2012-11-22
Qualité des données
Résultats sur un seul enregistrement
Catégorie Nom du champ de sortie
Ilot_secteur_recensement
Groupe_îlot_secteur_recensement
Code_comté_gouv
Code_localité1_gouv
Code_région1_gouv
Code_Zone_Stat_Métro
Code_division_secondaire
Code_zone_statistique
Distance Distance
Code d'information
Code_Info
Latitude/Longitude
Latitude
Latitude_localité
Latitude_code_postal
Latitude_numéro_principal
Longitude
Longitude_localité
Longitude_code_postal
Longitude_numéro_principal
Résultats sur plusieurs enregistrements
Nom du champ de sortie
Sans objet
Code_Info
Sans objet
413 2012-11-22
Qualité des données
414
Catégorie
Population
Résultats
Résultats sur un seul enregistrement
Nom du champ de sortie
Localité_classe_population1
Sans objet
Résultats sur plusieurs enregistrements
Nom du champ de sortie
Sans objet
Liste_Résultats
Nombre_Liste_Résultats
Sans objet Côté de la rue
Code_Adresse_Principale
Exemple
L'exemple suivant illustre un scénario qui fait appel à la latitude, à la longitude et à un filtre de recherche pour générer le point d'intérêt le plus proche de la latitude et de la longitude d'entrée.
Entrée : Vous mappez les champs d'entrée contenant les données suivantes :
Nom du champ d'entrée
Latitude
Longitude
Nom_Filtre_Recherche
Valeur d'entrée
43.811616
-91.256695
BUSINESS OBJECTS
Sortie : Les champs de sortie mappés contiennent les résultats suivants :
Nom du champ de sortie
Ligne_adresse
Niveau_Affectation
Code_pays
Distance
Localité1
Code_Postal
Code_Postal1
Code_Postal2
Nom_Principal1
Numéro_principal
Valeur de sortie
332 FRONT ST
PRE
US
1.3452
LA CROSSE
54601-4023
54601
4023
FRONT
332
2012-11-22
Qualité des données
Nom du champ de sortie
Type_Principal1
Nom_POI
Type_POI
Région1
Valeur de sortie
ST
BUSINESS OBJECTS
5800
WI
Géocodage inversé, scénario 2
Scénario : Utilisez un point d'intérêt ou une adresse afin de rechercher un ou plusieurs points d'intérêt ou adresses les plus proches. Par ailleurs, la transformation Geocoder génère les informations de latitude et longitude pour le point de référence d'entrée et les résultats de sortie correspondants.
Les sections suivantes décrivent les champs d'entrée obligatoires et facultatifs et les champs de sortie disponibles pour obtenir des résultats sur un ou plusieurs enregistrements dans le cadre de ce scénario.
Des exemples vous sont également proposés avec des données de démonstration.
Champs d'entrée obligatoires
Pour les champs d'entrée obligatoires, un champ d'entrée au moins doit être mappé dans chaque catégorie.
415 2012-11-22
Qualité des données
416
Catégorie
Adresse
Résultats sur un seul enregistrement
Nom du champ d'entrée
Ligne_adresse
Pays
Localité1–4
Code_Postal
Code_postal1–2
Nom_Principal1–4
Numéro_Principal
Suffixe_principal1
Préfixe_Principal1
Plage_Principale_Elevée
Plage_Principale_Faible
Type_Principal1–4
Région1–2
Nombre maximum d'enregistrements
Sans objet
Filtre de recherche
Option_rayon
Nom_Filtre_Recherche
Type_Filtre_Recherche
Résultats sur plusieurs enregistrements
Nom du champ d'entrée
Latitude
Longitude
Option_enregistrements_maximaux
Option_rayon
Nom_Filtre_Recherche
Type_Filtre_Recherche
Champs d'entrée facultatifs
Catégorie
Résultats sur un seul enregistrement
Résultats sur plusieurs enregistrements
Nom du champ d'entrée Nom du champ d'entrée
Adresse POI Nom_POI
Type_POI
Nom_POI
Type_POI
2012-11-22
Qualité des données
Champs de sortie disponibles
Tous les champs de sortie sont facultatifs.
Pour un résultat sur un seul enregistrement, les champs de sortie sont les résultats de la recherche spatiale.
Pour des résultats sur plusieurs enregistrements, les champs de sortie dans les catégories Niveau d'affectation et Latitude/Longitude sont les résultats de l'affectation d'adresse de référence. Les champs de sortie dans la catégorie Résultats sont les résultats du géocodage inversé.
417 2012-11-22
Qualité des données
Catégorie
Résultats sur un seul enregistrement
Nom du champ de sortie
Résultats sur plusieurs enregistrements
Nom du champ de sortie
Sans objet Adresse Ligne_adresse
Code_Pays
Localité1–4
Code_Postal
Code_postal1–2
Nom_Principal1–4
Numéro_Principal
Suffixe_principal1
Préfixe_Principal1
Plage_Principale_Elevée
Plage_Principale_Faible
Type_Principal1–4
Région1–2
Sans objet Adresse
POI
Nom_POI
Type_POI
Niveau d'affectation
Niveau_affectation
Niveau_affectation_localité
Niveau_affectation_code_postal
Recensement
Niveau_affectation
Niveau_affectation_localité
Niveau_affectation_code_postal
Sans objet
418 2012-11-22
Qualité des données
Catégorie
Résultats sur un seul enregistrement
Nom du champ de sortie
Résultats sur plusieurs enregistrements
Nom du champ de sortie
Ilot_secteur_recensement
Groupe_îlot_secteur_recensement
Code_comté_gouv
Code_localité1_gouv
Code_région1_gouv
Code_Zone_Stat_Métro
Code_division_secondaire
Code_zone_statistique
Sans objet
Code_Info
Distance Distance
Code d'information
Code_Info
Latitude/Longitude
Latitude
Latitude_localité
Latitude_code_postal
Latitude_numéro_principal
Longitude
Longitude_localité
Longitude_code_postal
Longitude_numéro_principal
Latitude
Latitude_localité
Latitude_code_postal
Latitude_numéro_principal
Longitude
Longitude_localité
Longitude_code_postal
Longitude_numéro_principal
419 2012-11-22
Qualité des données
420
Catégorie
Résultats sur un seul enregistrement
Nom du champ de sortie
Résultats sur plusieurs enregistrements
Nom du champ de sortie
Population
Localité_classe_population1 Sans objet
Résultats Sans objet
Côté de la rue
Côté_adresse_principale
Liste_Résultats
Nombre_Liste_Résultats
Coté_Adresse_Principale
Exemple
L'exemple suivant illustre un scénario qui fait appel à une adresse et à un filtre de recherche pour générer le point d'intérêt le plus proche de l'adresse d'entrée. La requête se trouve dans la banque
(POI de type 6 000) la plus proche de l'emplacement d'entrée. La transformation génère également les informations de latitude et longitude pour le résultat de sortie.
Entrée : Vous mappez des champs d'entrée contenant les données suivantes.
Nom du champ d'entrée
Pays
Code postal1
Code_Postal2
Nom_Principal1
Numéro_principal
Type_Principal1
Nom_POI
Type_filtre_recherche
Valeur d'entrée
Etats-Unis
55601
4023
Devant
332
Rue
BUSINESS OBJECTS
6 000
Sortie : Les champs de sortie mappés contiennent les résultats suivants :
Nom du champ de sortie
Ligne_adresse
Niveau_affectation
Code_pays
Distance
Valeur de sortie
201 MAIN ST
PRE
US
0.4180
2012-11-22
Qualité des données
Nom du champ de sortie
Localité1
Nom_POI
Type_POI
Code_Postal1
Nom_principal1
Numéro_principal
Type_Principal1
Région1
Valeur de sortie
LA CROSSE
US BANK
6 000
54601
MAIN
201
ST
WI
Rubriques associées
•
• Guide de référence : champs de qualité des données, champs Geocoder, champs d'entrée
• Guide de référence : champs de qualité des données, champs Geocoder, champs de sortie
16.3.3 Recherche textuelle de POI
En mode Recherche textuelle de POI, la transformation Geocoder utilise des champs d'adresse et un nom de POI ou des champs de type sous forme de critères de recherche pour une mise en correspondance avec des points de référence. Les résultats sont affichés dans le champ de sortie XML
Liste_Résultats.
Le nombre d'enregistrements est déterminé par le champ d'entrée Option_enregistrements_max s'il est mappé et renseigné, ou par l'option Enregistrements max.
421
16.3.3.1 Mappage du champ de recherche textuelle de POI
Les tableaux suivants spécifient les champs d'entrée et de sortie requis, facultatifs ou ceux qui ne peuvent pas être mappés en mode Recherche textuelle de POI. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
Mappage du champ d'entrée
En mode Recherche textuelle de POI, au moins un champ d'entrée de la catégorie de POI d'adresse doit être mappé, ce qui représente la différence majeure entre les modes Recherche textuelle de POI et Géocodage d'adresse.
2012-11-22
Qualité des données
Catégorie du champ d'entrée
Adresse
Adresse POI
Latitude/Longitude
Enregistrements max
Filtre de recherche
Mappage du champ de sortie
Catégorie du champ de sortie
Adresse
Adresse POI
Niveau d'affectation
Recensement
Distance
Code d'information
Latitude/Longitude
Mode Géocodage d'adresse
Au moins un champ est requis
Au moins un champ est requis n/a
Au moins un champ est requis n/a
Mode Géocodage d'adresse
n/a
Sans objet n/a
Sans objet
Sans objet
Facultatif n/a
422 2012-11-22
Qualité des données
Catégorie du champ de sortie
Population
Résultats
Côté de la rue
Mode Géocodage d'adresse
n/a
Facultatif n/a
16.3.3.2 Scénario de recherche textuelle de POI
Scénario : utilisation des informations d'adresse et de point d'intérêt pour identifier une liste des correspondances de points d'intérêt potentielles.
Nombre de résultats de sortie : plusieurs enregistrements. Le nombre d'enregistrements est déterminé par le champ d'entrée Option_Enregistrements_Max (si rempli), ou l'option Enregistrements max.
Les sections suivantes décrivent les champs d'entrée requis, et les champs de sortie disponibles pour obtenir des résultats pour ce scénario. Nous fournissons également un exemple avec un exemple de données.
Champs d'entrée requis
Pour les champs d'entrée requis, au moins un champ d'entrée dans chaque catégorie doit être mappé.
Le champ Pays doit être mappé. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
423 2012-11-22
Qualité des données
Catégorie
Adresse
Nom du champ d'entrée
Pays (requis)
Localité1-4
Code postal1-2
Nom_Principal1–4
Numéro_Principal
Suffixe_Principal1
Préfixe_Principal1
Type_Principal1–4
Région1-2
Adresse POI Nom_POI
Type_POI
Enregistrements max
Option_enregistrements_maximaux
Champs d'entrée facultatifs
Non applicable
Champs de sortie disponibles
Tous les champs de sortie sont facultatifs
Catégorie
Code d'info
Nom du champ de sortie
Code_info
Résultats Liste_Résultats
Nombre_Liste_Résultats
Exemple
L'exemple suivant illustre un scénario utilisant la recherche textuelle de POI pour identifier des correspondances de point de référence potentielles (tous les enregistrements "Business Objects" dans
Front Street).
Entrée : mappez les champs d'entrée qui contiennent les données suivantes :
424 2012-11-22
Qualité des données
Nom du champ d'entrée
Pays
Code postal1
Code postal2
Nom_Principal1
Type_Principal1
Nom_POI
Option_enregistrements_maximaux
Valeur d'entrée
Etats-Unis
54601
4023
Devant
Rue
BUSINESS OBJECTS
10
Sortie : les champs de sortie mappés contiennent les résultats suivants avec un enregistrement :
Nom du champ de sortie
Liste_Résultats
Nombre_Liste_Résultats
Valeur de sortie
Sortie comme XML, exemple ci-dessous
1
Liste_Résultats pour XML : le résultat XML pour cet exemple a un seul enregistrement.
<RESULT_LIST>
<RECORD>
<ADDRESS_LINE>332 FRONT ST</ADDRESS_LINE>
<ASSIGNMENT_LEVEL>PRE</ASSIGNMENT_LEVEL>
<COUNTRY_CODE>US</COUNTRY_CODE>
<DISTANCE>0.3340</DISTANCE>
<LATITUDE>43.811616</LATITUDE>
<LOCALITY1>LA CROSSE</LOCALITY1>
<LONGITUDE>-91.256695</LONGITUDE>
<POI_NAME>BUSINESS OBJECTS</POI_NAME>
<POI_TYPE>5800</POI_TYPE>
<POSTCODE>56001-4023</POSTCODE>
<POSTCODE1>56001</POSTCODE1>
<POSTCODE2>4023</POSTCODE2>
<PRIMARY_NAME1>FRONT</PRIMARY_NAME1>
<PRIMARY_NUMBER>332</PRIMARY_NUMBER>
<PRIMARY_TYPE1>ST</PRIMARY_TYPE1>
<RANKING>1</RANKING>
<REGION1>WI</REGION1>
</RECORD>
</RESULT_LIST>
16.3.4 Compréhension de la sortie
Latitude et longitude
La transformation Geocoder génère des données de latitude et longitude. Au niveau de la sortie, la latitude et la longitude sont signalées par des degrés décimaux (12.12345, par exemple). En ce qui concerne la latitude (0 à 90 degrés au nord ou au sud de l'équateur), un signe moins est affiché devant la valeur de sortie lorsque le lieu se situe au sud de l'équateur. Pour la longitude (0 à 180 degrés à l'est
425 2012-11-22
Qualité des données ou à l'ouest du méridien de Greenwich à Londres), un signe moins est affiché devant la valeur de sortie lorsque le lieu se situe à 180 degrés à l'ouest de Greenwich.
Niveau d'affectation
Pour comprendre la précision de l'affectation, il vous suffit de vous reporter au champ de sortie
Niveau_Affectation. Le code de retour PRE indique que vous bénéficiez de la profondeur d'affectation la plus fine par rapport au lieu exact. La deuxième profondeur d'affectation la plus fine est le code de retour PRI, qui correspond à la plage d'adresses principale ou au numéro de rue. Le niveau de sortie le plus général peut être P1 (niveau Code postal) ou L1 (niveau Localité) selon la valeur que vous avez choisie pour l'option Meilleur niveau d'affectation.
Résultats multiples
Pour les résultats sur plusieurs enregistrements, le champ de sortie Liste_Résultats est généré au format XML, qui peut contenir la sortie suivante en fonction des données disponibles.
426 2012-11-22
Qualité des données
427
Catégorie
Adresse
Nom du champ de sortie
Ligne_adresse
Code_Pays
Localité1–4
Code_postal
Code_Postal1–2
Nom_Principal1–4
Numéro_Principal
Suffixe_Principal1
Préfixe_principal1
Plage_principale_élevée
Plage_principale_faible
Type_principal1–4
Région1-2
Adresse POI Nom_POI
Type_POI
Niveau d'affectation
Niveau_Affectation
Distance Distance
Latitude/Longitude Latitude
Longitude
Classement Classement
Standardisation des données d'adresse
Les données de géocodage proposées par les fournisseurs ne sont pas standardisées. Pour standardiser les données d'adresse générées par la transformation Geocoder, vous pouvez insérer une transformation
Global Address Cleanse ou USA Regulatory Address Cleanse dans le flux de données, à la suite de la transformation Geocoder. Si vous avez paramétré la transformation Geocoder de sorte qu'elle génère plusieurs enregistrements, les données d'adresse présentes dans la chaîne de sortie XML doivent être désimbriquées pour pouvoir être nettoyées.
2012-11-22
Qualité des données
Rubriques associées
• Guide de référence : transformations, options de la transformation Geocoder
16.3.5 Utilisation d'autres transformations
En règle générale, la transformation Geocoder est combinée à la transformation Global Address Cleanse ou USA Regulatory Address Cleanse.
Transformation Global Address Cleanse
Pour que la transformation Geocoder puisse fournir les informations les plus précises possible, assurez-vous que les champs de sortie de la transformation Global Address Cleanse sont bien mappés aux champs d'entrée de la transformation Geocoder comme suit :
Global Address Cleanse (sortie)
Code-pays-ISO-2car
Code_Postal1
Code postal2
Nom_Principal1
Numéro_principal
Suffixe_Principal1
Préfixe_Principal1
Type_principal1
Symbole_région1
Geocoder (champ d'entrée)
Pays
Code postal1
Code_Postal2
Nom_Principal1
Numéro_Principal
Suffixe_Principal1
Préfixe_principal1
Type_principal1
Localité1
Il est également recommandé de définir les options de standardisation de la transformation Global
Address Cleanse comme suit :
Global Address Cleanse (option de standardisation)
Affecter localité
Style de direction
Style de type principal
Valeur
Convert
Short
Short
Conseil :
Adresse postale/Adresse administrative : La transformation Global Address Cleanse utilise les adresses postales, tandis que les fournisseurs de la transformation Geocoder, NAVTEQ et TOMTOM, utilisent des adresses administratives. Malgré l'ajustement postal réalisé dans l'adresse postale, des
428 2012-11-22
Qualité des données
écarts subsistent. Par exemple, pour une adresse canadienne, la localité associée à la transformation
Global Address Cleanse peut être TORONTO, mais le répertoire Geocoder stocke NORTH YORK.
Dans ce cas, lorsque le champ Localité1 est mappé au niveau de l'entrée, une erreur de type Adresse introuvable survient. Pour contourner ce problème, il est possible de supprimer le mappage du champ d'entrée Localité1 pour obtenir une meilleure affectation de géocodage.
16.4 Correspondance
16.4.1 Stratégies de correspondance
Voici quelques exemples de stratégies qui vous aideront à déterminer comment aborder la configuration de votre flux de données pour la correspondance.
SAP Strategy Management
Description
Correspondance simple
Membres de la famille
Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur un critère de correspondance simple pour identifier des relations dans des données consommateur, métier ou produit.
Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs niveaux de relations consommateur tels que correspondances d'adresses, correspondances familiales et correspondances individuelles.
Membres de l'organisation
Correspondance de consommateur multinational
Identifier une personne de différentes manières
Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs niveaux de relations professionnelles tels que correspondances d'entreprises, correspondances de filiales et correspondances de contacts.
Utilisez cette stratégie de correspondance si vos données incluent plusieurs pays et que vos règles de gestion en matière de correspondance diffèrent selon les pays.
Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs critères de correspondance pour identifier des relations et que vous souhaitez déterminer le point de chevauchement de toutes ces définitions.
Avant de sélectionner une stratégie de correspondance, répondez aux questions suivantes :
429 2012-11-22
Qualité des données
• Que contiennent vos données ? (données client, données internationales, etc.)
• Quels champs souhaitez-vous comparer ? (nom de famille, société, etc.)
• Quels sont les avantages et les inconvénients des données dans ces champs ?
Conseil :
Vous obtiendrez de meilleurs résultats en nettoyant vos données avant la mise en correspondance.
Le profilage des données peut aussi vous aider à répondre à cette question.
• Quel résultat final souhaitez-vous obtenir à la fin du job de correspondance ? (un enregistrement par famille, par société, etc.)
Rubriques associées
•
Correspondance par association
16.4.2 Composants de la correspondance
Les composants de base de la correspondance sont les suivants :
• Sets de correspondance
• Niveaux de correspondance
• Critères de correspondance
Sets de correspondance
Un set de correspondance est représenté par une transformation Match dans votre espace de travail.
Chaque set de correspondance peut être doté de ses propres groupes de décomposition, critères de correspondance et hiérarchisation.
Un set de correspondance a trois objectifs :
• Autoriser uniquement la comparaison de certaines données dans un ensemble de critères de correspondance (par exemple, exclure les NSS vides, les adresses internationales, etc.).
• Autoriser l'empilement des scénarios de correspondance liés pour créer un set de correspondance multiniveaux.
• Autoriser la prise en compte de plusieurs sets de correspondance pour les associer dans un set de correspondance Associate.
Niveaux de correspondance
Un niveau de correspondance indique le type de correspondance qui sera effectué, par exemple sur l'individu, la famille, la résidence, la société, etc. Un niveau de correspondance ne fait pas référence à un critère spécifique, mais à la catégorie globale de correspondance.
Vous pouvez utiliser autant de niveaux de correspondance que nécessaire. Toutefois, l'assistant Match vous limite à trois niveaux pendant la configuration (vous pouvez en ajouter par la suite). Vous pouvez définir les niveaux de correspondance d'un set de correspondance avec des limites de plus en plus
430 2012-11-22
Qualité des données strictes. La correspondance multiniveaux alimente uniquement les enregistrements qui correspondent de niveau de correspondance en niveau de correspondance (par exemple, résident, famille, individu)
à des fins de comparaison.
Composant de correspondance
Description
Famille
Individu
L'objectif du type de correspondance Famille est de déterminer si deux personnes doivent être considérées comme membres de la même famille, comme indiqué dans leurs données d'enregistrement. La transformation Match compare les données de nom de famille et d'adresse. Une correspondance signifie que les deux enregistrements représentent des membres d'une même famille. Le résultat de la correspondance est un enregistrement par famille.
L'objectif du type de correspondance Individu est de déterminer si deux enregistrements représentent la même personne, comme indiqué dans les données d'enregistrement. La transformation Match compare les données de prénom, de nom de famille et d'adresse. Une correspondance signifie que les deux enregistrements représentent la même personne. Le résultat de la correspondance est un enregistrement par individu.
Résident
Société
Société - Individu
L'objectif du type de correspondance Résident est de déterminer si deux enregistrements doivent être considérés comme membres de la même résidence, comme indiqué dans les données d'enregistrement. La transformation Match compare les données d'adresse. Une correspondance signifie que les deux enregistrements représentent des membres d'une même résidence. Comparez ce type de correspondance avec le type de correspondance Famille, qui compare aussi les données de nom de famille.
Le résultat de la correspondance est un enregistrement par résidence.
L'objectif du type de correspondance Société est de déterminer si deux enregistrements représentent la même société. Ce type de correspondance implique de comparer les données de société et d'adresse. Une correspondance signifie que les deux enregistrements représentent la même société. Le résultat de la correspondance est un enregistrement par société.
L'objectif du type de correspondance Société - Individu est de déterminer si deux enregistrements représentent la même personne dans la même société, comme indiqué dans les données d'enregistrement. Ce type de correspondance implique de comparer les données de prénom, nom de famille, nom de société et adresse. Une correspondance signifie que les deux enregistrements représentent la même personne dans la même société. Le résultat de la correspondance est un enregistrement par individu et par société.
431 2012-11-22
Qualité des données
Critères de correspondance
Les critères de correspondance font référence au champ que vous voulez faire correspondre. Vous pouvez utiliser des options de critères pour spécifier des règles de gestion pour la correspondance sur chacun de ces champs. Ces règles vous permettent de définir à quel niveau d'exactitude les données doivent répondre pour être considérées comme des correspondances.
Vous pouvez, par exemple, définir un niveau de similarité d'au moins 85 % pour les prénoms, mais autoriser aussi l'initiale d'un prénom à correspondre à un prénom complet et autoriser un prénom à correspondre à un deuxième prénom.
• Les critères de correspondance au niveau de la famille peuvent inclure le nom de famille et l'adresse ou le nom de famille et le numéro de téléphone.
• Les critères de correspondance au niveau de l'individu peuvent inclure le nom complet et l'adresse, le nom complet et le NSS ou le nom complet et l'adresse électronique.
• Les critères de correspondance au niveau de la société peuvent inclure le nom de la société et l'adresse, le nom de la société et le code NACE ou le nom de la société et le numéro DUNS (Data
Universal Numbering System).
16.4.3 Assistant de correspondance
432
16.4.3.1 Assistant de correspondance
L'Assistant Match peut rapidement configurer les flux de données de correspondance sans que vous ayez à créer manuellement chaque transformation individuelle nécessaire pour terminer la tâche.
Opérations prises en charge par l'Assistant de correspondance
L'Assistant Match :
• Génère toutes les transformations requises pour exécuter la stratégie de correspondance choisie.
• Applique des valeurs par défaut à vos critères de correspondance selon la stratégie choisie.
• Place les transformations générées dans l'espace de travail, connectées à la plateforme choisie en amont.
• Détecte les champs appropriés en amont et les mappe automatiquement.
Opérations non prises en charge par l'Assistant de correspondance
L'Assistant Match vous fournit une configuration de correspondance de base, qui requiert parfois une personnalisation en fonction de vos règles de gestion.
L'Assistant Match :
2012-11-22
Qualité des données
• Ne modifie pas les données traitées. Pour corriger des entrées non standard ou des données manquantes, placez l'une des transformations de nettoyage des adresses et une transformation
Data Cleanse en amont du processus de correspondance.
• Ne connecte pas les transformations Match générées à une transformation en aval, comme un chargeur. C'est à vous de connecter ces transformations.
• Ne permet pas de définir des valeurs basées sur des règles ou des valeurs de scoring pondéré à des fins de correspondance. L'Assistant Match intègre des "meilleures pratiques" qui définissent ces valeurs à votre place. Vous pouvez modifier les valeurs d'options en fonction de vos règles de gestion.
Rubriques associées
•
433
16.4.3.2 Avant de commencer
Préparer un flux de données pour l'Assistant Correspondance
Pour optimiser la performance de l'Assistant Match, veillez à inclure les éléments suivants avant de le lancer :
• Incluez un lecteur dans votre flux de données. Imaginons que vous vouliez faire correspondre un champ d'entrée spécifique que nos transformations de nettoyage des données ne prennent pas en charge.
• Incluez l'une des transformations de nettoyage des adresses et la transformation Data Cleanse.
L'Assistant Match est optimisé si les données que vous faites correspondre ont déjà été nettoyées et analysées dans des champs discrets en amont dans le flux de données.
• Pour faire correspondre des champs d'adresses, veillez à les faire passer par la transformation Data
Cleanse. Sinon, ils ne seront pas disponibles pour la transformation Match (et l'Assistant Match).
Cette règle s'applique aussi si la transformation Data Cleanse est placée avant une transformation de nettoyage des adresses.
16.4.3.3 Utilisation de l'assistant de correspondance
16.4.3.3.1 Sélection de la stratégie de correspondance
L'Assistant Match commence par vous inviter à sélectionner une stratégie de correspondance en fonction de vos exigences de règles de gestion. Le chemin à suivre dans l'Assistant Match dépend de la stratégie sélectionnée. Utilisez ces descriptions pour décider de la meilleure stratégie à adopter :
2012-11-22
Qualité des données
434
• Correspondance simple. Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur un critère de correspondance simple pour identifier des relations dans des données consommateur, métier ou produit.
• Membres de la famille. Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs niveaux de relations consommateur tels que correspondances d'adresses, correspondances familiales et correspondances individuelles.
• Membres de l'organisation. Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs niveaux de relations professionnelles tels que correspondances d'entreprises, correspondances de filiales et correspondances de contacts.
• Correspondance de consommateur multinational. Utilisez cette stratégie de correspondance si vos données incluent plusieurs pays et que vos règles de gestion en matière de correspondance diffèrent selon les pays.
Remarque :
La stratégie Correspondance de consommateur multinational configure un flux de données pour des données Latin1. Pour utiliser la correspondance Unicode, vous devez modifier votre flux de données après sa création.
• Identifier une personne de différentes manières. Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs critères de correspondance pour identifier des relations et que vous voulez trouver le chevauchement entre toutes ces définitions.
Statistiques source
Si vous voulez générer des statistiques source pour vos rapports, assurez-vous qu'un champ contenant la valeur source physique existe dans toutes les sources de données.
Pour générer des statistiques source pour vos rapports de correspondance, cochez la case Générer
des statistiques pour vos sources, puis sélectionnez un champ contenant la valeur source physique.
Rubriques associées
•
•
Correspondance par association
16.4.3.3.2 Identification des critères de correspondance.
Les critères représentent les données que vous voulez utiliser pour déterminer les correspondances.
Dans cette fenêtre, vous devez définir ces critères pour chaque set de correspondance que vous utilisez.
Les sets de correspondance comparent les données pour rechercher des enregistrements similaires, indépendamment dans chaque groupe de décomposition désigné (ultérieurement dans l'Assistant de correspondance). Les enregistrements d'un groupe de décomposition ne sont pas comparés à ceux d'un autre groupe de décomposition.
Pour rechercher les données correspondant à tous les champs, utilisez un set de correspondance unique avec plusieurs champs. Pour rechercher les données correspondant uniquement à une combinaison spécifique de champs, utilisez plusieurs sets de correspondance avec deux champs.
2012-11-22
Qualité des données
En travaillant sur des données d'étudiant ou de pigeon voyageur, un individu peut utiliser le même nom, mais avoir plusieurs adresses valides.
Sélectionnez une combinaison de champs qui indique au mieux les informations qui se chevauchent, telles que le nom de famille et le NSS.
Données1 Données2 Données3 Données4
R. Carson 1239 Whistle Lane Columbus, Ohio 555-23-4333
Robert T. Carson 52 Sunbird Suites Tampa, Florida 555-23-4333
1.
Entrez le nombre de manières requises pour identifier un individu. Vous obtenez alors le nombre de sets de correspondance correspondant (transformations) dans le flux de données.
2.
Le nom du set de correspondance par défaut apparaît dans le champ Nom. Sélectionnez un set de correspondance dans la liste Sets de correspondance et saisissez un nom plus pertinent, si nécessaire.
3.
Pour chaque set de correspondance, sélectionnez le critère à faire correspondre.
Vous affecterez ensuite des champs de transformations en amont à ces critères.
4.
Sélectionnez l'option à utiliser pour la comparaison dans la colonne Comparer à l'aide de. Les options varient selon le critère choisi. Les options de comparaison sont les suivantes :
•
Similarité de champs
•
Similarité de mots
•
Différence numérique
•
Différence numérique en pourcentage
•
Proximité géographique
5.
Facultatif : Si vous choisissez de faire une correspondance sur Personnalisé, saisissez un nom pour le critère personnalisé dans la colonne Nom personnalisé.
6.
Facultatif : Si vous choisissez d'effectuer une correspondance sur Personnalisé, indiquez à quel point les données doivent correspondre pour que le critère en deux enregistrements soit considéré comme une correspondance. Les valeurs qui en résultent déterminent le degré de similarité attendu lors du processus de comparaison pour ce critère uniquement. Après avoir sélectionné une stratégie, vous pouvez modifier les valeurs des options de règles de comparaison en fonction de vos besoins de correspondance spécifiques. Sélectionnez l'un des éléments suivants dans la liste de la colonne
Exactitude personnalisée :
• Correspondance exacte : Les données de ce critère doivent être parfaitement identiques.
Aucune variation n'est autorisée dans les données.
• Correspondance élevée : Les données de ce critère doivent comporter un niveau élevé de similarité. Un faible niveau de variation est autorisé dans les données.
• Correspondance moyenne : Les données de ce critère doivent comporter un niveau moyen de similarité. Un niveau moyen de variation est autorisé dans les données.
435 2012-11-22
Qualité des données
436
• Correspondance faible : Les données de ce critère doivent comporter un niveau faible de similarité. Un niveau important de variation est autorisé dans les données.
16.4.3.3.3 Définition des niveaux de correspondance
Les niveaux de correspondance permettent de définir les processus de correspondance à différents niveaux liés de manière logique. Les niveaux de correspondance font référence à la catégorie globale de correspondance et non aux règles spécifiques de correspondance. Par exemple, une correspondance pour le niveau Domicile correspondra uniquement à des éléments d'adresse, une correspondance pour le niveau Famille correspondra uniquement au nom de famille et une correspondance pour le niveau
Individu correspondra uniquement au prénom.
La correspondance multiniveaux peut contenir jusqu'à trois niveaux dans un set de correspondance unique défini de façon incrémentielle. La correspondance multiniveaux alimente uniquement les enregistrements qui correspondent de niveau de correspondance en niveau de correspondance (à savoir résident, famille, individu) à des fins de comparaison.
Pour définir des niveaux de correspondance :
1.
Cliquez sur la correspondance de niveau supérieur et saisissez un nom pour le niveau (ou conservez le nom par défaut). Les critères par défaut sont déjà sélectionnés. Si vous ne voulez pas les utiliser, décochez la case.
La sélection des critères par défaut est un bon point de départ pour sélectionner des critères. Vous pouvez ajouter des critères pour chaque niveau afin d'obtenir des correspondances plus précises.
2.
Sélectionnez des critères complémentaires pour ce niveau.
3.
Si vous voulez utiliser des critères autres que ceux proposés, cliquez sur Personnalisé, puis sélectionnez les critères souhaités.
4.
Poursuivez jusqu'à ce que tous les niveaux requis soient renseignés.
16.4.3.3.4 Sélection de pays
Sélectionnez les pays dont les standards postaux peuvent être requis pour pouvoir comparer les données entrantes. Le panneau de gauche affiche une liste de tous les pays disponibles. Le panneau de droite affiche les pays que vous avez déjà sélectionnés.
1.
Sélectionnez le nom du pays dans la liste Tous les pays.
2.
Cliquez sur Ajouter pour le déplacer dans la liste Pays sélectionnés.
3.
Répétez les étapes 1 et 2 pour chaque pays à inclure.
Vous pouvez aussi sélectionner plusieurs pays à la fois et les ajouter tous en cliquant sur le bouton
Ajouter.
Les pays sélectionnés sont gardés en mémoire pour la prochaine session de l'Assistant Match.
16.4.3.3.5 Regroupement des pays dans des axes
Créez des axes pour regrouper les pays par combinaisons logiques selon vos règles de gestion (par exemple, Asie, Europe, Amérique du Sud). Chaque axe crée jusqu'à six sets de correspondance
(transformations Match).
2012-11-22
Qualité des données
437
1.
Sélectionnez le nombre d'axes à créer. La lise des axes reflète le nombre d'axes sélectionné et leur affecte un numéro d'axe.
2.
Pour créer chaque axe, sélectionnez un titre d'axe tel que Axe1.
3.
Sélectionnez les pays à inclure dans cet axe.
4.
Cliquez sur Ajouter pour déplacer les pays sélectionnés vers l'axe sélectionné.
Utilisez la liste COUNTRY UNKNOWN (__) pour les données dont le pays d'origine n'a pas été identifié.
Utilisez la liste COUNTRY OTHER (--) pour les données dont le pays d'origine a été identifié, mais n'existe pas dans la liste des pays sélectionnés.
5.
Dans Moteurs de comparaison, sélectionnez l'un des moteurs suivants pour chaque axe :
Remarque :
Toutes les transformations Match générées pour l'axe utiliseront le moteur de comparaison sélectionné.
• LATIN1 (par défaut)
•
CHINOIS
•
JAPONAIS
•
COREEN
•
TAIWANAIS
•
AUTRE_NON_LATIN1
Le bouton Suivant est activé uniquement lorsque tous les axes ont une entrée et tous les pays sont affectés à un axe.
16.4.3.3.6 Sélection de champs de critères
Sélectionnez et désélectionnez des champs de critères pour chaque set de correspondance et niveau de correspondance créés dans votre flux de données. Ces sélections déterminent quels sont les champs comparés pour chaque enregistrement. Certains critères peuvent être sélectionnés par défaut en fonction des données en entrée.
S'il n'existe qu'un seul champ du type de contenu approprié, il n'est pas possible de le modifier pour ces critères dans l'Assistant Match.
Pour activer le bouton Suivant, vous devez sélectionner au moins un champ standard de non-correspondance.
1.
Pour chaque champ de critères à inclure, sélectionnez un champ disponible dans la liste déroulante, qui contient des champs de sources en amont. Les champs disponibles sont limités aux types de contenu appropriés pour ces critères. Si aucun champ du type approprié n'est disponible, tous les champs en amont s'affichent dans le menu.
2.
Facultatif : désélectionnez les champs de critères que vous ne voulez pas inclure.
16.4.3.3.7 Création de clés de décomposition
Utilisez des clés de décomposition pour créer des groupes gérables de données à comparer. Le set de correspondance compare les données des enregistrements au sein de chaque groupe de
2012-11-22
Qualité des données décomposition uniquement et non à travers les différents groupes. Le fait d'effectuer des sélections correctes permet de réduire le temps de traitement en évitant les comparaisons de données profondément divergentes.
Les clés de décomposition sont particulièrement importantes lorsque vous traitez de gros volumes de données, car la taille des groupes de décomposition peut affecter le temps de traitement. Même si vos données ne sont pas volumineuses, les groupes de décomposition accélèrent le temps de traitement.
Créez des clés de décomposition qui regroupent des données similaires susceptibles de contenir des correspondances. N'oubliez pas que les enregistrements d'un groupe de décomposition ne seront pas comparés aux enregistrements d'un autre groupe de décomposition.
Par exemple, lorsque vous effectuez une correspondance pour rechercher des adresses en double, basez la clé de décomposition sur le code postal, la ville ou l'Etat pour créer les groupes les plus susceptibles de correspondre. Lorsque vous effectuez une correspondance pour rechercher des individus en double, basez la clé de décomposition sur le code postal et une partie du nom, qui sont les plus susceptibles de correspondre.
Création de clés de décomposition
1.
Dans la colonne "Combien de champs ?", sélectionnez le nombre de champs à inclure dans la clé de décomposition.
2.
Pour chaque clé de décomposition, sélectionnez les éléments suivants :
• le ou les champs dans la clé de décomposition
• le point de départ de chaque champ
• le nombre d'emplacements à lire dans chaque champ
3.
Après avoir défini les clés de décomposition, procédez comme suit :
• Cliquez sur Terminer. La transformation Match se termine.
• Si vous effectuez une correspondance multinationale, cliquez sur Suivant pour accéder à la page Critères de correspondance.
16.4.3.4 Après la configuration
Bien que l'Assistant Match fasse une grande partie du travail, voici quelques étapes à suivre pour exécuter correctement votre job de correspondance. Vous pouvez aussi effectuer d'autres opérations pour affiner votre processus de correspondance.
Se connecter aux transformations en aval
Lorsque l'Assistant Match a terminé, il place les transformations générées dans l'espace de travail, connectées à la transformation en amont que vous avez sélectionnée pour lancer l'Assistant Match.
Pour pouvoir exécuter votre job, vous devez connecter chaque port de la dernière transformation à une plateforme en aval. Pour ce faire, cliquez sur un port et faites-le glisser pour le connecter à l'objet souhaité.
438 2012-11-22
Qualité des données
Afficher et modifier la nouvelle transformation Match
Pour voir ce que contient la transformation générée par l'Assistant Match, cliquez avec le bouton droit sur la transformation et sélectionnez Editeur de correspondance.
Afficher et modifier les transformations Associate
Pour voir ce que contient la transformation Associate générée par l'Assistant Match, cliquez avec le bouton droit sur la transformation et sélectionnez Editeur associé.
Correspondance multinationale
Pour la stratégie de correspondance des consommateurs multinationaux, l'assistant crée une transformation Match pour chaque axe créé.
Attention :
Si vous supprimez des axes de l'espace de travail une fois qu'ils ont été générés par l'Assistant, vous devez ouvrir la transformation Case et supprimer les règles inutiles.
Rubriques associées
•
16.4.4 Transformations pour flux de données de correspondance
Les transformations Match et Associate sont les principales transformations utilisées dans la configuration d'une correspondance dans un flux de données. Ces transformations exécutent les fonctions de correspondance de base.
D'autres transformations peuvent être utilisées à des fins spécifiques pour optimiser la correspondance.
Transfor mation
Utilisation
Case
Route les données vers une transformation Match spécifique (set de correspondance). Cette transformation est couramment utilisée pour envoyer des données américaines et internationales vers différentes transformations.
Vous pouvez aussi l'utiliser pour router des enregistrements vides vers une transformation Match.
Merge
Query
Exécute les fonctions suivantes :
• Regroupe les données des transformations Match pour la correspondance Association.
• Regroupe les enregistrements correspondants et les enregistrements vides après fractionnement par une transformation Case.
Crée des champs, exécute des fonctions pour préparer les données pour la correspondance, classe les données, etc.
439 2012-11-22
Qualité des données
Exemple :
Lorsque vous devez ignorer des enregistrements d'un processus de correspondance spécifique
(généralement dans les flux de données associatives et toutes les fois que vous voulez disposer d'enregistrements avec des données vides pour ignorer un processus de correspondance), vous devez utiliser les transformations Case, Query et Merge.
440
• La transformation Case utilise deux routages : l'un envoie tous les enregistrements qui répondent aux critères vers la transformation Match et l'autre envoie tous les autres enregistrements vers le routage de correspondance ignorée.
• La transformation Query ajoute les champs générés par la transformation Match et vos données de sortie (le schéma de sortie de la transformation Match et celui de la transformation Query doivent
être identiques pour que les routes puissent être fusionnées). Le contenu des nouveaux champs de la transformation Query peut être renseigné avec une chaîne vide.
• La transformation Merge fusionne les deux routages en un seul.
16.4.4.1 Suppression de correspondance dans la transformation Match
Imaginons que vous vouliez disposer d'une transformation qui utilise certaines des fonctionnalités d'une transformation Match dans votre flux de données, mais qui n'inclut pas les fonctionnalités de correspondance. Par exemple, dans le cas où vous souhaitez effectuer une hiérarchisation ou une sélection de candidats dans un flux de données ou une partie d'un flux de données sans effectuer de correspondance.
1.
Cliquez avec le bouton droit de la souris sur la transformation Match dans la bibliothèque d'objets, puis sélectionnez Nouveau.
2.
Dans le champ Nom du format, saisissez un nom pertinent pour votre transformation. Il est utile d'indiquer le type de fonction que cette transformation doit exécuter.
3.
Cliquez sur OK.
4.
Glissez-déposez votre nouvelle transformation ainsi configurée dans l'espace de travail et connectez-la à votre flux de données.Match
5.
Cliquez avec le bouton droit sur votre nouvelle transformation, puis sélectionnez Editeur de
correspondance.
6.
Décochez l'option Exécuter la mise en correspondance dans l'angle supérieur gauche de l'éditeur
Match.
2012-11-22
Qualité des données
Vous pouvez à présent ajouter une opération disponible de votre choix à cette transformation.
16.4.5 Utilisation de l'éditeur de correspondance et de l'éditeur associé
Editeurs
Les éditeurs des transformations Match et Associate vous permettent de configurer vos schémas d'entrée et de sortie. Vous pouvez y accéder en cliquant deux fois sur l'icône de la transformation appropriée dans votre espace de travail.
Les éditeurs Match et Associate vous permettent de configurer les options de votre transformation.
Vous pouvez y accéder en cliquant avec le bouton droit sur la transformation appropriée et en sélectionnant Editeur de correspondance (ou Editeur associé).
Ordre de la configuration
Rappel :
L'ordre dans lequel vous configurez votre transformation Match est important !
Pour commencer, il est recommandé de mapper les champs d'entrée. Si vous ne le faites pas et que vous ajoutez une opération dans l'éditeur Match, il est possible que vous ne puissiez pas afficher un champ à utiliser pour cette opération.
Vous devez ensuite configurer vos options dans l'éditeur Match avant de mapper vos champs de sortie.
Le fait d'ajouter des opérations à la transformation Match (telles que ID unique et Grouper statistiques) peut vous fournir des champs utiles générés par la transformation Match à utiliser ultérieurement dans le flux de données ou à ajouter à votre base de données.
Exemple :
1.
Mapper les champs d'entrée.
2.
Configurer les options de la transformation.
3.
Mapper les champs de sortie.
16.4.6 Sources physiques et logiques
Le suivi des sources de données d'entrée et d'autres sources (qu'elles soient basées sur une source d'entrée ou sur un élément de données dans les lignes qui sont lues) à travers l'ensemble du flux de données est indispensable pour générer des rapports de correspondance informatifs. Selon les sources que vous suivez, vous devez créer les champs appropriés dans votre flux de données pour vous assurer que le logiciel génère les statistiques requises (si elles ne figurent pas déjà dans votre base de données).
• Source physique : Nom de fichier ou valeur attribué(e) à la source des données d'entrée.
441 2012-11-22
Qualité des données
442
• Source logique : Groupe d'enregistrements répartis sur plusieurs sources d'entrée ou ensemble d'enregistrements issus d'une source d'entrée unique.
Sources d'entrée physiques
Vous effectuez le suivi de votre source de données d'entrée en attribuant à cette source physique une valeur dans un champ. Vous utiliserez ensuite ce champ dans la transformation dans laquelle les statistiques du rapport sont générées.
Pour attribuer cette valeur, ajoutez une transformation Query après la source et ajoutez une colonne avec une constante contenant le nom à affecter à la source.
Remarque :
Si votre source est un fichier plat, vous pouvez utiliser l'option Inclure la colonne Nom du fichier pour générer automatiquement une colonne contenant le nom du fichier.
Sources d'entrée logiques
Pour compter le statistiques sources dans la transformation Match (pour le rapport Résumé des statistiques source de correspondance, par exemple), vous devez créer un champ à l'aide d'une transformation Query ou User-Defined (si vos sources de données d'entrée n'en contiennent pas déjà un).
Ce champ effectue un suivi des différentes sources dans un lecteur à des fins de reporting et est utilisé dans l'opération Grouper statistiques de la transformation Match pour générer les statistiques source.
Il est également utilisé dans les tables de comparaison pour spécifier les sources à comparer.
16.4.6.1 Utilisation des sources
Une source est un regroupement d'enregistrements effectué sur la base de caractéristiques de données identifiables. Une source peut correspondre à tous les enregistrements d'un fichier d'entrée ou à tous les enregistrements contenant une valeur donnée dans un champ donné.
Les sources sont abstraites et arbitraires : il n'y a pas de démarcation physique entre elles.
L'appartenance source peut recouper des fichiers d'entrée ou des enregistrements de base de données et établir une distinction entre des enregistrements au sein d'un fichier ou d'une base de données selon la manière dont vous définissez la source.
Si vous voulez traiter tous vos enregistrements d'entrée comme des enregistrements éligibles standard de priorité équivalente, il n'est pas nécessaire d'inclure des sources dans votre job.
En règle générale, un utilisateur de correspondances cherche à obtenir une caractéristique ou un ensemble de caractéristiques suffisamment pertinent(e) pour sélectionner le meilleur enregistrement correspondant ou déterminer les enregistrements à inclure ou exclure d'une liste de publipostage, par exemple. Les sources vous permettent d'ajouter ces caractéristiques à un enregistrement du fait de l'appartenance de l'enregistrement dans la source en question.
Avant d'aborder en détails la configuration et l'utilisation des sources, voici certaines des nombreuses raisons pour lesquelles vous pouvez être amené à inclure des sources dans votre job :
2012-11-22
Qualité des données
• Donner la priorité à un ensemble d'enregistrements par rapport à d'autres. Vous pouvez, par exemple, vouloir donner la priorité aux enregistrements de votre base de données personnelle ou d'une source
Suppression au détriment des enregistrements d'un fichier de mise à jour.
• Identifier un ensemble d'enregistrements correspondant à des sources Suppression comme le fichier
DMA.
• Configurer un ensemble d'enregistrements qui ne doivent pas être pris en compte dans le statut multi-source. Par exemple, certains expéditeurs utilisent une source fictive d'acheteurs potentiels qui génèrent des rapports lorsqu'ils reçoivent le courrier pour leur permettre d'évaluer la réception de ce courrier. Il s'agit d'enregistrements d'un type spécial.
• Diminuer le temps de traitement en annulant la comparaison au sein d'un ensemble d'enregistrements pour lesquels vous savez qu'aucune correspondance n'existe. Dans ce cas, vous devez savoir qu'il n'existe pas d'enregistrements correspondants dans la source, mais qu'il peut exister des correspondances parmi les sources. Pour diminuer le temps de traitement, vous pouvez configurer des sources et annuler la comparaison au sein de chaque source.
• Obtenir des statistiques de rapport distinctes pour un ensemble d'enregistrements au sein d'une source ou obtenir des statistiques de rapport pour des groupes de sources.
• Protéger une source contre l'écrasement des données par une opération de meilleur enregistrement ou d'ID unique. Vous pouvez protéger les données sur la base de l'appartenance dans une source.
16.4.6.2 Types de sources
Vous pouvez identifier chaque source comme appartenant à l'un des types suivants : Normal,
Suppression ou Special. Le logiciel peut traiter vos enregistrements différemment selon le type de source.
443 2012-11-22
Qualité des données
Source
Normal
Suppression
Spécial
Description
Une source Normal est un groupe d'enregistrements considérés comme éligibles.
Une source Suppression contient des enregistrements qui excluent souvent l'utilisation d'un enregistrement. Par exemple, si vous utilisez Match pour affiner une source de courrier, une source Suppression peut vous aider à supprimer des enregistrements du courrier. Exemples :
• Fichier de préférence de courrier DMA
• Sources carcérales de l'American Correctional Association
• Sources de personnes n'ayant pas donné leur accord ou non-répondantes
• Sources de suppression de cartes de crédit ou chèques sans provision
Une source Special est traitée comme une source Normal à une exception près. La source Special n'est pas prise en compte pour déterminer si un groupe de correspondance est de source unique ou multi-source. La source Special peut contribuer à des enregistrements, mais elle n'est pas prise en compte dans le statut multi-source.
Par exemple, certaines sociétés utilisent une source de noms fictifs. Il s'agit de noms de personnes qui génèrent des rapports lorsqu'elles reçoivent un publipostage, pour permettre à l'expéditeur d'évaluer la réception du courrier.
Le contenu de la source fictive n'est pas pris en compte dans le statut multisource.
L'intérêt d'identifier le type de source est de définir cette identité pour chacun des enregistrements membres de la source. Le type de source joue un rôle important dans le contrôle de la priorité (ordre) des enregistrements dans un groupe de décomposition, dans la manière dont le logiciel traite les enregistrements correspondants (les membres des groupes de correspondance) et dans la manière dont le logiciel génère la sortie (à savoir, s'il inclut ou exclut un enregistrement dans/de sa sortie).
16.4.6.2.1 Définition manuelle de sources d'entrée
Après avoir mappé un champ d'entrée contenant les valeurs source, vous pouvez créer vos sources dans l'éditeur Match.
1.
Dans l'éditeur Match, sélectionnez Options de transformation dans le volet de l'explorateur situé
à gauche, cliquez sur le bouton Ajouter, puis sélectionnez Sources d'entrée.
La nouvelle opération Sources d'entrée apparaît sous Options de transformation dans le volet de l'explorateur. Sélectionnez-la pour afficher les options Source d'entrée.
2.
Dans la liste déroulante Champ de valeur, sélectionnez le champ contenant la valeur de la source d'entrée.
3.
Dans la table Définir sources, créez un nom de source, saisissez une valeur source existant dans le champ Valeur pour cette source, puis sélectionnez un type de source.
4.
Sélectionnez une valeur dans l'option Nom de source par défaut. Ce nom sera utilisé pour tout enregistrement dont la valeur du champ source est vide.
444 2012-11-22
Qualité des données
Pensez à cliquer sur le bouton Appliquer pour sauvegarder vos modifications avant de passer à une autre opération dans l'éditeur Match.
16.4.6.2.2 Définition automatique de sources d'entrée
Pour éviter de définir manuellement vos sources d'entrée, vous pouvez sélectionnez l'option Générer
automatiquement des sources dans l'opération Sources d'entrée.
1.
Dans l'éditeur Match, sélectionnez Options de transformation dans le volet de l'explorateur situé
à gauche, cliquez sur le bouton Ajouter, puis sélectionnez Sources d'entrée.
La nouvelle opération Sources d'entrée apparaît sous Options de transformation dans le volet de l'explorateur. Sélectionnez-la pour afficher les options Source d'entrée.
2.
Dans la liste déroulante Champ de valeur, sélectionnez le champ contenant la valeur de la source d'entrée.
3.
Sélectionnez une valeur dans l'option Nom de source par défaut. Ce nom sera utilisé pour tout enregistrement dont la valeur du champ source est vide.
4.
Sélectionnez l'option Générer automatiquement des sources.
5.
Sélectionnez une valeur dans l'option Type par défaut.
Le type par défaut sera affecté à toute source dont le type n'est pas encore défini dans le champ
Type.
6.
Sélectionnez un champ dans la liste déroulante dans l'option Champ type.
La génération automatique de sources crée une source pour chaque valeur unique dans le champ
Valeur. Tout enregistrement dont le champ Valeur n'est pas défini se voit attribuer le nom de source par défaut.
445
16.4.6.3 Groupes source
La fonctionnalité de groupes source permet de gérer les sources à un niveau supérieur. Imaginons, par exemple, que vous ayez loué plusieurs fichiers auprès de deux gestionnaires. Vous définissez cinq sources à utiliser dans le classement des enregistrements. De plus, vous voulez que les statistiques de votre job soient ventilées par gestionnaire et par fichier. Pour ce faire, vous pouvez définir des groupes de sources pour chaque gestionnaire.
Les groupes source affectent principalement les rapports. Toutefois, vous pouvez aussi utiliser des groupes source pour sélectionner des enregistrements de sources multiples en fonction du nombre de groupes source dans lesquels un nom apparaît.
N'oubliez pas que vous ne pouvez pas utiliser les groupes source comme vous utilisez les sources.
Par exemple, vous ne pouvez pas donner à un groupe source la priorité sur un autre.
16.4.6.3.1 Création de groupes source
Des sources d'entrée doivent être définies dans une opération Source d'entrée pour pouvoir ajouter cette opération ou définir vos groupes source.
2012-11-22
Qualité des données
1.
Sélectionnez une transformation Match dans votre flux de données, puis sélectionnez Outils >
Editeur de correspondance.
2.
Dans l'éditeur Match, sélectionnez Options de transformation dans le volet de l'explorateur situé
à gauche, cliquez sur le bouton Ajouter, puis sélectionnez Groupes source.
La nouvelle opération Groupes source apparaît sous l'opération Sources d'entrée dans le volet de l'explorateur. Sélectionnez-la pour afficher les options Groupe source.
3.
Confirmez que les sources d'entrée requises se trouvent dans la colonne Sources située à droite.
4.
Cliquez deux fois sur la première ligne dans la colonne Groupes source située à gauche, puis saisissez un nom pour votre premier groupe source et appuyez sur Entrée.
5.
Sélectionnez une source dans la colonne Sources, puis cliquez sur le bouton Ajouter.
6.
Sélectionnez une valeur pour l'option Action non définie.
Cette option spécifie l'action à exécuter si une source d'entrée n'apparaît pas dans un groupe source.
7.
Si vous avez sélectionné Par défaut comme action non définie à l'étape précédente, vous devez sélectionner une valeur dans l'option Groupe source par défaut.
Cette option est renseignée avec les groupes source que vous avez déjà définis. Si une source d'entrée n'est pas affectée à un groupe source, elle est affectée à ce groupe source par défaut.
8.
Si vous le souhaitez, sélectionnez un champ dans la liste déroulante de l'option Champ du groupe
source contenant la valeur de vos groupes source.
16.4.7 Préparation de correspondance
16.4.7.1 Préparation des données pour la correspondance
Correction et normalisation des données
La précision des correspondances dépend de la qualité des données utilisées dans la transformation
Match. Pour établir une correspondance batch, il est toujours recommandé d'intégrer l'une des transformations de nettoyage d'adresse et une transformation Data Cleanse dans le flux de données avant de lancer la mise en correspondance.
Filtrage des enregistrements vides
Vous devez filtrer les enregistrements vides avant la mise en correspondance. Vous bénéficierez ainsi de meilleures performances. Utilisez une transformation Case pour diriger les enregistrements vers un autre chemin ou une transformation Query pour filtrer ou bloquer les enregistrements.
446 2012-11-22
Qualité des données
Mots parasites
Vous pouvez exécuter une recherche et remplacer les mots non significatifs pour le processus de correspondance. Dans le cas d'une correspondance basée sur les données société, des mots tels que
Inc., Corp., et Ltd. peuvent être supprimés. Pour cela, vous pouvez utiliser la fonction de recherche et remplacement dans la transformation Query.
Groupes de décomposition
Les groupes de décomposition organisent les enregistrements dans des collections représentant des correspondances potentielles, ce qui réduit le nombre de comparaisons à effectuer par la transformation
Match. Pour de meilleures performances, insérez une opération Groupe de décomposition dans la transformation Match.
Standards de correspondance
Pour obtenir plus facilement une correspondance, vous pouvez inclure des variantes de nom ou de données société dans le processus de correspondance. La variante de Bill correspond, par exemple,
à William. Pour effectuer des comparaisons, il est possible d'utiliser les données d'origine et une ou plusieurs variantes. Selon le type de données, vous pouvez ajouter un nombre compris entre un et cinq de variantes ou standards de correspondance à l'endroit de votre choix.
Si, par exemple, les prénoms sont comparés mais ne correspondent pas, les variantes sont comparées.
Si les variantes correspondent, les deux résultats ont encore une chance de concorder car les prénoms d'origine n'ont pas été considérés comme une correspondance.
Standards de correspondance personnalisée
Vous pouvez établir la correspondance d'après des champs de sortie Data Cleanse personnalisés et les alias associés. Mappez les champs de sortie personnalisés de Data Cleanse et les champs personnalisés s'afficheront dans l'onglet Champs de critères de l'éditeur de correspondance.
16.4.7.1.1 Champs à inclure pour la correspondance
Pour bénéficier des nombreuses fonctionnalités de la transformation Match, vous devez mapper plusieurs champs d'entrée autres que ceux que vous voulez utiliser comme critères de correspondance.
Exemple :
Voici certains des champs que vous pouvez inclure : Les noms des champs sont sans importance tant que vous vous souvenez des données qu'ils contiennent.
Contenu du champ
Source logique
Source physique
Contient...
Valeur qui spécifie de quelle source logique un enregistrement est issu. Ce champ est utilisé dans l'opération Grouper statistiques, dans les tables de comparaison et dans la transformation Associate.
Valeur qui spécifie de quelle source physique un enregistrement est issu. (Par exemple, un objet source ou un groupe d'enregistrements sélectionnés par le candidat.)
Ce champ est utilisé dans les options de la transformation Match, dans l'opération
Sélection du candidat et dans la transformation Associate.
447 2012-11-22
Qualité des données
Contenu du champ Contient...
Clés de décomposition
Champs de critères
Indicateurs de nombre
Priorité d'enregistrement
Champ qui contient la valeur de clé de décomposition pour la création de groupes de décomposition. Le fait d'inclure un champ qui contient déjà la valeur de clé de décomposition peut améliorer la performance dans la création des groupes de décomposition, car, dans ce cas, la transformation Match n'a pas à analyser plusieurs champs pour créer la clé de décomposition.
Champs qui contiennent les données à mettre en correspondance.
Valeur Oui ou Non pour indiquer si une source logique doit être comptée dans une opération Grouper statistiques.
Valeur utilisée pour indiquer qu'un enregistrement a la priorité sur un autre lors du classement des enregistrements. Ce champ est utilisé dans les opérations Hiérarchisation du groupe.
Appliquer une pénalité pour champ vide
Valeur ID unique de départ
Valeur Oui ou Non pour indiquer si Match doit appliquer une pénalité pour champ vide à un enregistrement. Ce champ est utilisé dans les opérations Hiérarchisation du groupe.
Valeur ID de départ incrémentée de 1 chaque fois qu'un ID unique est affecté. Ce champ est utilisé dans l'opération ID unique.
Il ne s'agit pas d'une liste complète. Selon les fonctionnalités que vous voulez utiliser, vous pouvez inclure d'autres champs qui seront utilisés dans la transformation Match.
448
16.4.7.2 Contrôle des comparaisons d'enregistrements
Le contrôle du nombre de comparaisons d'enregistrements dans le processus de correspondance est important pour deux raisons :
• Vitesse : En contrôlant le nombre réel de comparaisons, vous pouvez réduire le temps de traitement.
• Qualité de correspondance : En regroupant uniquement les enregistrements susceptibles de correspondre, vous êtes assuré d'obtenir de meilleurs résultats dans votre processus de correspondance.
Le contrôle du nombre de comparaisons s'effectue principalement dans la section Formation du groupe de l'éditeur de correspondance avec les opérations suivantes :
• Groupe de décomposition : décomposez vos enregistrements en petits groupes d'enregistrements plus susceptibles de correspondre.
• Sélection du candidat : sélectionnez uniquement les candidats de correspondance dans une table de base de données. Cette opération est principalement utilisée pour les jobs en temps réel.
2012-11-22
Qualité des données
Vous pouvez aussi utiliser des tables de comparaison pour inclure ou exclure des enregistrements pour comparaison par une source logique.
Rubriques associées
•
•
•
16.4.7.2.1 Groupes de décomposition
Lorsque vous créez des groupes de décomposition, vous placez les enregistrements dans des groupes susceptibles de correspondre. Par exemple, un scénario courant consiste à créer des groupes de décomposition basés sur un code postal. Cela permet de s'assurer que les enregistrements de codes postaux différents ne seront jamais comparés, car les chances de trouver un enregistrement correspondant avec un code postal différent sont très minces.
Clés de décomposition
Vous formez des groupes de décomposition en créant une clé de décomposition, à savoir un champ constitué de parties d'autres champs ou un champ unique qui est ensuite utilisé pour regrouper les enregistrements basés sur des données similaires.
Voici un exemple de clé de décomposition type créée en combinant les cinq chiffres du champ Postcode1 et les trois premiers caractères du champ Address_Primary_Name.
Champ (position de départ : longueur)
Données du champ Clé de décomposition générée
Postcode1 (1:5)
Address_Primary_Name
(1:3)
10101
Main
10101Mai
Dans cet exemple, tous les enregistrements correspondant à la clé de décomposition générée sont placés dans le même groupe de décomposition et comparés.
Tri des enregistrements dans le groupe de décomposition
Les enregistrements sont triés dans le champ de la clé de décomposition.
Vous pouvez ajouter une opération Hiérarchisation du groupe après l'opération Groupes de décomposition pour indiquer les enregistrements pilotes.
Rappel :
L'ordre est important ! Si vous créez des groupes de décomposition à l'aide d'enregistrements issus d'une source de type Suppression, assurez-vous que les enregistrements de suppression sont les pilotes dans le groupe de décomposition.
449 2012-11-22
Qualité des données
Structure des groupes de décomposition
Les groupes de décomposition sont constitués d'enregistrements pilotes et d'enregistrements passagers.
L'enregistrement pilote est le premier enregistrement dans le groupe de décomposition et tous les autres enregistrements sont des enregistrements passagers.
L'enregistrement pilote est celui qui pilote le processus de comparaison dans la correspondance. Le pilote est d'abord comparé à tous les passagers.
Cet exemple est basé sur une clé de décomposition qui utilise les trois premiers chiffres du code postal.
450
Clés de décomposition phonétiques
Vous pouvez aussi utiliser les fonctions Soundex et Double Metaphone pour créer des champs contenant des codes phonétiques, qui peuvent ensuite être utilisés pour former des groupes de décomposition pour la correspondance.
Rubriques associées
•
• Guide de la console de gestion : Rapports Data Quality, rapport Contribution de correspondance
Création de groupes de décomposition
Il est recommandé de standardiser les données avant de créer les clés de décomposition. Les données peuvent être traitées différemment, par exemple avoir une casse incohérente.
1.
Ajoutez une opération Groupes de décomposition au groupe d'options Formation du groupe.
2.
Ajoutez une ligne dans la table de clés de décomposition en cliquant sur le bouton Ajouter.
3.
Sélectionnez un champ dans la colonne Champ que vous voulez utiliser comme clé de décomposition.
Le code postal est une clé de décomposition courante.
2012-11-22
Qualité des données
4.
Sélectionnez la position de début et la longueur (nombre de caractères) à utiliser dans votre clé de décomposition.
Vous pouvez utiliser des nombres entiers négatifs pour indiquer que vous voulez débuter à la fin de la longueur réelle de la chaîne et non de la longueur spécifiée du champ. Par exemple,
Champ(-3,3) prend les 3 derniers caractères de la chaîne, qu'elle ait une longueur de 10 ou de 5.
5.
Ajoutez des lignes et des champs, si nécessaire.
6.
Classez vos lignes en sélectionnant une ligne, puis en cliquant sur les boutons Déplacer vers le
haut et Déplacer vers le bas.
Le classement des lignes permet de s'assurer que les champs sont utilisés dans le bon ordre dans la clé de classification.
Votre clé de classification est créée.
16.4.7.2.2 Sélection de candidats
Pour accélérer le traitement dans un job de correspondance, utilisez l'opération Sélection du candidat
(groupe d'options Formation du groupe) dans la transformation Match pour ajouter des rapports d'une base de données relationnelle à une collection de données existante avant la mise en correspondance.
Lors de leur ajout, les enregistrements ne sont pas regroupés de façon logique. Ils sont simplement ajoutés à la fin de la collection de données, enregistrement par enregistrement, jusqu'à ce que la collection atteigne la taille définie.
Supposons que vous disposiez d'une nouvelle source d'enregistrements que vous voulez comparer à votre entrepôt de données dans un job batch. Vous pouvez sélectionner les enregistrements correspondant aux clés de décomposition de la nouvelle source à partir de cet entrepôt. Cette méthode contribue à limiter le nombre de comparaisons à effectuer par la transformation Match.
En voici une illustration simplifiée : supposons que votre job compare une nouvelle base de données source - un petit fichier régional - à une importante base de données nationale comprenant
15 enregistrements de 43 000 codes postaux. Supposons ensuite que vous vouliez former des groupes de décomposition en fonction du code postal seulement.
451 2012-11-22
Qualité des données
Notes Régional
Sans la sélection du candidat, la transformation Match lit tous les enregistrements des deux bases de données.
1 500
Avec la sélection du candidat, seuls les enregistrements qui seraient inclus dans un groupe de décomposition sont lus.
1 500
National
750 000
Environ 600 (40 x 15)
Total
751 500
2 100
Banques de données et sélection de candidats
Pour utiliser la sélection de candidats, vous devez vous connecter à une banque de données valide.
Vous pouvez vous connecter à une banque de données basée sur SQL ou utilisant un cache persistant.
Les deux présentent des avantages selon que votre source secondaire est statique (rarement mise à jour) ou dynamique (souvent mise à jour).
Banque de données utilisant un cache persistant
Similaire à toute autre banque de données permettant de charger votre ensemble de candidats. Si la source secondaire que vous utilisez pour votre sélection de candidats est statique (rarement modifiée), vous pouvez envisager de créer un cache persistant à utiliser comme table secondaire plutôt que d'utiliser votre source secondaire directement. Vous pouvez améliorer la performance.
Vous pouvez aussi l'améliorer en utilisant un fichier plat (format de recherche plus simple que SGBDR) pour votre cache persistant. Si la source secondaire n'est pas SGBDR, par exemple un fichier plat, vous ne pouvez pas l'utiliser comme "banque de données". Dans ce cas, vous pouvez créer un cache persistant à partir de cette source de fichier plat, puis l'utiliser pour la sélection de candidats.
Remarque :
Un cache persistant utilisé pour la sélection de candidats doit être créé par un flux de données sur deux octets. Pour ce faire, vous devez modifier l'option Paramètres régionaux dans le Sélecteur de paramètres régionaux Data Services (définissez la page de code sur utf-8). Exécutez le job pour générer le cache persistant. Vous pouvez ensuite redéfinir la page de code sur sa définition initiale, si vous le souhaitez.
Taille du cache
L'amélioration des performances à l'aide du cache persistant dépend aussi de la taille des données de la source secondaire. Plus la taille des données chargées dans le cache persistant augmente, plus les performances risquent de diminuer. Notez aussi que si la table de la source secondaire initiale est correctement indexée et que sa vitesse est optimisée, la création d'un cache persistant (ou même d'un cache pré-chargé) ne présente pas forcément d'intérêt.
Rubriques associées
•
Banques de données de cache persistant
452 2012-11-22
Qualité des données
453
SQL généré automatiquement ou personnalisé
Dans certains cas, la transformation Match peut générer le SQL. Sinon, vous devez le créer. Cela dépend des options que vous avez définies et de la configuration de votre table secondaire (la table dans laquelle vous sélectionnez des candidats de correspondance).
Servez-vous de cette table pour déterminer si vous pouvez utiliser un SQL généré automatiquement ou si vous devez créer votre propre SQL.
Remarque :
Dans les scénarios suivants, les “données d'entrée” font référence à des champs de clé de décomposition issus d'une transformation en amont de la transformation Match (une transformation Query par exemple) ou à des champs de clé de décomposition issus de l'opération Groupe de décomposition au sein de la transformation Match.
Scénario
Générer automatiquement ou personnaliser ?
Vous disposez d'un seul champ de clé de décomposition dans vos données d'entrée et du même champ dans votre table secondaire.
Générer automatiquement
Vous disposez de plusieurs champs de clé de décomposition dans vos données d'entrée et des mêmes champs dans votre table secondaire.
Vous disposez de plusieurs champs de clé de décomposition dans vos données d'entrée et d'un seul champ de clé de décomposition dans votre table secondaire.
Générer automatiquement
Générer automatiquement
Vous disposez d'un seul champ de clé de décomposition dans vos données d'entrée et de plusieurs champs de clé de décomposition dans votre table secondaire.
Vous disposez de plusieurs champs de clé de décomposition dans vos données d'entrée, mais d'un format ou d'un nombre de champs différents dans votre table secondaire.
Personnaliser
Personnaliser
Vous voulez effectuer votre sélection dans plusieurs sources d'entrée.
Personnaliser
Clés de décomposition et sélection de candidats
Il est recommandé de créer une colonne de clé de décomposition dans la table secondaire (celle qui contient les enregistrements à comparer aux données d'entrée dans le flux de données) correspondant
à la clé de décomposition utilisée pour créer les groupes de décomposition dans la transformation
Match. Cela simplifie la configuration de l'opération Sélection de candidats. En outre, chaque colonne doit être indexée.
2012-11-22
Qualité des données
454
Il est également recommandé de créer et renseigner la base de données utilisée avec un champ de clé de décomposition unique plutôt que d'extraire des sous-chaînes de champs de base de données pour créer votre clé de décomposition. Cela peut améliorer la performance de la sélection de candidats.
Remarque :
Les enregistrements extraits par la sélection de candidats sont ajoutés à la fin d'un groupe de décomposition existant (le cas échéant). Par conséquent, si vous ne reclassez pas les enregistrements
à l'aide d'une opération Hiérarchisation du groupe après l'opération Sélection de candidats, les enregistrements de la source d'origine seront toujours les enregistrements pilotes dans les groupes de décomposition. Si vous utilisez la sélection de candidats sur une source Suppression, vous devez reclasser les enregistrements pour que les enregistrements de la source Suppression soient les enregistrements pilotes.
Configuration de la sélection du candidat
Si vous utilisez la Sélection du candidat pour un job en temps réel, veillez à décocher l'option Fractionner
les enregistrements en groupes de décomposition dans l'opération Groupe de décomposition de la transformation Match.
Pour accélérer le temps de traitement dans un job de correspondance en temps réel, utilisez l'opération
Sélection du candidat (groupe d'options Formation du groupe) dans la transformation Match pour ajouter des enregistrements d'une base de données relationnelle à une collection de données existante avant la correspondance. Lorsque les enregistrements sont ajoutés, ils ne sont pas regroupés de façon logique. Ils sont simplement ajoutés un à un à la fin de la collection de données jusqu'à ce qu'elle atteigne la taille spécifiée.
1.
Dans l'opération Sélection du candidat, sélectionnez une banque de données valide dans la liste déroulante Banque de données.
2.
Dans la liste déroulante Type de cache, sélectionnez l'une des valeurs suivantes :
Option
Aucun_Cache
Cache_de_préchargement
Description
Capture les données à un moment précis. Les données ne sont pas modifiées tant que le job n'a pas été relancé.
Utilisez cette option pour les données statiques.
3.
Selon la manière dont vos données d'entrée et votre table secondaire sont structurées, procédez comme suit :
• Sélectionnez Générer automatiquement le SQL. Sélectionnez ensuite l'option Utiliser une
colonne de décomposition à partir de la base de données (si vous en avez une), puis sélectionnez une colonne dans la liste déroulante Champ de clé de décomposition.
Remarque :
Si vous sélectionnez l'option Générer automatiquement le SQL, il est recommandé de disposer d'une colonne de clé de décomposition dans la table secondaire, puis de sélectionner l'option
Utiliser une colonne de décomposition &à partir de la base de données. Dans le cas contraire, le SQL créé pourrait être incorrect.
2012-11-22
Qualité des données
• Sélectionnez Créer SQL personnalisé, puis cliquez sur le bouton Lancer l'éditeur SQL ou saisissez votre SQL dans la zone d'édition SQL.
4.
Pour effectuer un suivi de vos enregistrements depuis la source d'entrée, sélectionnez Utiliser une
valeur source constante.
5.
Saisissez une valeur qui représente votre source dans l'option Valeur source physique, puis sélectionnez un champ contenant cette valeur dans la liste déroulante Champ source physique.
6.
Dans la table Mappage des colonnes, ajoutez autant de lignes que nécessaire. Chaque ligne représente un champ qui sera ajouté à la collection.
a.
Sélectionnez un champ dans la colonne Nom mappé.
b.
Sélectionnez une colonne dans votre table secondaire (ou dans une requête personnalisée) dans l'option Nom de la colonne, qui contienne le même type de données que celles spécifiées dans la colonne Nom mappé.
Si vous avez déjà défini vos clés de décomposition dans le groupe d'options Groupe de décomposition, les champs utilisés pour créer la clé de décomposition sont publiés ici, avec la colonne Groupe de décomposition définie sur OUI.
Ecriture d'un SQL personnalisé
Utilisation de caractères génériques
Pour éviter les instructions SQL compliquées, vous devez utiliser des caractères génériques (qui sont remplacés par des données d'entrée réelles) dans votre clause WHERE.
Imaginons, par exemple, que la base de données client contienne un champ appelé MatchKey et que l'enregistrement soumis au processus de nettoyage soit doté d'un champ généré appelé MATCH_KEY.
Le champ possède un caractère générique [MATCHKEY]. Les enregistrements sélectionnés dans la base de données client et ajoutés à la collection de données existante sont ceux qui contiennent la même valeur dans le champ MatchKey et dans le champ MATCH_KEY de la transaction. Imaginons ici que la valeur réelle soit un numéro de téléphone à 10 chiffres.
Voici un exemple de SQL avec un numéro de téléphone réel à la place du caractère générique
[MATCHKEY].
SELECT ContactGivenName1, ContactGivenName2, ContactFamilyName, Address1, Address2, City, Region, Postcode,
Country, AddrStreet, AddrStreetNumber, AddrUnitNumber
FROM TblCustomer
WHERE MatchKey = '123-555-9876';
Attention :
Vous devez vous assurer que la performance de l'instruction SQL est optimisée et génèrera des résultats valides. L'opération Sélection de candidats ne le fait pas à votre place.
Remplacez le caractère générique par les valeurs réelles.
Après avoir testé le SQL avec les valeurs réelles, vous devez remplacer ces valeurs par des caractères génériques ([MATCHKEY], par exemple).
455 2012-11-22
Qualité des données
456
Voici à quoi votre SQL devrait ressembler à présent :
SELECT ContactGivenName1, ContactGivenName2, ContactFamilyName, Address1, Address2, City, Region, Postcode,
Country, AddrStreet, AddrStreetNumber, AddrUnitNumber
FROM TblCustomer
WHERE MatchKey = [MATCHKEY];
Remarque :
Les caractères génériques ne peuvent pas être utilisés pour des valeurs de liste, par exemple dans une clause IN :
WHERE status IN ([status])
Si [status] est une liste de valeurs, l'instruction SQL échoue.
16.4.7.2.3 Tables de comparaison
Les tables de comparaison sont des ensembles de règles qui définissent les enregistrements à comparer, un moyen supplémentaire de créer des groupes de décomposition. Vous utilisez les valeurs de votre source logique pour déterminer les enregistrements à comparer.
En utilisant des tables de comparaison, vous pouvez comparer des enregistrements au sein de sources spécifiques ou comparer des enregistrements à travers différentes sources ou une combinaison des deux.
Configuration d'une table de comparaison
Veillez à inclure un champ contenant une valeur de source logique avant d'ajouter une opération Table de comparaison à la transformation Match (dans le groupe d'options de niveau Match).
Voici un exemple illustrant la configuration d'une table de comparaison. Imaginons que vous disposiez de deux ID (A et B) et que vous vouliez uniquement effectuer des comparaisons entre les différentes sources et non pas au sein des sources.
1.
Si la section Correspondance ne contient pas de table de comparaison, cliquez avec le bouton droit de la souris sur Correspondance > <Nom du niveau>, puis sélectionnez Ajouter > Comparer.
2.
Définissez l'option Action par défaut sur AUCUNE_CORRESPONDANCE, puis saisissez Aucune dans l'option Valeur source logique par défaut.
Ainsi, la transformation Match ne comparera pas tout, mais suivra les règles de comparaison définies par les entrées de la table.
Remarque :
Choisissiez avec soin les noms des sources logiques. L'entrée “Aucun” dans l'option Valeur source
logique par défaut ne fonctionnera pas si vous disposez d'un ID source appelé “Aucune”.
3.
Dans la table Actions de comparaison, ajoutez une ligne, puis définissez la Valeur pilote sur A et la Valeur passager sur B.
4.
Définissez Action sur Comparer.
2012-11-22
Qualité des données
Remarque :
Tenez compte de toutes les valeurs de sources logiques. Les exemples de valeurs saisies ci-dessus supposent que A sera toujours l'ID pilote. Si vous pensez disposer d'un enregistrement pilote avec une valeur autre que A, configurez une entrée de table pour tenir compte de cette valeur et de la valeur ID passager. N'oubliez pas que l'enregistrement pilote est le premier enregistrement lu dans une collection.
Si vous ne renseignez pas les options Valeur pilote et Valeur passager dans la table de comparaison, cela signifie que vous voulez comparer toutes les sources. Ainsi, dans le cas d'une valeur pilote A et d'un enregistrement passager vide avec une action Comparer, un enregistrement
A sera comparé à tous les autres enregistrements passager.
Il arrive que les données dans les collections soient classées différemment de ce que peut attendre votre table de comparaison ou qu'elles ne soient pas classées du tout. Dans ce cas, le processus de correspondance peut manquer des doublons.
Dans cet exemple, la manière dont vous configurez la ligne de votre table Actions de comparaison signifie que vous vous attendez à ce que l'enregistrement pilote porte la valeur pilote A ; or, s'il porte la valeur B et que l'enregistrement passager porte la valeur A, ils ne seront pas comparés.
Pour prendre en compte les cas où un enregistrement pilote porte la valeur B et l'enregistrement passager la valeur A, par exemple, ajoutez une autre ligne dans la table, qui exécute l'opération inverse.
Ainsi, tout enregistrement portant la valeur A ou B sera comparé, indépendamment du pilote ou du passager.
Remarque :
En règle générale, si vous utilisez une source Suppression, vous devez effectuer une comparaison dans les autres sources. Cela permet de s'assurer que toutes les correspondances de ces sources sont supprimées lorsqu'elles dupliquent un enregistrement dans la source Suppression, indépendamment de l'enregistrement pilote.
457
16.4.7.3 Classement et hiérarchisation des enregistrements
Vous disposez peut-être de sources de données, telles que votre propre entrepôt de données, plus fiables que les enregistrements issus d'autres sources (source louée, par exemple). Vous préférez peut-être aussi les enregistrements récents aux enregistrements plus anciens ou les enregistrements complets à ceux contenant des champs vides. Quelles que soient vos préférences, vous pouvez les exprimer dans le processus de correspondance en utilisant des priorités.
Vous pouvez aussi souhaiter que vos enregistrements au sein d'une opération spécifique (par exemple, correspondance ou meilleur enregistrement) soient exécutés dans un ordre donné. Par exemple, vous pouvez souhaiter que vos groupes de correspondance soient classés de telle sorte que le premier enregistrement entré soit l'enregistrement le plus récent du groupe. Dans ce cas, vous devez classer vos enregistrements en fonction d'un champ de date.
Il existe deux manières de classer les enregistrements, avant ou après le processus de comparaison :
2012-11-22
Qualité des données
• Classement des enregistrements dans des groupes de décomposition ou des groupes de correspondance à l'aide d'une valeur dans un champ ;
• Utilisation de scores de pénalité. Ces scores peuvent être définis par champ, par enregistrement ou en fonction de l'appartenance dans une source d'entrée.
Editeur de correspondance
Vous pouvez définir vos priorités et classer vos enregistrements dans l'opération Hiérarchisation du groupe, disponible dans l'opération Formation du groupe et les opérations de traitement post-comparaison de chaque niveau de correspondance dans l'éditeur de correspondance.
Types de priorités
Différents types de priorités sont à prendre en compte :
Priorité Brève description
Priorité d'enregistrement
Privilégie les enregistrements d'une source d'entrée par rapport à une autre.
Pénalité pour champ vide
Affecte une priorité faible dans les enregistrements contenant un champ spécifique vide.
Classement pré-correspondance
Lorsque vous créez des groupes de décomposition, vous pouvez configurer votre opération Formation du groupe > Hiérarchisation du groupe pour effectuer un classement (ou un tri) sur un champ en plus du classement sur la clé de décomposition. Cela permet de garantir que l'enregistrement ayant la priorité la plus élevée est le premier enregistrement (pilote) dans le groupe de décomposition.
Il est également important que les sources d'entrée de type Suppression soient les enregistrements pilotes dans un groupe de décomposition.
Classement post-correspondance
Une fois que la transformation Match a créé tous les groupes de correspondance, et si le classement est important, vous pouvez utiliser une opération Hiérarchisation du groupe avant une opération Grouper statistiques, Meilleur enregistrement ou ID unique pour vous assurer que l'enregistrement principal soit le premier dans le groupe de correspondance.
Conseil :
Si vous n'utilisez pas de pénalité pour champ vide, le classement n'est peut-être pas aussi important pour vous et vous pouvez dans ce cas décider de ne pas utiliser d'opération Hiérarchisation du groupe avant vos opérations post-correspondance. Toutefois, l'opération Meilleur enregistrement peut s'avérer plus performante si vous hiérarchisez les enregistrements et définissez l'option Publier une seule fois
par destination sur Oui.
458 2012-11-22
Qualité des données
Pénalité pour champ vide
Sur deux enregistrements, vous préférerez certainement conserver celui qui contient les données les plus complètes. Vous pouvez utiliser la pénalité pour champ vide pour pénaliser les enregistrements contenant des champs vides.
L'utilisation d'une pénalité pour champ vide est appropriée si vous estimez qu'un champ vide ne doit pas exclure un enregistrement d'une correspondance et que vous souhaitez conserver l'enregistrement le plus complet. Imaginons, par exemple, que vous vouliez accepter un enregistrement comme correspondance même si les champs Titre_de_civilité, Prénom1, Prénom2, Suffixe_principal et/ou
Numéro secondaire sont vides. Bien que vous acceptiez ces enregistrements dans vos groupes de correspondance, vous pouvez leur affecter une priorité faible pour chaque champ vide.
16.4.7.3.1 Classement des enregistrements par tri sur un champ
Assurez-vous d'avoir mappé les champs d'entrée dans la transformation Match sur laquelle vous souhaitez effectuer le classement ; sinon, ils n'apparaîtront pas dans la liste déroulante des champs.
Utilisez cette méthode de classement des enregistrements si l'intégralité des données n'est pas un critère important pour vous.
1.
Saisissez un nom de hiérarchisation, puis sélectionnez l'onglet Ordre de priorité.
2.
Dans la table Champs prioritaires, sélectionnez un champ dans la liste déroulante dans la colonne
Champs d'entrée.
3.
Dans la colonne Ordre des champs, sélectionnez Croissant ou Décroissant pour spécifier le type d'ordre.
Par exemple, si vous comparez une source Normal à une source Suppression et que vous utilisez un champ ID source pour classer vos enregistrements, vous devez vous assurer que les enregistrements de la source Suppression apparaissent en premier dans le groupe de décomposition.
4.
Répétez l'étape 2 pour chaque ligne ajoutée.
5.
Classez vos lignes dans la table Champs prioritaires à l'aide des boutons Déplacer vers le haut et Déplacer vers le bas.
La première ligne correspond au classement principal et les autres aux classements secondaires.
16.4.7.3.2 Système de scoring de pénalité
La pénalité pour champ vide est un système de scoring de pénalité. Pour chaque champ vide, vous pouvez attribuer une pénalité en indiquant un nombre entier non négatif.
Vous pouvez attribuer la même pénalité pour chaque champ vide ou une pénalité plus élevée pour les champs que vous considérez plus importants. Par exemple, si vous préparez un courrier à l'intention d'étudiants qui vivent dans des appartements ou des dortoirs, vous pouvez attribuer une pénalité plus
élevée pour un champ vide Prénom1 ou un numéro d'appartement.
Champ Pénalité pour champ vide
Titre de civilité 5
459 2012-11-22
Qualité des données
Champ
Prénom1
Prénom2
Suffixe principal
Numéro secondaire
5
5
Pénalité pour champ vide
20
20
Dans ce cas, les enregistrements ci-après seraient classés dans l'ordre indiqué (en partant du principe qu'ils proviennent de la même source et que la priorité d'enregistrement n'est donc pas un facteur).
Même si le premier enregistrement contient des champs vides (Titre_de_civilité, Prénom2 et Suffixe d'adresse), il doit être généré comme enregistrement principal, car il contient les données considérées comme les plus importantes : Prénom1 et Numéro secondaire.
Titre de civilité
(5)
Prénom1
(20)
Prénom2 (5)
Nom de famille
Intervalle principal
Nom principal
Suffixe principal
(5)
Numéro secondaire
(20)
Pénalité pour champ vide
Maria Ramirez 100 Main 6
5 + 5 + 5
= 15
Ms.
Maria A Ramirez 100 Main St
Ms.
Ramirez 100 Main St 6
20
20 + 5 =
25
16.4.7.3.3 Interaction de la pénalité pour champ vide avec la priorité d'enregistrement
Les scores de pénalité pour champ vide et priorité d'enregistrement sont regroupés et considérés comme un seul score.
Supposons, par exemple, que vous souhaitiez attribuer une priorité élevée à certains enregistrements de votre base de données personnelle, mais aussi une priorité faible aux enregistrements contenant des champs vides. L'appartenance source est-elle plus importante, même si certains champs sont vides ? Ou est-il plus important de disposer d'un enregistrement aussi complet que possible, même s'il ne provient pas de la base de données personnelle ?
460 2012-11-22
Qualité des données
Source
La plupart des utilisateurs mettent la priorité sur leurs enregistrements personnels et ne souhaitent pas que les champs vides suppriment cette priorité. Pour ce faire, définissez une pénalité élevée pour l'appartenance dans une source louée et des priorités faibles pour les champs vides :
Priorité d'enregistrement
(points de pénalité)
Champ
Pénalité pour champ vide
Source personnelle 100
Prénom1
20
Source louée A 200
Prénom2
5
Source louée B 300
Suffixe principal
5
Source louée C 400
Numéro secondaire
20
Source
Avec ce système de scoring, un enregistrement de source personnelle a toujours priorité sur un enregistrement de source louée, même si l'enregistrement personnel contient des champs vides.
Supposons, par exemple, que les enregistrements ci-dessous figurent dans le même groupe de correspondance.
Même si l'enregistrement personnel contient cinq champs vides, il reçoit uniquement 155 points de pénalité (100 + 5 + 20 + 5 + 5 + 20), alors que l'enregistrement de la source A reçoit 200 points de pénalité. Par conséquent, l'enregistrement personnel a la pénalité la plus faible et la priorité la plus
élevée.
Pré nom1
Pré nom2
Fa mille
Intervalle principal
Nom principal
No secondaire
Code_po stal
Priorité d'enregistrement
Pénalité pour champ vide
Total
Person nel
Source
A
Rita
Source
B
Rita
A
Smith
Smith
Smith
100
100
100
Bren
Bren
Bren
12A
12
55343
55343
55343
100
200
300
55
0
10
155
200
310
461 2012-11-22
Qualité des données
462
Vous pouvez manipuler les scores pour définir la priorité telle que vous la voulez. Dans l'exemple ci-dessus, supposons que vous préfériez un enregistrement loué contenant des données de prénom
à un enregistrement personnel sans données de prénom. Vous pouvez définir le score de pénalité pour champ vide Prénom sur 500 de sorte qu'un champ vide Prénom ait plus de poids qu'une appartenance source quelle qu'elle soit.
16.4.7.3.4 Définition de priorités et pénalités à l'aide des valeurs de champs
Assurez-vous de mapper les champs d'entrée comportant des valeurs de priorité ou de pénalité pour champ vide.
Cette tâche indique à Match les champs qui comportent des valeurs de priorité d'enregistrement et de pénalité pour champ vide pour vos enregistrements et s'il faut les appliquer par enregistrement.
1.
Ajoutez une opération Hiérarchisation du groupe à la section Formation du groupe ou Traitement post-correspondance dans l'éditeur de correspondance.
2.
Saisissez un nom de hiérarchisation (si nécessaire) et sélectionnez l'onglet Intégralité de
l'enregistrement.
3.
Sélectionnez l'option Classer les enregistrements selon l'intégralité des données.
4.
Sélectionnez l'option Définir les champs de pénalité et de priorité.
• Définir les pénalités de champ uniquement : Cette option vous permet de sélectionner une priorité d'enregistrement par défaut et des pénalités pour champ vide par champ pour générer votre score de priorité.
• Définir les pénalités et priorités en fonction de la source d'entrée : Cette option vous permet de définir une priorité et une pénalité pour champ vide en fonction de l'appartenance dans une source d'entrée.
5.
Sélectionnez un champ contenant la valeur de priorité d'enregistrement dans l'option Champ de
priorité d'enregistrement.
6.
Dans l'option Champ Appliquer une pénalité pour champ vide, sélectionnez un champ contenant l'indicateur O ou N pour appliquer ou non une pénalité pour champ vide à un enregistrement.
7.
Dans l'option Priorité d'enregistrement par défaut, entrez une priorité d'enregistrement par défaut
à utiliser si un champ de priorité d'enregistrement est vide ou si vous ne spécifiez pas de champ de priorité d'enregistrement.
8.
Sélectionnez une valeur Pénalité pour champ vide appliquée par défaut (Oui ou Non). Cette sélection détermine si la transformation Match appliquera une pénalité pour champ vide à un enregistrement si vous n'avez pas sélectionné l'option Champ Appliquer une pénalité pour champ vide ou si le champ est vide pour un enregistrement spécifique.
9.
Dans la table Score de pénalité pour champ vide, sélectionnez un champ dans la colonne Champ
d'entrée auquel vous voulez affecter des valeurs de pénalité pour champ vide.
10.
Dans la colonne Pénalité pour champ vide, saisissez une valeur de pénalité pour champ vide à affecter à un enregistrement quelconque contenant un espace vide dans le champ que vous avez sélectionné dans la colonne Champ d'entrée.
16.4.7.3.5 Définition de valeurs de pénalité par champ
Cette tâche vous permet de définir votre score de priorité par défaut pour chaque enregistrement et pénalité pour champ vide par champ pour générer votre score de pénalité.
2012-11-22
Qualité des données
1.
Ajoutez une opération Hiérarchisation du groupe à la section Formation du groupe ou Traitement post-correspondance dans l'éditeur de correspondance.
2.
Saisissez un nom de hiérarchisation (si nécessaire) et sélectionnez l'onglet Intégralité de
l'enregistrement.
3.
Sélectionnez l'option Classer les enregistrements selon l'intégralité des données.
4.
Sélectionnez l'option Définir les pénalités de champ uniquement.
5.
Dans l'option Priorité d'enregistrement par défaut, entrez une priorité d'enregistrement par défaut qui sera utilisée dans le score de pénalité pour chaque enregistrement.
6.
Sélectionnez une valeur Pénalité pour champ vide appliquée par défaut (Oui ou Non). Cette sélection détermine si la transformation Match appliquera une pénalité pour champ vide à un enregistrement si vous n'avez pas sélectionné l'option Champ Appliquer une pénalité pour champ vide ou si le champ est vide pour un enregistrement spécifique.
7.
Dans la table Score de pénalité pour champ vide, sélectionnez un champ dans la colonne Champ
d'entrée auquel vous voulez affecter des valeurs de pénalité pour champ vide.
8.
Dans la colonne Pénalité pour champ vide, saisissez une valeur de pénalité pour champ vide à affecter à un enregistrement quelconque contenant un espace vide dans le champ que vous avez sélectionné dans la colonne Champ d'entrée.
16.4.7.4 Hiérarchisation des enregistrements sur la base de l'appartenance source
Indépendamment de la manière dont vous voulez hiérarchiser vos sources (en triant un groupe de décomposition ou en utilisant des scores de pénalité), vous devez vous assurer que les enregistrements de la source de type Suppression sont les enregistrements pilotes dans le groupe de décomposition et le processus de comparaison.
Imaginons, par exemple, que vous soyez une institution de bienfaisance et que vous envoyiez un courrier de sollicitation à vos donateurs actuels ainsi qu'à des noms de deux sources louées. Si un nom apparaît à la fois dans votre source personnelle et votre source louée, vous préférez utiliser celui de votre source personnelle.
Pour l'une des deux sources louées, la source B, supposons aussi que vous puissiez négocier une remise pour les enregistrements non utilisés. Vous voulez utiliser le moins d'enregistrements possibles de la source B afin d'obtenir une remise importante. Par conséquent, vous voulez que les enregistrements de la source B aient la préférence ou priorité la plus faible parmi les trois sources.
463 2012-11-22
Qualité des données
Source
Source personnelle
Source louée A
Source louée B
Priorité
Elevée
Moyenne
Faible
Sources de type Suppression et intégralité de l'enregistrement
Si vous voulez utiliser des scores de pénalité, vos sources de type Suppression doivent avoir un score de priorité faible. Ainsi, les enregistrements standard correspondant à un enregistrement de suppression seront probablement des correspondances subordonnées dans un groupe de correspondance et, par conséquent, seront également supprimés. Dans chaque groupe de correspondance, tout enregistrement ayant une priorité plus faible qu'un enregistrement de source Suppression est considéré comme une correspondance de suppression.
Imaginons, par exemple, que vous exécutiez vos fichiers par rapport au fichier de préférence de courrier
DMA (liste de personnes ne souhaitant pas recevoir de publipostage). Vous identifiez la source DMA comme source Suppression et vous lui attribuez une priorité de zéro.
Source
Source Suppression DMA
Source personnelle
Source louée A
Source louée B
Priorité
0
100
200
300
Supposons que Match trouve quatre enregistrements correspondants parmi les enregistrements d'entrée.
Enregistrement correspondant (champs Nom uniquement)
Source
Maria Ramirez Personnel
Ms.
Ms.
Ms.
Maria
Maria
A
A
Ramirez
Ramirez
Ramirez
Source B
Source A
DMA
Priorité
100
300
200
0
Le groupe de correspondance suivant serait défini. En fonction de leur priorité, Match classerait les enregistrements comme indiqué. Par conséquent, l'enregistrement du fichier de suppression (la source
DMA) serait l'enregistrement principal et les autres seraient des correspondances de suppression subordonnées et donc également supprimées.
464 2012-11-22
Qualité des données
Source
DMA
Personnel
Source A
Source B
Priorité
0 (enregistrement principal)
100
200
300
16.4.7.4.1 Définition de pénalités en fonction de l'appartenance source
Cette tâche vous permet d'attribuer des scores de priorité et des pénalités pour champ vide à une source d'entrée et d'appliquer ces scores à tout enregistrement appartenant à cette source. Avant d'effectuer cette tâche, assurez-vous que vos sources d'entrée sont définies.
1.
Ajoutez une opération Hiérarchisation du groupe à la section Formation du groupe ou Traitement post-correspondance dans l'éditeur de correspondance.
2.
Saisissez un nom de hiérarchisation (si nécessaire) et sélectionnez l'onglet Intégralité de
l'enregistrement.
3.
Sélectionnez l'option Classer les enregistrements selon l'intégralité des données.
4.
Sélectionnez l'option Définir les pénalités et priorités en fonction de la source d'entrée.
5.
Dans la table Attributs source, sélectionnez une source dans la liste déroulante.
6.
Saisissez une valeur dans la colonne Priorité pour affecter une priorité d'enregistrement à cette source.
N'oubliez pas que plus le score est faible, plus la priorité est élevée. Imaginons, par exemple, que vous vouliez affecter un score très faible (tel que 0) à une source Suppression.
7.
Dans la colonne Appliquer une pénalité pour champ vide, sélectionnez une valeur Oui ou Non pour déterminer si une pénalité pour champ vide doit être utilisée sur les enregistrements de cette source.
8.
Dans l'option Priorité d'enregistrement par défaut, entrez une priorité d'enregistrement par défaut qui sera utilisée dans le score de pénalité pour chaque enregistrement qui n'est pas membre d'une source.
9.
Sélectionnez une valeur Pénalité pour champ vide appliquée par défaut (Oui ou Non). Cette valeur détermine si des pénalités pour champ vide doivent être appliquées à un enregistrement qui n'est pas membre d'une source.
10.
Dans la table Score de pénalité pour champ vide, sélectionnez un champ dans la colonne Champ
d'entrée auquel vous voulez affecter des valeurs de pénalité pour champ vide.
11.
Dans la colonne Pénalité pour champ vide, saisissez une valeur de pénalité pour champ vide à affecter à un enregistrement quelconque contenant un espace vide dans le champ que vous avez sélectionné dans la colonne Champ d'entrée.
16.4.7.5 Récupération des données
465 2012-11-22
Qualité des données
La récupération des données copie temporairement les données d'un enregistrement passager dans un enregistrement pilote après avoir comparé les deux enregistrements. Les données copiées sont des données trouvées dans l'enregistrement passager, mais manquantes ou incomplètes dans l'enregistrement pilote. La récupération des données empêche la correspondance vide ou la correspondance d'initiales de faire correspondre des enregistrements que vous ne voulez pas faire correspondre.
Prenons, par exemple, le groupe de correspondance suivant. Si vous n'avez pas activé la récupération des données, les enregistrements de la première table appartiennent tous au même groupe de correspondance, car l'enregistrement pilote, qui contient un champ Nom vide, correspond aux deux autres enregistrements.
Enregistreme nt
Name
1 (pilote)
2
3
John Smith
Jack Hill
Adresse
123 Main St.
123 Main St.
123 Main St.
Code_postal
54601
54601
54601
Si vous avez activé la récupération des données, le logiciel copie temporairement John Smith du second enregistrement vers l'enregistrement pilote. Résultat : L'enregistrement 1 correspond à l'enregistrement
2, mais l'enregistrement 1 ne correspond pas à l'enregistrement 3 (car John Smith ne correspond pas
à Jack Hill).
Enregis trement
Nom Adresse Code_postal
1 (pilote)
2
3
John Smith (copié depuis l'enregistrement ci-dessous)
123 Main St.
John Smith
Jack Hill
123 Main St.
123 Main St.
54601
54601
54601
L'exemple suivant illustre l'utilisation de cette fonction pour une source Suppression. Imaginons que la source Suppression soit une liste d'adresses de personnes n'ayant pas donné leur accord. Dans ce cas, vous définissez la source Suppression de sorte à ce qu'elle ait la priorité la plus élevée et vous n'activez pas la récupération des données. Le logiciel supprime alors tous les enregistrements correspondant aux enregistrements de la source Suppression.
Par exemple, dans le cas d'un enregistrement de type suppression 123 Main St correspondant à 123
Main St n°2 et 123 Main St Apt C, les deux derniers enregistrements sont supprimés.
466 2012-11-22
Qualité des données
16.4.7.5.1 Récupération des données et initiales
Lorsque le champ Nom d'un enregistrement pilote contient une initiale à la place d'un nom complet, le logiciel peut emprunter temporairement le nom complet s'il le trouve dans le champ correspondant d'un enregistrement correspondant. C'est une forme de récupération des données.
Imaginons, par exemple, que les trois enregistrements suivants représentent des enregistrements potentiellement correspondants (le logiciel les a regroupé, par exemple, en tant que membres d'un groupe de décomposition en fonction des données d'adresse et de code postal).
Remarque :
La récupération des initiales a lieu uniquement avec les champs Prénom et Nom de famille.
Enregistrement
357
391
839
Prénom
J
Juanita
Joanne
Nom de famille
L
Lopez
London
Adresse
123 Main
123 Main
123 Main
Notes
Driver
Enregistrement du classement le plus bas
La première comparaison se fait entre l'enregistrement pilote (357) et l'enregistrement suivant le plus
élevé (391). Ces deux enregistrements forment une correspondance. Juanita et Lopez sont temporairement copiés dans les champs Nom de l'enregistrement 357.
La comparaison suivante se fait entre l'enregistrement 357 et l'enregistrement du classement suivant le plus bas (839). Avec la récupération des données, les données de nom de l'enregistrement pilote sont à présent Juanita Lopez ("empruntées" de la première comparaison). Par conséquent, l'enregistrement 839 sera probablement considéré comme ne correspondant pas à l'enregistrement
357.
En conservant plus d'informations pour l'enregistrement pilote, la récupération des données permet d'améliorer la qualité des résultats de correspondance.
Initiales et enregistrements de type suppression
Cependant, si l'enregistrement pilote est un enregistrement de type suppression, il peut être préférable de désactiver la récupération des données pour avoir le plus de chances possibles d'identifier tous les enregistrements correspondant aux données de suppression initialisées. Par exemple, pour supprimer les noms comportant les initiales JL, comme dans le cas ci-dessus, vous rechercherez toutes les correspondances avec JL, indépendamment de l'ordre dans lequel les enregistrements apparaissent dans le groupe de décomposition.
Si vous avez désactivé la récupération des données pour les enregistrements de la source Suppression, vous obtenez le résultat suivant au cours de ces deux comparaisons :
467 2012-11-22
Qualité des données
468
Enregistrement
357
391
839
Prénom
J
Juanita
Joanne
Nom de famille
L
Lopez
London
Adresse
123 Main
123 Main
123 Main
Notes
Driver
Enregistrement du classement le plus bas
La première comparaison se fait entre l'enregistrement pilote (357) et l'enregistrement suivant le plus
élevé (391). Ces deux enregistrements forment une correspondance, car dans l'enregistrement pilote,
JL et Juanita Lopez forment une correspondance.
La comparaison suivante se fait entre l'enregistrement pilote (357) et l'enregistrement du classement suivant le plus bas (839). Ici, ces deux enregistrements forment également une correspondance, car dans l'enregistrement pilote, JL correspond à Joanne London.
Comme les deux enregistrements 391 et 839 correspondent à l'enregistrement pilote de type suppression, ils sont tous deux considérés comme correspondances de suppression et, par conséquent, aucun ne figure dans votre sortie.
16.4.7.5.2 Contrôle de la récupération des données à l'aide d'un champ
Vous pouvez utiliser un champ pour contrôler l'activation de la récupération des données. Si la valeur du champ affiche O pour un enregistrement, cela signifie que la récupération des données est activée.
Assurez-vous d'avoir mappé au préalable le champ dans la transformation Match que vous voulez utiliser.
1.
Ouvrez l'Matchéditeur pour une Matchtransformation.
2.
Dans la fenêtre Options de transformation, cliquez dans l'onglet Récupération des données.
3.
Sélectionnez l'option Activer la récupération des données, puis sélectionnez une valeur par défaut pour ces enregistrements.
La valeur par défaut sera utilisée si le champ que vous sélectionnez n'est pas renseigné pour un enregistrement donné.
4.
Sélectionnez l'option Spécifier la récupération des données par champ, puis sélectionnez un champ dans le menu déroulant.
16.4.7.5.3 Contrôle de la récupération des données par source
Vous pouvez utiliser l'appartenance dans une source d'entrée pour contrôler si la récupération des données est activée ou désactivée pour un enregistrement spécifique. Assurez-vous au préalable de créer vos sources d'entrée.
1.
Ouvrez l'Matchéditeur pour une Matchtransformation.
2.
Dans la fenêtre Options de transformation, cliquez dans l'onglet Récupération des données.
3.
Sélectionnez l'option Activer la récupération des données, puis sélectionnez une valeur par défaut pour ces enregistrements.
La valeur par défaut sera utilisée si la source d'entrée d'un enregistrement n'est pas spécifiée dans les étapes suivantes.
2012-11-22
Qualité des données
4.
Sélectionnez l'option Spécifier la récupération des données par source.
5.
Dans la table, sélectionnez une valeur Source, puis Exécuter la récupération des données pour chaque source que vous voulez utiliser.
16.4.8 Critères de correspondance
469
16.4.8.1 Vue d'ensemble des critères de correspondance
Utilisez des critères de correspondance à chaque niveau de correspondance pour déterminer les scores de seuil pour la correspondance et définir le traitement des différents types de données, telles que données numériques, données de nom, etc. (vos règles de gestion).
Pour ce faire, accédez au groupe d'options Critère dans l'éditeur de correspondance.
Critères de correspondance
Dans la transformation Match, les critères de correspondance représentent les champs à comparer.
Imaginons, par exemple, que vous vouliez faire correspondre les 10 premiers caractères d'un prénom et les 15 premiers caractères d'un nom de famille. Vous devez dans ce cas créer deux critères pour spécifier ces exigences.
Les critères permettent à la transformation Match d'identifier le type de données figurant dans le champ d'entrée et, par conséquent, les types d'opérations à exécuter sur ces données.
Critères prédéfinis et personnalisés
Il existe deux types de critères :
• Les critères prédéfinis sont disponibles pour les champs généralement utilisés pour la correspondance, tels que les données de nom, d'adresse et autres données. En affectant un critère
à un champ, la transformation Match peut identifier le type de données figurant dans le champ et exécuter des opérations internes pour optimiser les données pour la correspondance sans altérer les données d'entrée réelles.
• Des champs de sortie personnalisés Data Cleanse (définis par l'utilisateur, données non tierces) sont disponibles comme critères prédéfinis. Mappez les champs de sortie personnalisés de Data
Cleanse. Les champs personnalisés apparaissent dans l'onglet Champs de critères de l'éditeur de correspondance.
• Tout autre type de données (tel que numéros de référence ou autres données propriétaires) pour lequel il n'existe pas de critère prédéfini doit être désigné comme critère personnalisé. Certaines fonctions peuvent être exécutées sur des clés personnalisées, telles que la correspondance d'abréviations, de sous-chaînes ou la correspondance numérique, mais la transformation Match ne
2012-11-22
Qualité des données
470 peut pas effectuer toutes les comparaisons de champs croisés, par exemple certaines fonctions de correspondance de noms.
Options de pré-comparaison de critères de correspondance
La normalisation des données doit se faire en grande partie dans le nettoyage des adresses et dans les transformations Data Cleanse. Toutefois, la transformation Match peut effectuer un pré-traitement par critère (à des fins de correspondance uniquement, sans affecter les données) pour fournir des correspondances plus exactes. Les options permettant de contrôler cette normalisation figurent dans les onglets Options et Comparaisons de champs multiples de l'éditeur Match. Elles incluent les fonctions suivantes :
• Convertir les caractères diacritiques
• Convertir le texte en chiffres
• Convertir en majuscules
• Supprimer la ponctuation
• Paramètres régionaux
Pour plus d'informations sur ces options, voir la section relative à la transformation Match du
Guide de référence.
16.4.8.1.1 Ajout et classement d'un critère de correspondance
Vous pouvez ajouter autant de critères que vous le voulez à chaque niveau de correspondance dans votre transformation Match.
1.
Sélectionnez le niveau de correspondance approprié ou le groupe d'options Critère de Match dans l'explorateur d'options de l'éditeur Match, puis cliquez avec le bouton droit de la souris.
2.
Sélectionnez Critère.
3.
Saisissez un nom pour votre critère dans la case Nom du critère.
Vous pouvez conserver le nom par défaut du critère prédéfini, mais vous devez saisir un nom de critère pertinent si vous avez choisi un critère personnalisé.
4.
Dans l'onglet Champs de critères, dans la liste Critère disponible, sélectionnez le critère qui représente le mieux les données à faire correspondre. Si aucun critère ne convient, choisissez le critère personnalisé.
5.
Dans la table Mappage des champs de critères, sélectionnez le nom mappé d'un champ d'entrée contenant les données que vous voulez faire correspondre pour ce critère.
6.
Cliquez dans l'onglet Options.
7.
Configurez les Options de pré-comparaison et les Règles de comparaison.
Assurez-vous de définir le score de Match et le score de non-correspondance, tous deux requis.
8.
Pour activer la comparaison de champs multiples (champs croisés), cliquez dans l'onglet
Comparaisons de champs multiples et sélectionnez l'option Comparer plusieurs champs.
a.
Sélectionnez le type de comparaison de champs multiples à effectuer :
• Tous les champs sélectionnés dans d'autres enregistrements : Pour comparer chaque champ à tous les champs sélectionnés dans la table dans tous les enregistrements.
• Le même champ dans d'autres enregistrements : Pour comparer chaque champ uniquement au même champ dans tous les enregistrements.
2012-11-22
Qualité des données
471 b.
Dans la table Champs supplémentaires à comparer, sélectionnez des champs d'entrée contenant les données à inclure dans la comparaison de champs multiples pour ce critère.
Conseil :
Vous pouvez utiliser des noms de champs de critères de correspondance personnalisés pour la comparaison de champs multiples en les saisissant dans la colonne Nom personnalisé.
Remarque :
Si vous activez la comparaison de champs multiples, les champs de standards de correspondance appropriés sont supprimés de la table Mappage des champs de critères dans l'onglet Champs
de critères. Si vous voulez les inclure dans le processus de correspondance, ajoutez-les à la table
Champs supplémentaires à comparer.
9.
Configurez les options de pré-comparaison pour la comparaison de champs multiples.
10.
Pour classer vos critères dans l'explorateur d'options de l'éditeur Match (ou de la table Match), sélectionnez un critère, puis cliquez sur les boutons Déplacer vers le haut ou Déplacer vers le
bas.
16.4.8.2 Méthodes de correspondance
Il existe plusieurs manières de configurer et de classer les critères pour obtenir les résultats de correspondance souhaités. Chacune présente des avantages et des inconvénients. Par conséquent, examinez-les soigneusement au préalable.
Méthode de correspondance
Description
Basée sur des règles
Permet de contrôler les critères qui déterminent une correspondance. Cette méthode est simple à configurer.
Scoring pondéré
Méthode de combinaison
Permet d'attribuer de l'importance ou une pondération à un critère. Toutefois, le scoring pondéré évalue chaque règle avant de déterminer une correspondance, ce qui peut augmenter le temps de traitement.
Présente les mêmes avantages et inconvénients relatifs que les deux autres méthodes.
16.4.8.2.1 Score de similarité
Le score de similarité représente le pourcentage de similarité de vos données. Ce score est calculé en interne par l'application lorsque les enregistrements sont comparés. L'application considère les enregistrements comme des correspondances selon les scores Match et Aucune correspondance que vous définissez dans le groupe d'options Critère (et selon d'autres facteurs, abordés ultérieurement).
2012-11-22
Qualité des données
Exemple :
Cet exemple illustre comment les scores de similarité sont déterminés. Veuillez noter ce qui suit :
• La table de comparaison ci-dessous est indiquée à titre d'exemple. Le processus de correspondance ne fonctionne pas ainsi dans la méthode de scoring pondéré, par exemple.
• Seule la première comparaison est considérée comme une correspondance, car le score de similarité est égale à ou supérieur au score de correspondance. La dernière comparaison est considérée comme une non-correspondance, car le score de similarité est inférieur au score de non-correspondance.
• Lorsqu'un critère unique ne peut pas déterminer une correspondance, comme dans le cas de la seconde comparaison dans la table ci-dessous, le processus passe au critère suivant, si possible.
Comparaison No match Correspondance
Score de similarité
Corresponda nce ?
Smith > Smith 72 95 100 % Oui
Smith > Smitt 72 95 80 %
Dépend d'autres critères
Smith > Smythe
Smith > Jones
72
72
95
95
72 %
20 %
Non
Non
16.4.8.2.2 Méthode basée sur des règles
Avec la correspondance basée sur des règles, vous vous fiez uniquement à vos scores de correspondance et non-correspondance pour déterminer des correspondances dans un critère.
Critère
Exemple :
Cet exemple vous montre comment configurer cette méthode dans la transformation Match.
Enregistrement A
Mary
Enregistrement B
Mary
Aucune correspondance
Corres ponda nce
82 101
Score de similarité
100 Prénom1
Nom de famille
Smith Smitt 74 101 80
472 2012-11-22
Qualité des données
Critère Enregistrement A
Adresse électronique msmith@sap.com
Enregistrement B
mary.smith@sap.com
Aucune correspondance
Corres ponda nce
79 80
Score de similarité
91
En saisissant la valeur 101 dans le score de correspondance pour chaque critère à l'exception du dernier, les critères Prénom1 et Nom de famille ne déterminent jamais une correspondance, bien qu'ils puissent déterminer une non-correspondance.
En définissant les options Score de correspondance et Aucun score de correspondance pour le critère Adresse électronique sans intervalle, toute comparaison qui atteint le dernier critère doit être une correspondance ou une non-correspondance.
Un score de correspondance de 101 permet de s'assurer que le critère n'entraîne pas la correspondance des enregistrements, car deux champs peuvent être similaires à plus de 100 %.
Rappel :
L'ordre est important ! Pour des raisons de performance, vous devez disposer du critère le plus susceptible de générer en premier la décision de correspondance ou non-correspondance dans l'ordre des critères. Cela permet de réduire le nombre de comparaisons de critères.
16.4.8.2.3 Méthode du scoring pondéré
Dans une méthode de mise en correspondance basée sur des règles, l'application donne la même importance (ou la même pondération) à tous les critères. En d'autres termes, si un critère n'atteint pas le score de correspondance spécifié, l'application détermine que les enregistrements ne correspondent pas.
Lorsque vous utilisez la méthode de scoring pondéré, vous vous basez sur le score de contribution total pour déterminer les correspondances au lieu d'utiliser des scores de correspondance et non-correspondance.
Valeurs de contribution
Les valeurs de contribution correspondent à votre manière d'affecter une pondération à des critères individuels. Plus la valeur est élevée, plus le critère a une pondération élevée pour déterminer les correspondances. En règle générale, les critères susceptibles d'avoir une pondération plus élevée que les autres sont les numéros de compte, les numéros de sécurité sociale, les numéros client, le code postal1 et les adresses.
Remarque :
Toutes les valeurs de contribution pour tous les critères concernés doivent être égales à 100. Il n'est pas nécessaire d'avoir une valeur de contribution pour tous les critères.
Vous pouvez définir la valeur de contribution d'un critère dans l'option Contribution aux scores pondérés du groupe d'options Critère.
473 2012-11-22
Qualité des données
Score de contribution et score de contribution total
La transformation Match génère le score de contribution pour chaque critère en multipliant la valeur de contribution affectée par le score de similarité (pourcentage). Ces scores de contribution individuels sont ensuite ajoutés au score de contribution total.
Score de correspondance pondéré
Dans la méthode de scoring pondéré, les correspondances sont déterminées uniquement en comparant le score de contribution total au score de correspondance pondéré. Si le score de contribution total est
égal ou supérieur au score de correspondance pondéré, les enregistrements sont considérés comme une correspondance. Si le score de contribution total est inférieur au score de correspondance pondéré, les enregistrements sont considérés comme une non-correspondance.
Vous pouvez définir le score de correspondance pondéré dans l'option Score de correspondance
pondéré du groupe d'options Niveau.
Critère
Prénom
Nom de famille
Adresse
électronique
Exemple :
La table suivante illustre la configuration du scoring pondéré. Notez les différents types de scores qui ont été abordés dans ce chapitre. Notez aussi ce qui suit :
• Lors de la configuration du scoring pondéré, l'option Aucun score de correspondance doit être définie sur -1 et l'option Score de correspondance doit être définie sur 101. Ces valeurs permettent de s'assurer que ni une correspondance ni une non-correspondance ne peuvent être trouvées à l'aide de ces scores.
• Une valeur de contribution a été affectée au critère Adresse électronique lui attribuant l'importance la plus élevée.
Enregistrement
A
Mary
Smith ms@ sap.com
Enregistrement B
No match
Mary
Smitt msmith@ sap.com
-1
-1
-1
Correspo ndance
Score de similarité
Valeur de contribution
Score de contribution
(similarité x valeur de contribution)
101 100 25 25
101
101
80
84
25
50
20
42
Score de contribution total : 87
Si le score de correspondance pondéré est égal à 87, toute comparaison dont le score de contribution total est égal ou supérieur à 87 est considérée comme une correspondance. Dans cet exemple, la comparaison est une correspondance, car le score de contribution total est égal à 87.
474 2012-11-22
Qualité des données
16.4.8.2.4 Méthode de combinaison
Cette méthode associe la correspondance basée sur une règle et par scoring pondéré.
Critère
Prénom
Nom
Enregistrement
A
Mary
Smith ms@ sap.com
Enregistrement B
Aucune correspondance
Correspo ndance
Score de similarité
Valeur de contribution
Score de contribution
(similarité réelle X valeur de contribution)
Mary
Hope
59
59
101
101
100
22
25
N/A (aucune correspondance)
25
N/A msmith@ sap.com
49 101 N/A N/A N/A
Score de contribution total
N/A
16.4.8.3 Règles de gestion relatives à la correspondance
Dans le cadre du processus de correspondance, il est essentiel de déterminer comment traiter les diverses formes de données et les différences qui existent entre elles. Si, par exemple, chaque champ d'un enregistrement correspond aux champs d'un autre enregistrement, mais qu'un champ est renseigné dans un enregistrement et non renseigné dans l'autre, voulez-vous que ces enregistrements soient considérés comme des correspondances ? Anticiper votre façon d'agir dans ces situations fait partie de la définition des règles de gestion. La majeure partie des règles de gestion se définit dans les critères
Match et certaines options basées sur le nom se définissent dans le groupe d'options Niveau de correspondance.
16.4.8.3.1 Correspondance sur des chaînes, des abréviations et des initiales
Initiales et acronymes
Utilisez l'option Score d'ajustement des initiales pour faire correspondre des mots entiers et des initiales. Par exemple, "Prestataires internationaux de soins" peut être mis en correspondance avec
"PIS".
475 2012-11-22
Qualité des données
Abréviations
Utilisez l'option Score d'ajustement des abréviations pour faire correspondre des mots entiers et des abréviations. Par exemple, "Prestataires internationaux de soins" peut être mis en correspondance avec "Prestataires internat. de soins".
Chaîne de données
Utilisez l'option Score d'ajustement des sous-chaînes pour faire correspondre des chaînes longues et des chaînes courtes. Par exemple, la chaîne "Peinture et décapage Mayfield" peut être mis en correspondance avec "Peinture Mayfield".
16.4.8.3.2 Correspondance d'abréviation étendue
La correspondance d'abréviation étendue offre des fonctionnalités permettant de gérer des situations non couvertes par les options Score d'ajustement des initiales, Score d'ajustement des sous-chaînes et Score d'ajustement des abréviations. Vous pouvez, par exemple, vous trouvez dans l'un des cas suivants :
• Imaginons que vos données contiennent des localités comme La Crosse et New York. Vous disposez aussi de ces mêmes localités indiquées sous la forme LaCrosse et NewYork (sans espaces). Dans le cadre d'une correspondance standard, vous ne pourriez pas désigner ces localités (La
Crosse/LaCrosse et New York/NewYork) comme des correspondances à 100 % en raison des espaces. (Il s'agirait normalement d'une correspondance à 94 et 93 %.)
• Imaginons que vos données contiennent Metropolitan Life et MetLife (une abréviation et une combinaison de Metropolitan Life). L'option Score d'ajustement des abréviations ne peut pas détecter la combinaison des deux mots.
Si vous êtes dans l'un de ces cas, vous devez utiliser l'option Score d'ajustement des abréviations
ext.
Fonctionnement du score d'ajustement
Le score que vous définissez dans l'option Score d'ajustement des abréviations ext ajuste votre score de similarité pour prendre en compte ces types d'abréviations et de combinaisons dans vos données.
Le score d'ajustement ajoute une pénalité pour la partie non correspondante des mots. Plus le nombre est élevé, plus la pénalité est faible. Un score de 100 signifie aucune pénalité et un score de 0 une pénalité maximum.
Chaîne 1
MetLife
Exemple :
Chaîne 2
Score de simil. lorsque le score d'ajust. est de 0
Score de simil. lorsque le score d'ajust. est de 50
Score de simil. lorsque le score d'ajust.
est de 100
Metropolitan Life 58 79 100
Notes
476 2012-11-22
Qualité des données
Chaîne 1
MetLife
MetLife
Chaîne 2
Met Life
MetropolitanLife
Score de simil. lorsque le score d'ajust. est de 0
Score de simil. lorsque le score d'ajust. est de 50
Score de simil. lorsque le score d'ajust.
est de 100
93 96 100
Notes
60 60 60
Ce score est dû à la comparaison des chaînes. Le scoring d'abréviation
étendue n'a pas été nécessaire ou utilisé, car les deux chaînes comparées comptent chacune un mot.
16.4.8.3.3 Correspondance de noms
Lorsque vous créez vos règles de gestion, vous devez notamment définir comment les noms doivent
être traités dans le processus de correspondance. La transformation Match vous fournit plusieurs moyens de vous assurer que les variations de noms ou noms multiples, par exemple, sont prises en compte.
Remarque :
Contrairement à d'autres règles de gestion, ces options sont configurées dans le groupe d'options
Niveau de correspondance, car elles affectent tous les critères de correspondance appropriés basés sur le nom.
Deux noms, deux personnes
L'option Nombre de noms devant correspondre vous permet de contrôler comment la correspondance est effectuée sur les clés de correspondance comportant plusieurs noms (par exemple, comparaison de "John et Mary Smith" et de "Dave et Mary Smith"). Déterminez si un seul nom doit correspondre pour que les enregistrements soient identifiés comme correspondance ou si la transformation Match doit ignorer les personnes autres que le premier nom analysé.
Avec cette méthode, vous pouvez demander à ce qu'une personne ou les deux correspondent pour que l'enregistrement corresponde.
Deux noms, une personne
L'option Comparer Prénom1 avec Prénom2 vous permet aussi de comparer les données Prénom1
(prénom) d'un enregistrement avec les données Prénom2 (deuxième prénom) du deuxième enregistrement. Avec cette option, la transformation Match peut correctement identifier les enregistrements correspondants, comme les deux partiellement indiqués ci-dessous : En règle générale, ces paires d'enregistrement représentent des enfants portant le nom de leurs parents, mais connus sous leur deuxième prénom.
477 2012-11-22
Qualité des données
Enregistrement n° Prénom
170
198
Leo
Tom
Deuxième prénom
Thomas
Nom de famille Adresse
Smith
Smith
225 Pushbutton Dr
225 Pushbutton Dr
Noms de famille avec trait d'union
L'option Correspondance sur le nom de famille avec trait d'union vous permet de contrôler comment la correspondance est effectuée si un champ Family_Name (nom de famille) contient un nom de famille avec trait d'union (par exemple, comparaison de "Smith-Jones" et "Jones"). Déterminez si pour les deux critères, les deux noms doivent correspondre ou juste un nom pour que les enregistrements soient désignés comme correspondance.
Correspondance des noms de famille composés
Le score des sous-chaînes approximatives aide à paramétrer la comparaison des noms de famille composés. Le score des sous-chaînes approximatives est affecté aux mots qui n'ont pas de correspondance dans une chaîne comparée. Cette option assouplit certaines des exigences de l'option
Score d'ajustement des sous-chaînes comme suit :
• Il n'est pas nécessaire que les premiers mots correspondent exactement.
• Les mots qui ne correspondent pas peuvent utiliser des ajustements d'initiales et d'abréviations (par exemple, Rodriguez et RDZ).
• Les mots correspondants doivent être dans le même ordre, mais des mots non correspondants peuvent être placés avant ou après les mots correspondants.
• Le score des sous-chaînes approximatives est affecté aux mots et aux espaces sans correspondance dans la chaîne comparée.
L'option Score d'ajustement des sous-chaînes approximatives améliore le score pour certaines correspondances trouvées à l'aide du score d'ajustement des sous-chaînes.
Exemple :
Dans une comparaison de CRUZ RODRIGUEZ et GARCIA CRUZ DE RDZ, les scores de similarité sont les suivants :
• Sans définir aucun ajustement, le score de similarité est de 48.
• Si vous définissez le score d'ajustement des sous-chaînes sur 80 et le score d'abréviations sur
80, le score de similarité est de 66.
• Si vous définissez le score d'ajustement des sous-chaînes approximatives sur 80 et le score d'abréviations sur 80, le score de similarité est de 91.
478 2012-11-22
Qualité des données
16.4.8.3.4 Correspondance des données numériques
Utilisez l'option Les mots numériques correspondent parfaitement pour déterminer si les données comportant une combinaison de chiffres et de lettres doivent correspondre parfaitement. Vous pouvez
également spécifier comment ces données doivent correspondre. Cette option s'applique le plus souvent aux données d'adresse et aux données personnalisées, comme les numéros de référence.
Le processus de correspondance numérique est le suivant :
1.
La chaîne est d'abord décomposée en mots. La décomposition de mots est effectuée sur toutes les ponctuations et les espaces, puis les mots se voient affecter un attribut numérique. Un mot numérique est un mot qui contient au moins un chiffre compris entre 0 et 9. Par exemple, 4L est considéré comme un mot numérique, contrairement à QuatreL.
2.
La correspondance numérique est effectuée en fonction des options qui ont été définies (comme indiqué ci-après).
Valeurs d'options et fonctionnement
Valeur d'option Description
Any_Position
Avec cette valeur, les mots numériques doivent correspondre parfaitement. Toutefois, l'emplacement du mot n'est pas important. Exemple :
• Comparaison de numéros et noms de rue : "4932 Main St # 101" et "# 101 4932
Main St" sont considérés comme une correspondance.
• Comparaison de numéros et noms de rue : "4932 Main St # 101" et "# 102 4932
Main St" ne sont pas considérés comme une correspondance.
• Description de pièces : "ACCU 1.4L 29BAR" et "ACCU 29BAR 1.4L" sont considérés comme une correspondance.
Same_Position
Cette valeur indique que les mots numériques doivent correspondre parfaitement.
Toutefois, elle diffère de l'option Any_Position, car l'emplacement du mot est important. Par exemple, 608-782-5000 correspond à 608-782-5000, mais ne correspond pas à 782-608-5000.
479 2012-11-22
Qualité des données
Valeur d'option
Any_Position_Consi der_Punctuation
Description
Cette valeur effectue la décomposition de mots sur toutes les ponctuations et les espaces, sauf sur le séparateur de décimales (point ou virgule) de sorte à ce que les nombres décimaux ne soient pas fragmentés. Par exemple, la chaîne 123.456
est considérée comme un mot numérique unique, contrairement à deux mots numériques.
L'emplacement du mot numérique n'est pas important. Toutefois, les séparateurs de décimales ont un impact sur le processus de correspondance. Exemple :
• Description de pièces : "ACCU 29BAR 1.4L" et "ACCU 1.4L 29BAR" sont considérés comme une correspondance.
• Description de pièces : "ACCU 1,4L 29BAR" et "ACCU 29BAR 1.4L" ne sont pas considérés comme une correspondance en raison du séparateur de décimales entre le 1 et le 4 dans les deux cas.
• Données financières : "25,435" et "25.435" ne sont pas considérés comme une correspondance.
Any_Posi tion_Ignore_Punctua tion
Cette valeur est similaire à la valeur Any_Position_Consider_Punctuation, à la différence près que les séparateurs de décimales n'ont pas d'impact sur le processus de correspondance. Exemple :
• Description de pièces : "ACCU 29BAR 1.4L" et "ACCU 1.4L 29BAR" sont considérés comme une correspondance.
• Description de pièces : "ACCU 1,4L 29BAR" et "ACCU 29BAR 1.4L" sont également considérés comme une correspondance malgré la présence d'un séparateur de décimales entre le 1 et le 4.
• Description de pièces : "ACCU 29BAR 1.4L" et "ACCU 1.5L 29BAR" ne sont pas considérés comme une correspondance.
16.4.8.3.5 Correspondance de champs vides
Vous pouvez spécifier dans vos règles de gestion comment la transformation Match traite les comparaisons de champs lorsqu'un ou deux des champs comparés sont vides.
Par exemple, le champ Prénom est vide dans le second enregistrement ci-dessous. Voulez-vous que la transformation Match considère ces enregistrements comme des correspondances ? Que faire si le champ Prénom est vide dans les deux enregistrements ?
480 2012-11-22
Qualité des données
Enregistrement n°1
John Doe
204 Main St
La Crosse WI
54601
Enregistrement n°2
_____ Doe
204 Main St
La Crosse WI
54601
La transformation Match contient des options qui permettent de contrôler la manière dont les champs sont comparés. Il s'agit des options suivantes :
• Opération pour deux champs vides
• Score pour deux champs vides
• Opération pour un champ vide
• Score pour un champ vide
Opérations pour champs vides
Les options "Opération" sont dotées des valeurs possibles suivantes :
Option Description
Eval
Ignorer
Si vous sélectionnez Eval, la transformation Match évalue la comparaison à l'aide du score saisi dans l'option Score pour un champ vide ou Score pour deux champs
vides.
Si vous sélectionnez Ignorer, le score de cette règle de champ ne contribue pas au score pondéré global pour la comparaison des enregistrements. En d'autres termes, les deux enregistrements ci-dessus pourraient être considérés comme des doublons malgré le champ vide.
Scores pour champs vides
Les options "Score" contrôlent comme la transformation Match évalue les comparaisons de champs lorsque le champ est vide dans un enregistrement ou dans les deux. Vous pouvez saisir des valeurs comprises entre 0 et 100.
Pour savoir quel score saisir, déterminez si vous voulez que la transformation Match considère un champ vide comme étant similaire à 0 % à un champ renseigné ou un autre champ vide comme étant similaire à 100 % ou une valeur intermédiaire.
Votre réponse dépend certainement du champ que vous comparez. Il peut être approprié d'attribuer un score élevé à un champ vide si vous effectuez la correspondance sur un prénom, un deuxième prénom ou un nom de société, par exemple.
481 2012-11-22
Qualité des données
Exemple :
Voici quelques exemples qui vous permettront de mieux comprendre comment les définitions de ces options de correspondances vides peuvent affecter le scoring global des enregistrements.
Opération pour un champ vide pour le champ Prénom1 défini sur Ignorer
Notez que lorsque vous définissez les options de champs vides sur Ignorer, la transformation Match redistribue la contribution attribuée à ce champ aux autres critères et recalcule les contributions des autres champs.
Champs comparés
Enregistrement
A
Enregistrement
B
% de similitude Contribution
Code postal
Adresse
54601
100 Water St
Nom_de_famille Hamilton
Prénom1 Mary
54601
100 Water St
Hammilton
100
100
94
—
20 (ou 22)
40 (ou 44)
30 (ou 33)
10 (ou 0)
Score (par champ)
22
44
31
—
Score pondéré :
97
Opération pour un champ vide pour le champ Prénom1 défini sur Eval ; score pour un champ vide défini sur 0
Champs comparés
Enregistrement
A
Enregistrement
B
% de similitude
Code_postal
Adresse
Nom_de_famille
Prénom1
54601
100 Water St
Hamilton
Mary
54601
100 Water St
Hammilton
100
100
94
0
Contribution
20
40
30
10
Score (par champ)
20
40
28
0
Score pondéré :
88
Opération pour un champ vide pour le champ Prénom1 défini sur Eval ; score pour un champ vide défini sur 100
Champs comparés
Enregistrement
A
Enregistrement
B
% de similitude
Code_postal 54601 54601 100
Contribution
20
Score (par champ)
20
482 2012-11-22
Qualité des données
Champs comparés
Enregistrement
A
Enregistrement
B
% de similitude
Adresse 100 Water St
Nom_de_famille Hamilton
Prénom1 Mary
100 Water St
Hammilton
100
94
100
Contribution
40
30
10
Score (par champ)
40
28
10
Score pondéré :
98
16.4.8.3.6 Comparaison de champs multiples (champs croisés)
Dans la plupart des cas, vous utilisez un champ unique pour la comparaison. Par exemple, le Champ1 du premier enregistrement est comparé au Champ1 du deuxième enregistrement.
Toutefois, il peut être utile dans certains cas de comparer des champs multiples. Supposons, par exemple, que vous souhaitiez faire correspondre des numéros de téléphone du champ Téléphone à des numéros issus de champs utilisés pour Télécopieur, Portable et Domicile. Vous pouvez le faire grâce à la comparaison de champs multiples.
Lorsque vous activez la comparaison de champs multiples dans l'onglet Comparaison de champs multiples d'un critère de correspondance dans l'éditeur de correspondance, vous pouvez faire correspondre des champs sélectionnés à tous les champs sélectionnés dans chaque enregistrement ou uniquement au même champ dans chaque enregistrement.
Remarque :
Par défaut, Match effectue une comparaison de champs multiples sur les champs où des standards de correspondance sont utilisés. Par exemple, Personne1_Prénom1 est automatiquement comparé à
Personne1_Prénom_Std_de_correspondance1-6. La comparaison de champs multiples n'a pas à être explicitement activée et aucune configuration supplémentaire n'est requise pour effectuer ce type de comparaison sur les champs contenant des standards de correspondance.
Comparaison de champs sélectionnés avec tous les champs sélectionnés dans d'autres enregistrements
Lorsque vous comparez chaque champ sélectionné à tous les champs sélectionnés dans d'autres enregistrements, tous les champs définis dans ce critère de correspondance sont comparés.
Rappel :
Les champs “sélectionnés” incluent le champ de critères et tous les autres champs définis dans la table
Champs supplémentaires à comparer.
• Si une ou plusieurs comparaisons de champs répondent aux définitions du score Match, les deux lignes comparées sont considérées comme des correspondances.
483 2012-11-22
Qualité des données
• Si une ou plusieurs comparaisons de champs dépassent le score Aucune correspondance, la règle est considérée comme approuvée et tous les autres critères définis/scoring pondéré sont évalués pour déterminer si les deux lignes sont considérées comme des correspondances.
Exemple : Exemple de comparaison de champs sélectionnés avec tous les champs sélectionnés dans d'autres enregistrements
Vos données d'entrée contiennent deux champs Société.
ID de ligne
1
2
Société1
Firstlogic
SAP BusinessObjects
Société2
Postalsoft
Firstlogic
Avec le score Match défini sur 100 et le score Aucune correspondance défini sur 99, ces deux enregistrements sont considérés comme des correspondances. Voici un résumé du processus de comparaison et des résultats.
• Tout d'abord, la ligne 1 Société1 (Firstlogic) est comparée à la ligne 2 Société1 (SAP
BusinessObjects).
Normalement, la comparaison de ces lignes devrait échouer, mais avec la comparaison de champs multiples activée, la décision Aucune correspondance n'est pas prise à ce stade.
• Ensuite, la ligne 1 Société2 est comparée à la ligne 2 Société2 et ainsi de suite jusqu'à ce que toutes les autres comparaisons soient effectuées entre tous les champs sur toutes les lignes.
Comme la ligne 1 Société1 (Firstlogic) et la ligne 2 Société2 (Firstlogic) sont identiques à 100 %, les deux enregistrements sont considérés comme des correspondances.
Comparaison de champs sélectionnés avec des champs identiques dans d'autres enregistrements
Lorsque vous comparez chaque champ sélectionné au même champ dans d'autres enregistrements, chaque champ défini dans l'onglet Comparaison de champs multiples d'un critère de correspondance est comparé uniquement au même champ dans d'autres enregistrements. Cela permet de configurer, au sein du critère, une condition OR pour répondre au critère. Chaque champ est utilisé pour déterminer une correspondance : Si Champ_1, Champ_2 ou Champ_3 répond aux critères de correspondance, considérez les enregistrements comme une correspondance. Le score Aucune correspondance d'un champ peut éventuellement répondre aux critères lorsque vous utilisez la comparaison de champs multiples.
Rappel :
Les champs “sélectionnés” incluent le champ de critères et tous les autres champs définis dans la table
Champs supplémentaires à comparer.
484 2012-11-22
Qualité des données
485
Exemple : Exemple de comparaison de champs sélectionnés avec le même champ dans d'autres enregistrements
Vos données d'entrée contiennent un champ Téléphone, Télécopieur et Téléphone portable. Si des données de ces champs d'entrée sont identiques entre les lignes, les enregistrements sont considérés comme des correspondances.
ID de ligne
1
2
Téléphone
608-555-1234
608-555-4321
Télécopieur
608-555-0000
608-555-0000
Portable
608-555-4321
608-555-1111
Avec un score Match de 100 et un score Aucune correspondance de 99, les numéros de téléphone et de portable ne répondraient pas aux critères de correspondance s'ils étaient définis individuellement.
Toutefois, comme les trois champs sont définis dans un seul critère et que les enregistrements sélectionnés sont comparés à des enregistrements identiques, ces enregistrements sont considérés comme une correspondance du fait que le numéro de télécopie est identique à 100 %.
Remarque :
Dans l'exemple ci-dessus, le téléphone portable de la ligne 1 et le téléphone de la ligne 2 ne seraient pas considérés comme correspondance avec l'option le même champ dans d'autres enregistrements sélectionnée, car dans ce cas, la comparaison se fait uniquement dans le même champ. Si cette comparaison croisée est requise, sélectionnez à la place l'option tous les champs sélectionnés
dans d'autres enregistrements.
16.4.8.3.7 Correspondance de proximité
La correspondance de proximité vous permet de faire correspondre des enregistrements en fonction de leur proximité au lieu de comparer la représentation des données sous forme de chaîne. Vous pouvez effectuer une correspondance sur la proximité géographique, numérique et la proximité de date.
Rubriques associées
•
Correspondance sur la proximité géographique
•
Correspondance sur la proximité numérique ou la proximité de date
Correspondance sur la proximité géographique
L'option Proximité géographique recherche des enregistrements en double basés sur la proximité géographique à l'aide d'informations de latitude et de longitude. Il ne s'agit pas de distance parcourue par la route, mais de distance géographique. Cette option utilise les coordonnées WGS 84 (GPS).
L'option Proximité géographique peut exécuter les fonctions suivantes :
• Rechercher des objets dans une plage radiale. Cette fonction peut être utile à une société qui souhaite envoyer un courrier à ses clients situés à une certaine distance de son site.
2012-11-22
Qualité des données
• Rechercher l'emplacement le plus proche. Cette fonction peut aider un consommateur à trouver le point de vente le plus proche de son domicile.
Configuration de la correspondance de proximité géographique - Champs de critères
Pour sélectionner des champs pour la correspondance de proximité géographique, procédez comme suit :
1.
Accédez à l'éditeur de correspondance et ajoutez un nouveau critère.
2.
Dans Critère disponible, développez Géographique.
3.
Sélectionnez LATITUDE_LONGITUDE.
Les deux champs de critères peuvent alors être mappés.
4.
Mappez les champs Latitude et Longitude appropriés. Vous devez mapper les deux champs.
Configuration de la correspondance de proximité géographique - Options de critères
Pour pouvoir utiliser cette option, vous devez mapper les champs Latitude et Longitude.
Pour effectuer une correspondance de proximité géographique, procédez comme suit :
1.
Dans Comparaison des données à l'aide de, sélectionnez Proximité géographique.
Cela permet de filtrer les options sous Règles de comparaison pour afficher uniquement les options pertinentes.
2.
Définissez l'option Unité de distance sur l'une des valeurs suivantes :
•
Miles
•
Feet
•
Kilomètres
•
Mètres
3.
Entrez la Distance max. à prendre en compte pour la plage.
4.
Définissez le score de distance max.
Remarque :
• Une distance égale à la distance max. se voit attribuer un score de distance max. Toute distance inférieure à la distance max. se voit attribuer un score proportionnel compris entre le score de distance max. et 100. Par exemple, une proximité de 10 miles se voit attribuer un score supérieur
à une proximité de 40 miles.
• Si les données de la distance max. sont susceptibles de varier d'une ligne à l'autre, vous devez entrer dynamiquement les données à l'aide du champ
Option_Field_Algorithm_Geo_Proximity_<logical_name> _Max_Distance.
Rubriques associées
• Guide de référence : Options de transformation dynamique
• Guide de référence : Correspondance des champs d'entrée de la transformation
486 2012-11-22
Qualité des données
Correspondance sur la proximité numérique ou la proximité de date
Les options de proximité numérique de la transformation Match recherchent les doublons en fonction de la proximité numérique des données. Vous pouvez rechercher des doublons en fonction de valeurs numériques et de valeurs de date. Les options suivantes sont disponibles dans l'onglet Options de l'éditeur de critères de correspondance pour la correspondance numérique et de date :
Différence numérique
Recherche les doublons en fonction de la différence numérique pour les valeurs numériques ou les valeurs de date. Par exemple, vous pouvez utiliser cette option pour rechercher des doublons en fonction de valeurs de date dans une plage spécifique (plus ou moins 35 jours, par exemple), indépendamment de la similarité des caractères.
Différence numérique en pourcentage
Recherche les doublons en fonction du pourcentage de différence numérique pour les valeurs numériques. Voici deux exemples dans lesquels cette option peut être utile :
• Domaine des données financières : vous pouvez effectuer une recherche dans les données financières pour trouver tous les paiements hypothécaires mensuels correspondant à 5 % d'une valeur donnée.
• Domaine des données produit : vous pouvez effectuer une recherche dans les données produit pour trouver toutes les tiges d'acier dont la tolérance correspond à 10 % d'une valeur donnée.
16.4.9 Traitement post-comparaison
487
16.4.9.1 Meilleur enregistrement
L'une des opérations clés des tâches de consolidation de données consiste à récupérer les données des enregistrements concordants (autrement dit, les membres des groupes de correspondance) et à transférer ces données dans un "meilleur enregistrement" ou dans tous les enregistrements concordants.
Pour exécuter ces fonctions, vous pouvez ajouter une opération de post-correspondance Meilleur enregistrement.
Opérations dans les groupes de correspondance
Les fonctions que vous exécutez à l'aide de l'opération Meilleur enregistrement impliquent la manipulation ou le transfert des données figurant dans les enregistrements principaux et subordonnés des groupes de correspondance. Les groupes de correspondance regroupent les enregistrements que la transformation Match a identifiés comme concordants en fonction du ou des critères que vous avez créés.
2012-11-22
Qualité des données
3
4
1
2
L'enregistrement principal est le premier enregistrement du groupe Match. Vous pouvez déterminer l'enregistrement dont il s'agit en utilisant une opération Hiérarchisation du groupe avant l'opération
Meilleur enregistrement.
Les enregistrements subordonnés sont tous les enregistrements restants d'un groupe de correspondance.
Le groupe de correspondance suivant illustre cette utilisation des enregistrements principaux et subordonnés :
Enregistrement Nom Téléphone Date
Classement dans le groupe
John Smith
John Smyth
11 avr 2001
12 oct 1999
Principal
Subordonné 788-8700
788-1234 22 fév 1997 John E. Smith
J. Smith 788-3271
Subordonné
Subordonné
Dans la mesure où il s'agit d'un groupe de correspondance, tous les enregistrements sont considérés comme concordants. Comme vous pouvez le constater, chaque enregistrement présente de légères différences. Certains enregistrements comportent des champs vides, d'autres présentent une date plus récente et tous ont des numéros de téléphone différents.
Dans ce groupe de correspondance, vous pouvez effectuer une opération courante consistant à transférer les données mises à jour à tous les enregistrements du groupe de correspondance. Vous pouvez choisir de transférer les données à l'enregistrement principal, à tous les membres subordonnés du groupe de correspondance ou à tous les membres du groupe de correspondance. Le numéro de téléphone le plus récent en constitue un bon exemple.
Autre exemple : la récupération des données utiles dans les enregistrements concordants avant de les ignorer. Lorsque vous exécutez un fichier de permis de conduire par rapport à votre fichier interne, par exemple, vous pouvez récupérer les données de sexe et de date de naissance à ajouter à votre enregistrement interne.
Enregistrements avec la priorité la plus élevée en premier
Les opérations que vous configurez dans le groupe d'options Meilleur enregistrement doivent toujours commencer par le membre avec la priorité la plus élevée du groupe de correspondance (le principal) et se terminer par le dernier subordonné. Ainsi, les données sont récupérées de l'enregistrement avec la priorité la plus élevée à l'enregistrement avec la priorité la plus basse.
Vous devez donc veiller à hiérarchiser les enregistrements correctement en ajoutant une opération de post-correspondance Hiérarchisation du groupe avant l'opération Meilleur enregistrement.
488 2012-11-22
Qualité des données
16.4.9.1.1 Stratégies du meilleur enregistrement
Les stratégies fournies permettent de configurer facilement et rapidement des opérations courantes de meilleur enregistrement. Si aucune de ces stratégies ne répond à vos besoins, vous pouvez créer une stratégie du meilleur enregistrement personnalisée en utilisant votre propre code Python.
Les stratégies du meilleur enregistrement servent de critères pour exécuter des actions dans d'autres champs. Si les critères ne sont pas remplis, aucune action n'est exécutée.
Exemple :
Dans l'exemple de mise à jour d'un champ Téléphone avec les données les plus récentes, la stratégie de date peut être utilisée avec la priorité la plus récente pour mettre à jour l'enregistrement principal avec le dernier numéro de téléphone dans le groupe de correspondance. Cette partie (mise à jour de l'enregistrement principal avec le dernier numéro de téléphone) correspond à l'action. Vous pouvez aussi mettre à jour tous les enregistrements dans le groupe de correspondance (l'enregistrement principal et tous les enregistrements subordonnés) ou uniquement les enregistrements subordonnés.
Restriction :
La stratégie de date n'analyse pas la date, car elle ignore comment les données sont formatées.
Assurez-vous que les données sont prédéfinies au format AAAAMMJJ afin que les comparaisons de chaînes fonctionnent correctement. Pour ce faire, vous pouvez aussi définir une stratégie personnalisée en utilisant le code Python pour analyser la date et utiliser une comparaison de dates.
Stratégies personnalisées du meilleur enregistrement et Python
Dans les stratégies du meilleur enregistrement prédéfinies, la transformation Match génère automatiquement le code Python qu'elle utilise pour le traitement. Ce code contient des variables requises pour la gestion du traitement.
Variables courantes
Les variables courantes contenues dans le code Python généré sont les suivantes :
Variable
SRC
DST
RET
Description
Désigne le champ source.
Désigne le champ de destination.
Désigne la valeur renvoyée, qui indique si la stratégie a réussi (T) ou échoué
(F).
Variables NEWDST et NEWGRP
Utilisez les variables NEWDST et NEWGRP pour que la publication des données dans votre action du meilleur enregistrement soit indépendante des champs de stratégie. Si vous n'incluez pas ces variables, les données du champ de stratégie doivent également être mises à jour.
489 2012-11-22
Qualité des données
490
Variable
NEWDST
NEWGRP
Description
Indicateur de nouvelle destination Cette variable de chaîne porte la valeur "T" lorsque l'enregistrement de destination est nouveau ou qu'il a été modifié depuis la dernière évaluation de la stratégie et la valeur "F" lorsqu'il n'a pas été modifié depuis la dernière évaluation.
La variable NEWDST est utile uniquement si vous publiez vers plusieurs destinations telles que ALL ou SUBS dans l'option Destination de publication.
Indicateur de nouveau groupe Cette variable de chaîne porte la valeur "T" lorsque le groupe de correspondance a été modifié depuis la dernière évaluation de la stratégie et la valeur "F" lorsqu'il n'a pas été modifié depuis la dernière évaluation.
Exemple de NEWDST
Le code Python suivant a été généré à partir d'une stratégie NON_BLANK avec les options définies comme suit :
Définition des options
Stratégie du meilleur enregistrement
NON_BLANK
Priorité de la stratégie
Champ de stratégie
L'option de priorité n'est pas disponible pour la stratégie
NON_BLANK.
NORTH_AMERICAN_PHONE1_NORTH_AMERICAN_PHONE_STA-
NDARDIZED.
Destination de publication
TOUS
Publier une seule fois par destination
OUI
Voici à quoi ressemble le code Python.
# Setup local temp variable to store updated compare condition dct = locals()
# Store source and destination values to temporary variables
# Reset the temporary variable when the destination changes if (dct.has_key('BEST_RECORD_TEMP') and NEWDST.GetBuffer() == u'F'):
DESTINATION = dct['BEST_RECORD_TEMP'] else:
DESTINATION = DST.GetField(u'NORTH_AMERICAN_PHONE1_NORTH_AMERICAN_PHONE_STANDARDIZED')
SOURCE = SRC.GetField(u'NORTH_AMERICAN_PHONE1_NORTH_AMERICAN_PHONE_STANDARDIZED') if len(SOURCE.strip()) > 0 and len(DESTINATION.strip()) == 0:
RET.SetBuffer(u'T') dct['BEST_RECORD_TEMP'] = SOURCE else:
RET.SetBuffer(u'F') dct['BEST_RECORD_TEMP'] = DESTINATION
# Delete temporary variables del SOURCE del DESTINATION
2012-11-22
Qualité des données
Exemple : NEWDST et NEWGRP
Supposons que vous disposiez de deux groupes de correspondance, chacun contenant trois enregistrements.
Enregistrements
Groupe de correspondance 1
Groupe de correspondance 2
de groupe de correspondance
Enregistrement A
Enregistrement B
Enregistrement C
Enregistrement D
Enregistrement E
Enregistrement F
F
F
F
F
F
F
F
F
Chaque nouvelle destination ou nouveau groupe de correspondance est marqué(e) d'un "T".
NEWGRP
(T ou F)
NEWDST
(T ou F)
Comparaison
T (nouveau groupe de correspondance)
F
T (nouveau groupe de correspondance)
F
T (nouvelle destination "A")
F
T (nouvelle destination "B")
F
T (nouvelle destination "C")
F
T (nouvelle destination "D")
F
T (nouvelle destination "E")
F
T (nouvelle destination "F")
F
Enregistrement A > Enregistrement B
A > C
B > A
B > C
C > A
C > B
D > E
D > F
E > D
E > F
F > D
F > E
491 2012-11-22
Qualité des données
Création d'une stratégie du meilleur enregistrement prédéfinie
Assurez-vous d'ajouter une opération post-comparaison Meilleur enregistrement au niveau de correspondance approprié dans l'éditeur de correspondance. De plus, pensez à mapper les champs d'entrée pertinents pour qu'ils soient disponibles pour cette opération.
Cette procédure vous permet de générer rapidement les critères requis pour votre action du meilleur enregistrement. Les stratégies disponibles représentent des cas d'utilisation courants.
1.
Saisissez un nom pour cette opération de meilleur enregistrement.
2.
Sélectionnez une stratégie dans l'option Stratégie du meilleur enregistrement.
3.
Sélectionnez une priorité dans l'option Priorité de la stratégie.
La sélection des valeurs dépend de la stratégie que vous avez sélectionnée à l'étape précédente.
4.
Sélectionnez un champ dans le menu déroulant Champ de stratégie.
Le champ que vous sélectionnez ici sert de critère pour déterminer si une action du meilleur enregistrement est exécutée.
Exemple :
Le champ de stratégie sélectionné doit contenir des données correspondant à la stratégie que vous créez. Par exemple, si vous utilisez une stratégie de date la plus récente, assurez-vous que le champ sélectionné contient des données de date.
Création d'une stratégie du meilleur enregistrement personnalisée
1.
Ajoutez une opération de meilleur enregistrement à votre transformation Match.
2.
Saisissez un nom pour cette opération.
3.
Dans l'option Stratégie du meilleur enregistrement, sélectionnez Personnalisé.
4.
Sélectionnez un champ dans la liste déroulante Champ de stratégie.
5.
Cliquez sur le bouton Afficher/Modifier Python pour créer votre code Python personnalisé et représenter votre stratégie personnalisée.
La fenêtre Editeur Python apparaît.
16.4.9.1.2 Actions du meilleur enregistrement
Les actions du meilleur enregistrement sont les fonctions que vous exécutez sur les données si le critère d'une stratégie est rempli.
Exemple :
Supposons que vous souhaitiez mettre à jour les numéros de téléphone de l'enregistrement principal.
Cela implique qu'un enregistrement subordonné dans le groupe de correspondance comporte une date plus récente et, par conséquent, qu'il existe certainement un nouveau numéro de téléphone pour la personne concernée.
492 2012-11-22
Qualité des données
Dans ce cas, vous devez paramétrer une action qui commande à la transformation Match de mettre
à jour le champ des numéros de téléphone dans l'enregistrement principal (action) si une date plus récente existe dans le champ de date (stratégie).
Sources et destinations
Il est important de connaître les différences entre sources et destinations dans une action de meilleur enregistrement.
La source est le champ d'où vous extrayez des données et la destination est l'endroit où vous publiez les données. Une source ou destination peut être un enregistrement principal ou subordonné dans un groupe de correspondance.
Exemple :
Dans l'exemple du numéro de téléphone, l'enregistrement subordonné porte la date la plus récente ; ainsi, les données du champ Téléphone (la source) sont utilisées et publiées dans l'enregistrement principal ( la destination).
Publication une seule fois ou plusieurs fois par destination
Dans les options de meilleur enregistrement, vous pouvez choisir de publier vers une destination une seule fois ou plusieurs fois par action en définissant l'option Publier une seule fois par destination.
Vous pouvez stipuler que votre action de meilleur enregistrement s'arrête après sa première publication de données dans l'enregistrement de destination ou qu'elle poursuive avec les autres enregistrements de groupe de correspondance. Votre décision dépend de la nature des données que vous publiez et des enregistrements dans lesquels vous publiez. Les deux exemples ci-après illustrent les deux cas de figure.
Si vous publiez une seule fois dans chaque enregistrement de destination, une fois les données publiées pour un enregistrement spécifique, la transformation Match passe à l'exécution de l'action de meilleur enregistrement suivante (si plusieurs sont définies) ou à l'enregistrement suivant.
Si vous ne limitez pas l'action de cette manière, toutes les actions sont exécutées à chaque fois que la stratégie renvoie Vrai.
Indépendamment de cette définition, la transformation Match fonctionne toujours par ordre de priorité dans les membres du groupe de correspondance. En publiant dans l'enregistrement n°1 dans le graphique ci-dessous sans limiter la publication à une seule fois, on obtient le résultat suivant :
Groupe de correspondance
Action
Enregistrement n°1 (principal)
493 2012-11-22
Qualité des données
Groupe de correspondance
Action
Enregistrement n°2 (subordonné)
Tout d'abord, l'action est tentée en utilisant comme source l'enregistrement ayant la priorité la plus élevée (enregistrement n°2) parmi les autres enregistrements de groupe de correspondance.
Enregistrement n°3 (subordonné)
Ensuite, l'action est tentée en utilisant comme source l'enregistrement suivant ayant la priorité la plus élevée (enregistrement n°3).
Enregistrement n°4 (subordonné)
Enfin, l'action est tentée en utilisant comme source l'enregistrement ayant la priorité la plus faible (enregistrement n°4).
Dans cette dernière tentative, l'enregistrement n°4 était la dernière source utilisée pour l'action et peut donc être une source de données pour l'enregistrement de sortie. Cependant, si vous définissez votre action de meilleur enregistrement de sorte à publier une seule fois par enregistrement de destination, vous obtenez le résultat suivant :
Groupe de correspondance
Action
Enregistrement n°1
(principal)
Enregistrement n°2
(subordonné)
Tout d'abord, l'action est tentée en utilisant comme source l'enregistrement ayant la priorité la plus élevée (enregistrement n°2) parmi les autres enregistrements de groupe de correspondance.
Si cette tentative réussit, la transformation Match considère que cette action de meilleur enregistrement est terminée et passe à l'action suivante (le cas échéant) ou à l'enregistrement de sortie suivant.
Si cette tentative échoue, la transformation Match passe au membre du groupe de correspondance ayant la priorité suivante la plus élevée et tente l'opération de publication.
Enregistrement n°3
(subordonné)
Enregistrement n°4
(subordonné)
Dans ce cas, l'enregistrement n°2 était la dernière source utilisée pour l'action de meilleur enregistrement ; par conséquent, il est la source des données publiées dans l'enregistrement de sortie.
494 2012-11-22
Qualité des données
Création d'une action du meilleur enregistrement
L'action du meilleur enregistrement correspond à la publication des données d'un enregistrement source vers un enregistrement de destination, basée sur les critères de votre stratégie du meilleur enregistrement.
1.
Créez une stratégie prédéfinie ou personnalisée.
2.
Sélectionnez le ou les enregistrements à publier dans l'option Destination de publication.
3.
Définissez si vous voulez publier une seule fois ou plusieurs fois vers un enregistrement de destination dans l'option Publier une seule fois par destination.
4.
Dans la table Champs d'action du meilleur enregistrement, sélectionnez votre champ source et votre champ de destination.
Lorsque vous sélectionnez un champ source, la colonne Champ de destination est automatiquement renseignée avec les données du même champ. Vous devez modifier le champ de destination s'il ne s'agit pas du champ dans lequel vous voulez publier vos données.
5.
Pour créer une action du meilleur enregistrement personnalisée, sélectionnez Oui dans la colonne
Personnalisé.
Vous pouvez à présent accéder à l'éditeur Python pour créer un code Python personnalisé pour votre action personnalisée.
16.4.9.1.3 Protection de destination
Les opérations Meilleur enregistrement et ID unique de la transformation Match vous permettent de modifier des enregistrements existants dans vos données. Vous pouvez être amené à devoir protéger des données d'enregistrements spécifiques ou des données d'enregistrements de sources d'entrée spécifiques contre tout risque d'écrasement.
L'onglet Protection de destination des opérations de la transformation Match vous permet de protéger vos données contre d'éventuelles modifications.
Protection des enregistrements de destination via des champs
1.
Dans l'onglet Protection de destination, sélectionnez Activer la protection de la destination.
2.
Sélectionnez une valeur dans la liste déroulante de l'option Protection de destination par défaut.
Cette valeur détermine si une destination est protégée dans le cas où le champ de protection de destination ne comporte pas de valeur valide.
3.
Sélectionnez l'option Spécifier la protection destinataire par champ, puis sélectionnez un champ dans la liste déroulante Champ de protection de destination (ou le Champ ID unique protégé).
Le champ sélectionné doit comporter une valeur O ou N pour spécifier l'action.
Tout enregistrement portant la valeur O dans le champ de protection de destination est protégé contre toute modification.
495 2012-11-22
Qualité des données
496
Protection des enregistrements de destination basée sur l'appartenance dans une source d'entrée
Pour pouvoir exécuter cette tâche, vous devez au préalable ajouter une opération Source d'entrée et définir des sources d'entrée.
1.
Dans l'onglet Protection de destination, sélectionnez Activer la protection de la destination.
2.
Sélectionnez une valeur dans la liste déroulante de l'option Protection de destination par défaut.
Cette valeur détermine si une destination (source d'entrée) est protégée dans le cas où vous ne définissez pas spécifiquement la source dans la table ci-dessous.
3.
Sélectionnez l'option Spécifier la protection destinataire par source.
4.
Sélectionnez une source d'entrée dans la première ligne de la colonne Nom de source, puis sélectionnez une valeur dans la colonne Destination protégée (ou ID unique protégé).
Répétez cette opération pour chaque source d'entrée pour laquelle vous voulez définir une protection.
N'oubliez pas que si vous ne spécifiez pas de protection pour chaque source, la valeur par défaut est utilisée.
16.4.9.2 ID unique
Un ID unique correspond à un champ dans vos données qui contient une valeur unique associée à un enregistrement ou groupe d'enregistrements. Vous pouvez, par exemple, utiliser un ID unique dans la base de données interne de votre société pour recevoir les mises à jour à un intervalle prédéfini (chaque semaine, chaque mois ou chaque trimestre). L'ID unique s'applique à un enregistrement de données de la même façon qu'un numéro d'identification national peut s'appliquer à une personne, comme dans le cas du numéro de sécurité sociale aux Etats-Unis et du numéro d'assurance national au Royaume-Uni.
Il crée et suit les relations entre les données d'une exécution à l'autre. L'opération ID unique permet de définir votre propre ID de départ pour la génération de nouvelles clés ou de paramétrer une affectation dynamique sur la base des données existantes. L'opération de traitement post-correspondance ID unique permet également de commencer à l'endroit où l'ID unique le plus élevé de l'exécution précédente s'est terminé.
Rôle des ID uniques dans les groupes de correspondance
L'ID unique n'affecte pas nécessairement un ID à chaque enregistrement. Vous pouvez affecter le même ID à chaque enregistrement d'un groupe de correspondance (groupes d'enregistrements identifiés comme des correspondances).
Si vous affectez des ID directement à un groupe de décomposition, utilisez l'option Champ Numéro
de groupe pour indiquer les enregistrements à regrouper. Par ailleurs, veillez à ce que les enregistrements soient triés par numéro de groupe afin que les enregistrements portant le même numéro de groupe apparaissent conjointement.
Si vous affectez des ID à des enregistrements faisant partie d'un groupe de correspondance obtenu à partir du processus de correspondance, vous n'avez pas à utiliser le champ Numéro de groupe.
2012-11-22
Qualité des données
Remarque :
Si vous affectez des ID directement à un groupe de décomposition et que le champ Numéro de groupe n'est pas défini, le processus de correspondance considère la collection de données complète comme un seul groupe de correspondance.
16.4.9.2.1 Options de traitement des ID uniques
L'opération de traitement post-comparaison ID unique combine les informations de mise à jour de la source et les informations de la base de données principale pour former une seule source d'informations de groupe de correspondance. L'opération peut ensuite affecter, combiner, fractionner et supprimer des ID uniques si nécessaire. Pour ce faire, utilisez l'option Traitement de l'opération en cours.
Opération Description
Affecter
Affecter un nouvel ID à des enregistrements uniques dépourvus d'ID ou à tous les membres d'un groupe dépourvus d'ID. De plus, l'opération Affecter copie un ID existant si un membre d'un groupe de correspondance est déjà doté d'un ID.
Une valeur est affectée à chaque enregistrement.
• Les enregistrements d'un groupe de correspondance dans lequel un enregistrement avait un ID unique d'entrée partagent cette valeur avec d'autres enregistrements du groupe de correspondance dépourvu de valeur d'entrée. La première valeur trouvée est partagée.
L'ordre est important : si un champ prioritaire peut être séquencé dans l'ordre croissant, placez une opération post-comparaison Hiérarchisation avant l'opération ID unique.
• Les enregistrements d'un groupe de correspondance dans lequel deux enregistrement ou plus avaient différentes valeurs d'entrée ID unique conservent chacun leur valeur d'entrée.
• Si tous les enregistrements d'un groupe de correspondance ne sont pas dotés d'une valeur d'entrée ID unique, le prochain ID disponible sera affecté à chaque enregistrement du groupe.
Si le champ d'entrée GROUP_NUMBER est utilisé, les enregistrements dotés du même numéro de groupe doivent apparaître de manière consécutive dans la collection de données.
Remarque :
Utilisez le champ d'entrée GROUP_NUMBER uniquement pour traiter un groupe de décomposition susceptible de contenir des groupes de correspondance plus petits. Si le champ
GROUP_NUMBER n'est pas spécifié, l'opération ID unique suppose que la collection entière forme un seul groupe.
497 2012-11-22
Qualité des données
Opération Description
AffecterCombi ner
Exécute à la fois une opération Affecter et Combiner.
Une valeur est affectée à chaque enregistrement.
• Les enregistrements qui étaient dépourvus d'une valeur ID unique d'entrée et qui ne correspondent pas à d'autres enregistrements contenant une valeur ID unique d'entrée sont affectés au prochain ID disponible. Il s'agit d'enregistrements d'"ajout" qui pourraient
être des enregistrements uniques ou des correspondances, mais pas avec un autre enregistrement préalablement affecté à une valeur ID unique.
• Les enregistrements d'un groupe de correspondance dans lequel un ou plusieurs enregistrements avaient un ID unique d'entrée avec la même valeur ou des valeurs différentes partagent la première valeur trouvée avec tous les autres enregistrements du groupe de correspondance. L'ordre est important : si un champ prioritaire peut être séquencé dans l'ordre croissant, placez une opération post-comparaison Hiérarchisation avant l'opération
ID unique.
Si le champ d'entrée GROUP_NUMBER est utilisé, les enregistrements dotés du même numéro de groupe doivent apparaître de manière consécutive dans la collection de données.
Remarque :
Utilisez le champ d'entrée GROUP_NUMBER uniquement pour traiter un groupe de décomposition susceptible de contenir des groupes de correspondance plus petits. Si le champ
GROUP_NUMBER n'est pas spécifié, l'opération ID unique suppose que la collection entière forme un seul groupe.
498 2012-11-22
Qualité des données
Opération
Combiner
Description
Garantit que les enregistrements d'un même groupe de correspondance sont dotés du même
ID unique.
Par exemple, cette opération peut être utilisée pour affecter à tous les membres d'un foyer le même ID unique. Plus précisément, si un foyer compte deux personnes qui partagent le même ID unique et qu'une troisième personne les rejoint avec un ID unique différent, l'opération Combiner peut être utilisée pour affecter le même ID aux trois personnes du foyer.
Le premier enregistrement d'un groupe de correspondance portant un ID unique est celui doté de la priorité la plus élevée. Les autres enregistrements du groupe se voient affecter l'ID de cet enregistrement (en supposant que l'enregistrement en question ne soit pas protégé). L'opération Combiner n'affecte pas d'ID unique à un enregistrement qui n'a pas déjà un
ID unique. Elle combine simplement l'ID unique des enregistrements d'un groupe de correspondance déjà dotés d'un ID unique.
Si le champ d'entrée GROUP_NUMBER est utilisé, les enregistrements dotés du même numéro de groupe doivent apparaître de manière consécutive dans la collection de données.
Remarque :
Utilisez le champ d'entrée GROUP_NUMBER uniquement pour traiter un groupe de décomposition susceptible de contenir des groupes de correspondance plus petits. Si le champ
GROUP_NUMBER n'est pas spécifié, l'opération ID unique suppose que la collection entière forme un seul groupe.
Supprimer
Supprime les ID uniques des enregistrements qui n'en ont plus besoin, à condition qu'ils ne soient pas protégés contre la suppression. Si vous utilisez un fichier et que vous recyclez des ID, ces ID sont ajoutés au fichier. Lors d'une suppression, les enregistrements dotés du même ID unique doivent être regroupés.
Lorsque Match détecte qu'un groupe d'enregistrements doté du même ID unique est sur le point d'être supprimé :
• Si des enregistrements sont protégés, tous les enregistrements du groupe sont considérés comme étant protégés.
• Si le recyclage est activé, l'ID unique est recyclé une fois seulement, même si un groupe d'enregistrements portaient le même ID.
499 2012-11-22
Qualité des données
Opération
Fractionner
Description
Modifie les enregistrements uniques d'un groupe fractionné de sorte que les enregistrements n'appartenant pas au même groupe de correspondance porte un ID différent. L'enregistrement avec la priorité la plus élevée au sein du groupe conserve son ID unique. Les autres se voient affecter de nouveaux ID uniques.
Pour cette opération, vous devez regrouper vos enregistrements par ID unique plutôt que par numéro de groupe de correspondance.
Exemple :
• Les enregistrements d'un groupe de correspondance dans lequel deux enregistrements ou plus portaient des valeurs d'entrée ID unique différentes ou des valeurs vides conservent chacun leur valeur d'entrée, renseignée ou vide selon l'enregistrement en question.
• Les enregistrements qui étaient dépourvus d'une valeur ID unique d'entrée et qui ne correspondaient pas à d'autres enregistrements contenant une valeur ID unique d'entrée se voient affecter un ID unique vide de sortie.
• Pour les enregistrements qui étaient pourvus de la même valeur ID unique d'entrée et qui ne sont plus considérés comme des correspondances, le premier enregistrement porte la valeur d'entrée. Les autres enregistrements se voient affecter de nouvelles valeurs
ID unique.
16.4.9.2.2 Protection des ID uniques
La sortie de l'ID unique dépend du fait que le champ d'entrée dans l'enregistrement concerné est doté ou non d'une valeur qui indique que l'ID est protégé.
• Si le champ ID unique protégé n'est pas mappé comme champ d'entrée, Match suppose qu'aucun des enregistrements n'est protégé.
• Deux valeurs sont autorisées dans ce champ : O et N. Tout autre valeur est convertie en O.
La valeur N signifie que l'ID unique n'est pas protégé et que l'ID publié à la sortie peut être différent de l'ID d'entrée.
La valeur O signifie que l'ID unique est protégé et que l'ID publié à la sortie sera identique à l'ID d'entrée.
• Si le champ ID unique protégé est mappé comme champ d'entrée, une valeur autre que N signifie que les données d'entrée de l'enregistrement seront conservées dans le champ ID unique de sortie.
Ces règles de champs protégés s'appliquent à toutes les opérations de traitement ID unique.
16.4.9.2.3 Limitations des ID uniques
Le fait que certaines options dans l'opération ID unique soient basées sur la lecture d'un fichier ou la référence à une valeur de champ peut avoir des conséquences lorsque vous exécutez un environnement de serveur multiple ou serveur en temps réel et que vous partagez un fichier ID unique.
500 2012-11-22
Qualité des données
501
• Si vous lisez un fichier ou écrivez dans un fichier, le fichier ID unique doit figurer dans un système de fichiers partagés.
• Les ID recyclés sont utilisés dans l'ordre premier entré, premier sorti. Lorsque la transformation
Match recycle un ID, elle ne vérifie pas s'il est déjà présent dans le fichier. Vous devez vous assurer qu'une valeur ID unique donnée n'est pas recyclée plus d'une fois.
16.4.9.2.4 Affectation d'ID uniques à l'aide d'un fichier
1.
Dans le groupe d'options ID unique, sélectionnez l'option Valeur à partir du fichier.
2.
Définissez le nom du fichier et son chemin d'accès dans l'option Fichier.
Le fichier doit être au format XML et respecter la structure suivante :
<UniqueIdSession>
<CurrentUniqueId>477</CurrentUniqueId>
</UniqueIdSession>
Remarque :
La valeur 477 est un exemple de valeur de départ. Toutefois, la valeur doit être au moins égale à
1.
16.4.9.2.5 Affectation d'ID uniques à l'aide d'une constante
De même qu'avec un fichier, vous pouvez affecter un ID unique de départ en définissant cette valeur.
1.
Sélectionnez l'option Valeur constante.
2.
Définissez l'option Valeur de départ sur la valeur d'ID souhaitée.
16.4.9.2.6 Affectation d'ID uniques à l'aide d'un champ
L'option de champ permet d'envoyer l'ID unique de départ via un champ dans votre source de données ou à partir d'une transformation User-Defined, par exemple.
L'ID unique de départ est transmis à la transformation Match avant que le premier nouvel ID unique ne soit demandé. Si aucun ID unique n'est reçu, le numéro de départ par défaut est le 1.
Attention :
Attention lorsque vous utilisez l'option de champ ! Le champ que vous utilisez doit contenir la valeur d'ID unique par laquelle vous voulez que débute la numérotation séquentielle. Cela signifie que chaque enregistrement traité doit contenir ce champ et que chaque enregistrement doit avoir la même valeur dans ce champ.
Supposons que la valeur utilisée soit 100 000. Lors du traitement, le premier enregistrement ou groupe de correspondance aura un ID de 100 001. Le second enregistrement ou groupe de correspondance aura un ID de 100 002, etc.
La valeur du premier enregistrement transmise à la transformation Match contient la valeur de début de l'incrémentation.
Il est impossible de savoir à l'avance quel enregistrement sera transmis à la transformation Match en premier (en raison du tri, par exemple) ; par conséquent, il est impossible de savoir par quelle valeur débutera l'incrémentation.
2012-11-22
Qualité des données
Affectation d'ID uniques à l'aide d'un champ
1.
Sélectionnez l'option Champ.
2.
Dans l'option Champ ID unique de départ, sélectionnez le champ contenant la valeur de l'ID unique de départ.
16.4.9.2.7 Affectation d'ID uniques à l'aide d'un GUID
Vous pouvez utiliser un identificateur global unique (GUID) comme ID unique.
• Sélectionnez l'option GUID.
Remarque :
Le GUID est également appelé identificateur unique universel (UUID). La variante UUID utilisée pour l'ID unique est une chaîne temporelle de 36 caractères au format suivant : TimeLow-TimeMid-Time
HighAndVersion-ClockSeqAndReservedClockSeqLow-Node
Pour en savoir plus sur l'UUID, voir le document RFC (Request for Comments).
Rubriques associées
• UUID RFC: http://www.ietf.org/rfc/rfc4122.txt
16.4.9.2.8 Recyclage d'ID uniques
Si des ID uniques sont supprimés avec l'option de traitement Supprimer, vous pouvez les réécrire dans un fichier pour les utiliser ultérieurement.
1.
Dans le groupe d'options ID unique, définissez l'option Traitement de l'opération en cours sur
Supprimer.
2.
Sélectionnez l'option Valeur à partir du fichier.
3.
Définissez le nom du fichier et son chemin d'accès dans l'option Fichier.
4.
Définissez l'option Recycler les ID uniques sur Oui. Ce fichier est le même que celui qui peut être utilisé pour affecter un numéro ID de départ.
Utilisation de vos propres ID uniques recyclés
Si vous disposez d'ID que vous voulez recycler et utiliser dans un flux de données, vous pouvez les saisir dans un fichier à utiliser pour le recyclage des ID et la publication d'une valeur de départ pour les ID. Saisissez ces ID dans une balise XML <R></R>. Exemple :
<UniqueIdSession>
<CurrentUniqueId>477</CurrentUniqueId>
<R>214</R>
<R>378</R>
</UniqueIdSession>
502 2012-11-22
Qualité des données
16.4.9.2.9 Protection de destination
Les opérations Meilleur enregistrement et ID unique de la transformation Match vous permettent de modifier des enregistrements existants dans vos données. Vous pouvez être amené à devoir protéger des données d'enregistrements spécifiques ou des données d'enregistrements de sources d'entrée spécifiques contre tout risque d'écrasement.
L'onglet Protection de destination des opérations de la transformation Match vous permet de protéger vos données contre d'éventuelles modifications.
Protection des enregistrements de destination via des champs
1.
Dans l'onglet Protection de destination, sélectionnez Activer la protection de la destination.
2.
Sélectionnez une valeur dans la liste déroulante de l'option Protection de destination par défaut.
Cette valeur détermine si une destination est protégée dans le cas où le champ de protection de destination ne comporte pas de valeur valide.
3.
Sélectionnez l'option Spécifier la protection destinataire par champ, puis sélectionnez un champ dans la liste déroulante Champ de protection de destination (ou le Champ ID unique protégé).
Le champ sélectionné doit comporter une valeur O ou N pour spécifier l'action.
Tout enregistrement portant la valeur O dans le champ de protection de destination est protégé contre toute modification.
Protection des enregistrements de destination basée sur l'appartenance dans une source d'entrée
Pour pouvoir exécuter cette tâche, vous devez au préalable ajouter une opération Source d'entrée et définir des sources d'entrée.
1.
Dans l'onglet Protection de destination, sélectionnez Activer la protection de la destination.
2.
Sélectionnez une valeur dans la liste déroulante de l'option Protection de destination par défaut.
Cette valeur détermine si une destination (source d'entrée) est protégée dans le cas où vous ne définissez pas spécifiquement la source dans la table ci-dessous.
3.
Sélectionnez l'option Spécifier la protection destinataire par source.
4.
Sélectionnez une source d'entrée dans la première ligne de la colonne Nom de source, puis sélectionnez une valeur dans la colonne Destination protégée (ou ID unique protégé).
Répétez cette opération pour chaque source d'entrée pour laquelle vous voulez définir une protection.
N'oubliez pas que si vous ne spécifiez pas de protection pour chaque source, la valeur par défaut est utilisée.
16.4.9.3 Grouper statistiques
503 2012-11-22
Qualité des données
L'opération post-comparaison Grouper statistiques doit être ajoutée à tout niveau de correspondance et toute opération post-comparaison pour lesquels vous avez besoin de statistiques sur vos groupes de correspondance ou vos sources d'entrée.
Cette opération peut aussi compter les statistiques de sources d'entrée logiques que vous avez déjà identifiées avec des valeurs dans un champ (prédéfini) ou de sources logiques que vous spécifiez dans l'opération Sources d'entrée.
Cette opération vous permet aussi d'exclure certaines sources logiques en fonction de vos critères.
Remarque :
Si vous choisissez de compter les statistiques de sources d'entrée dans l'opération Grouper statistiques,
Match comptera aussi les statistiques de base sur vos groupes de correspondance.
Grouper champs de statistiques
Lorsque vous incluez une opération Grouper statistiques dans votre transformation Match, les champs suivants sont générés par défaut :
• GROUP_COUNT
• GROUP_ORDER
• GROUP_RANK
• GROUP_TYPE
De plus, si vous choisissez de générer des statistiques source, les champs suivants sont également générés et disponibles pour la sortie :
• SOURCE_COUNT
• SOURCE_ID
• SOURCE_ID_COUNT
• SOURCE_TYPE_ID
Rubriques associées
• Guide de référence : Transformations, correspondance, champs de sortie
• Guide de la console de gestion : Rapports Data Quality, rapport Résumé des statistiques source de correspondance
16.4.9.3.1 Génération de statistiques de base uniquement
Cette tâche permet de générer des statistiques sur vos groupes de correspondance, telles que le nombre d'enregistrements dans chaque groupe, les enregistrements principaux ou subordonnés, etc.
1.
Ajoutez une opération Grouper statistiques à chaque niveau de correspondance souhaité en sélectionnant Traitement post-correspondance dans un niveau de correspondance, en cliquant sur le bouton Ajouter, puis en sélectionnant Grouper statistiques.
2.
Sélectionnez Générer uniquement les statistiques de base.
3.
Cliquez sur le bouton Appliquer pour sauvegarder vos modifications.
504 2012-11-22
Qualité des données
505
16.4.9.3.2 Génération de statistiques pour toutes les sources d'entrée
Avant de démarrer cette tâche, assurez-vous d'avoir défini vos sources d'entrée dans l'opération Sources d'entrée.
Utilisez cette procédure pour générer des statistiques pour toutes vos sources au sein du job.
1.
Ajoutez une opération Statistiques du groupe au niveau de correspondance approprié.
2.
Sélectionnez l'option Générer des statistiques source à partir des sources d'entrée.
Des statistiques sont alors générées pour toutes les sources d'entrée que vous avez définies dans l'opération Sources d'entrée.
16.4.9.3.3 Comptage des statistiques pour les sources d'entrée générées par des valeurs dans un champ
Pour cette tâche, il n'est pas nécessaire de définir des sources d'entrée avec l'opération Sources d'entrée. Vous pouvez spécifier des sources d'entrée pour Match en utilisant des valeurs dans un champ.
Cette tâche vous permet de générer des statistiques pour toutes les sources d'entrée identifiées par des valeurs dans un champ ou de générer des statistiques pour un sous-ensemble de sources d'entrée.
1.
Ajoutez une opération Grouper statistiques au niveau de correspondance approprié.
2.
Sélectionnez l'option Générer des statistiques source à partir des valeurs source.
3.
Sélectionnez un champ dans la liste déroulante Champ de source logique contenant les valeurs pour vos sources logiques.
4.
Entrez une valeur dans le champ Valeur source logique par défaut.
Cette valeur est utilisée si le champ de source logique est vide.
5.
Sélectionnez l'une des options suivantes :
Option
Compter toutes les sources
Sélectionner les sources à compter
Description
Permet de compter toutes les sources. Si vous sélectionnez cette option, cliquez sur le bouton Appliquer pour sauvegarder vos modifications. Cette tâche est terminée.
Permet de définir un sous-ensemble de sources d'entrée à compter. Si vous sélectionnez cette option, vous pouvez passer à l'étape 6 de la tâche.
6.
Sélectionnez la valeur appropriée dans l'option Indicateur de nombre par défaut.
Sélectionnez Oui pour compter toute source non spécifiée dans la table Définir manuellement
des indicateurs de nombre de sources logiques. Si vous ne spécifiez pas de source dans la table, vous comptez toutes les sources.
7.
Sélectionnez Générer automatiquement les sources pour compter les sources en fonction d'une valeur dans un champ spécifié dans l'option Champ de l'indicateur de nombre prédéfini.
2012-11-22
Qualité des données
Si vous ne spécifiez pas de source dans la table Définir manuellement des indicateurs de nombre
de sources logiques, vous indiquez à la transformation Match de compter toutes les sources en fonction de la valeur (Oui ou Non) de ce champ.
8.
Dans la table Définir manuellement des indicateurs de nombre de sources logiques, ajoutez autant de lignes que nécessaire afin d'inclure toutes les sources à compter.
Remarque :
C'est le premier critère sur lequel se base la transformation Match pour déterminer s'il faut compter des sources.
9.
Ajoutez une valeur source et un indicateur de nombre à chaque ligne pour indiquer à la transformation
Match les sources à compter.
Conseil :
Si vous disposez d'un grand nombre de sources, mais que vous voulez en compter deux uniquement, vous pouvez accélérer le temps de configuration en définissant l'option Indicateur de nombre par
défaut sur Non et en configurant la table Définir manuellement des indicateurs de nombre de
sources logiques pour compter ces deux sources. En utilisant la même méthode, vous pouvez configurer Grouper statistiques de sorte à compter toutes les sources et non pas deux sources uniquement.
16.4.9.4 Sélection de l'indicateur de sortie
En ajoutant une opération Sélection de l'indicateur de sortie à chaque niveau de correspondance souhaité (Traitement post-correspondance), vous pouvez marquer des types d'enregistrement spécifiques pour évaluation ou routage en aval dans votre flux de données.
L'ajout de cette opération génère le champ de sortie Select_Record à inclure dans votre schéma de sortie. Ce champ de sortie est renseigné par un O ou un N selon le type d'enregistrement sélectionné dans l'opération.
Vos résultats apparaîtront dans le rapport Faire correspondre la sélection de sortie à la source d'entrée.
Ce rapport vous permet de déterminer de quelle source ou groupe source proviennent les enregistrements et combien de chacun des types d'enregistrements ont été générés par source ou groupe source.
Type d'enregistrement
Unique
Description
Enregistrements ne faisant partie d'aucun groupe de correspondance. Aucun enregistrement correspondant n'a été trouvé. Peuvent être issus de sources contenant une source Normal ou Special.
Enregistrements principaux de source unique
Membre le plus haut placé d'un groupe de correspondance dont les membres sont tous issus de la même source. Peut être issu d'une source Normal ou Special.
506 2012-11-22
Qualité des données
Type d'enregistrement Description
Enregistrements subordonnés de source unique
Enregistrement issu d'une source Normal ou Special et membre subordonné d'un groupe de correspondance.
Enregistrements principaux de sources multiples
Membre le plus haut placé d'un groupe de correspondance dont les membres sont issus de deux sources ou plus. Peut être issu d'une source Normal ou Special.
Enregistrements subordonnés de sources multiples
Enregistrement subordonné d'un groupe de correspondance issu d'une source
Normal ou Special dont les membres sont issus de deux sources ou plus.
Correspondances
Suppression
Enregistrements uniques Suppression
Membre subordonné d'un groupe de correspondance incluant un enregistrement de priorité supérieure issu d'une source de type Suppression. Peut être issu d'une source Normal ou Special.
Enregistrement issu d'une source Suppression pour lequel aucun enregistrement correspondant n'a été trouvé.
Enregistrements principaux Suppression
Enregistrement issu d'une source Suppression et membre le plus haut placé d'un groupe de correspondance.
Enregistrements subordonnés Suppression
Enregistrement issu d'une source de type Suppression et membre subordonné d'un groupe de correspondance.
16.4.9.4.1 Marquage des types d'enregistrements sources pour la sortie possible
1.
Dans l'éditeur Match, ajoutez une opération Sélection de l'indicateur de sortie pour chaque niveau de correspondance souhaité.
2.
Sélectionnez les types d'enregistrements pour lesquels vous voulez renseigner le champ
Select_Record par O.
Le champ de sortie Select_Record peut être généré à partir de Match pour être utilisé en aval dans le flux de données. Cela peut s'avérer très utile si vous voulez ensuite séparer les correspondances de suppression ou les enregistrements principaux Suppression de vos données (à l'aide d'une transformation Case, par exemple).
16.4.10 Correspondance par association
La correspondance par association combine les résultats de correspondance de deux sets de correspondance (transformations) ou plus pour rechercher des correspondances qui n'ont pas été trouvées dans un set de correspondance unique.
507 2012-11-22
Qualité des données
Vous pouvez configurer la correspondance par association dans la transformation Associate. Cette transformation se comporte comme un autre set de correspondance dans votre flux de données, dont vous pouvez dériver des statistiques.
Ce set de correspondance a deux objectifs : Tout d'abord, il fournit un accès à toutes les données générées, à tous les niveaux de correspondance de tous les sets de correspondance. Ensuite, il fournit les résultats chevauchés de plusieurs critères, comme le nom et l'adresse avec le nom et le NSS sous forme d'ID unique. C'est ce que l'on appelle généralement la correspondance par association.
Numéros de groupe
La transformation Associate accepte un champ Numéro de groupe, généré par les transformations
Match pour chaque résultat de correspondance qui doit être combiné. La transformation peut ensuite générer un nouveau numéro de groupe associé.
La transformation Associate peut s'exécuter sur tous les enregistrements d'entrée ou sur une collection de données à la fois. La collection de données est requise pour le support en temps réel.
Exemple : Exemple d'association
Imaginons que vous travailliez dans un collège technique et que vous souhaitiez envoyer des informations à tous les élèves avant la rentrée. Vous savez que beaucoup d'entre eux ont une adresse locale temporaire et une adresse permanente.
Dans cet exemple, vous pouvez effectuer une correspondance sur le nom, l'adresse et le code postal dans un set de correspondance et sur le nom et le numéro de sécurité sociale (NSS), disponible pour chaque étudiant, dans un autre set de correspondance.
La transformation Associate combine ensuite les deux sets de correspondance pour générer des groupes de correspondance associés. Cela vous permet d'identifier les personnes susceptibles d'avoir plusieurs adresses et donc d'optimiser vos efforts en termes de marketing et de courrier.
16.4.11 Correspondance Unicode
La correspondance Unicode vous permet de mettre en correspondance des données Unicode. Vous pouvez traiter toutes les données Unicode non Latin1, avec un traitement spécifique pour les données chinoises, japonais, coréennes et taïwanaises (ou CJKT).
Correspondance des données chinoises, japonais, coréennes et taïwanaises
Indépendamment de la langue propre à chaque pays, le processus de correspondance des données
CJKT est identique. Par exemple, la transformation Match :
• Considère les caractères demi-largeur et pleine largeur de la même manière.
• Considère les chiffres de script natif et les chiffres arabes de la même manière. Elle peut interpréter des chiffres écrits dans un script natif. Cette fonction peut être contrôlée dans l'option Convertir le texte en chiffres du groupe d'options Critère.
508 2012-11-22
Qualité des données
• Inclut des variations pour les caractères des noms de personnes et de sociétés dans les données référentielles.
• Considère les termes d'entreprise tels que Société de la même manière que leur variante (Sté) lors du processus de comparaison. Pour trouver les abréviations, la transformation utilise des variations de script natif de l'alphabet anglais lors de la mise en correspondance des noms de société.
• Ignore les marqueurs facultatifs couramment utilisés pour la ville, le département, etc. dans la comparaison des données d'adresse.
• Traite intelligemment les variations dans un marqueur de bâtiment.
Fonctionnalités de correspondance spécifiques au japonais
Avec les données japonaises, la transformation Match :
• Considère les marqueurs d'îlots (bâtiments) tels que chome et banchi de la même manière que ceux utilisés avec des données avec trait d'union.
• Considère les mots avec ou sans Okurigana de la même manière dans les données d'adresse.
• Considère les variations des marqueurs no, ga, etc. de la même manière.
• Considère les variations de trait d'union ou ligne en pointillé de la même manière.
Limitations de la correspondance Unicode
La fonction de correspondance Unicode ne prend pas en charge les opérations suivantes :
• Effectuer des conversions de données en chinois simplifié et traditionnel.
• Faire correspondre des scripts non phonétiques tels que le kanji, le chinois simplifié, etc.
Router des enregistrements en fonction de l'ID pays avant la mise en correspondance.
Avant d'envoyer les données Unicode dans le processus de correspondance, vous devez regrouper les données par pays pour séparer les transformations Match. Pour ce faire, vous devez utiliser une transformation Case qui permet de router les données propres au pays en fonction de l'ID pays.
Conseil :
L'Assistant de correspondance peut exécuter cette tâche si vous utilisez la stratégie multinationale.
Mise en correspondance multi-scripts
La mise en correspondance multi-scripts vous permet de traiter des données susceptibles de contenir plusieurs scripts en convertissant les scripts en Latin1. Imaginons, par exemple, qu'un enregistrement contienne du Latin1 et l'autre du katakana ou l'un du latin et l'autre du cyrillique. Sélectionnez Oui pour activer la mise en correspondance multi-scripts. Si vous préférez traiter les données sans les convertir en Latin1, ne modifiez pas l'option Mise en correspondance multi-scripts définie sur Non. Voici deux exemples de noms pour lesquels une correspondance a été trouvée à l'aide de la mise en correspondance multi-scripts :
509 2012-11-22
Qualité des données
510
Name
Viktor Ivanov
Takeda Noburu
Peut être mis en correspondance avec...
Виктор Иванов
スッセ フレ
Paramètres régionaux
Cette option permet de définir les paramètres régionaux pour le champ Critère. La définition des paramètres régionaux est recommandée si vous avez l'intention d'utiliser la fonction Convertir le texte en chiffres pour spécifier les paramètres régionaux des données en vue de la conversion à des fins de correspondance. Voici quatre exemples de conversion de texte en chiffres :
Langue
Français
Allemand
Italien
Espagnol
Texte
quatre mille cinq cents soixante-sept dreitausendzwei cento ciento veintisiete
Chiffres
4567
3002
100
127
Pour plus d'informations sur ces options de correspondance, voir la section relative à la transformation
Match du Guide de référence.
16.4.11.1 Configuration de la correspondance Unicode
1.
Utilisez une transformation Case pour router vos données vers une transformation Match qui traite ce type de données.
2.
Ouvrez la configuration de la transformation AddressJapan_MatchBatchMatch et enregistrez-la sous un nouveau nom.
3.
Définissez l'option Moteur de concordance dans les options de la transformation Match sur une valeur qui reflète le type de données traitées.
4.
Configurez vos critères et autres opérations. Pour plus d'informations sur les options Critères Match, voir la section relative à la transformation Match du Guide de référence.
Exemple :
• Dans la mesure du possible, utilisez des critères de composants analysés pour les données d'adresse, de société et de nom tels que Primary_Name ou Person1_Family_Name1.
• Si vous avez analysé des données d'adresse, de société et de nom qui n'ont pas de critère correspondant, utilisez les critères Address_Data1-5, Firm_Data1-3 et Name_Data1-3.
• Pour toutes les autres données sans critère correspondant, utilisez le critère Personnalisé.
2012-11-22
Qualité des données
16.4.12 Correspondance phonétique
Les fonctions Double Metaphone et Soundex permettent de renseigner un champ et de l'utiliser pour créer des groupes de décomposition ou comme critère dans une correspondance.
Critère de correspondance
Dans certains cas, l'utilisation de données phonétiques comme critère peut produire un plus grand nombre de correspondances qu'une comparaison par rapport à d'autres critères comme le nom ou des données société.
La correspondance par rapport aux données du champ Nom donne des résultats différents de la correspondance basée sur des données phonétiques. Par exemple :
Nom Score de comparaison
Smith
Smythe
Similaire à 72 %
Nom
Smith
Smythe
Clé phonétique (primaire) Score de comparaison
SMO
Similaire à 100 %
SMO
Options des critères
Si vous voulez établir la correspondance d'après des données phonétiques, configurez les options des critères comme suit.
Option
Algorithme de comparaison
Rechercher des lettres transposées
Score d'ajustement des initiales
Score d'ajustement des sous-chaînes
0
0
Valeur
Champ
Non
511 2012-11-22
Qualité des données
512
Option
Score d'ajustement des abréviations
Valeur
0
Scores de correspondance
Si vous établissez la correspondance d'après le critère phonétique seulement, définissez les options de scores de correspondance comme suit.
Option
Score de correspondance
Aucun score de correspondance
Valeur
100
99
Si vous établissez la correspondance d'après plusieurs critères, dont un critère phonétique, placez le critère phonétique en premier dans l'ordre des critères et définissez vos options de scores de correspondance comme suit :
Option
Score de correspondance
Aucun score de correspondance
Valeur
101
99
Champs vides
Lorsque vous utilisez des groupes de décomposition, les enregistrements qui ne comportent aucune valeur ne se trouvent pas dans le même groupe que ceux qui comportent une valeur (sauf si vous configurez la correspondance par rapport aux champs vides). Prenons l'exemple des deux enregistrements d'entrée suivants :
Mr Johnson 100 Main St La Crosse WI 54601
Scott Johnson 100 Main St La Crosse WI 54601
Une fois ces enregistrements traités par la transformation Data Cleanse, le premier enregistrement comporte un champ de prénom vide et, de ce fait, un champ phonétique vide. Dans ces conditions, vous ne pouvez obtenir aucune correspondance en créant des groupes de décomposition. Si vous ne créez pas de groupes de décomposition, vous ne pouvez obtenir un résultat qu'en utilisant la correspondance des vides.
Longueur des données
La longueur que vous affectez à une sortie de fonction phonétique revêt de l'importance. Par exemple :
2012-11-22
Qualité des données
Prénom (nom)
S (Johnson)
Scott (Johnson)
Sortie
S
SKT
Supposez que ces deux enregistrements représentent la même personne. Dans cet exemple, si vous effectuez la décomposition d'après plusieurs caractères, les enregistrements se trouveront dans des groupes de décomposition différents et ne seront donc pas comparés.
16.4.13 Configuration des rapports de correspondance
Vous disposez de nombreux rapports de correspondance visant à faciliter l'analyse des résultats du processus de correspondance. Pour en savoir plus sur les différents rapports, voir le Guide Management
Console Guide.
Ajout de Grouper statistiques dans une transformation Match
Si vous générez le rapport Résumé des statistiques source de correspondance, les transformations
Match et Associate doivent comprendre une opération Grouper statistiques.
Si vous voulez suivre vos statistiques source d'entrée, vous pouvez ajouter une opération Sources d'entrée dans la transformation Match afin de définir vos sources et choisir de générer des statistiques pour les sources d'entrée dans une opération Grouper statistiques.
Remarque :
Pour générer des statistiques source d'entrée dans l'opération Grouper statistiques, vous pouvez
également définir des sources d'entrée à l'aide de valeurs de champ. Vous ne devez pas nécessairement intégrer une opération Sources d'entrée dans la transformation Match.
Activation de la génération de données de rapport dans les transformations
Pour générer les données que vous voulez obtenir dans les rapports de correspondance autres que le rapport Résumé des statistiques source de correspondance, vous définir l'option Générer les données
de rapport sur Oui dans les transformations Match et Associate.
En activant la génération de données de rapport, vous pouvez obtenir des informations sur les groupes de décomposition, les critères ayant contribué à la création d'une correspondance, etc.
Remarque :
Néanmoins, l'activation de l'option de rapport peut avoir une incidence sur les performances du traitement.
Une fois que vous avez testé le flux de données de façon approfondie, il est préférable de désactiver les rapports.
513 2012-11-22
Qualité des données
Définition de noms pour les sets de correspondance, les niveaux et les opérations
Pour obtenir les données les plus précises dans vos rapports, veillez à utiliser des noms uniques dans les transformations Match et Associate pour les sets de correspondance, les niveaux et chacune de vos opérations préalables ou postérieures à la correspondance (Hiérarchisation du groupe et Grouper statistiques, par exemple). Vous serez ainsi mieux à même d'identifier les éléments qui ont produit les données que vous recherchez.
Insertion des champs de sortie appropriés
Vous pouvez créer trois champs de sortie dans la transformation Match si vous voulez que ces données soient enregistrées dans le rapport Exemple de correspondance en double. Ces champs sont les suivants :
• type_correspondance
• numéro_groupe
• score_correspondance
16.5 Address Cleanse
Cette section décrit comment préparer les données pour le nettoyage d'adresse, comment configurer ce dernier et comment interpréter la sortie après traitement.
Rubriques associées
•
Fonctionnement d'Address Cleanse
•
Préparation des données d'entrée
•
Détermination des transformations à utiliser
•
Identification du pays de destination
•
Configuration des fichiers de référence
•
Définition des options de standardisation
•
Pays pris en charge (Global Address Cleanse)
16.5.1 Fonctionnement d'Address Cleanse
Address Cleanse fournit une forme corrigée, complète et standardisée de vos données d'adresse d'origine. Avec la transformation USA Regulatory Address Cleanse et pour certains pays la transformation
Global Address Cleanse, Address Cleanse peut également corriger ou ajouter des codes postaux.
Avec la transformation DSF2 Walk Sequencer , vous pouvez ajouter à vos données des informations de tournée.
514 2012-11-22
Qualité des données
Que se produit-il lors de l'application d'Address Cleanse ?
Les transformations USA Regulatory Address Cleanse et Global Address Cleanse nettoient vos données de la manière suivante :
• Elles vérifient que la localité, la région et les codes postaux concordent les uns avec les autres. Si vos données comportent simplement une localité et une région, la transformation peut habituellement ajouter le code postal, et vice versa (selon le pays).
• Elles standardisent l'apparence de la ligne d'adresse. Par exemple, elles peuvent ajouter ou supprimer de la ponctuation et abréger ou indiquer le type principal (selon vos besoins).
• Elles identifient les adresses non distribuables, par exemple les parcelles vides et les immeubles condamnés (enregistrements Etats-Unis uniquement).
• Elles affectent des codes de diagnostic pour indiquer pourquoi les adresses n'ont pas été affectées ou comment elles ont été corrigées. (Ces codes sont inclus dans le Guide de référence).
Rapports
La transformation USA Regulatory Address Cleanse crée le USPS Form 3553 (requis pour CASS) et le rapport de synthèse NCOALink. La transformation Global Address Cleanse crée des rapports sur vos données, y compris le SERP (Statement of Address Accuracy Report) canadien, le rapport AMAS de la poste australienne et le rapport SOA Nouvelle-Zélande.
Rubriques associées
•
•
Classes des données et champs d'entrée et de sortie
•
Préparation des données d'entrée
•
Détermination des transformations à utiliser
•
Définition des options de standardisation
• Guide de référence : Pays pris en charge
• Guide de référence : Annexe Qualité des données, Codes ISO des pays et moteurs d'affectation
• Guide de référence : Champs Qualité des données, Champs Global Address Cleanse
• Guide de référence : Champs Qualité des données, Champs USA Regulatory Address Cleanse
16.5.1.1 Les transformations
Le tableau suivant répertorie les transformations Address Cleanse et leur objectif.
515 2012-11-22
Qualité des données
Transformation Description
DSF2 Walk Sequencer
Lorsque vous exécutez le Walk sequencing de DSF2 dans le progiciel, celui-ci ajoute
à vos données des informations de tournée de distribution que vous pouvez utiliser avec le logiciel de tri préalable pour bénéficier de remises sur les tournées.
Rappel :
Le progiciel ne place pas les données dans l'ordre des tournées de distribution.
Global Address
Cleanse et moteurs
Nettoie vos données d'adresses de tous les pays pris en charge (pas pour la certification des Etats-Unis). Vous devez configurer la transformation Global Address Cleanse conjointement à un ou plusieurs moteurs Global Address Cleanse (Canada, Adresse globale ou Etats-Unis). Avec cette transformation, vous pouvez créer le Software
Evaluation and Recognition Program (SERP) de la poste canadienne (Statement of
Address Accuracy Report), le rapport AMAS (Australia Post's Address Matching Processing Summary) de la poste australienne et le rapport SOA (Statement of Accuracy) de Nouvelle-Zélande.
USA Regulatory Address Cleanse
Identifie, analyse, valide et corrige les données d'adresses des Etats-Unis (dans la page de code Latin 1) conformément au CASS (Coding Accuracy Support System) américain. Peut créer le Formulaire 3553 USPS et éditer plusieurs codes utiles dans vos enregistrements. Vous pouvez également exécuter en mode non certifié et produire des listes de propositions.
Certaines options comprennent : DPV, DSF2 (augmentation), eLOT, EWS, GeoCensus,
LACSLink, NCOALink, RDI, SuiteLink, listes de propositions (pas pour la certification) et Z4Change.
Global Suggestion
Lists
Effectue des propositions pour les correspondances d'adresses possibles dans les données des Etats-Unis, du Canada, et des adresses globales. Cette transformation est habituellement utilisée pour le traitement en temps réel et ne standardise pas les adresses. Utilisez une transformation Country ID avant cette transformation dans le flux de données. Si vous désirez également standardiser vos données d'adresses, utilisez la transformation Global Address Cleanse après la transformation Global
Suggestion Lists dans le flux de données.
Country ID
Identifie le pays de destination pour l'enregistrement et édite un code ISO. Utilisez cette transformation avant la transformation Global Suggestion Lists dans votre flux de données. (Il n'est pas nécessaire de placer la transformation Country ID avant les transformations Global Address Cleanse ou USA Regulatory Address Cleanse.)
516 2012-11-22
Qualité des données
16.5.1.2 Classes des données et champs d'entrée et de sortie
Données d'entrée
Les transformations Address Cleanse acceptent les formats de ligne d'adresse discret, multiligne et hybride.
Données de sortie
Il existe deux manières de configurer le progiciel pour gérer les données de sortie. La plupart utilisent une combinaison des deux.
Concept
Multiligne
Description
La première méthode est utile lorsque vous désirez conserver à la sortie des données d'adresses la même disposition des champs qu'à l'entrée. Le progiciel applique si nécessaire une abréviation intelligente pour conserver aux données les mêmes longueurs de champs. Les données sont mises en majuscules et standardisées selon la manière dont vous définissez les options de style de standardisation.
Discret
La deuxième méthode est utile lorsque vous désirez que les adresses en sortie soient décomposées en éléments plus petits qu'à l'entrée. Vous pouvez également récupérer des champs supplémentaires créés par le progiciel, par exemple le code de statut ou d'erreur. Le style de certains composants est contrôlé par les options du style de standardisation, la plupart ne le sont pas. Le progiciel n'applique pas d'abréviation intelligente pour que les composants correspondent à vos champs de sortie.
Lorsque vous configurez la transformation USA Regulatory Address Cleanse ou Global Address Cleanse transform, vous pouvez inclure des champs de sortie contenant des informations spécifiques :
Classe d'adresse
Champ généré
Classe Champ généré
Distribution
Analysé : contient l'entrée analysée avec application d'une certaine standardisation. Les champs soumis à la standardisation sont la localité, la région et le code postal.
Meilleur : contient les données analysées si l'adresse n'est pas affectée ou les données corrigées d'une adresse affectée.
Corrigé : contient les données affectées après les recherches de répertoire et reste vide si l'adresse n'est pas affectée.
517 2012-11-22
Qualité des données
Classe d'adresse
Champ généré
Double
Officiel
Classe Champ généré
Analysé, meilleur et corrigé : contient les détails d'adresse DOUBLE disponibles à l'entrée.
Analysé : contient l'entrée analysée avec application d'une certaine standardisation.
Meilleur : contient les informations des répertoires définis par le service postal lorsque l'adresse est affectée. Contient l'entrée analysée lorsqu'une adresse n'est pas affectée.
Corrigé : contient les informations des répertoires définis par le service postal lorsque l'adresse est affectée et reste vide si l'adresse n'est pas affectée.
16.5.2 Préparation des données d'entrée
Avant de commencer le nettoyage d'adresses, vous devez décider du type de format de ligne d'adresse en entrée. Les transformations USA Regulatory Address Cleanse et Global Address Cleanse acceptent les données d'entrée de la même manière.
Attention :
La transformation USA Regulatory Address Cleanse n'accepte pas les données Unicode. Si un enregistrement d'entrée comporte des caractères extérieurs à la page de code Latin1 (valeur de caractère supérieure à 255), la transformation USA Regulatory Address Cleanse ne traite pas les données. A la place, l'enregistrement d'entrée est envoyé au champ de sortie standardisé correspondant sans aucun traitement. Aucun autre champ de sortie (composant par exemple) n'est renseigné pour cet enregistrement. Si votre base de données Unicode comporte des adresses des Etats-Unis valides en jeu de caractères Latin1, la transformation USA Regulatory Address Cleanse les traite comme d'habitude.
Formats de ligne d'adresse acceptés
Les tableaux suivants répertorient les formats de ligne d'adresse : multiligne, hybride et discret.
Remarque :
Pour tous les formats multiligne et hybride répertoriés, vous n'êtes pas obligés d'utiliser tous les champs multilignes d'un format sélectionné (par exemple, Multiligne1-12). Cependant, vous devez commencer par Multiligne1 et continuer dans l'ordre. Vous ne pouvez pas sauter de numéros, par exemple de
Multiligne1 à Multiligne3.
518 2012-11-22
Qualité des données
Formats multiligne et multiligne hybride
Exemple 1 Exemple 2
Multiligne1
Multiligne2
Multiligne3
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Multiligne5
Multiligne6
Multiligne7
Multiligne8
Multiligne4
Multiligne5
Multiligne6
Multiligne7
Dernière ligne
Pays (facultatif) Pays (facultatif)
Exemple 3
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Localité3
Exemple 4
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Multiligne5
Exemple 5
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Multiligne5
Localité2
Localité1
Région1
Code postal (global) ou Code postal1
(région Etats-Unis)
Pays (facultatif)
Localité2
Localité1
Multiligne6
Localité1
Région1
Code postal (global) ou Code postal1
(région Etats-Unis)
Région1
Code postal (global) ou Code postal1
(région Etats-Unis)
Pays (facultatif) Pays (facultatif)
Formats de lignes discrets
Exemple 1 Exemple 2
Ligne_adresse
Dernière ligne
Pays (facultatif)
Ligne_adresse
Localité3 (global)
Localité2
Localité1
Exemple 3
Ligne_adresse
Localité2
Localité1
Région1
Exemple 4
Ligne_adresse
Localité1
Région1
Code postal (global) ou
Code postal1 (région
Etats-Unis)
Région1
Code postal (global) ou
Code postal1 (région
Etats-Unis)
Code postal (global) ou
Code postal1 (région
Etats-Unis)
Pays (facultatif)
Pays (facultatif)
Pays (facultatif)
519 2012-11-22
Qualité des données
16.5.3 Détermination des transformations à utiliser
Vous pouvez choisir entre plusieurs transformations Address Cleanse selon ce que vous désirez faire avec vos données. Il existe des transformations pour le nettoyage des données d'adresses globales et/ou des Etats-Unis, le nettoyage basé sur les réglementations USPS, utilisant des règles de gestion pour nettoyer les données et le nettoyage transactionnel des données d'adresses globales.
Rubriques associées
•
Nettoyage des données d'adresses globales
•
Nettoyage des données des Etats-Unis uniquement
•
Nettoyage des données des Etats-Unis et des données globales
•
Nettoyage des données d'adresses à l'aide de plusieurs règles de gestion
•
Nettoyage transactionnel des données d'adresses
520
16.5.3.1 Nettoyage des données d'adresses globales
Pour nettoyer les données d'adresses de l'un des pays pris en charge par le progiciel, (y compris le
Canada pour la certification SERP (Software Evaluation and Recognition Program) et l'Australie pour la certification AMAS (Address Matching Approval System)), utilisez la transformation Global Address
Cleanse dans votre projet avec un ou plusieurs des moteurs suivants :
• Canada
• Adresse globale
• Etats-Unis
Conseil :
Le nettoyage des données des Etats-Unis avec la transformation USA Regulatory Address Cleanse est habituellement plus rapide qu'avec la transformation Global Address Cleanse et le moteur Etats-Unis.
Ce scénario est également vrai même si vous finissez par avoir besoin des deux transformations.
Vous pouvez également utiliser la transformation Global Address Cleanse avec les moteurs Canada,
Etats-Unis et Adresse globale dans un flux de données en temps réel afin de créer des listes de propositions pour ces pays.
Commencer avec un modèle de configuration de transformation
Le progiciel comprend plusieurs configurations du modèle de la transformation Global Address Cleanse
(qui comprend au moins un moteur), vous pouvez les copier afin de les utiliser pour un projet.
Rubriques associées
•
Pays pris en charge (Global Address Cleanse)
2012-11-22
Qualité des données
•
Nettoyage des données des Etats-Unis et des données globales
• Guide de référence : Transformations, Configurations de transformation
16.5.3.2 Nettoyage des données des Etats-Unis uniquement
Pour nettoyer les données des Etats-Unis, utilisez la transformation USA Regulatory Address Cleanse afin d'obtenir de meilleurs résultats. Avec cette transformation ainsi que DPV, LACSLink et SuiteLink activés, vous pouvez produire un publipostage certifié CASS et un USPS Form 3553. Si vous ne prévoyez pas de traiter des listes certifiées CASS, vous devriez quand même utiliser la transformation
USA Regulatory Address Cleanse pour traiter vos données des Etats-Unis. L'utilisation de la transformation USA Regulatory Address Cleanse sur les données des Etats-Unis est plus efficace que l'utilisation de la transformation Global Address Cleanse.
Avec la transformation USA Regulatory Address Cleanse, vous pouvez ajouter des informations supplémentaires à vos données, par exemple DSF2, EWS, eLOT, NCOALink et RDI. Vous pouvez aussi traiter des enregistrements individuellement en utilisant des listes de propositions.
Commencer avec un modèle de configuration de transformation
Le progiciel comprend plusieurs configurations du modèle de la transformation USA Regulatory Address
Cleanse pouvant vous aider à configurer vos projets.
Rubriques associées
• Guide de référence : Transformations, Transformations Qualité des données, Configurations de transformation
•
Introduction aux listes de propositions
16.5.3.3 Nettoyage des données des Etats-Unis et des données globales
Que devez-vous faire lorsque vous avez dans une base de données des adresses des Etats-Unis devant être certifiées et des adresses d'autres pays ? Dans ce cas, utilisez les deux transformations
Global Address Cleanse et USA Regulatory Address Cleanse dans votre flux de données.
Conseil :
Même si vous ne traitez pas les données américaines pour la certification USPS, vous constaterez que leur nettoyage avec la transformation USA Regulatory Address Cleanse est plus rapide qu'avec la transformation Global Address Cleanse et le moteur Etats-Unis.
521 2012-11-22
Qualité des données
522
16.5.3.4 Nettoyage des données d'adresses à l'aide de plusieurs règles de gestion
Lorsque deux adresses ont une utilisation différente (par exemple, adresse de facturation et adresse d'expédition), utilisez deux transformations Address Cleanse identiques dans un flux de données.
Un ou deux moteurs ?
Lorsque vous utilisez deux transformations Global Address Cleanse pour les données du même pays, elles peuvent partager un moteur. Vous n'avez pas besoin d'avoir deux moteurs du même genre. Que vous utilisiez un ou deux moteurs, cela n'affecte pas le temps de traitement global du flux de données.
Cependant, dans ce cas, vous pouvez éventuellement utiliser deux moteurs distincts (même si les données sont du même pays). Selon vos règles de gestion, vous pouvez avoir à définir les paramètres du moteur différemment pour une adresse de facturation et une adresse d'expédition. Par exemple, dans le groupe Options de standardisation, l'option Langue de pays de sortie peut convertir les données utilisées dans chaque enregistrement en langue officielle du pays ou conserver la langue utilisée dans chaque enregistrement. Par exemple, vous pouvez convertir les données de l'adresse d'expédition mais conserver celles de l'adresse de facturation.
16.5.3.5 Nettoyage transactionnel des données d'adresses
La transformation Global Suggestion Lists, davantage utilisée dans les projets transactionnels, est une manière de remplir les adresses avec un minimum de données. Elle peut aussi faire des propositions pour les correspondances possibles. Par exemple, les Iles Marshall et les Etats fédérés de Micronésie ont été récemment supprimés du répertoire des adresses des Etats-Unis. Par conséquent, si vous utilisiez auparavant le moteur Etats-Unis, vous devrez maintenant utiliser le moteur Adresse globale.
La transformation Global Suggestion Lists peut aider à identifier que ces pays ne figurent plus dans le répertoire des adresses des Etats-Unis.
Ce système de saisie d'adresses facile est idéal dans les environnements de centres d'appels ou dans tout environnement transactionnel où un nettoyage est nécessaire au point d'entrée. C'est également un outil de recherche avantageux lorsque vous devez gérer les mauvaises adresses d'un précédent traitement par lots.
Placez la transformation Global Suggestion Lists après la transformation Country ID et avant une transformation Global Address Cleanse qui utilise un moteur Adresse globale, Canada, et/ou Etats-Unis.
Intégration de fonctionnalité
La fonctionnalité Global Suggestion Lists est conçue pour être intégrée dans vos propres applications personnalisées via le service Web. Si vous êtes programmeur à la recherche d'informations sur la manière d'intégrer cette fonctionnalité, voir "Intégrer Global Suggestion Lists" dans
Guide d'intégration
2012-11-22
Qualité des données
Commencer avec un modèle de configuration de transformation
Qualité des données comprend un modèle de transformation Global Suggestion Lists qui peut vous aider lors de la configuration d'un projet.
Rubriques associées
•
Introduction aux listes de propositions
16.5.4 Identification du pays de destination
La transformation Global Address Cleanse inclut le traitement Country ID. Par conséquent, vous n'avez pas besoin de placer une transformation Country ID avant la transformation Global Address Cleanse dans votre flux de données.
Dans le groupe d'options Options Country ID de la transformation Global Address Cleanse, vous pouvez définir le pays de destination ou définir si vous désirez exécuter le traitement Country ID.
Pays constant
Si l'ensemble des données provient d'un seul pays, l'Australie par exemple, vous n'avez pas besoin d'exécuter le traitement Country ID ou d'entrer un champ de pays discret. Vous pouvez indiquer le pays
à la transformation Global Address Cleanse et elle supposera que tous les enregistrements viennent de ce pays, ce qui peut économiser du temps de traitement.
Affectation par défaut
Vous pouvez exécuter le traitement Country ID si vous utilisez deux moteurs ou plus et que les adresses d'entrée contiennent des données de pays (comme le code ISO à deux caractères ou un nom de pays) ou si vous utilisez un seul moteur et que la source d'entrée contient plusieurs adresses ne pouvant pas
être traitées par ce moteur. Les adresses ne pouvant pas être traitées ne sont pas envoyées au moteur.
La transformation utilisera par défaut le pays indiqué dans ce groupe d'options.
Rubriques associées
•
Activation d'une constante Pays
•
Définition d'un pays par défaut
16.5.5 Configuration des fichiers de référence
La transformation USA Regulatory Address Cleanse, la transformation Global Address Cleanse et les moteurs s'appuient sur des répertoires (fichiers de référence) pour nettoyer les données.
523 2012-11-22
Qualité des données
Répertoires
Pour corriger les adresses et affecter les codes, les transformations Address Cleanse dépendent de bases de données nommées répertoires postaux. Le processus est similaire à la manière dont on utilise le répertoire téléphonique. Un répertoire téléphonique est un tableau de grande taille dans lequel vous recherchez quelque chose que vous connaissez (le nom d'une personne) et lisez quelque chose que vous ne connaissez pas (le numéro de téléphone).
Durant la recherche du nom dans l'annuaire téléphonique, vous pouvez découvrir que l'orthographe du nom est légèrement différente de celle que vous pensiez. De la même manière, la transformation
Address Cleanse recherche les noms de rue et de ville dans les répertoires postaux et corrige ceux qui sont mal orthographiés ainsi que les autres erreurs.
Parfois, cela ne fonctionne pas. Nous avons tous vécu l'expérience de rechercher quelqu'un et de ne pas pouvoir le trouver. Vous pouvez trouver plusieurs personnes ayant le même nom, mais vous n'avez pas suffisamment d'informations pour savoir à quelle entrée correspond la personne que vous vouliez contacter. Ce type de problème peut empêcher les transformations Address Cleanse de corriger entièrement et affecter une adresse.
Outre les répertoires d'adresses de base, plusieurs répertoires spécialisés sont utilisés par la transformation USA Regulatory Address Cleanse :
• DPV®
• DSF2®
• Early Warning System (EWS)
• eLOT®
• GeoCensus
• LACSLink®
• NCOALink®
• RDI™
• SuiteLink™
• Z4Change
Ces fonctionnalités aident à étendre le nettoyage d'adresse au-delà de l'analyse de base et de la standardisation.
Définition des emplacements de fichiers de répertoire
Vous devez indiquer à la transformation ou au moteur où se trouvent vos fichiers de répertoire (référence) dans le groupe d'options Fichiers de référence. Votre administrateur système doit déjà avoir installé ces fichiers aux emplacements appropriés selon les besoins de votre société.
Attention :
Les répertoires incompatibles ou périmés peuvent rendre le progiciel inutilisable. L'administrateur système doit installer des mises à jour hebdomadaires, mensuelles ou bimensuelles de répertoire pour la transformation USA Regulatory Address Cleanse ; des mises à jour mensuelles de répertoire pour les moteurs de l'Australie et du Canada ; des mises à jour trimestrielles de répertoire pour le moteur d'Adresse globale afin de garantir qu'ils soient compatibles avec le progiciel actuel.
524 2012-11-22
Qualité des données
Fichiers de substitution
Si vous commencez avec un modèle de transformation, les options des fichiers de référence sont remplies par défaut avec une variable de substitution (comme $$RefFilesAddressCleanse). Ces variables de substitution pointent vers le dossier des données de référence du répertoire par défaut du progiciel.
Vous pouvez changer cet emplacement en modifiant le fichier de substitution associé au flux de données.
Cette modification est appliquée pour chaque flux de données qui utilise ce fichier de substitution.
Rubriques associées
•
•
•
•
•
•
GeoCensus (USA Regulatory Address Cleanse)
•
•
•
•
•
Z4Change (USA Regulatory Address Cleanse)
16.5.5.1 Affichage de dates d'expiration de répertoire dans le journal de suivi
Vous pouvez afficher des informations relatives à l'expiration de répertoire pour un job en cours dans le journal de suivi. Pour inclure des informations relatives à l'expiration d'un répertoire dans le journal de suivi, exécutez les étapes suivantes.
1.
Cliquez avec le bouton droit sur l'icône du job applicable dans Designer et sélectionnez Exécuter.
2.
Dans la fenêtre "Propriétés d'exécution", ouvrez l'onglet "Options d'exécution" (il doit être déjà ouvert par défaut).
3.
Sélectionnez Imprimer tous les messages de suivi.
Rubriques associées
•
16.5.6 Définition des options de standardisation
525 2012-11-22
Qualité des données
La standardisation modifie la manière dont sont présentées les données après une affectation. Le type de modification dépend des options définies dans la transformation. Ces options comprennent entre autres la casse, la ponctuation, la séquence et les abréviations. Cela aide à garantir l'intégrité de vos bases de données, facilite la remise du courrier et donne à vos communications avec les clients une apparence plus professionnelle.
Par exemple, l'adresse suivante à été standardisée au niveau des majuscules, de la ponctuation et de la phrase postale (itinéraire vers la route rurale).
Entrée Sortie
Multiligne1 = route 1 box 44a
Multiligne2 = stodard wisc
Ligne_adresse = RR 1 BOX 44A
Localité1 = STODDARD
Région1 = WI
Code postal1 = 54658
Transformation Global Address Cleanse
Dans la transformation Global Address Cleanse, vous définissez les options de standardisation dans le groupe d'options Options de standardisation.
Vous pouvez standardiser les adresses pour tous les pays et/ou pour des pays individuels (selon vos données). Par exemple, vous pouvez avoir un ensemble d'options de standardisation françaises qui standardise uniquement les adresses en France et un autre ensemble d'options de standardisation globales qui standardise toutes les autres adresses.
Transformation USA Regulatory Address Cleanse
Si vous utilisez la transformation USA Regulatory Address Cleanse, vous définissez les options de standardisation options dans l'onglet "Options" de la section Options de standardisation.
Rubriques associées
• Guide de référence : Transformations, Options de transformation Global Address Cleanse (options de standardisation)
• Guide de référence : Transformations, USA Regulatory Address Cleanse (options de standardisation)
16.5.7 Traitement des adresses japonaises
Le moteur d'Adresse globale de la transformation Global Address Cleanse analyse les adresses japonaises. Le premier objectif de cette transformation et de ce moteur est d'analyser et standardiser les adresses japonaises pour les applications de comparaison et nettoyage des données.
526 2012-11-22
Qualité des données
Remarque :
Le moteur Japon prend uniquement en charge les données kanji et katakana. Le moteur ne prend pas en charge les données en caractères latins.
Une partie importante de la fonctionnalité d'analyse des adresses repose sur la base de données d'adresses japonaises. Le progiciel renferme des données du Ministère de la gestion publique, des affaires intérieures, des postes et télécommunications (MPT) et d'autres sources de données. La base de données d'adresses avancée comprend une base de données gouvernementale régulièrement mise
à jour, qui inclut les codes postaux régionaux mappés aux localités.
Rubriques associées
•
Format d'adresse japonaise standard
•
Formats spéciaux d'adresses japonaises
•
16.5.7.1 Format d'adresse japonaise standard
Une adresse japonaise habituelle comprend les composants suivants.
Composant d'adresse Japonais Anglais Champ(s) de sortie
Code postal 〒654-0153 654-0153 CodePostal_complet
Préfecture
Ville
兵庫県
神戸市
Hyogo-ken
Kobe-shi
Région1_complète
Localité1_complète
Quartier
District
Numéro d'îlot
Numéro de sous-îlot
Numéro de maison
須磨区
南落合
1丁目
25番地
2号
Suma-ku
Minami Ochiai
1 chome
25 banchi
2 go
Localité2_complète
Localité3_complète
Nom_Principal_Complet1
Nom_Principal_Complet2
Numéro_Principal_Complet
527 2012-11-22
Qualité des données
528
Une adresse peut également comporter un nom d'immeuble, un numéro d'étage et un numéro de chambre.
Code postal
Les codes postaux japonais sont au format nnn-nnnn. Les trois premiers chiffres représentent la zone.
Les quatre derniers chiffres représentent une localisation dans la zone. Les localisations possibles sont district, sous-district, îlot, sous-îlot, immeuble, étage et société. Les codes postaux doivent être écrits en chiffres arabes. Le symbole du bureau de poste 〒 est facultatif.
Avant 1998, le code postal comprenait 3 ou 5 chiffres. Certaines anciennes bases de données peuvent encore refléter l'ancien système.
Préfecture
Les préfectures sont les régions. Le Japon comprend quarante-sept préfectures. Vous pouvez omettre la préfecture pour certaines villes bien connues.
Ville
Les noms des villes japonaises comportent le suffixe 市 (-shi). Dans certaines parties des régions de
Tokyo et Osaka, les gens omettent le nom de la ville. Dans certains villages insulaires, ils utilisent le nom de l'île avec un suffixe 島 (-shima) à la place du nom de la ville. Dans certaines zones rurales, ils utilisent le nom du comté avec le suffixe 郡 (-gun) à la place du nom de la ville.
Quartier
Une ville est divisée en quartiers. Le nom du quartier comporte le suffixe 区(-ku). Le composant quartier est omis pour les petites villes, les villages insulaires et les zones rurales qui n'ont pas de quartiers.
District
Un quartier est divisé en districts. Lorsqu'il n'existe pas de quartiers, la petite ville, le village insulaire ou la zone rurale est divisée en districts. Le nom du district peut comporter le suffixe 町 (-cho/-machi), mais il est souvent omis. 町 a deux prononciations possibles, mais une seule est correcte pour un district particulier.
Dans les très petits villages, les gens utilisent le nom du village avec le suffixe 村 (-mura) à la place du district.
Lorsqu'un village ou un district est sur une île ayant le même nom, le nom de l'île est souvent omis.
Sous-district
Principalement dans les zones rurales, un district peut être divisé en sous-districts, marqués par le préfixe 字(aza-). De plus, un sous-district peut être divisé en sous-districts marqués par le préfixe 小字
(koaza-), signifiant petit aza. koaza peut être abrégé en aza. Un sous-district peut aussi être marqué du préfixe 大字 (oaza-), qui signifie grand aza. Oaza peut également être abrégé en aza.
Voilà les combinaisons possibles :
• oaza
• aza
• oaza et aza
2012-11-22
Qualité des données
• aza et koaza
• oaza et koaza
Remarque :
Les caractères 大字(oaza-), 字(aza-) et 小字 (koaza-) sont souvent omis.
Parcelle de sous-districts
Un sous-district aza peut être divisé en parcelles de sous-district numérotées, qui sont marquées par le suffixe 部 (-bu), signifiant pièce. Le caractère 部 est souvent omis.
Les parcelles peuvent être numérotées de plusieurs manières :
• Chiffres arabes (1, 2, 3, 4, etc.)
石川県七尾市松百町8部3番地1号
• Lettres katakana dans l'ordre iroha (イ, ロ, ハ, ニ, etc.)
• 石川県小松市里川町ナ部23番地
• Chiffres kanji, ce qui est très rare (甲, 乙, 丙, 丁, etc.)
愛媛県北条市上難波甲部 311 番地
Sous-division
Un district ou sous-district rural (oaza/aza/koaza) est parfois divisé en sous-divisions, marquées par le suffixe 地割 (-chiwari), qui signifie division de terrain. Le préfixe facultatif est 第 (dai-)
Les exemples d'adresses suivants illustrent les sous-divisions :
岩手県久慈市旭町10地割1番地
岩手県久慈市旭町第10地割1番地
Numéro d'îlot
Un district est divisé en îlots. Le numéro d'îlot comprend le suffixe 丁目 (-chome). Les districts comprennent en général de 1 à 5 îlots, mais ils peuvent en contenir davantage. Le numéro d'îlot peut
être écrit avec un chiffre kanji. Les adresses japonaises ne comprennent pas de nom de rue.
東京都渋谷区道玄坂2丁目25番地12号
東京都渋谷区道玄坂二丁目25番地12号
Numéro de sous-îlot
Un îlot est divisé en sous-îlots. Le nom de sous-îlot inclut le suffixe 番地 (-banchi), qui signifie "terrain numéroté". Le suffixe 番地 (-banchi) peut être abrégé en 番 (-ban).
Numéro de maison
Chaque maison possède un numéro unique. Le numéro de maison comprend le suffixe 号 (-go), qui signifie numéro.
529 2012-11-22
Qualité des données
Suffixe
Variations des numéros d'îlot, de sous-îlot et de maison
Les données des numéros d'îlot, de sous-îlot et de maison peuvent varier. Variations possibles :
Tirets
Les marqueurs de suffixe 丁目(chome), 番地 (banchi) et 号(go) peuvent être remplacés par des tirets.
東京都文京区湯島2丁目18番地12号
東京都文京区湯島2-18-12
Parfois, les numéros d'îlot, de sous-îlot et de maison sont combinés ou omis.
東京都文京区湯島2丁目18番12号
東京都文京区湯島2丁目18番地12
東京都文京区湯島2丁目18-12
Aucun numéro d'îlot
Parfois, le numéro d'îlot est omis. Par exemple, ce quartier de Tokyo a des districts numérotés et aucun numéro de îlot n'est inclus. 二番町 signifie district numéro 2.
東京都 千代田区 二番町 9番地 6号
Noms d'immeubles
Les noms des appartements ou des immeubles sont souvent inclus après le numéro de maison.
Lorsqu'un nom d'immeuble comprend le nom du district, ce dernier est souvent omis. Lorsqu'un immeuble est bien connu, les numéros d'îlot, de sous-îlot et de maison sont souvent omis. Lorsqu'un nom d'immeuble est long, il peut être abrégé ou écrit à l'aide de son acronyme en lettres anglaises.
Les suffixes courants sont les suivants:
Ecriture latine Traduction
ビルディング birudingu immeuble
ビルヂング
ビル birudingu biru immeuble immeuble
センター
プラザ
パーク sentapuraza pa-ku centre place parc
530 2012-11-22
Qualité des données
Suffixe
タワー
会館
棟
庁舎
住宅
社宅
官舎
マンション
団地
アパート
荘
Ecriture latine
tawakaikan tou chousha manshon danchi apa-to sou juutaku shataku kansha
Traduction
tour entrée immeuble (unité) immeuble de bureau gouvernemental condominium résidence appartement villa logement logement de fonction domicile officiel
Numéros d'immeubles
Les numéros de chambre, d'appartement, etc. suivent le nom de l'immeuble. Les numéros d'immeubles peuvent comprendre le suffixe 号室 (-goshitsu). Les numéros d'étage au-dessus du niveau du sol peuvent comprendre le suffixe 階 (-kai) ou la lettre F. Les numéros d'étage en dessous du niveau du sol peuvent comprendre le suffixe 地下n 階 (chika n kai) ou les lettres BnF (où n représente le numéro d'étage). Une résidence peut comprendre plusieurs immeubles nommés Immeuble A, Immeuble B, etc., marqués par le suffixe 棟 (-tou).
Les exemples d'adresses suivants comprennent les numéros d'immeuble.
• Premier étage au-dessus du sol.
東京都千代田区二番町9番地6号 バウエプタ3 F
• Deuxième étage en sous-sol.
東京都渋谷区道玄坂 2-25-12 シティバンク地下 2 階
531 2012-11-22
Qualité des données
532
• Immeuble A Chambre 301
兵庫県神戸市須磨区南落合 1-25-10 須磨パークヒルズ A 棟 301 号室
• Immeuble A Chambre 301
兵庫県神戸市須磨区南落合 1-25-10 須磨パークヒルズ A-301
16.5.7.2 Formats spéciaux d'adresses japonaises
Format régional d'Hokkaido
La région d'Hokkaido a deux formats d'adresse spéciaux :
• super-îlot
• sous districts numérotés
Super-îlot
Un format spécial de super-îlot existe uniquement dans la préfecture d'Hokkaido. Un super-îlot, marqué du suffixe 条 (-joh), est d'un niveau plus important que l'îlot. Le numéro de super-îlot ou d'îlot peut contenir une direction 北 (Nord), 南 (Sud), 東 (Est) ou 西 (Ouest). L'exemple d'adresse suivant illustre un super-îlot 4 Joh.
北海道札幌市西区二十四軒 4 条4丁目13番地7号
Sous-districts numérotés
Un autre format régional d'Hokkaido est le sous-district numéroté. Un nom de sous-district peut être marqué du suffixe 線 (-sen) signifiant numéro au lieu du suffixe 字 (-aza). Lorsqu'un sous-district comporte un suffixe 線, l'îlot peut avoir le suffixe 号 (-go) et le numéro de maison ne comporte pas de suffixe.
L'adresse ci-dessous contient le sous-district 4 sen, puis un îlot numéroté 5 go.
北海道旭川市西神楽4線5号3番地11
Orthographe acceptée
Les noms de villes, districts, etc., peuvent avoir plusieurs orthographes acceptés parce que plusieurs manières d'écrire certains sons en Japonais sont acceptées.
Numérotation acceptée
Lorsque l'îlot, le sous-îlot, la maison ou le district comporte un numéro, celui-ci peut être écrit en chiffres arabes ou kanji. Par exemple, 二番町 signifie numéro de district 2 et dans l'exemple suivant, il correspond
à Niban-cho.
東京都千代田区二番町九番地六号
Adresses de boîte postale
Les adresses de boîte postale contiennent le code postal, Localité1, la préfecture, le nom du bureau de poste, le marqueur de boîte et le numéro de boîte.
2012-11-22
Qualité des données
Remarque :
La transformation Global Address Cleanse reconnait les adresses de boîte postale se trouvant uniquement dans la base de données LOPC (Large Organization Postal Code).
L'adresse peut avoir l'un des formats suivants :
• Préfecture, Localité1, nom de bureau de poste, marqueur de boîte (私書箱) et numéro de boîte postale.
• Code postal, préfecture, Localité1, nom de bureau de poste, marqueur de boîte (私書箱) et numéro de boîte postale.
L'exemple d'adresse suivant illustre une adresse de boîte postale :
Bureau de poste d'Osaka marqueur de boîte n°1
大阪府大阪市大阪支店私書箱1号
Format LOPC (Large Organization Postal Code)
Le service postal peut affecter un code postal unique à une organisation importante, par exemple le service client d'une entreprise majeure Une organisation peut avoir jusqu'à deux codes postaux uniques selon le volume de courrier qu'elle reçoit. L'adresse peut avoir l'un des formats suivants :
• Adresse, nom de société
• Code postal, adresse, nom de société
L'exemple suivant est une adresse au format LOPC.
100-8798 東京都千代田区霞が関1丁目3 - 2日本郵政 株式会社
16.5.7.3 Modèle d'adresse japonaise
Entrée
Cette adresse a été traitée par la transformation Global Address Cleanse et le moteur Global Address.
0018521 北海道札幌市北区北十条西 1丁目 12 番地 3 号創生ビル 1 階 101 号室札幌私書箱センター
Champs de ligne d'adresse
Nom_principal1 1
533 2012-11-22
Qualité des données
Champs de ligne d'adresse
Type_principal1 丁目
12 Nom_principal2
Type_principal2 番地
3 Numéro_principal
Description_numéro_principal 号
創生ビル Nom_immeuble1
Numéro_étage 1
階 Description_étage
Numéro_unité 101
号室 Description_unité
Adresse_principale 1丁目12番地3号
創生ビル 1階 101号室 Adresse_secondaire
Adresse_principale_secondaire 1丁目12番地3号 創生ビル 1階 101号室
Champs de la dernière ligne
Pays 日本
Code_ISO_pays_3Chiffres 392
534 2012-11-22
Qualité des données
Champs de la dernière ligne
Code_ISO_pays_2Car JP
Code postal1
Code postal2
001
8521
CodePostal_Complet
Région1
Description_région1
Nom_localité1
001-8521
北海
道
札幌
Description_localité1
Nom_localité2
Description_localité2
Nom_localité3
Dernière ligne
市
北
区
北十条西
001-8521 北海道 札幌市 北区 北十条西
Société
Société 札幌私書箱センター
Champs non analysés
Code_Statut S0000
535 2012-11-22
Qualité des données
Champs non analysés
Type_Affectation
Type_Adresse
F
S
16.5.8 Traitement des adresses chinoises
Le moteur d'adresses globales de la transformation Global Address Cleanse analyse les adresses chinoises. Le premier objectif de cette transformation et de ce moteur est d'analyser et de normaliser les adresses pour la correspondances des données et les applications de nettoyage.
536
16.5.8.1 Format d'adresses chinoises
Les adresses chinoises commencent par le code postal, suivi par la région administrative la plus grande
(par exemple, la province), et continuent jusqu'à la plus petite unité (par exemple, le numéro de la chambre et le destinataire). Lorsque les personnes envoient des courriers entre deux préfectures, elles incluent souvent la région administrative la plus grande dans l'adresse. Les adresses contiennent des informations détaillées sur l'endroit où le courrier sera livré. Les bâtiments le long des rues sont numérotés de façon séquentielle, parfois avec des nombres pairs d'un côté, et des nombres impairs de l'autre. Quelquefois, les nombres pairs et impairs se trouvent du même côté de la rue.
Code Postal
En Chine, le Code postal est un nombre à 6 chiffres pour identifier le point de livraison cible de l'adresse, et possède souvent le préfixe 邮编
Pays
中华人民共和国 (La République populaire de Chine)" est le nom complet de la Chine ; les mots " 中国
(PRC)" sont souvent utilisés comme une abréviation du nom de pays. Pour les courriers livrés en Chine, les adresses domestiques omettent souvent le nom de pays de l'adresse cible
Province
En Chine, une "province" est similaire à un "état" aux Etats-Unis. La Chine a 34 divisions de niveau provincial, dont :
• Des provinces(省 shěng)
• Des régions autonomes(自治区 zìzhìqū)
2012-11-22
Qualité des données
537
• Des municipalités (直辖市 zhíxiáshì))
• Des régions administratives spéciales(特别行政区 tèbié xíngzhèngqū)
Préfecture
Les divisions de niveau préfectoral sont le deuxième niveau de la structure administrative, et incluent :
• Les préfectures (地区 dìqū)
• Les préfectures autonomes (自治州 zìzhìzhōu)
• Les villes-préfectures (地级市dìjíshì)
• Les ligues (盟méng)
District
Le district est une sous-division de la Préfecture et inclut :
• Les districts (县 xiàn)
• Les districts autonomes (自治县 zìzhìxiàn)
• Les villes-districts(县级市 xiànjíshì)
• Les districts urbains (市辖区 shìxiáqū)
• Les bannières (旗 qí)
• Les bannières autonomes (自治旗 zìzhìqí)
• Les zones forestières (林区 línqū)
• Les districts spéciaux (特区 tèqū)
Canton
La division de niveau cantonal inclut :
• Les cantons (乡 xiāng)
• Les cantons ethniques (民族乡 mínzúxiāng)
• Les bourgs(镇 zhèn)
• Les sous-districts (街道办事处 jiēdàobànshìchù)
• Les offices publics de district (区公所 qūgōngsuǒ)
• Sumu(苏木 sūmù)
• Sum ethnique (民族苏木 mínzúsūmù)
Village
Les villages incluent :
• Les communautés résidentielles(社区居民委员会 jūmínwěiyuánhùi)
• Les communautés 社区
• Les villages(村民委员会 cūnmínwěiyuánhùi) ou Les groupes de village (村民小组 cūnmínxiǎozǔ)
• Les villages administratifs(行政村 xíngzhèngcūn)
Informations de rue
Spécifient le point de livraison où le destinataire peut être trouvé. En Chine, les informations de rue ont souvent la forme Nom de rue > Numéro de maison. Par exemple,上海市浦东新区晨晖路1001号
• Nom de rue : le nom de rue est généralement suivi par l'un de ces suffixes 路, 大道, 街, 大街 , etc.
• Numéro de maison :
2012-11-22
Qualité des données
Le numéro de maison est suivi par le suffixe 号. Le numéro de maison est un numéro unique dans une rue.
Communauté résidentielle
En Chine, la communauté résidentielle peut être utilisée pour la livraison de courrier. Particulièrement pour certaines communautés résidentielles connues dans les grandes villes, le nom de la rue et le numéro de la maison peuvent être omis. La communauté résidentielle n'a pas un standard d'appellation et ne doit pas forcément être suivi d'un marqueur typique. Cependant, elle est souvent suivie par les suffixes typiques tels que 新村, 小区, etc. (Par exemple 新村, 小区).
Nom de bâtiment
Le bâtiment est souvent suivi par le marqueur de bâtiment, tel que 大厦, 大楼 etc., bien qu'il ne soit pas strictement exigé (Par exemple 中华大厦). Le nom du bâtiment dans les communautés résidentielles est souvent représenté par un nombre avec un suffixe 号,幢 etc. (Par exemple 上海市浦东新区晨晖
路100弄10号101室).
Adresse métropolitaine commune
Cette adresse inclut le nom du district, qui est commun pour les zones métropolitaines dans les grandes villes.
Composant d'adresse Chinois Anglais Champs de sortie
Code postal 510030
510030 CodePostal_Complet
Pays
Province
Nom de la ville
中国
广东省
广州市
Chine
Province du
Guangdong
Guangzhou
Pays
Region1_Complet
Localité1_Complet
Nom du district
Nom de la rue
Numéro de la maison
越秀区
西湖路
99 号
Yuexiu
Xihu Road
N° 99
Localité2_Complet
Nom_Principal_Complet1
Numéro_Principal_Com plet
Adresse rurale
Cette adresse inclut le nom du village, qui est commun pour les adresses rurales.
538 2012-11-22
Qualité des données
Composant d'adresse
Code_postal
Pays
Province
Nom de la ville
Ville du niveau du district
Nom de la ville
Nom du village
Nom de la rue
Numéro de la maison
广州市
增城市
荔城镇
联益村
光大路
99 号
Chinois
5111316
中国
广东省
Anglais
5111316
Chine
Province du
Guangdong
Guangzhou
Zengcheng
Champs de sortie
CodePostal_Complet
Pays
Region1_Complet
Localité1_Complet
Localité2_Complet
Licheng Town Localité3_Complet
Lianyi Localité4_Complet
Guangda Road Nom_Principal_Complet1
N° 99
Numéro_Principal_Com plet
16.5.8.2 Exemple d'adresse chinoise
Cette adresse a été traitée par la transformation Global Address Cleanse et le moteur Global Address.
Entrée
510830 广东省广州市花都区赤坭镇广源路 1 号星辰大厦 8 层 809 室
Champs de la ligne d'adresse
Nom_Principal1
Type_Principal1
广源
路
539 2012-11-22
Qualité des données
Champs de la ligne d'adresse
Nombre_Principal
Description_Nombre_Principal
Bâtiment_Nom1
Numéro_Etage
Description_Etage
Numéro_unité
Description_unité
Adresse_Principale
Adresse_Secondaire
Adresse_Secondaire_Principale
Champs de la dernière ligne d'adresse
Pays
CodePostal_Complet
Region1
Description_Region1
Nom_Localité1
Description_Localité1
中国
510168
广东
省
广州
市
1
号
星辰大厦
8
层
809
室
广源路 1号
星辰大厦 8层809室
广源路 1号星辰大厦8层809室
540 2012-11-22
Qualité des données
Champs de la dernière ligne d'adresse
Nom_Localité2
Description_Localité2
Nom_Localité3
Description_Localité3
Dernière ligne d'adresse
Champs non analysés
Code_Statut
Type_Affectation
Type_Adresse
花都
区
赤坭
镇
510830广东省广州市花都区赤坭镇
S0000
S
S
16.5.9 Pays pris en charge (Global Address Cleanse)
Plusieurs pays sont pris en charge par la transformation Global Address Cleanse. Le niveau de correction varie selon le pays et le moteur utilisé. La couverture complète de toutes les adresses d'un pays n'est pas garantie.
Pour le moteur d'Adresse globale, la prise en charge des pays dépend des ensembles de répertoires postaux achetés.
Pour le Japon, le niveau d'affectation dépend des données fournies par le Ministère de la gestion publique, des affaires intérieures, des postes et télécommunications (MPT)
Lors du traitement Country ID, la transformation peut identifier plusieurs pays. Toutefois, les moteurs de la transformation Global Address Cleanse peuvent ne pas fournir la correction d'adresses pour l'ensemble de ces pays.
541 2012-11-22
Qualité des données
Rubriques associées
•
Modification du nom par défaut de pays de sortie
• Guide de référence : Codes ISO des pays et affectation des moteurs
16.5.9.1 Modification du nom par défaut de pays de sortie
Lorsque vous utilisez le moteur des Etats-Unis pour traiter des adresses des Samoa Américaines, de
Guam, des îles Mariannes du Nord, de Palau, de Porto Rico et des Iles vierges américaines, la région de sortie est AS, GU, MP, PW, PR ou VI, respectivement. Les Etats-Unis (EU) constituent cependant le pays de sortie.
Si vous ne souhaitez pas les Etats-Unis comme pays de sortie lors du traitement des adresses avec le moteur des Etats-Unis, définissez l'option "Utiliser le nom de pays postal" sur Non.
Ces étapes indiquent comment activer l'option Utiliser le nom de pays postal, dans la transformation
Global Address Cleanse.
1.
Ouvrez la transformation Global Address Cleanse.
2.
Dans l'onglet Options, développez Options de standardisation > Pays > Options.
3.
Pour l'option Utiliser le nom de pays postal, sélectionnez Non.
Rubriques associées
•
Pays pris en charge (Global Address Cleanse)
542
16.5.9.2 Définition d'un pays par défaut
Remarque :
Exécutez un traitement d'ID de pays uniquement dans les cas suivants :
• Vous utilisez deux ou plusieurs moteurs et vos adresses d'entrée contiennent des données de pays
(par exemple, le code ISO à deux caractères ou une désignation du pays).
• Vous utilisez un moteur mais vos données d'entrée contiennent des adresses de plusieurs pays.
1.
Ouvrez la transformation Global Address Cleanse.
2.
Dans l'onglet Options, développez Options d'ID de pays puis l'option de Mode d'ID de pays, sélectionnez Affecter.
Cette valeur indique à la transformation d'utiliser l'ID de pays pour affecter le pays. Si l'ID de pays ne peut pas affecter le pays, il utilisera la valeur figurant dans Désignation du pays.
3.
Pour l'option Désignation du pays, sélectionnez le pays que vous souhaitez utiliser comme pays par défaut.
2012-11-22
Qualité des données
La transformation utilisera ce pays uniquement si l'ID de pays ne peut pas affecter un pays. Si vous ne souhaitez pas utiliser de pays par défaut, sélectionnez Aucun.
4.
Pour l'option Code de script, sélectionnez le type de code de script qui représente vos données.
L'option LATN indique un code de script pour la plupart des types de données. Cependant, si vous traitez les données relatives au Japon, sélectionnez KANA.
Rubriques associées
•
Identification du pays de destination
•
Activation d'une constante Pays
16.5.9.3 Activation d'une constante Pays
1.
Ouvrez la transformation Global Address Cleanse.
2.
Dans l'onglet Options, développez Options d'ID pays puis pour l'option Mode d'ID de pays, sélectionnez Constante.
Cette valeur indique à la transformation de prendre les informations relatives au pays à partir des options Désignation du pays et Code de script (au lieu d'exécuter le traitement “ID de pays”).
3.
Pour l'option Désignation du pays, sélectionnez le pays qui représente toutes vos données d'entrée.
4.
Pour l'option Code de script, sélectionnez le type de code de script qui représente vos données.
L'option LATN indique un code de script pour la plupart des types de données. Cependant, si vous traitez les données relatives au Japon, sélectionnez KANA.
Rubriques associées
•
Identification du pays de destination
•
Définition d'un pays par défaut
16.5.10 Certification Nouvelle-Zélande
La certification Nouvelle-Zélande permet de traiter les adresses de Nouvelle-Zélande et de les qualifier pour les remises sur les publipostages de la poste néo-zélandaise.
16.5.10.1 Activation de la certification Nouvelle-Zélande
543 2012-11-22
Qualité des données
Vous devez acheter les données du répertoire de Nouvelle-Zélande et demander un numéro de client
à la poste néo-zélandaise pour pouvoir utiliser l'option de certification Nouvelle-Zélande.
Pour traiter les adresses de Nouvelle-Zélande qui qualifient pour les remises sur les publipostages :
1.
Dans la transformation Global Address Cleanse, activez Rapport et analyse > Générer les données
du rapport
2.
Dans la transformation Global Address Cleanse, définissez Options de pays > Désactiver la
certification sur Non.
Remarque :
Le progiciel ne produit pas le rapport SOA (Statement of Accuracy) de Nouvelle-Zélande quand cette option est définie sur Oui.
3.
Dans la transformation Global Address, renseignez toutes les options applicables du sous-groupe
Adresse globale > Options de rapport > Nouvelle-Zélande.
4.
Dans la transformation Global Address Cleanse, définissez Moteurs > Adresse globale sur Oui.
Après avoir exécuté le job et produit le rapport SOA (Statement of Accuracy) de Nouvelle-Zélande, vous devez renommer ce dernier ainsi que le journal de production SOA de Nouvelle-Zélande avant d'envoyer votre publipostage. Pour plus d'informations sur le format de nommage requis, voir
SOA de Nouvelle-Zélande et fichier journal de production SOA .
Rubriques associées
• Guide Management Console Guide : Rapport SOA (Statement of Accuracy) de Nouvelle-Zélande
• Guide de référence : Options de rapport pour la Nouvelle-Zélande
16.5.10.2 Rapport SOA de Nouvelle-Zélande et fichier journal de production SOA
Rapport SOA (Statement of Accuracy) de Nouvelle-Zélande
Le rapport SOA (Statement of Accuracy) de Nouvelle-Zélande comprend des informations statistiques sur le nettoyage d'adresses de Nouvelle-Zélande.
Journal de production SOA (Statement of Accuracy) de Nouvelle-Zélande
Le journal de production SOA (Statement of Accuracy) de Nouvelle-Zélande contient les mêmes informations que le rapport SOA dans un fichier texte ASCII délimité par des barres verticales (avec un enregistrement d'en-tête). Le progiciel crée le journal de production SOA en extrayant des données de la table Sendrightaddraccuracy dans le référentiel. Le progiciel ajoute un nouvel enregistrement à la table Sendrightaddraccuracy chaque fois qu'un fichier est traité avec l'option DISABLE_CERTIFICA
TION définie sur Non. Si l'option DISABLE_CERTIFICATION est définie sur Oui, le logiciel ne produit pas le rapport SOA et aucune entrée n'est ajoutée à la tableSendrightaddraccuracy. Les expéditeurs de publipostage doivent conserver le fichier journal de production pendant au moins 2 ans.
544 2012-11-22
Qualité des données
L'emplacement par défaut du journal de production SOA est <EmplacementInstallationDataSer vices>\Business Objects\BusinessObjects Data Services\DataQuality\certifica tions\CertificationLogs
.
Exigences concernant le publipostage
Le rapport et le journal de production SOA ne sont requis que si vous envoyez les données traitées pour un publipostage et désirez bénéficier de remises d'affranchissement. Envoyez le journal de production SOA au moins une fois par mois. Envoyez un rapport SOA pour chaque fichier traité pour les remises sur publipostages.
Format de nommage de fichier
Le journal de production SOA et le rapport SOA doivent avoir un nom au format suivant :
Journal de production -
[SOA% (9999)]_[Date d'expiration SOA(AAAAMMJJ)]_[ID SOA].txt
Rapport SOA
[SOA% (9999)]_[Date d'expiration SOA(AAAAMMJJ)]_[ID SOA].PDF
Exemple :
Un SOA avec :
% SOA = 94,3 %
Date d'expiration SOA = 15 oct 2008
ID SOA = AGD07_12345678
Les noms des fichiers seront :
Journal de production - 0943_20081015_AGD07_12345678.txt
Rapport SOA - 0943_20081015_AGD07_12345678.pdf
Rubriques associées
• Guide Management Console Guide : Rapport SOA (Statement of Accuracy) de Nouvelle-Zélande
• Guide Management Console Guide : Exportation des journaux de certification SOA Nouvelle-Zélande
• Guide de référence : Options de rapport pour la Nouvelle-Zélande
545
16.5.10.3 Modèle de certification Nouvelle-Zélande
Agissez comme suit pour modifier le modèle, exécuter le job pour la certification Nouvelle-Zélande et générer le fichier journal de production SOA :
2012-11-22
Qualité des données
1.
Importez le fichier nz_sendright_certification.atl qui se trouve dans le dossier
DataQuality\certifications à l'emplacement où vous avez installé le progiciel. L'emplacement par défaut est <EmplacementInstallationDataServices>\Business
Objects\BusinessObjects Data Services\DataQuality\certifications
.
L'importation ajoute les objets suivants au référentiel.
• Le projet DataQualityCertifications
• Le job Job_DqBatchNewZealand_SOAProductionLog
• Le flux de données DF_DqBatchNewZealand_SOAProductionLog
• La banque de données DataQualityCertifications
• Le format de fichier DqNewZealandSOAProductionLog
2.
Modifiez la banque de données DataQualityCertifications. Suivez les étapes répertoriées dans
Modification de la banque de données .
3.
Facultatif : par défaut, le progiciel place le journal de production SOA dans <EmplacementInstal
lationDataServices>\Business Objects\BusinessObjects Data Services\Data
Quality\certifications\CertificationLogs
. Si l'emplacement par défaut est correct, ignorez cette étape. Pour sortir le fichier journal de production vers un emplacement différent, modifiez la configuration du paramètre de substitution. Depuis Designer, accédez à Outils > Configurations
du paramètre de substitution et remplacez l'emplacement du chemin dans la Configuration1 du paramètre de substitution $$CertificationLogPath par l'emplacement de votre choix.
4.
Exécutez le job Job_DqBatchNewZealand_SOAProductionLog.
Le job crée un journal de production SOA nommé SOAPerc_SOAExpDate_SOAId.txt à l'emplacement par défaut ou à celui indiqué dans la configuration du paramètre de substitution.
5.
Renommez le fichier SOAPerc_SOAExpDate_SOAId.txt en utilisant les données du dernier enregistrement dans le fichier journal et le format de nommage de fichier décrit dans la section
Rapport SOA de Nouvelle-Zélande et fichier journal de production SOA .
Rubriques associées
•
Rapport SOA de Nouvelle-Zélande et fichier journal de production SOA
• Guide Management Console Guide : Rapport SOA (Statement of Accuracy) de Nouvelle-Zélande
546
16.5.10.4 Modification de la banque de données
Après avoir téléchargé le fichier modèle.zip vers le dossier approprié, l'avoir décompressé et importé le fichier .atl dans le logiciel, vous devez modifier la banque de données DataQualityCertifications.
Pour modifier la banque de données :
1.
Sélectionnez l'onglet Banques de données de la bibliothèque d'objets locale, faites un clic droit sur DataQualityCertifications et sélectionnez Modifier.
2.
Cliquez sur Avancé pour développer la fenêtre Modifier la banque de données
DataQualityCertifications.
2012-11-22
Qualité des données
Remarque :
Passez l'étape 3 si vous avez Microsoft SQL Server 2000 or 2005 comme type de base de données de la banque de données.
3.
Cliquez sur Modifier.
4.
Trouvez la colonne pour votre type de base de données, modifiez la Configuration par défaut par
Oui, et cliquez sur OK.
Remarque :
Si vous utilisez une version d'Oracle autre que Oracle 9i; effectuez les sous-étapes suivantes : a.
Dans la barre d'outils, cliquez sur Créer une configuration.
b.
Saisissez vos informations, dont la version de la base de données Oracle que vous utilisez, puis cliquez sur OK.
c.
Cliquez sur Fermer sur la fenêtre Nouvelles valeurs ajoutées - Objets modifiés.
d.
Dans la nouvelle colonne qui apparait à droite des colonnes précédentes, sélectionnez Ouipour la Configuration par défaut.
e.
Saisissez les informations pour les options Nom de la connexion à la base de données, Nom
de l'utilisateuretMot de passe.
f.
DansDBO, saisissez le nom du schéma.
g.
DansCode Page, sélectionnez cp1252 puis cliquez sur OK.
5.
Sur la fenêtre Modifier la banque de données DataQualityCertifications, saisissez vos informations de connexion au référentiel à la place des valeurs CHANGE_THIS. (Il est possible que vous deviez modifier trois ou quatre options, en fonction du type de référentiel).
6.
Développez le groupe Alias et saisissez votre nom de propriétaire à la place de la valeur
CHANGE_THIS. Si vous utilisez Microsoft SQL Server, définissez cette valeur sur DBO.
7.
Cliquez sur OK.
Si la fenêtre se ferme sans aucun message d'erreur, alors la base de données est correctement connectée.
16.5.11 Option de la liste de propositions de Global Address Cleanse
L'option de traitement de la liste de propositions de la transformation Global Address Cleanse est utilisée dans les projets de transaction pour compléter et remplir les adresses qui ont des données minimales.
Les listes de propositions peuvent offrir des propositions pour les correspondances possibles si aucune correspondance exacte n'est trouvée.
Cette option est avantageuse dans les situations où un utilisateur souhaite extraire les adresses pas entièrement affectées par un processus automatisé, et exécuter dans le système pour trouver une liste des correspondances possibles. En fonction de l'adresse d'entrée donnée, la transformation Global
Address Cleanse effectue une recherche tolérante aux erreurs dans le répertoire d'adresses et renvoie une liste des correspondances possibles. A partir de la liste de propositions renvoyée, l'utilisateur peut sélectionner la proposition correcte et mettre à jour la base de données en conséquence.
547 2012-11-22
Qualité des données
Remarque :
Aucune certification avec les listes de propositions : Si vous utilisez le moteur Canada ou le moteur d'adresse globale pour l'Australie et la Nouvelle-Zélande, il est impossible de certifier votre publipostage pour la certification SERP, AMAS ou de Nouvelle-Zélande.
Commencer avec un exemple de transformation
Si vous souhaitez utiliser la fonctionnalité des listes de propositions, le mieux est de commencer avec les exemples de transformations qui sont configurés à cette fin. L'exemple de transformation, Global
Suggestions_AddressCleanse est configuré pour nettoyer les données d'adresses de type Latin-1 dans tous les pays pris en charge à l'aide de la fonctionnalité de liste de propositions.
Rubriques associées
•
Extraction de chaînes XML data quality à l'aide de la fonction extract_from_xml
• Guide de référence : options de la liste de propositions
16.5.12 Transformation Global Suggestion List
La transformation Global Suggestion List permet à l'utilisateur d'effectuer des requêtes sur les adresses avec un minimum de données (utilisation de caractères génériques) et peut présenter une liste de propositions pour les correspondances possibles.
C'est un outil précieux dans un environnement de centre d'appels où les opérateurs doivent effectuer un minimum de saisie (nombre de frappes de touches) pour rechercher l'adresse de livraison de l'appelant. Par exemple, si l'opérateur est en ligne avec un appelant du Royaume-Uni, l'application propose le code postal et la plage d'adresses. Global Suggestion List est utilisée pour rechercher l'adresse avec une saisie rapide.
La transformation Global Suggestion List requiert l'entrée du code pays ISO à deux caractères. Par conséquent, vous pouvez éventuellement placer une transformation comme Country ID, qui sortira le champ ISO_Country_Code_2Char avant la transformation Global Suggestion Lists. La transformation
Global Suggestion List est disponible pour les moteurs Canada, Adresse globale et Etats-Unis.
Remarque :
• Aucune certification avec les listes de propositions : Si vous utilisez les moteurs Canada, Adresse globale ou Etats-Unis pour l'Australie et la Nouvelle-Zélande, vous ne pouvez pas certifier votre publipostage pour la certification SERP, CASS, AMAS ou Nouvelle-Zélande.
• Cette option ne prend pas en charge le traitement des données d'adresses japonaises ou chinoises.
Commencer avec un modèle de transformation
Pour utiliser la transformation Global Suggestion List, il vaut mieux commencer avec un des modèles de transformation configuré pour elle. Les modèles de transformation suivants sont disponibles.
548 2012-11-22
Qualité des données
Modèle de transformation Description
GlobalSuggestions
UKSuggestions
Modèle de transformation configuré pour générer une liste de propositions pour les données d'adresses Latin-1 dans tous les pays pris en charge.
Modèle de transformation configuré pour générer une liste de propositions pour les données d'adresses partielles au Royaume-Uni.
16.6 Au-delà du nettoyage d'adresse de base
La transformation USA Regulatory Address Cleanse propose plusieurs fonctionnalités supplémentaires de nettoyage des adresses des Etats-Unis. Ces fonctionnalités étendent le nettoyage d'adresse au-delà de l'analyse de base et de la standardisation. Pour en savoir plus sur la transformation USA Regulatory
Address Cleanse et ses options, voir le Guide de référence.
Rubriques associées
• Reference Guide, USA Regulatory Address Cleanse
•
Nettoyage des données des Etats-Unis uniquement
16.6.1 Certifications USPS
La transformation USA Regulatory Address Cleanse est certifiée CASS. Par conséquent, lorsque vous traitez les jobs avec la transformation USA Regulatory Address Cleanse (correctement configurée), vous bénéficiez des avantages de cette certification.
Si vous intégrez SAP BusinessObjects Data Services à votre propre progiciel et désirez obtenir la certification CASS, vous devez suivre les étapes d'auto-certification CASS à l'aide de votre propre progiciel.
Vous pouvez également obtenir des licences pour DSF2 (Augmentation, Facture , Séquence) et pour
NCOALink en utilisant les modèles USA Regulatory Address Cleanse et DSF2 Walk Sequencer spécifiquement configurés dans ce but.
Remarque :
Dans cette section, nous vous orientons vers le site Web USPS et nous incluons des noms de documents et de procédures. USPS peut modifier l'adresse, la procédure ou les noms des documents (et des informations requises) sans nous en informer au préalable. Certaines des informations peuvent donc
être périmées.
549 2012-11-22
Qualité des données
Rubriques associées
•
•
•
550
16.6.1.1 Fin de USPS certifications
Les instructions ci-dessous s'appliquent à l'auto-certification USPS CASS, la licence DSF2 et la certification de licence NCOALink.
Au cours de la certification, vous devez traiter des fichiers à partir de USPS pour montrer que votre logiciel est conforme aux exigences de votre contrat de licence.
Les certifications CASS, DSF2 et NCOALink disposent de plusieurs phases. La phase I est un test facultatif qui comprend des réponses vous permettant de corriger les erreurs et de préparer le test de la phase II. Le test de la phase II ne contient pas de réponse, il est envoyé au USPS pour évaluer la précision de la configuration du logiciel.
1.
Complétez l'application USPS applicable (CASS, DSF2, NCOALink) et les autres formulaires requis et renvoyez les informations au USPS.
Si vous répondez à l'application initiale et aux autres exigences, USPS vous attribue un code d'autorisation pour acheter l'option CASS, DSF2, or NCOALink.
2.
Achetez l'option à partir de USPS. Puis soumettez les informations suivantes à SAP BusinessObjects :
• votre code d'autorisation USPS (voir étape I)
• votre niveau de service NCOALink (full service provider, limited service provider ou end user)
(applicable pour NCOALink uniquement)
• votre décision relative à l'achat de l'option ANKLink (pour le fournisseur de services restreints
(limited service provider) NCOALink ou l'utilisateur final (end user) uniquement))
Une fois que vous avez demandé et installé la fonctionnalité depuis SAP BusinessObjects, vous
êtes prêt à demander le test de certification applicable auprès de USPS. Le logiciel propose des modèles vous permettant de configurer et d'exécuter des tests de certification. Importez-les depuis
<DS_COMMON_DIR>\DataQuality\Certifications
, où<DS_COMMON_DIR> désigne le répertoire de configuration commun du logiciel.
3.
Soumettez le formulaire d'informations du logiciel USPS et demandez un test de certification.
USPS vous envoie des fichiers test à utiliser avec le modèle.
4.
Une fois que vous avez correctement effectué les tests de certification, USPS vous envoie le contrat de licence applicable. A partir de là, vous achetez également le produit applicable à partir de SAP
BusinessObjects.
Rubriques associées
•
Configurer les modèles NCOALink
•
Configurer les modèles de certification DSF2
2012-11-22
Qualité des données
•
16.6.1.2 Introduction aux répertoires statiques
Les utilisateurs disposant d'une auto-certification CASS doivent utiliser des répertoires statiques. Ceux qui ont des licences DSF2 doivent également utiliser des répertoires statiques. Les répertoires statiques ne changent pas chaque mois avec les mises à jour régulières de répertoire. Ils peuvent être utilisés
à la place pour la certification pendant la durée du cycle CASS. L'utilisation de répertoires statiques garantit des résultats cohérents entre les tests de la phase I et ceux de la phase II et vous permet d'utiliser les mêmes informations du répertoire en cas de nouveau test. Vous obtenez des répertoires statiques de la part de SAP Business Objects.
Remarque :
Si vous n'utilisez pas de répertoires statiques, le logiciel génère un avertissement.
16.6.1.2.1 Répertoires statiques
Les répertoires suivants sont disponibles au format statique :
• zip4us.dir
• zip4us.shs
• zip4us.rev
• revzip4.dir
• city10.dir
• zcf10.dir
• dpv*.dir
• elot.dir
• ew*.dir
• Répertoires SuiteLink
• Répertoires LACSLink
16.6.1.2.2 Obtention des répertoires statiques
Pour demander les répertoires statiques, contactez l'assistance des utilisateurs professionnels SAP.
Les informations de contact (numéro gratuit et adresse e-mail) sont disponibles à l'adresse http://ser vice.sap.com
.
1.
Cliquez sur SAP Support Portal.
2.
Cliquez sur l'onglet "Help and Support ".
3.
Cliquez sur SAP BusinessObjects Support.
4.
Cliquez sur Contact Support dans les liens de gauche.
551 2012-11-22
Qualité des données
552
16.6.1.2.3 Emplacement des répertoires statiques
Il est important de stocker vos répertoires statiques séparément des répertoires de production. Si vous les stockez dans le même dossier, les répertoires statiques vont écraser vos répertoires de production.
Nous suggérons de créer un dossier nommé “static” pour stocker vos répertoires statiques. Par exemple, enregistrez vos répertoires statiques sous <DS_COMMON_DIR>\DataQuality\reference\static, où <DS_COMMON_DIR> est le répertoire commun de configuration du progiciel.
16.6.1.2.4 Garanties de répertoires statiques
Pour éviter l'exécution d'un job de production à l'aide de répertoires statiques, le logiciel génère un avertissement de vérification ou une erreur dans les cas suivants :
• Lorsque le job a des répertoires statiques et non statiques.
• Lorsque la version du fichier zip4us.dir ne correspond pas au cycle actuel CASS dans le logiciel.
• Lorsque les versions de données dans les répertoires statiques ne sont pas toutes identiques. Par exemple, pour le cycle M CASS, les versions de données dans les répertoires statiques correspondent
à M01.
• Lorsque le job est activé pour l'auto-certification mais n'est pas configuré pour utiliser les répertoires statiques.
• Lorsque le job n'est pas activé pour l'auto certification mais est configuré pour utiliser les répertoires statiques.
16.6.1.3 Importations de modèles de certification
Le logiciel comprend des modèles d'aide pour le test de certification. En outre, les modèles peuvent
être utilisés pour traiter un fichier test fourni par USPS au cours d'une vérification. Vous devez d'abord importer les modèles dans le répertoire avant de pouvoir les utiliser dans Data Services.
Pour importer les modèles de certification, suivez ces étapes :
1.
Ouvrez Data Services Designer.
2.
Cliquez avec le bouton droit de la souris sur le domaine de Bibliothèque d'objets et sélectionnez
référentiel > Importer à partir du fichier.
3.
Accédez à <DS_COMMON_DIR>\DataQuality\certifications, où <DS_COMMON_DIR> désigne le répertoire de configuration commun du logiciel.
4.
Sélectionnez le modèle applicable et cliquez sur Ouvrir.
Remarque :
Un message s'affiche vous demandant une phrase secrète. Les modèles ne sont pas des phrases secrètes protégées, cliquez simplement sur Importer pour accéder à l'écran suivant.
2012-11-22
Qualité des données
5.
Cliquez sur OK dans l'avertissement de message pour indiquer que vous êtes en train d'importer les modèles.
L'importation des fichiers modèles dans le répertoire ajoute de nouveaux projets, jobs, flux de données et formats de fichier plat. La convention d'appellation des objets comprend le type de certification pour indiquer le test de certification associé.
Rubriques associées
•
Modèle d'auto-certification CASS
•
•
16.6.1.4 Auto-certification CASS
Si vous intégrez SAP BusinessObjects Data Services dans votre propre progiciel et vous désirez le certifier CASS, vous devez obtenir la certification CASS par vous-même (auto-certification). Vous devez prouver à USPS que votre logiciel répond aux standards CASS en matière de précision des codes postaux et de correction des adresses. Vous devez en outre démontrer que votre progiciel peut produire une télécopie du USPS Form 3553 . Un USPS Form 3553 est nécessaire pour qualifier les publipostages pour les remises d'affranchissement.
L'obtention de la certification CASS pour votre propre logiciel est entièrement facultative. Cependant, la certification CASS de votre progiciel présente plusieurs avantages.
Visitez le site Web USPS RIBBS à l'adresse http://ribbs.usps.gov/index.cfm?page=cassmass pour plus d'informations sur la certification CASS.
Rubriques associées
•
16.6.1.4.1 Présentation du processus d'auto-certification CASS
1.
Familiarisez-vous avec la documentation et les procédures de la certification CASS à l'adresse http://ribbs.usps.gov/index.cfm?page=cassmass .
2.
(Facultatif) Téléchargez le test CASS Stage I depuis le site Web RIBBS.
Ceci est une étape facultative. Vous n'avez pas à envoyer les résultats du test phase I à USPS. La réalisation du test phase I aide à analyser et corriger toute incohérence avec les résultats attendus par USPS avant de réaliser le test phase II.
3.
Importez le modèle d'auto-certification CASS (us_cass_self_certification.atl) et modifiez-le.
Le modèle se trouve à l'emplacement <DS_COMMON_DIR>\DataQuality\Certifications, où
<DS_COMMON_DIR> est l'emplacement de configuration commun du progiciel.
553 2012-11-22
Qualité des données
Modifiez le modèle pour qu'il comporte l'emplacement de vos répertoires statiques, l'emplacement du fichier Stage I, le nom de votre société et autres paramètres requis pour le traitement CASS.
4.
Lorsque les résultats du test phase I sont comparables aux résultats attendus par USPS, demandez le test phase II à USPS à l'aide du formulaire de commande phase II qui se trouve sur le site Web
RIBBS.
USPS placera le test phase II dans votre zone utilisateur du site Web RIBBS pour que vous puissiez le télécharger.
5.
Téléchargez et décompressez le fichier du test Stage II dans une zone de sortie.
6.
Après exécution du fichier Stage II avec le modèle d'auto-certification CASS, contrôlez que les totaux du USPS Form 3553 et les totaux réels du fichier traité correspondent.
7.
Compressez le fichier de réponse Stage II traité (à l'aide de WinZip par exemple) et nommez-le avec le même nom que le fichier Stage II téléchargé (étape 5).
8.
Téléchargez le fichier de réponse Stage II traité dans votre zone utilisateur du site Web RIBBS.
USPS prend environ deux semaines pour évaluer votre test.
16.6.1.4.2 Modèle d'auto-certification CASS
SAP BusinessObjects fournit un modèle d'auto-certification CASS. Le modèle contient le projet, le job, le flux de données et les formats d'entrée/sortie correspondants. En outre, le modèle peut être utilisé pour traiter un fichier test fourni par USPS lors d'un audit.
Importez le modèle us_cass_self_certification.atl depuis l'emplacement <DS_COM
MON_DIR>\DataQuality\Certifications
, où <DS_COMMON_DIR> est l'emplacement de configuration commun du progiciel. Le tableau ci-dessous répertorie les noms de fichier pour le modèle d'auto-certification CASS.
Objet
Fichier ATL
Projet
Job
Flux de données
Format de fichier d'entrée
Format de fichier de sortie
Nom
us_cass_self_certification.atl
DataQualityCertificationCASS
Job_DqBatchUSAReg_CASSSelfCert
DF_DqBatchUSAReg_CASSSelfCert
DqUsaCASSSelfCert_In
DqUsaCASSSelfCert _Out
16.6.1.4.3 Options requises du USPS Form 3553 pour l'auto-certification
Les options suivantes du groupe d'options du rapport CASS sont requises pour l'auto-certification CASS.
Ces informations sont incluses dans le USPS Form 3553.
554 2012-11-22
Qualité des données
Option Description
Nom de société certifiée
Indiquez le nom de la société propriétaire du progiciel certifié par CASS.
Nom de liste
Indiquez le nom de la liste de publipostage.
Propriétaire de la liste
Indiquez le nom du propriétaire de la liste.
Remarque :
Conservez le paramètre des modèles d'auto-certification CASS, “USPS”.
Adresse de l'expéditeur
(1-4)
Indiquez le nom et l'adresse de la personne de l'organisation pour qui vous préparez le publipostage (29 caractères maximum par ligne)
Version du progiciel
Indiquez le nom et le numéro de version du progiciel que vous utilisez pour recevoir l'auto-certification CASS.
16.6.1.4.4 Points importants à propos de CASS
Rappelez-vous de ces points importants à propos de la certification CASS :
• En tant qu'utilisateur final (vous utilisez SAP BusinessObjects Data Services pour traiter vos listes), vous n'êtes pas obligé d'obtenir l'auto-certification CASS parce que SAP BusinessObjects Data
Services est déjà certifié CASS.
• La certification CASS est attribuée aux programmes du progiciel. Vous obtenez l'auto-certification
CASS si vous avez intégré SAP BusinessObjects Data Services au programme de votre progiciel.
• Les rapports CASS concernent les listes d'adresses.
• La certification CASS prouve que le progiciel peut affecter et standardiser correctement les adresses.
16.6.1.5 Certification NCOALink
La certification NCOALink comprend les étapes suivantes :
1.
Approbation de la déclaration d'application et d'auto-certification
2.
Acquisition du progiciel
3.
Tests et certification
4.
Exécution du contrat de licence
555 2012-11-22
Qualité des données
L'ensemble de cette procédure est expliqué dans les documents Procédures de certification USPS présents sur le site Web RIBBS à l'adresse http://ribbs.usps.gov/ncoalink/documents/tech_guides .
Sélectionnez les documents NCOALinkEnd UserNCOALink Limited Service Provider ou NCOALinkFull
Service Provider selon le cas.
Vous devez remplir la procédure appropriée de certification de prestataire de services pour NCOALink afin d'acheter le produit NCOALink à USPS.
Rubriques associées
•
16.6.1.5.1 Informations produit logiciel NCOALink
Utilisez les informations ci-dessous pour remplir le formulaire d'informations produit, de test et de conformité (Compliance Testing Product Information Form). Ce formulaire se trouve sur le site Web de
RIBBS à l'adresse http://ribbs.usps.gov/ncoalink/documents/tech_guides . Cliquez sur le lien Compliance
Testing Form.doc.
Formulaire Compliance Testing Product Information
Form
Description
Nom de société et numéro de licence
Vos informations spécifiques. Le numéro de licence représente le code d'autorisation fourni dans la lettre d'approbation de l'USPS.
Nom du produit NCOALink de la société
Plateforme ou système d'exploitation
Fournisseur du logiciel NCOALink
Nom du produit logiciel NCOALink
Version du produit logiciel NCOALink
Mover ID pour NCOALink
Vos informations spécifiques
SAP Americas, Inc.
Mover ID
Nom du produit Correspondance d'adresse ZIP+4
ACE
Contactez l'assistance des utilisateurs professionnels
SAP BusinessObjects.
Version du produit Correspondance d'adresse ZIP+4
Système de Correspondance d'adresse ZIP+4
Contactez l'assistance des utilisateurs professionnels
SAP BusinessObjects.
Fermé
Le logiciel est-il dépendant du matériel ?
Nom du produit DPV®
Non
ACE
Version du produit DPV
Nom du produit LACSLink®
Contactez l'assistance des utilisateurs professionnels
SAP BusinessObjects.
ACE
556 2012-11-22
Qualité des données
Formulaire Compliance Testing Product Information
Form
Description
Version du produit LACSLink
Contactez l'assistance des utilisateurs professionnels
SAP BusinessObjects.
Options du logiciel NCOALink : cases à cocher Intégré ou Autonome
Intégré
Case à cocher Amélioration ANKLink (applicable pour les fournisseurs de services restreints (Limited Service
Providers) et les utilisateurs finaux (End Users))
Cochez la case si vous avez acquis l'option ANKLink
à partir de SAP BusinessObjects.
Cases à cocher HASH—FLAT—BOTH
Indiquez votre préférence. Le progiciel fournit l'accès aux deux formats de fichier.
Cases à cocher Option de niveau NCOALink Cochez la case appropriée.
Rubriques associées
•
Obtention de la certification NCOALink
•
16.6.1.5.2 Obtention de la certification NCOALink
Lors de la certification, il convient de traiter les fichiers de l'USPS afin de prouver que vous respectez les exigences de votre contrat de licence. La certification NCOALink se déroule en deux étapes. L'Etape I consiste en un test facultatif qui inclut des réponses permettant une résolution et une préparation au test de l'Etape II. Le test de l'Etape II ne contient aucune réponse et est envoyé à l'USPS à des fins d'évaluation de la précision de la configuration du progiciel.
Rubriques associées
•
Exécuter les jobs de certification NCOALink
16.6.1.5.3 Modèles NCOALink
SAP BusinessObjects fournit les modèles NCOALink. Les modèles comprennent les projets, jobs, flux de données et formats d'entrée/sortie correspondants. En outre, les modèles peuvent être utilisés pour traiter un fichier test fourni par USPS lors d'un audit.
Importez les modèles NCOALink depuis l'emplacement <DS_COMMON_DIR>\DataQuality\Certi fications
, où <DS_COMMON_DIR> est l'emplacement de configuration commun du progiciel.
Le tableau ci-dessous répertorie les noms de fichier des modèles NCOALink phase I :
557 2012-11-22
Qualité des données
558
Objet
Fichier ATL
Projet
Job
Flux de données
Format de fichier d'entrée
Format de fichier de sortie
Nom
us_ncoalink_stage_certification.atl
DataQualityCertificationNCOALink
Job_DqBatchUSAReg_NCOALinkStageI
DF_DqBatchUSAReg_NCOALinkStageI
DqUsaNCOALinkStageI _in
DqUsaNCOALinkStageI _out
Le tableau ci-dessous répertorie les noms de fichier des modèles NCOALink phase II :
Objet Nom
Fichier ATL
Projet
Job
Flux de données
Format de fichier d'entrée
Format de fichier de sortie us_ncoalink_stage_certification.atl
DataQualityCertificationNCOALink
Job_DqBatchUSAReg_NCOALinkStageII
DF_DqBatchUSAReg_NCOALinkStageII
DqUsaNCOALinkStageII _in
DqUsaNCOALinkStageII _out
16.6.1.5.4 Configurer les modèles NCOALink
Avant de suivre les étapes ci-dessous, il convient d'importer les modèles NCOALink.
Pour configurer les modèles NCOALink Etape I et Etape II, suivez les étapes ci-dessous.
1.
Dans Designer, sélectionnez Outils > Configurations des paramètres de substitution.
L'"Editeur de paramètres de substitution" s'ouvre.
2.
Sélectionnez la configuration adaptée à partir de la liste déroulante Configuration par défaut et saisissez les valeurs relatives aux informations de votre société et aux emplacements des fichiers de référence. Cliquez sur OK pour fermer l'outil Configurations des paramètres de substitution.
3.
Ouvrez le projet DataQualityCertificationsNCOALink (importé avec les modèles).
4.
Ouvrez le job Job_DqBatchUSAReg_NCOALinkStageI puis le flux de données DF_DqBatchUSA
Reg_NCOALinkStageI.
5.
Cliquez sur le fichier DqUsaNCOALinkStageI_in pour ouvrir l'"Editeur de fichiers source". Recherchez le groupe de propriétés Fichiers(s) de données dans la partie inférieure de l'Editeur puis effectuez les modifications suivantes :
2012-11-22
Qualité des données a.
Dans l'option Répertoire racine, saisissez le chemin d'accès ou recherchez le répertoire contenant le fichier d'entrée.
Lors de la saisie du chemin d'accès, n'ajoutez pas de barre oblique inverse (\) ou de barre oblique
(/) à la fin du chemin d'accès du fichier.
b.
Dans l'option Nom(s) de fichier, remplacez StageI.in par le nom du fichier phase fourni par l'USPS.
c.
Quittez l'"Editeur de fichiers source".
6.
Cliquez sur le fichier DqUsaNCOALinkStageI_out pour ouvrir l'"Editeur de fichiers cible". Dans le groupe de propriétés Fichiers(s) de données, effectuez les modifications suivantes : a.
Dans l'option Répertoire racine, saisissez le chemin d'accès ou recherchez le répertoire contenant le fichier de sortie.
Lors de la saisie du chemin d'accès, n'ajoutez pas de barre oblique inverse (\) ou de barre oblique
(/) à la fin du chemin d'accès du fichier.
b.
(Facultatif) Dans l'option Nom(s) de fichier, modifiez le nom StageI.out afin de respecter la convention d'attribution de noms de fichiers de votre société.
c.
Quittez l'"Editeur de fichiers cible".
7.
Cliquez deux fois sur la transformation USARegulatoryNCOALink_AddressCleanse pour ouvrir l'Editeur de transformation, puis cliquez sur l'onglet "Options".
8.
Saisissez l'emplacement correct du chemin d'accès des fichiers de référence dans le groupe Fichiers de référence selon vos besoins. Utilisez la variable de substitution $$RefFilesAddressCleanse pour gagner du temps.
9.
Dans le groupe Informations de licence USPS, effectuez les actions suivantes : a.
Saisissez un nombre pertinent dans l'option ID de liste.
b.
Saisissez la date actuelle dans les options Date de réception de la liste et Date de retour de
la liste.
c.
Assurez-vous que le niveau du fournisseur indiqué dans la configuration des paramètres de substitution par le $$USPSProviderLevel est exact. Le cas échéant, spécifiez le niveau approprié
(Full Service Provider, Limited Service Provider ou End User) dans l'option Provider Level.
d.
Selon les services que vous fournissez (complets ou restreints), renseignez les options dans le groupe NCOALink > Détails PAF et dans le groupe NCOALink > Options du fournisseur de
services.
10.
Si vous êtes satisfait des résultats du test de la phase I, répétez les étapes 4 à 9 pour configurer les objets de la phase II trouvés dans le flux de données DF_DqBatchUSAReg_NCOALinkStage II.
Rubriques associées
• Guide de référence : options des informations de licence USPS
•
•
Modèle d'auto-certification CASS
•
•
Importations de modèles de certification
559 2012-11-22
Qualité des données
560
16.6.1.5.5 Exécuter les jobs de certification NCOALink
Avant d'exécuter les jobs de certification NCOALink, il convient de vérifier que vous avez installé les fichiers DPV, LACSLink et des répertoires nationaux américains aux emplacements spécifiés lors de la configuration, ainsi que la disponibilité du DVD NCOALink fourni par l'USPS.
L'exécution du job de la phase I est facultative ; les résultats ne doivent pas être envoyés à l'USPS.
Toutefois, l'exécution de ce job peut permettre de garantir la configuration correcte du progiciel et votre préparation à l'exécution du job de la phase II.
1.
Utilisez l'utilitaire de vérification de DVD NCOALink pour installer les répertoires NCOALink fournis par l'USPS. (Voir le lien ci-dessous pour plus d'informations sur l'utilitaire de vérification de DVD
NCOALink.)
2.
Téléchargez la version actuelle du fichier quotidien de suppression de l'USPS à l'adresse https://epf.usps.gov/ .
3.
Téléchargez le fichier Stage I à l'adresse http://ribbs.usps.gov/ et décompressez-le vers l'emplacement spécifié lors de la configuration du job de certification.
Assurez-vous de la correspondance entre le nom du fichier d'entrée dans la transformation source et le nom du fichier Stage I de l'USPS.
4.
Exécutez le job de la phase I et comparez les données de test aux résultats attendus fournis par l'USPS dans le fichier d'entrée Stage I.
Le cas échéant, modifiez la configuration afin d'obtenir des résultats satisfaisants au test de la phase
I.
5.
Téléchargez le fichier Stage II à l'emplacement indiqué par l'USPS et décompressez-le vers l'emplacement spécifié lors de la configuration du job de certification.
Assurez-vous de la correspondance entre le nom du fichier d'entrée dans la transformation et le nom du fichier Stage II de l'USPS.
6.
Exécutez le job de la phase II. Suivez les instructions spécifiques du document Certification
NCOALink/Instructions d'audit fourni par l'USPS.
7.
Compressez les résultats suivants (à l'aide de WinZip par exemple) et nommez-les avec le même nom que celui utilisé pour le fichier Stage II téléchargé (étape 5) :
• Fichier de sortie Stage II
• Rapport Résumé du traitement de NCOALink
• CASS Form 3553
• L'ensemble des fichiers journaux générés dans le chemin d'accès $$CertificationLog
• Journal de services clients
• PAF (fournisseurs de services uniquement)
• Journal Gestionnaire/Agent/Administrateur de liste (fournisseurs de services uniquement)
8.
Envoyez les résultats à l'USPS à des fins de vérification.
Rubriques associées
• Guide Management Console Guide : exportation de journaux de certification NCOALink
•
Installer les répertoires NCOALink avec la GUI
•
Installer les répertoires NCOALink à partir de la ligne de commande
2012-11-22
Qualité des données
•
Installer le fichier quotidien de suppression NCOALink
16.6.1.6 Certification DSF2
La certification DSF2 se compose des étapes suivantes :
1.
Approbation de l'application et de la déclaration d'auto-certification
2.
Conditions de documentation
3.
Phase 1 Développement d'interface
4.
Test et certification DSF2
5.
Exécution de la licence
L'intégralité du processus est détaillé dans le document d'USPS DSF2 Certification Package publié sur le site internet de RIBBS. Sélectionnez le lien du DSF2 Certification Package sur https://ribbs.usps.gov/dsf2/documents/tech_guides/ .
Le DSF2 Certification Package contient des processus et des procédures, ainsi que les formulaires nécessaires pour que vous terminiez les cinq étapes ci-dessus.
16.6.1.6.1 Equipment Information DSF2 pour les certifications USPS
Dans le document DSF2 Certification Package se trouve un formulaire Equipment Information. Vous devez fournir les renseignements sur le logiciel que vous utilisez pour certifier pour DSF2. Utilisez les informations de la table suivante pour compléter le formulaire pour les processus de certification DSF2.
Formulaire Equipment Information
Fournisseur du logiciel d'interface
Système de correspondance d'adresse ZIP+4
Fournisseur/Modèle/Type de matériel d'interface
Système d'exploitation du matériel d'interface
Numéro de série du matériel d'interface
Description
SAP Americas, Inc.
Nom du produit du logiciel d'interface
Version du produit du logiciel d'interface
ACE
Contactez l'assistance des utilisateurs professionnelsSAP BusinessObjects.
Nom du produit de correspondance d'adresse ZIP+4 ACE
Version du produit de correspondance d'adresse
ZIP+4
Contactez l'assistance des utilisateurs professionnels
SAP BusinessObjects.
Système fermé
N/A Le logiciel ne dépend pas du matériel
N/A Le logiciel ne dépend pas du matériel
N/A Le logiciel ne dépend pas du matériel
561 2012-11-22
Qualité des données
Trouvez le document DSF2 Certification Package sur le site internet de RIBBS à l'adresse https://ribbs.usps.gov/dsf2/documents/tech_guides/ .
16.6.1.6.2 Modèles de certification DSF2
SAP BusinessObjects fournit des modèles de certification DSF2 pour trois types de certifications DSF2.
Les modèles contiennent les projets, jobs, flux de données et formats d'entrée/de sortie correspondants.
De plus, les modèles peuvent être utilisés pour traiter un fichier test fourni par l'USPS durant un audit.
Importez les modèles de certification DSF2 à partir de <DS_COMMON_DIR>\DataQuality\Certifi cations où <DS_COMMON_DIR> est l'emplacement de la configuration commune du logiciel.
La table ci-dessous contient les noms de fichiers pour la certification Augment USPS DSF2 :
Objet
Fichier ATL
Projet
Job
Flux de données
Format de fichier d'entrée
Format de fichier de sortie
Nom
us_dsf2_certification.atl
DataQualityCertificationDSF2
Job_DqBatchUSAReg_DSF2Augment
DF_DqBatchUSAReg_DSF2Augment
DqUsaDSF2Augment_in
DqUsaDSF2Augment_out
La table ci-dessous contient les noms de fichier pour la certification InvoiceUSPS DSF2 :
Projet
Fichier ATL
Projet
Job
Flux de données
Format de fichier d'entrée
Format de fichier de sortie
Nom
us_dsf2_certification.atl
DataQualityCertificationDSF2
Job_DqBatchUSAReg_DSF2Invoice
DF_DqBatchUSAReg_DSF2Invoice
DqUsaDSF2Invoice_in
DqUsaDSF2Invoice_out
La table ci-dessous contient les noms de fichier pour la certification SequenceUSPS DSF2 :
Projet
Fichier ATL
Nom
us_dsf2_certification.atl
562 2012-11-22
Qualité des données
563
Projet
Projet
Job
Flux de données
Format de fichier d'entrée
Format de fichier de sortie
Nom
DataQualityCertificationDSF2
Job_DqBatchUSAReg_DSF2Sequence
DF_DqBatchUSAReg_DSF2Sequence
DqUsaDSF2Sequence_in
DqUsaDSF2Sequence_out
16.6.1.6.3 Configurer les modèles de certification DSF2
Avant d'effectuer les étapes ci-dessous, vous devez importer les modèles DSF2.
Suivez ces étapes pour configurer les modèles de certification DSF2 Augment, Invoice, et Sequence
1.
Dans le Designer, sélectionnez Outils > Configuration de paramètre de substitution.
L'"Editeur de paramètre de substitution" s'ouvre.
2.
Sélectionnez la configuration applicable dans la liste déroulante Configuration par défaut et saisissez les valeurs pour les informations de votre société et les emplacements des fichiers de référence.
Remarque :
DFS2 Augment uniquement Rappelez-vous de saisir les répertoires statiques pour la variable de substitution $$RefFilesUSPSStatic.
3.
Ouvrez le projet DataQualityCertificationDSF2 (téléchargé avec le modèle).
4.
Développez le job de certification et le flux de données souhaité. Par exemple, si vous configurez le DSF2 Augment, développez le job Job_DqBatchUSAReg_DSF2Augment puis le flux de données
DF_DqBatchUSAReg_DSF2Augment.
5.
Double-cliquez sur le format de fichier d'entrée applicable (*.in) pour ouvrir l'"Editeur de fichiers source". Par exemple, pour une certification DSF2 Augment, double-cliquez sur DSF2_Augment.in.
6.
Dans le groupe des propriétés "Fichier(s) des données", apportez les modifications suivantes : a.
Dans l'option Répertoire racine, saisissez le chemin d'accès ou naviguez vers le répertoire contenant le fichier d'entrée.
Si vous saisissez le chemin, ne saisissez pas de barre oblique inversée ni de barre oblique à la fin du chemin du fichier.
b.
Dans l'optionNom(s) de fichier, modifiez le nom du fichier d'entrée par le nom du fichier fourni par l'USPS.
7.
Double-cliquez sur le format de fichier de sortie applicable (*.out) pour ouvrir l'Editeur de fichiers cible. Par exemple, pour une certification DSF2 Augment, double-cliquez sur DSF2_Augment.out.
8.
Dans le groupe des propriétés Fichier(s) des données, apportez les modifications suivantes : a.
Dans l'option Répertoire racine, saisissez le chemin d'accès ou naviguez vers le répertoire contenant le fichier de sortie.
2012-11-22
Qualité des données
Si vous saisissez le chemin, ne saisissez pas de barre oblique inversée ni de barre oblique à la fin du chemin du fichier.
b.
(Facultatif) Dans l'optionNom(s) de fichier, modifiez le nom du fichier de sortie pour vous conformer à la convention d'appellation des fichiers de votre société.
9.
Cliquez sur la transformation USARegulatory_AddressCleanse pour ouvrir l'Editeur de transformation puis cliquez sur l'onglet "Options".
Remarque :
Pour les certifications DSF2 Sequence et Invoice, ouvrez la transformation DSF2_Walk_Sequencer.
10.
Dans le groupe Fichiers de référence, saisissez si nécessaire le chemin d'accès correct aux fichiers de référence.
Pour la certification DSF2 Augment, utilisez la variable de substitution $$RefFilesUSPSStatic pour enregistrer le temps.
11.
Dans les CASS Report Options, mettez à jour chaque option listée comme “A_MODIFIER” le cas
échéant.
Rubriques associées
•
•
Modèle d'auto-certification CASS
•
•
Importations de modèles de certification
16.6.2 USPS DPV®
Delivery Point Validation® est un produit USPS développé pour aider les utilisateurs à valider la précision de leurs informations d'adresse. DPV compare les informations de Code postal2 par rapport aux répertoires DPV afin d'identifier les adresses connues et les problèmes potentiels sur l'adresse pouvant provoquer le fait qu'elle devienne non distribuable.
DPV est disponible pour les données des Etats-Unis, uniquement dans la transformation USA Regulatory
Address Cleanse.
Remarque :
Le traitement DPV est requis pour la certification CASS. Si vous n'effectuez pas le traitement pour la certification CASS, vous pouvez choisir d'exécuter vos jobs en mode non certifié et toujours activer
DPV
Attention :
Si vous choisissez de désactiver le traitement DPV, le progiciel ne générera pas la documentation requise par CASS et votre publipostage ne sera pas éligible pour les remises sur les affranchissements.
564 2012-11-22
Qualité des données
Rubriques associées
•
•
16.6.2.1 Avantages de DPV
DPV peut être bénéfique dans les domaines suivants :
• Publipostage : DPV aide à écarter les plis non distribuables (UAA) et aide à réduire les coûts du publipostage.
• Qualité d'informations : DPV augmente le niveau de précision des données en permettant de vérifier la maison, la suite ou l'appartement individuel d'une adresse, au lieu de vérifier uniquement l'immeuble.
• Taux d'affectation amélioré : DPVpeut augmenter le taux d'affectation à l'aide d'un bris d'égalité
DPV pour résoudre une égalité lorsque les autres méthodes de bris d'égalité ne sont pas concluantes.
• Prévention de la fraude par vente par correspondance : DPVpeut éliminer les transports de marchandises aux personnes qui réalisent des commandes frauduleuses en vérifiant les adresses de livraison valides et les agences de boîte postale (CMRA).
16.6.2.2 Sécurité DPV
L'USPS a instauré des processus qui surveillent l'utilisation de DPV. Chaque société qui achète la fonctionnalité DPV doit signer un accord juridique qui affirme qu'elle n'essayera pas de faire mauvais usage du produit DPV. Si un utilisateur abuse du produit DPV, l'USPS a le droit d'interdire à l'utilisateur d'utiliser DPV à l'avenir.
16.6.2.2.1 fausses adresses DPV positives
L'USPS a inclus des fausses adresses positives dans les répertoires DPV comme une sécurité supplémentaire pour prévenir des abus de DPV. En fonction de votre type d'utilisateur et de vos codes de clé de licence, le comportement du logiciel varie lorsqu'il rencontre une fausse adresse positive. La table suivante explique les comportements pour chaque type d'utilisateurs :
565 2012-11-22
Qualité des données
Type d'utilisateur
Utilisateurs finaux
Utilisateurs finaux avec un contrat pour le Stop processing alternative
Fournisseurs de services
Comportement du logiciel Lire au sujet de :
Le traitement DPV est terminé.
Obtention d'un code de déverrouillage par SAP BusinessObjects
Support.
Le traitement DPV continue.
Le traitement DPV continue.
Envoi de journaux de faux positifs à l'USPS
Envoi de journaux de faux positifs à l'USPS
Rubriques associées
•
•
Obtention d'un code de déblocage DPV de la part de SAP BusinessObjects
•
Envoi de faux journaux positifs DPV au USPS
16.6.2.2.2 Stop Processing Alternative
Les utilisateurs finaux peuvent établir un contrat Stop Processing Alternative avec l'USPS et SAP
BusinessObjects.
Le fait d'établir un contrat Stop processing permet d'ignorer les verrouillages de répertoires futurs. Stop
Processing Alternative n'est pas une option dans le logiciel, il s'agit d'un code de clé que vous obtenez deSAP BusinessObjects Support.
Vous devez d'abord obtenir les autorisations nécessaires de l'USPS puis fournir les preuves d'autorisation
à SAP BusinessObjects Support. Le support fournit ensuite un code de clé qui désactive la fonction de verrouillage de répertoire dans le logiciel.
Rappel :
Lorsque vous obtenez le code de clé Stop Processing Alternatives deSAP Business Objects Support, saisissez-le dans SAP BusinessObjects License Manager. Une fois le code de clé Stop Processing
Alternative placé, le logiciel prend les mesures suivantes lorsqu'un faux positif est rencontré :
• Marque l'enregistrement comme un faux positif.
• Génère un fichier journal qui contient la fausse adresse positive.
• Note les chemins d'accès aux fichiers journaux dans le journal des erreurs.
• Génère un rapport US Regulatory Locking Report qui contient le chemin d'accès au fichier journal.
• Continue de traiter les jobs.
Bien que le job continue le traitement, vous devez envoyer le fichier journal de faux positifs à l'USPS pour les informer qu'une fausse adresse positive a été détectée. L'USPS doit libérer la liste avant que vous puissiez l'utiliser pour le traitement.
Rubriques associées
•
Envoi de faux journaux positifs DPV au USPS
566 2012-11-22
Qualité des données
567
16.6.2.2.3 journaux DPV de faux positifs
Le logiciel génère un fichier journal de faux positif à chaque fois qu'il rencontre un enregistrement de faux positif, sans tenir compte de la configuration du job. Le logiciel crée un fichier journal distinct pour chaque liste de diffusion qui contient un faux positif. Si plusieurs faux positifs existent dans une liste de diffusion, le logiciel les écrit tous dans le même fichier journal.
Emplacement et nom du fichier journal DPV
Le logiciel enregistre les fichiers journaux DPV dans le répertoire indiqué dans l'option Chemin d'accès
du journal USPS dans le groupe Fichiers de référence.
Remarque :
Le chemin d'accès du journal USPS que vous saisissez doit être accessible en écriture. Une erreur est
émise si vous avez entré un chemin qui n'est pas accessible en écriture.
Convention d'appellation des fichiers journaux
Le logiciel nomme automatiquement les journaux de faux positifs DPV avec le format suivant : dpvl####.log
Le partie #### du format du nom est un nombre compris en 0001 et 9999. Par exemple, le premier fichier journal généré est dpvl0001.log, le suivant est dvpl0002.log, etc.
Remarque :
Lorsque vous avez défini le degré de parallélisme du flux de données supérieur à 1, ou que vous avez activé l'exécution comme une option de processus séparée, le logiciel génère un journal par thread ou processus. Lors de l'exécution d'un job, si le logiciel rencontre uniquement un enregistrement de faux positif, un journal est généré. Cependant, s'il rencontre plus d'un enregistrement de faux positif et que les enregistrements sont traités dans des processus ou des threads différents, alors le logiciel génère un journal pour chaque thread qui traite un enregistrement de faux positif.
Rubriques associées
• Guide d'optimisation de la performance : utilisation de l'exécution parallèle
16.6.2.2.4 Verrouillage DPV pour utilisateurs finaux
Ce comportement de verrouillage s'applique aux utilisateurs finaux ou aux utilisateurs qui sont des clients DSF2 et qui ont désactivé DSF2 dans le job
Lorsque le logiciel trouve une fausse adresse positive, le traitement DPV est interrompu pour le reste du flux de données. Le logiciel prend également les mesures suivantes :
• Marque l'enregistrement comme une fausse adresse positive.
• Emet un message dans le journal des erreurs affirmant qu'une fausse adresse DPV positive a été rencontrée.
• Inclut la fausse adresse positive et verrouille le code dans le journal des erreurs.
• Continue de traiter les flux de données sans le traitement DPV.
2012-11-22
Qualité des données
• Génère un code de verrouillage.
• Génère un journal de faux positifs.
• Génère un rapport US Regulatory Locking Report qui contient la fausse adresse positive et le code de verrouillage. (La génération de rapport doit être activée dans la transformation USA Regulatory
Address Cleanse.)
Pour restaurer la fonctionnalité DPV, les utilisateurs doivent obtenir un code de déverrouillage DPV par SAP BusinessObjects Support.
Rubriques associées
•
Obtention d'un code de déblocage DPV de la part de SAP BusinessObjects
16.6.2.2.5 Obtention d'un code de déblocage DPV de la part de SAP BusinessObjects
Ces étapes peuvent être appliquées pour des utilisateurs finaux ne disposant pas d'accord Stop
Processing Alternative avec l'USPS. Lorsque vous recevez un traitement de message indiquant que des adresses de faux positifs DPV figurent sur votre liste d'adresses, utilisez l'utilitaire de déblocage
SAP BusinessObjectsUSPS pour obtenir un code de déblocage.
1.
Naviguez jusqu'à https://websmp205.sap-ag.de/bosap-unlock pour ouvrir la page de l'utilitaire de déblocage SAP Service Market Place (SMP).
2.
Cliquez sur Retrieve USPS Unlock Code.
3.
Cliquez sur Search et sélectionnez un système applicable Data Services dans la liste.
4.
Saisissez le code de blocage trouvé dans le fichier dpvx.txt (l'emplacement est indiqué dans l'option DPV Path dans le groupe de fichiers de référence).
5.
Sélectionnez DPV comme type de blocage.
6.
Sélectionnez BOJ-EIM-DS comme composant.
7.
Saisissez l'adresse de blocage listée dans le fichier dpvx.txt.
8.
Joignez le fichier dpvl####.log (l'emplacement est indiqué dans l'option Chemin d'accès du
journal USPS dans le groupe de fichiers de référence).
9.
Cliquez sur Soumettre.
Le code de déblocage s'affiche.
10.
Copiez le code de déblocage et collez-le dans le fichier dpvw.txt, en remplaçant tous les contenus du fichier par le code de déblocage (l'emplacement est indiqué dans l'option Chemin d'accès de
DPV du groupe de fichiers de référence).
11.
Supprimez l'enregistrement ayant causé le blocage de la base de données et supprimez le fichier dpvl####.log
avant de traiter à nouveau la liste.
Conseil :
N'oubliez pas que vous pouvez utiliser le code de déblocage une seule fois. Si le logiciel détecte un autre faux positif (même s'il s'agit du même enregistrement), vous devrez récupérer un nouveau code de déblocage LACSLink.
568 2012-11-22
Qualité des données
Remarque :
Si un code de déblocage n'a pas pu être généré, un message est de nouveau créé, il est traité par un ingénieur d'étude de l'Assurance client technique (pendant les heures d'ouverture normales).
Remarque :
Si vous êtes un utilisateur final disposant d'un accord Stop Processing Alternative, suivez les étapes relatives à l'envoi du journal de faux positifs au USPS.
16.6.2.2.6 Envoi de faux journaux positifs DPV au USPS
Les prestataires de service doivent suivre ces étapes une fois qu'ils ont reçu un message de traitement indiquant que de fausses adresses positives DPV figurent dans leur liste d'adresses. Les utilisateurs finaux disposant d'un accord Stop Processing Alternative doivent suivre ces étapes une fois qu'ils ont reçu un traitement du message indiquant que de fausses adresses positives DPV figurent dans leur liste d'adresses.
1.
Envoyez un e-mail à USPS NCSC à l'adresse Dsf2stop@usps.gov et incluez les informations suivantes :
• Saisissez “DPV False Positive” sur la ligne Objet.
• Joignez le fichier dpvl####.log ou les fichiers précédemment générés par le logiciel
(l'emplacement est indiqué dans l'option de répertoire Chemin d'accès du journal USPS dans l'option de répertoire du groupe de fichiers de référence)
Le USPS NCSC utilise les informations pour déterminer si la liste peut être renvoyée à l'expéditeur.
2.
Une fois que le USPS NCSC a validé la liste contenant le faux enregistrement positif ou bloqué :
• Supprimez le fichier journal ou les fichiers correspondants.
• Supprimez l'enregistrement qui a causé le blocage de la liste et retraitez le fichier.
Remarque :
Si vous êtes un utilisateur final qui ne dispose pas d'un accord Stop Processing Alternative, suivez les
étapes permettant de récupérer le code de déblocage DPV auprès du support SAP BusinessObjects.
Rubriques associées
•
Obtention d'un code de déblocage DPV de la part de SAP BusinessObjects
16.6.2.3 Répertoires DPV mensuels
Les répertoires DPV sont livrés mensuellement avec les répertoires USPS conformément aux indications
USPS.
Les répertoires expirent en 105 jours. La date sur les répertoires DPV doit être identique à celle du répertoire Adresse.
569 2012-11-22
Qualité des données
Ne renommez aucun fichier. DPV n'exécute pas si les noms de fichier ont été modifés. Ci-dessous se trouve une liste des répertoires DPV :
• dpva.dir
• dpvb.dir
• dpvc.dir
• dpvd.dir
• dpv_vacant.dir
• dpv_no_stats.dir
16.6.2.4 Informations requises pour la configuration des jobs
Lorsque vous configurez le traitement DPV, les options suivantes dans le groupe d'informations de licence USPS sont requises :
•
Nom de la société du client
•
Adresse de la société du client
•
Localité de la société du client
•
Région de la société du client
•
Code postal de la société du client1
•
Code postal de la société du client2
570
16.6.2.5 Activation DPV
Remarque :
DPV est requis pour CASS.
Outre les informations requises relatives à la société client que vous saisissez dans le groupe
USPSLicense Information, activez les options suivantes pour exécuter le traitement DPV :
1.
Ouvrez la transformation USA Regulatory Address Cleanse.
2.
Ouvrez l'onglet "Options". Développez le groupe Opérations d'affectation et sélectionnez Oui pour l'option Activer DPV.
3.
Dans le groupe de fichiers de référence, saisissez le chemin de vos répertoires DPV dans l'option
Chemin d'accès de DPV.
Remarque :
DPV peut être exécuté uniquement lorsque l'emplacement pour tous les répertoires DPV a été saisi et aucun des fichiers de répertoire DPV n'a été renommé.
4.
Définissez un référentiel pour le fichier journal DPV dans l'option Chemin d'accès du journal USPS.
Utilisez la variable de substitution $$CertificationLogPath si vous l'avez configurée.
2012-11-22
Qualité des données
5.
Dans le groupe Rapport et analyse, sélectionnez Oui pour l'option Générer données de rapport .
16.6.2.6 Champs de sortie DPV
Plusieurs champs de sortie sont disponibles pour signaler les résultats du traitement DPV :
• DPV_CMRA
• DPV_Footnote
• DPV_NoStats
• DPV_Status
• DPV_Vacant
Pour une description complète de ces champs de sortie, référez-vous au Guide de référence ou affichez les informations de l'Aide Data Services qui apparaissent lorsque vous ouvrez l'onglet Sortie de la transformation USA Regulatory Address Cleanse.
Rubriques associées
• Guide de référence : champs Data Quality, champs USA Regulatory Address Cleanse, champs de sortie
16.6.2.7 Mode non certifié
Il est possible de configurer les jobs en ayant DPV désactivé si vous n'êtes pas un client CASS mais que vous souhaitez ajouter un code postal2 aux adresses. L'option de non CASS, Affecter code
postal2 non validé DPV, permet au logiciel d'affecter un code postal2 lorsqu'une adresse ne confirme pas un DPV.
Attention :
Si vous choisissez de désactiver le traitement DPV, le logiciel ne génère pas la documentation requise pour CASS et le publipostage n'est pas éligible pour les remises postales.
16.6.2.7.1 Activation d'un mode non certifié
Pour exécuter un job en mode non certifié, suivez les étapes de configuration suivantes
1.
Dans le groupe Opérations d'affectation, activez l'option Activer DPV sur Non.
2.
Dans le groupe d'options Non certifié, activez l'option Désactiver la certification sur Oui.
3.
Dans le groupe d'options Non certifié, activez l'option Affecter code postal2 non validé DPV sur
Oui.
571 2012-11-22
Qualité des données
Attention :
Le logiciel efface toutes les informations relatives au code postal2 de vos données si vous désactivez le traitement DPV et l'option Affecter code postal2 non validé DPV. Ceci comprend les informations relatives au code postal2 fournies dans votre fichier d'entrée.
16.6.2.8 Performances de DPV
En raison du temps supplémentaire requis pour exécuter le traitement DPV, vous pouvez constater une modification du temps de traitement. Le temps de traitement peut varier avec la fonctionnalité DPV selon le système d'exploitation, la configuration système et d'autres variables pouvant être uniques à votre environnement opérationnel.
Vous pouvez réduire le temps requis pour le traitement DPV en chargeant les répertoires DPV dans la mémoire système avant le traitement.
16.6.2.8.1 Utilisation de la mémoire
Il est possible que vous deviez installer de la mémoire supplémentaire dans votre système d'exploitation pour le traitement DPV. Un minimum de 768 MB est recommandé pour le traitement en ayant le DPV activé.
Pour déterminer la quantité de mémoire requise pour exécuter en ayant le DPV activé, contrôlez la taille des répertoires DPV (récemment environ 600 MB
1
) et ajoutez-la à la quantité de mémoire requise pour exécuter le logiciel.
La taille des répertoires DPV varie en fonction de la quantité de nouvelles données dans chaque version de répertoire.
Assurez-vous que votre ordinateur dispose de suffisamment de mémoire disponible avant d'effectuer le traitement DPV.
Pour trouver la quantité d'espace disque requise pour cacher les répertoires, consultez le document
Plateformes prises en charge sur le portail deSAP BusinessObjects Support. Trouvez des informations sur les liens dans la table des ressources d'informations SAP BusinessObjects (voir le lien ci-dessous).
Rubriques associées
•
Ressources d'informations SAP BusinessObjects
572
16.6.2.8.2 Cache des répertoires DPV
Pour mieux gérer l'utilisation de la mémoire lorsque vous avez activé le traitement DPV, choisissez de cacher les répertoires DPV.
1
La taille du répertoire est susceptible de changer à chaque fois que de nouveaux répertoires DPV sont installés.
2012-11-22
Qualité des données
16.6.2.8.3 Mise en mémoire cache de répertoires DPV
Pour configurer votre job pour la mise en mémoire cache DPV, suivez ces étapes :
1.
Dans le groupe Transform Performance, activez l'option Mettre en mémoire cache répertoires
DPV sur oui.
2.
Dans le même groupe, activez l'option Action de mémoire cache insuffisante sur l'une des valeurs suivantes :
Option
Erreur
Continuer
Description
Le logiciel génère une erreur et interrompt la transformation.
Le logiciel tente de poursuivre l'initialisation sans mise en mémoire cache.
16.6.2.8.4 Exécution de plusieurs jobs avec DPV
Lors de l'exécution de plusieurs jobs DPV et du chargement de répertoires dans la mémoire, il est recommandé d'ajouter une pause de 10 secondes entre les jobs pour laisser du temps à la mémoire pour se libérer. Pour plus d'informations pour effectuer correctement ce paramétrage, consultez le manuel de votre système d'exploitation.
Si vous n'ajoutez pas une pause de 10 secondes entre les jobs, il est possible que votre système n'ait pas assez de temps pour libérer la mémoire utilisée pour la mise en cache des répertoires à partir du premier job. Le prochain job en attente de traitement peut créer une erreur ou accéder aux répertoires
à partir du disque s'il n'y a pas assez de mémoire pour cacher les répertoires. Cela peut aboutir à une dégradation de la performance.
16.6.2.9 Informations DPV dans le rapport US Addressing Report
Le rapport US Addressing Report se génère automatiquement lorsque vous avez activé le reporting dans le job. Les sections suivantes du rapport US Addressing Report contiennent les informations
DPV :
• Codes de retour DPV
• Résumé Delivery Point Validation (DPV)
Pour plus d'informations sur le rapport US Addressing Report, ou sur d'autres rapports Data Quality, consultez le guide Management Console Guide.
Rubriques associées
• Guide Management Console : rapports Data Quality, US Addressing Report
573 2012-11-22
Qualité des données
574
16.6.2.10 Indicateurs Aucune statistiques DPV
L'USPS utilise les indicateurs Aucune statistique pour marquer les adresses qui rentrent dans la catégorie
Aucune statistique. Le logiciel utilise la table No Stats lorsque DPV ou DSF2 sont allumés dans le job.
L'USPS place les adresses sans statistique dans trois catégories :
• Les adresses qui n'ont pas encore de livraison établie.
• Les adresses qui reçoivent le courrier dans le cadre d'un dépôt.
• Les adresses qui ont été vacantes pendant une certaine durée.
16.6.2.10.1 Table No Stats
Vous devez installer la table No Statsdpv_no_stats.dir avant que le logiciel effectue le traitement
DPV ou DSF2. La table No Stats est fournie par SAP BusinessObjects avec l'installation du répertoire
DPV.
Le logiciel contrôle automatiquement la table No Stats dans le dossier du répertoire que vous avez indiqué dans la configuration du job. Le logiciel effectue le traitement DPV ou DSF2 en fonction du statut d'installation du répertoire.
dpv_no_stats.dir
Résultats
Installé
Le logiciel sort automatiquement les indicateurs Aucune statistique lorsque vous incluez le champ de sortie DPV_NoStats dans le job.
Non installé
Le logiciel ignore automatiquement le traitement Aucune statistique et n'émet pas un message d'erreur. Le logiciel effectue le traitement DPV mais ne renseigne pas le champ de sortie DPV_NoStats.
16.6.2.10.2 Champ de sortie Aucune statistique
Utilisez le champ de sortie DPV_NoStats pour enregistrer les informations de l'indicateur Aucune statistique dans un fichier de sortie.
Aucune statistique signifie que l'adresse est une propriété vacante, qu'elle reçoit du courrier dans le cadre d'un dépôt, ou qu'elle n'a pas encore de livraison établie.
Rubriques associées
•
2012-11-22
Qualité des données
16.6.2.11 Indicateurs Vacants DPV
Le logiciel fournit des informations sur les vacants dans les champs de sortie et des rapports à l'aide des nombres de vacants DPV. La table de recherche des vacants USPS DPV est fournie par SAP
BusinessObjects avec l'installation du répertoire DPV.
L'USPS utilise des indicateurs vacants DPV pour marquer les adresses qui rentrent dans la catégorie vacante. Le logiciel utilise les indicateurs vacants DPV lorsque vous avez activé DPV ou DSF2 dans le job.
Conseil :
L'USPS définit comme vacant tous les points de livraison qui étaient actifs dans le passé mais qui sont actuellement non occupés (généralement au-delà de 90 jours) et qui ne reçoivent actuellement aucune livraison de courrier. L'adresse pourrait recevoir une livraison à nouveau dans le futur. "Vacant" ne s'applique pas aux adresses saisonnières.
16.6.2.11.1 Champ de sortie de l'attribut d'adresse DPV
Les indicateurs vacants pour les adresses affectées sont disponibles dans le champ de sortie
DPV_Vacant.
Remarque :
Le rapport US Addressing Report contient des nombres de Vacant DPV dans la section Summary DPV.
Rubriques associées
•
• Guide Management Console : rapports Data Quality, US Addressing Report
16.6.3 LACSLink®
LACSLink est un produit USPS disponible pour les enregistrements des Etats-Unis, uniquement avec la transformation USA Regulatory Address Cleanse. Le traitement LACSLink est requis pour la certification CASS.
LACSLink met à jour les adresses lorsque l'adresse physique ne change pas, mais que l'adresse postale a été modifiée. Par exemple, lorsque la municipalité change les adresses de routes rurales en adresses de nom de rue. Les conversions de routes rurales facilitent la localisation des adresses rurales pour les personnels de la police, des pompiers, des ambulances et de la poste. LACSLink convertit également les adresses lorsque les rues sont renommées ou les boîtes postales renumérotées.
575 2012-11-22
Qualité des données
La technologie LACSLink garantit que les données restent privées et sécurisées tout en vous permettant un accès facile à celles-ci. LACSLink est une partie intégrée du traitement des adresses, ce n'est pas une étape supplémentaire. Pour obtenir les nouvelles adresses, vous devez déjà avoir les anciennes données d'adresses.
Rubriques associées
•
•
Contrôle de l'utilisation de la mémoire pour le traitement LACSLink
•
•
16.6.3.1 Avantages de LACSLink
Le traitement LACSLink est nécessaire pour tous les clients CASS.
Si vous traitez les données sans activer LACSLink, vous n'obtiendrez pas les rapports ou remises postales CASS souhaités.
16.6.3.2 Sécurité LACSLink
USPS a institué des processus qui surveillent l'utilisation de LACSLink. Chaque société qui achète la fonctionnalité LACSLink doit signer un contrat légal déclarant qu'elle ne tentera pas de faire un mauvais usage du produit LACSLink. Si un utilisateur abuse du produit LACSLink, USPS a le droit de lui interdire d'utiliser LACSLink à l'avenir.
16.6.3.2.1 Adresses avec faux positif LACSLink
USPS a inclus des adresses avec faux positif dans les répertoires LACSLink, mettant ainsi en place une sécurité supplémentaire pour éviter le détournement de LACSLink. Selon votre type d'utilisateur et vos codes de clé de licence, le progiciel adopte un comportement différent lorsqu'il rencontre une adresse avec faux positif. Le tableau suivant décrit les comportements pour chaque type d'utilisateur :
576 2012-11-22
Qualité des données
Type d'utilisateur
Utilisateurs finaux
Comportement du progiciel A consulter
Le traitement LACSLink s'interrompt.
Obtention du code de déblocage LAC
SLink auprès du support SAP BusinessObjects
Utilisateurs finaux disposant d'un accord Stop Processing Alternative
Le traitement LACSLink se poursuit.
Fournisseurs de services Le traitement LACSLink se poursuit.
Envoi des journaux de faux positifs à
USPS
Envoi des journaux de faux positifs à
USPS
Rubriques associées
•
•
Obtention d'un code de déblocage LACSLink de la part de SAP BusinessObjects
•
Envoi de journaux de faux positifs LACSLink au USPS
16.6.3.2.2 Journaux de faux positifs LACSLink
Le progiciel génère un fichier journal de faux positif chaque fois qu'il rencontre un enregistrement avec faux positif, quelle que soit la configuration de votre job. Un fichier journal distinct est créé pour chaque liste de diffusion contenant un faux positif. Si une liste de diffusion comporte plusieurs faux positifs, le progiciel les enregistre tous dans le même fichier journal.
Emplacement des fichiers journaux LACSLink
Le progiciel sauvegarde les fichiers journaux LACSLink dans le répertoire indiqué pour l'option Chemin
d'accès du journal USPS au niveau du groupe Fichiers de référence.
Remarque :
Le chemin d'accès aux journaux USPS que vous saisissez doit être accessible en écriture. Une erreur est générée si vous saisissez un chemin non accessible en écriture.
Dans le progiciel, les journaux de faux positifs sont nommés LACSLinklacsl###.log, ### correspondant à un nombre entre 001 et 999. Le premier fichier journal généré est, par exemple, lac sl001.log
, le suivant lacsl002.log, etc.
Remarque :
Si vous avez défini un degré de parallélisme supérieur à 1 pour le flux de données, le progiciel génère un journal par thread. Si le progiciel rencontre un enregistrement avec faux positif lors de l'exécution d'un job, un journal est généré. En revanche, s'il rencontre plusieurs enregistrements avec faux positif et que les enregistrements sont traités au niveau de plusieurs threads, le progiciel génère un journal pour chaque thread traitant un enregistrement avec faux positif.
Rubriques associées
• Guide d'optimisation de la performance : Using Parallel Execution
577 2012-11-22
Qualité des données
578
16.6.3.2.3 Blocage de LACSLink pour les utilisateurs finaux
Un tel blocage est pertinent pour les utilisateurs finaux ou les utilisateurs qui disposent d'une licence
DSF2 lorsque DSF2 est désactivé dans le job.
Lorsque le progiciel identifie une adresse avec faux positif, le traitement LACSLink est abandonné pour le reste du traitement du job. Le progiciel effectue les opérations suivantes :
• Il marque l'enregistrement comme adresse avec faux positif.
• Dans le journal des erreurs, il génère un message indiquant qu'une adresse avec faux positif LAC
SLink a été identifiée.
• Il indique l'adresse avec faux positif et le code de blocage dans le journal des erreurs.
• Il continue à traiter le flux de données sans le traitement LACSLink.
• Il génère un code de blocage.
• Il génère un journal des erreurs de faux positifs.
• Il génère un rapport US Regulatory Locking Report contenant l'adresse avec faux positif et le code de blocage (la création du rapport doit être activée dans la transformation USA Regulatory Address
Cleanse).
Pour restaurer la fonctionnalité LACSLink, l'utilisateur doit obtenir un code de déblocage LACSLink auprès du support SAP BusinessObjects.
16.6.3.2.4 Obtention d'un code de déblocage LACSLink de la part de SAP BusinessObjects
Ces étapes peuvent être appliquées pour des utilisateurs finaux ne disposant pas d'accord Stop
Processing Alternative avec l'USPS. Lorsque vous recevez un traitement de message indiquant que des adresses de faux positifs LACSLink figurent sur votre liste d'adresses, utilisez l'utilitaire de déblocage
SAP BusinessObjectsUSPS pour obtenir un code de déblocage.
1.
Naviguez jusqu'à https://websmp205.sap-ag.de/bosap-unlock pour ouvrir la page de l'utilitaire de déblocage SAP Service Market Place (SMP).
2.
Cliquez sur Retrieve USPS Unlock Code.
3.
Cliquez sur Search et sélectionnez un système applicable Data Services dans la liste.
4.
Saisissez le code de blocage trouvé dans le fichier lacsx.txt (l'emplacement est indiqué dans l'option LACSLink Path dans le groupe de fichiers de référence).
5.
Sélectionnez LACSLink comme type de blocage.
6.
Sélectionnez BOJ-EIM-DS comme composant.
7.
Saisissez l'adresse de blocage listée dans le fichier lacsx.txt.
8.
Joignez le fichier lacsl####.log (l'emplacement est indiqué dans l'option USPS Log Path dans le groupe de fichiers de référence).
9.
Cliquez sur Submit.
Le code de déblocage s'affiche.
10.
Copiez le code de déblocage et collez-le dans le fichier lacsw.txt, en remplaçant tous les contenus du fichier par le code de déblocage (l'emplacement est indiqué dans l'option LACSLink path dans le groupe de fichiers de référence).
2012-11-22
Qualité des données
11.
Supprimez l'enregistrement ayant causé le blocage de la base de données et le fichier lacsl####.log
avant de traiter à nouveau la liste.
Conseil :
N'oubliez pas que vous pouvez utiliser le code de déblocage une seule fois. Si le logiciel détecte un autre faux positif (même s'il s'agit du même enregistrement), vous devrez récupérer un nouveau code de déblocage LACSLink.
Remarque :
Si un code de déblocage n'a pas pu être généré, un message est de nouveau créé, il est traité par un ingénieur d'étude de l'Assurance client technique (pendant les heures d'ouverture normales).
Remarque :
Si vous êtes un utilisateur final disposant d'un accord Stop Processing Alternative, suivant les étapes relatives à l'envoi du journal de faux positifs au USPS.
16.6.3.2.5 Envoi de journaux de faux positifs LACSLink au USPS
Les prestataires de service doivent suivre ces étapes une fois qu'ils ont reçu un message de traitement indiquant que de fausses adresses positives LACSLink figurent dans leur liste d'adresses. Les utilisateurs finaux disposant d'un accord Stop Processing Alternative doivent suivre ces étapes une fois qu'ils ont reçu un traitement du message indiquant que de fausses adresses positives LACSLink figurent dans leur liste d'adresses.
1.
Envoyez un e-mail au USPS à l'adresse Dsf2stop@usps.gov. Incluez les éléments suivants :
• Saisissez “LACSLinkFaux positif” sur la ligne Objet
• Joignez le fichier lacsl###.log ou les fichiers générés par le logiciel (l'emplacement est indiqué dans l'option Fichiers journal UPS dans le groupe de fichiers de référence).
Le USPS NCSC utilise les informations pour déterminer si la liste peut être renvoyée à l'expéditeur ou pas.
2.
Une fois que USPS NCSC a validé la liste contenant l'enregistrement bloqué ou de faux positif :
• Supprimez le fichier journal ou les fichiers correspondants.
• Supprimez l'enregistrement qui a causé le blocage de la liste et retraitez le fichier.
Remarque :
Si vous êtes un utilisateur final qui ne dispose pas d'un accord Stop Processing Alternative, suivez les
étapes permettant de récupérer le code de déblocage LACSLink auprès du support SAP
BusinessObjects.
Rubriques associées
•
Obtention d'un code de déblocage LACSLink de la part de SAP BusinessObjects
16.6.3.3 Fonctionnement de LACSLink
579 2012-11-22
Qualité des données
LACSLink fournit une nouvelle adresse si elle existe. LACSLink suit ces étapes lors du traitement d'une adresse :
1.
La transformation USA Regulatory Address Cleanse standardise l'adresse d'entrée.
2.
La transformation recherche une adresse correspondante dans les données LACSLink.
3.
Si une correspondance est trouvée, la transformation édite l'adresse convertie en LACSLink et les autres informations LACSLink.
Rubriques associées
•
Contrôle de l'utilisation de la mémoire pour le traitement LACSLink
•
16.6.3.4 Conditions relatives au traitement des adresses
La transformation ne traite pas toutes les adresses à l'aide de LACSLink lorsque ce service est activé.
Voici les conditions en fonction desquelles vos données sont transmises au traitement LACSLink :
• L'adresse est disponible dans le répertoire d'adresses et elle est marquée en tant qu'enregistrement convertible LACS dans le répertoire d'adresses.
• L'adresse est disponible dans le répertoire d'adresses et bien qu'une affectation par défaut à un contrat d'itinéraire rural ou d'autoroute ait été effectuée, l'enregistrement n'a pas été marqué comme convertible LACS.
• L'adresse n'est pas disponible dans le répertoire d'adresses mais l'enregistrement contient suffisamment d'informations pour être envoyé à LACSLink.
Le tableau suivant affiche, par exemple, une adresse qui a été trouvée dans le répertoire d'adresses en tant qu'adresse convertible LACS.
Adresse d'origine Après conversion LACSLink
RR2 BOX 204
DU BOIS PA 15801
463 SHOWERS RD
DU BOIS PA 15801-66675
16.6.3.5 Modèle de configuration de transformation
580 2012-11-22
Qualité des données
Le traitement LACSLink est activé par défaut dans le modèle de configuration de transformation car il est nécessaire dans le cadre de la certification CASS. Le modèle de configuration de transformation se nomme USARegulatory_AddressCleanse ; il est disponible sous le groupe USA_Regulatory_Addre ss_Cleanse dans la bibliothèque d'objets.
16.6.3.6 Fichiers du répertoire LACSLink
SAP Business Objects livre les fichiers du répertoire LACSLink avec la mise à jour U.S. National
Directory. Les fichiers du répertoire LACSLink nécessitent environ 600 Mo d'espace supplémentaire sur le disque dur. Les répertoires LACSLink comprennent les éléments suivants :
• lacsw.txt
• lacsx.txt
• lacsy.ll
• lacsz.ll
Attention :
Les répertoires LACSLink doivent résider sur le disque dur, dans le même répertoire que les fichiers de prise en charge LACSLink. Ne renommez pas les fichiers. LACSLink ne fonctionnera pas si les noms des fichiers sont modifiés.
16.6.3.6.1 Expiration et mises à jour des répertoires
Les répertoires LACSLink expirent en 105 jours. Les répertoires LACSLink présentent la même date que les autres répertoires que vous utilisez à partir des répertoires U.S. National Directories.
16.6.3.7 Activation de LACSLink
Le service LACSLink est activé par défaut dans la transformation USA Regulatory Address Cleanse.
Si vous devez réactiver l'option, procédez comme suit :
1.
Ouvrez la transformation USA Regulatory Address Cleanse et sélectionnez l'onglet "Options".
2.
Développez le groupe Options de traitement.
3.
Sélectionnez Oui pour l'option Enable LACSLink.
4.
Saisissez le chemin d'accès LACSLink pour l'option LACSLink Path dans le groupe Fichiers de référence. Vous pouvez utiliser la variable de substitution $$RefFilesAddressCleanse si elle est configurée.
5.
Renseignez les champs requis dans le groupe Informations de licence USPS.
581 2012-11-22
Qualité des données
16.6.3.7.1 Informations à indiquer dans la configuration du job
Tous les utilisateurs qui se servent de LACSLink doivent indiquer les informations requises dans le groupe Informations de licence USPS. Les options suivantes doivent être traitées :
• Nom de la société du client
• Adresse de la société du client
• Localité de la société du client
• Région de la société du client
• Code postal de la société du client1
• Code postal de la société du client2
• Téléphone de la société du client
16.6.3.7.2 Pour désactiver LACSLink
Le service LACSLink est activé par défaut dans la configuration de la transformation USA Regulatory
Address Cleanse car il intervient dans le traitement CASS. Vous devez donc désactiver la certification
CASS afin de désactiver LACSLink.
1.
Dans la configuration de la transformation USA Regulatory Address Cleanse, ouvrez l'onglet "Options".
2.
Ouvrez le groupe Options non certifiées.
3.
Sélectionnez Oui pour l'option Désactiver la certification.
4.
Ouvrez le groupe Opération d'affectation.
5.
Sélectionnez Non pour l'option Enable LACSLink.
Rubriques associées
•
16.6.3.7.3 Motifs d'erreurs
Si certaines informations du groupe Informations de licence USPS sont absentes de votre job et que
DPV et/ou LACSLink est/sont activé(s) dans ce job, vous obtenez des messages d'erreur dans les cas suivants :
582 2012-11-22
Qualité des données
Motif de l'erreur
Options requises manquantes
Description
Lorsque la configuration de votre job ne comprend pas les paramètres obligatoires du groupe Informations de licence
USPS et que DPV et/ou LACSLink est/sont activé(s) dans ce job, le progiciel génère une erreur de vérification.
Répertoire de fichiers journaux non accessible en écriture
Si le chemin d'accès que vous avez indiqué pour l'option
Chemin d'accès au journal USPS dans le groupe Fichiers de référence n'est pas accessible en écriture, le progiciel génère une erreur.
16.6.3.8 Champs de sortie LACSLink
Plusieurs champs de sortie sont disponibles pour le reporting des résultats du traitement LACSLink.
Vous devez activer LACSLink et ajouter ces champs de sortie dans la configuration de votre job pour que le progiciel enregistre des informations dans ces champs.
Nom du champ Longueur Description
LACSLINK_QUERY 50
Retourne l'adresse avant conversion, uniquement complétée lorsque LACSLink est activé et qu'une recherche LAC
SLink a été tentée.
Cette adresse se présente au format USPS standard (conformément à l'USPS Publication 28). Cependant, lorsqu'une adresse possède à la fois un indicateur d'unité et une unité secondaire, l'indicateur est remplacé par le caractère “#”.
Non renseigné : aucune recherche LACSLink n'a été entreprise.
583 2012-11-22
Qualité des données
Nom du champ
LACSLINK_RETURN_CODE
Longueur
2
Description
Retourne le statut de correspondance pour le traitement
LACSLink :
A = correspondance de l'enregistrement LACSLink. Une adresse convertie est fournie dans les champs de données d'adresse.
00 = aucune correspondance et aucune adresse convertie.
09 = LACSLink a rapproché une adresse d'entrée d'une ancienne adresse correspondant à une adresse "high-rise default". Aucune nouvelle adresse n'est fournie.
14 = un enregistrement LAC
SLink a été identifié mais les données n'ont pas pu être converties en adresse livrable.
92 = une correspondance avec l'enregistrement LACSLi nk a été établie après suppression du numéro secondaire de l'adresse d'entrée.
Non renseigné = aucune recherche LACSLink n'a été entreprise.
584 2012-11-22
Qualité des données
Nom du champ
LACSLINK_INDICATOR
Longueur
1
Description
Retourne le statut de conversion des adresses traitées par
LACSLink.
Y = adresse convertie par
LACSLink (LACSLink_Return_Code a la valeur A).
N = adresse recherchée via
LACSLink mais non convertie.
F = adresse correspondant à un faux positif.
S = la conversion LACSLink a été effectuée mais les informations secondaires ont dû
être supprimées.
Non renseigné : aucune recherche LACSLink n'a été entreprise.
585
16.6.3.9 Contrôle de l'utilisation de la mémoire pour le traitement LACSLink
Les performances de la transformation s'améliorent considérablement si vous mettez en cache les répertoires LACSLink. Pour connaître l'espace disque requis en vue de la mise en cache des répertoires, consultez le document Supported Platforms disponible dans la section SAP BusinessObjects Support
> Documentation > Supported Platforms/PARs sur SAP Service Marketplace : http://ser vice.sap.com/bosap-support .
Si vous ne disposez pas de la mémoire système adéquate pour chager les répertoires LACSLink et que le paramètre Action de mémoire cache insuffisante a la valeur Erreur, un message d'erreur de vérification est affiché lors de l'exécution et la transformation s'interrompt. Si vous sélectionnez l'option
Continuer, la transformation tente de poursuivre le traitement LACSLink sans mise en cache.
Ouvrez l'onglet "Options" de la configuration de la transformation USA Regulatory Address Cleanse dans votre flux de données. Pour charger les répertoires LACSLink dans la mémoire système, procédez comme suit :
1.
Ouvrez le groupe d'options Performance de la transformation.
2.
Sélectionnez Oui pour l'option Cache LACSLink Directories.
2012-11-22
Qualité des données
Rubriques associées
•
16.6.3.10 Informations LACSLink dans le document US Addressing Report
Le document US Addressing Report est généré automatiquement lorsque le reporting est activé dans le job. Le tableau suivant énumère les sections LACSLink du document US Addressing Report :
Section Informations
Locatable Address Conversion
(LACSLink) Summary
Enregistre le nombre et le pourcentage pour les informations suivantes :
• Adresses converties LACSLink
• Adresses non converties LACSLink
Codes de retour LACSLink Enregistre le nombre et le pourcentage pour les informations suivantes :
• Converted
• Secondary dropped
• No match
• Can't convert
• High-rise default
16.6.3.11 USPS Form 3553
Le formulaire USPS Form 3553 indique le comptage LACSLink. Le champ LACS/LACSLink affiche le nombre d'enregistrements qui possèdent un indicateur LACSLink Y ou S si le traitement LACSLink est activé. Si le traitement LACSLink n'est pas activé, ce champ affiche la valeur du comptage des codes
LACS.
16.6.4 SuiteLink™
SuiteLink est une option de la transformation USA Regulatory Address Cleanse.
586 2012-11-22
Qualité des données
SuiteLink utilise un répertoire USPS contenant plusieurs fichiers d'informations sur des adresses indexées, par exemple les numéros secondaires et les désignations d'unité pour des emplacements identifiés comme bâtiments par défaut.
SuiteLink vous permet de créer des adresses actualisées et complètes en ajoutant des numéros de suite aux adresses commerciales de bâtiment. Avec les informations secondaires relatives à l'adresse ajoutée à vos adresses, la majorité de vos pièces sont triées par séquence de livraison et livrées rapidement avec précision.
SuiteLink est requis pour CASS
SuiteLink est requis pour un traitement en mode CASS (et la valeur Non est attribuée à l'option
Désactiver la certification). Si vous avez désactivé SuiteLink dans votre configuration de job mais que vous êtes en mode CASS, un message d'erreur est émis et le traitement est interrompu.
16.6.4.1 Avantages deSuiteLink
Pour les entreprises qui dépendent d'un site Web, d'e-mail ou de commandes au point de vente, Suite
Link est un remarquable outil permettant de faire des économies. Il en est de même pour les entreprises dont les clients habitent dans des bâtiments avec activités multiples qui apprécieront d'avoir leurs documents marketing, leurs extraits de compte et leurs commandes livrés à proximité.
Les informations relatives au numéro secondaire de vos adresses permettent un séquencement de la livraison plus performant et à moindre coût ainsi que des remises sur le port.
Remarque :
SuiteLink permet de préparer des listes de mailing conformes à CASS.
16.6.4.2 Comment fonctionne SuiteLink
Le logiciel utilise les données des répertoires SuiteLink pour ajouter des numéros de suite aux adresses applicables. Le logiciel fait correspondre le nom d'une société, l'adresse d'un bâtiment et le code postal2 certifié CASS de votre base de données aux données du SuiteLink. Lorsqu'il y a une correspondance, le logiciel crée une adresse professionnelle complète contenant le numéro de suite.
Exemple : Affectez un numéro de suite
Cet exemple présente un enregistrement traité via SuiteLink et l'enregistrement de sortie avec le numéro de suite affecté.
L'enregistrement d'entrée contient les éléments suivants :
• Nom de la société (dans le champ d'entrée SOCIETE)
587 2012-11-22
Qualité des données
• Adresse de bâtiment connue
• Code postal2 certifié CASS
Le répertoire SuiteLink contient les éléments suivants :
• les numéros de l'adresse secondaire
• les désignations de l'unité
L'enregistrement de sortie contient les éléments suivants :
• le numéro de suite correct
l'enregistrement d'entrée
Telera
910 E Hamilton Ave Fl2
Campbell CA 95008 0610
l'enregistrement de sortie
TELERA
910 E HAMILTON AVE STE 200
CAMPBELL CA 95008 0625
16.6.4.3 Répertoire SuiteLink
Le répertoire SuiteLink est distribué mensuellement.
Vous devez utiliser des répertoires SuiteLink avec un répertoire zip4us.dir pour le même mois.
(Saisissez le chemin zip4us.dir dans l'option Répertoire d'adresses1 du groupe de fichiers de référence dans la transformation USA Regulatory Address Cleanse .) Par exemple, le répertoire Suite
Link Décembre 2011 peut être utilisé avec uniquement le répertoire zip4us.dir Décembre 2011.
Vous ne pouvez pas utiliser un répertoire SuiteLink datant de plus de 60 jours à partir de sa date de validation. Le logiciel vous prévient 15 jours avant l'expiration du répertoire. Comme dans le cas de tous les répertoires, le logiciel ne traite pas vos enregistrements avec un répertoire SuiteLink qui a expiré.
16.6.4.4 Activation SuiteLink
588 2012-11-22
Qualité des données
SuiteLink est activé par défaut dans toute configuration d'exemple de transformation définie conformément à CASS (et l'option Désactiver la certification est activée sur Non). Par exemple, SuiteLink est activé si vous utilisez la configuration d'exemple de transformation USA Regulatory_AddressCleanse.
1.
Ouvrez la transformation USA Regulatory Address Cleanse dans votre flux de données.
2.
Ouvrez l'onglet "Options".
3.
Développez le groupe Opération d'affectation et activez l'option Enable SuiteLink sur Oui.
4.
Dans le groupe de fichiers de référence, saisissez le chemin d'accès au répertoire SuiteLink dans l'option SuiteLink Path. Vous pouvez utiliser la variable de substitution $$RefFilesAddressCleanse si vous l'avez configurée avec l'emplacement de répertoire contenant vos répertoires SuiteLink.
5.
Facultatif : dans le groupe d'option Transform Performance, activez l'option Cache SuiteLink
Directories sur Oui de telle sorte que les répertoires SuiteLink soient mis en mémoire cache dans la mémoire.
Remarque :
Vérifiez que vous avez une mémoire RAM suffisante pour pouvoir mettre en mémoire cache les répertoires SuiteLink avant d'activer cette option.
16.6.4.5 Une vitesse de traitement plus rapide
Vous pouvez augmenter la vitesse de traitement de SuiteLink en chargeant les répertoires SuiteLink dans la mémoire. Pour activer cette option, accédez au groupe Performance de transformation et activez les Cache SuiteLink Directories sur Oui.
16.6.4.6 SuiteLink Codes de retour dans l'US Addressing Report
Les informations relatives au code de retour SuiteLink sont disponibles dans la section Codes retour
SuiteLink du US Addressing Report.
L'US Addressing Report indique le nombre d'enregistrements et le pourcentage pour les codes retour suivants :
A = Des données secondaires existent et une affectation est effectuée
00 = Une recherche a été tentée mais aucune affectation
16.6.5 USPS DSF2®
589 2012-11-22
Qualité des données
DSF2 est un produit avec une licence USPS que vous pouvez utiliser pour valider les adresses, ajouter des informations de séquence de livraison, et ajouter des attributs d'adresse DSF2 aux adresses.
Il existe deux fonctionnalités DSF2 qui sont prises en charge par Data Services :
• DSF2 Augment dans la transformation USA Regulatory Address Cleanse
• Walk Sequence de DSF2 dans la transformation DSF2 Walk Sequencer
Remarque :
Les données USPS DSF2 sont disponibles uniquement pour les licenciés USPS certifiés par DSF2.
Rubriques associées
•
16.6.5.1 Validation des adresses
DSF2 aide à réduire la quantité de plis non distribuables (PND) et garde des prix de publipostage bas.
DSF2 utilise DPV® pour valider les adresses et identifier les adresses non précises ou incomplètes.
Rubriques associées
•
16.6.5.2 Ajout d'attributs d'adresse
DSF2 ajoute des attributs d'adresse (informations sur les adresses) à vos données. Utilisez les informations des attributs pour créer des publipostages plus ciblés.
590
16.6.5.3 Ajout d'informations de séquence de livraison
DSF2 ajoute des informations de séquence de livraison aux données, qu'il est possible d'utiliser pour remplir les conditions des remises de séquence de tour. Ces informations sont parfois appelées "walk sequencing" (séquencement de tournée) ou "pseudo sequencing" (pseudo séquencement).
Rubriques associées
•
•
2012-11-22
Qualité des données
16.6.5.4 Avantages de DSF2
Tous ceux qui souhaitent cibler leur courrier vers des types spécifiques d'adresses, et ceux qui souhaitent gagner des remises postales supplémentaires apprécieront ce que DSF2 peut effectuer.
Les données d'attributs d'adresses DSF2 dotent les expéditeurs de la connaissance sur les adresses supérieure et inférieure à ce qui est nécessaire pour mettre précisément en forme les adresses. Les données d'attributs d'adresse permettent aux expéditeurs de produire plus de publipostage ciblé.
Par exemple, si vous prévoyez d'envoyer un bon pour votre entreprise de services d'entretien de pelouse, vous ne souhaitez pas l'envoyer aux personnes habitant dans un appartement (elles n'ont sûrement pas de pelouse). Vous souhaitez que votre bon soit envoyé à des adresses résidentielles ne se situant pas dans des immeubles d'habitation.
Avec les informations DSF2, il est possible de faire une tournée de vos publipostages pour obtenir les meilleures remises postales possibles grâce à l'utilisation de la transformation DSF2 Walk Sequencer.
16.6.5.5 Devenir un licencié DSF2
Avant de pouvoir effectuer le traitement DSF2 dans le logiciel, vous devez terminer les procédures de certification USPS DSF2 et obtenir la licence de l'USPS.
Une partir de la certification consiste à traiter les jobs test dans Data Services pour prouver que le logiciel est conforme au contrat de licence. Lorsque vous êtes prêts à effectuer ces tests, contactez l'assistance des utilisateurs professionnels SAP BusinessObjects pour obtenir l'accès aux fonctionnalités
DSF2 dans Data Services.
Rubriques associées
•
16.6.5.6 Répertoires DSF2
Le traitement DSF2 exige les données suivantes :
591 2012-11-22
Qualité des données
Données
Répertoires DPV
Répertoires eLOT
Tables DSF2
Notes
Le logiciel utilise les répertoires DPV pour vérifier les adresses et identifier les adresses inexactes. SAP BusinessObjects fournit les répertoires DPV avec la livraison du répertoire national des Etats-
Unis.
Remarque :
Les répertoires DPV sont inclus avec les tables DSF2. N'utilisez pas les répertoires DPV inclus dans les tables DSF2. Utilisez les répertoires DPV de SAP BusinessObjects avec la livraison du répertoire national des Etats-Unis.
Le logiciel utilise les répertoires eLOT pour affecter des numéros de tournée. SAP BusinessObjects fournit les répertoires eLOT avec la livraison du répertoire national des Etats-Unis.
Remarque :
Les répertoires eLOT sont inclus avec les tables DSF2. N'utilisez pas les répertoires eLOT inclus avec les tables DSF2. Utilisez les répertoires eLOT de SAP BusinessObjects avec la livraison du répertoire national des Etats-Unis.
Le logiciel utilise les tables DSF2 pour affecter des attributs d'adresse.
Remarque :
Les tables DSF2 sont fournies par le USPS et non pas par SAP BusinessObjects. De plus, les tables DSF2 incluent les répertoires DPV et eLOT. N'utilisez pas les répertoires DPV et eLOT inclus avec les tables DSF2. Utilisez les répertoires DPV et eLOT de SAP BusinessObjects avec la livraison du répertoire national des Etats-Unis.
Fichier de statistiques de livraisons
Le logiciel utilise le fichier de statistiques de livraison pour fournir des nombres d'adresses commerciales et résidentielles par ZIP Code
(Code postal1) par itinéraire du facteur (code de tri). SAP BusinessObjects fournit le fichier de statistiques de livraison avec la livraison du répertoire national des Etats-Unis.
Vous devez indiquer l'emplacement de ces fichiers de répertoires dans la transformation USA Regulatory
Address Cleanse, excepté pour le fichier de statistiques de livraison. Définissez l'emplacement du fichier de statistiques de livraison (dsf.dir) dans la transformation DSF2 Walk Sequencer. Pour remplir les conditions DSF2, vous devez également installer tous les mois des répertoires mis à jour.
592 2012-11-22
Qualité des données
593
16.6.5.7 Traitement DSF2 Augment
Configurez le traitement DSF2 Augment dans la transformation USA Regulatory Address Cleanse.
Le traitement DSF2 exige des informations DPV ; par conséquent, activez le DPV dans la configuration du job.
Si vous prévoyez d'utiliser les informations de sortie du traitement Augment de DSF2 pour le traitement de tournée, vous devez également activer eLOT.
Remarque :
DSF2 Augment est disponible uniquement en mode batch. Il est impossible d'ajouter des informations
Augment à vos données en temps réel.
16.6.5.7.1 Expiration des répertoires DSF2 Augment
Les répertoires DSF2 sont distribués tous les mois. Vous devez utiliser les répertoires DSF2 avec les répertoires nationaux des Etats-Unis qui sont étiquetés pour le même mois. Par exemple, les répertoires
DSF2 Mai 2011 peuvent uniquement être utilisés avec les répertoires nationaux Mai 2011.
Les données DSF2 Augment expirent en 60 jours au lieu de l'expiration en 105 jours pour les répertoires nationaux des Etats-Unis. Du fait que tous les répertoires doivent avoir la même date de base
(MM/AAAA), les utilisateurs DSF2 pour lesquels l'option Activer DSF2 Augment est définie sur Oui doivent mettre à jour tous les répertoires nationaux des Etats-Unis et les autres répertoires qu'ils utilisent
(LACSLink ou DPV, par exemple) en même temps que les répertoires DSF2 Augment. Le logiciel rappelle aux utilisateurs de mettre à jour les répertoires par un message d'avertissement qui apparait
15 jours avant que le répertoire expire.
Rappel :
Comme avec tous les répertoires, le logiciel ne traite pas les enregistrements avec des répertoires
DSF2 expirés.
16.6.5.7.2 Identification du licencié DSF2
Lorsque vous effectuez un traitement DSF2, vous devez fournir les informations suivantes : la société avec la licence DSF2 et le client pour lequel la société traite le job.
Vous devez compléter les options suivantes dans le groupe Informations de licence USPS pour le traitement DSF2 :
• ID du licencié DSF2
• Nom du licencié
• List Owner NAICS Code
• ID de liste
• Nom de la société du client
2012-11-22
Qualité des données
594
• Adresse de la société du client
• Localité de la société du client
• Région de la société du client
• Code postal de la société du client1
• Code postal de la société du client2
• Date de réception de la liste
• Date de retour de la liste
Remarque :
Si vous effectuez des traitements DSF2 et NCOALink dans la même instance de la transformation USA
Regulatory Address Cleanse, alors les informations que vous saisissez dans le groupe Informations de la licence USPS doivent s'appliquer aux traitements DSF2 et NCOALink. Si, par exemple, l'ID de
liste est différent pour le DSF2 et le NCOALink, vous devez inclure deux transformations USA Regulatory
Address Cleanse : l'une pour NCOALink et l'autre pour DSF2.
16.6.5.7.3 Activer Augment de DSF2
Avant de pouvoir traiter avec DSF2, vous devez d'abord devenir un licencié certifié.
En plus des informations requises sur la société du client que vous avez saisies dans le groupe
Informations de licence USPS, définissez les options suivantes pour effectuer un traitement DSF2
Augment :
1.
Dans la transformation USA Regulatory Address Cleanse, ouvrez l'onglet "Options".
2.
Développez le groupe Rapport et analyses et définissez l'option Générer les données de rapport sur Oui.
3.
Développez le groupe Fichiers de référence et saisissez le chemin pour les options Chemin d'accès
de Augment de DSF2, Chemin d'accès de DPV, et Répertoire eLOT, ou utilisez la variable de substitution $$RefFilesAddressCleanse si vous l'avez configurée.
4.
Dans le groupe Fichiers de référence également, saisissez un chemin pour l'option Chemin d'accès
du journal USPS, ou utilisez la variable de substitution $$CertificationLogPath si vous l'avez configurée.
5.
Facultatif. Développez le groupe Performance de la transformation et définissez les options Cache
DPV Directories et Cache DSF2 Augment Directories sur Oui.
6.
Développez le groupe Opérations d'affectation et définissez les options Enable DSF2 Augment,
Enable DPV, et Enable eLOT sur Oui.
7.
Incluez les champs de sortie des attributs d'adresse DSF2 dans la configuration du fichier de sortie
16.6.5.7.4 Champs de sortie DSF2
Lorsque vous effectuer un traitement DSF2 Augment dans le logiciel, les attributs d'adresse sont disponibles dans les champs de sortie suivants pour chaque adresse qui a été affectée. Assurez-vous d'inclure les champs qui contiennent les informations nécessaires pour la configuration du fichier de sortie :
• Indicateur_Gestion_DSF2
• Type_Livraison_DSF2
• Nombre_Dépôts_DSF2
2012-11-22
Qualité des données
595
• Dépôt_Indicateur_DSF2
• Indicateur_Educationnel_DSF2
• Indicateur_Conversion_LCAS_DSF2
• Type_Enregistrement_DSF2
• Indicateur_Saisonnier_DSF2
• Indicateur_Rejet_DSF2
Remarque :
Une sortie vide dans l'un de ces champs signifie que l'adresse n'a pas été recherchée dans les répertoires
DSF2.
Rubriques associées
• Guide de référence : champs Data Quality, champs USA Regulatory Address Cleanse
16.6.5.7.5 Amélioration de la vitesse de traitement
Il est possible de cacher les données DSF2 pour améliorer la vitesse du traitement DSF2.
Pour cacher les données DSF2, définissez l'option Cache DSF2 Augment Directories dans le groupe
Performance de la transformation sur Oui. Le logiciel cache uniquement les répertoires nécessaires pour l'ajout d'attributs d'adresse.
16.6.5.8 Walk sequencing de DSF2
Lorsque vous exécutez le Walk sequencing de DSF2 dans le progiciel, celui-ci ajoute à vos données des informations de tournée de distribution que vous pouvez utiliser avec le logiciel de tri préalable pour bénéficier de remises sur les tournées.
Rappel :
Le logiciel ne place pas les données dans un ordre de tournée.
Incluez la transformation DSF2 Walk Sequencer pour permettre le séquencement de tournée.
Rubriques associées
• Guide de référence : transformations Data Quality, Walk Sequencer de DSF2®
16.6.5.8.1 Pseudo séquencement
Walk sequencing de DSF2 est souvent appelé "pseudo sequencing" (pseudo séquencement) car il imite le séquencement de tournée d'USPS. Là où les numéros de tournée d'USPS couvrent toutes les adresses, le traitement DSF2 fournit des numéros de pseudo séquencement uniquement pour les adresses dans ce fichier particulier.
2012-11-22
Qualité des données
596
Le logiciel utilise les données DSF2 pour affecter des numéros de séquence pour toutes les adresses qui sont des points de livraison confirmés par DPV (Statut_DPV = Y). Les autres adresses présentes dans le fichier de sortie qui ne sont pas des points de livraisons valides confirmés par DPV (Statut_DPV
=S, N ou D) reçoivent le numéro de séquence "0000". Toutes les autres adresses ont un numéro de séquence vide.
Remarque :
Lorsque vous réalisez une tournée pour le courrier avec le logiciel, souvenez-vous des points suivants :
• Batch uniquement : Walk sequencing de DSF2 est disponible uniquement en mode batch. Il est impossible d'affecter des numéros de séquence en temps réel.
• Retraiter si vous avez effectué des modifications de fichier. Si les données sont modifiées de quelque façon que ce soit, vous devez réaffecter des numéros de séquence. Les numéros de séquence sont uniquement valides pour le fichier de données au moment où vous le traitez.
16.6.5.9 Création de clé de décomposition
Les clés de décomposition créent des groupes gérables de données. Elles sont créées lorsqu'il y a deux champs ou plus à comparer.
La transformation DSF2 Walk Sequencer forme automatiquement des groupes de décomposition avant d'ajouter des informations de tournée aux données. Le logiciel crée des groupes de décomposition en fonction des champs Code postal1 et Itinéraire_par_code_de_tri.
Définissez les options pour que le logiciel configure comme vous le souhaitez les champs dans le groupe Configuration de collection de données. Le fait de conserver les paramètres par défaut optimise le flux de données et permet au logiciel de rendre les clés de décomposition cohérentes dans toutes les données.
2012-11-22
Qualité des données
Option
Remplacer les valeurs nulles par un espace
Remplir la chaîne à droite par un espace
Valeur par défaut
Oui
Oui
597
16.6.5.10 Activation du Walk Sequencing de DSF2
Pour activer la tournée DSF2, incluez la transformation DSF2 Walk Sequencer dans le flux de données.
16.6.5.10.1 Informations requises
Lorsque vous configurez le traitement de tournée DSF2, les options suivantes dans le groupe
Informations de licence USPS sont requises :
• Nom du licencié
• ID du licencié DSF2
• ID de liste
16.6.5.10.2 Activer le Walk sequencing de DSF2
Le fichier d'entrée pour la transformation DSF2 Walk Sequencer doit avoir été pré-traité avec le logiciel certifié par CASS (tel que la transformation USA Regulatory Address Cleanse). Pour obtenir une remise postale supplémentaire, incluez les informations du champs de sortie Indicateur_Commercial_DSF2 à partir du logiciel certifié par CASS.
En plus des champs Information de licence USPS requis, effectuez les paramétrages suivants dans la transformation DSF2 Walk Sequencer :
1.
Facultatif. Sélectionnez Oui ou Non dans l'option Exécuter en tant que processus distinct dans le groupe Commun. Sélectionnez Non si vous regroupez des statistiques DSF2. Sélectionnez Oui pour enregistrer le temps de traitement (si vous n'avez pas besoin des statistiques DSF2).
2.
Saisissez le chemin du fichier et le nom du fichier (dsf.dir) dans le répertoire Statistiques de livraison dans l'option Répertoire Delstats dans le groupe Fichiers de référence. Vous pouvez utiliser le paramètre de substitution $$RefFilesAddressCleanse si vous l'avez configuré.
3.
Saisissez l'emplacement du site de traitement dans l'option Emplacement du site du groupe Options de traitement. Cette option s'applique uniquement si vous disposez de plus d'un emplacement de site pour le traitement DSF2.
4.
Effectuez les paramétrages suivants dans le groupe Configuration de la collection de données :
• Sélectionnez Oui ou Non dans l'option Remplacer les valeurs nulles par un espace selon vos préférences.
2012-11-22
Qualité des données
• Sélectionnez Oui ou Non dans l'option Remplir la chaîne à droite par un espace selon vos préférences.
• Sélectionnez Oui ou Non dans l'option Données pré-triées (facultatif). Nous recommandons de conserver le paramètre par défaut Non pour que Data Services trie les données en fonction des champs de la clé de décomposition (au lieu d'utiliser un autre programme logiciel).
16.6.5.11 Champs d'entrée de la tournée DSF2
Ci-dessous se trouve une liste des champs d'entrée de la tournée DSF2.
Remarque :
Ces champs doivent avoir été sortis du traitement du logiciel certifié par CASS avant de pouvoir être utilisés comme entrées pour la transformation DSF2 Walk Sequencer :
• Code postal1
• Code postal2
• Itinéraire_par_code_de_tri
• LOT
• Ordre_LOT
• Point_de_Livraison
• DPV_Status
• Indicateur_Gestion_DSF2 (facultatif)
Le logiciel utilise les informations de ces champs pour déterminer la façon dont les enregistrements doivent être organisés (classés en fonction de la tournée) s'ils ont été utilisés dans une liste de diffusion.
Le logiciel ne modifie pas physiquement l'ordre de la base de données. Le logiciel affecte des numéros de tournée à chaque enregistrement en fonction des informations qu'il a regroupées à partir de ces champs d'entrée.
Remarque :
Tous les champs sont requis excepté le champ Indicateur_Gestion_DSF2.
Le champ facultatif Indicateur_Gestion_DSF2 aide le logiciel à déterminer si l'enregistrement remplit les conditions pour les remises de saturation. Les remises de saturation sont déterminées par le pourcentage d'adresses résidentielles dans chaque itinéraire de transporteur. Consultez le USPS
Domestic Mail Manual pour plus de détails sur tous les aspects du publipostage commercial et des remises de tri.
Rubriques associées
• Guide de référence : transformations, Walk Sequencer de DSF2®, champs d'entrée
598 2012-11-22
Qualité des données
16.6.5.12 Champs de sortie de tournée DSF2
Le logiciel sort les informations sur les numéros de tournée vers les champs suivants :
• Remise_Livr_Active
• Remise_Sat_Residentielle
• Remise_Itinéraire_par_code_tri
• Remise_tournée
• Numéro_tournée
Rubriques associées
• Guide de référence : champs Data Quality, Walk Sequencer de DSF2, champs de sortie Walk
Sequencer de DSF2
599
16.6.5.13 Reporting DSF2
Il existe des rapports et des fichiers journaux générés par le logiciel pour Augment et Walk sequencing de DSF2.
Trouvez les informations complètes sur ces rapports et fichiers journaux dans le guide
Management
Console Guide.
Rapport Delivery Sequence Invoice
L'USPS exige que vous soumettiez le rapport Delivery Sequence Invoice si vous demandez des remises de tournée DSF2 pour ce job.
US Addressing Report
• Le rapport US Addressing Report est généré par la transformation USA Regulatory Address Cleanse.
• Les sections Second Generation Delivery Sequence File Summary et Address Delivery Types du
US Addressing Report affichent les nombres et pourcentages des adresses dans le fichier qui correspondent aux différentes catégories DSF2 (si NCOALink est activé). Les informations sont listées pour les pré-traitement et post-traitement NCOALink.
Fichier journal de statistiques DSF2 Augment
L'USPS exige que les licenciés DSF2 enregistrent les informations sur leurs traitements dans le fichier journal DSF2. L'USPS détermine les contenus du fichier journal DSF2 et exige que vous les lui soumettiez une fois par mois.
Les fichiers journaux sont à la disposition des utilisateurs avec les autorisations de l'administrateur et de l'opérateur.
2012-11-22
Qualité des données
Rubriques associées
• Guide Management Console Guide : administrateur, gestion de l'administrateur, exportation de journal de certification DSF2
• Guide Management Console Guide : rapports de qualité des données, rapport Delivery Sequence
Invoice
• Guide Management Console Guide : rapports Data Quality, US Addressing Report
16.6.5.13.1 Fichier journal des statistiques de DSF2 Augment
Le fichier journal de statistiques DSF2 Augment est stocké dans le référentiel. Le logiciel génère le fichier journal dans le référentiel dans lequel il est possible de les exporter à l'aide de Data Services
Management Console (pour administrateurs et opérateurs uniquement).
Le format du nom pour le fichier journal est le suivant :
[ID_licencié_DSF2][mm][aa].dat
L'USPS détermine les contenus du fichier journal DSF2 et exige que vous les lui soumettiez une fois par mois. Pour plus de détails, lisez le document
Conditions requises en matière de performances du licencié DSF2, qui est disponible sur le site internet de USPS RIBBS ( http://ribbs.usps.gov/dsf2/docu ments/tech_guides ).
Vous devez soumettre le fichier journal DSF2 à l'USPS par courrier électronique le troisième jour ouvrable de chaque mois.
Rétention du fichier journal et suppression automatique
Vous devez soumettre tous les mois le fichier journal de statistiques Augment à l'USPS. Le logiciel supprime les fichiers journaux sur une base périodique (30 jours par défaut), qui peut être contrôlée par les paramètres d'application de Data Services dans le Central Management Console. Pour éviter de perdre les informations du journal mensuellement, définissez la Période de rétention de l'historique
à plus de 31 jours (nous recommandons un paramètre de 50 jours).
En plus d'envoyer tous les mois les fichiers journaux à l'USPS, vos données doivent être disponibles durant quelques années après le traitement du job pour que l'USPS les examine. (Assurez-vous d'être informé des règles d'USPS actuelles pour la rétention des données en contrôlant le contrat de licence
USPS). Pour garantir que vous conservez tous les rapports et les journaux requis avant que les données soient supprimées du référentiel, il est recommandé d'exporter les rapports et journaux requis du référentiel vers un dossier local mensuellement. Cette opération empêche également que les contenus du référentiel deviennent si volumineux que le processus d'exportation “expire” à cause du volume de statistiques conservées.
Rubriques associées
• Administrators Guide: USPS log files and reports
• Administrators Guide: Setting the history retention period
600 2012-11-22
Qualité des données
16.6.6 Vue d'ensemble de NCOALink®
Le standard Move Update de l'USPS permet aux utilisateurs et à l'USPS de réduire le nombre d'enregistrements renvoyés en raison d'une adresse obsolète. NCOALink s'inscrit dans cette optique.
La mise à jour de déplacements représente le processus de contrôle des adresses dans la base de données NCOA (National Change of Address) permettant de garantir la mise à jour des données avec les adresses actuelles.
Lors du traitement des données avec NCOALink, vous mettez à jour les enregistrements de particuliers ou de sociétés ayant déménagé et rempli un formulaire COA (Change of Address) avec l'USPS. Les autres programmes inclus dans Move Update et pris en charge dans la transformation USA Regulatory
Address Cleanse comprennent notamment ANKLink® et SuiteLink®.
L'USPS exige la conformité de vos listes avec les standards Move Update afin de qualifier des tarifs postaux préférentiels pour les courriers prioritaires pré-triés. Vous pouvez répondre à cette exigence grâce au processus NCOALink.
Remarque :
Mover ID représente le nom sous lequel SAP BusinessObjects Data Services est certifié pour NCOA
Link.
Rubriques associées
•
•
16.6.6.1 Importance de la mise à jour des déplacements
L'USPS exige la mise à jour des déplacements pour tous les courriers prioritaires pré-triés. Pour aider les expéditeurs à répondre à cette exigence, l'USPS propose certaines options, notamment NCOALink.
La rétention d'informations d'adresse précises de vos contacts implique l'utilisation d'une méthode de l'USPS afin de recevoir les nouvelles adresses de vos contacts. La mise à jour des déplacements s'avère non seulement une pratique commerciale avisée, mais elle est également requise pour tous les expéditeurs prioritaires souhaitant des taux de prétriage ou d'automatisation. L'USPS développant ses exigences en matière de mise à jour des déplacements et renforçant les réglementations existantes, la mise à jour des déplacements deviendra de plus en plus importante.
Rubriques associées
•
601 2012-11-22
Qualité des données
602
16.6.6.2 Avantages de NCOALink
L'utilisation de NCOALink dans la transformation USA Regulatory Address Cleanse permet de mettre
à jour les adresses de vos listes avec les dernières données de déplacement. NCOALink permet de :
• Améliorer la remise du courrier.
• Réduire le coût et le temps nécessaires au transfert du courrier.
• Répondre aux exigences de l'USPS en matière de mise à jour de déplacements pour le courrier prioritaire pré-trié.
• Se préparer à une possible extension des exigences en matière de mise à jour de déplacement.
16.6.6.3 Fonctionnement de NCOALink
Lorsque le traitement des adresses avec NCOALink est activé, le progiciel suit les étapes suivantes :
1.
La transformation USA Regulatory Address Cleanse standardise les adresses d'entrée. NCOALink nécessite des données d'adresses standardisées et analysées en tant qu'entrées.
2.
Le progiciel recherche dans la base de données NCOALink les enregistrements correspondant à vos enregistrements standardisés et analysés.
3.
Si une correspondance est trouvée, le progiciel reçoit les informations de déplacement, notamment la nouvelle adresse, le cas échéant.
4.
Le progiciel recherche les enregistrements de déplacement renvoyés de la base de données
NCOALink afin d'affecter des codes postaux et autres codes.
5.
Selon la sélection de classe de champ, le fichier de sortie contient :
• L'adresse d'entrée originale. Il s'agit des valeurs complètes et correctes présentes dans les répertoires, standardisées selon toute définition configurée dans le groupe Options de standardisation dans l'onglet Options. (CORRECT)
• Il s'agit des composants d'adresse mis à jour avec les données d'adresses contenant les mises
à jour de déplacement.(DEMENAGEMENT MIS A JOUR)
Remarque :
La transformation recherche les informations d'adresses contenant des déplacements mis à jour dans les Répertoires d'adresses nationaux américains. Lorsque l'adresse de déplacement mis
à jour est introuvable dans les répertoires d'adresses nationaux américains, le progiciel remplit les champs Déplacement mis à jour avec les informations trouvées dans les répertoires Move
Update uniquement. Les champs Déplacement mis à jour remplis suite à la standardisation des répertoires d'adresses nationaux américains ne seront pas mis à jour.
• Il s'agit des données d'adresses avec déplacement mis à jour si elles existent et correspondent aux répertoires d'adresses nationaux américains. Le champ peut aussi contenir les données
2012-11-22
Qualité des données d'adresses originales si aucun déplacement n'existe ou s'il ne correspond pas aux répertoires d'adresses nationaux américains. (MEILLEUR)
Selon la définition de l'option Appliquer déplacement aux champs standardisés dans le groupe
NCOALink, les composants standardisés peuvent contenir des adresses originales ou avec les déplacements mis à jour.
6.
Le progiciel génère les rapports et fichiers journaux requis pour la conformité USPS.
Exemple :
603
1.
NCOALink nécessite des données d'adresses standardisés et analysées en tant qu'entrées. Ainsi, avant d'effectuer le traitement de NCOALink, le progiciel exécute son traitement normal des données d'adresses.
2.
Le progiciel recherche dans la base de données NCOALink un enregistrement correspondant à votre enregistrement standardisé et analysé.
3.
Le progiciel reçoit les informations de déplacement, notamment la nouvelle adresse, le cas échéant.
4.
Le progiciel recherche l'enregistrement de déplacement renvoyé de la base de données NCOALink afin d'affecter des codes postaux et autres codes.
5.
Selon votre choix, le progiciel peut conserver l'ancienne adresse et ajouter la nouvelle ou bien remplacer l'ancienne adresse par la nouvelle.
6.
Le progiciel génère les rapports et fichiers journaux requis pour la conformité USPS.
2012-11-22
Qualité des données
604
16.6.6.4 Niveaux des fournisseurs NCOALink
Les utilisateurs de NCOALink appartiennent à l'une des trois catégories de fournisseurs suivantes.
Spécifiez le fournisseur de services dans le groupe d'options Informations de licence USPS sous
Provider Level.
Remarque :
Seuls les niveaux de fournisseurs pris en charge dans vos codes clés enregistrés s'affichent dans la liste de sélection.
Niveau du fournisseur
Full Service Provider (FSP)
Limited Service Provider
(LSP)
End User Mailer (EUM)
Description
Fournit le traitement de NCOALink à des tiers.
Fournit le traitement de NCOALink à des tiers et en interne.
Fournit le traitement de NCOALink à des listes en interne uniquement.
16.6.6.5 Gestionnaires et administrateurs de listes NCOALink
Un gestionnaire ou un administrateur de listes peuvent être propriétaires des listes de l'utilisateur de
NCOALink traitées. Lorsqu'un gestionnaire ou un administrateur de listes sont impliqués, ajoutez les informations de contact dans le groupe NCOALink sous Liste de détails du contact > Détails du
contact.
Gestionnaire
Transmet l'activité à un fournisseur de services NCOALink.
Administrateur de listes
Administrateur de listes : met à jour et stocke les listes. Les administrateurs de listes et les gestionnaires présentent deux différences majeures :
• Les administrateurs de listes n'envoient pas de fichiers des mises à jour de déplacements au propriétaire de la liste.
• Les administrateurs de listes peuvent disposer d'une licence NCOALink.
Si un administrateur de listes, un gestionnaire, ou les deux, sont impliqués dans un job, vous devez remplir une liste de détails du contact distincte pour chacun. Vous pouvez dupliquer un groupe d'options en cliquant avec le bouton droit de la souris sur le nom du groupe et en sélectionnant "Dupliquer l'option".
2012-11-22
Qualité des données
605
16.6.6.6 ANKLink (Address not known, adresse inconnue)
Chaque année, les courriers UAA (Undeliverable-as-addressed, adresse destinataire incorrecte) engendrent de nombreux frais pour l'USPS et l'industrie du traitement du courrier. Le progiciel fournit l'option NCOALink en tant que solution complémentaire pour les courriers UAA. NCOALink vous donne
également accès aux données USPS's ANKLink .
16.6.6.6.1 A propos d'ANKLink
Les fournisseurs de services restreints (limited service providers) NCOALink et les utilisateurs finaux
(end users) reçoivent les données de changement d'adresse des 18 mois précédents. L'option ANKLink optimise ces informations en fournissant des données supplémentaires sur les déménagements survenus dans les 19 à 48 mois précédents.
Conseil :
Si vous êtes un fournisseur de services complets NCOALink, vous avez déjà accès à l'ensemble des données des déménagements survenus dans les 48 derniers mois (dont les nouvelles adresses).
Remarque :
Les 30 mois supplémentaires de données fournies grâce à ANKLink indiquent seulement la survenance et la date d'un déménagement et non la nouvelle adresse.
Les données ANKLink permettent de prendre des décisions avisées par rapport à un contact. Si les données indiquent que le contact a déménagé, vous pouvez choisir de supprimer ce contact de la liste ou tenter d'obtenir sa nouvelle adresse grâce à un fournisseur de services complets NCOALINK.
Si vous optez pour l'acquisition d'ANKLink pour étendre les informations NCOALink, le DVD que vous recevrez de l'USPS contiendra les informations NCOALink de tous les changements d'adresse survenus dans les 18 derniers mois ainsi que les informations supplémentaires ANKLink des 30 derniers mois indiquant la survenance d'un déménagement.
S'il existe une correspondance ANKLink, celle-ci est notée dans le champ de sortie
ANKLINK_RETURN_CODE et dans le rapport Résumé du traitement de NCOALink.
16.6.6.6.2 Données ANKLink
ANKLink est un sous-ensemble de NCOALink. Vous pouvez demander des données ANKLink au NCSC
(National Customer Support Center, centre national de support client) de l'USPS en composant le
1-800-589-5766 ou par e-mail à l'adresse ncoalink@usps.gov. SAP BusinessObjects ne fournit pas les données ANKLink.
Le progiciel détecte toute utilisation de données ANKLink. Ainsi, vous ne devez pas spécifier l'utilisation d'ANKLink lors de la configuration d'un job.
2012-11-22
Qualité des données
16.6.6.6.3 Prise en charge d'ANKLink pour les niveaux de fournisseurs NCOALink
Le progiciel prend en charge trois niveaux de fournisseurs NCOALink définis par l'USPS. Les options du progiciel varient selon le niveau du fournisseur et sont activées suivant le package progiciel acquis.
Le tableau suivant indique les niveaux de fournisseurs et la prise en charge :
Niveau du fournisseur Fournit des services à des tiers
Données de
COA (en mois)
Données reçues de l'USPS
Prise en charge d'ANKLink
Full Service
Provider (FSP)
Oui
Les services tiers doivent représenter au moins 51 % de l'ensemble du traitement.
48 Hebdomadaires
Non (aucun avantage)
Limited Service
Provider (LSP)
Oui
Les LSP peuvent fournir des services à des tiers et utiliser le produit en interne.
18 Hebdomadaires
Oui
End User Mailer
(EUM)
Non 18 Mensuelles
Oui
Conseil :
Si vous êtes un EUM NCOALink, vous pouvez demander un contrat Stop Processing Alternative de l'USPS. Une fois approuvé par l'USPS, vous pouvez acquérir la fonctionnalité Stop processing alternative du progiciel qui permet la continuité du traitement DPV et LACSLink après la détection d'un enregistrement d'adresse faux positif.
Rubriques associées
•
606
16.6.6.7 Performances du progiciel
Lors de nos tests, le progiciel s'exécutait plus lentement lorsque NCOALink était activé. La vitesse de traitement dépend de l'ordinateur exécutant le progiciel et du pourcentage d'enregistrements d'entrées affectés par un déplacement (un nombre plus élevé de déplacements équivaut à un ralentissement des performances).
Rubriques associées
•
Optimisation des performances du traitement de NCOALink
2012-11-22
Qualité des données
16.6.6.8 Démarrage de NCOALink
Avant de démarrer le traitement de NCOALink, il convient d'effectuer les tâches suivantes :
• Terminer le processus de certification de l'USPS pour devenir un utilisateur final ou un fournisseur de services NCOALink. Pour en savoir plus sur la certification, voir la section Certification NCOALink
à la suite du lien ci-dessous.
• Comprendre les stratégies de sortie disponibles et les options d'optimisation des performances.
• Configurer le job.
Rubriques associées
•
16.6.6.9 Solutions proposées par l'USPS et SAP BusinessObjects
NCOALink et les conditions requises pour les licences associées ont créé une nouvelle dimension dans la relation entre les expéditeurs (vous), l'USPS et les fournisseurs. Il est important de clarifier les solutions proposées par chacun.
16.6.6.9.1 Mise à jour des déplacements : une décision commerciale qui vous appartient
NCOALink permet de remplacer l'ancienne adresse d'une personne par sa nouvelle adresse. En tant que fournisseur de services, vous devez décider si vous acceptez les mises à jour de déplacements liées aux déménagements de familles ou d'une seule personne uniquement. L'USPS recommande de ne prendre cette décision qu'après une mûre réflexion sur vos relations client. Etudiez les exemples suivants :
• Si vous envoyez des chèques, des relevés de compte ou toute autre correspondance pour laquelle vous avez une responsabilité fiduciaire, la mise à jour des déplacements représente une garantie sérieuse. L'USPS préconise de vérifier chaque déplacement par l'envoi d'une carte postale double ou toute autre correspondance à réponse facile avant de modifier tout enregistrement financier sur la nouvelle adresse.
• Si vos relations commerciales concernent l'un des époux uniquement, la mise à jour des déplacements doit être gérée avec prudence, en respectant tout divorce ou séparation. Encore une fois, il peut être censé de consacrer davantage de temps et d'argent à la confirmation de chaque déplacement avant de mettre à jour un enregistrement de manière permanente.
607 2012-11-22
Qualité des données
16.6.6.9.2 Exigences de sécurité NCOALink
En raison de la sensibilité et de la confidentialité des données de changement d'adresse, l'USPS impose de strictes procédures de sécurité aux fournisseurs de progiciels utilisant et fournissant le traitement de NCOALink.
L'une des responsabilités incombant au fournisseur du progiciel consiste à contrôler que chaque entrée de liste pour la transformation USA Regulatory Address Cleanse contient au moins 100 enregistrements uniques. Ainsi, la transformation USA Regulatory Address Cleanse contrôle la présence de
100 enregistrements uniques dans le fichier de sortie. Ces contrôles augmentent le délai de vérification, mais sont requis par l'USPS et doivent être effectués.
Si le progiciel ne détecte pas 100 enregistrements uniques dans vos données, il signale une erreur et interrompt le traitement.
Le processus de contrôle de la présence de 100 enregistrements uniques représente une étape de pré-traitement. Ainsi, si le progiciel ne détecte pas ces 100 enregistrements uniques, le fichier d'entrée ne comprendra aucune sortie de statistique et aucun traitement ne sera effectué.
Rubriques associées
•
Méthode de contrôle des 100 enregistrements uniques par le progiciel
Lorsque NCOALink est activé dans le job, le progiciel contrôle la présence de 100 enregistrements uniques avant d'effectuer tout traitement sur les données. Le progiciel contrôle l'ensemble de la base de données pour détecter les 100 enregistrements uniques. Si ces derniers sont détectés, le job est traité normalement. Toutefois, si le progiciel ne détecte pas ces enregistrements, il envoie une erreur indiquant que les données d'entrées ne contiennent pas 100 enregistrements uniques ou que les enregistrements ne sont pas suffisants pour déterminer une unicité.
Pour la recherche des 100 enregistrements uniques, un enregistrement représente tous les champs d'entrées mappés concaténés dans le même ordre que celui de leur mappage dans la transformation.
Chaque enregistrement doit être identique à un autre enregistrement pour pouvoir être considéré comme semblable (non unique).
Exemple : Comparaison d'enregistrements
L'exemple ci-dessous illustre la manière dont le progiciel concatène les champs dans chaque enregistrement et détermine les enregistrements non uniques. La première et la dernière ligne de cet exemple ne sont pas uniques.
332
332
331
FRONT
FRONT
FRONT
STREET
STREET
STREET
NORTH
SOUTH
SOUTH
LACROSSE
LACROSSE
LACROSSE
WI
WI
WI
54601
54601
54601
608 2012-11-22
Qualité des données
609
332 FRONT STREET NORTH LACROSSE WI 54601
Recherche d'enregistrements uniques dans plusieurs threads
Parfois, la liste d'entrée comprend 100 enregistrements uniques mais l'utilisateur reçoit toujours un message d'erreur indiquant que la liste n'inclut pas ces 100 enregistrements uniques. Cela peut se produire lorsque la liste contient un faible volume de données. Pour contourner ce problème, les utilisateurs peuvent ajuster la définition du degré de parallélisme (DOP) dans le job.
Faible volume de données et degré de parallélisme > 1
Lorsqu'un job NCOALink est configuré avec un degré de parallélisme supérieur à 1, chaque thread vérifie les enregistrements uniques présents dans la première collection traitée, puis partage avec les autres threads les connaissances acquises sur les enregistrements uniques détectés. Le premier thread ayant terminé le traitement de sa collection compte les enregistrements uniques trouvés par tous les threads jusqu'à ce point et décide si le contrôle des 100 enregistrements minimums est satisfaisant.
Ce thread n'est pas nécessairement le thread 1. Par exemple, votre liste comporte 3 050 enregistrements et le degré de parallélisme est défini sur 4. Si le nombre d'enregistrements par collection est de 1 000, chaque thread aura une collection de 1 000 enregistrements, à l'exception du dernier thread qui n'en comportera que 50. Le thread traitant les 50 enregistrements terminera probablement sa collection en premier et prendra la décision d'échec ou de réussite avant de détecter les 100 enregistrements uniques.
Vous pouvez terminer l'exécution de ce job en diminuant le degré de parallélisme défini. Dans cet exemple, vous pouvez le diminuer pour le définir sur 3.
16.6.6.10 A propos des répertoires NCOALink
Une fois que vous avez rempli les exigences de certification et acquis le produit NCOALink de l'USPS, l'USPS vous envoie les répertoires NCOALink les plus récents de façon mensuelle (si vous êtes un utilisateur final) ou hebdomadaire (si vous êtes un fournisseur de services restreints ou limités). SAP
BusinessObjects ne fournit pas les répertoires NCOALink.
L'USPS exige l'utilisation des répertoires NCOALink les plus récents disponibles pour vos jobs
NCOALink.
Remarque :
Les répertoires NCOALink expirent après 45 jours.
Le progiciel fournit un utilitaire de vérification de DVD (programme d'installation) qui installe (transfère et décompresse) les fichiers compressés du DVD NCOALink sur votre système. L'utilitaire est disponible avec une interface utilisateur graphique (GUI, graphical user interface) ou s'exécute à partir d'une ligne de commande.
2012-11-22
Qualité des données
610
Si vous êtes un fournisseur de services, vous devez exécuter quotidiennement un job NCOALink. Vous devez également télécharger le fichier de suppression quotidien et l'installer dans le même dossier que les répertoires NCOALink.
Rubriques associées
•
A propos du fichier quotidien de suppression NCOALink
•
Installer les répertoires NCOALink avec la GUI
16.6.6.10.1 Installer les répertoires NCOALink avec la GUI
Configuration requise
Vérifiez que votre système répond à la configuration minimale requise suivante :
• Espace disque disponible minimum de 60 Go
• Lecteur de DVD
• Mémoire RAM suffisante.
1.
Insérez le DVD USPS contenant les répertoires NCOALink dans votre lecteur de DVD.
2.
Exécutez le programme d'installation du DVD situé à l'emplacement $LINK_DIR\bin\ncoadvd ver.exe
(Windows) ou $LINK_DIR/bin/ncoadvdver (UNIX), où $LINK_DIR est le chemin d'accès du répertoire d'installation du progiciel.
Pour plus d'informations sur l'installation, voir l'aide en ligne disponible dans le programme d'installation du DVD (sélectionnez Aide > Contenu).
Remarque :
Pour en savoir plus sur l'espace disque requis pour les données de référence, voir la Matrice de disponibilité des produits à l'adresse https://service.sap.com/PAM .
Rubriques associées
•
Ressources d'informations SAP BusinessObjects
16.6.6.10.2 Installer les répertoires NCOALink à partir de la ligne de commande
Configuration requise :
Vérifiez que votre système répond à la configuration minimale requise suivante :
• Espace disque disponible minimum de 60 Go
• Lecteur de DVD
• Mémoire RAM suffisante
1.
Exécutez le programme d'installation du DVD situé à l'emplacement $LINK_DIR\bin\ncoadvd ver.exe
(Windows) ou $LINK_DIR/bin/ncoadvdver (UNIX), où $LINK_DIR est le chemin d'accès du répertoire d'installation.
2.
Pour automatiser le processus d'installation, utilisez la commande ncoadvdver avec les options de ligne de commande suivantes :
2012-11-22
Qualité des données
Option
Windows
/p:t
/p:u
/p:v
/d
/t
/nos
/a
UNIX
-c
-p:t
-p:u
-p:v
-d
-t
-nos
-a
Description
Exécutez les processus sélectionnés en mode console (n'utilisez pas la GUI).
Effectuez le transfert. Lors de l'utilisation de cette option, vous devez également spécifier les éléments suivants :
• Emplacement du DVD avec /d or -d
• Emplacement du transfert avec /t ou -t
Effectuez la décompression. Lors de l'utilisation de cette option, vous devez également spécifier les éléments suivants :
• Emplacement du DVD avec /d or -d
• Emplacement du transfert avec /t ou -t
Effectuez la vérification. Lors de l'utilisation de cette option, vous devez également spécifier l'emplacement du transfert avec /t ou
-t.
Spécifiez l'emplacement du DVD.
Spécifiez l'emplacement du transfert.
N'arrêtez pas en cas d'erreur (renvoyez un code d'échec en tant que statut de fin).
Répondez Oui à tous les messages d'avertissement.
Vous pouvez combiner les options p. Par exemple, pour tout transférer, décompresser et vérifier dans un même processus, saisissez /p:tuv ou -p:tuv.
Après l'exécution de l'option p spécifiée, le programme se ferme.
Exemple :
La ligne de commande doit être semblable à ceci :
Windows ncoadvdver /p:tuv /d D:\ /t C:\pw\dirs\ncoa
UNIX ncoadvdver [-c] [-a] [-nos] [-p:(t|u|v)][-d<chemin d'accès>] [-t <nom de
fichier>]
611 2012-11-22
Qualité des données
612
16.6.6.11 A propos du fichier quotidien de suppression NCOALink
Si vous êtes un fournisseur de services, vous devez télécharger le fichier de suppression quotidien et l'installer dans le même dossier que les répertoires NCOALink avant d'exécuter quotidiennement le traitement de NCOALink.
Le fichier quotidien de suppression contient des enregistrements en attente de suppression à partir des données NCOALink. Par exemple, si Martine Dupond remplit un formulaire de changement d'adresse auprès de l'USPS puis ne déménage pas, son enregistrement se trouvera dans le fichier quotidien de suppression. Le changement d'adresse étant stocké dans les répertoires NCOALink et mis à jour toutes les semaines ou tous les mois, le fichier quotidien de suppression est nécessaire pendant la période intermédiaire, jusqu'à la nouvelle mise à jour des répertoires NCOALink.
Téléchargez le fichier quotidien de suppression à partir du site Web de gestion du produit électronique de l'USPS à l'adresse https://epf.usps.gov/ . Avant de pouvoir accéder au fichier, vous devez remplir et soumettre le formulaire Electronic Product Fulfillment Web Access Request Form (Form 5116) à l'USPS.
Ce formulaire est disponible à partir du même site Web.
Remarque :
Si vous êtes un utilisateur final, seul le fichier quotidien de suppression est nécessaire pour traiter les fichiers Etape I ou Etape II. Il n'est pas requis pour le traitement normal de NCOALink.
Voici quelques points importants à connaître à propos du fichier quotidien de suppression :
• La vérification du progiciel échouera si NCOALink est activé, si un test d'étape est effectué et le si fichier quotidien de suppression n'est pas installé.
• La transformation USA Regulatory Address Cleanse prend uniquement en charge la version ASCII du fichier quotidien de suppression.
• Ne renommez pas le fichier quotidien de suppression. Il doit être nommé dailydel.dat.
• Le progiciel produira un avertissement de vérification si le fichier quotidien de suppression date de plus de trois jours.
16.6.6.11.1 Installer le fichier quotidien de suppression NCOALink
Pour télécharger et installer le fichier quotidien de suppression NCOALink, suivez les étapes suivantes :
1.
Accédez au site USPS Electronic Product Fulfillment à l'adresse https://epf.usps.gov/ .
2.
Avant le premier téléchargement du fichier quotidien de suppression, vous devez remplir et envoyer par télécopie le formulaire PS Form 5116 (Electronic Product Fulfillment Web Access Request Form) au Service de licence de l'USPS (USPS Licensing Department).
Lors du remplissage du formulaire, assurez-vous de sélectionner l'une des options NCOALink ou
NCOALink with ANKLink selon vos besoins. Vous pouvez alors accéder au fichier quotidien de suppression.
3.
Connectez-vous au site USPS Electronic Product Fulfillment et téléchargez le fichier quotidien de suppression NCOALink [TEXTE] vers un emplacement à partir duquel le fichier .tar peut être
2012-11-22
Qualité des données
613 extrait. Si les bloqueurs de fenêtres publicitaires sont activés sur le navigateur de l'ordinateur, vous devez les remplacer.
4.
Extrayez le fichier dailyDeletes_txt.tar.
5.
Copiez le fichier dailydel.dat vers l'emplacement de stockage de vos répertoires NCOALink.
6.
Répétez les étapes 3 à 5 quotidiennement avant d'effectuer le traitement de NCOALink.
16.6.6.12 Stratégies de fichiers de sortie
Vous pouvez configurer le fichier de sortie pour répondre à vos besoins. Selon la Sélection de classe de champ définie, les composants de votre fichier de sortie contiennent les informations de type Correct,
Déplacement mis à jour ou Meilleur :
• CORRECT : produit l'adresse d'entrée originale. Il s'agit des valeurs complètes et correctes présentes dans les répertoires, standardisées selon toute définition configurée dans le groupe Options de standardisation dans l'onglet Options. (CORRECT)
• DEPLACEMENT MIS A JOUR : produit les composants d'adresse mis à jour avec les données d'adresses contenant les mises à jour de déplacement.
Remarque :
La transformation recherche les informations d'adresses contenant des déplacements mis à jour dans les Répertoires d'adresses nationaux américains. Lorsque l'adresse de déplacement mis à jour est introuvable dans les répertoires d'adresses nationaux américains, le progiciel remplit les champs Déplacement mis à jour avec les informations trouvées dans les répertoires Move Update uniquement. Les champs Déplacement mis à jour remplis suite à la standardisation des répertoires d'adresses nationaux américains ne seront pas mis à jour.
• MEILLEUR : produit les données d'adresses avec déplacement mis à jour si elles existent et correspondent aux répertoires d'adresses nationaux américains. Le champ peut aussi contenir les données d'adresses originales si aucun déplacement n'existe ou s'il ne correspond pas aux répertoires d'adresses nationaux américains.
Selon la définition de l'option Appliquer déplacement aux champs standardisés dans le groupe d'options NCOA, les composants standardisés peuvent contenir des adresses originales ou avec les déplacements mis à jour.
Par défaut, l'option de sortie Appliquer déplacement aux champs standardisés est définie sur Oui et le progiciel met à jour les champs standardisés pour inclure les détails relatifs à l'adresse mise à jour disponible grâce à NCOALink.
Pour conserver les anciennes adresses dans les composants standardisés et ajouter les nouvelles adresses au fichier de sortie, vous devez définir l'option Appliquer déplacement aux champs
standardisés sur Non. Vous pouvez ensuite utiliser les champs de sortie tels que NCOALINK_RE
TURN_CODE pour déterminer la survenance d'un déplacement. L'une des manières de configurer le fichier de sortie consiste à répliquer le format de fichier d'entrée, puis d'ajouter des champs supplémentaires pour les données de déplacement. Dans les enregistrements de sortie non affectés par un déplacement, la plupart des champs ajoutés seront vides. Il est également possible de créer un
2012-11-22
Qualité des données
614 second fichier de sortie spécifique pour les enregistrements de déplacement. Deux méthodes sont applicables :
• Produire chaque enregistrement une seule fois, placer les enregistrements de déplacement dans le second fichier de sortie puis l'ensemble des autres enregistrements dans le fichier de sortie principal.
• Produire les enregistrements de sortie deux fois : la première fois dans le fichier de sortie principal et la seconde fois dans le second fichier de sortie.
Ces deux méthodes nécessitent l'utilisation d'un filtre de sortie déterminant si un enregistrement est un déplacement.
16.6.6.13 Optimisation des performances du traitement de NCOALink
Plusieurs facteurs affectent les performances lors du traitement de données NCOALink. Le facteur le plus critique est en général le volume d'accès au disque qui se produit. La plus efficace manière de réduire l'accès au disque consiste souvent à disposer d'une mémoire disponible suffisante pour les données de cache. D'autres facteurs critiques, tels que la vitesse du disque dur, le temps d'accès et le taux élevé de transfert, peuvent affecter les performances. Lorsque le délai d'accès au disque est réduit, les performances de l'UC deviennent significatives.
Rubriques associées
•
Recherche d'enregistrements uniques dans plusieurs threads
16.6.6.13.1 Systèmes d'exploitation et processeurs
Les calculs impliqués dans la majeure partie du traitement du progiciel et de NCOALink sont parfaitement adaptés aux microprocesseurs intégrés dans la majorité des ordinateurs, tels que ceux fabriqués par
Intel et AMD. Les processeurs RISC tels que ceux intégrés dans la plupart des systèmes UNIX sont en général considérablement plus lents pour ce type de calculs. En effet, un PC commun peut souvent exécuter un job unique via le progiciel et NCOALink environ deux fois plus rapidement qu'un système
UNIX commun. Si vous recherchez une méthode rentable pour traiter des jobs uniques, un serveur
Windows ou un poste de travail rapide peuvent produire d'excellents résultats. La majorité des systèmes
UNIX intègrent plusieurs processeurs et peuvent au mieux traiter plusieurs jobs simultanément.
Vous devez pouvoir augmenter le degré de parallélisme (DOP) dans les propriétés du flux de données pour optimiser l'utilisation du cœur ou du processeur de votre système. L'augmentation du degré de parallélisme dépend de la complexité du flux de données.
16.6.6.13.2 Mémoire
Le traitement de NCOALink exploite un grand volume de données, exprimé en gigaoctets. Le volume exact dépend du niveau de votre fournisseur de services, du format de données et de la version spécifique des données de l'USPS.
2012-11-22
Qualité des données
En général, si les performances s'avèrent critiques et notamment si vous êtes un fournisseur de services complets NCOALink exécutant fréquemment de nombreux jobs volumineux avec des millions d'enregistrements, vous devez obtenir autant de mémoire que possible. Vous souhaiterez mettre l'ensemble du jeu de données NCOALink en cache. Vous devriez pouvoir mettre l'ensemble du jeu de données NCOALink en cache en utilisant 20 Go de mémoire RAM, avec une mémoire restante suffisante pour le système d'exploitation.
16.6.6.13.3 Stockage de données
Dans la mesure du possible, le disque dur utilisé pour les données NCOALink doit être entièrement dédié à ce processus, au moins lorsque le job est en cours d'exécution. D'autres processus tentant d'utiliser ce même lecteur de disque physique peuvent largement réduire les performances de NCOA
Link.
Pour obtenir des taux de transfert encore plus élevés, vous pouvez opter pour l'utilisation d'un système
RAID (redundant array of independent disks).
Lorsque le progiciel accède directement aux données NCOALink, et non par l'intermédiaire d'un cache, la fonctionnalité la plus significative du disque dur est son temps moyen d'accès.
16.6.6.13.4 Format de données
Le progiciel prend en charge les versions de fichiers plats et de hachage des données NCOALink. Si vous disposez d'une mémoire cache suffisante pour l'ensemble du jeu de données du fichier de hachage, ce format peut fournir les meilleures performances. Les données du fichier plat étant considérablement moins importantes, une part plus importante d'entre elles peut ainsi être mise en cache dans un volume donné de mémoire RAM. Toutefois, accéder aux données du fichier plat implique des recherches binaires nettement plus longues que l'accès direct utilisé avec le format de fichier de hachage.
16.6.6.13.5 Utilisation de la mémoire
La quantité de mémoire optimale dépend de nombreux facteurs différents. L'option "Automatique" s'avère en général utile pour décider de la quantité de mémoire à utiliser, mais un ajustement manuel de cette quantité peut être nécessaire dans de nombreux cas.
16.6.6.13.6 Astuces sur les performances
Plusieurs facteurs peuvent augmenter ou diminuer la vitesse de traitement de NCOALink. Il est possible d'en contrôler certains, mais d'autres peuvent être liés à votre activité. Prenez en considération les facteurs suivants :
• Taille de la mémoire cache : l'utilisation d'un volume insuffisant de mémoire pour la mise en cache
NCOALink peut engendrer un accès au fichier aléatoire non nécessaire et des recherches de disque dur fastidieuses. L'utilisation d'un trop grand volume de mémoire peut engendrer la lecture de fichiers volumineux à partir du disque dans la mémoire cache même si une fraction infime de données seulement sera utilisée. Le volume de mémoire cache le plus adapté à votre environnement peut nécessiter certains tests afin de déterminer la meilleure option pour votre configuration et la taille de job classique.
615 2012-11-22
Qualité des données
• Emplacement du répertoire : il est préférable que les répertoires NCOALink se situent sur un disque
SSD local ou sur un lecteur RAM virtuel. L'utilisation d'un disque SSD local ou d'un lecteur RAM virtuel élimine toutes les E/S pour NCOALink lors du traitement du job. Si les répertoires se trouvent sur un disque dur, il est préférable d'utiliser un disque dur local défragmenté. Le disque dur doit être uniquement utilisé pour les données NCOALink lors de l'exécution du job.
• Taux de correspondance : plus vous possédez d'enregistrements avec des déplacements transférables, plus le traitement sera lent. L'extraction et le décodage de nouvelles adresses prennent du temps, ainsi la mise à jour régulière d'une liste de diffusion optimisera la vitesse de traitement de cette liste.
• Format d'entrée : idéalement, vous devez fournir à la transformation USA Regulatory Address
Cleanse des champs discrets pour le prénom, le deuxième prénom et le nom du destinataire, ainsi que le titre de civilité et la désignation. Si votre entrée ne présente qu'une seule ligne de nom, la transformation devra tout d'abord prendre le temps de l'analyser avant de contrôler les données
NCOALink.
• Taille du fichier : les fichiers les plus volumineux se traitent relativement plus rapidement que les fichiers plus petits. Il existe une surcharge lors du traitement de tout job, mais si un job inclut des millions d'enregistrements, quelques secondes de surcharge deviennent insignifiantes.
16.6.6.14 Activer le traitement de NCOALink
Vous devez avoir accès aux fichiers suivants :
• Répertoires NCOALink
• Version actuelle du fichier quotidien de suppression USPS
• Fichiers de données DPV
• Fichiers de données LACSLink
Si vous utilisez une copie de la configuration de la transformation exemple, USARegulatoryNCOALi nk_AddressCleanse, NCOALink, DPV et LACSLink sont déjà activés.
1.
Ouvrez la transformation USA Regulatory Address Cleanse puis l'onglet "Options".
2.
Définissez les valeurs des options selon votre configuration.
Pour en savoir plus sur les champs de transformation USA Regulatory Address Cleanse, voir le
Guide de référence. Le tableau ci-dessous indique les champs obligatoires pour certains niveaux de fournisseurs.
616 2012-11-22
Qualité des données
Groupe d'options
Nom ou sousgroupe de l'option
Utilisateur final sans contrat pour le
Stop Processing Alternative
Utilisateur final avec un contrat pour le Stop Processing Alternative
Fournisseur de services complets ou restreints
(Full/Limited service provider
oui oui
Nom du licencié
oui
Code NAICS du propriétaire de la liste
ID de liste
oui non oui non oui oui
Nom de la société du client
non
Adresse de la société du client
non
Localité de la société du client
non
Région de la société du client
non
Informations de licence
USPS
Code postal de la société du client1
Code postal de la société du client2
non non oui oui oui oui oui oui oui oui oui oui oui oui
Téléphone de la société du client
Fréquence de traitement de liste
Date de réception de la liste
Date de retour de la liste
Provider Level
non oui non non oui non oui non non oui non oui oui oui oui
617 2012-11-22
Qualité des données
618
Groupe d'options
NCOALink
Nom ou sousgroupe de l'option
Utilisateur final sans contrat pour le
Stop Processing Alternative
Utilisateur final avec un contrat pour le Stop Processing Alternative
Fournisseur de services complets ou restreints
(Full/Limited service provider
Sous-groupe
Détails PAF
Sous-groupe
Options du fournisseur de services
non non non non
Toutes les options sont obligatoires, à l'exception des options Nom de la société mère du client et Autre nom de la société du client.
Toutes les options sont obligatoires, à l'exception des options Nom de la société de l'acheteur et Code postal du courrier.
Conseil :
Si vous êtes un fournisseur de services et devez fournir des détails d contact à plusieurs gestionnaires, développez le groupe NCOALink, cliquez avec le bouton droit de la souris sur Détails
du contact puis cliquez sur Dupliquer l'option. Un groupe supplémentaire de champs de détails de contact sera ajouté en-dessous du groupe original.
Rubriques associées
• Guide de référence : transformation USA Regulatory Address Cleanse
•
A propos des répertoires NCOALink
•
A propos du fichier quotidien de suppression NCOALink
•
Stratégies de fichiers de sortie
•
16.6.6.15 Fichiers journaux NCOALink
Le progiciel génère automatiquement les fichiers journaux requis par l'USPS et les nomme selon les exigences de l'USPS. Le logiciel génère ces fichiers journaux dans le référentiel d'où vous pouvez les exporter en utilisant la Console de gestion.
2012-11-22
Qualité des données
Il crée un seul fichier journal par ID de licence. Au début de chaque mois, le progiciel lance de nouveaux fichiers journaux. Chaque fichier journal est ensuite ajouté avec les informations sur chaque job
NCOALink traité lors de ce mois pour cet ID de licence spécifique.
Le progiciel produit les fichiers journaux suivants associés aux déplacements :
• Journal CSL (Customer Service log, journal de service client)
• Journal PAF d'informations clients (Processing Acknowledgement Form, formulaire de confirmation de traitement)
• Journal BALA (Broker/Agent/List Administrator, Gestionnaire/Agent/Administrateur de liste)
Les fichiers journaux PAF d'informations clients et BALA ne sont pas requis pour les utilisateurs finaux.
Le tableau suivant indique les fichiers journaux requis pour les fournisseurs de services restreints ou complets :
Fichier journal
CSL
Description
Ce fichier journal contient un enregistrement par liste traitée. Chaque enregistrement détaille les résultats du traitement de changement d'adresse.
Journal PAF d'informations clients
Ce fichier journal contient les informations fournies pour le PAF.
Le fichier journal répertorie chaque entrée PAF unique. Si une liste est traitée avec les mêmes informations PAF, celles-ci ne s'affichent qu'une seule fois dans le fichier journal.
Lorsque les informations de contact pour l'administrateur de listes ont changé, les informations pour l'administrateur de listes ainsi que pour le gestionnaire correspondant sont écrites dans le fichier journal PAF.
BALA
Ce fichier journal contient toutes les informations de contact saisies pour le gestionnaire ou l'administrateur de listes.
Le fichier journal répertorie une fois seulement les informations pour chaque gestionnaire ou administrateur de listes.
L'USPS exige des fournisseurs de services le fichier journal Gestionnaire/Agent/Administrateur de listes, y compris dans les jobs n'impliquant pas de gestionnaire ou d'administrateur de listes. Le progiciel génère ce fichier journal pour chaque job si vous êtes un fournisseur de services certifié.
Rétention de fichier journal et suppression automatique
Vous devez soumettre les fichiers journaux NCOALink à l'USPS mensuellement. Le logiciel supprime les fichiers journaux sur une base périodique (30 jours par défaut), qui peut être contrôlée par les paramètres d'application de Data Services dans la Console de gestion centrale. Pour éviter de perdre les informations de journaux mensuels, définissez l'option Période de rétention de l'historique sur plus de 31 jours (nous recommandons de configurer cette option sur 50 jours).
619 2012-11-22
Qualité des données
620
Outre l'envoi mensuel des fichiers journaux à l'USPS, vous devez tenir les données à disposition de l'USPS pour un examen ultérieur plusieurs années après le traitement du job. (Assurez-vous de comprendre les règles actuelles de l'USPS en matière de rétention des données en examinant votre contrat de licence USPS.) Pour garantir la rétention de tous les journaux et enregistrements requis avant la suppression des données du référentiel, il est conseillé d'exporter mensuellement les journaux et enregistrements requis du référentiel vers un dossier local. Cela permet également d'éviter que la croissance du contenu du référentiel ne génère l'“expiration du délai” du processus d'exportation en raison du volume des statistiques conservées.
Rubriques associées
• Guide Management Console Guide : rapport Résumé du traitement de NCOALink
• Guide Management Console Guide : exportation des journaux de certification NCOALink
• Administrators Guide: USPS log files and reports
• Guide d'administration : définition de la période de rétention de l'historique
16.6.6.15.1 Noms des fichiers journaux
Le progiciel respecte le modèle d'attribution de noms de fichiers de l'USPS pour les fichiers journaux suivants :
• Journal de services clients
• Journal PAF d'informations clients
• Journaux de l'administrateur de listes, de l'agent et du gestionnaire
Le tableau ci-dessous décrit le modèle d'attribution de noms des fichiers journaux NCOALink. Par exemple, P1234C10.DAT est un fichier journal PAF généré en décembre 2010 pour un licencié avec l'ID 1234.
Caractère 1
Type de journal
B
Journal du gestionnaire
Caractères 2 à 5
Caractère 6
ID de plateforme
Mois
Contient exactement quatre caractères
1 janvier
Caractères 7 à 8 Extension
Année
deux caractères, par exemple 10 pour l'année
2010
.DAT
C
P
Journal de services clients
Journal
PAF
2
3 février mars
4
5 avril mai
2012-11-22
Qualité des données
Caractère 1
Type de journal
Caractères 2 à 5
Caractère 6
ID de plateforme
Mois
6 juin
7
8
9
A
B
C juillet août septembre octobre novembre décembre
Caractères 7 à 8 Extension
Année
Par exemple, P1234C10.DAT est un fichier journal PAF généré en décembre 2010 pour un licencié avec l'ID 1234.
16.6.7 USPS eLOT®
eLOT est disponible pour les enregistrements des Etats-Unis, uniquement dans la transformation USA
Regulatory Address Cleanse.
eLOT donne une étape d'avance à Line of Travel. Le LOT d'origine a affiné l'itinéraire de distribution du facteur au niveau de l'immeuble (niveau Code postal2) en distinguant si une adresse est du côté pair ou impair d'une rue ou d'une route.
eLOT affine l'itinéraire de la tournée de distribution du facteur au niveau de la maison (point de distribution). Cela permet de trier vos publipostages jusqu'à un niveau plus précis.
Rubriques associées
•
•
Configuration des fichiers de référence
16.6.7.1 Activation eLOT
621 2012-11-22
Qualité des données
1.
Ouvrez la transformation USA Regulatory Address Cleanse.
2.
Ouvrez l'onglet "Options", développez le groupe Opérations d'affectation et sélectionnez Oui pour l'option Enable eLOT.
3.
Dans le groupe Fichiers de référence, définissez le chemin de votre répertoire eLOT.
Vous pouvez utiliser la variable de substitution $$RefFilesAddressCleanse pour cette option si vous l'avez configurée.
16.6.8 Early Warning System (EWS)
EWS aide à réduire le courrier mal adressé lorsque des points de livraison valides sont créés entre les mises à jour de répertoires nationaux. EWS est disponible pour les données des Etats-Unis, uniquement dans la transformation USA Regulatory Address Cleanse.
16.6.8.1 Présentation de EWS
La fonctionnalité EWS est la solution au problème du courrier mal dirigé causé par des points de livraison valides qui apparaissent entre les mises à jour du répertoire national. Par exemple, supposons que
300 Main Street est une adresse valide et que 300 Main Avenue n'existe pas. Un courrier adressé à
300 Main Avenue est affecté à 300 Main Street sur l'hypothèse que l'expéditeur s'est trompé sur le suffixe.
Supposons maintenant qu'une maison est terminée au 300 Main Avenue. Le nouveau propriétaire s'inscrit aux utilitaires et au courrier, mais cela peut prendre plusieurs mois avant que le point de livraison soit listé dans le répertoire national. Tout le courrier destiné à la nouvelle maison au 300 Main Avenue sera mal envoyé au 300 Main Street jusqu'à ce que le point de livraison soit ajouté au répertoire national.
La fonctionnalité EWS résout ce problème en utilisant un répertoire supplémentaire qui informe les utilisateurs CASS de l'existence du 300 Main Avenue bien longtemps avant qu'il apparaisse dans le répertoire national. Lorsque vous utilisez le traitement EWS, l'adresse anciennement mal dirigée reçoit par défaut une affectation à 5 chiffres.
16.6.8.2 Commencer avec un exemple de configuration de transformation
Si vous souhaitez utiliser la transformation USA Regulatory Address Cleanse avec l'option EWS activée, le mieux est de commencer avec l'exemple de configuration de transformation pour le traitement EWS appelé :
622 2012-11-22
Qualité des données
USARegulatoryEWS_AddressCleanse.
16.6.8.3 Répertoire EWS
Le répertoire EWS contient quatre mois de données continues. Chaque semaine, l'USPS ajoute de nouvelles données et fait glisser une semaine d'anciennes données. L'USPS publie ensuite les dernières données EWS. Chaque vendredi, SAP BusinessObjects convertit les données dans notre format
EWaammjj.zip
et les enregistre sur le site SAP Business User Support à l'adresse https://ser vice.sap.com/bosap-downloads-usps .
16.6.8.4 Activation de EWS
EWS est déjà activé lorsque vous utilisez l'exemple de transformation EWS du logiciel USARegulato ryEWS_AddressCleanse. Ces étapes indiquent comment activer manuellement EWS.
1.
Ouvrez la transformation USA Regulatory Address Cleanse .
2.
Ouvrez l'onglet "Options" et développez le groupe Assignment Options.
3.
Sélectionnez Activer pour l'option Activer EWS.
4.
Développez le groupe de fichiers de référence et saisissez un chemin pour l'option Répertoire EWS ou utilisez la variable de substitution $$RefFilesAddressCleanse si vous l'avez configurée.
Rubriques associées
•
16.6.9 USPS RDI®
L'option RDI est disponible dans la transformation USA Regulatory Address Cleanse . RDI détermine si une adresse donnée correspond ou pas à un domicile.
Les expéditeurs de colis peuvent trouver des informations RDI très précieuses parce que certains services de distribution facturent des taux supérieurs pour distribuer aux adresses résidentielles. D'autre part, USPS n'ajoute pas de suppléments pour les distributions résidentielles. Lorsque vous pouvez reconnaitre une adresse comme étant un domicile, vous avez augmenté la motivation pour expédier le colis avec USPS par rapport à un concurrent qui applique un supplément résidentiel.
Selon USPS, 91 % des adresses des Etats-Unis sont résidentielles. USPS incite à encourager l'utilisation de RDI par les expéditeurs de colis.
623 2012-11-22
Qualité des données
Vous pouvez utiliser RDI si vous traitez les données pour la certification CASS ou si vous effectuez un traitement en mode non certifié. En outre, RDI ne requiert pas d'utiliser le traitement DPV.
16.6.9.1 Commencez par un exemple de transformation
Pour utiliser la fonctionnalité RDI avec la transformation USA Regulatory Address Cleanse, il est préférable de commencer par l'exemple de configuration de transformation USARegulatoryRDI_Addre ssCleanse.
Les exemples de transformations sont situés dans l'onglet Transformations de la bibliothèque d'objets.
Cet exemple est situé sous transformations USA_Regulatory_Address_Cleanse.
16.6.9.2 Comment fonctionne RDI
Une fois que vous avez installé les répertoires USPS fournis par RDI (et activé le traitement RDI), le logiciel peut déterminer si l'adresse représentée par un code postal à 11 chiffres (code postal1, code postal2 et le DPBC) est une adresse résidentielle ou pas. (Le logiciel peut parfois procéder de la même façon avec un code postal2).
Le logiciel indique qu'une adresse est une adresse de domicile ou pas dans le composant sortant
RDI_INDICATOR.
L'utilisation de la fonctionnalité RDI implique quelques étapes seulement :
1.
Installez les répertoires fournis par USPS.
2.
Indiquez où sont situés ces répertoires.
3.
Activez le traitement RDI dans le logiciel.
4.
Exécutez.
Rubriques associées
•
16.6.9.2.1 Compatibilité
RDI dispose de la compatibilité suivante avec d'autres options dans le logiciel :
• RDI est autorisé en modes de traitement CASS et non CASS.
• RDI est autorisé avec ou sans traitement DPV.
624 2012-11-22
Qualité des données
625
16.6.9.3 Fichiers de répertoire RDI
Les répertoires RDI sont disponibles via USPS. Vous achetez ces répertoires directement du USPS et les installez conformément aux instructionsUSPS pour les rendre accessibles dans le logiciel.
RDI nécessite les répertoires suivants.
Fichier Description
rts.hs11
Pour des recherches de code postal à 11 chiffres
(code postal2 plus DPBC). Ce fichier est utilisé lorsqu'une adresse contient un code postal à 11 chiffres. La détermination est basée sur le Delivery Point.
rts.hs9
Pour des recherches de code postal à 9 chiffres
(code postal2). Ce fichier est un fichier ZIP+4.
Ceci est possible uniquement lorsque les adresses de ce fichier ZIP+4 sont destinées à tous les domiciles ou à aucun domicile.
16.6.9.3.1 Indiquez le chemin de répertoire RDI
Dans le groupe de fichiers de référence, indiquez l'emplacement de vos répertoires RDI dans l'option
RDI Path. Si le traitement RDI est désactivé, le logiciel ignore le paramétrage RDI Path.
16.6.9.4 Activation RDI
Si vous utilisez une copie de l'exemple de transformation USARegulatoryRDI_AddressCleanse dans votre flux de données, RDI est déjà activé. Cependant si vous commencez par une transformation USA
Regulatory Address Cleanse, vérifiez que vous activez RDI et définissez l'emplacement pour les répertoires RDI suivants : rts.hs11 et rts.hs9.
1.
Ouvrez la transformation USA Regulatory Address Cleanse.
2.
Dans l'onglet "Options", développez le groupe de fichiers de référence et saisissez l'emplacement des répertoires RDI dans l'option RDI Path ou utilisez la variable de substitution $$RefFilesAddres sCleanse si vous l'avez configurée.
2012-11-22
Qualité des données
3.
Développez le groupe Opération d'affectation et sélectionnez Oui pour l'option Enable RDI.
16.6.9.5 Champ de sortie RDI
Pour RDI, le logiciel utilise toujours un composant sortant contenant toujours un seul caractère. Le composant RDI est renseigné uniquement lorsque la valeur Oui est attribuée à l'option Activer RDI dans le groupe d'options d'affectation.
Champ
Job/Vues Longueur
RDI_INDICA-
TOR
1
Description
Ce champ contient la valeur RDI composée d'une des valeurs suivantes :
O = L'adresse est une adresse de domicile.
N = L'adresse n'est pas une adresse de domicile.
16.6.9.6 RDI dans rapports
Quelques rapports du logiciel disposent d'informations supplémentaires en raison de la fonctionnalité
RDI.
16.6.9.6.1 CASS Instruction, USPS Form 3553
USPS Form 3553 contient une entrée pour le nombre de résidences. (L'enregistrement d'en-tête CASS contient également ces informations).
16.6.9.6.2 Fichiers de statistiques
Les fichiers de statistiques contiennent des comptages et des pourcentages.RDI
16.6.10 GeoCensus (USA Regulatory Address Cleanse)
626 2012-11-22
Qualité des données
L'option GeoCensus de la transformation USA Regulatory Address Cleanse propose un codage géographique et de recensement permettant une analyse avancée des ventes et du marketing. Elle est disponible uniquement pour les enregistrements des Etats-Unis.
Remarque :
La fonctionnalité GeoCensus de la transformation USA Regulatory Address Cleanse sera obsolète dans une prochaine version. Nous vous conseillons de mettre à niveau tous les flux de données qui utilisent actuellement la fonctionnalité GeoCensus afin d'utiliser la transformation Geocoder. Pour obtenir des instructions sur la mise à niveau de GeoCensus vers la transformation Geocoder, voir le
Guide de mise à niveau.
Rubriques associées
•
•
•
Activation du codage GeoCensus
•
16.6.10.1 Comment fonctionne GeoCensus
Avec l'utilisation de GeoCensus, la transformation USA Regulatory Address Cleanse peut ajouter la latitude, la longitude et les codes de recensement tels que le secteur de recensement ou la zone statistique métropolitaine (MSA) aux enregistrements, en fonctions des codes ZIP+4. MSA est une agrégation des comtés des Etats-Unis dans les zones statistiques métropolitaines affectées par le US
Office of Management and Budget. Il est possible d'appliquer les codes GeoCensus lors de la normalisation d'adresses et l'affectation du code postal2 pour un traitement simple, “en une seule passe”.
La transformation ne peut pas, par elle-même, ajouter des données démographiques aux enregistrements. La transformation établit les bases en donnant les coordonnées du recensement via des champs de sortie. Pour ajouter des informations démographiques, vous avez besoin d'une base de données démographique d'un autre fournisseur. Lorsque vous en obtenez une, nous vous recommandons d'utiliser le processus de correspondance pour faire correspondre les enregistrements avec la base de données démographique, et de transférer les informations démographiques dans les enregistrements (Vous utiliseriez les informations MSA et de secteur de recensement comme des critères de correspondance, puis la transformation Best Record pour enregistrer les revenus et d'autres informations.)
De la même façon, la transformation ne dessine aucune carte. Cependant, il est possible d'utiliser la latitude et la longitude affectées par la transformation comme une entrée pour les applications de mappage tiers. Ces applications permettent de tracer les emplacements des clients et de filtrer la base de données pour couvrir une zone géographique en particulier.
627 2012-11-22
Qualité des données
16.6.10.2 Le logiciel fournit les coordonnées de recensement
Le logiciel ne peut pas, par lui-même, ajouter des données démographiques aux enregistrements. Le logiciel établit seulement les bases en donnant les coordonnées du recensement via des champs de sortie. Pour ajouter des informations démographiques, vous avez besoin d'une base de données démographique d'un autre fournisseur. Lorsque vous en obtenez une, nous vous recommandons d'utiliser la transformation Match pour faire correspondre vos enregistrements avec la base de données démographique, et de transférer les informations démographiques dans vos enregistrements (en termes techniques, vous utilisez les informations MSA et de secteur/îlot de recensement comme des critères de correspondance, puis vous utilisez l'opération de post-comparaison du meilleur enregistrement dans la transformation Match pour transférer les revenus et d'autres informations.
De la même façon, le logiciel ne dessine aucune carte. Cependant, il est possible d'utiliser la latitude et la longitude affectées par le logiciel comme une entrée pour le logiciel de mappage tiers. Ces programmes permettent de tracer les emplacements des clients et de filtrer la base de données pour couvrir une zone géographique en particulier.
Rubriques associées
•
16.6.10.3 Obtenir le meilleur des données GeoCensus
Il est possible de combiner le GeoCensus avec la fonctionnalité du logiciel de mappage pour afficher les informations géoaméliorées. GeoCensus aide une entreprise à construire ses stratégies de vente et de marketing. Ci-dessous se trouvent quelques manières d'utiliser les données GeoCensus, avec ou sans produit de mappage.
628 2012-11-22
Qualité des données
Type d'informations
Etudes de marché
Comment GeoCensus peut aider
Il est possible d'utiliser les applications de mappage pour analyser la pénétration de marché, par exemple. Les sociétés qui s'efforcent d'obtenir une meilleure compréhension de leurs marchés utilisent des études de marché. De cette façon, elles peuvent voir les données de vente, de marketing et démographiques sur des cartes, tableaux et graphiques. Le résultat est un programme marketing mieux ciblé. Vous comprenez où se trouvent vos clients et la pénétration que vous avez acquise dans les marchés choisis.
Modélisation prédictive et marketing ciblé
Il est possible de cibler avec plus de précision les clients pour les campagnes de réponse directes à l'aide de sélections géographiques. La modélisation prédictive ou d'autres techniques d'analyses permettent d'identifier les caractéristiques du client idéal.
Cette méthode incorpore les informations démographiques utilisées pour enrichir votre base de données client. A partir de cette analyse, il est possible d'identifier les meilleurs clients potentiels pour les programmes de publipostage ou de télémarketing.
Planification des médias Pour mieux appuyer vos décisions publicitaires, il est possible que vous souhaitiez utiliser la planification des médias. Le fait d'associer un affichage visuel des marchés clés avec une vue des médias peut aider une société à utiliser de façon plus stratégique le budget publicitaire.
Gestion du territoire
Ventes directes
Les données GeoCensus offrent une image du marché plus précise pour la société. Elles peuvent aider à distribuer les territoires et les quotas de vente plus équitablement.
L'utilisation des données GeoCensus avec les outils d'étude de marché et le logiciel de mappage permet de suivre les clients potentiels regroupés à partir des activités marketing.
629
16.6.10.4 Répertoires GeoCensus
Les chemins et les noms de fichier pour les répertoires suivants doivent être définis dans le groupe d'options Fichiers de référence de la transformation USA Regulatory Address Cleanse avant de pouvoir commencer le traitement GeoCensus. Il est possible d'utiliser la variable de substitution
$$RefFilesDataCleanse.
2012-11-22
Qualité des données
Nom de répertoire
ageo1-10 cgeo2.dir
Description
Les répertoires GeoCensus de niveau d'adresse sont exigés si vous sélectionnez Adresse pour l'option Mode Geo sous le groupe Opérations d'affectation.
Les répertoires GeoCensus de niveau centroide sont exigés si vous sélectionnez Adresse pour l'option Mode Geo sous le groupe Opérations d'affectation.
16.6.10.5 Options du mode GeoCensus
Pour activer le GeoCensus dans la transformation, vous devez choisir un mode dans l'optionMode
Geo dans le groupe Opérations d'affectation.
Description Mode
Adre sse
Traite le GeoCensus de niveau d'adresse uniquement.
Les deux
Essaye d'effectuer une affectation de GeoCensus de niveau d'adresse en premier. Si aucune affectation n'est réalisée, il essaye de faire une affectation de GeoCensus de niveau centroid.
Cen troid
Aucun
Traite le GeoCensus de niveau centroid uniquement.
Désactive le traitement GeoCensus.
630
16.6.10.6 Champs de sortie GeoCensus
Vous devez inclure au moins l'un des champs de sortie générés suivants dans la transformation USA
Regulatory Address Cleanse si vous prévoyez d'utiliser l'option GeoCensus :
• Code_Comté_AGeo
• AGeo_Latitude
• AGeo_Longitude
• AGeo_CodeMCD
• AGeo_Code_Emplacement
2012-11-22
Qualité des données
• AGeo_Code_Section
• Code_Stat_AGeo
• CGeo_CodeBSA
• CGeo_Latitude
• CGeo_Longitude
• CGeo_Code_Metro
• CGeo_Code_Section
Trouvez des descriptions de ces champs dans le
Guide de référence.
16.6.10.7 Exemple de configuration de transformation
Pour traiter avec la fonctionnalité GeoCensus dans la transformation USA Regulatory Address Cleanse, le mieux est de commencer avec l'exemple de configuration de la transformation créé avec GeoCensus.
Trouvez l'exemple de configuration, USARegulatoryGeo_AddressCleanse sous
USA_Regulatory_Address_Cleanse dans la bibliothèque d'objets.
16.6.10.8 Activation du codage GeoCensus
Si vous utilisez une copie de l'exemple de fichier de transformation USARegulatoryGeo_AddressCleanse dans votre flux de données, GeoCensus est déjà activé. Cependant, si vous commencez par une transformation USA Regulatory Address Cleanse, vérifiez que vous définissez l'emplacement du répertoire et l'option Mode Geo .
1.
Ouvrez la transformation USA Regulatory Address Cleanse.
2.
Dans l'onglet "Options", développez le groupe Fichiers de référence.
3.
Définissez les emplacements pour les répertoires cgeo.dir et ageo1-10.dir en fonction du
Mode Geo que vous sélectionnez.
4.
Développez le groupe Opération d'affectation et sélectionnez Adresse, Centroid ou Les deux pour l'option Mode Geo.
Si vous sélectionnez Aucun, la transformation n'exécutera pas le traitement GeoCensus.
Rubriques associées
•
GeoCensus (USA Regulatory Address Cleanse)
631 2012-11-22
Qualité des données
16.6.11 Z4Change (USA Regulatory Address Cleanse)
L'option Z4Change est basée sur un répertoire USPS du même nom. L'option Z4Change est disponible uniquement dans la transformation USA Regulatory Address Cleanse.
16.6.11.1 Utilisation de Z4Change pour gagner du temps
L'utilisation de l'optionZ4Change permet un gain de temps considérable en matière de traitement, par rapport à l'exécution de tous les enregistrements via le processus d'affectation classique ZIP+4.
Z4Change est plus rentable pour les bases de données importantes et stables, par exemple les bases de données de clients, abonnés réguliers etc. Dans nos tests, en fonction des fichiers où 5 % des enregistrements ont été concernés par une modification ZIP+4, la durée totale de traitement batch était du tiers du temps de traitement normal.
Lorsque vous utilisez la transformation de manière interactive, c'est-à-dire traitement d'une adresse à la fois, l'utilisation de Z4Change présente un moindre intérêt.
16.6.11.2 règles USPS
Z4Change doit être utilisé uniquement pour mettre à jour une base de données qui a subi précédemment un processus de validation complet. USPS nécessite que la liste de diffusion passe par un processus d'affectation complet tous les trois ans.
16.6.11.3 répertoire Z4Change
Le répertoire Z4Changez4change.dir est mis à jour mensuellement, il est disponible uniquement si vous avez acheté l'option Z4Change pour la transformation USA Regulatory Address Cleanse .
Le répertoire Z4Change contient une liste de tous les codes ZIP et ZIP+4 dans le pays.
632 2012-11-22
Qualité des données
16.6.11.4 Initialisation par un exemple de transformation
Pour utiliser la fonctionnalité Z4Change dans la transformation USA Regulatory Address Cleanse, il est préférable de commencer par l'exemple de transformation USARegulatoryZ4Change_AddressClea nse.
16.6.11.5 Activation Z4Change
Si vous utilisez une copie du modèle de fichier de configuration de transformation Z4Change (USARe gulatoryZ4Change_AddressCleanse) dans votre flux de données, Z4Change est déjà activé. Cependant si vous commencez à partir d'une transformation USA Regulatory Address Cleanse, vérifiez que vous définissez l'emplacement du répertoire et l'option Z4Change Mode.
1.
Ouvrez la transformation USA Regulatory Address Cleanse.
2.
Dans l'onglet "Options", développez le groupe de fichiers de référence.
3.
Activez l'emplacement du répertoire z4change.dir dans l'option répertoire Z4Change Directory.
4.
Développez le groupe d'options Z4Change et sélectionnez Oui pour l'option Activer modification
Z4.
5.
Dans le groupe d'options Z4Change, saisissez le mois et l'année de la mise à jour la plus récente des enregistrements ZIP+4 dans l'option Dernière date d'affectation ZIP+4.
16.6.12 Présentation des listes de propositions
Le traitement de liste de propositions est utilisé dans des projets opérationnels avec les transformations
USA Regulatory Address Cleanse, Global Address Cleanse, et Global Suggestion List. Utilisez des listes de propositions pour compléter et renseigner des adresses contenant un minimum de données.
Les listes de propositions peuvent indiquer des correspondances possibles si aucune correspondance exacte n'a été trouvée. Cette section aborde uniquement les listes de propositions dans la transformation
USA Regulatory Address Cleanse.
Remarque :
Le traitement de liste de propositions n'est pas disponible pour le traitement batch. En outre, si vous avez activé des listes de propositions, vous ne pouvez pas bénéficier de remises CASS et le logiciel ne créera pas la documentation CASS requise.
633 2012-11-22
Qualité des données
Rubriques associées
• Guide de référence : Listes de propositions Global Address Cleanse
• Guide d'intégration : Utilisation de Data Services comme fournisseur de service Web
•
Extraction de chaînes XML data quality à l'aide de la fonction extract_from_xml
16.6.12.1 Introduction aux listes de propositions
Dans l'idéal, lorsque la transformation USA Regulatory Address Cleanse recherche une adresse dans les fichiers de référence USPS (Ville/ ZIP City File), elle recherche un seul enregistrement correspondant avec la combinaison correspondante localité/région/code postal. Puis lors de la recherche dans le répertoire national ZIP+4 USPS, le logiciel doit trouver un seul enregistrement correspondant à l'adresse.
Liens de séparation
Il est parfois impossible de relier une adresse d'entrée à un enregistrement correspondant dans le répertoire. Parfois, le logiciel peut trouver plusieurs enregistrements de répertoire correspondant à peu près aux données d'entrée.
Lorsque le logiciel ne trouve pas une correspondance parfaite, il constitue une liste des correspondances proches et les présente comme propositions. Lorsque vous choisissez une proposition, le logiciel essaie
à nouveau d'affecter l'adresse.
Exemple : Dernière ligne incomplète
La dernière ligne ci-dessous étant incomplète, le logiciel n'a pas pu sélectionner de façon fiable l'une des quatre localités. Mais si vous en sélectionnez une, le logiciel peut poursuivre le processus d'affectation.
634 2012-11-22
Qualité des données
635
Enregistrement d'entrée
Ligne1=1000 vine
Ligne2lacr wi
Correspondances possibles dans les répertoires Ville/ ZIP
City File
La Crosse, WI 54603
Lancaster, WI 53813
La Crosse, WI 54601
Larson, WI 54947
Exemple : Direction manquante
Le même processus peut se produire avec les lignes d'adresse. Une direction manquante constitue un problème commun. Dans l'exemple ci-dessous, la direction peut être aussi bien le Nord que le
Sud. Le logiciel ne dispose d'aucune base pour choisir une direction plutôt qu'une autre.
Enregistrement d'entrée
Ligne1 = 615 losey blvd
Ligne2 = 54603
Correspondances possibles dans le répertoire
ZI+4
600-699 Losey Blvd N
600-698 Losey Blvd S
Exemple : Suffixe manquant
Un suffixe manquant pourrait se traduire par un comportement similaire à celui de l'exemple ci-dessus.
Enregistrement d'entrée
Ligne1 = 121 dorn
Ligne2 = 54601
Correspondances possibles dans le répertoire
ZI+4
100-199 Dorn Pl
101-199 Dorn St
Exemple : Noms de rue mal orthographiés
Un nom de rue mal orthographié ou incomplet pourrait également se traduire par une proposition d'adresses.
2012-11-22
Qualité des données
636
Enregistrement d'entrée
Ligne1 = 4100 marl
Ligne2 = minneapolis mn
Correspondances possibles dans le répertoire
ZI+4
4100-4199 Marshall 55421
4100-4199 Maryland 55427
16.6.12.1.1 Informations supplémentaires requises
Lorsque le logiciel crée une liste de propositions, vous devez disposez d'une certaine base pour sélectionner l'une des correspondances possibles. Parfois, vous avez besoin de plus d'informations avant de choisir une proposition.
Exemple
• Les opérateurs qui prennent des informations par téléphone peuvent demander des informations supplémentaires au client pour choisir la liste de propositions.
• Les opérateurs qui saisissent des données à partir d'un bon de réduction un peu taché peuvent choisir une proposition en fonction des informations apparaissant sur la partie non tachée.
16.6.12.1.2 Règle CASS
USPS n'autorise pas SAP BusinessObjects Data Services à générer un USPS Form 3553 lorsque les listes de propositions sont utilisées dans l'affectation des adresses. USPS suppose que les utilisateurs peuvent être tentés de faire des estimations, ce qui peut provoquer un mauvais acheminement du courrier, dont la gestion est coûteuse pour USPS.
Donc, quand vous utilisez la fonctionnalité de liste de propositions, vous ne pouvez pas obtenir de
USPS Form 3553 couvrant les adresses que vous affectez. Le formulaire est disponible uniquement quand vous exécutez un traitement par lots avec l'option Désactiver la certification définie sur Non.
Vous devez effectuer un traitement par lots des adresses des processus en temps réel afin d'être en conformité avec CASS. Le progiciel génère ensuite un USPS Form 3553 qui couvre la totalité de la base de données de publipostage et votre liste peut être éligible aux remises d'affranchissement.
16.6.12.1.3 Intégration de fonctionnalité
La fonctionnalité Listes de propositions est conçue pour être intégrée à vos propres applications personnalisées via le service Web. Pour plus d'informations sur l'intégration de Data Services aux applications Web, reportez-vous au Guide d'intégration.
16.6.12.1.4 Exemple de modèle de listes de propositions
Pour utiliser la fonction de listes de propositions, il est préférable de commencer par l'un des modèles de transformations configurés spécifiquement. Le modèle de transformation est appelé USARegulato
2012-11-22
Qualité des données rySuggestions_Address_Cleanse. Il est disponible pour la transformation USA Regulatory Address
Cleanse .
16.6.13 Rapport de statistiques de sources de données multiples
Statistiques basées sur des groupes logiques
Pour la transformation USA Regulatory Address Cleanse, une base de données d'entrée peut être une compilation de listes, avec chaque liste contenant un champ avec un identifiant unique. Cet identifiant unique peut être un nom, un nombre mais il doit se situer dans le même champ dans toutes les listes.
Le logiciel recueille des statistiques pour chaque liste à l'aide du champ d'entrée Data_Source_ID. Vous mappez le champ contenant l'identifiant unique dans votre liste, dans le champ d'entrée Data_Source_ID du logiciel. Lorsque le logiciel génère des rapports, certains de ces rapports contiendront un résumé pour toute la liste et un résumé distinct par liste en fonction de la valeur mappée dans le champ
Data_Source_ID.
Restriction :
Afin de se conformer aux restrictions en matière de rapport NCOALink la transformation USA Regulatory
Address Cleanse ne prend pas en charge le traitement de plusieurs listes de diffusion associées aux différents PAF. Par conséquent, pour le traitement de NCOALink, tous les enregistrements du fichier d'entrée sont considérés comme une liste de diffusion unique et sont signalés en tant que tel dans le fichier Customer Service Log (CSL).
Restriction :
La fonctionnalité Regrouper les statistiques par source de données n'est pas prise en charge lorsque les options Activer analyse uniquement ou Activer Geo uniquement dans le groupe d'options non certifiées sont activées sur Oui.
Rubriques associées
•
Regroupement de statistiques par liste
16.6.13.1 Champ Data_Source_ID
Le logiciel effectue le suivi des statistiques pour chaque liste en fonction du champ d'entrée
Data_Source_ID.
637 2012-11-22
Qualité des données
Exemple :
Dans cet exemple, 5 listes de diffusion sont combinées en une liste comme entrée dans la transformation USA Regulatory Address Cleanse. Chaque liste a un champ commun nommé List_ID et un identifiant unique dans le champ List_ID :N, S, E, W, C. Le mappage d'entrée est le suivant :
Nom du champ de l'entrée de transformation
Nom de la colonne du schéma d'entrée
DATA_SOURCE_ID LIST_ID
Type
varchar(80)
Pour obtenir des statistiques pour chaque List_ID, traitez le job puis ouvrez l'US Addressing Report
La première section Résumé DPV dans l'US Addressing Report liste le résumé cumulatif qui indique les totaux pour chaque ensemble d'entrées. Les sections suivantes du résumé DPV listent les résumés par Data_Source_ID. L'exemple du tableau ci-dessous indique les comptages et les pourcentages de l'ensemble de la base de données (résumé cumulatif) et pour Data_Source_ID “N”.
Statistique
Comptage de résumé cumulatif DPV
%
Résumé DPV pour Data_Source_ID “N”
%
Adresses validées DPV
Adresses DPV non valides
Adresses validées CMRA
Adresses vacantes DPV
Adresses NoStats DPV
1 968
3 032
3
109
162
3,94
6,06
0,01
0,22
0 32
214
286
0
10
17
4,28
5,72
0,00
0,20
0,34
Rubriques associées
•
Grouper les rapports de statistiques
638
16.6.13.2 Regroupement de statistiques par liste
Avant de configurer la transformation USA Regulatory Address Cleanse, pour regrouper des statistiques par liste, déterminez le champ qui identifie uniquement chaque liste. Par exemple, une liste de diffusion constituée de plusieurs sources doit contenir des listes avec un champ nommé LIST_ID qui identifie de manière unique chaque liste.
1.
Ouvrez la transformation USA Regulatory Address Cleanse dans le flux de données puis cliquez sur l'onglet "Options".
2012-11-22
Qualité des données
2.
Développez le groupe Rapport et Analyse et sélectionnez Oui pour les options Générer les données
du rapport et Regrouper les statistiques par source de données .
3.
Cliquez sur l'onglet "Entrée" puis sur le champ "Nom de la colonne du schéma d'entrée" en regard du champ Data_Source_ID pour identifier une liste de manière unique.
Un menu déroulant s'affiche.
4.
Cliquez sur ce menu déroulant et sélectionnez le champ d'entrée à partir de la base de données que vous avez sélectionnée comme champ commun pour identifier une liste de manière unique.
Dans le scénario ci-dessus, ce serait le champ LIST_ID.
5.
Poursuivez avec les tâches de configuration de job restantes et exécutez votre job.
16.6.13.3 Champ source physique et Résumé cumulé
Certains rapports incluent un rapport par liste en fonction du champ Data_Source_ID (identifié dans le pied de page du rapport par “Champ source physique”) et un résumé de la liste entière (identifié dans le pied de page du rapport par “Résumé cumulé”). Cependant, les rapports Address Standardization,
Address Information Code et USA Regulatory Locking n'incluent pas un résumé cumulé. Les enregistrements de ces rapports sont triés par la valeur ID Data Source.
Remarque :
Lorsque vous activez NCOALink, le logiciel indique un résumé par liste uniquement pour les sections suivantes du rapport COALink Processing Summary :
• NCOALink Move Type Summary
• NCOALink Return Code Summary
• ANKLink Return Code Summary
Cas particuliers
Dans certains cas, les termes “Résumé cumulé” et“ Champ source physique” ne s'afficheront pas dans les sections de pied de page du rapport.
• Lorsque l'option Regrouper les statistiques par source de données est définie sur Non.
• Lorsque l'option Regrouper les statistiques par source de données est définie sur Oui et qu'une seule valeur d'ID de source de données figure dans la liste mais qu'elle est nulle.
16.6.13.3.1 Formulaire 3553 USPS et reporting de groupe
Le formulaire 3553 USPS comprend un résumé de la liste entière et un rapport par liste basé sur le champ ID_Source_Données.
Exemple : Cumulative Summary
Le formulaire 3553 USPS désigne le résumé de la liste entière par les mots “Cumulative Summary”.
Ils figurent dans le pied de page comme le montre le surlignage dans le modèle de rapport Cumulative
639 2012-11-22
Qualité des données
Summary ci-dessous. En outre, le Cumulative Summary du formulaire 3553 USPS contient le nombre total de listes du job dans la section B, champ numéro 5, "Nombre de listes" (surligné ci-dessous).
Exemple : Physical Source Field
Le formulaire 3553 USPS désigne le résumé de chaque liste par les mots "Physical Source Field" suivis de la valeur de l'ID de la source de données. Ils figurent dans le pied de page comme le montre le surlignage dans le modèle ci-dessous. Les données du rapport concernent uniquement cette liste.
640 2012-11-22
Qualité des données
16.6.13.3.2 Grouper les rapports de statistiques
Les rapports indiquant deux statistiques cumulées (résumés pour la liste de diffusion entière) et regroupant des statistiques (en fonction du champ source physique) incluent les rapports suivants :
• Résumé de validation d'adresse
• Résumé de type d'adresse
• US Addressing
Les rapports n'incluant aucun résumé cumulé comprennent les éléments suivants :
• Résumé du code d'information de l'adresse
• Normalisation de l'adresse
• US Regulatory Locking
Rubriques associées
•
16.7 Prise en charge de Data Quality pour les types de données natives
En général, les transformations Data Quality traitent les types de données entrantes en tant que données caractères. Ainsi, si un type de données non-caractères est mappé en tant qu'entrée, le progiciel
641 2012-11-22
Qualité des données convertit les données en chaîne de caractères avant de les transmettre par l'intermédiaire des transformations Data Quality.
Certains types de données Data Quality sont reconnus et traités en tant que types de données similaires
à des entrées. Par exemple, si un champ de type de données est mappé vers un champ d'entrée de type de données Data Quality, le progiciel présente les avantages suivants :
• Tri : la transformation reconnaît et trie les données entrantes comme le type de données spécifié.
• Efficacité : la quantité de données converties en données caractères est réduite, optimisant le traitement.
Rubriques associées
• Guide de référence : transformations Data Quality
• Guide de référence : types de données
16.7.1 Définitions du type de données Qualité des données
Les transformations Data Quality disposent de quatre attributs pour définir le champ :
• Nom
• Type
• Longueur
• Echelle
Ces attributs sont listés dans les onglets Entrée et Sortie de l'éditeur de transformation.
Dans l'onglet Entrée, l'attribut Nom est listé dans la colonne Nom du champ d'entrée de la
transformation. Les attributs Type, Longueur et Echelle sont listés dans la colonne Type au format
<type>(<longueur>, <échelle>).
L'onglet Sortie contient également les quatre attributs de champ listés ci-dessus. L'attribut Nom est listé dans la colonne Nom_Champ. Les attributs Type, Longueur et Echelle sont listés dans la colonne
Type au format <type>(<longueur>, <échelle>).
16.8 Data Quality support pour valeurs nulles
Les transformations Data Quality traitent des valeurs nulles comme telles.
Une zone de VALEUR NULLE est transférée au traitement avec le marqueur VALEUR NULLE conservé sauf si des données sont définies pour renseigner la zone à la sortie. Lorsque des données sont définies, la zone est renseignée avec ces dernières au lieu de la VALEUR NULLE. L'avantage de ce processus est que les transformations Data Quality traitent un marqueur VALEUR NULLE comme étant inconnu au lieu de vide.
642 2012-11-22
Qualité des données
Remarque :
Si toutes les zones d'un enregistrement contiennent la VALEUR NULLE, la transformation ne traitera pas l'enregistrement et ce dernier ne fera pas partie des statistiques et des rapports.
Rubriques associées
• Guide de référence : Transformations Data Quality
• Guide de référence : Valeurs nulles et chaînes vides
643 2012-11-22
Qualité des données
644 2012-11-22
Conception et débogage
Conception et débogage
Cette section traite des fonctionnalités suivantes de Designer pouvant être utilisées pour concevoir et déboguer les jobs :
• Utilisez la fonctionnalité Afficher les cas d'emploi pour déterminer l'impact de la modification d'un objet de métadonnées (par exemple, sur une table). Voyez quels flux de données utilisent le même objet.
• Utilisez la fonctionnalité Afficher les données pour visualiser des échantillons de données source, de transformation et cible dans un flux de données après exécution d'un job.
• Utilisez la fonctionnalité Affichage des données lors de la conception pour visualiser et analyser l'entrée et la sortie d'un jeu de données en temps réel lors de la conception d'une transformation.
• Utilisez le Débogueur interactif pour définir des points de contrôle et des filtres entre les transformations dans un flux de données et afficher les données de job ligne par ligne durant l'exécution d'un job.
• Utilisez l'Affichage des différences pour comparer les métadonnées d'objets similaires et leurs propriétés.
• Utilisez la fonctionnalité Audit du flux de données pour vérifier que les bonnes données sont traitées par un objet source, de transformation ou cible.
Rubriques associées
•
Utilisation de Afficher les cas d'emploi
•
Utilisation de l'affichage des données
•
Utilisation de l'affichage des données lors de la conception
•
Utilisation du débogueur interactif
•
•
17.1 Utilisation de Afficher les cas d'emploi
Lorsque vous enregistrez un job, un workflow ou un flux de données, le progiciel enregistre également la liste des objets utilisés par ceux-ci dans votre référentiel. Les données des relations parent/enfant sont conservées. Par exemple, lorsque le flux de données parent suivant est enregistré, le progiciel enregistre également les pointeurs entre celui-ci et ses trois enfants :
645 2012-11-22
Conception et débogage
• une table source
• une transformation Query
• un fichier cible
Vous pouvez utiliser ces données de relation parent/enfant pour déterminer par exemple l'impact d'une modification de table sur les autres flux de données qui utilisent la même table. Les données sont accessibles à l'aide de l'option Afficher les cas d'emploi.
Par exemple, lors de la gestion d'un flux de données, vous pouvez avoir besoin de supprimer une définition de table source et de réimporter la table (ou de modifier son schéma). Avant de le faire, recherchez tous les flux de données qui utilisent aussi la table et mettez-les à jour si nécessaire.
Pour accéder à l'option Afficher les cas d'emploi dans Designer, vous pouvez travailler depuis la bibliothèque d'objets ou l'espace de travail.
17.1.1 Accès à Afficher les cas d'emploi depuis la bibliothèque d'objets
Vous pouvez afficher le nombre de fois qu'un objet est utilisé, puis voir où il est utilisé.
17.1.1.1 Accès aux informations de relation parent/enfant depuis la bibliothèque d'objets
1.
Affichez un objet dans la bibliothèque d'objets pour voir le nombre de fois où il a été utilisé.
La colonne Utilisation figure dans tous les onglets de la bibliothèque d'objets, sauf :
• Projets
• Jobs
646 2012-11-22
Conception et débogage
647
• Transformations
Cliquez sur l'en-tête de la colonne Utilisation pour trier les valeurs. Par exemple, pour rechercher les objets non utilisés.
2.
Si la colonne Utilisation est supérieure à zéro, cliquez avec le bouton droit sur l'objet et sélectionnez
Afficher les cas d'emploi.
La fenêtre "Sortie" s'ouvre. L'onglet Informations affiche des lignes pour chaque parent de l'objet sélectionné. Le type et le nom de l'objet sélectionné sont affichés dans l'en-tête de la première colonne.
La colonne En tant que fournit davantage de contexte. La colonne En tant indique comment l'objet sélectionné est utilisé par le parent.
Les autres valeurs possibles de la colonne En tant que sont :
• Pour les fichiers et messages XML, les tables, les fichiers plats, etc., les valeurs peuvent être
Source ou Cible.
• Pour les fichiers plats et tables uniquement :
En tant que Description
Lookup() Table/fichier de recherche utilisé dans une fonction lookup.
Lookup_ext()
Lookup_seq()
Table/fichier de recherche utilisé dans une fonction lookup_ext.
Table/fichier de recherche utilisé dans une fonction lookup_seq.
• Pour les tables uniquement :
En tant que Description
Comparaison Table utilisée dans la transformation Table Comparison
Génération de clé Table utilisée dans la transformation Key Generation
3.
Dans la fenêtre "Sortie", double-cliquez sur un objet parent.
Le diagramme de l'espace de travail s'ouvre en mettant en surbrillance l'objet enfant utilisé par le parent.
Une fois qu'un parent est ouvert dans l'espace de travail, vous pouvez double-cliquer à nouveau sur une ligne de la fenêtre Sortie..
2012-11-22
Conception et débogage
• Si la ligne représente un parent différent, le diagramme de l'espace de travail de cet objet s'ouvre.
• Si la ligne représente un objet enfant du même parent, cet objet est simplement mis en surbrillance dans le diagramme ouvert.
C'est une option importante, parce qu'un objet enfant de la fenêtre "Sortie" peut ne pas correspondre au nom utilisé dans son parent. Vous pouvez personnaliser les noms d'objets de l'espace de travail pour les sources et les cibles.
Le progiciel enregistre le nom utilisé dans chaque parent et le nom utilisé dans la bibliothèque d'objets. L'onglet Informations de la fenêtre "Sortie" affiche le nom utilisé dans la bibliothèque d'objets. Les noms des objets utilisés dans les parents sont visibles uniquement en ouvrant le parent dans l'espace de travail.
17.1.2 Accès à Afficher les cas d'emploi depuis l'espace de travail
Depuis le diagramme ouvert d'un objet de l'espace de travail (un flux de données par exemple), vous pouvez voir si un objet parent ou enfant est utilisé :
• Pour afficher les informations de l'objet (parent) ouvert, sélectionnez Afficher > les cas d'emploi ou sélectionnez le bouton Afficher les cas d'emploi dans la barre d'outils.
La fenêtre "Sortie" s'ouvre avec une liste des jobs (objets parents) qui utilisent le flux de données ouvert.
• Pour afficher les informations d'un objet enfant, cliquez avec le bouton droit sur un objet dans le diagramme de l'espace de travail et sélectionnez l'option Afficher les cas d'emploi.
La fenêtre "Sortie" s'ouvre avec une liste des objets parents qui utilisent l'objet sélectionné. Par exemple, si vous sélectionnez une table, la fenêtre "Sortie" affiche une liste des flux de données qui utilisent la table.
17.1.3 Restrictions
• Cette fonctionnalité n'est pas prise en charge dans les référentiels centraux.
• Seules les paires parent/enfant sont affichées dans l'onglet Informations de la fenêtre Sortie.
Par exemple, pour une table, un flux de données est le parent. Si la table est également utilisée par un grand-parent (un workflow, par exemple), celui-ci n'est pas répertorié dans l'affichage de la fenêtre
"Sortie" pour une table. Pour voir la relation entre un flux de données et un workflow, ouvrez le workflow dans l'espace de travail, puis cliquez avec le bouton droit sur un flux de données et sélectionnez l'option Afficher les cas d'emploi.
648 2012-11-22
Conception et débogage
• Le progiciel n'enregistre pas les relations parent/enfant entre les fonctions.
• Si la fonction A appelle la fonction B et que la fonction A n'est dans aucun flux de données ou script, la zone Utilisation de la bibliothèque d'objets affichera zéro pour les deux fonctions. Le fait que la fonction B soit utilisée une fois dans la fonction A n'est pas pris en compte.
• Si la fonction A est enregistrée dans un flux de données, la zone Utilisation de la bibliothèque d'objets affichera 1 pour les deux fonctions A et B.
• Les transformations ne sont pas prises en charge. Sont incluses les transformations ABAP personnalisées que vous pourriez créer pour prendre en charge un environnement d'applications
SAP.
• Designer compte l'utilisation d'un objet comme le nombre de fois qu'il est utilisé dans un but unique.
Par exemple, dans le flux de données DF1, si la table DEPT est utilisée deux fois comme source et une fois comme cible, la bibliothèque d'objets affiche son Utilisation comme étant 2. Ce cas doit
être rare. Par exemple, une table n'est pas souvent jointe à elle-même dans la conception d'un job.
17.2 Utilisation de l'affichage des données
L'affichage des données fournit un moyen d'analyser et capturer un échantillon des donnés produites par chaque étape d'un job, même si son exécution échoue. Affichez les données source importées, les données modifiées des transformations et les données finales des cibles. Après l'importation d'une source de données, vous pouvez contrôler à tout moment le statut de ces données, avant et après traitement des flux de données.
Utilisez l'affichage des données pour contrôler les données lors des jobs de conception et de test afin de vous assurer que votre conception renvoie les résultats attendus. A l'aide d'un ou plusieurs volets d'affichage des données, vous pouvez afficher et comparer les échantillons de données de différentes
étapes. Les informations d'affichage des données sont affichées dans des panneaux intégrés pour faciliter la navigation entre les flux et les données.
Utilisez l'affichage des données pour examiner :
• Les sources et les cibles
L'affichage des données permet de voir les données avant d'exécuter un job. Fort des détails des données, vous pouvez concevoir des jobs de qualité supérieure. Vous pouvez parcourir et analyser les données des tables et fichiers de la bibliothèque d'objets et aussi voir les données de ces mêmes objets dans des jobs existants. Après exécution du job, vous pouvez à nouveau vous reporter aux données source.
• Les transformations
• Les lignes d'un diagramme
Remarque :
• L'affichage des données affiche les données BLOB comme <blob>.
649 2012-11-22
Conception et débogage
• L'affichage des données n'est pas pris en charge pour les IDocs de SAP. Pour SAP et PeopleSoft, les options de l'onglet Profil de table et Profil de colonne ne sont pas prises en charge pour les hiérarchies.
Rubriques associées
•
Affichage des données passées par les transformations
•
Utilisation du débogueur interactif
17.2.1 Accès à l'affichage des données
17.2.1.1 Affichage des données des sources et cibles
Vous pouvez afficher les données des sources et cibles depuis deux emplacements différents :
1.
Le bouton Afficher les données
Le bouton Afficher les données apparaît sur les objets source et cible lorsque vous les faites glisser dans l'espace de travail. Cliquez sur le bouton Afficher les données (icône loupe) pour ouvrir un volet d'affichage des données pour cet objet source ou cible.
2.
La bibliothèque d'objets
Affichez les données des objets source ou cible potentiels des onglets Banques de données ou
Formats.
Ouvrez un volet d'affichage des données depuis la bibliothèque d'objets à l'aide d'une des méthodes suivantes :
• Cliquez avec le bouton droit sur un objet de table et sélectionnez Afficher les données.
• Cliquez avec le bouton droit sur une table et sélectionnez Ouvrir ou Propriétés.
La fenêtre Métadonnées de table, Editeur de format XML ou Propriétés s'ouvre. Vous pouvez sélectionner l'onglet Afficher les données depuis l'une de ces fenêtres.
Pour afficher les données d'un fichier, celui-ci doit exister physiquement et être disponible depuis le système d'exploitation de votre ordinateur. Pour afficher les données d'une table, elle doit provenir d'une base de données prise en charge.
Rubriques associées
•
Affichage des données dans l'espace de travail
650 2012-11-22
Conception et débogage
17.2.2 Affichage des données dans l'espace de travail
L'affichage des données est accessible dans l'espace de travail quand les boutons loupe apparaissent sur les objets qualifiés d'un flux de données. Cela signifie :
Pour les sources et cibles, les fichiers doivent exister physiquement et être accessibles depuis Designer, les tables doivent provenir d'une base de données prise en charge.
Pour ouvrir un volet d'affichage des données dans l'espace de travail de Designer, cliquez sur le bouton loupe d'un objet de flux de données.
Un grand volet d'affichage des données s'ouvre sous la zone de l'espace de travail. Cliquez sur le bouton loupe pour tout autre objet et un deuxième volet s'ouvre sous la zone de l'espace de travail.
(Notez que la zone du premier volet se rétrécit pour s'adapter à la présence du deuxième volet).
651 2012-11-22
Conception et débogage
652
Vous pouvez ouvrir deux volets d'affichage des données pour un affichage simultané. Lorsque les deux volets sont remplis et que vous cliquez sur un autre bouton d'affichage des données, un petit menu s'affiche, il contient les icônes de placement des fenêtres. La zone noire de chaque icône indique le volet que vous désirez remplacer par un nouveau jeu de données. Cliquez sur une option du menu et les données du dernier objet sélectionné remplacent celles du volet correspondant.
La description ou le chemin correspondant au bouton d'affichage des données sélectionné s'affiche en haut du volet.
• Pour les sources et les cibles, la description est le nom complet de l'objet :
•
NomObjet
(Banque de données.Propriétaire) pour les tables
•
NomFichier
(Nom du format de fichier) pour les fichiers
• Pour les boutons d'affichage des données placés sur une ligne, le chemin comprend le nom de l'objet de gauche, une flèche et le nom de l'objet de droite.
Par exemple, si vous sélectionnez un bouton d'affichage des données placé sur la ligne entre la requête nommée Query et la cible nommée ALVW_JOBINFO(joes.DI_REPO), le chemin sera le suivant :
Query -> ALVW_JOBINFO(Joes.DI_REPO)
Vous pouvez aussi rechercher le volet d'affichage des données associé à un objet ou une ligne en :
• Faisant passer le curseur sur un bouton d'affichage des données d'un objet ou d'une ligne. Designer met en surbrillance le volet d'affichage des données de l'objet.
2012-11-22
Conception et débogage
• Recherchant les boutons d'affichage des données gris sur les objets et les lignes. Designer affiche les boutons d'affichage des données des objets ouverts avec un arrière-plan gris plutôt que blanc.
Rubriques associées
•
Affichage des données passées par les transformations
17.2.3 Propriétés de l'affichage des données
Vous pouvez accéder aux propriétés de l'affichage des données à l'aide des boutons de la barre d'outils ou du menu contextuel (par clic droit).
L'affichage des données se fait dans les lignes et les colonnes d'une grille de données. Le nombre de lignes affichées est déterminé par une combinaison de plusieurs conditions :
• Taille d'échantillon : nombre de lignes échantillonnées dans la mémoire. La taille d'échantillon par défaut est de 1 000 lignes pour les objets source et cible importés. La taille d'échantillon maximale est de 5 000 lignes. La taille d'échantillon pour les objets source est définie depuis Outils > Options
> Designer > Général > Taille d'échantillon de l'affichage des données.
Lorsqu'il utilise le débogueur interactif, le progiciel emploie l'option Fréquence d'échantillonnage des données au lieu de la taille d'échantillon.
• Filtrage
• Tri
Si le jeu de données d'origine est plus petit ou si vous utilisez des filtres, le nombre de lignes retournées peut être inférieur à la valeur par défaut.
Vous pouvez voir quelles conditions ont été appliquées dans la barre de navigation.
Rubriques associées
•
•
•
Démarrage et arrêt du débogueur interactif
17.2.3.1 Filtrage
Vous pouvez mettre l'accent sur différents ensembles de lignes d'un échantillon de données local ou nouveau en plaçant des conditions d'extraction sur les colonnes.
653 2012-11-22
Conception et débogage
654
17.2.3.1.1 Affichage et ajout des filtres
1.
Dans la barre d'outils de l'affichage des données, cliquez sur le bouton Filtres ou cliquez avec le bouton droit sur la grille et sélectionnez Filtres.
La fenêtre Filtres s'ouvre.
2.
Création de filtres
La fenêtre Filtres comporte trois colonnes : a.
Colonne : sélectionnez un nom dans la première colonne. Sélectionnez {supprimer le filtre} pour supprimer le filtre.
b.
Opérateur : sélectionnez un opérateur dans la deuxième colonne.
c.
Valeur : saisissez dans la troisième colonne une valeur qui utilise un des trois formats de type de données suivants.
Type de données Format
Entier, double, réel standard date time datetime varchar aaaa.mm.jj
hh24:mm:ss aaaa.mm.jj hh24:mm.ss
'abc'
3.
Dans la zone de liste déroulante Concaténer tous les filtres à l'aide de, sélectionnez un opérateur
(AND, OR) pour que le moteur l'utilise dans la concaténation des filtres.
Chaque ligne de cette fenêtre est considérée comme un filtre.
4.
Pour voir de quelle manière le filtre affecte l'ensemble actuel de lignes renvoyées, cliquez sur
Appliquer.
5.
Pour enregistrer les filtres et fermer la fenêtre Filtres, cliquez sur OK.
Vos filtres sont enregistrés pour l'objet en cours et l'échantillon local est mis à jour pour afficher les données filtrées comme indiqué dans la boîte de dialogue Filtres. Pour utiliser les filtres avec un nouvel échantillon, voir Utilisation de l'actualisation.
Rubriques associées
•
Utilisation de l'actualisation
2012-11-22
Conception et débogage
17.2.3.1.2 Ajout d'un filtre pour une cellule sélectionnée
1.
Sélectionnez une cellule dans la grille de l'échantillon de données.
2.
dans la barre d'outils de l'affichage des données, cliquez sur le bouton Ajouter un filtre ou cliquez sur la cellule avec le bouton droit et sélectionnez Ajouter un filtre.
L'option Ajouter un filtre ajoute la nouvelle condition de filtrage, <colonne> = <valeur de la cellule>, puis ouvre la fenêtre Filtres pour que vous puissiez afficher ou modifier le nouveau filtre.
3.
Quand vous avez terminé, cliquez sur OK.
Pour supprimer les filtres d'un objet, accédez à la barre d'outils d'affichage des données et cliquez sur le bouton Supprimer les filtres ou cliquez sur la grille avec le bouton droit et sélectionnez Supprimer
les filtres. Tous les filtres sont supprimés de l'objet en cours.
17.2.3.2 Tri
Vous pouvez cliquer sur un ou plusieurs en-têtes de colonne de la grille de données pour trier les données. Une flèche apparaît sur l'en-tête pour indiquer l'ordre de tri : croissant (flèche vers le haut) ou décroissant (flèche vers le bas).
Pour modifier l'ordre de tri, cliquez à nouveau sur l'en-tête de colonne. La priorité d'un tri se fait de gauche à droite dans la grille.
Pour supprimer le tri d'un objet, dans la barre d'outils, cliquez sur le bouton Supprimer le tri ou cliquez sur la grille avec le bouton droit et sélectionnez Supprimer le tri.
Rubriques associées
•
Utilisation de l'actualisation
655
17.2.3.3 Utilisation de l'actualisation
Pour charger un autre échantillon de données de la base de données à l'aide de nouveaux paramètres de filtre et de tri, utilisez la commande Actualiser. Après avoir modifié le filtrage et le tri, cliquez sur le bouton Actualiser de la barre d'outils ou cliquez sur la grille de données avec le bouton droit et sélectionnez Actualiser.
2012-11-22
Conception et débogage
656
Pour interrompre une opération d'actualisation, cliquez sur le bouton Arrêter. Pendant que le progiciel actualise les données, toutes les commandes d'affichage des données sont désactivées, sauf le bouton
Arrêter.
17.2.3.4 Utilisation de l'option Afficher/masquer les colonnes
Vous pouvez restreindre le nombre de colonnes affichées dans l'affichage des données en utilisant l'option Afficher/masquer les colonnes depuis :
• La barre d'outils.
• Le menu contextuel (clic droit).
• Le menu contextuel fléché, situé à droite du bouton Afficher/masquer les colonnes de la barre d'outils. Cette option est disponible uniquement si le nombre total de colonnes de la table est au maximum de dix. Sélectionnez une colonne pour l'afficher.
Vous pouvez également "masquer rapidement" une colonne en cliquant avec le bouton droit sur son en-tête et en sélectionnant Masquer dans le menu.
17.2.3.4.1 Pour afficher ou masquer des colonnes
1.
Cliquez sur le bouton Afficher/masquer les colonnes de la barre d'outils ou cliquez avec le bouton droit sur la grille de données et sélectionnez Afficher/masquer les colonnes.
La fenêtre Paramètres de colonne s'ouvre.
2.
Sélectionnez les colonnes à afficher ou cliquez sur l'un des boutons suivants : Afficher, Afficher
tout, Masquer ou Masquer tout.
3.
Cliquez sur OK.
17.2.3.5 Ouverture d'une nouvelle fenêtre.
Pour voir davantage de l'échantillon de données que vous visualisez dans un volet d'affichage des données, ouvrez une fenêtre d'affichage des données de taille normale. Depuis un volet d'affichage des données, cliquez sur le bouton Ouvrir une fenêtre de la barre d'outils pour activer une fenêtre
2012-11-22
Conception et débogage distincte d'affichage des données de taille normale. Autrement, vous pouvez cliquer avec le bouton droit et sélectionner dans le menu la commande Ouvrir dans une nouvelle fenêtre.
17.2.4 Options de la barre d'outils d'affichage des données
Les options suivantes sont disponibles sur les volets d'affichage des données
Icône Option Description
Ouvrir dans une nouvelle fenêtre
Ouvre le volet d'affichage des données dans une fenêtre plus grande.
Enregistrer sous
Imprimer
Copier la cellule
Actualiser les données
Enregistre les données du volet d'affichage des données.
Imprime les données du volet d'affichage des données.
Copie les données d'une cellule du volet d'affichage des données.
Extrait un autre échantillon des données existantes dans le volet d'affichage des données à l'aide de nouveaux paramètres de filtre et de tri.
Ouvre la fenêtre Filtres.
Ajoute un filtre à la cellule sélectionnée.
Ouvrir la fenêtre Filtres
Ajouter un filtre
Supprimer le filtre
Supprime tous les filtres d'un volet d'affichage des données.
Supprime les paramètres de tri de l'objet sélectionné.
Supprimer le tri
Afficher/masquer la navigation
Affiche ou masque la barre de navigation qui s'affiche sous la table de données.
657 2012-11-22
Conception et débogage
Icône Option
Afficher/masquer les colonnes
Description
Rubriques associées
•
Ouverture d'une nouvelle fenêtre.
•
Utilisation de l'actualisation
•
•
•
Ajout d'un filtre pour une cellule sélectionnée
•
Utilisation de l'option Afficher/masquer les colonnes
17.2.5 Onglets d'affichage des données
Le panneau d'affichage des données des objets comporte trois onglets :
• Onglet Données
• Onglet Profil
• Onglet Profil de colonne
Utilisez les options des onglets pour obtenir un profil complet d'un objet source ou cible. L'onglet
Données est toujours disponible. Les onglets Profil et Relation sont pris en charge par le profileur de données. Sans le profileur de données, les onglets Profil et Profil de colonne sont pris en charge pour certaines sources ou cibles (voir les Notes de version pour en savoir plus).
Rubriques associées
•
Affichage des résultats du profileur
17.2.5.1 Onglet Données
L'onglet Données permet d'utiliser les propriétés d'affichage des données. Il indique également les schémas imbriqués tels que ceux utilisés dans les fichiers et messages XML. Lorsqu'une colonne fait référence à des schémas imbriqués, elle est ombrée en jaune et une petite icône de table s'affiche dans l'en-tête de colonne.
658 2012-11-22
Conception et débogage
Rubriques associées
•
Propriétés de l'affichage des données
17.2.5.1.1 Affichage d'un schéma imbriqué
1.
Double-cliquez sur une cellule.
La grille de données est mise à jour pour afficher les données de la cellule sélectionnée ou de la table imbriquée.
Dans la zone Schéma, la valeur de la cellule sélectionnée est marquée d'une icône spéciale. En outre, les tables et colonnes du chemin sélectionné sont affichées en bleu alors que les références du schéma imbriqué sont affichées en gris.
Dans la zone Données, les données sont affichées pour les colonnes. Les références du schéma imbriqué sont affichées entre chevrons, par exemple <NomSociété>.
2.
Continuez à utiliser le côté grille de données du panneau pour naviguer. Par exemple :
• Sélectionnez une colonne imbriquée de niveau inférieur et double-cliquez sur une cellule pour mettre à jour la grille de données.
• Cliquez sur la flèche en haut de la grille de données pour monter dans la hiérarchie.
• Voyez le chemin complet vers la colonne ou la table sélectionnée qui est affiché à droite du bouton Explorer en arrière. Utilisez le chemin et la grille de données pour naviguer dans les schémas imbriqués.
659
17.2.5.2 Onglet Profil
Si vous utilisez le profileur de données, l'onglet Profil affiche les attributs de profil que vous avez sélectionnés dans l'option Soumettre la demande de profil de colonne.
L'onglet Profil permet de calculer les informations statistiques de tout ensemble de colonnes sélectionné.
Cette fonctionnalité facultative n'est pas disponible pour les colonnes avec schémas imbriqués ou pour le type de données LONG.
Rubriques associées
•
Exécution d'une tâche du profileur
17.2.5.2.1 Utilisation de l'onglet Profil sans le profileur de données
1.
Sélectionnez une ou plusieurs colonnes.
2012-11-22
Conception et débogage
Comme les calculs de mise à jour ont un impact sur les performances, sélectionnez uniquement les noms des colonnes dont vous avez besoin pour cette opération de profilage.
Vous pouvez également cliquer avec le bouton droit pour utiliser les options du menu Sélectionner tout ou Désélectionner tout.
2.
Cliquez sur Mettre à jour.
3.
Les statistiques s'affichent dans la grille Profil.
La grille comporte six colonnes.
Colonne
Colonne
Valeurs distinctes
Valeurs NULL
Min.
Max.
Dernière mise à jour
Description
Noms des colonnes de la table actuelle. Sélectionnez les noms dans cette colonne, puis cliquez sur Mettre à jour pour remplir la grille de profil.
Nombre total de valeurs distinctes dans cette colonne.
Nombre total de valeurs NULL dans cette colonne.
Valeur minimale de toutes les valeurs de cette colonne.
Valeur maximale de toutes les valeurs de cette colonne.
Heure à laquelle cette statistique a été calculée.
Triez les valeurs de cette grille en cliquant sur les en-têtes des colonnes. Notez que les colonnes
Min. et Max. ne peuvent pas être triées.
Outre la mise à jour des statistiques, vous pouvez cliquer sur le bouton Enregistrements de l'onglet
Profil pour compter le nombre total d'enregistrements physiques dans l'objet que vous profilez.
Le progiciel enregistre les valeurs calculées auparavant dans la référentiel et les affiche jusqu'à la prochaine mise à jour.
660
17.2.5.3 Onglet Profil de colonne
L'onglet Profil de colonne permet de calculer des informations statistiques pour une seule colonne. Si vous utilisez le profileur de données, l'onglet Relation s'affiche à la place de Profil de colonne.
Remarque :
Cette fonctionnalité facultative n'est pas disponible pour les colonnes avec schémas imbriqués ou pour le type de données LONG.
Rubriques associées
•
Affichage des données de profil de la relation générées par le profileur de données
2012-11-22
Conception et débogage
17.2.5.3.1 Calcul des statistiques d'utilisation d'une valeur pour une colonne
1.
Saisissez un nombre dans la zone Premières.
Ce nombre est utilisé pour rechercher les valeurs les plus souvent utilisées dans la colonne. La valeur par défaut est 10, c'est-à-dire que le progiciel renvoie les 10 valeurs les plus souvent utilisées.
2.
Sélectionnez un nom de colonne dans la zone de liste déroulante.
3.
Cliquez sur Mettre à jour.
La grille Profil de colonne affiche les statistiques de la colonne indiquée. La grille comporte trois colonnes :
Colonne
Valeur
Total
Pourcentage
Description
Une valeur "Premières" (plus souvent utilisée) trouvée dans la colonne indiquée ou "Autres" (valeurs restantes non utilisées fréquemment).
Nombre total de lignes dans la colonne indiquée qui contient cette valeur.
Pourcentage de lignes dans la colonne indiquée comportant cette valeur par rapport au nombre total de valeurs de la colonne.
Le logiciel renvoie un nombre de valeurs correspondant au maximum au nombre indiqué dans la zone Premières, plus une autre valeur nommée “Autre”.
Donc, si vous saisissez 4 dans la zone Premières, vous obtiendrez jusqu'à 5 valeurs renvoyées (les
4 valeurs les plus utilisées dans la colonne indiquée, plus la catégorie “Autre”). Les résultats sont enregistrés dans le référentiel et affichés jusqu'à l'exécution d'une nouvelle mise à jour.
661
Par exemple, les résultats statistiques de la table précédente indiquent que parmi les quatre valeurs les plus souvent utilisées dans la colonne VALEUR_ORDRE_NETTE, 9,42 % utilisent la valeur
“12.40”, 4,76 % utilisent la valeur “25.00”, etc. Vous pouvez également voir que les quatre valeurs les plus souvent utilisées (les "quatre premières") le sont dans 24 % des cas, puisque seulement
76 % environ est affiché dans la catégorie “Autre”. Pour cet exemple, le nombre total de lignes comptées pendant le calcul pour chacune des premières valeurs est de 21.
2012-11-22
Conception et débogage
17.3 Utilisation de l'affichage des données lors de la conception
L'affichage des données lors de la conception permet d'afficher et d'analyser en temps réel l'entrée et la sortie pour un jeu de données lors de la conception d'une transformation. Le flux de données ne doit pas nécessairement être complet ni valide bien qu'il doive utiliser une source accessible et valide contenant les données.
L'affichage des données lors de la conception permet de visualiser les données lorsque vous concevez une transformation pour être sûr d'obtenir les résultats escomptés. L'affichage des données lors de la conception est disponible sous forme de volets d'entrée et de sortie dans l'éditeur de transformation ; vous pouvez ainsi comparer les données avant et après leur traitement via la transformation.
Pour utiliser l'affichage des données lors de la conception pour les transformations Global Address
Cleanse, Geocoder et USA Regulatory Address Cleanse, vous devez avoir accès aux données de référence de Data Quality (répertoires).
Rubriques associées
•
Affichage des données lors de la conception
•
Configuration de l'affichage des données lors de la conception
17.3.1 Affichage des données lors de la conception
1.
Pour afficher les données d'entrée et de sortie des transformations dans l'éditeur de transformation, sélectionnez Déboguer > Afficher les données au moment de la conception.
Les volets de données d'entrée et de sortie s'ouvrent dans l'éditeur de transformation. Chaque volet peut contenir plusieurs vues avec des onglets selon le nombre d'entrées et de sorties de la transformation sélectionnée. Bien que la plupart des transformations comportent une seule sortie, la transformation Validation en comporte trois, par exemple.
2.
Pour afficher les données relatives à une entrée ou sortie différente, cliquez sur l'onglet pertinent dans le volet Afficher les données.
3.
Pour afficher les données d'entrée et de sortie automatiquement après avoir modifié une transformation, sélectionnez Déboguer > Affichage automatique.
4.
Pour filtrer le nombre de lignes de données affichées dans les volets, sélectionnez Déboguer >
Filtrer le jeu de données d'entrée. La définition du filtre peut contribuer à améliorer les performances lorsque la fonction Design-Time Data Viewer est paramétrée en vue d'une mise à jour automatique au moment de la conception de la transformation.
Par défaut, le filtre affiche les 50 premières lignes. Vous pouvez configurer le nombre de lignes affichées dans la fenêtre Options.
5.
Pour fermer les volets Design-Time Data Viewer, cliquez sur x en haut à droite du volet.
662 2012-11-22
Conception et débogage
Rubriques associées
•
Configuration de l'affichage des données lors de la conception
17.3.2 Configuration de l'affichage des données lors de la conception
Vous pouvez configurer le nombre de lignes de données affichées dans les volets d'affichage des données lors de la conception ainsi que la durée autorisée pour les mises à jour avant l'expiration du délai.
1.
Pour configurer les options d'affichage des données lors de la conception, sélectionnez Déboguer
> Options.
Une fenêtre s'affiche avec les options disponibles.
2.
Modifiez les options voulues.
Option
Nombre de lignes à lire depuis une source filtrée
Description
Indique le nombre de lignes lues depuis la source si le point de menu Filtrer le jeu de données d'entrée est sélectionné. Par défaut, le filtre lit les 50 premières lignes de données depuis la source.
Intervalle de temporisation pour le mode automatique
Indique la durée (en secondes) autorisée pour mettre à jour les données si le point de menu Affichage automatique est sélectionné avant l'expiration du délai et le renvoi d'une erreur.
Intervalle de temporisation pour le mode manuel
Indique la durée (en secondes) autorisée pour mettre à jour les données si le point de menu Affichage automatique est désélectionné avant l'expiration du délai et le renvoi d'une erreur.
3.
Pour fermer la fenêtre, cliquez sur OK.
17.3.3 Définition de variables pour les expressions
Vous pouvez définir des variables à utiliser dans les expressions de transformations. La valeur de la variable est utilisée dans les calculs de données lors de la conception. Vous pouvez également définir des valeurs pour les variables globales, uniquement utilisées dans le cadre des calculs lors de la conception.
1.
Pour configurer les options d'affichage des données lors de la conception, sélectionnez Déboguer
> Options.
Une fenêtre s'affiche avec les options disponibles.
663 2012-11-22
Conception et débogage
2.
Dans la section Variables, saisissez le nom, le type de données et la valeur de la variable.
3.
Pour importer une variable globale, cliquez sur le bouton Importer. Toutes les variables globales de chaque job du référentiel alimentent la table.
4.
Saisissez la valeur de chaque variable globale importée.
Les valeurs de variables définies dans les options d'affichage des données lors de la conception sont seulement utilisées pour les calculs de données lors de la conception.
5.
Pour supprimer une variable de la table, sélectionnez-la et cliquez sur le bouton Supprimer.
6.
Pour fermer la fenêtre, cliquez sur OK.
17.4 Utilisation du débogueur interactif
Designer comprend un débogueur interactif qui permet d'examiner et modifier les données ligne par ligne (pendant l'exécution d'un job en mode débogage) en plaçant des filtres et des points d'arrêt sur les lignes d'un diagramme de flux de données. Le débogueur interactif fournit des options puissantes pour déboguer un job.
Remarque :
Une mise à niveau du référentiel est nécessaire pour utiliser cette fonctionnalité.
17.4.1 Avant de lancer le débogueur interactif
Comme pour l'exécution d'un job, vous pouvez lancer le débogueur interactif depuis le menu Débogage lorsqu'un job est actif dans l'espace de travail. Sélectionnez Démarrer le débogage, définissez les propriétés pour l'exécution, puis cliquez sur OK. Le mode de débogage commence. Le mode débogage propose les fenêtres, les menus et les boutons de barre d'outils du débogueur interactif que vous pouvez utiliser pour contrôler le rythme du job et afficher les données en mettant en pause l'exécution du job
à l'aide de filtres et de points d'arrêt.
En mode débogage, toutes les autres fonctionnalités de Designer sont placées en lecture seule. Pour quitter le mode débogage et repasser les autres fonctionnalités de Designer en lecture/écriture, cliquez sur le bouton Arrêter le débogage dans la barre d'outils du débogueur interactif.
Toutes les commandes du débogueur interactif sont listées dans le menu Débogage de Designer.
Designer active les commandes appropriées au fur et à mesure de l'avancement d'une session de débogage interactif.
Cependant, avant de lancer une session de débogage, définissez éventuellement les éléments suivants :
• Filtres et points d'arrêt
• Port du débogueur interactif entre Designer et un moteur.
664 2012-11-22
Conception et débogage
665
17.4.1.1 Définition des filtres et points d'arrêt
Vous pouvez définir n'importe quelle combinaison de filtres et points d'arrêt dans un flux de données avant de lancer le débogueur interactif. Le débogueur utilise les filtres et fait une pause aux points d'arrêt définis.
Si vous ne configurez pas de filtres ou points d'arrêt prédéfinis :
• Designer optimisera l'exécution du job de débogage. Cela signifie souvent que la première transformation de chaque flux de données d'un job est poussée vers la base de données source.
Par conséquent, vous ne pouvez pas afficher les données d'un job entre la source et la première transformation, sauf en plaçant un point d'arrêt prédéfini sur cette ligne.
• Vous pouvez mettre manuellement un job en pause en utilisant une option de débogage nommée
Suspendre le débogage (le job est mis en pause avant qu'il ne rencontre la prochaine transformation).
Rubriques associées
•
Optimiseur de poussée vers le bas
17.4.1.1.1 Définition d'un filtre ou d'un point d'arrêt
1.
Dans l'espace de travail, ouvrez le job à déboguer.
2.
Ouvrez un de ses flux de données.
3.
Cliquez avec le bouton droit sur la ligne que vous voulez examiner et sélectionnez Définir le
filtre/point d'arrêt.
Une ligne est une ligne entre deux objets d'un diagramme d'espace de travail.
La fenêtre Point d'arrêt s'ouvre. Sa barre de titre affiche les objets auxquels la ligne est connectée.
4.
Définissez et activez un filtre ou un point d'arrêt à l'aide des options de cette fenêtre.
Un filtre de débogage fonctionne comme une simple transformation Query avec une clause WHERE.
Utilisez un filtre pour réduire un jeu de données lors de l'exécution d'un job de débogage. Notez que les expressions complexes ne sont pas prises en charge dans un filtre de débogage.
Placez un filtre de débogage sur une ligne entre une source et une transformation ou entre deux transformations. Si vous placez un filtre et un point d'arrêt sur la même ligne, le progiciel applique d'abord le filtre. Le point d'arrêt peut voir uniquement les lignes filtrées.
Comme pour les filtres, vous pouvez placer un point d'arrêt entre une source et une transformation ou entre deux transformations. Un point d'arrêt est l'emplacement où l'exécution d'un job de débogage est mise en pause et vous rend le contrôle.
Choisissez d'utiliser un point d'arrêt avec ou sans conditions.
• Si vous utilisez un point d'arrêt sans condition, l'exécution du job est suspendue pour la première ligne transmise à un point d'arrêt.
2012-11-22
Conception et débogage
• Si vous utilisez un point d'arrêt avec condition, l'exécution du job est suspendue pour la première ligne transmise au point d'arrêt respectant la condition.
Une condition de point d'arrêt s'applique à la post-image pour les types de ligne UPDATE, NORMAL et INSERT et à la pré-image pour un type de ligne DELETE.
Au lieu de sélectionner un point d'arrêt conditionnel ou non conditionnel, vous pouvez également utiliser l'option Arrêt après n lignes. Dans ce cas, l'exécution est suspendue lorsque le nombre de lignes indiqué passe par le point d'arrêt.
5.
Cliquez sur OK.
L'icône Point d'arrêt activé s'affiche sur la ligne sélectionnée.
Le progiciel fournit les conditions suivantes de filtre et de point d'arrêt :
Icône Description
Point d'arrêt désactivé
Point d'arrêt activé
Filtre désactivé
Filtre activé
Filtre et point d'arrêt désactivés
Filtre et point d'arrêt activés
Filtre activé et point d'arrêt désactivé
Filtre désactivé et point d'arrêt activé
Outre les icônes de filtre et de point d'arrêt qui peuvent apparaître sur une ligne, le débogueur met une ligne en surbrillance lorsqu'il s'y met en pause. Une case rouge de localisation indique également l'emplacement actuel dans le flux de données. Par exemple, lorsque vous lancez le débogueur interactif, le job est suspendu au niveau de votre point d'arrêt. La case de localisation s'affiche au-dessus de l'icône du point d'arrêt, comme l'illustre le diagramme suivant :
666 2012-11-22
Conception et débogage
Un bouton d'affichage des données s'affiche également au-dessus du point d'arrêt. Vous pouvez utiliser ce bouton pour ouvrir et fermer les volets d'affichage des données.
Au fur et à mesure de l'avancement du débogueur dans les calculs du flux de données, les lignes suivantes sont mises en surbrillance et la case de localisation s'affiche sur votre position actuelle.
Rubriques associées
•
17.4.1.2 Modification du port du débogueur interactif
Designer utilise un port vers un moteur pour démarrer et arrêter le débogueur interactif. Le port du débogueur interactif est 5001 par défaut.
17.4.1.2.1 Modification du paramètre du port du débogueur interactif
1.
Sélectionnez Outils > Options > Designer > Environnement.
2.
Saisissez une valeur dans la zone Débogueurinteractif.
3.
Cliquez sur OK.
17.4.2 Démarrage et arrêt du débogueur interactif
Un job doit être actif dans l'espace de travail pour pouvoir démarrer le débogueur interactif. Vous pouvez sélectionner un job dans la bibliothèque d'objets ou dans la zone de projet pour l'activer dans l'espace de travail. Quand un job est actif, Designer active l'option Démarrer le débogage dans le menu et la barre d'outils Débogage.
667 2012-11-22
Conception et débogage
17.4.2.1 Démarrage du débogueur interactif
1.
Dans la zone de projet, cliquez avec le bouton droit sur un job et sélectionnez Démarrer le débogage.
Autrement, vous pouvez cliquer sur un job dans la zone de projet, puis :
• Appuyez sur Ctrl+F8.
• Dans le menu Débogage, cliquez sur Démarrer le débogage.
• Cliquez sur le bouton Démarrer le débogage dans la barre d'outils.
La fenêtre Propriétés de débogage s'ouvre. La fenêtre Propriétés de débogage comprend trois paramètres similaires à la fenêtre Propriétés d'exécution (utilisée lorsque vous désirez simplement exécuter un job).
Vous trouverez également davantage d'informations sur les options de Suivi et variable globale.
Les options propres à la fenêtre Propriétés de débogage sont :
• Fréquence d'échantillonnage des données — Nombre de lignes mises en cache pour chaque ligne lorsqu'un job est exécuté à l'aide du débogueur interactif. Par exemple, dans le diagramme de flux de données suivant, si la table source comporte 1 000 lignes et que vous réglez la
Fréquence d'échantillonnage des données sur 500, Designer affiche jusqu'à 500 des dernières lignes qui passent par une ligne sélectionnée. Le débogueur affiche la dernière ligne traitée lorsqu'il atteint un point d'arrêt.
668
• Quitter l'outil de débogage lorsque le job est terminé— Cliquez pour arrêter le débogueur et revenir au mode normal après exécution du job. Option non sélectionnée par défaut.
2.
Entrez les propriétés de débogage à utiliser ou employez celles par défaut.
3.
Cliquez sur OK.
Le job sélectionné dans la zone de projet commence à s'exécuter en mode débogage. Designer :
• Affiche les fenêtres du débogueur interactif.
• Ajoute Débogage du job<NomJob> à sa barre de titre.
• Active les options de menu et de barre d'outils Débogage appropriées.
• Affiche l'icône de débogage dans la barre de statut.
2012-11-22
Conception et débogage
• Place l'interface utilisateur en lecture seule.
Remarque :
Vous ne pouvez pas effectuer d'opérations qui affectent votre référentiel (comme supprimer des objets d'un flux de données) lors de l'exécution d'un job en mode débogage.
Quand le débogueur rencontre un point d'arrêt, il suspend l'exécution du job. Vous contrôlez alors l'exécution du job. Les fenêtres du débogueur interactif affichent des informations sur l'exécution du job jusqu'à ce point. Elles se mettent également à jour lorsque vous poursuivez manuellement les étapes du job ou permettez au débogueur de continuer l'exécution.
Rubriques associées
• Guide de référence : paramètres
17.4.2.2 Pour arrêter un job en mode débogage et quitter le débogueur interactif
•
Cliquez sur le bouton Arrêter le débogage dans la barre d'outils, appuyez sur Maj+F8, ou bien dans le menu Débogage, cliquez sur Arrêter le débogage.
17.4.3 Volets
Lorsque vous démarrez un job dans le débogueur interactif, Designer affiche trois volets supplémentaires ainsi que les volets d'affichage des données sous l'espace de travail. Le diagramme suivant illustre les emplacements par défaut de ces volets.
669 2012-11-22
Conception et débogage
670
1.
Volets d'affichage des données
2.
Volet Pile d'appels
3.
Volet Suivi
4.
Volet Variables de débogage
Chaque volet est ancré dans la fenêtre de Designer. Pour déplacer un volet du débogueur, double-cliquez sur sa barre de commande pour le libérer, puis cliquez et faites glisser sa barre de titre pour l'ancrer à nouveau.
Designer enregistre la mise en forme créée lorsque vous arrêtez le débogueur interactif. La mise en forme est conservée pour votre prochaine session de Designer.
Vous pouvez redimensionner ou masquer un volet du débogueur à l'aide de ses boutons de commande.
Pour afficher ou masquer manuellement un volet du débogueur, utilisez le menu ou la barre d'outils
Débogage.
Rubriques associées
•
Options et barre d'outils du menu Débogage
2012-11-22
Conception et débogage
17.4.3.1 Fenêtre Pile d'appels
La fenêtre Pile d'appels liste les objets rencontrés jusqu'à présent sur le chemin (avant la fin du job, la rencontre d'un point d'arrêt ou la mise en pause).
Par exemple, pour le job JOB_CustDim qui inclut un workflow et un flux de données, il est possible que la fenêtre Pile d'appels s'affiche :
JOB_CustDim
WF_CustDim
DF_CustDim
Vous pouvez double-cliquer sur un objet de la fenêtre Pile d'appels pour l'ouvrir dans l'espace de travail.
De même, si vous cliquez sur un objet d'un diagramme, la fenêtre Pile d'appels le met en surbrillance.
17.4.3.2 Fenêtre Suivi
La fenêtre Suivi affiche le statut de sortie du débogueur et les erreurs. Par exemple :
11:22:06 AM> Job <GO> has been launched in debug mode.
11:22:07 AM> Breakpoint fired. Flow <aaa>: from <Query> to <"NewFile_773"(Simple)>
Lorsque le job se termine, cette fenêtre affiche :
Job <NomJob> terminé. Arrêter le débogueur.
Lorsque le job se termine, le débogueur vous donne une dernière possibilité d'examiner les données.
Pour quitter le débogueur, sélectionnez le bouton Arrêter le débogage dans la barre d'outils, appuyez sur Maj+F8 ou sélectionnez DébogageArrêter le débogage.
17.4.3.3 Fenêtre Variables de débogage
La fenêtre Variables de débogage affiche les variables globales utilisées par le job à chaque point d'arrêt.
671 2012-11-22
Conception et débogage
17.4.3.4 Volet d'affichage des données
Le volet d'affichage des données des lignes utilise les mêmes options de barre d'outils et de navigation que celles décrites pour la fonctionnalité Afficher les données.
Les options suivantes du volet d'affichage des données sont propres au débogueur interactif :
• Permet d'afficher les données qui passent par les lignes.
• Affiche (au-dessus de la barre d'outils d'affichage des données) les noms des objets auxquels une ligne se connecte en utilisant le format : NomTable(NomBanqueDonnées.NomPropriétaire
Table)-> NomRequête.
• Affiche par défaut les données une ligne à la fois.
• Fournit la case à cocher Tout qui permet de voir plusieurs lignes de données traitées.
• Permet de modifier les données d'une cellule.
Par exemple, vous pouvez éventuellement corriger une erreur temporairement pour poursuivre une exécution du débogueur. Vous pouvez corriger la conception du job ultérieurement pour éliminer l'erreur définitivement.
Pour modifier les données d'une cellule :
• Décochez la case Tout pour qu'une seule ligne soit affichée.
• Double-cliquez sur une cellule ou cliquez dessus avec le bouton droit et sélectionnez Modifier
la cellule.
• Utilise une propriété nommée Fréquence d'échantillonnage des données.
• Permet de marquer une ligne qui ne doit pas être traitée par la prochaine transformation.
Pour ignorer une ligne dans l'étape suivante du traitement d'un flux de données, sélectionnez-la et cliquez sur Ignorer la ligne.
672
Les données d'une ligne ignorée apparaissent dans le volet d'affichage des données au format
"barré" (par exemple, 100345).
Si vous ignorez une ligne accidentellement, vous pouvez annuler immédiatement cette action.
Sélectionnez la ligne ignorée et cliquez sur Annuler Ignorer la ligne.
2012-11-22
Conception et débogage
Autrement, cliquez sur la ligne avec le bouton droit et sélectionnez Ignorer la ligne ou Annuler
Ignorer la ligne dans le menu contextuel.
Par exemple, si une source d'un flux de données comporte quatre lignes et que vous définissez la fréquence d'échantillonnage des données sur 2 en démarrant le débogueur, il affiche la première ligne traitée à un point d'arrêt prédéfini.
673 2012-11-22
Conception et débogage
Si vous utilisez l'option Ligne suivante, la ligne suivante au même point d'arrêt est affichée.
Pour voir les deux lignes, cochez la case Tout dans le coin supérieur droit de ce volet. La ligne affichée en bas de la table est la dernière ligne traitée.
A ce niveau, vous avez affiché deux lignes étant passées par une ligne.
.
Si vous cliquez à nouveau sur Ligne suivante, seules les deux dernières lignes traitées sont affichées parce que vous avez défini la fréquence d'échantillonnage sur 2.
Rubriques associées
•
Utilisation de l'affichage des données
17.4.3.5 Fenêtre Filtres et points d'arrêt
Vous pouvez gérer les filtres et les points d'arrêt du débogueur de manière interactive grâce à la fenêtre Filtres/Points d'arrêt. Cette fenêtre s'ouvre depuis le menu ou la barre d'outils Débogage.
Les lignes comportant des filtres ou des points d'arrêt sont listées tout à gauche de la fenêtre
Filtres/Points d'arrêt. Pour les gérer, sélectionnez la ou les lignes à modifier, sélectionnez une commande dans la liste et cliquez sur Exécuter. Vous pouvez également sélectionner une seule ligne sur la gauche et afficher/modifier ses filtres et points d'arrêt du côté droit de cette fenêtre. Lorsque vous avez fini d'utiliser la fenêtre Filtres/Points d'arrêt, cliquez sur OK.
17.4.4 Options et barre d'outils du menu Débogage
Image
Après avoir démarré le débogueur interactif, vous pouvez accéder aux options appropriées depuis le menu et la barre d'outils Débogage de Designer.
Option
Exécuter
Description
Commandes par touches
Ouvre la fenêtre Propriétés d'exécution, dans laquelle vous pouvez sélectionner les propriétés d'un job puis l'exécuter en dehors du mode débogage. Disponible quand un job est actif dans l'espace de travail.
F8
674 2012-11-22
Conception et débogage
Image Option
Lancer le débogage
Arrêter le débogage
Suspendre le débogage
Etape suivante
Ligne suivante
Continuer
Description
Commandes par touches
Ouvre la fenêtre Propriétés de débogage, dans laquelle vous pouvez sélectionner les propriétés d'un job puis l'exécuter en mode débogage (démarrer le débogueur). Les autres opérations de
Designer sont en lecture seule jusqu'à l'arrêt du débogueur. Disponible quand un job est actif dans l'espace de travail.
Ctrl+F8
Arrête une exécution en mode débogage et quitte le débogueur. Toutes les opérations de Designer sont rétablies en lecture/écriture.
Maj+F8
Permet de mettre manuellement le débogueur en pause. Vous pouvez utiliser cette action à la place d'un point d'arrêt.
Aucune
Permet de passer manuellement à la ligne suivante d'un flux de données en franchissant une transformation dans l'espace de travail. Utilisez cette option pour voir la première ligne d'un jeu de données après sa transformation. L'espace de travail affiche un carré rouge sur la ligne pour indiquer le chemin utilisé. Si la transformation de l'étape suivante comporte plusieurs sorties, Designer fournit un menu contextuel où vous pouvez sélectionner la branche de calcul
à emprunter.
F10
Permet de rester au point d'arrêt actuel et d'afficher la ligne de données suivante du jeu de données.
F11
Permet de rendre le contrôle du job à
Designer. Le débogueur continue jusqu'à ce que :
• Vous utilisiez l'option Suspendre le débogage
• Un autre point d'arrêt soit rencontré
• Le job soit terminé
Ctrl+F10
675 2012-11-22
Conception et débogage
Image Option
Afficher les filtres/points d'arrêt
Définir les filtres/points d'arrêt...
Description
Commandes par touches
Affiche tous les filtres et points d'arrêt existant dans un job. Si l'option n'est pas sélectionnée, tous les filtres et points d'arrêt sont masquées dans le vue. Cette option est toujours disponible dans Designer.
Aucune
Ouvre une boîte de dialogue où vous pouvez définir, supprimer, modifier, activer ou désactiver les filtres et les points d'arrêt. Vous pouvez aussi définir des conditions pour les points d'arrêt. Dans l'espace de travail, vous pouvez cliquer avec le bouton droit sur une ligne et sélectionner la même option dans un menu contextuel. Disponible quand un flux de données est actif dans l'espace de travail.
F9
Filtres/Points d'arrêt...
Pile d'appels
Variables
Ouvre une boîte de dialogue où vous pouvez gérer plusieurs filtres et points d'arrêt dans un flux de données. Propose aussi la même fonctionnalité que la fenêtre Définir les filtres/points d'arrêt.
Cette option est toujours disponible dans
Designer.
Affiche ou masque la fenêtre Pile d'appels
Alt+F9
Aucune
Affiche ou masque la fenêtre Variables de débogage
Aucune
Suivi Affiche ou masque la fenêtre Suivi Aucune
17.4.5 Affichage des données passées par les transformations
Pour afficher les données passées par les transformations, exécutez le job en mode débogage.
676 2012-11-22
Conception et débogage
17.4.5.1 Pour afficher les données passées par les transformations
1.
Dans la zone de projet, cliquez avec le bouton droit sur un job et cliquez sur Démarrer le débogage.
La fenêtre Propriétés de débogage s'ouvre.
2.
Décochez la case Quitter l'outil de débogage lorsque le job est terminé.
3.
Vous pouvez saisir une valeur dans la zone de texte Fréquence d'échantillonnage des données ou laisser la valeur 500 par défaut.
4.
Cliquez sur OK.
17.4.5.2 Pour afficher les exemples de données en mode débogage
1.
En restant en mode débogage à la fin du job, dans la zone de projet, cliquez sur le nom du flux de données à afficher.
2.
Cliquez sur le bouton Afficher les données figurant sur une ligne du flux de données.
3.
Parcourez les données pour les examiner. Quand c'est fait, cliquez sur le bouton Arrêter le débogage de la barre d'outils.
17.4.6 Optimiseur de poussée vers le bas
Quand le logiciel exécute un job, il pousse normalement vers le bas autant d'opérations que possible, vers la base de données source, afin de maximiser les performances. Comme le débogueur interactif requiert l'exécution d'un job, les règles suivantes de poussée vers le bas s'appliquent :
• Transformations Query
La première transformation suivant un objet source dans un flux de données est optimisée dans le débogueur interactif et poussée vers le bas, vers la base de données source, si les deux objets répondent aux critères de poussée vers le bas et si vous n'avez pas placé de point d'arrêt sur la ligne avant la première transformation.
• Points d'arrêt
Le progiciel ne pousse vers le bas aucune opération si vous placez un point d'arrêt prédéfini. Les points d'arrêt prédéfinis sont des points d'arrêt définis avant le démarrage du débogueur interactif.
677 2012-11-22
Conception et débogage
Après le démarrage du débogueur interactif, si la première transformation est poussée vers le bas, la ligne est désactivée durant la session de débogage. Vous ne pouvez pas placer de point d'arrêt sur cette ligne ni utiliser le volet d'affichage des données.
• Filtres
Si l'entrée d'un filtre prédéfini est une base de données source, elle est poussée vers le bas. Les filtres prédéfinis sont des filtres du débogueur interactif définis avant son démarrage.
Rubriques associées
• Guide d'optimisation de la performance : Opérations de poussée vers le bas
17.4.7 Restrictions
• Le débogueur interactif peut être utilisé pour examiner les flux de données. Les options de débogage ne sont pas disponibles au niveau du workflow.
• Une mise à niveau du référentiel est nécessaire pour utiliser cette fonctionnalité.
• Le débogueur ne peut pas être utilisé avec les flux de données ABAP.
• Tous les objets d'un flux de données doivent avoir un nom unique. Par exemple, si une transformation comporte plusieurs sorties, vous pouvez choisir le chemin à utiliser. Si certains de ces objets ont le même nom, le résultat de votre sélection est imprévisible.
17.5 Comparaison d'objets
Le progiciel permet de comparer deux objets quelconques et leurs propriétés à l'aide de l'utilitaire
Affichage des différences. Vous pouvez comparer :
• deux objets différents
• différentes versions du même objet
678 2012-11-22
Conception et débogage
• un objet de la bibliothèque d'objets locale à son homologue de la bibliothèque d'objets centrale
Vous pouvez comparer seulement les objets de niveau supérieur ou inclure les dépendants de l'objet dans la comparaison.
Les objets doivent être de même type. Par exemple, vous pouvez comparer un job à un autre job ou une fonction personnalisée à une autre, mais vous ne pouvez pas comparer un job à un flux de données.
17.5.1 Pour comparer deux objets différents
1.
Dans la bibliothèque d'objets locale ou centrale, cliquez avec le bouton droit sur le nom d'un objet.
2.
Dans le menu contextuel, mettez en surbrillance Comparer et dans le sous-menu, cliquez sur l'une des options suivantes (leur disponibilité dépend de l'objet sélectionné) :
Option
Objet à bibliothèque centrale
Description
: compare l'objet sélectionné à son homologue de la bibliothèque d'objets centrale
Objet avec dépendants à bibliothèque centrale
Objet à...
: compare l'objet sélectionné et ses objets dépendants à son homologue de la bibliothèque d'objets centrale
: compare l'objet sélectionné à un autre objet de type similaire.
Objet avec dépendants à...
: compare l'objet sélectionné et ses dépendants à un autre objet de type similaire.
Le curseur se change en icône de cible.
3.
Lorsque vous déplacez le curseur sur un objet éligible pour la comparaison, le curseur cible change de couleur. Cliquez sur l'objet voulu.
La fenêtre "Affichage des différences" s'ouvre dans l'espace de travail.
La fenêtre identifie les éléments modifiés par une combinaison d'icônes, de couleurs et d'ombrage d'arrière-plan. Certaines de ces propriétés sont configurables.
Selon le type d'objet, les volets montrent des éléments tels que les propriétés de l'objet et celles des connexions (liens) entre ses objets enfants.
17.5.2 Comparaison de deux versions du même objet
Si vous travaillez dans un environnement multi-utilisateurs et utilisez une bibliothèque d'objets centrale, vous pouvez comparer deux objets ayant des versions ou des étiquettes différentes.
679 2012-11-22
Conception et débogage
1.
Dans la bibliothèque d'objets centrale, cliquez avec le bouton droit sur le nom d'un objet et dans le menu contextuel, cliquez sur Afficher l'historique.
2.
Dans la fenêtre "Historique", appuyez sur la touche Ctrl en cliquant sur les deux versions ou étiquettes
à comparer.
3.
Cliquez sur Afficher les différences ou Afficher les différences avec dépendants.
La fenêtre "Affichage des différences" s'ouvre dans l'espace de travail.
4.
Fermez la fenêtre "Historique".
Rubriques associées
•
Affichage de l'historique d'un objet
17.5.3 Présentation de la fenêtre Affichage des différences
Le premier objet sélectionné s'affiche dans le volet gauche de la fenêtre et le deuxième dans le volet droit. L'emplacement de chaque objet figure après son nom.
La fenêtre Affichage des différences comprend les fonctionnalités suivantes :
• barre d'outils
• barre de navigation
• barre d'état
• menu contextuel
Lorsqu'une fenêtre Affichage des différences est active, la fenêtre principale de Designer comporte
également un menu nommé Affichage des différences. La section suivante décrit ces fonctionnalités.
Plusieurs fenêtres Affichage des différences peuvent être ouvertes en même temps dans l'espace de travail. Pour actualiser une fenêtre Affichage des différences, appuyez sur la touche F5.
Le développement ou la réduction de tout ensemble de propriétés développe ou réduit également l'ensemble de propriétés correspondant de l'objet comparé.
17.5.3.1 Barre d'outils
La barre d'outils comprend les boutons suivants.
Boutons de navigation
• Première différence (Alt+Orig)
680 2012-11-22
Conception et débogage
• Différence précédente (Alt+flèche gauche)
• Différence actuelle
• Différence suivante (Alt+flèche droite)
• Dernière différence (Alt+Fin)
Boutons de filtres
• Activer les filtres — Cliquez pour ouvrir la boîte de dialogue Filtres.
• Masquer les éléments non exécutables — Sélectionnez cette option pour supprimer de la vue les éléments qui n'affectent pas l'exécution du job
• Masquer les éléments identiques — Sélectionnez cette option pour supprimer de la vue les
éléments qui ne comportent pas de différences
• Désactiver les filtres — Supprime tous les filtres appliqués à la comparaison
Afficher les niveaux
Afficher le niveau 1 affiche uniquement les objets sélectionnés pour la comparaison, Afficher le niveau
2 développe le niveau suivant, etc. Afficher tous les niveaux développe tous les niveaux des deux arborescences.
Rechercher (Ctrl+F)
Cliquez sur Rechercher pour ouvrir une boîte de dialogue de recherche de texte.
Ouvrir dans une nouvelle fenêtre
Cliquez pour ouvrir l'Affichage des différences actif dans une fenêtre distincte. Vous devez fermer cette fenêtre avant de continuer.
17.5.3.2 Barre de navigation
La barre de navigation verticale contient des barres de couleur qui représentent chacune des différences de la comparaison. Les couleurs correspondent à celles de la barre d'état pour chaque différence. Une flèche dans la barre de navigation indique la différence actuellement en surbrillance dans les volets.
Vous pouvez cliquer sur la barre de navigation pour sélectionner une différence (la pointe du curseur comportera une étoile sur elle). Les parenthèses violettes dans la barre indiquent la portion de la comparaison actuellement affichée dans les volets.
Voir la section suivante pour plus d'informations sur le mode de navigation dans les différences.
681 2012-11-22
Conception et débogage
17.5.3.3 Barre d'état
La barre d'état en bas de la fenêtre comporte une clé qui illustre le schéma de couleur et les icônes qui identifient les différences entre les deux objets.
Icône Différence Description
Supprimé L'élément n'apparaît pas dans l'objet du volet droit.
Modifié
Inséré
Consolidé
Les différences entre les éléments sont mises en évidence par un texte bleu (par défaut)
L'élément a été ajouté à l'objet du volet droit.
Cette icône apparaît près d'un élément si les éléments qu'il renferme comportent des différences. Développez l'élément en cliquant sur son signe plus pour afficher les différences.
Vous pouvez modifier la couleur de ces icônes en cliquant avec le bouton droit dans la fenêtre Affichage des différences et en cliquant sur Configuration.
La barre d'état comprend aussi une référence pour la différence actuellement sélectionnées dans la comparaison (par exemple, la différence actuellement en surbrillance est la 9ème sur un total de 24 différences dans la comparaison.
La barre d'état indique également qu'au moins un filtre est appliqué à cette comparaison.
Rubriques associées
•
682
17.5.3.4 Menu contextuel
Un clic droit sur le corps de la fenêtre Affichage des différences permet d'afficher un menu contextuel qui contient toutes les commandes de la barre d'outils, plus :
2012-11-22
Conception et débogage
• Afficher — Bascule pour afficher ou masquer la barre d'état, la barre de navigation ou la barre d'outils secondaire (barre d'outils supplémentaire qui s'affiche en haut de la fenêtre, elle peut être utile si l'Affichage des différences est ouvert dans une fenêtre distincte).
• Mise en forme — Utilisez cette commande pour repositionner la barre de navigation.
• Configuration — Cliquez pour modifier les options d'affichage des éléments comportant des différences.
Rubriques associées
•
Modification du schéma de couleurs
17.5.3.4.1 Modification du schéma de couleurs
La barre d'état située en bas de la fenêtre Affichage des différences montre le schéma de couleurs actuellement utilisé pour identifier les éléments supprimés, modifiés, insérés ou consolidés dans les volets de comparaison. Vous pouvez personnaliser ce schéma de couleurs de la manière suivante.
1.
Cliquez avec le bouton droit sur le corps de la fenêtre Affichage des différences pour afficher la barre d'outils contextuelle.
2.
Cliquez sur Configuration pour ouvrir la fenêtre Configuration.
3.
Cliquez sur un marqueur (Inséré, Supprimé, Modifié ou Consolidé) pour le modifier.
4.
Cliquez sur l'échantillon de couleurs pour ouvrir la palette de couleurs
5.
Cliquez sur une couleur de base ou créez une couleur personnalisée.
6.
Cliquez sur OK.
7.
Cliquez sur un autre marqueur pour le modifier ou sur OK pour fermer la fenêtre Configuration.
17.5.3.4.2 Modification de l'ombrage d'arrière-plan
Les éléments comportant des différences s'affichent avec une couleur d'arrière-plan grise par défaut.
Vous pouvez personnaliser cet arrière-plan.
1.
Cliquez avec le bouton droit sur le corps de la fenêtre Affichage des différences pour afficher la barre d'outils contextuelle.
2.
Cliquez sur Configuration pour ouvrir la fenêtre Configuration.
3.
Cliquez sur un marqueur pour le modifier ou cochez la case Appliquer à tous les marqueurs.
4.
Cliquez sur l'échantillon d'arrière-plans pour ouvrir la palette de couleurs
5.
Cliquez sur une couleur de base ou créez une couleur personnalisée.
6.
Cliquez sur OK.
7.
Pour appliquer des couleurs d'arrière-plan différentes aux divers marqueurs, cliquez sur le marqueur pour le modifier et répétez les étapes 4 à 6.
8.
Cliquez sur OK pour fermer la fenêtre Configuration.
683 2012-11-22
Conception et débogage
17.5.3.5 Menu Affichage des différences
Lorsqu'une fenêtre Affichage des différences est active dans l'espace de travail, la fenêtre principale de Designer comporte un menu nommé Affichage des différences. Le menu contient les mêmes commandes que la barre d'outils.
17.5.4 Navigation dans les différences
La fenêtre Affichage des différences propose plusieurs options de navigation dans les différences.
Vous pouvez naviguer dans les différences entre les objets à l'aide des boutons de navigation de la barre d'outils. Par exemple, un clic sur le bouton Différence suivante met en surbrillance l'élément suivant qui diffère de l'objet comparé d'une manière quelconque. L'élément est marqué avec l'icône appropriée et seul le texte différent est mis en surbrillance avec la couleur affectée à ce type de différence.
Vous pouvez également utiliser la barre de navigation. Sélectionnez un élément dans un des deux volets comportant une différence. Notez qu'une flèche apparaît près de la barre colorée qui correspond
à cet élément. Vous pouvez cliquer sur ces barres pour passer à différents endroits de la comparaison, par exemple pour afficher uniquement les éléments insérés (de couleur verte par défaut). Les parenthèses violettes dans la barre indiquent la portion de la comparaison actuellement affichée dans les volets. Utilisez la barre de défilement d'un des volets pour ajuster la vue entre parenthèses
Pour les éléments de texte comme les scripts, cliquez sur la loupe pour afficher le texte dans un ensemble de nouveaux volets qui s'affichent sous les volets principaux de l'objet. Utilisez les barres de défilement de ces volets pour les parcourir. Cliquez sur la loupe (ou tout autre élément) pour fermer les volets de texte.
17.6 Calcul des mappages de colonnes
SAP BusinessObjects Data Services peut calculer des informations sur les tables et colonnes cible ainsi que les sources utilisées pour les remplir, par exemple pour l'impact et le lignage ou les rapports de documentation automatique.
Le calcul des mappages de colonnes remplit la vue interne ALVW_MAPPING et la table
AL_COLMAP_NAMES. La vue ALVW_MAPPING fournit des données actuelles aux applications de reporting sur les métadonnées comme Analyse d'impact et de lignage. Si vous devez générer un rapport sur un flux de données qui traite des données imbriquées (NRDM), effectuez une requête sur la table
AL_COLMAP_NAMES à l'aide d'un rapport personnalisé.
684 2012-11-22
Conception et débogage
Dès qu'un calcul de mappage de colonnes est en cours, Designer affiche une icône de statut en bas
à droite de la fenêtre. Vous pouvez double-cliquer sur cette icône pour annuler le processus.
Pour calculer les mappages de colonnes, vous pouvez :
• Activer l'option dans Designer pour calculer automatiquement les mappages de colonnes.
• Exécuter manuellement le processus de mappage de colonnes depuis Designer ou l'application
Analyse d'impact et de lignage dans la Console de gestion.
Rubriques associées
• Guide de référence : Métadonnées dans les tables et vues du répertoire, Stockage des données de mappage des colonnes imbriquées
17.6.1 Calcul automatique des mappages de colonnes
Pour activer l'option permettant de calculer automatiquement les informations de mappage des colonnes, dans Designer, sélectionnez Outils > Options > Designer > Général > Calculer automatiquement
les mappages de colonnes. Cette option est sélectionnée par défaut.
Notez que si l'option de DesignerCalculer automatiquement les mappages de colonnes est désélectionnée, toutes les modifications ultérieures apportées au flux de données impliquent de recalculer manuellement les mappages de colonnes pour garantir que la vue ALVW_MAPPING et la table
AL_COLMAP_NAMES comportent les informations les plus récentes.
17.6.2 Calcul manuel des mappages de colonnes
Si l'option de DesignerCalculer automatiquement les mappages de colonnes est désélectionnée et que vous désirez générer des rapports, vous pouvez calculer manuellement les mappages. Vous pouvez calculer manuellement les mappages de colonnes à tout moment dans Designer ou dans la
Console de gestion.
Dans Designer, cliquez avec le bouton droit de la souris sur la bibliothèque d'objets et sélectionnez
Répertoire > Calculer les mappages de colonnes.
Dans la Console de gestion :
1.
Sélectionnez Analyse d'impact et de lignage.
2.
Ouvrez le panneau de configuration Paramètres.
3.
Cliquez sur l'onglet Actualiser les données d'utilisation.
4.
Sélectionnez le Job Server associé au répertoire que vous désirez utiliser.
5.
Cliquez sur Calculer les mappages de colonnes.
685 2012-11-22
Conception et débogage
Dans l'onglet Présentation de l'Analyse d'impact et de lignage, vous pouvez développer l'option "Calcul du mappage de colonnes du flux de données" pour afficher une liste des flux de données et le statut de calcul de chacun d'eux. Si le calcul de mappage est terminé, l'indicateur "Statut" est coché.
686 2012-11-22
Echange de métadonnées
Echange de métadonnées
SAP BusinessObjects Data Services offre plusieurs méthodes d'échange de métadonnées :
• L'option Echange de métadonnées vous permet d'exporter des métadonnées dans un fichier XML.
Après avoir créé le fichier, vous devez l'importer manuellement dans un autre outil.
• L'option Univers SAP BusinessObjects vous permet d'exporter des métadonnées directement d'un référentiel vers un univers à l'aide du mode Créer ou Mettre à jour des données.
Rubriques associées
•
•
18.1 Echange de métadonnées
Vous pouvez échanger des métadonnées entre le logiciel et des outils tiers à l'aide de fichiers XML et de l'option Echange de métadonnées.
Le logiciel prend en charge deux formats d'échange de données intégrés :
• CWM 1.0 XML/XMI 1.1
CWM (le Common Warehouse Metamodel)— est une spécification qui permet l'échange des métadonnées de l'entrepôt de données entre outils, plateformes et référentiels dans des environnements hétérogènes distribués.
• ERwin 4.x XML
Le logiciel peut aussi utiliser :
• MIMB (le Meta Integration® Model Bridge)
MIMB est un utilitaire autonome Windows qui convertit les modèles de métadonnées. En utilisant
MIMB avec le logiciel, vous pouvez échanger des métadonnées avec tous les formats pris en charge par MIMB. Si MIMB est installé, les formats supplémentaires qu'il prend en charge sont indiqués dans la fenêtre Echange de métadonnées.
• BusinessObjects Universe Builder
Convertit les métadonnées du référentiel en métadonnées d'univers BusinessObjects. Voir
687 2012-11-22
Echange de métadonnées
Cette section aborde les points suivants :
•
•
Exportation de fichiers de métadonnées du logiciel
18.1.1 Importation de fichiers de métadonnées dans le logiciel
Vous pouvez importer des métadonnées ERwin Data Modeler 4.x XML dans une banque de données.
18.1.1.1 Pour importer des métadonnées à l'aide de l'option Echange de métadonnées
1.
Dans le menu Outils, sélectionnez Echange de métadonnées.
2.
Dans la fenêtre Echange de métadonnées, sélectionnez Importer les métadonnées depuis le
fichier.
3.
Dans la case Format de métadonnées, sélectionnez ERwin 4.x XML dans la liste des formats disponibles.
4.
Spécifiez le Nom du fichier source (saisissez-le directement ou cliquez sur Parcourir pour le rechercher).
5.
Sélectionnez le Nom de la banque de données cible dans la liste des banques de données.
6.
Cliquez sur OK pour terminer l'importation.
18.1.2 Exportation de fichiers de métadonnées du logiciel
Vous pouvez exporter des métadonnées dans un fichier lisible par d'autres outils.
688
18.1.2.1 Pour exporter des métadonnées à l'aide de l'option Echange de métadonnées
1.
Dans le menu Outils, sélectionnez Echange de métadonnées.
2.
Dans la fenêtre Echange de métadonnées, sélectionnez Exporter des métadonnées Data Services
vers un fichier.
2012-11-22
Echange de métadonnées
3.
Sélectionnez un format de métadonnées pour la cible dans la liste des formats disponibles.
Si MIMB est installé et que vous sélectionnez un format pris en charge par MIMB, cochez la case
Visuel pour ouvrir l'application MIMB à la fin du processus d'exportation.
Si vous ne cochez pas la case Visuel, les métadonnées sont exportées sans ouvrir l'application
MIMB. L'utilisation de l'application MIMB offre des options de configuration supplémentaires permettant de structurer les métadonnées dans le fichier exporté.
4.
Spécifiez le nom du fichier source (saisissez-le directement ou cliquez sur Parcourir pour le rechercher).
Lorsque vous recherchez le fichier, vous ouvrez une fenêtre de navigateur type comme celle-ci :
Recherchez l'un des formats/types de fichiers suivants :
Format
DI CWM 1.0 XML/XMI 1.1
DI ERwin 4.x XML
Format MIMB (uniquement si installé)
Type de fichier
XML
XML
Tout
Après avoir sélectionné un fichier, cliquez sur Ouvrir.
5.
Sélectionnez le Nom de la banque de données source dans la liste des banques de données.
6.
Cliquez sur OK pour terminer l'exportation.
18.2 Création d'univers SAP
Le logiciel vous permet d'exporter facilement ses métadonnées vers les univers BusinessObjects pour les utiliser avec des outils Business Intelligence. Un univers est une couche de métadonnées utilisée pour convertir des métadonnées physiques en métadonnées logiques. Par exemple, le nom de colonne physique deptno pourrait devenir Department Number conformément à une conception d'univers donnée.
Remarque :
Pour utiliser cette option d'exportation, commencez par installer BusinessObjects Universe Builder sur le même ordinateur que BusinessObjects Designer et Designer. Vous pouvez installer Universe Builder
à l'aide de l'installateur de Designer ou du CD distinct d'Universe Builder.
Vous pouvez créer des univers BusinessObjects via le menu Outils ou la bibliothèque d'objets.
689 2012-11-22
Echange de métadonnées
18.2.1 Création d'univers à l'aide du menu Outils
1.
Sélectionnez Outils > Univers BusinessObjects.
2.
Sélectionnez Créer ou Mettre à jour.
La fenêtre "Créer un univers" ou "Mettre à jour un univers" s'affiche.
3.
Sélectionnez la ou les banques de données contenant les tables et colonnes à exporter, puis cliquez sur OK.
Le logiciel lance l'application Universe Builder et fournit des informations du référentiel pour les banques de données sélectionnées.
Pour en savoir plus, consultez le Guide BusinessObjects Universe Builder.
18.2.2 Création d'univers à l'aide de la bibliothèque d'objets
1.
Sélectionnez l'onglet Banques de données.
2.
Cliquez avec le bouton droit de la souris sur une banque de données, puis sélectionnez Univers
BusinessObjects.
3.
Sélectionnez Créer ou Mettre à jour.
Le logiciel lance l'application Universe Builder et fournit des informations du référentiel pour les banques de données sélectionnées.
Pour en savoir plus, consultez le Guide BusinessObjects Universe Builder.
18.2.3 Mappages entre des métadonnées de référentiel et d'univers
Les métadonnées SAP BusinessObjects Data Services sont mappées aux métadonnées d'univers
BusinessObjects comme suit :
SAP BusinessObjects Data Services Univers BusinessObjects
Table Classe, table
690 2012-11-22
Echange de métadonnées
SAP BusinessObjects Data Services
Colonne
Univers BusinessObjects
Objet, colonne
Propriétaire Schéma
Type de données colonne (voir la table suivante) Type de données objet
Relation clé primaire/clé étrangère
Description de table
Description commerciale de table
Nom commercial de table
Expression de jointure
Description de classe
Description de classe
Nom de classe
Description de colonne
Description commerciale de colonne
Nom commercial de colonne
Mappage de colonne
Description d'objet
Description d'objet
Nom d'objet
Description d'objet
Informations source de colonne (lignage des données)
Description d'objet
Les types de données mappent aussi les éléments suivants :
Type de données Type BusinessObjects
Date/Date-Heure/Heure
Nombre
Date décimal
691 2012-11-22
Echange de métadonnées
Type de données
Nombre
Nombre
Nombre
Varchar
Long
Type BusinessObjects
int.
réel/double d'intervalles
Caractère
Texte long
18.2.4 Attributs prenant en charge l'échange de métadonnées
Les attributs Nom_commercial et Description existent dans le logiciel pour les tables et les colonnes.
Ces attributs prennent en charge les métadonnées échangées entre SAP BusinessObjects Data Services et SAP BusinessObjects Universe Builder.
• Un attribut Nom commercial est un champ logique. Data Services le stocke en tant que champ distinct de la table physique ou des noms de colonne. Utilisez cet attribut pour définir et exécuter des jobs qui extraient, transforment et chargent des données physiques pendant que les données
Nom commercial restent intactes.
• Une Description commerciale est une description professionnelle d'une table ou d'une colonne. Data
Services transfère ces informations séparément et les ajoute à une description de classe
BusinessObjects.
Le logiciel inclut deux attributs de colonne supplémentaires qui prennent en charge les métadonnées
échangées entre SAP BusinessObjects Data Services et SAP BusinessObjects Universe Builder :
• Utilisation_colonne
• Dimension_associée
Rubriques associées
• Guide de référence : Options, propriétés et attributs d'objets
692 2012-11-22
Mécanismes de récupération
Mécanismes de récupération
Des mécanismes de récupération sont disponibles dans SAP BusinessObjects Data Services pour des jobs batch uniquement.
Rubriques associées
•
Récupération suite à un échec d'exécution de job
•
Récupération automatique de jobs
•
Récupération manuelle de jobs à l'aide de tables de statuts
•
Traitement de données avec problèmes
19.1 Récupération suite à un échec d'exécution de job
Si un job SAP BusinessObjects Data Services n'est pas correctement exécuté, vous devez régler les problèmes qui ont empêché l'exécution correcte du job et exécuter le job à nouveau.
Cependant, au cours de l'échec de l'exécution du job, certains flux de données du job peuvent être exécutés, certaines tables peuvent avoir été chargées, partiellement chargées ou altérées. Vous devez donc créer vos jobs de mouvement de données de telle sorte que vous puissiez restaurer le job, en d'autres termes exécuter à nouveau le job et récupérer toutes les données sans données dupliquées ou manquantes.
Vous pouvez utiliser diverses techniques pour récupérer des données d'échec d'exécutions de job.
Cette section présente deux techniques :
• Récupération automatique de jobs Fonctionnalité logicielle permettant d'exécuter des jobs qui ont
échoué en mode de récupération.
• Récupération manuelle de jobs à l'aide de tables de statuts — Technique de conception permettant d'exécuter à nouveau des jobs sans tenir compte des résultats partiels d'une exécution précédente.
Vous pouvez être amené à utiliser une combinaison de ces techniques en fonction des relations entre des flux de données dans votre application.
Si vous n'utilisez pas ces techniques, vous serez peut-être amené à rejeter les modifications manuellement à partir de tables cible en cas d'interruptions au cours de l'exécution de job.
Rubriques associées
•
Récupération automatique de jobs
693 2012-11-22
Mécanismes de récupération
•
Récupération manuelle de jobs à l'aide de tables de statuts
19.2 Récupération automatique de jobs
La récupération automatique permet au logiciel d'enregistrer le résultat de chaque étape correctement exécutée dans un job. Si un job échoue, vous pouvez décider d'exécuter à nouveau le job en mode de récupération. En mode de récupération, le logiciel récupère les résultats pour des étapes correctement exécutées et exécute à nouveau les étapes non exécutées ou qui ont échoué sous les mêmes conditions que le job d'origine. A des fins de récupération, le logiciel considère les étapes déclenchant des exceptions comme des étapes ayant échoué même si l'étape est interceptée dans un bloc Try/Catch.
19.2.1 Activation de la récupération automatique
Pour utiliser la fonctionnalité de récupération automatique, vous devez l'activer au cours de l'exécution initiale d'un job. Le logiciel sauvegarde les résultats d'étapes correctement exécutées lorsque la fonction de récupération automatique est activée.
19.2.1.1 Pour exécuter un job à partir de Designer avec la récupération activée
1.
Dans la zone de projet, sélectionnez le nom du job.
2.
Cliquez avec le bouton droit et sélectionnez Exécuter.
Le logiciel vous invite à sauvegarder toutes les modifications.
3.
Vérifiez que l'option Activer la récupération est sélectionnée dans la fenêtre " Propriétés d'exécution".
Si cette case n'est pas cochée, le logiciel n'enregistre pas les résultats des étapes au cours du job et ne peut pas récupérer le job en cas d'échec. Dans ce cas, vous devez exécuter les opérations de récupération manuellement.
19.2.1.2 Pour exécuter un job avec récupération activée depuis l'Administrateur
694 2012-11-22
Mécanismes de récupération
• Lorsque vous planifiez ou exécutez un job à partir de l'Administrateur, cochez la case Activer la
récupération.
19.2.2 Marquage des unités de récupération
Dans certains cas, les étapes d'un workflow dépendent les unes des autres et doivent être exécutées ensemble. En raison de la dépendance, vous devez désigner le workflow comme "unité de récupération".
Lorsqu'un workflow correspond à une unité de récupération, l'ensemble du workflow doit être correctement exécuté. Si le workflow n'est pas exécuté correctement, le logiciel exécute l'intégralité du workflow au cours de la récupération, même les étapes exécutées correctement auparavant.
Cependant il existe des exceptions au traitement de l'unité de récupération. Par exemple, lorsque vous indiquez qu'un workflow ou un flux de données doit être exécuté une fois, un job n'exécutera jamais à nouveau ce workflow ou ce flux de données une fois qu'il a été correctement exécuté, sauf si ce workflow ou ce flux de données figure dans un workflow d'unité de récupération à nouveau exécuté et qui n'a pas été correctement exécuté ailleurs en dehors de l'unité de récupération.
Il est recommandé de ne pas marquer un workflow ou un flux de données comme Exécuter une fois lorsque le workflow ou un workflow parent est une unité de récupération.
Rubriques associées
• Guide de référence : Flux de données
• Guide de référence : Workflow
19.2.2.1 Pour indiquer un workflow comme unité de récupération
1.
Dans la zone de projet, sélectionnez le workflow.
2.
Cliquez avec le bouton droit et sélectionnez Propriétés.
3.
Cochez la case Restaurer en tant qu'unité puis cliquez sur OK.
Au cours de la récupération, le logiciel considère ce workflow comme une unité. Si l'ensemble du workflow est correctement exécuté, c'est-à-dire sans erreur, au cours d'une exécution précédente, le logiciel récupère les résultats de l'exécution précédente. Si une étape du workflow n'a pas été correctement exécutée, l'ensemble du workflow est ré-exécuté au cours de la récupération.
Dans le diagramme Espace de travail, la croix noire et la flèche verte indiquent qu'un workflow est une unité de récupération.
695 2012-11-22
Mécanismes de récupération
19.2.3 Exécution en mode de récupération
Si l'exécution d'un job avec récupération automatique activée échoue, vous pouvez ré-exécuter ce job en mode de récupération.
Comme dans le cas de tout échec d'exécution de job, vous devez déterminer et supprimer la cause de la défaillance et ré-exécuter le job en mode de récupération. Si vous devez apporter des modifications au job lui-même pour corriger la défaillance, vous ne pouvez pas utiliser la récupération automatique mais vous devez exécuter le job comme une première exécution.
En mode de récupération, le logiciel exécute les étapes ou les unités de récupération qui n'ont pas été correctement exécutées précédemment, cela comprend les étapes qui ont échoué et les étapes qui ont déclenché une exception mais qui ont été correctement exécutées, par exemple, celles d'un bloc
Try/Catch. Comme lors d'une exécution classique de job, le logiciel exécute les étapes en parallèle si elles ne sont pas connectées dans les diagrammes de workflow et en série si elles sont connectées.
19.2.3.1 Pour exécuter un job en mode de récupération à partir de Designer
1.
Dans la zone de projet, sélectionnez le nom du job (qui a échoué).
2.
Cliquez avec le bouton droit et sélectionnez Exécuter.
Le logiciel vous invite à sauvegarder tous les objets ayant des modifications non sauvegardées.
3.
Vérifiez que la case Récupération à partir de l'échec d'exécution est cochée.
Cette option n'est pas disponible lorsqu'un job n'a pas encore été exécuté, lorsque l'exécution précédente a été correctement effectuée ou lorsque le mode de récupération a été désactivé au cours de l'étape précédente.
Lorsque vous sélectionnez Récupérer à partir du dernier échec d'exécution, le logiciel récupère les résultats de toutes les étapes correctement exécutées précédemment et exécute ou exécute à nouveau toutes les autres étapes.
Si vous désactivez cette option, le logiciel exécute ce job de nouveau en exécutant toutes les étapes.
Lorsque vous planifiez ou exécutez un job (qui a échoué) à partir de l'Administrateur, cochez la case
Récupérer à partir de la dernière exécution qui a échoué.
19.2.4 Garantie d'un chemin d'exécution correct
696 2012-11-22
Mécanismes de récupération
Le système de récupération automatique nécessite qu'un job en mode de récupération soit à nouveau exécuté exactement comme précédemment.
Il est important que le job de récupération soit exécuté exactement comme précédemment. Si l'exécution du job a été autorisée à des conditions modifiées, supposez qu'une fonction sysdate retourne une nouvelle date de contrôle des données extraites, puis que les nouvelles données chargées dans les cibles ne correspondent plus aux données correctement chargées dans la cible au cours de la première exécution du job.
Par exemple, supposez que l'exécution d'un job de mise à jour quotidienne de nuit charge correctement des tables de dimension dans un magasin. Cependant, alors que le job est en cours d'exécution, le journal de base de données dépasse et arrête le chargement à partir de tables de faits. Le jour suivant, l'Administrateur tronque le fichier journal et exécute à nouveau le job en mode de récupération. Le job de récupération ne recharge pas les tables de dimension car elles ont été correctement chargées lors de l'exécution précédente.
Pour garantir que les tables de faits sont chargées avec les données qui correspondent aux données déjà chargées dans les tables de dimension, le job de récupération doit utiliser les mêmes critères d'extraction que ceux utilisés par le job d'origine lors du chargement des tables de dimension. Si le job de récupération a utilisé de nouveaux critères d'extraction, par exemple l'extraction de données de base à la date système actuelle, les données des tables de faits ne correspondront pas aux données précédemment extraites dans les tables de dimension.
En outre, si le job de récupération utilise de nouvelles valeurs, l'exécution de job peut suivre un chemin complètement différent via des étapes conditionnelles ou des blocs Try/Catch.
Si une valeur variable globale est modifiée lors d'une récupération en tant que workflow d'unité, il n'est pas certain qu'une référence variable globale en aval comporte la valeur mise à jour lors de l'exécution en mode de récupération. Tel est le cas lors de l'exécution en mode de récupération, si l'échec d'exécution de l'exécution précédente ne figure pas dans le workflow contenant la variable modifiée.
Lorsque la récupération est activée, le logiciel enregistre les résultats à partir des types suivants d'étapes :
• Workflows
• Flux de données batch
• Instructions de script
• Fonctions personnalisées (type sans statut uniquement)
• Fonction SQL
• fonction exec
• fonction get_env
• fonction rand
• fonction sysdate
• fonction systime
697 2012-11-22
Mécanismes de récupération
19.2.5 Utilisation de blocs Try/Catch avec récupération automatique
SAP BusinessObjects Data Services ne sauvegarde pas le résultat d'un bloc Try/Catch pour le réutiliser au cours de la récupération. Si une exception a été générée dans un bloc Try/Catch, au cours de la récupération, le logiciel exécute l'étape qui a généré l'exception et les étapes suivantes.
Le chemin d'exécution via le bloc Try/Catch devant être différent dans le job récupéré, l'utilisation d'un ensemble de variables dans le bloc Try/Cath pourrait modifier les résultats au cours de la récupération automatique.
Supposez, par exemple que vous créiez un job qui définit une variable $i, que vous avez déterminée dans un bloc Try/Catch. Si une exception survient, vous pouvez définir une variable $i. Les étapes suivantes sont basées sur la valeur de $i.
Logique d'exécution de job
698
Au cours de la première exécution de job, le premier workflow contient une erreur qui génère une exception détectée. Cependant, le job échoue dans le workflow suivant.
2012-11-22
Mécanismes de récupération
Vous corrigez l'erreur et exécutez le job en mode de récupération. Au cours de la récupération, le premier workflow ne génère plus l'exception. Par conséquent, la valeur de la variable $i est différente et le job sélectionne un workflow suivant différent avec différents résultats.
Pour garantir des résultats corrects, lorsqu'un job contient un bloc Try/Catch, n'utilisez pas d'ensemble de valeurs dans le bloc Try/Catch et dans toutes les étapes suivantes.
19.2.6 Garantie que les données ne sont pas dupliquées dans des cibles
Définissez des workflows permettant une récupération correcte de jobs. Un flux de données peut être partiellement complété lors d'une exécution incomplète. Parmi les lignes requises certaines seulement ont pu alors être insérées dans une table. Vous ne souhaitez pas insérer des lignes dupliquées au cours de la récupération lorsque le flux de données est à nouveau exécuté.
Vous pouvez utiliser plusieurs méthodes pour garantir que vous n'insérez pas de lignes dupliquées :
699 2012-11-22
Mécanismes de récupération
• Créez le flux de données pour remplacer entièrement la table cible au cours de chaque exécution.
Cette technique peut être optimisée lorsque de nombreuses modifications sont apportées à la table cible, par rapport à la taille de la table. Vous pouvez utiliser des techniques d'optimisation, par exemple les options de chargement par lots pour améliorer la performance globale.
• Activez l'option de chargement de correction automatique pour la table cible.
Cette option vérifie qu'il existe des lignes dans la table cible avant d'en ajouter de nouvelles.
L'utilisation de l'option de chargement par lots peut cependant ralentir les jobs exécutés en mode de non-récupération lorsque ce n'est pas nécessaire.
Utilisez cette technique lorsque la table cible est grande et peu de modifications y sont apportées.
• Incluez une commande SQL à exécuter avant le chargement de la table.
Les commandes SQL de préchargement peuvent supprimer des mises à jour de base de données partielles apparues au cours de l'exécution incomplète d'une étape dans un job. En règle générale, la commande SQL de préchargement supprime des lignes en fonction d'une variable, c'est-à-dire avant le début de l'étape d'insertion.
19.2.7 Utilisation de SQL de préchargement pour autoriser des flux de données ré-exécutables
Pour utiliser des commandes SQL de préchargement pour supprimer des mises à jour de base de données partielles, les tables doivent contenir un champ qui permet de déterminer quand une ligne a
été insérée. Créez une commande SQL de préchargement qui supprime des lignes en fonction de la valeur de ce champ.
Par exemple, supposez qu'une table contienne une colonne qui enregistre l'horodatage d'une insertion de ligne. Vous pouvez créer un script avec une variable qui enregistre l'horodatage actuel avant l'insertion de nouvelles lignes. Dans les options de la table cible, ajoutez une commande SQL de préchargement qui supprime toutes les lignes avec un horodatage supérieur à celui enregistré par la variable.
700
Au cours de l'exécution initiale, aucune ligne ne correspond aux critères de suppression. Au cours de la récupération, la valeur de la variable n'est pas réinitialisée. (La valeur de la variable est définie dans un script exécuté correctement au cours de l'exécution initiale.) Les lignes insérées au cours du chargement partiel précédent de base de données doivent correspondre à ces critères et la commande
SQL de préchargement doit les supprimer.
Pour utiliser correctement des commandes SQL de préchargement, vous devez définir des variables et les transférer correctement aux flux de données.
2012-11-22
Mécanismes de récupération
19.2.7.1 Utilisation de commandes SQL de préchargement pour garantir une récupération correcte
1.
Déterminez les valeurs appropriées que vous pouvez utiliser pour suivre des enregistrements insérés dans vos tables.
Par exemple, si chaque ligne dans une table est marquée d'un horodatage d'insertion, vous pouvez utiliser la valeur de la fonction sysdate() pour déterminer quand une ligne a été ajoutée à cette table.
2.
Créez des variables pouvant archiver les valeurs de "suivi".
Les variables sont spécifiques au job ou au workflow. Si un workflow est une unité de récupération, créez les variables de "suivi" pour ce workflow au niveau du job , sinon, créez vos variables de suivi au niveau du workflow. Généralement, vous ne souhaitez pas réinitialiser des variables de suivi au cours de la récupération car lorsque les variables sont réinitialisées, la commande SQL de préchargement ne fonctionnera pas correctement.
3.
Créez des scripts qui définissent les variables sur les valeurs appropriées.
Les scripts sont des étapes uniques de jobs ou de workflows. Vous devez créer un script distinct qui définit les variables requises avant que chaque flux de données ou workflow ne charge une table. Si un workflow correspond à une unité de récupération, créez les scripts pour ce workflow au niveau du job ; sinon créez les scripts au niveau du workflow.
4.
Connectez les scripts aux flux de données ou aux workflows correspondants.
701
5.
Créez des paramètres pour transférer les informations relatives à la variable du job ou du workflow où vous avez créé la variable aux flux de données, qui utilise la variable de suivi dans la commande
SQL de préchargement.
6.
Insérez les commandes SQL de préchargement appropriées qui suppriment tous les enregistrements insérés au cours des exécutions précédentes qui ont échoué.
2012-11-22
Mécanismes de récupération
Les commandes SQL de préchargement référencent les paramètres contenant la variable de suivi en supprimant les lignes insérées après l'activation de la variable.
Par exemple, supposez que la table PO_ITEM enregistre l'horodatage vers date dans la colonne
TIMESTMP
. Vous avez créé une variable $load_time qui enregistre la valeur de la fonction sys date() avant le début du chargement et vous avez transféré cette variable au flux de données qui charge la table PO_ITEM dans un paramètre nommé $load_time. Puis votre commande SQL de préchargement doit supprimer tous les enregistrements de la table si la valeur dans TIMESTMP est supérieure à la valeur dans $load_time.
Supprimez de PO_ITEM si TIMESTMP > [$load_time]
Rubriques associées
•
Définition d'une variable locale
•
•
19.3 Récupération manuelle de jobs à l'aide de tables de statuts
Vous pouvez créer vos jobs et workflows pour pouvoir les récupérer manuellement en cas d'échec d'une exécution. Un job conçu pour une récupération manuelle doit avoir certaines caractéristiques :
• Vous pouvez exécuter le job de façon répétitive.
• Le job implémente des étapes spécifiques pour récupérer des données lorsqu'une étape n'a pas
été correctement exécutée précédemment.
Vous pouvez utiliser une table des statuts d'exécution pour créer des jobs pouvant être exécutés plusieurs fois sans duplication des lignes cibles. La table enregistre un statut d'exécution de job. Une valeur "Echec" indique à SAP BusinessObjects Data Services un chemin d'accès de récupération.
Pour implémenter un workflow avec un chemin d'exécution de récupération :
• Définissez un indicateur indiquant lorsque le workflow est en en cours d'exécution en mode de récupération.
• Archivez la valeur de l'indicateur dans une table de statuts.
• Vérifiez la valeur de l'indicateur dans la table de statuts avant d'exécuter un workflow pour déterminer le chemin à exécuter dans le workflow.
• Mettez à jour la valeur de l'indicateur lorsque le workflow est correctement exécuté.
Par exemple, vous pourriez créer un workflow qui utilise l'option de chargement de correction automatique lorsqu'une précédente exécution n'est pas correcte. Ce workflow aurait cinq étapes comme l'illustre la figure :
702 2012-11-22
Mécanismes de récupération
1.
Récupérez la valeur de code qui indique si l'exécution précédente est correcte ou si elle a échoué,
à partir de la table de statuts. Archivez cette valeur dans une variable, par exemple $recovery_nee
ded
.
2.
Dans une structure conditionnelle, évaluez la variable $recovery_needed.
3.
Si une récupération est requise, exécutez le flux de données de récupération recover_customer.
Ce flux de données charge les données à l'aide de l'option de correction automatique de chargement.
4.
Si aucune récupération n'est requise, exécutez le flux de données de non-récupération load_customer.
Ce flux de données charge les données sans option de correction automatique de chargement.
5.
Mettez à jour la valeur de l'indicateur dans la table de statuts pour indiquer que l'exécution est correcte.
Rubriques associées
• Guide de référence :cible
19.4 Traitement de données avec problèmes
Les jobs peuvent ne pas donner les résultats que vous attendez en raison de problèmes avec les données. Dans certains cas, le logiciel est incapable d'insérer une ligne. Dans d'autres cas, le logiciel peut insérer des lignes avec des informations manquantes. Vous pouvez concevoir vos flux de données pour anticiper et traiter ces types de problèmes. Par exemple, vous pouvez avoir un flux de données qui écrit des lignes avec des informations manquantes dans un fichier spécifique que vous pouvez vérifier ultérieurement.
Cette section décrit des mécanismes que vous pouvez utiliser pour anticiper et traiter des problèmes de données. Cette section aborde notamment trois techniques :
•
Utilisation de fichiers de dépassement
•
Filtrage pour valeurs manquantes ou erronées
•
Traitement de faits avec dimensions manquantes
19.4.1 Utilisation de fichiers de dépassement
Une ligne qui ne peut pas être insérée constitue un problème de données général. Utilisez le fichier de dépassement pour traiter ce type de problème de données. Lorsque vous indiquez un fichier de dépassement et que SAP BusinessObjects Data Services ne peut pas charger une ligne dans un tableau, le logiciel écrit la ligne sur le fichier de dépassement à la place. Le journal de suivi indique le flux de données où le chargement a échoué et l'emplacement du fichier.
703 2012-11-22
Mécanismes de récupération
Pour toute table utilisée comme cible, vous pouvez activer l'option d'utilisation d'un fichier de dépassement dans l'onglet Options. Lorsque vous indiquez un fichier de dépassement, donnez un nom de chemin complet pour garantir que le logiciel crée un fichier unique lorsque plusieurs fichiers sont créés dans le même job. Par défaut, le nom du fichier de dépassement est le nom de la table cible.
Lorsque vous sélectionnez l'option de fichier de dépassement, vous sélectionnez les données que le logiciel écrit dans le fichier, concernant les lignes pour lesquelles le chargement a échoué : soit les données de la ligne, soit les commandes SQL requises pour charger la ligne. Si vous sélectionnez des données, vous pouvez utiliser le logiciel pour lire les données à partir du fichier de dépassement, les nettoyer et les charger dans la table cible. Si vous sélectionnez des commandes SQL, vous pouvez les utiliser pour charger la cible manuellement lorsqu'elle est accessible.
Plusieurs raisons peuvent être à l'origine de l'échec d'un chargement, par exemple :
• Capacité de mémoire saturée
• Paramètres de colonne de dépassement
• Valeurs clés doubles
Vous pouvez utiliser les informations de dépassement pour identifier des données non valides dans votre source ou les problèmes du mouvement de données. Toute nouvelle exécution écrasera le fichier de dépassement existant.
Remarque :
Vous ne pouvez pas utiliser des fichiers de dépassement lors d'un chargement dans une structure de transfert BW.
19.4.2 Filtrage pour valeurs manquantes ou erronées
Une valeur manquante ou non valide dans les données source constitue un autre problème de données commun. Les requêtes dans les flux de données vous permettent d'identifier des valeurs manquantes ou non valides dans des données sources. Vous pouvez également décider d'inclure ces données dans la cible ou de les ignorer.
Par exemple, supposez que vous extrayiez des données d'une source et que vous sachiez que certains numéros de téléphone et noms de client manquent. Vous pouvez utiliser un flux de données pour extraire des données de la source, charger ces données dans une cible et filtrer les valeurs nulles dans un fichier pour votre contrôle.
Le flux de données comporte les cinq étapes suivantes :
1.
Il extrait les données de la source.
2.
Il sélectionne le jeu de données à charger dans la source et applique de nouvelles clés. (Cette étape est exécutée à l'aide de la fonction Key_Generation.)
3.
Il charge le jeu de données dans la cible, à l'aide de l'option Chargement par lots pour une meilleure performance.
704 2012-11-22
Mécanismes de récupération
4.
Il utilise le jeu de données pour lequel de nouvelles clés ont été générées dans l'étape 2 et sélectionne des lignes avec noms de client et numéros de téléphone manquants.
5.
Il écrit les ID client pour les lignes avec des données manquantes dans un fichier.
Maintenant, supposez que vous souhaitiez charger des lignes avec des noms de client manquants dans votre cible. Vous pouvez insérer une autre requête dans le flux de données pour garantir que
SAP BusinessObjects Data Services n'insère pas de lignes incomplètes dans la cible. La nouvelle requête filtre les lignes avec noms de client manquants avant de charger des lignes dans la cible. La requête de données manquantes continue à collecter ces lignes avec les lignes avec numéros de téléphone manquants. Dans cette version de l'exemple, la transformation Key_Generation ajoute des clés pour les nouvelles lignes avant d'insérer le jeu de données filtrées dans la cible.
Maintenant le flux de données comporte six étapes.
1.
Il extrait les données de la source.
2.
Il sélectionne le jeu de données à charger dans la cible en filtrant les lignes sans nom de client.
3.
Il génère des clés pour les lignes avec noms de client.
4.
Il charge le jeu de données valide (lignes avec noms de client) dans la cible à l'aide de l'option
Chargement par lots pour une meilleure performance.
5.
Il utilise une transformation Query distincte pour sélectionner des lignes de la source, qui ne comportent ni noms ou numéros de téléphone.
Notez que le logiciel ne charge pas de lignes avec noms de client manquants dans la cible ; cependant le logiciel charge les lignes avec numéros de téléphone manquants.
6.
Il écrit les ID client pour les lignes avec données manquantes dans un fichier.
Vous pourriez ajouter plus de requêtes dans le flux de données pour sélectionner des valeurs manquantes ou non valides pour un contrôle ultérieur.
19.4.3 Traitement de faits avec dimensions manquantes
Un autre problème de données se produit lorsque SAP BusinessObjects Data Services recherche une table de dimensions et ne peut pas trouver les valeurs requises pour compléter une table de faits.
Vous pouvez traiter ce problème de plusieurs façons :
• Sortir la ligne posant problème de la table de faits.
En règle générale, ce n'est pas une bonne idée car l'analyse effectuée sur les faits ne tiendra pas compte de cette ligne.
• Noter la ligne ayant généré l'erreur mais la charger quand-même dans la table cible.
Vous pouvez marquer la ligne comme étant erronée ou transférer les informations relatives à la ligne dans un fichier d'erreurs comme dans les exemples de
Filtrage pour valeurs manquantes ou erronées
.
705 2012-11-22
Mécanismes de récupération
• Régler le problème via un programme.
Selon les données manquantes, vous pouvez insérer une nouvelle ligne dans la table de dimensions, ajouter des informations d'une source secondaire ou utiliser une autre méthode fournissant des données en dehors du chemin de haute performance normal.
706 2012-11-22
Capture de données modifiées
Capture de données modifiées
Rubriques associées
•
Compréhension de la capture des données modifiées
•
Utilisation de la CDM avec des source Oracle
•
Utilisation de la CDM avec les sources d'un ordinateur central Attunity
•
Utilisation de la CDM avec les bases de données Microsoft SQL Server
•
Utilisation de la CDM avec des sources basées sur l'horodatage
•
Utilisation de la CDM pour les cibles
20.1 Compréhension de la capture des données modifiées
Lorsque vous avez une grande quantité de données à mettre à jour régulièrement et peu de temps d'arrêt système pour la maintenance planifiée d'un entrepôt de données, mettez à jour les données au fil du temps ou effectuez un chargement de delta. Deux méthodes de chargement de delta couramment utilisées sont l'actualisation complète et la capture des données modifiées (CDM).
20.1.1 Actualisation complète
L'actualisation complète est facile à implémenter et à gérer. Cette méthode garantit qu'aucune donnée ne sera négligée ou perdue en raison d'erreurs techniques ou de programmation. Pour un environnement comportant une quantité de données source gérable, l'actualisation complète est une méthode simple
à utiliser pour effectuer un chargement de delta vers un système cible.
20.1.2 Capture des modifications uniquement
A la fin d'un chargement initial, vous pouvez choisir d'extraire uniquement les données nouvelles ou modifiées et de mettre à jour le système cible. L'identification et le chargement des seules données
707 2012-11-22
Capture de données modifiées modifiées est appelé capture des données modifiées (CDM) Sont comprises uniquement les données incrémentielles ayant été modifiées depuis le dernier cycle d'actualisation. SAP BusinessObjects Data
Services agit sous forme de mécanisme pour localiser et extraire uniquement les données incrémentielles ayant été modifiées depuis la dernière actualisation.
L'amélioration des performances et la conservation d'un historique sont les deux motifs les plus importants justifiant l'utilisation de la capture des données modifiées.
• Les performances sont améliorées parce qu'il y a moins de données à extraire, transformer et charger, le job dure habituellement moins longtemps.
• Si le système cible doit suivre l'historique des modifications afin que ces données puissent être correctement analysées au fil du temps, la méthode de capture des données modifiées peut fournir un enregistrement de ces modifications.
Par exemple, si un client déménage d'une région de vente dans une autre, la simple mise à jour de la fiche client pour tenir compte de la nouvelle région affecte toute analyse par région dans le temps, parce que les achats effectués par ce client avant son déménagement sont attribués à la nouvelle région.
Cette section expose à la fois les concepts généraux et les procédures spécifiques pour effectuer la capture des données modifiées dans le progiciel.
20.1.3 CDM basée sur la source et basée sur la cible
La capture des données modifiées peut être basée sur la source ou la cible.
20.1.3.1 CDM basée sur la source
La capture des données modifiées basée sur la source extrait uniquement les lignes modifiées de la source. Elle est parfois appelée extraction incrémentielle. Cette méthode est privilégiée parce qu'elle améliore les performances en extrayant le dernier nombre de lignes.
SAP BusinessObjects Data Services offre un accès aux données modifiées basé sur la source proposé par divers fournisseurs de logiciels. Le tableau suivant répertorie les sources de données prises en charge ainsi que les produits et techniques de capture des données modifiées.
708 2012-11-22
Capture de données modifiées
Source de données
Oracle 9i et versions ultérieures
Produits ou techniques
Utilisez les packages CDM d'Oracle pour gérer les tables CDM. Ces packages utilisent un modèle de publication et d'abonnement. Vous pouvez créer une banque de données CDM pour les sources Oracle
à l'aide de Designer. Vous pouvez
également utiliser Designer pour créer des tables CDM dans Oracle, puis les importer pour les utiliser dans des jobs.
Sources de données d'ordinateur central (Adabas, DB2 UDB pour z/OS,
IMS, SQL/MP, VSAM, fichiers plats) avec accès via Attunity Connect
Pour les sources de données d'ordinateur central qui utilisent Attunity pour se connecter au progiciel, vous pouvez utiliser Attunity Streams 4.6.
Bases de données Microsoft SQL Server
Utilisez le serveur de réplication
Microsoft SQL pour capturer les données modifiées des bases de données SQL Server.
Autres sources
Extracteurs SAP
Utilisez les champs de date et heure pour comparer les exécutions de jobs de capture des données modifiées basés sur la source.
Cette technique utilise un horodatage de création et/ou modification sur chaque ligne. Vous pouvez comparer les lignes en utilisant comme référence l'heure de la dernière mise à jour. Cette méthode s'appelle CDM basée sur l'horodatage.
Définissez les critères de filtrage de la CDM lors de l'importation d'un extracteur.
Rubriques associées
•
Utilisation de la CDM avec des source Oracle
•
Utilisation de la CDM avec les sources d'un ordinateur central Attunity
•
Utilisation de la CDM avec les bases de données Microsoft SQL Server
•
Utilisation de la CDM avec des sources basées sur l'horodatage
• Supplément pour SAP : Connexion aux applications SAP, Capture des données modifiées
709 2012-11-22
Capture de données modifiées
20.1.3.2 CDM basée sur la cible
La capture des données modifiées basée sur la cible extrait toutes les données de la source, mais charge uniquement les lignes modifiées dans la cible.
La capture des données modifiées basée sur la cible est utile quand vous désirez capturer l'historique, mais que vous n'avez pas la possibilité d'utiliser la capture des données modifiées basée sur la source.
Le progiciel propose la comparaison de tables pour prendre en charge cette méthode.
20.2 Utilisation de la CDM avec des source Oracle
Si votre environnement doit garder à jour de grandes quantités de données, la fonctionnalité de CDM
(Capture des données modifiées) d'Oracle est une solution simple pour limiter le nombre de lignes devant être lues régulièrement par le progiciel. Une source qui lit uniquement les opérations les plus récentes (INSERT, UPDATE, DELETE) permet de concevoir des chargements de delta plus légers et plus rapides.
20.2.1 Présentation de la CDM pour les bases de données Oracle
Terme
Table des modifications
(CDM)
Avec Oracle 9i ou supérieur, SAP BusinessObjects Data Services gère l'environnement CDM en accédant aux packages de publication et d'abonnement d'Oracle. Oracle publie les données modifiées de la table d'origine dans sa table CDM.
Designer permet de créer ou importer les tables CDM et de créer des abonnements pour accéder aux données de la table CDM. Des abonnements distincts permettent à chaque utilisateur de garder une trace de la dernière ligne modifiée à laquelle il a accédé.
Vous pouvez également activer des points de contrôle pour les abonnements afin que le progiciel lise uniquement les dernières modifications dans la table CDM.
Oracle utilise les termes suivants pour la Capture des données modifiées :
Description
Table relationnelle contenant les données modifiées résultant des opérations
DML effectuées sur une table source.
710 2012-11-22
Capture de données modifiées
Terme
Set de modifications
Source de modification
Editeur
Mode de publication
Base de données source
Description
Groupe de tables CDM transactionnellement cohérentes. Par exemple, les tables
CommandeClient et PosteVente doivent être dans un set de modifications pour garantir que les modifications d'une commande et de ses postes individuels soient capturées ensemble.
Base de données qui contient un ou plusieurs sets de modifications
Personne qui capture et publie les données modifiées. L'éditeur est habituellement un administrateur de base de données qui crée et gère les objets de schéma qui constituent la base de données source et la base de données intermédiaire.
Indique quand et comment capturer les données modifiées. Pour en savoir plus, voir le tableau suivant sur les modes de publication.
Base de données de production qui contient les données que vous avez extraites pour votre chargement initial. La base de données source contient les tables source.
Base de données intermédiaire
Abonné
Base de données où sont publiées les données modifiées. Selon le mode de publication, la base de données intermédiaire peut être identique ou différente de la base de données source.
Utilisateur pouvant accéder aux données publiées dans les tables CDM.
Abonnement
Vue d'abonné
Contrôle l'accès aux données modifiées d'une ou plusieurs tables source dans un seul set de modifications. Un abonnement contient une ou plusieurs vues d'abonné.
Données modifiées pour lesquelles l'éditeur a accordé le droit d'accès à l'abonné afin de les utiliser.
Oracle prend en charge les modes de publication suivants :
AutoLog asynchrone
• Les données sont capturées à l'aide des fichiers redo log gérés par les services de transport de journal qui automatisent le transfert de la base de données source à la base de données intermédiaire.
• La disponibilité des données capturées dépend de la fréquence des modifications des fichiers redo log dans la base de données source.
• Un set de modifications contient plusieurs tables CDM et peut être distant ou local par rapport à la base de données.
Commentaires:
• Améliore les performances parce que les données sont capturées hors connexion.
• Disponible uniquement dans Oracle 10G.
HotLog asynchrone
711 2012-11-22
Capture de données modifiées
• Les données sont capturées à l'aide des fichiers redo log ou des journaux d'archives de la base de données source.
• Les données capturées sont disponibles pratiquement en temps réel.
• Un set de modifications contient plusieurs tables CDM et doit se trouver localement dans la base de données.
Commentaires:
• Améliore les performances parce que les données sont capturées hors connexion.
• Disponible uniquement dans Oracle 10G.
Synchrone
• Les données sont capturées à l'aide de déclencheurs internes dans les tables source afin de stocker les modifications dans les tables CDM.
• Les données capturées sont disponibles en temps réel.
• Les tables CDM doivent se trouver dans la base de données source.
Commentaires:
• Ajoute des données inutiles à la base de données source au moment de la capture.
• Disponible dans Oracle 9i et 10G.
20.2.1.1 CDM Oracle en mode synchrone
Le diagramme suivant illustre la manière dont les données modifiées sont transférées des tables CDM
Oracle vers SAP BusinessObjects Data Services en mode synchrone.
712 2012-11-22
Capture de données modifiées
Lorsqu'une transaction modifie une table source, des déclencheurs internes capturent les données modifiées et les stockent dans la table CDM correspondante.
20.2.1.2 CDM Oracle en mode HotLog asynchrone
Le diagramme suivant illustre la manière dont les données modifiées sont transférées des tables CDM
Oracle vers SAP BusinessObjects Data Services en mode HotLog asynchrone.
713
Lorsqu'une transaction modifie une table source, Logwriter enregistre les modifications dans les fichiers log redo en ligne. Les processus des flux Oracle remplissent automatiquement les tables CDM lors de la validation des transactions.
20.2.1.3 CDM Oracle en mode AutoLog asynchrone
Le diagramme suivant illustre la manière dont les données modifiées sont transférées des tables CDM
Oracle vers SAP BusinessObjects Data Services en mode AutoLog asynchrone.
2012-11-22
Capture de données modifiées
Lorsque le journal active la base de données source, Oracle archive le fichier redo log et copie les fichiers redo log en ligne dans la base de données intermédiaire. Les processus des flux Oracle remplissent les tables CDM à partir des fichiers journaux copiés.
Remarque :
Le processus d'archivage Oracle requiert une connectivité ininterrompue via Oracle Net pour envoyer les fichiers redo log au serveur de fichiers distant.
20.2.2 Configuration de la CDM Oracle
Utilisez la configuration requise suivante sur votre serveur de base de données source Oracle pour suivre les modifications :
• Installez les packages CDM d'Oracle. Ces packages sont installés par défaut. Toutefois, si un package CDM doit être réinstallé, ouvrez le répertoire Admin d'Oracle, puis recherchez et exécutez le script SQL d'Oracle initcdc.sql.
• La CDM synchrone est disponible avec Oracle Standard Edition et Enterprise Edition.
• La CDM asynchrone est disponible avec Oracle Enterprise Edition uniquement.
• Activez Java.
• Définissez les droits du propriétaire des tables sources pour que les tables CDM puissent être créées, purgées et supprimées si nécessaire.
• Attribuez aux propriétaires de la banque de données le droit SELECT pour les tables CDM ainsi que les droits SELECT_CATALOG_ROLE et EXECUTE_CATALOG_ROLE.
• Pour la CDM synchrone, activez les déclencheurs système d'Oracle.
714 2012-11-22
Capture de données modifiées
• Pour la CDM AutoLog asynchrone :
• L'administrateur de la base de données source doit créer un dictionnaire de données LogMiner pour permettre aux services de transport de journal d'envoyer ce dictionnaire de données à la base de données intermédiaire. Oracle met à jour automatiquement le dictionnaire de données avec toutes les opérations DDL des tables source qui se produisent durant la CDM pour conserver la cohérence entre les tables intermédiaires et les tables source.
• L'administrateur de la base de données source doit également obtenir la valeur du SCN de la version du dictionnaire de données. Si vous souhaitez utiliser Designer pour créer des tables
CDM, vous devez indiquer le SCN dans l'assistant.
• L'éditeur (habituellement l'administrateur de la base de données source) doit configurer les services de transport de journal pour copier les fichiers redo log du système de la base de données source vers le système de la base de données intermédiaire et enregistrer automatiquement les fichiers redo log.
Rubriques associées
•
Création de tables CDM Oracle dans le progiciel
20.2.3 Création d'une banque de données CDM pour Oracle
Pour accéder aux tables CDM, créez une banque de données CDM à l'aide de Designer. Une banque de données CDM est une banque de données en lecture seule qui peut uniquement accéder aux tables.
Comme pour les autres banques de données, vous pouvez créer, modifier une banque de données
CDM et y accéder depuis l'onglet Banques de données de la bibliothèque d'objets.
1.
Créez une banque de données de base de données avec l'option Type de base de données définie sur Oracle.
2.
Cochez la case CDM.
3.
Sélectionnez une version Oracle.
Designer permet uniquement de sélectionner les versions d'Oracle qui prennent en charge les packages CDM.
4.
Indiquez le nom de votre base de données intermédiaire (la base de données source des modifications où sont publiées les données modifiées) dans Nom de la connexion.
5.
Saisissez l'Utilisateur et le Mot de passe de la base de données intermédiaire, puis cliquez sur
OK.
Vous pouvez utiliser cette banque de données pour parcourir et importer les tables CDM.
715 2012-11-22
Capture de données modifiées
20.2.4 Importation de données CDM depuis Oracle
Vous devez créer une table CDM dans Oracle pour chaque table source que vous désirez lire pour pouvoir importer cette table CDM à l'aide de SAP BusinessObjects Data Services. Employez une des méthodes suivantes :
• Utilisez un utilitaire Oracle pour créer les tables CDM.
• Utilisez Designer pour créer des tables CDM.
20.2.4.1 Utilisation des tables CDM existantes
1.
Importez une table CDM Oracle en cliquant avec le bouton droit sur le nom de la banque de données
CDM dans la bibliothèque d'objets, puis en sélectionnant Ouvrir, Importer par nom ou Rechercher.
Si vous sélectionnez Ouvrir, vous pouvez parcourir la banque de données pour rechercher les tables
CDM existantes à l'aide de l'Explorateur de banque de données.
2.
Quand vous avez trouvé la table à importer, cliquez dessus avec le bouton droit et sélectionnez
Importer.
716
20.2.4.2 Création de tables CDM Oracle dans le progiciel
Le progiciel donne la possibilité de créer des tables CDM Oracle pour tous les modes de publication :
• CDM synchrone
• CDM HotLog asynchrone
• CDM AutoLog asynchrone
1.
Dans la bibliothèque d'objets, cliquez avec le bouton droit sur une banque de données CDM et sélectionnez Ouvrir.
2.
Dans l'Explorateur de banque de données, cliquez avec le bouton droit sur l'espace blanc dans la section Métadonnées externes, puis sélectionnez Nouvelle.
L'assistant Nouvelle table CDM s'ouvre. L'assistant permet d'ajouter une table CDM.
Remarque :
Si l'Explorateur de banque de données s'ouvre et qu'il n'existe aucune table CDM dans votre banque de données, cet assistant s'ouvre automatiquement.
3.
Sélectionnez le mode de publication dans la première page de l'assistant.
2012-11-22
Capture de données modifiées
717
Si votre base de données source est Oracle 9i, vous ne pouvez sélectionner que le mode synchrone.
Les modes asynchrones sont désactivés.
Si votre base de données source est Oracle 10G, l'assistant sélectionne par défaut le mode HotLog asynchrone.
Si votre base de données source utilise le mode de publication AutoLog asynchrone, sélectionnez
AutoLog asynchrone et fournissez les informations de connexion à la base de données source suivantes :
Champ
Nom de la connexion
Nom d'utilisateur
Mot de passe
Description
Nom de la base de données où se trouve la source des modifications.
Utilisez le nom du service de la configuration du service Oracle Net.
Nom d'utilisateur de l'administrateur de la base de données source.
Mot de passe de l'utilisateur de la source des modifications.
4.
Cliquez sur Suivant. La deuxième page de l'assistant s'affiche.
5.
Indiquez les informations de la table source sur la deuxième page de l'assistant.
a.
Cliquez sur le bouton Rechercher pour voir une liste de tables externes non CDM disponibles dans cette banque de données. Pour filtrer une recherche, saisissez les valeurs d'un propriétaire et/ou un nom de table. Vous pouvez utiliser un caractère générique (%) pour effectuer une correspondance de modèle pour les valeurs Nom ou Propriétaire.
b.
(Facultatif) Sélectionnez Obtenir les pré-images si vous désirez suivre les pré et post-images dans la nouvelle table CDM.
c.
Cliquez sur un nom dans la liste des tables renvoyées et cliquez sur Suivant pour créer une table CDM en utilisant la table sélectionnée comme table source.
6.
Indiquez le Propriétaire de la table CDM pour la nouvelle table CDM.
Par défaut, le nom du propriétaire de la nouvelle table CDM est le nom du propriétaire de la banque de données. Le nom du propriétaire de la table source est également affiché dans la zone de liste déroulante des propriétaires de table CDM. Si le nom que vous désirez utiliser n'est pas dans la liste, saisissez un autre nom de propriétaire.
7.
Indiquez le Nom de la table CDM pour la nouvelle table CDM.
Par défaut, le progiciel génère un nom de table selon la convention suivante :
CDM__NomTableSource.
8.
Toutes les colonnes sont sélectionnées par défaut. Indiquez les colonnes à inclure ou exclure de la table CDM selon une des méthodes suivantes : supprimez la coche de la case près du nom de chaque colonne à exclure ou bien cliquez sur Désélectionner tout et placez une coche près du nom de chaque colonne à inclure.
9.
Pour le mode de publication synchrone : a.
Cliquez sur Terminer. Designer se connecte à l'instance Oracle, crée la table CDM sur le serveur
Oracle et importe les métadonnées de la table dans le référentiel. Toutes les tables que le progiciel importe via une banque de données CDM contiennent une colonne qui indique quelle opération
2012-11-22
Capture de données modifiées
718 effectuer pour chaque ligne. Pour une table CDM Oracle, cette colonne s'appelle Operation$.
Outre cette colonne, Oracle en ajoute d'autres en créant une table CDM. Ces colonnes ont toutes un signe dollar ($) comme suffixe.
b.
Cliquez sur OK dans la boîte de dialogue d'information. Celle-ci confirme qu'Oracle a créé une table CDM, puis l'a importée dans le progiciel.
10.
Pour le mode de publication asynchrone (HotLog ou AutoLog), cliquez sur Suivant.
11.
Pour le mode de publication HotLog asynchrone, indiquez les informations du set de modifications dans la quatrième page de l'assistant.
a.
Si vous désirez ajouter cette table de modifications à un set de modifications existant afin de conserver la cohérence transactionnelle des modifications avec les tables du set de modifications, sélectionnez un nom dans la liste déroulante de Modifier le nom du set. Sinon, vous pouvez créer un set de modifications en saisissant son nom.
b.
Sélectionnez Arrêter la capture sur DDL si une erreur DDL se produit et que vous ne voulez pas capturer les données.
c.
Sélectionnez Définir la période de rétention pour activer les zones de texte Date de début et
Date de fin.
d.
Cliquez sur Terminer.
Designer se connecte à l'instance Oracle, crée la table CDM sur le serveur Oracle et importe les métadonnées de la table dans le référentiel du logiciel. Toutes les tables que le progiciel importe via une banque de données CDM contiennent une colonne qui indique quelle opération effectuer pour chaque ligne. Pour une table CDM Oracle, cette colonne s'appelle Operation$. Outre cette colonne, Oracle en ajoute d'autres en créant une table CDM. Ces colonnes ont toutes un signe dollar ($) comme suffixe.
12.
Pour le mode de publication AutoLog asynchrone, indiquez les informations du set de modifications et de la source de modification dans la quatrième page de l'assistant.
a.
Si vous désirez ajouter cette table de modifications à un set de modifications existant afin de conserver la cohérence transactionnelle des modifications avec les tables du set de modifications, sélectionnez un nom dans la liste déroulante de Modifier le nom du set. Sinon, vous pouvez créer un set de modifications en saisissant son nom.
b.
Si vous désirez ajouter cette table de modifications à une source de modification existante, sélectionnez un nom dans la liste déroulante de Modifier le nom de source.
c.
Pour créer une source de modification, saisissez le nom de la source de modification CDM et le nom de la base de données source. Vous pouvez obtenir ce nom dans la table Global_Name de la base de données source, valeur du SCN de la version du dictionnaire de données.
d.
Sélectionnez Arrêter la capture sur DDL si une erreur DDL se produit pendant la capture des données et que vous ne voulez pas la poursuivre.
e.
Sélectionnez Définir la période de rétention pour activer les zones de texte Date de début et
Date de fin.
f.
Cliquez sur Terminer.
Designer se connecte à la base de données intermédiaire Oracle, crée la table CDM dans la source de modification et importe les métadonnées de la table dans le référentiel du logiciel.
Toutes les tables que le progiciel importe via une banque de données CDM contiennent une colonne qui indique quelle opération effectuer pour chaque ligne. Pour une table CDM Oracle, cette colonne s'appelle Operation$. Outre cette colonne, Oracle en ajoute d'autres en créant une table CDM. Ces colonnes ont toutes un signe dollar ($) comme suffixe.
2012-11-22
Capture de données modifiées
Rubriques associées
•
20.2.5 Affichage d'une table CDM importée
Pour afficher une table CDM importée :
1.
Recherchez votre banque de données CDM dans la bibliothèque d'objets.
2.
Développez le dossier Tables.
3.
Double-cliquez sur un nom de table ou cliquez avec le bouton droit et sélectionnez Ouvrir.
Lorsque le progiciel importe une table CDM, il ajoute également deux colonnes au schéma de la table :
DI_SEQUENCE_NUMBER avec le type de données integer et DI_OPERATION_TYPE avec le type de données varchar(1).
Un schéma de table CDM Oracle importée ressemble au suivant :
719
Cet exemple comporte huit colonnes de contrôle ajoutées à la table d'origine.
• Deux sont générées par le progiciel :
•
DI_SEQUENCE_NUMBER
- Contient un entier pour le séquencement.
•
DI_OPERATION_TYPE
- Contient le type d'opération de la ligne.
• Six colonnes de contrôle Oracle : OPERATION$, CSCN$, COMMIT_TIMESTAMP$, RSID$,
USERNAME$, TIMESTAMP$
Remarque :
Les colonnes de contrôle Oracle varient selon les options ayant été sélectionnées à la création de la table CDM. Toutes les colonnes de contrôle Oracle se terminant par un signe dollar ($).
2012-11-22
Capture de données modifiées
Rubriques associées
•
•
20.2.5.1 Colonne DI_SEQUENCE_NUMBER
La colonne DI_SEQUENCE_NUMBER commence par zéro au début de chaque extraction. Ce champ est incrémenté d'un chaque fois que le progiciel lit une ligne, sauf s'il rencontre une paire de pré et post-images pour une opération UPDATE. La pré-image et la post-image reçoivent le même numéro de séquence. Cette colonne de séquencement fournit un moyen de rassembler les paires d'images si elles sont séparées en raison de la conception du flux de données.
Rubriques associées
•
20.2.5.2 Colonne DI_OPERATION_TYPE
Les valeurs possibles de la colonne DI_OPERATION_TYPE sont :
•
I pour INSERT
•
D pour DELETE
•
B pour une pré-image d'une opération UPDATE
•
U pour une post-image d'une opération UPDATE
Lorsque le progiciel lit une ligne d'Oracle, il contrôle les valeurs de la colonne Operation$ et les traduit en ses propres valeurs dans la colonne DI_OPERATION_TYPE.
720 2012-11-22
Capture de données modifiées
I
Operation$
D
UO, UU
UN
D
B
I
DI_OPERATION_TYPE
U
20.2.6 Configuration d'une table source CDM Oracle
Quand vous faites glisser une table de banque de données CDM dans un flux de données, elle devient automatiquement un objet source.
1.
Faites glisser une table de banque de données CDM dans un flux de données.
2.
Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3.
Cliquez sur l'onglet Options CDM.
4.
Indiquez une valeur pour le nom d'abonnement CDM
Pour en savoir plus, consultez le
Guide de référence.
20.2.6.1 Utilisation des points de contrôle
Lorsqu'un job de SAP BusinessObjects Data Services s'exécute avec les points de contrôle activés, le progiciel utilise le nom d'abonnement de la table source pour lire le plus récent ensemble de lignes ajoutées. Si vous n'activez pas les points de contrôle, le job lit toutes les lignes de la table, ce qui augmente le temps de traitement.
Pour utiliser les points de contrôle, saisissez un nom dans la zone Nom d'abonnement CDM de l'Editeur de table source et sélectionnez l'option Activer le point de contrôle.
Remarque :
Pour éviter les problèmes de corruption de données, ne réutilisez pas les flux de données qui utilisent les banques de données CDM parce que chaque fois qu'une table source extrait des données, elle utilise le même nom d'abonnement. C'est-à-dire que des jobs identiques, selon le moment où ils sont exécutés, peuvent obtenir des résultats différents et laisser des points de contrôle à différents endroits de la table. Par exemple, lorsque vous migrez des jobs CDM de test en production, un scénario de meilleure pratique consisterait à modifier le nom d'abonnement pour le job de production afin que le job de test, s'il est à nouveau exécuté, n'affecte pas les résultats du job de production.
721 2012-11-22
Capture de données modifiées
722
20.2.6.2 Utilisation des pré-images
Si vous voulez récupérer les pré-images des lignes UPDATE avant que l'opération de mise à jour soit appliquée à la source, le progiciel peut développer la ligne UPDATE en deux lignes : une pour la pré-image de la mise à jour et une pour la post-image de la mise à jour. La pré-image d'une ligne de mise à jour est l'image de la ligne avant qu'elle ne soit modifiée et la post-image d'une ligne de mise à jour fait référence à l'image de la ligne après application de la modification.
Comportement par défaut : un lecteur CDM récupère uniquement les post-images. En ne récupérant pas les pré-images, moins de lignes passent par le moteur, ce qui permet de diminuer le temps d'exécution du job.
Vous pouvez utiliser les pré-images pour :
• Mettre à jour les clés primaires
Remarque :
Dans la plupart cas, lorsque les tables source sont mises à jour, leurs clés primaires n'ont pas besoin d'être actualisées.
• Effectuer les calculs des modifications entre les données des colonnes
Par exemple, vous pouvez calculer la différence entre le nouveau et l'ancien salaire d'un employé en examinant la différence entre les valeurs des champs de salaire.
20.2.6.2.1 Pour capturer les pré-images des lignes de mise à jour :
1.
Au moment de la création d'une table CDM, vérifiez que la table CDM Oracle est également configurée pour récupérer les pré-images complètes.
Si vous créez une table CDM Oracle à l'aide de Designer, vous pouvez sélectionner Obtenir les
pré-images dans ce but.
2.
Sélectionnez Obtenir les pré-images pour chaque ligne de mise à jour dans l'éditeur source de la table CDM.
Si la table CDM sous-jacente n'est pas correctement configurée, l'activation de l'option Obtenir les pré-images pour chaque ligne de mise à jour n'a aucun effet.
Après avoir sélectionné l'option Obtenir les pré-images pour chaque ligne de mise à jour, le progiciel traite deux lignes lors de chaque mise à jour. Outre l'impact sur les performances de cette augmentation du volume de données, les paires de pré et post-images peuvent être séparées ou perdues selon la conception de votre flux de données. Cela provoque des problèmes d'intégrité des données.
La transformation Map_CDC_Operation peut résoudre les problèmes, mais des résultats indésirables peuvent toujours se produire en raison d'erreurs de programmation. Lors de l'utilisation de fonctions et transformations qui réordonnent, redirigent, éliminent et multiplient le nombre de lignes dans un flux de données (par exemple, en raison de l'utilisation des clauses GROUP BY ou ORDER BY dans une requête) soyez conscients de l'impact possible sur les cibles.
2012-11-22
Capture de données modifiées
20.2.7 Création d'un flux de données avec une source CDM Oracle
Pour utilisez une source CDM Oracle, vous utilisez une transformation Query pour supprimer les colonnes de contrôle Oracle et la transformation Map_CDC_Operation pour interpréter les colonnes de contrôle et appliquer les actions appropriées.
1.
Dans le panneau "Bibliothèque d'objets Designer", faites glisser la table CDM Oracle, ainsi que les transformations Query et Map_CDC_Operation vers la zone de l'espace de travail du flux de données.
Remarque :
Un flux de données ne peut contenir qu'une seule source CDM.
2.
Configurez la table CDM.
3.
Ajoutez la table cible appropriée et reliez les objets.
4.
Dans le panneau "Zone de projet", double-cliquez sur une transformation.
L'"Editeur de requêtes" s'ouvre, il affiche la transformation.
5.
Mappez les colonnes de contrôle "SAP BusinessObjects Data Services" et les colonnes de la table source que vous voulez dans la table cible.
La transformation Map_CDC_Operation utilise les valeurs de la colonne de la zone Colonne
d'opération sur ligne pour exécuter l'opération appropriée sur la ligne source pour la table cible.
Pour une table source CDM Oracle, la colonne DI_OPERATION_TYPE est automatiquement sélectionnée comme Colonne de l'opération sur la ligne.
Les opérations peuvent être INSERT, DELETE ou UPDATE. Par exemple, si l'opération est DELETE, la ligne correspondante est supprimée de la table cible.
Rubriques associées
•
Configuration d'une table source CDM Oracle
• Guide de référence : Transformations
20.2.8 Gestion des tables et abonnements CDM
723 2012-11-22
Capture de données modifiées
20.2.8.1 Purge des tables CDM
Purgez régulièrement les tables CDM pour qu'elles ne grossissent pas indéfiniment.
Remarque :
Le progiciel ne propose pas cette fonctionnalité. Consultez la documentation Oracle pour savoir comment purger les données qui ne sont plus utilisées par aucun abonné.
20.2.8.2 Suppression des abonnements ou tables CDM Oracle
La fonction de purge d'Oracle ne purge aucune donnée n'ayant pas été lue par tous les abonnements.
En conséquence, une bonne pratique consiste à supprimer tous les abonnements qui ne sont plus nécessaires. Vous pouvez supprimer les tables CDM Oracle et leurs abonnements depuis la fenêtre
"Explorateur de banque de données" de Designer.
1.
Dans le panneau "Bibliothèque d'objets locale", cliquez avec le bouton droit sur une banque de données CDM, puis sur Ouvrir.
2.
Dans la fenêtre "Explorateur de banque de données", cliquez sur Métadonnées du référentiel.
3.
Cliquez avec le bouton droit sur une table, pointez sur Maintenance CDM et suivez une de ces méthodes :
• Pointez sur Annuler l'abonnement.
• L'option Annuler l'abonnement ouvre la liste des abonnements créés dans le progiciel pour la table sélectionnée. Les abonnements Oracle sont associés à ces noms d'abonnement.
Sélectionnez chaque nom d'abonnement pour le supprimer d'Oracle et du référentiel.
• Cliquez sur Supprimer la table
• Cette option supprime la table CDM dans Oracle et dans le référentiel.
20.2.9 Restrictions
Les restrictions suivantes s'appliquent à l'utilisation de la CDM avec les sources Oracle :
• Il est impossible d'utiliser les transformations et fonctions suivantes pour une table source importée avec une banque de données CDM en raison de l'existence des colonnes générées par SAP
BusinessObjects Data Services pour les tables CDM. Le progiciel ne peut pas comparer ces colonnes ou rechercher leur contenu.
• Transformations Table_Comparison, Key_Generation et SQL
724 2012-11-22
Capture de données modifiées
• Toutes les fonctions de base de données comme lookup, lookup_ext, key_generation, sql et total_rows
• Une seule source CDM peut être créée dans un flux de données.
• La CDM Oracle capture les instructions DML, y compris INSERT, DELETE et UPDATE. Cependant, la CDM Oracle ne prend pas en charge les opérations suivantes parce qu'elles désactivent tous les déclencheurs de base de données :
• Les instructions INSERT en chemin direct
• L'instruction multi_table_insert en mode DML parallèle
• Si vous utilisez les points de contrôle et exécutez votre job en mode de récupération, le job récupéré commencera à examiner le job au début de la table CDM. Les points de contrôle sont ignorés.
20.3 Utilisation de la CDM avec les sources d'un ordinateur central Attunity
Si votre environnement doit garder à jour de grandes quantités de données, la fonctionnalité CDM d'ordinateur central est une solution simple pour limiter le nombre de lignes devant être lues régulièrement. Une source qui lit uniquement les opérations les plus récentes (INSERT, UPDATE,
DELETE) permet de concevoir des chargements de delta plus légers et plus rapides.
SAP BusinessObjects Data Services capture les données modifiées sur les sources de données d'un ordinateur central Attunity et les applique à un système cible. Le diagramme suivant illustre le chemin emprunté par les données, de la CDM Attunity à SAP BusinessObjects Data Services.
725
• L'agent CDM d'Attunity surveille dans le journal de la base de données les modifications de certaines tables. Après la première demande de capture des modifications, l'agent CDM stocke un contexte qu'il utilise comme marqueur pour ne pas capturer à nouveau les modifications antérieures à ce dernier.
2012-11-22
Capture de données modifiées
• L'agent CDM envoie les données modifiées à une zone intermédiaire facultative. Les avantages d'une zone intermédiaire sont :
• Une seule analyse de journal peut extraire les modifications de plusieurs tables. Sans zone intermédiaire, plusieurs analyses de journal, une pour chaque table modifiée, sont nécessaires pour extraire les modifications.
• Extrait uniquement les modifications validées, ce qui représente un traitement moindre que d'extraire chaque modification. Le traitement est également moindre lors de la récupération d'un job échoué parce que le processus de récupération ne nécessite pas de renvoyer les modifications non validées.
Toutefois, une zone intermédiaire implique le stockage et le traitement supplémentaires de données inutiles. Consultez la documentation CDM Attunity pour en savoir plus.
• La CDM Attunity Connect envoie les modifications aux sources de données CDM via lesquelles le progiciel peut accéder aux modifications à l'aide de connexions standard ODBC ou JDBC.
20.3.1 Configuration de la CDM Attunity
Si vous utilisez actuellement Attunity comme connexion à SAP BusinessObjects Data Services pour extraire les données des sources de l'ordinateur central, créez une source de données CDM Attunity dans Attunity Studio. Les étapes suivantes résument la procédure d'utilisation de l'assistant d'Attunity
Studio pour créer une source de données CDM.
• Indiquez votre source de données.
• Selon votre source de données, choisissez une des méthodes suivantes pour capturer les modifications et indiquer l'emplacement du journal :
• VSAM sous CICS – Par flux de journal CICS
• DB2 sur les plate-formes OS/390 et z/OS – Par journal DB2
• DB2 sous OS/400 – Par journal DB400
• DISAM sous Windows – Par journal
Pour obtenir une liste complète des sources de données prises en charge, consultez le document
CDM Attunity Connect.
• Sélectionnez un nom pour votre agent CDM.
• Indiquez si vous voulez capturer les pré-images des opérations de mise à jour. Si vous n'indiquez pas cette option dans Attunity Studio, vous ne capturerez pas les pré-images, même si vous sélectionnez l'option Obtenir une pré-image pour chaque ligne de mise à jour.
• Sélectionnez les tables pour lesquelles il faut surveiller les modifications.
L'assistant d'Attunity Studio génère les composants suivants que vous devez indiquer dans l'Editeur de banque de données lorsque vous définissez une banque de données CDM Attunity :
726 2012-11-22
Capture de données modifiées
• Un nom de source de données CDM que vous indiquez dans l'option Source de données. Attunity génère par défaut la source de données CDM sur le même ordinateur que l'agent CDM. Vous avez la possibilité de placer la source de données CDM sur le client (même ordinateur que SAP
BusinessObjects Data Services). Obtenez le nom de cet ordinateur pour l'indiquer dans l'option
Emplacement de l'hôte.
• Un espace de travail pour que l'agent CDM gère la file d'attente des événements de capture des modifications. Vous indiquez le nom de l'espace de travail dans l'option Espace de travail Attunity.
Pour en savoir plus, voir la section Configuration de la CDM dans Attunity Connect : la solution de capture des données modifiées.
20.3.2 Configuration du progiciel pour la CDM sur les sources d'ordinateur central
Pour utiliser SAP BusinessObjects Data Services afin de lire et de charger les données modifiées depuis des sources d'ordinateur central en utilisant Attunity, appliquez les procédures suivantes dans
Designer :
• Créez une banque de données CDM pour Attunity
• Importez les métadonnées pour les tables d'Attunity
• Configurez une source CDM d'ordinateur central
• Créez des jobs en temps réel utilisant des métadonnées
20.3.2.1 Création des banques de données CDM
L'option banque de données CDM est disponible pour toutes les interfaces d'ordinateur central pour
SAP BusinessObjects Data Services.
Rubriques associées
•
20.3.2.1.1 Création d'une banque de données CDM pour Attunity
1.
Ouvrez l'Editeur de banque de données.
2.
Saisissez un nom pour la banque de données.
3.
Dans la zone Type de banque de données, sélectionnez Base de données.
4.
Dans la zone Type de base de données, sélectionnez Attunity_Connector.
727 2012-11-22
Capture de données modifiées
5.
Cochez la case Activer la CDM pour activer la fonctionnalité de CDM. Vous pouvez activer la CDM pour les sources de données suivantes : Pour obtenir la liste actuelle des sources de données, consultez le site Web d'Attunity.
• VSAM sous CICS
• DB2 UDB pour z/OS
• DB2 UDB pour OS/400
6.
Dans la zone Source de données, indiquez le nom de la source de données CDM Attunity. Vous pouvez indiquer plusieurs sources de données pour une banque de données, mais vous ne pouvez pas joindre deux tables CDM. Vous pouvez éventuellement indiquer plusieurs sources de données dans une banque de données Attunity pour faciliter la gestion. Si vous pouvez accéder à l'ensemble des tables CDM via une banque de données Attunity, il est plus facile de créer une banque de données, de saisir les informations de connexion une seule fois et d'importer les tables.
Si vous répertoriez plusieurs noms de source de données pour une banque de données Attunity, vérifiez que vous respectez les exigences suivantes :
• N'indiquez pas des sources de données standard avec des sources de données CDM dans la même banque de données. Le progiciel importe les données des sources de données Attunity standard différemment des sources de données CDM.
• Toutes les sources de données Attunity doivent être accessibles avec le même nom d'utilisateur et mot de passe.
• Toutes les sources de données Attunity doivent utiliser le même espace de travail. Lorsque vous configurez l'accès aux sources de données dans Attunity Studio, utilisez le même nom d'espace de travail pour chaque source de données.
7.
Dans la zone Emplacement de l'hôte, indiquez le nom de l'hôte qui héberge le démon de la source de données Attunity.
8.
Dans la zone Port, indiquez le numéro de port du démon Attunity. La valeur par défaut est 2551.
9.
Indiquez le nom de l'espace de travail du serveur Attunity utilisé par l'agent CDM pour gérer la file d'attente des événements de capture des modifications pour la source de données CDM.
10.
Renseignez le reste de la boîte de dialogue et cliquez sur OK.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les tables de métadonnées dans le référentiel actuel.
Une fois enregistrée, cette banque de données devient une banque de données CDM.
20.3.3 Importation des données CDM de l'ordinateur central.
Après avoir créé une banque de données CDM, vous pouvez l'utiliser pour importer les métadonnées des tables CDM. Dans la bibliothèque d'objets, cliquez avec le bouton droit sur le nom de la banque de données et sélectionnez Ouvrir, Importer par nom ou Rechercher. Pour la CDM de l'ordinateur
728 2012-11-22
Capture de données modifiées principal, seules les tables CDM sélectionnées lors de la procédure
Configuration de la CDM Attunity
sont visibles lorsque vous parcourez les métadonnées externes. Les fonctions et modèles ne sont pas disponibles parce que la banque de données CDM d'Attunity est en lecture seule.
L'opération d'importation de SAP BusinessObjects Data Services ajoute les colonnes suivantes à la table d'origine :
Nom de colonne Type de données Source de la colonne
DI_SEQUENCE_NUMBER integer
Généré par SAP BusinessObjects Data Services
DI_OPERATION_TYPE varchar(1)
Généré par SAP BusinessObjects Data Services
Contexte
Timestamp
TransactionID
Operation tableName varchar(128) varchar(26) varchar(4) varchar(12) varchar(64)
Fourni par Attunity Streams
Fourni par Attunity Streams
Fourni par Attunity Streams
Fourni par Attunity Streams
Fourni par Attunity Streams
729
20.3.3.1 Colonne DI_SEQUENCE_NUMBER
La colonne DI_SEQUENCE_NUMBER commence par zéro au début de chaque extraction. Ce champ est incrémenté d'un chaque fois que le progiciel lit une ligne, sauf s'il rencontre une paire de pré et post-images. La pré-image et la post-image reçoivent le même numéro de séquence. Cette colonne de séquencement fournit un moyen de rassembler les paires d'images si elles sont séparées en raison de la conception du flux de données.
Vous pouvez configurer Attunity Streams pour récupérer les pré-images des lignes UPDATE avant que le progiciel n'applique l'opération UPDATE à la cible. Notez que si vous ne configurez pas Attunity
Streams pour capturer les pré-images dans la base de données, le progiciel éliminera les lignes. Pour en savoir plus sur les cas où il faut envisager l'utilisation des pré-images, voir
.
2012-11-22
Capture de données modifiées
Lors du déroulement du flux de données, si les pré et post-images sont séparées ou réparties en plusieurs lignes (par exemple, en utilisant des clauses GROUP BY ou ORDER BY dans une requête), vous pouvez perdre l'ordre des lignes.
La transformation Map_CDC_Operation permet de restaurer l'ordre d'origine des paires d'images en utilisant la colonne DI_SEQUENCE_NUMBER comme Colonne de séquencement.
Rubriques associées
• Guide de référence : Transformations
20.3.3.2 Colonne DI_OPERATION_TYPE
SAP BusinessObjects Data Services génère des valeurs dans la colonne DI_OPERATION_TYPE. Les valeurs valides pour cette colonne sont :
•
I pour INSERT
•
D pour DELETE
•
B pour une pré-image d'une opération UPDATE
•
U pour une post-image d'une opération UPDATE
20.3.4 Configuration d'une source CDM d'ordinateur central
Quand vous faites glisser une table de banque de données CDM dans un flux de données, elle devient automatiquement un objet source.
20.3.4.1 Configuration d'une table CDM d'ordinateur central
1.
Faites glisser une table de banque de données CDM dans un flux de données.
La table devient automatiquement un objet source.
2.
Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3.
Cliquez sur l'onglet Options CDM.
4.
Indiquez une valeur pour le nom d'abonnement CDM
Pour plus d'informations, consultez le Guide de référence.
730 2012-11-22
Capture de données modifiées
Rubriques associées
•
Utilisation des points de contrôle de l'ordinateur central
•
20.3.5 Utilisation des points de contrôle de l'ordinateur central
Les agents CDM d'Attunity lisent les sources de l'ordinateur central et chargent les données modifiées dans une zone intermédiaire ou directement dans la source de données CDM. Les lignes de données modifiées s'ajoutent au précédent chargement dans la source de données CDM.
Lorsque vous activez des points de contrôle, un job CDM de SAP BusinessObjects Data Services utilise le nom d'abonnement pour lire le plus récent set de lignes ajoutées et pour marquer la fin de la lecture.
Si les points de contrôle ne sont pas activés, le job CDM lit toutes les lignes de la source de données
CDM d'Attunity et le temps de traitement augmente.
Pour utiliser les points de contrôle, dans l'Editeur de table source, saisissez le Nom de l'abonnement
CDM et sélectionnez l'option Activer le point de contrôle.
Si vous activez les points de contrôle et exécutez votre job CDM en mode de récupération, le job récupéré commence à examiner la source de données CDM au dernier point de contrôle.
Remarque :
Pour éviter les problèmes de corruption de données, ne réutilisez pas les flux de données qui utilisent les banques de données CDM parce que chaque fois qu'une table source extrait des données, elle utilise le même nom d'abonnement. C'est-à-dire que des jobs identiques, selon le moment où ils sont exécutés, peuvent obtenir des résultats différents et laisser des points de contrôle à différents endroits du fichier. Lorsque vous migrez des jobs CDM de test en production, un scénario de meilleures pratiques consiste à modifier le nom d'abonnement pour le job de production. Si le job de test est de nouveau exécuté, cela n'affecte donc pas les résultats du job de production.
20.3.5.1 Utilisation des pré-images de sources d'ordinateur principal
Si vous devez capturer des pré-images de lignes de mise à jour.
1.
Vérifiez qu'Attunity Streams est configuré pour récupérer des pré-images complètes.
2.
Sélectionnez l'option Obtenir les pré-images pour chaque ligne de mise à jour dans l'éditeur source de la table CDM.
Le progiciel sous-jacent de capture CDM basée sur les journaux doit être configuré correctement, sinon, l'activation de l'option Obtenir les pré-images pour chaque ligne de mise à jour dans le progiciel n'a aucun effet.
731 2012-11-22
Capture de données modifiées
Après avoir coché l'option Obtenir les pré-images pour chaque ligne de mise à jour, le progiciel traite deux lignes pour chaque mise à jour. Outre l'impact sur les performances de cette augmentation du volume de données, les paires de pré et post-images pourraient être séparées ou perdues selon la conception de votre flux de données, ce qui provoquerait des problèmes d'intégrité des données.
La transformation Map_CDC_Operation peut résoudre les problèmes, mais des résultats indésirables peuvent toujours se produire en raison d'erreurs de programmation. Lors de l'utilisation de fonctions et transformations qui réordonnent, redirigent, éliminent et multiplient le nombre de lignes dans un flux de données, soyez conscients de l'impact possible sur les cibles.
Rubriques associées
•
• Guide de référence : Transformations
20.3.6 Restrictions
Les restrictions suivantes s'appliquent à cette fonctionnalité :
• Il est impossible d'utiliser les transformations et fonctions suivantes pour une table source importée avec une banque de données CDM en raison de l'existence des colonnes générées par SAP
BusinessObjects Data Services pour les tables CDM. Le progiciel ne peut pas comparer ou rechercher ces colonnes.
• Transformations Table_Comparison, Key_Generation et SQL
• Toutes les fonctions de base de données comme lookup, lookup_ext, key_generation, sql et total_rows
• Une seule source CDM peut être créée dans un flux de données.
20.4 Utilisation de la CDM avec les bases de données Microsoft SQL Server
SAP BusinessObjects Data Services peut capturer les données modifiées dans les bases de données
Microsoft SQL Server et l'appliquer aux systèmes cibles à l'aide des méthodes suivantes :
• Capture des données modifiées
• Suivi des modifications
• Serveur de réplication
Les trois méthodes utilisent le concept de points de contrôle pour lire le set de modifications le plus récent et marquer la fin de la lecture. Si les points de contrôle ne sont pas activés, SAP BusinessObjects
Data Services lit l'ensemble des modifications. En outre, si vous activez les points de contrôle et exécutez
732 2012-11-22
Capture de données modifiées votre job CDM en mode de récupération, le job récupéré commence à examiner la source de données
CDM au dernier point de contrôle.
Pour capturer les données modifiées :
• Activez la CDM sur la base de données Microsoft SQL Server
• Activez la CDM sur les tables source
• Configurez les banques de données, les jobs et les sources de SAP BusinessObjects Data Services
Consultez la documentation Microsoft pour obtenir des détails sur toutes les méthodes. Le tableau suivant compare ces méthodes.
Fonctionnalité
Capture des données modifiées
Suivi des modifications Serveur de réplication
Version de Microsoft
SQL Server prise en charge
2008 et ultérieure 2008 et ultérieure 2000, 2005, 2008
Synchrone (immédiate ; latence si asynchrone)
Non, les modifications sont capturées par le job CDM de SQL Server.
Oui, suit les modifications en ligne avec les opérations INSERT,
UPDATE et DELETE, les modifications sont donc disponibles immédiatement.
Non, les modifications sont disponibles après transfert des opérations par l'agent lecteur de journal dans la base de données de distribution.
Requiert un agent SQL
Oui, un job de capture remplit les tables CDM.
Non, le moteur de base de données renseigne les clés primaires dans les tables de modifications durant les opérations DML.
Oui, un agent lecteur du journal de réplication gère la réplication.
Processus automatique de nettoyage
Oui, périodiquement Oui, périodiquement Oui, périodiquement
Requiert des tables distinctes pour stocker les données de suivi
Oui, stocké dans un table de captures
Le stockage dépend du nombre de colonnes capturées pour la
CDM.
Oui. Utilise une tables de suivi des modifications interne par table source. Utilise une table de transactions par base de données.
Le stockage dépend du nombre de colonnes de clés primaires de la table source.
Oui, stocké dans une base de données de distribution.
Données historiques disponibles
Oui Non Oui
733 2012-11-22
Capture de données modifiées
Fonctionnalité
Recommandation
Capture des données modifiées
Suivi des modifications Serveur de réplication
Requiert une clé primaire
Non Oui
Pré-image disponible pour l'opération UP-
DATE dans SAP BusinessObjects Data Services
Oui. SAP BusinessObjects Data Services lit automatiquement la pré-image et la met à disposition pour utilisation ultérieure dans le flux de données.
Non
Utiliser si les données historiques ou la cohérence entre plusieurs tables sont requises.
Utiliser pour une synchronisation rapide.
Oui
Oui (facultatif)
Pris en charge, mais obsolète.
20.4.1 Restrictions
Les restrictions suivantes s'appliquent à toutes les méthodes de capture des données modifiées dans
Microsoft SQL Server :
• Il est impossible d'utiliser les transformations et fonctions suivantes pour une table source importée avec une banque de données CDM en raison de l'existence des colonnes générées par SAP
BusinessObjects Data Services pour les tables CDM. Le progiciel ne peut pas comparer ou rechercher ces colonnes.
• Transformations Table_Comparison, Key_Generation, SQL, et Data_Transfer. La transformation
History_Preserving n'est pas prise en charge par la méthode de suivi des modifications.
• Toutes les fonctions de base de données, y compris lookup, lookup_ext, lookup_seq, search_replace, pushdown_sql, truncate_table, key_generation, sql et total_rows.
• Une seule table de source CDM peut être créée dans un flux de données.
• Les tables CDM ne sont pas autorisées dans les jobs en temps réel.
• Le profilage n'est pas disponible pour les tables CDM.
• L'affichage du SQL optimisé n'est pas disponible pour les flux de données qui lisent les tables CDM.
• L'exportation ou l'importation de jobs avec les tables CDM ne retient pas les informations des points de contrôle enregistrés dans le référentiel de SAP BusinessObjects Data Services.
Pour les méthodes du suivi des modifications et du serveur de réplication, n'utilisez pas le même nom d'abonnement pour lire la même table CDM dans des flux de données parallèles, parce que le point de contrôle est identifié par une combinaison du nom d'abonnement et du nom de table. Autrement dit, pour éviter les problèmes de corruption de données, ne réutilisez pas les flux de données qui utilisent les banques de données CDM parce que chaque fois qu'une table source extrait des données, elle
734 2012-11-22
Capture de données modifiées utilise le même nom d'abonnement. C'est-à-dire que des jobs identiques, selon le moment où ils sont exécutés, peuvent obtenir des résultats différents et laisser des points de contrôle à différents endroits du fichier.
Pour la méthode de suivi des modifications, comme Microsoft SQL Server ne peut pas suivre l'opération
TRUNCATE sur une table source, SAP BusinessObjects Data Services ne peut pas propager ces résultats vers la cible.
20.4.2 Colonnes de SAP BusinessObjects Data Services
Lorsque vous importez des métadonnées dans une banque de données CDM à l'aide d'une des méthodes, SAP BusinessObjects Data Services ajoute les colonnes suivantes à la table d'origine :
• DI_SEQUENCE_NUMBER
• DI_OPERATION_TYPE
20.4.2.1 Colonne DI_SEQUENCE_NUMBER
La colonne DI_SEQUENCE_NUMBER commence par zéro au début de chaque extraction. Ce champ est incrémenté d'un chaque fois que le progiciel lit une ligne, sauf s'il rencontre une paire de pré et post-images. La pré-image et la post-image reçoivent le même numéro de séquence. Cette colonne de séquencement fournit un moyen de rassembler les paires d'images si elle sont séparées en raison de la conception du flux de données.
Lors du déroulement du flux de données, si les pré et post-images sont séparées ou réparties en plusieurs lignes (par exemple, en utilisant des clauses GROUP BY ou ORDER BY dans une requête), vous pouvez perdre l'ordre des lignes.
La transformation Map_CDC_Operation permet de restaurer l'ordre d'origine des paires d'images en utilisant la colonne DI_SEQUENCE_NUMBER comme Colonne de séquencement.
Pour la méthode du serveur de réplication, vous pouvez configurer le serveur afin de récupérer les pré-images des lignes UPDATE avant que SAP BusinessObjects Data Services n'applique l'opération
UPDATE à la cible. Notez que si vous ne configurez pas le serveur de réplication pour capturer les pré-images dans la base de données, seules les post-images sont capturées par défaut. Pour en savoir plus sur les cas où il faut envisager l'utilisation des pré-images, voir
Rubriques associées
• Guide de référence : Transformations, Map_CDC_Operation
735 2012-11-22
Capture de données modifiées
20.4.2.2 Colonne DI_OPERATION_TYPE
SAP BusinessObjects Data Services génère des valeurs dans la colonne DI_OPERATION_TYPE. Les valeurs valides pour cette colonne sont :
• I pour INSERT
• D pour DELETE
• B pour pré-image d'une opération UPDATE (sauf pour la méthode de suivi des modifications, qui n'utilise pas de pré-image)
• U pour une post-image d'une opération UPDATE
20.4.3 Méthode de capture des données modifiées (CDM)
Avec la méthode de capture des données modifiées (CDM), SAP BusinessObjects Data Services applique des points de contrôle sur toutes les tables (dans une configuration de banque de données particulière) pour tous les flux de données d'un job afin d'assurer la cohérence des données. Activez d'abord la CDM dans l'Editeur de la banque de données, puis sélectionnez l'option Activer le point
de contrôle dans l'éditeur de tables source du flux de données. Si l'option Activer le point de contrôle n'est pas sélectionnée, SAP BusinessObjects Data Services récupère toutes les données disponibles
à ce moment pour cette table. Cette méthode de CDM n'est pas disponible avec les versions antérieures
à Microsoft SQL Server 2008.
20.4.3.1 Ajout d'une banque de données CDM
Cette procédure décrit comment créer une connexion de banque de données pour Microsoft SQL Server et activer la méthode de capture des données modifiées (CDM).
1.
Ouvrez l'éditeur de banque de données.
2.
Saisissez un nom pour la banque de données.
3.
Dans la zone Type de banque de données, sélectionnez Base de données.
4.
Dans la zone Type de base de données, sélectionnez Microsoft SQL Server.
5.
Cochez la case Activer la CDM.
6.
Pour Version de la base de données, sélectionnez Microsoft SQL Server 2008 ou une version ultérieure.
7.
Dans la zone déroulante sous l'option Activer la CDM, sélectionnez la méthode CDM.
8.
Saisissez un Nom de serveur de base de données.
736 2012-11-22
Capture de données modifiées
9.
Saisissez un Nom de base de données.
10.
Saisissez un Nom d'utilisateur et un Mot de passe de base de données.
11.
Pour créer plusieurs configurations pour cette banque de données, cliquez sur Appliquer, puis sur
Modifier et entrez les détails de configuration. Notez que vous ne pouvez pas modifier le type de base de données, la version ou la méthode CDM.
12.
Cliquez sur OK.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les métadonnées d'une instance de capture dans le référentiel actuel.
Rubriques associées
•
Définition d'une banque de données d'une base de données
20.4.3.2 Importation de métadonnées CDM
Après avoir créé une banque de données CDM, vous pouvez l'utiliser pour importer des métadonnées d'instance de capture.
Si la CDM est activée sur une table, Microsoft SQL Server crée une instance de capture. Une table peut avoir jusqu'à deux instances de capture avec des noms différents. Dans la bibliothèque d'objets, cliquez avec le bouton droit sur le nom de la banque de données et sélectionnez Ouvrir, Importer par
nom ou Rechercher. SAP BusinessObjects Data Services affiche le nom de l'instance de capture (au lieu du nom de la table sous-jacente). Par conséquent, si vous effectuez une importation par nom, ce dernier doit être le nom de l'instance de capture (et non celui de la table).
L'opération d'importation ajoute les colonnes suivantes à la table d'origine :
Nom de colonne
Type de données
Source de la colonne
DI_SEQUENCE_NUMBER
DI_OPERATION_TYPE
MSSQL_TRAN_SEQNO
MSSQL_TRAN_TIMESTAMP
MSSQL_COLUMN_UPDATE_MA
SK integer varchar(1) varchar(256) timestamp varchar(258)
Généré par SAP BusinessObjects Data Services
Généré par SAP BusinessObjects Data Services
Fourni par Microsoft SQL Server
Fourni par Microsoft SQL Server
Fourni par Microsoft SQL Server
737 2012-11-22
Capture de données modifiées
20.4.3.3 Configuration d'une table source utilisant la CDM
Cette procédure décrit comment configurer une table source CDM en employant la méthode CDM
(Capture des Données Modifiées). Pour en savoir plus, consultez le Guide de référence.
1.
Faites glisser une table de banque de données CDM dans un flux de données.
La table devient automatiquement un objet source.
2.
Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3.
Cliquez sur l'onglet Options CDM.
4.
Facultativement, sélectionnez Activer le point de contrôle.
Une fois qu'un point de contrôle est placé, à la prochaine exécution du job CDM, celui-ci lit uniquement les lignes insérées dans la table CDM depuis le dernier point de contrôle.
5.
Facultativement, sélectionnez Supprimer automatiquement les lignes après la lecture.
20.4.3.4 Utilisation de CDM pour les flux de données dans une boucle WHILE
Pour la méthode CDM, les points de contrôle s'appliquent au niveau du job. Si vous avez des flux de données s'exécutant dans une boucle WHILE pour récupérer les modifications, utilisez la fonction set_cdc_checkpoint() pour chaque itération de la boucle. Cette fonction donne au lecteur source l'instruction de définir des points de contrôle afin que la prochaine itération prélève les dernières modifications. Appelez cette fonction pour toutes les banques de données utilisées dans l'ensemble des flux de données du job. Pour en savoir plus, consultez le Guide de référence.
set_cdc_checkpoint(datastore)
La fonction renvoie 1 si le point de contrôle a été correctement défini, sinon elle renvoie 0. La valeur
banque de données
est le nom de la banque de données contenant les tables CDM.
Exemple :
set_cdc_checkpoint('MyCdcSource');
20.4.4 Méthode de suivi des modifications
La méthode de suivi des modifications identifie les lignes d'une table ayant été modifiées, mais ignore le nombre de fois où la ligne a été modifiée ou les valeurs de toute modification intermédiaire. SAP
738 2012-11-22
Capture de données modifiées
739
BusinessObjects Data Services extrait uniquement les dernières données disponibles. Le suivi des modifications est donc limité dans les réponses aux questions d'historique par rapport à la méthode
CDM (Capture des données modifiées). Toutefois, il y a nettement moins de données inutiles à stocker parce que les données modifiées ne sont pas capturées. En outre, un mécanisme de suivi synchrone utilisé pour suivre les modifications implique un minimum de données inutiles dans les opérations.
Le suivi des modifications doit d'abord être activé pour la base de données Microsoft SQL Server, puis pour les tables à suivre dans cette base de données. Les informations de suivi des modifications sont enregistrées pour les lignes modifiées. Les valeurs de la colonne de clé primaire de la table suivie sont enregistrées avec les informations de modification afin d'identifier les lignes ayant été modifiées. Pour obtenir les dernières données de ces lignes, SAP BusinessObjects Data Services utilise les valeurs de la colonne de clé primaire pour relier la table source et la table suivie. Les information sur les modifications peuvent inclure le type d'opération ayant entraîné la modification (INSERT, UPDATE ou
DELETE) ou les colonnes ayant été modifiées dans le cadres d'une opération UPDATE, par exemple.
Cette méthode n'est pas disponible avec les versions antérieures à Microsoft SQL Server 2008.
20.4.4.1 Ajout d'une banque de données de suivi des modifications
Cette procédure décrit comment créer une connexion de banque de données à Microsoft SQL Server et activer la méthode de suivi des modifications.
1.
Ouvrez l'éditeur de banque de données.
2.
Saisissez un nom pour la banque de données.
3.
Dans la zone Type de banque de données, sélectionnez Base de données.
4.
Dans la zone Type de base de données, sélectionnez Microsoft SQL Server.
5.
Cochez la case Activer la CDM.
6.
Pour Version de la base de données, sélectionnez Microsoft SQL Server 2008 ou une version ultérieure.
7.
Dans la zone déroulante sous l'option Activer la CDM, sélectionnez la méthode Suivi des
modifications.
8.
Saisissez un nom de serveur de base de données.
9.
Saisissez un nom de base de données.
10.
Saisissez un Nom d'utilisateur et un Mot de passe de base de données.
11.
Pour créer plusieurs configurations pour cette banque de données, cliquez sur Appliquer, puis sur
Modifier et entrez les détails de configuration. Notez que vous ne pouvez pas modifier le type de base de données, la version ou la méthode CDM.
12.
Cliquez sur OK.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les métadonnées de table dans le référentiel actuel.
Rubriques associées
•
Définition d'une banque de données d'une base de données
2012-11-22
Capture de données modifiées
20.4.4.2 Importation des métadonnées de suivi des modifications
Après avoir créé une banque de données de suivi des modifications, vous pouvez l'utiliser pour importer les métadonnées des tables.
Dans la bibliothèque d'objets, cliquez avec le bouton droit sur le nom de la banque de données et sélectionnez Ouvrir, Importer par nom ou Rechercher. Seules les tables CDM que vous sélectionnez en configurant Microsoft SQL Server pour le suivi des modifications sont visibles lorsque vous parcourez les métadonnées externes.
L'opération d'importation ajoute les colonnes suivantes à la table d'origine :
Nom de colonne
Type de données
Source de la colonne
DI_SEQUENCE_NUMBER
DI_OPERATION_TYPE integer varchar(1) decimal(19,0)
Généré par SAP BusinessObjects Data
Services
Généré par SAP BusinessObjects Data
Services
Fourni par Microsoft SQL Server MSSQL_SYS_CHANGE_VERSION
MSSQL_SYS_CHANGE_CREA
TION_VERSION
MSSQL_SYS_CHANGE_CONTEXT
_MASK decimal(19,0) varchar(256)
Fourni par Microsoft SQL Server
Fourni par Microsoft SQL Server
740
20.4.4.3 Configuration d'une table source pour utiliser le suivi des modifications
Cette procédure décrit comment configurer une table source CDM pour activer le suivi des modifications.
1.
Faites glisser une table de banque de données CDM dans un flux de données.
La table devient automatiquement un objet source.
2.
Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3.
Cliquez sur l'onglet Options CDM.
4.
Indiquez une valeur pour le nom d'abonnement CDM
SAP BusinessObjects Data Services utilise ce nom pour suivre le dernier point de contrôle en interne dans le référentiel.
2012-11-22
Capture de données modifiées
5.
Sélectionnez Activer le point de contrôle.
Une fois qu'un point de contrôle est placé, à la prochaine exécution du job CDM, celui-ci lit uniquement les lignes insérées dans la table CDM depuis le dernier point de contrôle.
Rubriques associées
• Guide de référence : Objets, Table CDM source
20.4.5 Méthode du serveur de réplication
Microsoft utilise les termes suivants pour le serveur de réplication Microsoft SQL :
• Article : un article est une table, une partition ou un objet de base de données que l'administrateur de base de données indique pour la réplication. Un article peut être un des éléments suivants :
• Une table entière
• Certaines colonnes (à l'aide d'un filtre vertical)
• Certaines lignes (à l'aide d'un filtre horizontal)
• Une procédure stockée ou une définition de vue
• L'exécution d'une procédure stockée
• Une vue
• Une vue indexée
• Une fonction définie par l'utilisateur
• Distributeur : le distributeur est un serveur qui stocke des métadonnées, des données historiques et des transactions dans la base de données de distribution. Le progiciel lit la base de données de distribution pour obtenir les données modifiées.
• Publication : une publication est une collection d'un ou plusieurs articles d'une base de données.
Une publication facilite la spécification d'un jeux de données et d'objets de base de données liés logiquement, que vous désirez répliquer ensemble.
• Editeur : l'Editeur est un serveur qui met les données à disposition pour la réplication sur les autres serveurs.
• Abonné : un Abonné est un serveur qui reçoit les données répliquées. Les Abonnés s'abonnent aux publications et non aux articles individuels d'une publication. Ils s'abonnent uniquement aux publications dont ils ont besoin et non à l'ensemble des publications disponibles sur un Editeur.
Le progiciel obtient les données modifiées de la base de données de distribution dans le serveur de réplication Microsoft SQL. Le diagramme suivant illustre le flux des données modifiées du serveur de réplication vers SAP BusinessObjects Data Services.
741 2012-11-22
Capture de données modifiées
742
• Une application apporte des modifications à une base de données et L'Editeur hébergé dans le serveur de réplication capture ces modifications dans un journal de transactions.
• L'agent lecteur de journaux du distributeur lit le journal de transactions de l'Editeur et enregistre les données modifiées dans la base de données de distribution.
• Le progiciel lit les données de la table de commandes dans la base de données de distribution, applique les filtres adéquats et crée des lignes d'entrée pour une table de l'entrepôt de données cible.
Le progiciel accède aux tables suivantes dans la base de données de distribution :
• MSarticles : contient une ligne pour chaque article répliqué par un Editeur.
• MSpublications : contient une ligne pour chaque publication répliquée par un Editeur.
• MSpublisher_databases : contient une ligne pour chaque paire Editeur et base de données d'Editeur desservie par le distributeur local.
• MSrepl_commands : contient les lignes des commandes répliquées (modifications des données).
Lorsque vous activez une base de données pour la réplication, le serveur de réplication crée des tables dans la base de données source. Une de ces tables est Sysarticles, qui contient une ligne pour chaque article défini dans cette base de données spécifique. Une des colonnes de la table Sysarticles indique quelles colonnes d'une table source sont publiées.
20.4.5.1 Configuration de la base de données de distribution
Si le progiciel se connecte à Microsoft SQL Server pour extraire des données, vous devez configurer la base de données de distribution dans le serveur de réplication pour capturer les modifications de ces tables.
2012-11-22
Capture de données modifiées
743
20.4.5.1.1 Microsoft SQL Server 2000
Les étapes suivantes décrivent la procédure de configuration du serveur de réplication pour les bases de données Microsoft SQL Server 2000.
1.
Sur le nœud de réplication de Microsoft SQL Enterprise Manager, sélectionnez l'option Configurer
la publication, les abonnés et la distribution. Suivez les étapes de l'assistant pour créer les bases de données de distribution et du serveur de distribution.
Les étapes suivantes décrivent la procédure de configuration du serveur de réplication SQL pour les bases de données Microsoft SQL Server 2000.
L'assistant génère les composants suivants que vous devez spécifier dans l'Editeur de banque de données lors de la définition d'une banque de données CDM Microsoft SQL Server :
• Nom du serveur de distribution MSSQL
• Nom de la base de données de distribution MSSQL
• Nom d'utilisateur de distribution MSSQL
• Mot de passe de distribution MSSQL
2.
Sélectionnez l'option Nouvelles publications sur le nœud de réplication de
Microsoft SQL Enterprise Manager pour créer de nouvelles publications indiquant les tables que vous souhaitez publier. Le progiciel nécessite les paramètres suivants dans les Options avancées :
• Sélectionnez l'option Publication transactionnelle dans la fenêtre Sélectionner le type de publication. Ce type de publication met à jour les données de l'Editeur et envoie les modifications de manière incrémentielle à l'Abonné.
• Dans l'onglet Commandes de la fenêtre Propriétés de l'article de table :
• Si vous souhaitez des pré-images pour les commandes UPDATE et DELETE, sélectionnez
XCALL. Autrement, sélectionnez CALL.
• Effacez les options Créer les procédures stockées lors de la synchronisation initiale des
abonnements et Envoyer les paramètres au format binaire car le progiciel n'utilise pas de procédure de stockage et dispose de son propre format interne.
• Dans l'onglet Instantané de la fenêtre Propriétés de l'article de table :
• Sélectionnez Conserver la table existante inchangée car le progiciel traite la table en tant que journal.
• Effacez l'option Index cluster car le progiciel traite la table en tant que journal et lit dans celle-ci de manière séquentielle.
• Spécifiez un nom et une description pour la publication. Vous indiquez le nom de cette publication dans l'Editeur de banque de données lors de la définition d'une banque de données CDM MSSQL.
• Sélectionnez l'option Oui, autoriser les abonnements anonymes pour enregistrer toutes les transactions dans la base de données de distribution.
Pour en savoir plus, voir l'aide en ligne de Microsoft SQL Enterprise Manager.
20.4.5.1.2 Microsoft SQL Server 2005 et 2008
La procédure suivante décrit la configuration de publications pour les bases de données
Microsoft SQL Server 2005 et 2008 pour CDM.
1.
Démarrez Microsoft SQL Server Management Studio.
2012-11-22
Capture de données modifiées
2.
Connectez-vous et accédez au nœud Réplication dans l'Explorateur d'objets.
3.
Si vous configurez la distribution de ce serveur pour la première fois, cliquez avec le bouton droit de la souris sur le nœud Réplication et sélectionnez Configurer la distribution dans le menu de contexte. Vous pouvez configurer le serveur de distribution, le dossier d'instantanés, la base de données de distribution et les utilisateurs de ce serveur de distribution.
4.
Cliquez de nouveau avec le bouton droit de la souris sur le nœud Réplication et sélectionnez
Nouveau > Publication. L'Assistant Nouvelle publication s'ouvre.
5.
Dans l'Assistant Nouvelle publication, cliquez sur Suivant.
6.
Sélectionnez la base de données que vous souhaitez publier, puis cliquez sur Suivant.
7.
Sous Type de publication, sélectionnez Publication transactionnelle, puis cliquez sur Suivant.
8.
Cliquez pour sélectionner les tables et colonnes à publier en tant qu'articles. Ouvrez ensuite la fenêtre Propriétés de l'article. Pour chaque table sélectionnée, cliquez sur Définir les propriétés
de l'article de table en surbrillance. La fenêtre Propriétés de l'article s'ouvre : a.
Définissez Copier l'index cluster, Copier les procédures stockées INSERT, UPDATE et
DELETE et Créer des schémas sur l'Abonné sur FALSE.
b.
Définissez Action si le nom est déjà utilisé sur Conserver la table existante inchangée.
c.
Définissez Format de remise UPDATE et Format de remise DELETE sur XCALL <procédure
stockée>.
d.
Cliquez sur OK pour enregistrer les propriétés de l'article.
9.
Cliquez sur Suivant. Vous pouvez cliquer sur Ajouter pour ajouter des filtres de lignes. Cliquez sur
Suivant si le filtrage de données n'est pas nécessaire dans la publication.
10.
Configurez la Sécurité de l'agent et spécifiez le paramètre de connexion du compte.
a.
Pour l'Agent d'instantané, cliquez sur Paramètres de sécurité. Spécifiez le compte d'exécution de l'agent d'instantané. Configurez le compte avec des droits d'administration système. Spécifiez le compte se connectant à l'Editeur et cliquez sur OK.
b.
Pour l'Agent de lecture du journal, l'option Utiliser les paramètres de sécurité de l'Agent de
capture instantanée est sélectionnée par défaut. Pour utiliser des paramètres différents, effacez cette option et cliquez sur Paramètres de sécurité. Notez qu'un identifiant octroyant des droits d'administration système est nécessaire.
11.
Dans la fenêtre Actions de l'assistant, sélectionnez Créer la publication puis cliquez sur Suivant.
12.
Pour terminer l'assistant, saisissez un nom de publication et cliquez sur Terminer.
Pour en savoir plus, voir la documentation relative à Microsoft SQL Enterprise Manager.
744
20.4.5.2 Configuration de SAP BusinessObjects Data Services
Pour utiliser SAP BusinessObjects Data Services afin de lire et charger les données modifiées à partir de bases de données SQL Server à l'aide du serveur de réplication, appliquez les procédures suivantes dans Designer :
• Création d'une banque de données CDM
• Importation de métadonnées pour les tables Microsoft SQL Server
2012-11-22
Capture de données modifiées
745
• Configuration d'une source CDM
20.4.5.2.1 Ajout de la banque de données CDM
Cette procédure décrit comment créer une banque de données CDM à l'aide de la méthode de réplication.
1.
Ouvrez l'Editeur de banque de données.
2.
Saisissez un nom pour la banque de données.
3.
Dans la zone Type de banque de données, sélectionnez Base de données.
4.
Dans la zone Type de base de données, sélectionnez Microsoft SQL Server.
5.
Cochez la case Activer la CDM pour activer la fonctionnalité de CDM.
6.
Sélectionnez une Version de base de données.
7.
Saisissez un Nom de base de données(utilisez le nom du serveur de réplication).
8.
Saisissez un Nom d'utilisateur et un Mot de passe de base de données.
9.
Dans la section CDM, entrez les noms que vous avez créés pour cette banque de données lorsque vous avez configuré le Distributeur et l'Editeur dans le serveur de réplication :
• Nom du serveur de distribution MSSQL
• Nom de la base de données de distribution MSSQL
• Nom de publication MSSQL
• Nom d'utilisateur de distribution MSSQL
• Mot de passe de distribution MSSQL
10.
Pour créer plusieurs configurations pour cette banque de données, cliquez sur Appliquer, puis sur
Modifier et suivez à nouveau l'étape 9 pour toute configuration supplémentaire.
11.
Cliquez sur OK.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les métadonnées de table dans le référentiel actuel.
Rubriques associées
•
Définition d'une banque de données d'une base de données
20.4.5.2.2 Importation de métadonnées CDM
Après avoir créé une banque de données CDM, vous pouvez l'utiliser pour importer les métadonnées des tables CDM. Dans la bibliothèque d'objets, cliquez avec le bouton droit sur le nom de la banque de données et sélectionnez Ouvrir, Importer par nom ou Rechercher. Seules les tables CDM que vous sélectionnez en configurant Microsoft SQL Server pour le CDM sont visibles lorsque vous parcourez les métadonnées externes. SAP BusinessObjects Data Services utilise les tables MSpublications et
MSarticles dans la base de données de distribution du serveur de réplication SQL pour créer une liste de tables publiées.
Lorsque vous importez chaque table CDM, le progiciel utilise la table Sysarticles de la base de données de l'Editeur du serveur de réplication SQL pour afficher uniquement les colonnes publiées.
L'opération d'importation ajoute les colonnes suivantes à la table d'origine :
2012-11-22
Capture de données modifiées
746
Nom de colonne
DI_SEQUENCE_NUMBER
Type de données
integer
DI_OPERATION_TYPE
MSSQL_TRAN_SEQNO varchar(1) varchar(256)
MSSQL_TRAN_TIMESTAMP timestamp
Source de la colonne
Généré par SAP BusinessObjects Data Services
Généré par SAP BusinessObjects Data Services
Fourni par le serveur de réplication
Fourni par le serveur de réplication
Rubriques associées
•
Configuration de la base de données de distribution
20.4.5.2.3 Configuration d'une table source utilisant la réplication
Cette procédure décrit comment configurer une table source CDM à l'aide de la méthode de réplication.
Pour en savoir plus, consultez le Guide de référence.
1.
Faites glisser une table de banque de données CDM dans un flux de données.
La table devient automatiquement un objet source.
2.
Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3.
Cliquez sur l'onglet Options CDM.
4.
Indiquez une valeur pour le nom d'abonnement CDM
SAP BusinessObjects Data Services utilise ce nom pour suivre le dernier point de contrôle en interne dans le référentiel.
Rubriques associées
•
Utilisation des points de contrôle de l'ordinateur central
Utilisation des points de contrôle avec les serveurs de réplication
Un agent lecteur de journaux du serveur de réplication Microsoft SQL lit le journal de transactions de l'Editeur et enregistre les données modifiées dans la base de données de distribution, que SAP
BusinessObjects Data Services utilise comme source de données CDM. Les lignes de données modifiées s'ajoutent au précédent chargement dans la source de données CDM.
2012-11-22
Capture de données modifiées
Lorsque vous activez des points de contrôle, un job CDM utilise le nom d'abonnement pour lire le plus récent ensemble de lignes ajoutées et pour marquer la fin de la lecture. Si les points de contrôle ne sont pas activés, le job CDM lit toutes les lignes de la source de données CDM (avec un temps de traitement augmenté).
Pour utiliser les points de contrôle, dans l'Editeur de table source, saisissez le Nom de l'abonnement
CDM et sélectionnez l'option Activer le point de contrôle.
Utilisation des pré-images des sources Microsoft SQL Server
Si vous devez capturer des pré-images de lignes UPDATE :
1.
Vérifiez que le serveur de réplication est configuré pour récupérer des pré-images complètes.
2.
Lorsque vous créez une publication dans le serveur de réplication, indiquez XCALL pour les commandes UPDATE et DELETE afin d'obtenir les pré-images.
3.
Sélectionnez l'option Obtenir les pré-images pour chaque ligne de mise à jour dans l'éditeur source de la table CDM.
Après avoir coché l'option Obtenir les pré-images pour chaque ligne de mise à jour, le progiciel traite deux lignes pour chaque mise à jour. Outre l'impact sur les performances de cette augmentation du volume de données, les paires de pré et post-images pourraient être séparées ou perdues selon la conception de votre flux de données, ce qui provoquerait des problèmes d'intégrité des données.
Remarque :
La transformation Map_CDC_Operation peut résoudre les problèmes, mais des résultats indésirables peuvent toujours se produire en raison d'erreurs de programmation. Lors de l'utilisation de fonctions et transformations qui réordonnent, redirigent, éliminent et multiplient le nombre de lignes dans un flux de données, soyez conscients de l'impact possible sur les cibles.
Rubriques associées
•
• Guide de référence : Transformations
20.5 Utilisation de la CDM avec des sources basées sur l'horodatage
Utilisation de la CDM basée sur l'horodatage pour suivre les modifications :
• Si vous utilisez des sources autres que Oracle 9i, DB2 8.2, des ordinateurs centraux avec accès via IBM II Classic Federation ou via Attunity
• Si les conditions suivantes sont respectées :
• Il existe des champs date et heure dans les tables mises à jour
• Vous mettez à jour une table de grande taille ayant un faible pourcentage de modifications entre les extractions et un index sur les champs date et heure.
747 2012-11-22
Capture de données modifiées
• Vous n'êtes pas concerné par la capture des résultats intermédiaires de chaque transaction entre les extractions (par exemple, si un client change de région deux fois dans la même journée).
Il n'est pas conseillé d'utiliser la CDM basée sur l'horodatage dans ces cas :
• Vous avez une table de grande taille, un pourcentage important de modifications entre les extractions et aucun index sur les horodatages.
• Vous avez besoin de capturer les suppressions physiques de lignes.
• Vous avez besoin de capturer plusieurs événements se produisant sur la même ligne entre les extractions.
Le terme horodatage fait référence aux valeurs de date, heure ou date et heure. Les explications de cette section s'appliquent aux cas où la table source comporte des horodatages de CREATION ou MISE
A JOUR pour chaque ligne.
Les horodatages peuvent indiquer si une ligne a été créée ou mise à jour. Certaines tables ont à la fois des horodatages de création et de mise à jour, certaines tables n'en ont qu'un. Cette section suppose que les tables contiennent au moins un horodatage de mise à jour.
Certains systèmes ont des horodatages avec dates et heures, certains ont seulement la date et certains des nombres croissants générés de manière monotonique. Vous pouvez traiter les dates et les nombres générés de la même manière.
Il faut noter que les fuseaux horaires peuvent devenir importants pour les horodatages basés sur le temps réel. Si vous effectuez le suivi des horodatages utilisant la nomenclature du système source
(c'est-à-dire utilisant l'heure de la source ou le nombre généré par la source), vous pouvez traiter de la même manière les horodatages temporels (heure spécifique) et logiques (heure relative par rapport
à une autre heure ou un événement).
Rubriques associées
•
•
•
20.5.1 Traitement des horodatages
La technique de base pour utiliser les horodatages afin de déterminer les modifications consiste à enregistrer l'horodatage ayant la valeur la plus élevée chargé dans un job donné et lancer le job suivant avec cet horodatage.
Pour ce faire, créez une table de statut qui suit les horodatages des lignes chargées dans un job. A la fin d'un job, METTEZ A JOUR cette table avec le dernier horodatage chargé. Le job suivant lit alors l'horodatage dans la table de statut et sélectionne uniquement les lignes de la source pour lesquelles l'horodatage est ultérieur à celui de la table de statut.
748 2012-11-22
Capture de données modifiées
2
3
L'exemple suivant illustre cette technique. Supposons que le dernier chargement s'est produit à 14 h 00 le 1er janvier 1998. A cette heure, la table source comportait une seule ligne (clé=1) ayant un horodatage antérieur au chargement précédent. SAP BusinessObjects Data Services charge cette ligne dans la table cible et met à jour la table de statut avec l'horodatage le plus élevé chargé : 13 h 10 le 1er janvier
1998. Après 14 h 00, le progiciel ajoute des lignes à la table source :
Table source
Clé Données Update_Timestamp
1 Alvarez 01/01/98 13:10
Tanaka
Lani
01/01/98 14:12
01/01/98 14:39
Table cible
Clé
1
Table de statut
Last_Timestamp
01/01/98 13:10
Données
Alvarez
Update_Timestamp
01/01/98 13:10
Le 1er janvier 1998 à 15 h 00, le job s'exécute à nouveau. Cette fois, le job effectue les actions suivantes :
1.
Il lit le champ Last_Timestamp de la table de statut (01/01/98 13:10).
2.
Il sélectionne les lignes de la table source dont les horodatages sont ultérieurs à la valeur du champ
Last_Timestamp. La commande SQL pour sélectionner ces lignes est :
SELECT * FROM Source
WHERE 'Update_Timestamp' > '01/01/98 01:10 pm'
Cette opération renvoie les deuxième et troisième lignes (clé=2 et clé=3).
3.
Il charge les nouvelles lignes dans la table cible.
749 2012-11-22
Capture de données modifiées
2
3
4.
Il met à jour la table de statut avec le dernier horodatage de la table cible (01/01/98 14:39) grâce
à l'instruction SQL suivante :
UPDATE STATUS SET 'Last_Timestamp' = SELECT MAX('Update_Timestamp') FROM target_table
La cible affiche les nouvelles données :
Tableau 20-12 : Table source
Clé
1
Données
Alvarez
Update_Timestamp
01/01/98 13:10
Tanaka
Lani
01/01/98 14:12
01/01/98 14:39
3
1
Tableau 20-13 : Table cible
Clé
2
Tableau 20-14 : Table de statut
Dernier_horodatage
01/01/98 14:39
Données
Tanaka
Lani
Alvarez
Update_Timestamp
01/01/98 14:12
01/01/98 14:39
01/01/98 03:10
Pour indiquer ces opérations, un flux de données a besoin des objets suivants (et suppose que toutes les métadonnées requises pour les tables source et cible ont été importées) :
• Un flux de données pour extraire les données modifiées de la table source et les charger dans la table cible, par exemple Source > Requête > Cible.
750 2012-11-22
Capture de données modifiées
La requête sélectionne les lignes de SOURCE_TABLE à charger dans TARGET_TABLE.
Par exemple :
SOURCE.UPDATE_TIMESTAMP > $Last_Update
La requête comprend une clause WHERE pour filtrer les lignes entre les horodatages.
• Un workflow pour effectuer les actions suivantes :
1.
Lire la table de statut
2.
Définir la valeur d'une variable pour le dernier horodatage
3.
Appeler le flux de données avec la variable qui lui est passée comme paramètre
4.
Mettre à jour la table de statut avec le nouvel horodatage
• Un job pour exécuter le workflow
20.5.2 Chevauchements
Sauf si les données source sont rigoureusement isolées durant le processus d'extraction (ce qui n'est habituellement pas réalisable), il existe une fenêtre de temps où les modifications peuvent être perdues entre deux cycles d'extraction. Cette période de chevauchement affecte la capture des données modifiées basée sur l'horodatage parce que ce type de capture de données repose sur un horodatage statique pour déterminer les données modifiées.
Supposons par exemple qu'une table comporte 1 000 lignes (classées de 1 à 1 000). Le job commence avec l'horodatage 3:00 et extrait chaque ligne. Pendant que le job s'exécute, il met à jour deux lignes
(1 et 1 000) ayant respectivement les horodatages 3:01 et 3:02. Le job extrait la ligne 200 pendant que quelqu'un met à jour la ligne 1. Lorsque le job extrait la ligne 300, il met à jour la ligne 1 000. Lorsqu'il est terminé, le job extrait le dernier horodatage (3:02) de la ligne 1 000, mais omet la mise à jour de la ligne 1.
Voila les données de la table :
Numéro de ligne
1
2
3
...
200
...
...
...
...
...
Colonne A
...
...
751 2012-11-22
Capture de données modifiées
Numéro de ligne
600
...
1 000
...
...
Colonne A
...
Il existe trois techniques pour gérer cette situation :
• Evitement des chevauchements
• Rapprochement des chevauchements
• Pré-échantillonnage
Les sections suivantes décrivent ces techniques et leur implémentation dans SAP BusinessObjects
Data Services. Cette section se poursuit avec l'hypothèse qu'il y a au moins un horodatage de mise à jour.
Rubriques associées
•
•
Rapprochement des chevauchements
•
•
20.5.2.1 Evitement des chevauchements
Dans certains cas, il est possible de configurer un système où il n'existe pas de possibilité de chevauchement. Vous pouvez éviter les chevauchements s'il existe un intervalle de traitement où aucune mise à jour ne se produit dans le système cible.
Par exemple, si vous pouvez garantir que l'extraction de données du système source ne dure pas plus d'une heure, vous pouvez exécuter à 1 h 00 chaque nuit un job qui sélectionne uniquement les données mises à jour avant minuit le jour précédent. Comme ce job régulier ne donne pas de mises à jour minute par minute, il garantit de ne jamais avoir de chevauchement et simplifie nettement la gestion de l'horodatage.
20.5.2.2 Rapprochement des chevauchements
752 2012-11-22
Capture de données modifiées
Le rapprochement des chevauchements requiert un processus d'extraction spécial qui réapplique les modifications pouvant s'être produites pendant la période de chevauchement. Cette extraction peut
être exécutée séparément de l'extraction normale. Par exemple, si l'horodatage le plus élevé chargé par le job précédent était 01/01/98 22:30 et que la période de chevauchement dure une heure, le rapprochement des chevauchements réapplique les données mises à jour entre 21 h 30 et 22 h 30 le
1er janvier 1998.
La période de chevauchement est habituellement égale à la plus longue durée possible de l'extraction.
Si l'extraction des données du système source peut durer jusqu'à n heures, une période de chevauchement de n heures (ou n plus un petit incrément) est conseillée. Par exemple, si l'exécution du job dure au plus deux heures, une période de chevauchement d'au moins deux heures est recommandée.
La création d'un flux de données de chevauchement distinct présente un avantage. Un flux de données
"normal" peut supposer que toutes les modifications sont nouvelles et faire des hypothèses pour simplifier les calculs et améliorer les performances. Par exemple, les lignes marquées comme INSEREES sont souvent chargées dans une tables de faits, mais les lignes marquées comme MISES A JOUR le sont rarement. Donc, le flux de données normal sélectionne les nouvelles lignes de la source, génère de nouvelles clés pour elles et utilise le chargeur de base de données pour ajouter les nouveaux faits
à la base de données cible. Comme le flux de données de chevauchement est susceptible d'appliquer
à nouveau les mêmes lignes, il ne peut pas les charger par lots aveuglément, sinon il crée des doublons.
Par conséquent, le flux de données de chevauchement doit contrôler si les lignes existent dans la cible et insérer uniquement celles qui manquent. Cette recherche affecte les performances, donc exécutez-la pour le plus petit nombre de lignes possible.
Si le volume de données est assez faible, vous pouvez charger l'ensemble du nouveau jeu de données
à l'aide de cette technique de contrôle avant chargement, ce qui évite d'avoir à créer deux flux de données distincts.
20.5.2.3 Pré-échantillonnage
Le pré-échantillonnage élimine le chevauchement en identifiant d'abord l'horodatage le plus récent du système, en l'enregistrant, puis en extrayant les lignes jusqu'à cet horodatage.
Cette technique est une extension du traitement d'horodatage simple. Principale différence : la table de statut contient désormais un horodatage de début et de fin. L'horodatage de début est le dernier extrait par le job précédent. L'horodatage de fin est celui sélectionné par le job en cours.
Revenons à l'exemple : le dernier job d'extraction a chargé des données de la table source dans la table cible et mis à jour la table de statut avec le dernier horodatage chargé :
Table source
753 2012-11-22
Capture de données modifiées
2
3
Clé
1
Table cible
Clé
1
Table de statut
Start_Timestamp
01/01/98 13:10
Données
Alvarez
Tanaka
Lani
Données
Alvarez
Update_Timestamp
01/01/98 13:10
01/01/98 14:12
01/01/98 14:39
Update_Timestamp
01/01/98 13:10
End_Timestamp
NULL
Il est maintenant 15 h 00 le 1er janvier 1998 et le job suivant s'exécute, il effectue les actions suivantes :
1.
Il sélectionne l'horodatage le plus récent de la table source et l'insère dans la table de statut comme horodatage de fin.
La commande SQL pour sélectionner une ligne est :
SELECT MAX(Update_Timestamp) FROM source table
La table de statut devient :
Table de statut
Start_Timestamp End_Timestamp
01/01/98 13:10 01/01/98 14:39
754 2012-11-22
Capture de données modifiées
2
3
1.
Il sélectionne les lignes de la table source dont les horodatages sont supérieurs à l'horodatage de début, mais inférieurs ou égaux à l'horodatage de fin. La commande SQL pour sélectionner ces lignes est :
SELECT *
FROM source table
WHERE Update_Timestamp > '1/1/98 1:10pm'
AND Update_Timestamp <= '1/1/98 2:39pm'
Cette opération renvoie les deuxième et troisième lignes (clé=2 et clé=3)
2.
Il charge les nouvelles lignes dans la table cible.
3.
Met à jour la table de statut en définissant l'horodatage de début comme étant le précédent horodatage de fin et en donnant à l'horodatage de fin la valeur NULL.
Au final, les valeurs des tables sont les suivantes :
Tableau 20-20 : Table source
Clé
1
Données
Alvarez
Update_Timestamp
01/01/98 13:10
Tanaka
Lani
01/01/98 14:12
01/01/98 14:39
2
3
Tableau 20-21 : Table cible
Clé
1
Données
Alvarez
Tanaka
Lani
Update_Timestamp
01/01/98 13:10
01/01/98 14:12
01/01/98 14:39
755 2012-11-22
Capture de données modifiées
Tableau 20-22 : Table de statut
Start_Timestamp
01/01/98 14:39
End_Timestamp
NULL
Pour développer l'exemple précédent afin de prendre en compte le temps de chevauchement, il faut apporter les modifications suivantes au workflow :
• Un flux de données pour extraire les modifications depuis la dernière mise à jour et avant l'horodatage le plus récent, par exemple Source > Requête > Cible.
La requête sélectionne les lignes de SOURCE_TABLE à charger dans TARGET_TABLE.
Par exemple :
SOURCE.UPDATE_TIMESTAMP > $start_last_update and
SOURCE.UPDATE_TIMESTAMP < $end_last_update
La requête comprend une clause WHERE pour filtrer les lignes entre les horodatages.
• Un workflow pour effectuer les actions suivantes :
1.
Lire la table source pour rechercher l'horodatage le plus récent.
2.
Définir la valeur de deux variables respectivement sur le début et la fin du temps de chevauchement.
3.
Appeler le flux de données avec les variables qui lui sont passées comme paramètres.
4.
Mettre à jour l'horodatage de début avec la valeur de l'horodatage de fin et donner à l'horodatage de fin la valeur NULL.
756 2012-11-22
Capture de données modifiées
Rubriques associées
•
20.5.3 Types d'horodatages
Certains systèmes ont des horodatages qui s'enregistrent uniquement lors de la création de lignes.
D'autres ont des horodatages qui s'enregistrent uniquement lors de la mise à jour de lignes.
(Habituellement, les systèmes avec horodatage à la mise à jour seulement activent l'horodatage de mise à jour lorsque la ligne est créée ou mise à jour.) Enfin, il existe des systèmes qui gèrent des horodatages distincts qui enregistrent la création et la mise à jour des lignes.
Rubriques associées
•
Horodatages à la création seulement
•
Horodatages à la mise à jour seulement
•
Horodatages de création et mise à jour
757 2012-11-22
Capture de données modifiées
758
20.5.3.1 Horodatages à la création seulement
Si le système source fournit des horodatages à la mise à jour seulement, vous disposez de ces options :
• Si la table est suffisamment petite, vous pouvez la traiter en intégralité pour identifier les modifications.
La section
Utilisation de la CDM pour les cibles
décrit comment identifier les modifications.
• Si la table n'est jamais mise à jour, vous pouvez extraire uniquement les nouvelles lignes.
• Si la table est importante et mise à jour, vous pouvez combiner les deux techniques suivantes :
• Extraction périodique (par exemple, journalière) des nouvelles lignes uniquement.
• Extraction moins fréquente (par exemple, hebdomadaire) des lignes mises à jour en traitant la totalité de la table.
20.5.3.2 Horodatages à la mise à jour seulement
L'utilisation d'un horodatage à la mise à jour seulement aide à minimiser l'impact sur les systèmes source, mais cela complique le chargement des systèmes cible. Si le système propose un horodatage
à la mise à jour seulement et qu'il n'existe pas de moyen d'indiquer les nouvelles lignes par rapport aux lignes mises à jour, votre job doit rapprocher le nouveau jeu de données des données existantes
à l'aide des techniques décrites dans la section
Utilisation de la CDM pour les cibles .
20.5.3.3 Horodatages de création et mise à jour
Les deux horodatages permettent de séparer facilement les nouvelles données des mises à jour de données existantes. Le job extrait toutes les lignes modifiées , puis filtre les lignes indésirables à l'aide de leurs horodatages.
Accomplissez ces extractions dans le progiciel en ajoutant la clause WHERE des commandes SQL suivantes à une transformation Query appropriée :
• Recherche de nouvelles lignes :
SELECT * FROM source_table
WHERE Create_Timestamp > $Last_Timestamp
2012-11-22
Capture de données modifiées
• Recherche de lignes mises à jour :
SELECT * FROM source_table
WHERE Create_Timestamp <= $Last_Timestamp AND
Update_Timestamp > $Last_Timestamp)
De là, les nouvelles lignes sont soumises au processus de génération de clés et sont insérées dans la cible. Les lignes mises à jour passent par le processus de recherche de clé et sont mises à jour dans la cible.
Pour des raisons de performances, vous pouvez éventuellement isoler l'extraction des nouvelles lignes dans un flux de données distinct pour tirer parti du chargement par lots dans la cible. Les lignes mises
à jour ne peuvent pas être chargées par lots dans la même cible au même moment.
20.5.4 Exemples de CDM basée sur l'horodatage
20.5.4.1 Conservation des clés générées
Pour des raisons de performances, la plupart des tables de dimension des entrepôts de données utilisent des clés générées pour effectuer la jointure avec la table des faits. Par exemple, le client ABC a la clé générée 123 dans la table de la dimension Client. Tous les faits du client ABC ont 123 comme clé client. Même si la dimension Client est de petite taille, vous ne pouvez pas simplement la recharger chaque fois qu'un enregistrement est modifié : à moins d'affecter la clé générée 123 au client ABC, la table de la dimension Client et la table des faits ne sont pas en corrélation.
Vous pouvez conserver les clés générées en utilisant la fonction de recherche ou en comparant les tables.
Rubriques associées
•
Utilisation de la fonction lookup
•
20.5.4.1.1 Utilisation de la fonction lookup
Si la conservation de l'historique ne présente pas de problème et que le seul objectif est de générer les bonnes clés pour les lignes existantes, la technique la plus simple consiste à rechercher la clé de toutes les lignes à l'aide de la fonction lookup dans une requête. Si vous ne recherchez pas la clé, générez-en une nouvelle.
759 2012-11-22
Capture de données modifiées
Dans l'exemple suivant, la table de la dimension Client contient des clés générées. Lorsque vous exécutez un job pour mettre à jour cette table, les lignes source des clients doivent correspondre aux clés existantes.
Table source des clients
Nom de société ID client
ABC 001
DEF
GHI
JKL
002
003
004
Table de dimension cible
Gen_Key
123
124
125
Nom de société
ABC
DEF
GHI
ID client
001
002
003
Cet exemple de flux de données effectue les actions suivantes :
1.
Il extrait les lignes source.
2.
Il récupère les clés existantes à l'aide d'une fonction lookup dans le mappage d'une nouvelle colonne dans une requête.
3.
Il charge le résultat dans un fichier (pour pouvoir tester cette phase du flux de données avant d'ajouter les étapes suivantes).
La fonction lookup compare les lignes source à la cible. Les arguments de la fonction sont les suivants :
760 2012-11-22
Capture de données modifiées
761
arguments de la fonction de recherche
target_ds.owner.customer
GKey
NULL
CACHE_DE_PRECHARGEMENT
Customer_ID
Customer_ID
Description
Nom qualifié complet de la table cible contenant les clés générées.
Nom de la colonne de la table cible contenant les clés générées.
Valeur NULL à insérer dans la colonne des clés si aucune clé existante n'est trouvée.
Option de mise en cache pour optimiser les performances de la recherche.
Colonne de la table cible contenant la valeur à utiliser pour faire correspondre les lignes.
Colonne de la table source contenant les valeurs
à utiliser pour faire correspondre les lignes.
Le jeu de données résultant contient toutes les lignes de la source comportant les clés générées si elles sont disponibles.
Jeu de données du résultat
Gen_Key Nom de société ID client
123
124
ABC
DEF
001
002
125
NULL
GHI
JKL
003
004
L'ajout d'une clé générée aux nouveaux enregistrements requiert le filtrage des nouvelles lignes à partir des lignes existantes et mises à jour. Dans le flux de données, les étapes suivantes sont nécessaires :
2012-11-22
Capture de données modifiées une requête pour sélectionner les lignes avec des clés générées de valeur NULL. Une transformation
Key_Generation pour déterminer la clé appropriée à ajouter. Un cible pour charger les nouvelles lignes dans la table de la dimension Client.
Ce flux de données gère les nouvelles lignes. Cependant, les lignes de la source dont les clés ont été trouvées dans la table cible peuvent contenir des données mises à jour. Comme cet exemple suppose que la conservation de l'historique n'est pas une exigence, le progiciel charge toues les lignes de la source dans la cible.
Gestion des lignes mises à jour dans le flux de données
Le flux de données requiert de nouvelles étapes pour gérer les lignes mises à jour, comme suit :
1.
Une nouvelle ligne quittant la requête qui a recherché les clés existantes.
2.
Une requête pour filtrer les lignes comportant des clés existantes des lignes sans clés.
3.
Un cible pour charger les lignes dans la table de la dimension Client.
20.5.4.1.2 Comparaison de tables
Inconvénient de la méthode des clés générées, même si la ligne n'a pas été modifiée, elle génère une opération UPDATE et elle est chargée dans la cible. Si le nombre de lignes est important, une transformation Table_Comparison présente une meilleure alternative en permettant au flux de données de charger uniquement les lignes modifiées.
La transformation Table_Comparison examine toutes les lignes sources et effectue les opérations suivantes :
• Elle génère une ligne INSERT pour toute nouvelle ligne absente de la table cible.
• Elle génère une ligne UPDATE pour toute ligne de la table cible ayant été modifiée.
• Elle ignore toute ligne de la table cible n'ayant pas été modifiée.
• Elle remplit les clés générées pour les lignes mises à jour.
Vous pouvez ensuite soumettre le résultat à une transformation Key Generation pour affecter une nouvelle clé à chaque ligne INSERT. C'est le jeu de données chargé dans la table cible par le progiciel.
Le flux de données qui applique cette transformation comprend les étapes suivantes :
1.
Une source pour extraire les lignes des tables source.
2.
Une requête pour mapper les colonnes de la source.
3.
Une transformation Table_Comparison pour générer les lignes INSERT et UPDATE et renseigner les clés existantes.
4.
Une transformation Key Generation pour générer les nouvelles clés.
5.
Un cible pour charger les lignes dans la table de la dimension Client.
762 2012-11-22
Capture de données modifiées
763
20.5.4.2 Conservation de l'historique
La transformation History Preserving permet à l'entrepôt de données ou au datamart de gérer l'historique des données pour pouvoir les analyser au fil du temps. Vous appliquerez probablement la conservation de l'historique aux tables de dimension.
Par exemple, si un client déménage d'une région de vente dans une autre, la simple mise à jour de la fiche client pour tenir compte de la nouvelle région donne des résultats trompeurs dans une analyse par région dans le temps, parce que les achats effectués par ce client avant son déménagement seront attribués de manière erronée à la nouvelle région.
SAP BusinessObjects Data Services fournit une transformation spéciale qui conserve l'historique des données pour éviter ce genre de situation. La transformation History_Preserving ignore tout, sauf les lignes marquées comme UPDATE. Pour ces lignes, elle compare les valeurs des colonnes indiquées et marque la ligne comme INSERT si les valeurs ont été modifiées. Cela génère une deuxième ligne dans la cible au lieu de remplacer la première ligne.
Pour développer la manière dont le progiciel gère l'exemple du client qui déménage d'une région à une autre :
• Si Régionest une colonne marquée pour la comparaison, la transformation History_Preserving génère une nouvelle ligne pour ce client.
• Une transformation History_Preserving attribue à la nouvelle ligne une clé générée et la charge dans la table de la dimension Client.
• La ligne d'origine qui décrit le client reste dans la table de la dimension Client avec une clé unique générée.
Dans l'exemple suivant, un client a déménagé de la région Est dans la région Ouest et le numéro de téléphone d'un autre client a changé.
Table Client source
Client
Café Chez Fred
Les beignets de Jane
Confiserie Sandy
Région
Est
Ouest
Centre
Téléphone
(212) 123-4567
(650) 222-1212
(115) 231-1233
Table Client cible
GKey
1
Client
Café Chez Fred
Région
Est
Téléphone
(212) 123-4567
2012-11-22
Capture de données modifiées
764
GKey
2
3
Client
Les beignets de Jane
Confiserie Sandy
Région
Est
Centre
Téléphone
(201) 777-1717
(115) 454-8000
Dans cet exemple, le flux de données conserve l'historique pour la colonne Région, mais pas pour la colonne Téléphone. Le flux de données comporte les étapes suivantes :
1.
Une source pour extraire les lignes des tables source.
2.
Une requête pour mapper les colonnes de la source.
3.
Une transformation Table_Comparison pour générer les lignes INSERT et UPDATE et renseigner les clés existantes.
4.
Une transformation History_Preserving pour convertir certaines lignes UPDATE en lignes INSERT.
5.
Une transformation Key Generation pour générer de nouvelles clés pour les lignes mises à jour, maintenant marquées comme INSERT.
6.
Un cible pour charger les lignes dans la table de la dimension Client.
Il y a maintenant deux lignes pour Les beignets de Jane, les corrélations entre la table de dimension et la tables des faits doivent utiliser la valeur de clé la plus élevée.
Notez que les mises à jour des colonnes sans conservation de l'historique mettent à jour toutes les versions de la ligne si la mise à jour est effectuée sur la clé naturelle (par exemple, Client), et actualisent uniquement la dernière version si la mise à jour porte sur la clé générée (par exemple,
GKey
). Vous pouvez contrôler la clé à utiliser pour la mise à jour en configurant correctement les options de chargement dans l'éditeur de la cible.
20.5.4.2.1 date de début_validité et date de fin_validité
Pour prendre en charge des requêtes temporelles telles que "Quelle était l'adresse de facturation du client au 24 mai 1998", SAP BusinessObjects Data Services prend en charge les colonnes de date de
Début de validité et de date de Fin de validité.
Dans les techniques de conservation de l'historique, plusieurs enregistrements sont définis dans la table cible avec les mêmes valeurs clés primaires source. Un enregistrement de la table source est considéré valide dans la table de dimensions pour toutes les valeurs de date t, de sorte que la date de Début de validité soit antérieure ou identique à t, qui est antérieur à la date de Fin de validité.
(Valide dans ce sens signifie que la valeur clé d'enregistrement générée est utilisée pour charger la table de faits au cours de cet intervalle de temps.)
Lorsque vous indiquez les entrées Début de validité et Fin de validité, la transformation History_Pre serving génère une mise à jour d'enregistrement et une instruction INSERT pour des raisons de conservation de l'historique (elle convertit une instruction UPDATE en une instruction INSERT). La mise à jour d'enregistrement activera la colonne de date Fin de validité pour l'enregistrement en cours
(l'une avec la même clé primaire comme instruction INSERT) sur la valeur figurant dans la colonne de date Début de validité dans l'enregistrement INSERT.
2012-11-22
Capture de données modifiées
20.5.4.2.2 Indicateur de mise à jour
Pour prendre en charge les techniques de dimensions évoluant lentement, Data Services permet d'activer un indicateur de mise à jour pour marquer l'enregistrement actuel dans une table de dimensions.
La valeur Définir la valeur dans la colonne Colonne identifie l'enregistrement valide actuel dans la table cible pour une clé primaire de table source donnée.
Lorsque vous indiquez Colonne, la transformation History_Preserving génère une mise à jour de l'enregistrement avant de générer une instruction INSERT.
Cette mise à jour de l'enregistrement active la valeur Colonne sur Réinitialiser la valeur dans l'enregistrement de table cible avec la même clé primaire source comme instruction INSERT.
Dans l'instruction INSERT, la colonne sera activée sur Définir la valeur.
Lorsque vous indiquez des entrées dans les deux groupes, la transformation History_Preserving génère une seule instruction UPDATE supplémentaire pour chaque instruction INSERT créée. Cette instruction
UPDATE met à jour la valeur Fin de validité.
20.5.5 Autres astuces de conception de job
Lors de la conception d'un job destiné à implémenter la capture des données modifiées (CDM), vous devez tenir compte de :
•
Synchronisation de l'en-tête et des détails
•
Capture des suppressions physiques
20.5.5.1 Synchronisation de l'en-tête et des détails
Habituellement, les systèmes source effectuent le suivi des modifications des informations de l'en-tête et des détails de manière indépendante. Par exemple, si le statut d'un poste individuel est modifié, sa colonne "Date de dernière modification" se met à jour, contrairement à la même colonne au niveau de l'en-tête de la commande. A l'inverse, une modification de l'adresse par défaut du destinataire dans l'en-tête de la commande peut n'impacter aucun des postes individuels existants.
Toutefois, dans certains cas, le système source peut ne pas mettre à jour ces colonnes de suivi de manière cohérente, ou bien vous pouvez ne pas avoir accès à ces informations (par exemple, si les lignes sont physiquement supprimées). Dans ces cas, vous pouvez choisir d'extraire toutes les information de l'en-tête et des détails, que les modifications soient au niveau de l'en-tête ou d'un poste individuel.
765 2012-11-22
Capture de données modifiées
Pour extraire toutes les lignes de l'en-tête et des détails si un de ces éléments a été modifié, utilisez un calcul similaire à cette instruction SQL :
SELECT … FROM HEADER, DETAIL WHERE HEADER.ID = DETAIL.ID AND
(HEADER.LAST_MODIFIED BETWEEN $G_SDATE AND $G_EDATE OR DETAIL.LAST_MODIFIED
BETWEEN $G_SDATE AND $G_EDATE)
Pour certaines bases de données, cette clause WHERE n'est pas bien optimisée et peut provoquer une sérieuse dégradation des performances. Vous pouvez opter pour une simplification de cette clause en supprimant une des bornes supérieures, comme dans :
… WHERE HEADER.ID = DETAIL.ID AND (HEADER.LAST_MODIFIED BETWEEN $G_SDATE AND
$G_EDATE OR DETAIL.LAST_MODIFIED >= $G_SDATE) …
Le nombre de lignes extraites peut être un peu supérieur à ce qui était prévu à l'origine, mais les performances finales du système peuvent être améliorées tout en ne modifiant pas le résultat de la base de données cible.
20.5.5.2 Capture des suppressions physiques
Lorsque le système source permet de supprimer physiquement des lignes, votre job doit comprendre un calcul pour mettre à jour la base de données cible en conséquence. Plusieurs méthodes le permettent :
• Lecture d'un journal des opérations — Si votre système journalise les transactions dans un format lisible ou si vous pouvez modifier le système pour qu'il génère un tel journal, vous pouvez lire ce journal pour identifier les lignes à supprimer.
• Exécution d'une actualisation complète — Rechargez simplement l'ensemble des données, ce qui synchronise entièrement le système source et la base de données cible.
• Exécution d'une actualisation partielle sur la base d'une fenêtre temporelle pilotée par les données
— Par exemple, supposons que le système source permet uniquement la suppression physique des commandes n'ayant pas été clôturées. Si la première commande non clôturée de la table source a eu lieu il y a six mois, l'actualisation des six derniers mois de données garantit la réussite de la synchronisation.
• Exécution d'une actualisation partielle sur la base d'une fenêtre temporelle pilotée par l'entreprise
— Par exemple, supposons que l'entreprise prise en charge par le job supprime habituellement les commandes peu de temps après les avoir créées. Dans ce cas, l'actualisation du dernier mois de commandes est appropriée pour conserver l'intégrité.
• Contrôle de chaque commande pouvant éventuellement être supprimée — Vous devez vérifier si toute commande non clôturée a été supprimée. Pour être efficace, cette technique requiert de conserver un enregistrement des clés primaires pour chaque objet candidat à la suppression.
Lorsque les suppressions physiques des informations détaillées d'une relation en-tête/détails sont possibles (par exemple, suppression des postes individuels d'une commande existante), vous devez
766 2012-11-22
Capture de données modifiées capturer ces suppressions physiques lors de la synchronisation des informations de l'en-tête et des détails.
20.6 Utilisation de la CDM pour les cibles
La capture des données modifiées basée sur la source est pratiquement toujours préférables à la capture basée sur la cible pour des raisons de performances. Cependant, certains systèmes source ne fournissent pas assez d'informations pour utiliser les techniques de capture des données modifiées basée sur la source. La capture des données modifiées basée sur la cible permet d'utiliser cette technique lorsque les informations de modification basées sur la source sont limitées.
767 2012-11-22
Capture de données modifiées
768 2012-11-22
Surveillance des Jobs
Surveillance des Jobs
Rubriques associées
•
•
21.1 Administrateur
L'application Administrateur dans la Console de gestion constitue la principale ressource de surveillance pour tous les jobs conçus dans Designer. Pour en savoir plus, voir la section “Administrateur” du guide
Management Console Guide.
21.2 Prise en charge de SNMP
SAP BusinessObjects Data Services inclut un agent SNMP (simple network management protocol) qui permet une connexion à des applications tierces surveillant ses jobs. Vous pouvez ainsi utiliser une application prise en charge par SNMP pour surveiller le statut des jobs et recevoir les événements d'erreur.
Rubriques associées
•
•
Job Server, agent SNMP et architecture d'application NMS
•
A propos de la Management Information Base (MIB) de l'agent SNMP
•
A propos d'une application NMS
•
Configuration du progiciel pour la prise en charge d'une application NMS
•
769 2012-11-22
Surveillance des Jobs
21.2.1 A propos de l'agent SNMP
Lorsque vous activez le protocole SNMP (simple network management protocol) pour un Job Server, celui-ci envoie des informations sur les jobs qu'il exécute sur l'agent SNMP. L'agent SNMP surveille et enregistre les informations sur le Job Server et les jobs qu'il exécute. Vous pouvez configurer les applications NMS (network management software) pour qu'elles communiquent avec l'agent SNMP.
Ainsi, vous pouvez utiliser votre application NMS pour surveiller le statut de vos jobs.
L'agent SNMP est une fonctionnalité soumise à licence de Job Server. Lorsque vous disposez d'une licence SNMP sur un ordinateur, vous pouvez activer le SNMP pour tout nombre de Job Servers exécutés sur cet ordinateur. De même que les Job Servers, le SNMP démarre lorsque le service démarre.
21.2.2 Job Server, agent SNMP et architecture d'application NMS
Vous devez configurer un Job Server pour qu'il communique avec l'agent SNMP et gère la communication pour les Job Servers pris en charge par le SNMP.
Vous devez également activer au moins un Job Server pour le SNMP. Celui-ci ne doit pas être identique
à celui configuré avec le port de communication. Lors de l'activation du SNMP pour un Job Server, le
SNMP envoie des événements à l'agent SNMP via le Job Server avec le port de communication.
Lorsque vous configurez l'agent SNMP, vous indiquez un port d'agent ainsi que tout nombre de ports de récepteurs d'interruption. L'agent SNMP envoie des messages proactifs (interruptions) aux applications
NMS. Lors de l'utilisation d'une application NMS, les interruptions signalent des problèmes potentiels.
L'agent SNMP utilise le port de l'agent pour communiquer avec les applications NMS à l'aide du protocole
UDP (user datagram protocol). L'agent écoute les demandes issues des applications NMS et y répond.
Il utilise les ports de récepteurs d'interruption pour envoyer des événements d'erreur (interruptions ou notifications) aux applications NMS.
770 2012-11-22
Surveillance des Jobs
21.2.3 A propos de la Management Information Base (MIB) de l'agent SNMP
L'agent SNMP de SAP BusinessObjects Data Services utilise une base d'informations de gestion MIB
(management information base) pour stocker des informations sur les Job Servers pris en charge par le SNMP et les jobs exécutés. Les métadonnées utiles à la MIB sont stockées dans deux fichiers se trouvant dans le répertoire LINK_DIR/bin/snmp/mibs :
BOBJ-ROOT-MIB.txt
BOBJ-DI-MIB.txt
Consultez ces fichiers pour obtenir des descriptions plus détaillées et des informations actualisées sur la structure des objets dans la MIB.
La MIB contient cinq variables scalaires et deux tables. Les variables scalaires répertorient la version du progiciel installée, l'heure de début de l'agent et l'heure actuelle du système. Les tables comprennent des informations sur le statut des Job Servers et les jobs exécutés. Elles incluent :
Tableau 21-1 : Table MIB Job Server
Colonne
jsIndex jsName
Description
Index unique identifiant chaque ligne de la table
Nom du Job Server
771 2012-11-22
Surveillance des Jobs
Colonne
jsStatus
Description
Statut du Job Server. Les valeurs possibles sont les suivantes :
• notEnabled
• initializing
• optimizing
• ready
• proceed
• wait
• stop
• stopRunOnce
• stopRecovered
• stopError
• notResponding
• error
• warning
• trace
Tableau 21-2 : Table MIB Job
Colonne
jobIdDate jobIdTime jobIdN jobRowN jType jName
Description
Partie de l'identifiant d'un job correspondant à la date
Partie de l'identifiant d'un job correspondant à l'heure
Entier final de l'identifiant d'un job
Index unique identifiant un objet d'un job
Objet associé à cette ligne. Les valeurs possibles sont les suivantes :
• “job” : un job
• “wf” : un workflow
• “df” : un flux de données
• “error” : un message d'erreur
• “trace” : un message de suivi
Nom ou identifiant de cet objet, tel que le nom du job ou du workflow ou l'identifiant du message d'erreur.
772 2012-11-22
Surveillance des Jobs
773
Colonne
jStatus jRowsIn jRowsOut jStatusTime jExecTime jInitTime jMessage
Description
Statut de l'objet. Les valeurs possibles sont les suivantes :
• notEnabled
• initializing
• optimizing
• ready
• proceed
• wait
• stop
• stopRunOnce
• stopRecovered
• stopError
• notResponding
• error
• warning
• trace
Dépend du type d'objet :
• Flux de données : nombre de lignes d'entrée lues
• Workflow : toujours zéro
• Job : somme des valeurs de tous les flux de données dans le job
• Erreur, avertissement, suivi : toujours zéro
Dépend du type d'objet :
• Flux de données : nombre de lignes d'entrée écrites
• Workflow : toujours zéro
• Job : somme des valeurs de tous les flux de données dans le job
• Erreur, avertissement, suivi : nombre d'occurrences de l'erreur, de l'avertissement ou du suivi dans ce job
Heure de la dernière modification des valeurs jStatus, jRowsIn ou jRowsOut.
Nombre de millisecondes entre le début de l'exécution de l'objet et la valeur jStatusTime.
Nombre de millisecondes nécessaires à la compilation de l'objet (job, workflow ou flux de données).
Pour les jobs, workflows et flux de données, valeur vide ou message d'information. Pour les erreurs, les avertissements ou les messages de suivi, jMessage contient le texte du message.
L'agent SNMP reçoit les données des jobs et Job Servers des Job Servers pris en charge par le SNMP et les conserve dans la MIB pour les jobs en cours et ceux terminés récemment. Pour fournir un contexte
2012-11-22
Surveillance des Jobs plus historique, dès que l'agent démarre, il charge les données dans la table du job pour chaque Job server. Les données proviennent des jobs exécutés avant la fermeture des Job Servers.
La MIB est stockée dans la mémoire. L'agent SNMP conserve les données des jobs terminés pour la durée de vie définie. Il synthétise et élimine périodiquement des flux de données et enregistrements de workflows donnés pour les jobs terminés afin de réduire la taille de la MIB.
Les données restantes incluent :
• Une ligne de table du job avec les statistiques du job entier
• Pour un job réussi, aucune autre ligne
• Pour un job échoué, des lignes d'erreur supplémentaires au besoin.
Si la MIB atteint la taille maximale de table, l'agent réduit de 20 % les jobs terminés, en commençant par les plus anciens. Lors de la configuration, vous définissez la durée de vie d'un job et une taille maximale de table.
21.2.4 A propos d'une application NMS
Une application NMS peut envoyer une requête à l'agent SNMP relative aux informations stockées dans la MIB (iso.org.dod.internet.private.enterprises.businessObjects.dataServices) ou dans l'une des
MIB SNMP standard :
• iso.org.dod.internet.mgmt.mib-2.system
• iso.org.dod.internet.mtmt.mib-2.snmp
• iso.org.dod.internet.snmpv2.snmpModules
L'agent écoute le port d'agent pour les commandes provenant d'une application NMS qui communique les commandes en tant que PDU (protocol data units). L'agent répond aux commandes SNMP GetRe quest
, GetNextRequest, GetBulkRequest et SetRequest qui spécifient les OID (object identifiers, identifiants d'objets) valides. Aucun objet n'étant accessible en écriture dans la MIB, l'agent rejette normalement les commandes SetRequest pour cette MIB.
Lors de l'utilisation d'une application NMS, les interruptions signalent des problèmes potentiels. Plus précisément, l'agent envoie un PDU Interruption SNMPv2 aux ports SNMP configurés. L'agent envoie des interruptions lorsque :
• Des erreurs se produisent lors de jobs batch ou en temps réel
• Des Job Servers échouent
• L'agent démarre
• L'agent présente une erreur interne
• L'agent présente une fermeture ordinaire
• L'agent redémarre et l'agent précédent fut incapable d'envoyer une interruption causée par une erreur de job (ces interruptions incluent une annotation historique)
Remarque :
Cela peut se produire si l'ordinateur échoue subitement ou est interrompu sans fermeture ordinaire.
774 2012-11-22
Surveillance des Jobs
• L'agent refuse une requête en raison d'un échec d'authentification (s'il est configuré ainsi).
Remarque :
Le statut des services en temps-réel ne s'affiche pas tant que ces services n'ont pas traité suffisamment de messages pour atteindre leur nombre de cycles. De même, le progiciel n'envoie pas d'interruption pour les jobs en temps réel jusqu'à ce que ces derniers atteignent leur nombre de cycles. Une fois le nombre de cycles des jobs atteint, le progiciel actualise les statuts ou envoie des interruptions supplémentaires.
Rubriques associées
•
21.2.5 Configuration du progiciel pour la prise en charge d'une application NMS
Si une application NMS surveille les systèmes sur le réseau à l'aide du SNMP, vous pouvez utiliser cette application pour surveiller les jobs SAP BusinessObjects Data Services. Pour cela :
1.
Sélectionnez un Job Server dans chaque ordinateur pour prendre en charge la communication
SNMP. Lors de la sélection du Job Server prenant en charge le SNMP, vous devez également indiquer le port de communication connectant le Job Server à l'agent SNMP.
2.
Activez le SNMP sur chaque Job Server que vous souhaitez surveiller. Lors de l'activation du SNMP pour un Job Server, vous indiquez au progiciel d'envoyer des événements à l'agent SNMP via le
Job Server de communication sur la même machine.
Remarque :
La prise en charge de la communication SNMP et l'activation du SNMP sont deux configurations distinctes.
3.
Configurez l'agent SNMP sur le même ordinateur pour lequel vous avez configuré les Job Servers.
4.
Configurez l'application NMS pour envoyer des requêtes à la MIB relatives aux statuts des jobs à l'aide du port de l'agent. Référez-vous à la documentation pour l'application NMS. Si l'agent SNMP ne répond pas à l'application NMS (par exemple, si le délai de l'application a expiré), vérifiez l'agent.
21.2.5.1 Configuration SNMP dans Windows
21.2.5.1.1 Sélection d'un Job Server pour prendre en charge la communication SNMP
1.
Ouvrez le Gestionnaire de serveurs (Démarrer > Programmes > SAP BusinessObjects Data
Services 4.1 > Gestionnaire de serveurs Data Services).
2.
Dans le Gestionnaire de serveurs, cliquez sur Modifier la configuration du Job Server.
775 2012-11-22
Surveillance des Jobs
776
L'éditeur de configuration du Job Server s'ouvre. Cette fenêtre liste les Job Servers actuellement configurés. Le résumé indique le nom du Job Server, le port du Job Server, si le Job Server prend en charge les adaptateurs et la communication SNMP, le port de communication et si le SNMP est activé.
Un Job Server exactement doit être configuré pour prendre en charge les adaptateurs et la communication SNMP. Si un Job Server est déjà configuré pour prendre en charge les adaptateurs et la communication SNMP, vérifiez que le port de communication est correct. Sinon, passez à l'étape suivante.
3.
Sélectionnez un Job Server, puis cliquez sur Modifier.
Pour ajouter un Job Server, cliquez sur Ajouter.
4.
Cochez la case Prendre en charge l'adaptateur, le gestionnaire de messages et la
communication SNMP.
5.
Dans la case Port de communication, saisissez le port à utiliser pour la communication entre l'agent SNMP et les Job Servers sur cet ordinateur.
Saisissez un numéro de port qui ne soit pas utilisé pour d'autres applications. La valeur par défaut est 4001. Le logiciel utilise le même port pour communiquer avec les adaptateurs.
6.
Vérifiez que les référentiels associés à ce Job Server sont corrects.
7.
Vous pouvez activer le SNMP pour un Job Server à partir du Gestionnaire de serveurs ou depuis l'agent SNMP. L'agent SNMP vous permet d'activer ou de désactiver plusieurs Job Servers à la fois.
Rubriques associées
•
Activer le SNMP sur un Job Server
•
21.2.5.1.2 Activer le SNMP sur un Job Server
Vous pouvez activer le SNMP pour un Job Server à partir du Gestionnaire de serveurs ou depuis l'agent
SNMP. L'agent SNMP vous permet d'activer ou de désactiver plusieurs Job Servers à la fois. Pour utiliser le Gestionnaire de serveurs :
1.
Ouvrez le Gestionnaire de serveurs.
2.
Cliquez sur Editeur de configuration.
L'éditeur de configuration du Job Server s'ouvre. Cette fenêtre liste les Job Servers actuellement configurés. Le résumé indique si le Job Server est activé SNMP.
Vous pouvez activer le SNMP sur tout Job Server. Les Job Servers activés SNMP envoie à l'agent
SNMP des messages sur le statut et les erreurs du job.
3.
Sélectionnez un Job Server, puis cliquez sur Modifier.
Pour ajouter un Job Server, cliquez sur Ajouter.
4.
Cochez la case Activer le SNMP.
5.
Cliquez sur OK.
6.
Pour activer le SNMP sur des Job Servers supplémentaires, répétez les étapes 4 à 6.
2012-11-22
Surveillance des Jobs
7.
Dans l'éditeur de configuration du Job Server, sélectionnez OK.
8.
Dans la fenêtre Gestionnaire de serveurs, sélectionnez Redémarrer.
Le service redémarre, ce qui redémarre les Job Servers à l'aide des nouvelles informations de configuration.
Rubriques associées
•
21.2.5.1.3 Configuration de l'agent SNMP
Vous pouvez activer le SNMP pour un Job Server à partir du Gestionnaire de serveurs ou depuis l'agent
SNMP. L'agent SNMP vous permet d'activer ou de désactiver plusieurs Job Servers à la fois. Pour configurer l'agent SNMP :
1.
Ouvrez le Gestionnaire de serveurs.
2.
Dans le Gestionnaire de serveurs, cliquez sur Modifier la configuration SNMP.
L'éditeur de configuration SNMP s'ouvre.
3.
Cochez la case Activer le SNMP sur cette machine pour activer l'agent SNMP.
Après avoir activé l'agent SNMP, vous pouvez modifier les paramètres de configuration SNMP actuels ou par défaut. Les catégories de paramètres sont les suivantes :
• Job Servers pour le SNMP — Job Servers activés pour SNMP sur cette machine.
• Variables système — Paramètres affectant l'opération de base de l'agent.
• Contrôle d'accès, v1/v2c — Paramètres affectant la manière dont l'agent octroie les applications
NMS à l'aide de la version v1 ou v2c de l'accès SNMP au MIB et aux MIBS standard pris en charge par le logiciel.
• Contrôle d'accès, v3 — Paramètres affectant la manière dont l'agent octroie les applications
NMS à l'aide de la version v3 de l'accès SNMP au MIB et aux MIBS standard pris en charge par le logiciel.
• Interruptions — Paramètres déterminant où l'agent envoie les messages d'interruption.
4.
Sélectionnez une catégorie et définissez les paramètres de configuration pour votre agent SNMP.
5.
Cliquez sur OK après avoir entré les paramètres de configuration pour votre agent SNMP.
6.
Dans la fenêtre Gestionnaire de serveurs, cliquez sur Redémarrer.
Le service redémarre, ce qui redémarre l'agent SNMP à l'aide des nouvelles informations de configuration.
Rubriques associées
•
•
•
•
•
777 2012-11-22
Surveillance des Jobs
21.2.5.2 Paramètres de configuration SNMP
21.2.5.2.1 Job Servers pour le SNMP
Utilisez cette catégorie pour sélectionner une quantité de Job Servers et activer le SNMP pour ces derniers. Lorsque le SNMP est activé pour un Job Server, l'agent SNMP conserve et signale les données pour les jobs exécutés sur ce Job Server.
L'éditeur répertorie tous les Job Servers configurés en une ou deux colonnes : Désactivé pour le
SNMP ou Activé pour le SNMP. Pour activer le SNMP pour un Job Server non activé, sélectionnez-le puis cliquez sur Activer. Pour désactiver le SNMP pour un Job Server activé, sélectionnez-le puis cliquez sur Désactiver. De même, pour activer ou désactiver le SNMP pour tous les Job Servers configurés, cliquez sur Tout activer ou sur Tout désactiver.
Vous pouvez également activer ou désactiver le SNMP pour des Job Servers donnés à l'aide de l'Editeur de configuration du Job Server.
Rubriques associées
•
Activer le SNMP sur un Job Server
21.2.5.2.2 Variables système
Utilisez cette catégorie pour définir des paramètres affectant l'opération de l'agent SNMP.
Paramètre Description
Version SNMP minimum
Sélectionnez la version SNMP la plus récente utilisée par les applications NMS pour envoyer une requête à l'agent : v1, v2c ou v3.
Il est recommandé de ne pas utiliser la version v1. Le mécanisme de sécurité utilisé par la version v1 n'est pas fiable et les messages d'interruption envoyés par l'agent ne sont pas compatibles avec v1.
Remarque :
Certaines applications NMS utilisent v1 par défaut. Si d'autres périphériques ou agents surveillés par l'application prennent en charge les versions v2c ou v3, il est recommandé de reconfigurer l'application NMS. Dans le cas contraire, vous devez définir cette valeur sur v1.
778 2012-11-22
Surveillance des Jobs
Paramètre
Port de l'agent
Description
Saisissez le port à partir duquel l'agent écoute les commandes
(PDU) à partir des applications NMS et répond à ces commandes.
Le port par défaut est le port 161. Il s'agit du port d'entrée SNMP.
Saisissez le nom de l'ordinateur.
Nom du système
Contact du système
Emplacement du système
Facultatif. Saisissez un texte décrivant la personne à contacter à propos de ce système. Ce texte est indiqué dans l'application NMS.
Les moniteurs réseau peuvent contacter cette personne pour résoudre des problèmes identifiés.
Facultatif. Saisissez un texte identifiant cet ordinateur, tel que des informations relatives à son emplacement physique. Ce texte est indiqué dans l'application NMS.
Durée de vie du cache de la JobTable
(en min)
Saisissez le nombre maximum de minutes pendant lequel un job terminé est conservé dans la MIB (Management Information Base).
L'agent synthétise les jobs (c'est-à-dire qu'il élimine chaque flux de données et enregistrement de workflow) après un huitième de la durée de vie d'un job. L'agent élimine définitivement les jobs une fois la limite de durée de vie atteinte. La durée de vie par défaut est 1 440 (un jour).
Taille max du cache de la JobTable (en
Ko)
Saisissez le nombre maximal de kilo-octets que l'agent peut utiliser pour la MIB.
Si la MIB atteint cette taille, l'agent réduit la MIB de 20 % en éliminant les jobs terminés, en commençant par les plus anciens. La valeur par défaut est 819 (0,8 Mo), correspondant au stockage d'environ 1 000 jobs.
21.2.5.2.3 Contrôle d'accès v1 et v2c
Utilisez cette catégorie pour saisir les informations permettant aux applications NMS utilisant le SNMP version v1 ou v2c d'accéder aux MIB contrôlées par l'agent SNMP.
Exemple :
Version SNMP minimumv1v2cVariables système
779 2012-11-22
Surveillance des Jobs
Autoriser l'accès à une nouvelle communauté
1.
Cliquez sur Ajouter.
2.
Sélectionnez En lecture seule pour autoriser cette communauté à lire la MIB en lecture seule.
Ce paramètre empêche la communauté d'envoyer des commandes SetRequest à toute MIB ou des commandes GetRequest à une MIB SNMP standard pour des arborescences contenant des informations de sécurité telles que des chaînes de sécurité, des mots de passe utilisateur ou des phrases secrètes de cryptage.
3.
Sélectionnez Lecture-écriture pour autoriser cette communauté à envoyer des commandes SetRe quest pour toutes les variables de lecture-écriture dans toute MIB, ainsi que des commandes
GetRequest pour les variables de toute MIB.
Rappelez-vous que la sélection de cette option permet à la communauté de lire et de modifier les variables dans les MIB SNMP standard.
4.
Dans Nom de la communauté, saisissez le nom de la communauté autorisée à envoyer des demandes à cet agent.
Les noms sont sensibles à la casse et doivent être uniques. En général, l'administrateur de l'application NMS attribue ce nom. L'application NMS inclut ce nom dans toutes les requêtes envoyées
à l'agent.
5.
Cliquez sur OK.
Modifier le nom ou l'accès d'une communauté
1.
Sélectionnez le nom de la communauté puis cliquez sur Modifier.
2.
Modifiez le type d'accès et le nom de communauté comme vous le souhaitez.
3.
Cliquez sur OK.
Supprimer l'accès d'une communauté particulière
1.
Sélectionnez le nom de la communauté.
2.
Cliquez sur Supprimer.
21.2.5.2.4 Contrôle d'accès v3
Utilisez cette catégorie pour saisir les informations permettant aux applications NMS utilisant le SNMP version v3 d'accéder aux MIB contrôlées par l'agent SNMP. L'éditeur répertorie les noms d'utilisateurs et les propriétés de chaque utilisateur.
Autoriser l'accès à un nouvel utilisateur
1.
Cliquez sur Ajouter.
2.
Saisissez les informations appropriées pour l'utilisateur.
780 2012-11-22
Surveillance des Jobs
Paramètre
En lecture seule
Lecture-écriture
Description
Sélectionnez En lecture seule pour autoriser cet utilisateur à lire la MIB en lecture seule.
Ce paramètre empêche l'utilisateur d'envoyer des commandes SetRequest
à toute MIB ou des commandes GetRequest à une MIB SNMP standard pour une arborescence contenant des informations de sécurité telles que des chaînes de sécurité, des mots de passe utilisateur ou des phrases secrète de cryptage.
Sélectionnez Lecture-écriture pour autoriser cet utilisateur à envoyer des commandes SetRequest pour toutes les variables de lecture-écriture dans toute MIB, ainsi que des commandes GetRequest pour les variables de toute
MIB.
Rappelez-vous que la sélection de cette option permet à l'utilisateur de lire et de modifier les variables dans les MIB SNMP standard.
Nom d'utilisateur
Mot de passe
Saisissez un nom pour l'utilisateur auquel l'agent SNMP répondra. Les noms sont sensibles à la casse. Chaque nom doit être unique. En général, l'administrateur de l'application NMS attribue ce nom. L'application NMS inclut ce nom dans toutes les requêtes envoyées à l'agent.
Saisissez le mot de passe pour l'utilisateur. Le mot de passe est sensible à la casse.
Confirmer le mot de passe Renouvelez la saisie du mot de passe afin d'éviter toute erreur de frappe.
3.
Cliquez sur OK.
Modifier le nom ou les données d'accès d'un utilisateur
1.
Sélectionnez le nom de l'utilisateur puis cliquez sur Modifier.
2.
Modifiez les données d'accès, le nom d'utilisateur et le mot de passe comme vous le souhaitez.
3.
Cliquez sur OK.
Supprimer l'accès d'un utilisateur
1.
Sélectionnez le nom de l'utilisateur.
2.
Cliquez sur Supprimer.
781 2012-11-22
Surveillance des Jobs
21.2.5.2.5 Interruptions
Utilisez cette catégorie pour configurer l'envoi des interruptions.
Exemple :
Activer les interruptions lors des échecs d'authentification
Ajouter un nouveau récepteur d'interruption
1.
Cliquez sur Ajouter.
2.
Saisissez les informations d'identification du récepteur d'interruption.
Paramètres
Nom de l'ordinateur
Port
Description
Saisissez le nom de l'ordinateur ou l'adresse IP de l'ordinateur utilisé par l'agent pour envoyer des messages d'interruption. Il s'agit d'un ordinateur sur lequel une application NMS est installée.
Saisissez le port d'écoute de l'application NMS pour les messages d'interruption.
162 est la valeur par défaut. Il s'agit du port de sortie SNMP standard.
Nom de la communauté
Saisissez le nom de la communauté à laquelle l'application NMS envoie les messages d'interruption.
3.
Cliquez sur OK.
Modifier les informations d'un récepteur d'interruption
1.
Sélectionnez le récepteur d'interruption et cliquez sur Modifier.
2.
Mettez à jour les informations d'identification du récepteur d'interruption.
3.
Cliquez sur OK.
Supprimer un récepteur d'interruption
1.
Sélectionnez le récepteur d'interruption.
2.
Cliquez sur Supprimer.
21.2.5.3 Configuration de SNMP sous UNIX
Cette section répertorie les procédures de configuration de SNMP sous UNIX.
782 2012-11-22
Surveillance des Jobs
21.2.5.3.1 Sélection d'un Job Server pour prendre en charge la communication SNMP
1.
Exécutez le Gestionnaire de serveurs Saisissez :
$ cd $LINK_DIR/bin/
$ . ./al_env.sh
$ ./svrcfg
Remarque :
La deuxième commande définit les variables d'environnement avant l'exécution du Gestionnaire de serveurs.
2.
Sélectionnez l'option 2 pour configurer un Job Server.
** Data Services Server Manager Utility **
1 : Control Job Service
2 : Configure Job Server
3 : Configure Runtime Resources
4 : Configure Access Server
5 : Configure SNMP Agent
6 : Configure SMTP
7 : Configure HACMP x : Exit
Enter Option: 2
3.
Saisissez l'option e : Edit a JOB SERVER entry.
4.
Saisissez le numéro de série du Job Server avec lequel vous souhaitez travailler lorsque la question suivante s'affiche :
Enter serial number of Job Server to edit: 1
5.
Saisissez un nombre qui sera utilisé en tant que port de communication SNMP lorsque la question suivante s'affiche :
Enter TCP Port Number for Job Server <S1> [19111]:
6.
Saisissez y lorsque la question suivante vous y invite :
Do you want to manage adapters and SNMP communication for the Job Server 'Server1''Y|N' [Y]?:
En revenant sur la page Informations sur le Job Server actuel, le Job Server défini pour gérer des adaptateurs ou le SNMP est indiqué par un astérisque puis mentionné sous la liste des Job Servers.
7.
Pour quitter le Gestionnaire de serveurs, saisissez q, puis x.
21.2.5.3.2 Activer le SNMP sur un Job Server
1.
Exécutez le Gestionnaire de serveurs Saisissez :
$ cd $LINK_DIR/bin/
$ . ./al_env.sh
$ ./svrcfg
2.
Sélectionnez l'option 2 pour configurer un Job Server.
3.
Saisissez l'option e : Edit a JOB SERVER entry.
783 2012-11-22
Surveillance des Jobs
4.
Saisissez y lorsque la question suivante vous y invite :
Do you want to Enable SNMP for this JobServer 'Y|N' [N]:
5.
Pour quitter le Gestionnaire de serveurs, saisissez q, puis x.
21.2.5.3.3 Configurer un agent
1.
Exécutez le Gestionnaire de serveurs Saisissez :
$ cd $LINK_DIR/bin/
$ . ./al_env.sh
$ ./svrcfg
2.
Sélectionnez l'option 6 Configurer l'agent SNMP.
L'une des options suivantes s'affiche selon la configuration actuelle :
• Le SNMP est désactivé pour cette installation de SAP BusinessObjects Data Services
[ D = Keep Disabled / E = Enable ]? :
• Le SNMP est activé pour cette installation de SAP BusinessObjects Data Services
[ E = Keep Enabled / D = Disable ]? :
Une fois le SNMP activé, le menu de configuration SNMP s'affiche.
3.
Pour modifier des variables système, sélectionnez 1. Les valeurs de chaque variable s'affichent.
Appuyez sur ENTREE pour conserver les valeurs par défaut ou saisissez de nouvelles valeurs pour chaque variable.
4.
Pour modifier les noms de communautés SNMP v1 et V2c, sélectionnez 2.
Un sous-menu s'affiche. Lorsque vous y êtes invité, saisissez une nouvelle valeur ou appuyez sur
RETOUR pour conserver la valeur originale.
5.
Pour modifier les noms d'UTILISATEURS SNMP v3, sélectionnez 3.
Un sous-menu s'affiche. Lorsque vous y êtes invité, saisissez une nouvelle valeur ou appuyez sur
RETOUR pour conserver la valeur originale.
6.
Pour modifier la configuration de l'INTERRUPTION, sélectionnez 4.
Un sous-menu s'affiche. Lorsque vous y êtes invité, saisissez une nouvelle valeur ou appuyez sur
RETOUR pour conserver la valeur originale.
Utilisez ce menu pour :
• Activer ou désactiver les interruptions d'authentification.
• Configurer un récepteur d'interruption (le nom de l'hôte et le numéro de port d'écoute du récepteur d'interruption, ainsi que la chaîne de communauté utilisée par le récepteur d'interruption pour authentifier les interruptions).
Un signe "+" indique les noms récemment ajoutés.
Un signe "-" indique les noms supprimés.
784 2012-11-22
Surveillance des Jobs
Une fois la valeur "S" saisie, tous les ajouts et suppressions s'affichent et vous êtes invité à les confirmer.
21.2.6 Dépannage
1.
Vérifiez que vous utilisez un nom de communauté v1 ou v2c ou un nom d'utilisateur valides.
L'agent SNMP ne répond pas aux requêtes non autorisées. Les requêtes non autorisées vont
échouer en raison de l'atteinte du délai d'expiration. Pour déterminer si un agent considère une requête comme non autorisée : a.
Sous la catégorie Interruptions de l'Editeur de configuration SNMP, définissez un récepteur d'interruption et sélectionnez la case à cocher Activer les interruptions lors des échecs
d'authentification.
b.
Redémarrez l'agent SNMP.
c.
Vérifiez la sortie du récepteur d'interruption pour les interruptions d'autorisation.
2.
Augmentez le délai d'expiration de l'agent SNMP.
Répétez l'opération jusqu'à ce que l'agent réponde ou que le délai d'expiration dépasse 20 secondes.
Si l'agent ne répond pas et que le délai d'expiration est supérieur à 20 secondes, rétablissez le paramètre original d'expiration et essayez l'étape suivante.
3.
Vérifiez que l'agent et l'application NMS utilisent des versions de SNMP compatibles.
Sous Variables système dans l'Editeur de configuration SNMP, la valeur de la Version SNMP minimum ne doit pas être supérieure à celle de la version des messages envoyés par l'application
NMS. Si les versions ne sont pas compatibles, modifiez le paramétrage de l'application NMS ou la configuration de l'agent SNMP.
Par exemple, si l'application NMS envoie des messages à l'aide de SNMP version v2c ou v3, vous pouvez définir la valeur Version SNMP minimum sur v2c.
Remarque :
Certaines applications NMS utilisent v1 par défaut. Si d'autres périphériques ou agents surveillés par l'application NMS prennent en charge les versions v2c ou v3, il est recommandé de reconfigurer l'application NMS. Dans le cas contraire, vous devez configurer l'agent SNMP pour qu'il accepte les commandes de la version v1.
4.
Vérifiez les erreurs dans le journal d'erreurs SNMP :
"installation directory"/bin/SNMP/snmpd.log
Utilisez si possible le Gestionnaire de serveurs pour résoudre les erreurs.
5.
Contactez l'assistance des utilisateurs professionnels SAP.
• Commande NMS exacte que vous tentez d'exécuter et message d'erreur exact obtenu.
785 2012-11-22
Surveillance des Jobs
• Nom et version de l'application NMS exécutée et version du protocole SNMP utilisée par l'application.
• Copie des quatre fichiers suivants issus du répertoire "installation directory"/bin/snmp : snmp.conf
snmpd.conf
snmpd.p.conf
snmpd.log
6.
Vérifiez l'accessibilité des phrases secrètes de cryptage.
Les phrases secrètes de cryptage sont verrouillées pour un ID de moteur SNMP donné selon l'adresse IP de l'ordinateur exécutant l'agent SNMP. Si vous modifiez l'adresse IP de cet ordinateur, vous devez recréer l'ensemble de vos utilisateurs SNMP dans le Gestionnaire de serveurs.
786 2012-11-22
Développement multi-utilisateurs
Développement multi-utilisateurs
A propos des utilisateurs multiples
SAP BusinessObjects Data Services prend en charge un environnement de développement multi-utilisateurs. Une équipe peut travailler en commun sur une application durant la phase de développement, de test ou de production. Différentes équipes peuvent également travailler sur différentes phases au même moment.
Chaque développeur travaille sur une application dans son référentiel local unique. Chaque équipe utilise un référentiel central pour stocker la copie principale de son application. Le référentiel central conserve toutes les versions de tous les objets de l'application, il est donc possible de revenir à une version précédente si nécessaire.
Rubriques associées
•
Référentiel central et référentiel local
•
22.1 Référentiel central et référentiel local
Vous pouvez créer un référentiel central pour stocker la copie d'équipe d'une application SAP
BusinessObjects Data Services. Le référentiel central contient toutes les informations qui se trouvent normalement dans un référentiel local, par exemple les définitions de chaque objet d'une application.
Cependant, le référentiel central est uniquement un emplacement de stockage de ces informations.
Pour modifier les informations, il faut travailler dans un référentiel local.
Un référentiel local fournit une vue du référentiel central. Vous pouvez "obtenir" (copier) dans votre référentiel local les objets du référentiel central. Néanmoins, pour apporter des modifications à un objet, vous devez "l'extraire " du référentiel central dans votre référentiel local. Lorsque vous avez extrait un objet du référentiel central, les autres utilisateurs ne peuvent pas en faire de même, ils ne peuvent donc pas modifier les informations.
Après modification, vous "rechargez" l'objet modifié. Lors du rechargement des objets, le logiciel enregistre les objets nouveaux et modifiés dans le référentiel central.
787 2012-11-22
Développement multi-utilisateurs
Plusieurs utilisateurs travaillant à partir de référentiels locaux uniques peuvent se connecter au même référentiel central. Ces utilisateurs peuvent travailler sur la même application et partager leur travail.
Cependant, à un moment donné, un seul utilisateur peut extraire et modifier un objet particulier. Lorsqu'un objet est extrait pour un utilisateur, les autres utilisateurs peuvent en obtenir une copie, mais sans y apporter de modifications mettant à jour le référentiel central.
Le référentiel central conserve l'historique de chaque objet. Par conséquent, si vous estimez qu'une modification apportée à un objet ne fonctionne pas comme prévu, vous pouvez revenir à une version précédente de l'objet.
Le référentiel local et le référentiel central doivent utiliser la même version logicielle. Par exemple, vous pouvez exécuter SAP BusinessObjects Data ServicesDesigner X.2 avec une version X.1 de référentiel central et local. Il est cependant impossible d'exécuter SAP BusinessObjects Data Services X.2 avec un référentiel central X.1 et un référentiel local X.2
22.2 Utilisateurs multiples
Un environnement multi-utilisateurs affecte la manière dont vous utilisez SAP BusinessObjects Data
Services et dont vous gérez les différentes phases d'une application. Pour une utilisation adéquate d'un environnement multi-utilisateurs, vous devez maintenir la cohérence entre votre référentiel local et le référentiel central.
Les termes suivants s'appliquent aux environnements logiciel et multi-utilisateurs :
788 2012-11-22
Développement multi-utilisateurs
Terme Définition
Objet de niveau supérieur
L'objet de niveau supérieur ne dépend d'aucun autre dans la hiérarchie des objets. Par exemple, si Job 1 comprend Workflow 1 et Flux de données 1,
Job 1 est l'objet de niveau supérieur.
Objets dépendants
Version d'objet
Les objets dépendants sont des objets associés en dessous de l'objet de niveau supérieur dans la hiérarchie. Par exemple, si Job 1 comprend Workflow 1, qui contient Flux de données 1, Workflow 1 et Flux de données 1 sont dépendants de Job 1. En outre, Flux de données 1 est dépendant de Workflow 1.
Une version d'objet est une instance d'un objet. Chaque fois que vous ajoutez ou rechargez un objet dans le référentiel central, le logiciel crée une nouvelle version de l'objet. La dernière version d'un objet est la version la plus récemment créée.
En travaillant dans un environnement multi-utilisateurs, vous activez le lien entre votre référentiel local et le référentiel central correspondant chaque fois que vous vous connectez. Pour garantir l'actualisation de votre référentiel, vous pouvez obtenir (copier) la dernière version de chaque objet du référentiel central. Après avoir obtenu une application dans votre référentiel local, vous pouvez l'afficher et l'exécuter depuis Designer.
789
Toutefois, si vous prévoyez de modifier des objets dans l'application, vous devez les extraire. Après extraction d'un objet, aucun autre utilisateur ne peut le modifier. Principalement, vous verrouillez la version du référentiel central et vous seul pouvez la modifier. Les autres utilisateurs peuvent uniquement obtenir et afficher l'objet.
2012-11-22
Développement multi-utilisateurs
Lorsque vous apportez des modifications à un objet, enregistrez-les dans le référentiel local et rechargez l'objet dans le référentiel central. Le progiciel enregistre les objets modifiés dans le référentiel central et les rend disponibles pour une extraction par les autres utilisateurs. Le progiciel gère toutes les versions des objets enregistrés dans le référentiel central. Ultérieurement, vous pouvez donc copier une ancienne version d'un objet enregistré, même après l'avoir remplacé dans votre référentiel local par une nouvelle version.
A tout moment, vous pouvez étiqueter un objet ou un groupe d'objets. Une étiquette d'objet représente un mécanisme pratique pour identifier les objets par la suite. Par exemple, vous pouvez trouver utile d'étiqueter des objets par fonctionnalité. Ensuite, si vous décidez d'éliminer une fonctionnalité récemment ajoutée, vous pouvez obtenir tous les objets ayant une étiquette sans cette fonctionnalité.
Vous pouvez également comparer deux objets, par exemple deux versions d'objet différentes dans le référentiel central ou un objet de votre référentiel local avec un objet du référentiel central. En comparant deux objets, vous pouvez déterminer quelles parties d'un objet ont été modifiées et décider de revenir
à une ancienne version d'un objet.
Rubriques associées
•
22.3 Sécurité et référentiel central
Il existe plusieurs options pour sécuriser le référentiel central. Utilisez ces options pour contrôler l'accès et fournir un suivi des objets dans le référentiel central. Ces options de sécurité s'appliquent uniquement aux référentiels centraux et comprennent :
• Authentification : autorise uniquement les utilisateurs valides à se connecter à un référentiel central.
• Autorisation : accorde différents niveaux d'autorisations sur les objets.
• Audit : gère un historique des modifications apportées à un objet, y compris les noms d'utilisateur.
790 2012-11-22
Développement multi-utilisateurs
Mettez en place la sécurité d'un référentiel central en établissant une structure de groupes et utilisateurs associés à l'aide de l'Administrateur.
Rubriques associées
•
Implémentation de la sécurité du référentiel central
22.4 Configuration d'environnement multi-utilisateurs
Présentation de la configuration multi-utilisateurs
Pour prendre en charge plusieurs développeurs, configurez un environnement multi-utilisateurs et plusieurs référentiels. Notamment, vous devez :
• Créer un référentiel local pour chaque développeur.
• Créer un référentiel central.
• Définir une connexion au référentiel central à partir de chaque référentiel local.
• Activer la connexion à un référentiel central.
Rubriques associées
•
Création d'un référentiel central non sécurisé
•
Définition d'une connexion à un référentiel central non sécurisé
•
Activation d'un référentiel central
22.4.1 Création d'un référentiel central non sécurisé
Pour prendre en charge plusieurs utilisateurs dans un seul environnement de développement, nous vous recommandons d'utiliser un référentiel central. Le référentiel central archive des informations de base pour l'environnement de développement.
Cette procédure s'applique uniquement à des référentiels non sécurisés.
1.
Créez une base de données à utiliser pour le référentiel central à l'aide de votre système de gestion de base de données.
2.
Sélectionnez Lancer > Programmes > SAP BusinessObjects Data Services 4.1 > Data Services
Repository Manager.
3.
Dans la fenêtre Gestionnaire de référentiel, cliquez sur le bouton Central dans le champ Type de
référentiel et saisissez les informations de connexion au référentiel central.
4.
Cliquez sur Créer.
Les tables de référentiel sont créées dans la base de données que vous avez identifiée.
791 2012-11-22
Développement multi-utilisateurs
Rubriques associées
•
Implémentation de la sécurité du référentiel central
22.4.2 Définition d'une connexion à un référentiel central non sécurisé
Une équipe travaillant sur une application a besoin d'un seul référentiel central. Cependant chaque membre de l'équipe a besoin d'un référentiel local. De plus, chaque référentiel local a besoin d'informations de connexion à tout référentiel central auquel il doit accéder.
Cette procédure s'applique uniquement à des référentiels non sécurisés.
Remarque :
La version du référentiel central doit correspondre à la version du référentiel local.
1.
Lancez Designer et connectez-vous au référentiel local.
2.
Sélectionnez Outils > Référentiels centraux pour ouvrir la fenêtre Options.
L'option Connexions au référentiel central est sélectionnée dans la liste des options de Designer
3.
Cliquez avec le bouton droit de la souris dans la case Connexions au référentiel central et sélectionnez Ajouter.
La fenêtre "Mot de passe du référentiel" s'ouvre.
4.
Saisissez le mot de passe pour le référentiel central.
Le référentiel apparaît dans la zone Connexions au référentiel central.
5.
Cliquez sur Activer.
6.
Saisissez à nouveau le mot de passe pour le référentiel central.
7.
Cliquez sur OK.
Rubriques associées
•
Implémentation de la sécurité du référentiel central
22.4.3 Activation d'un référentiel central
Pour connecter un référentiel central, vous devez activer le lien entre votre référentiel local et un référentiel central spécifique.
Remarque :
Lorsque vous démarrez Designer, connectez-vous toujours à un référentiel local. Ne vous connectez jamais à un référentiel central. Si vous le faites, le référentiel central agit comme un référentiel local.
792 2012-11-22
Développement multi-utilisateurs
Vous augmentez alors le risque de corruption des informations de version. Si vous essayez de vous connecter au référentiel central, un message d'avertissement s'affichera. Vous devez vous déconnecter immédiatement et vous connecter à un référentiel local.
Votre référentiel local donne un aperçu des objets du référentiel central actif. Chaque fois que vous accédez à des objets ou les extrayez, vous les copiez du référentiel central actif. Chaque fois que vous rechargez des objets, vous sauvegardez la version de votre référentiel local dans votre référentiel central actif.
Vous devez activer le référentiel central correct chaque fois que vous vous connectez. Lorsque vous activez un référentiel central, la bibliothèque centrale d'objets s'ouvre et présente tous les objets du référentiel central et le statut d'extraction de chaque objet.
22.4.3.1 Pour activer un référentiel central
1.
Sélectionnez Outils > référentiels centraux pour ouvrir la fenêtre Options.
L'option Connexions au référentiel central est sélectionnée dans la liste des options de Designer
2.
Dans la liste Connexions au référentiel central, déterminez un référentiel central à activer.
3.
Cochez Réactiver automatiquement pour réactiver le référentiel central actif lors de votre prochaine connexion à ce référentiel local.
4.
Cliquez avec le bouton droit de la souris sur le référentiel central et sélectionnez Activer.
La bibliothèque d'objets centrale s'ouvre. La fenêtre Options indique que le référentiel central sélectionné est actif et se ferme automatiquement.
22.4.3.2 Pour ouvrir la bibliothèque d'objets centrale
Cliquez sur le bouton Bibliothèque d'objets centrale dans la barre d'outils.
La bibliothèque d'objets centrale ressemble à la bibliothèque d'objets, elle affiche tous les objets dans le référentiel, regroupés dans les onglets appropriés.
La fenêtre s'ouvre en mode flottant. Faites glisser la fenêtre pour l'ancrer. Pour modifier l'état d'ancrage, cliquez avec le bouton droit sur la barre d'outils Bibliothèque d'objets centrale et basculez vers Ancrage.
Vous pouvez également modifier les informations de connexion au référentiel central à partir de la bibliothèque d'objets centrale.
793 2012-11-22
Développement multi-utilisateurs
22.4.3.3 Pour modifier le référentiel central actif
Sélectionnez un référentiel central dans la liste en haut de la bibliothèque d'objets centrale.
SAP BusinessObjects Data Services active la bibliothèque centrale sélectionnée, les objets de ce référentiel s'affichent dans la bibliothèque d'objets centrale. Les informations de connexion relatives à ce référentiel s'affichent en haut à droite de la bibliothèque d'objets centrale.
22.4.3.4 Pour modifier les connexions au référentiel central
1.
Cliquez sur le bouton Modifier la connexion au référentiel central en haut de la bibliothèque d'objets centrale.
La fenêtre Options s'ouvre avec l'option Connexions au référentiel central sélectionnée dans la liste des options de Designer.
Vous pouvez également ouvrir la fenêtre Options en sélectionnant Outils > référentiels centraux.
2.
Sélectionnez un référentiel central dans le cadre Connexions au référentiel central, cliquez avec le bouton droit de la souris et sélectionnez Modifier.
Lorsque la fenêtre Administrateur de banque de données s'ouvre :
• Pour vous déconnecter du référentiel central actuellement actif, cliquez avec le bouton droit de la souris sur le référentiel central dans le cadre Banques de données du référentiel central et sélectionnez Désactiver
• Pour supprimer des informations de connexion pour un référentiel central, cliquez avec le bouton droit de la souris sur le cadre Banques de données de référentiel central et sélectionnez
Supprimer.
Une fois que vous avez confirmé votre sélection, les informations de connexion de ce référentiel local sont supprimées. Vous ne pouvez plus vous connecter à ce référentiel central à partir de ce référentiel local.
Remarque :
Vous ne supprimez pas le référentiel central, vous supprimez uniquement les informations de connexion entre votre référentiel local et ce référentiel central.
• Pour activer un autre référentiel du référentiel central, cliquez avec le bouton droit de la souris sur le cadre Banques de données de référentiel central et sélectionnez Activer.
794 2012-11-22
Développement multi-utilisateurs
22.5 Implémentation de la sécurité du référentiel central
A propos de cette section
Cette section décrit comment implémenter des fonctionnalités de sécurité facultatives pour les référentiels centraux.
22.5.1 Présentation
SAP BusinessObjects Data Services propose des options pour la gestion de l'accès sécurisé et le suivi des objets dans les référentiels centraux. Les mécanismes de gestion de la sécurité du référentiel central comprennent :
• Authentification : autorise les utilisateurs valides à se connecter à un référentiel central.
• Autorisation : accorde différents niveaux d'autorisations sur les objets.
• Audit : gère un historique des modifications apportées à un objet, y compris les noms d'utilisateur.
Notez que ces mécanismes et procédures de sécurité s'appliquent uniquement aux référentiels centraux.
795
22.5.1.1 Autorisations basées sur le groupe
Vous implémentez la sécurité d'un référentiel central en établissant une structure de groupes et d'utilisateurs associés à l'aide de l'Administrateur et de la CMC (Central Management Console).
Les autorisations d'accès aux objets s'appliquent au niveau du groupe. Plusieurs groupes peuvent disposer de la même autorisation sur le même objet à un moment donné. Les groupes sont spécifiques
à un référentiel et ne sont visibles dans aucun autre référentiel local ou central.
Par conséquent, les utilisateurs n'obtiennent pas d'autorisations individuelles. Dans Designer, les utilisateurs sélectionnent parmi les groupes auxquels ils appartiennent, et le groupe sélectionné (actuel) impose son accès à cet objet. Chaque utilisateur doit avoir un groupe par défaut, mais peut appartenir
à plusieurs groupes. Lorsqu'un utilisateur ajoute un objet à un référentiel central sécurisé, le groupe actuel de l'utilisateur dispose d'autorisations complètes sur cet objet.
Une authentification par nom d'utilisateur et mot de passe est requise pour chaque connexion à un référentiel central sécurisé. Les utilisateurs peuvent modifier leur mot de passe à tout moment dans la
CMC (Central Management Console).
Rubriques associées
• Managment Console Guide: Central Repository management, Setting up users and groups
2012-11-22
Développement multi-utilisateurs
• Administrator's Guide: User management
22.5.1.2 Niveaux d'autorisation
Chaque objet d'un référentiel central sécurisé peut disposer d'un des niveaux d'autorisation suivants :
• Complète : c'est le niveau d'autorisation le plus élevé. Le groupe peut exécuter toutes les actions possibles, y compris rechargement, extraction et suppression de l'objet. Vous pouvez par exemple affecter ce type d'accès aux développeurs.
• Lecture : les utilisateurs peuvent uniquement obtenir une copie de l'objet depuis le référentiel central ou comparer les objets entre leurs bibliothèques d'objets locale et centrale. Vous pouvez par exemple affecter ce type d'accès à l'Assurance-Qualité.
• Aucune : les utilisateurs ne peuvent pas obtenir de copies de l'objet, mais peuvent l'afficher avec ses propriétés.
Lorsqu'un utilisateur authentifié ajoute un objet à un référentiel central sécurisé, le groupe actuel de l'utilisateur dispose d'autorisations complètes sur l'objet. Tous les autres groupes reçoivent l'autorisation
Lecture. Les membres du groupe disposant des autorisations complètes peuvent modifier les autorisations des autres groupes pour cet objet.
22.5.1.3 Synthèse du processus
Vous implémentez la sécurité pour un référentiel central en :
1.
Utilisant le Gestionnaire de référentiel pour ajouter un référentiel central sécurisé ou mettre à niveau un référentiel central non sécurisé existant.
2.
Utilisant la CMC (Central Management Console) pour ajouter des utilisateurs.
3.
Utilisant l'Administrateur pour ajouter des utilisateurs aux groupes des référentiels centraux.
4.
Définissant la connexion à partir de Designer.
5.
Ajoutant des objets au référentiel central ainsi que des autorisations d'affichage et modification des objets.
Rubriques associées
•
Création d'un référentiel central sécurisé
•
Ajout d'un administrateur multi-utilisateurs (facultatif)
•
Configuration des groupes et utilisateurs
•
Définition d'une connexion vers un référentiel central sécurisé
•
Utilisation d'objets dans un référentiel central sécurisé
796 2012-11-22
Développement multi-utilisateurs
22.5.2 Création d'un référentiel central sécurisé
La première étape de l'établissement de mesures de sécurité pour le développement multi-utilisateurs consiste à créer un référentiel central sécurisé ou à mettre à niveau un référentiel central non sécurisé existant.
Remarque :
Ces procédures s'appliquent uniquement aux référentiels sécurisés.
Rubriques associées
•
Configuration d'environnement multi-utilisateurs
22.5.2.1 Pour créer un référentiel central sécurisé
1.
Créez une base de données à utiliser pour le référentiel central à l'aide de votre système de gestion de base de données.
2.
Sélectionnez Démarrer > Programmes > SAP BusinessObjects Data Services 4.1 > Gestionnaire
de référentiel Data Services.
3.
Dans la fenêtre Gestionnaire de référentiel, cliquez sur le bouton Central dans le champ Type de référentiel et saisissez les informations de connexion au référentiel central.
4.
Cochez la case Activer la sécurité.
5.
Cliquez sur Créer.
Le progiciel crée les tables du référentiel dans la base de données que vous avez identifiée.
797
22.5.2.2 Mise à niveau d'un référentiel central, de non sécurisé à sécurisé
Vous pouvez modifier un référentiel central existant pour le sécuriser, mais cette modification ne peut pas être annulée.
1.
Ouvrez le Gestionnaire de référentiel.
2.
Dans la fenêtre Gestionnaire de référentiel, cliquez sur le bouton Central dans le champ Type de référentiel et saisissez les informations de connexion à la base de données du référentiel central à modifier.
3.
Cochez la case Activer la sécurité.
4.
Cliquez sur Mettre à niveau.
2012-11-22
Développement multi-utilisateurs
Le progiciel met à niveau les tables du référentiel dans la base de données que vous avez identifiée.
Remarque :
Lorsque vous mettez à niveau un référentiel central non sécurisé existant pour qu'il devienne sécurisé, un nouveau groupe, DIGroup, est automatiquement créé pour vous et affiché dans Console de
gestion > Administrateur > Référentiels centraux. Pour accéder au référentiel, ajoutez des utilisateurs existants au groupe dans l'Administrateur.
22.5.3 Ajout d'un administrateur multi-utilisateurs (facultatif)
Dans la CMC (Central Management Console), vous avez la possibilité d'ajouter un utilisateur ayant le rôle d'Administrateur multi-utilisateurs. Ce rôle est limité à la gestion des référentiels centraux sécurisés, c'est donc un sous-ensemble du rôle d'Administrateur Par exemple, les administrateurs multi-utilisateurs ne peuvent pas ajouter un référentiel local ou un référentiel central non sécurisé.
Les administrateurs multi-utilisateurs peuvent :
• Ajouter et supprimer des référentiels centraux sécurisés.
• Gérer les utilisateurs et les groupes.
• Afficher les rapports des référentiels centraux sécurisés
Rubriques associées
• Guide d'administration : Gestion des utilisateurs
22.5.4 Configuration des groupes et utilisateurs
L'étape suivante de l'implémentation de la sécurité d'un référentiel central consiste à ajouter et configurer les groupes et utilisateurs avec la CMC (Central Management Console) et l'Administrateur.
Rubriques associées
• Guide d'administration : Gestion des utilisateurs
• Guide Management Console Guide : Gestion de référentiel central, Configuration des utilisateurs et des groupes
22.5.5 Définition d'une connexion vers un référentiel central sécurisé
798 2012-11-22
Développement multi-utilisateurs
L'étape suivante de l'implémentation de la sécurité d'un référentiel central est la définition d'une connexion vers le répertoire dans Designer.
Cette procédure s'applique uniquement aux référentiels centraux sécurisés.
1.
Lancez Designer et connectez-vous au référentiel local.
2.
Dans le menu Outils, cliquez sur Référentiels centraux pour ouvrir la fenêtre Options.
L'option Connexions au référentiel central doit être sélectionnée dans la liste Designer.
3.
Cliquez sur Ajouter.
4.
Saisissez vos informations de connexion au CMS (Central Management Server) et cliquez sur Se
connecter.
5.
Sélectionnez le référentiel central sécurisé auquel vous désirez vous connecter.
6.
Cliquez sur OK.
La liste de connexions au référentiel central comprend désormais le référentiel central venant d'être connecté et il est identifié comme sécurisé.
7.
Le référentiel étant sélectionné, cliquez sur Activer.
8.
Cliquez sur OK.
Rubriques associées
•
Configuration d'environnement multi-utilisateurs
•
Activation d'un référentiel central
22.5.6 Utilisation d'objets dans un référentiel central sécurisé
Rubriques associées
•
Ajout d'objets au référentiel central
•
Affichage et modification des autorisations
799
22.5.6.1 Affichage et modification des autorisations
Après avoir terminé toutes les tâches de configuration et l'ajout d'objets au référentiel central sécurisé, utilisez la bibliothèque d'objets centrale pour afficher et modifier les autorisations de groupe des objets.
22.5.6.1.1 Pour afficher les autorisations d'un objet
1.
Lancez Designer et connectez-vous au référentiel local.
2.
Ouvrez la bibliothèque d'objets centrale sécurisée.
2012-11-22
Développement multi-utilisateurs
Votre groupe par défaut s'affiche dans la liste déroulante en haut de la fenêtre et il est marqué d'un astérisque. La colonne Autorisations affiche le niveau d'accès du groupe actuel pour chaque objet. Si vous ajoutez un nouvel objet à la bibliothèque centrale, le groupe actuel obtient les autorisations
COMPLETES et tous les autres groupes obtiennent l'autorisation LECTURE.
22.5.6.1.2 Pour modifier les autorisations des objets pour les autres groupes.
Vous devez disposer d'autorisations complètes pour modifier l'accès aux objets pour les autres groupes.
1.
Dans la bibliothèque d'objets centrale, cliquez avec le bouton droit sur l'objet, puis cliquez sur
Autorisation > Configuration de l'adaptateur du CDM > Objet ou sur Autorisation > Objet et
dépendants.
2.
La boîte de dialogue Autorisation s'ouvre, elle affiche une liste des groupes disponibles et le niveau d'accès du groupe pour les objets.
3.
Cliquez dans la colonne Autorisation, puis sélectionnez dans la liste déroulante un niveau d'autorisation pour le groupe.
4.
Cliquez sur Appliquer ou OK.
22.5.6.1.3 Modification du groupe actuel ou du groupe par défaut
1.
Pour modifier le groupe actuel, sélectionnez un groupe dans la zone déroulante de la bibliothèque d'objets centrale.
2.
Pour modifier votre groupe par défaut, sélectionnez le groupe voulu dans la liste déroulante et cliquez sur l'icône Enregistrer.
Le progiciel marque le groupe par défaut d'un astérisque.
22.6 Travail dans un environnement multi-utilisateurs
Vue d'ensemble des tâches multi-utilisateurs
Pour des résultats optimum du développement au sein d'un environnement multi-utilisateurs, certains processus sont recommandés, tels que le rechargement et l'extraction d'objets modifiés, ainsi que l'établissement d'un ensemble de conventions respectées par votre équipe, comme l'étiquetage des objets.
Rubriques associées
•
•
Ajout d'objets au référentiel central
•
•
•
•
•
•
800 2012-11-22
Développement multi-utilisateurs
•
Affichage de l'historique d'un objet
•
22.6.1 Filtrage
SAP BusinessObjects Data Services permet de personnaliser des informations spécifiques à l'environnement dans les définitions d'objets en les filtrant (en les modifiant par une sélection). Les objets d'application peuvent contenir des informations spécifiques aux référentiels. Par exemple, les banques et bases de données peuvent faire référence à une connexion à la base de données spécifique
à un utilisateur ou à une phase du développement. Lorsque plusieurs utilisateurs travaillent sur une application, ils peuvent modifier les informations spécifiques aux référentiels.
Le filtrage permet notamment de :
• Modifier les informations de connexion d'une banque ou d'une base de données
• Modifier le répertoire racine de fichiers associés à un format de fichier particulier
• Sélectionner ou effacer certains objets dépendants
Le processus de filtrage est accessible lors de l'ajout, du rechargement, de l'extraction ou de l'obtention des derniers objets ou des objets étiquetés dans un référentiel central.
Lors de la sélection d'une commande utilisant l'option de filtrage :
1.
La fenêtre "Confirmation du contrôle de version" affiche les objets sélectionnés et tous les objets dépendants. Vous pouvez exclure des objets en les sélectionnant puis en remplaçant les valeurs du Statut cible de créer ou remplacer par exclure.
2.
La fenêtre "Options de la banque de données" affiche toutes les banques de données utilisées par l'objet. Cette fenêtre ne s'ouvre que si les objets ajoutés, rechargés ou extraits incluent une banque de données.
22.6.2 Ajout d'objets au référentiel central
Une fois le référentiel central créé, connecté au référentiel local puis activé, vous pouvez ajouter des objets du référentiel local au référentiel central. Souvenez-vous : l'ensemble de la conception (création des jobs, des workflows et des flux de données) s'effectue dans un référentiel local. Vous utilisez ainsi un référentiel local pour la création initiale de tout objet dans une application. Après la création initiale d'un objet, vous l'ajoutez au référentiel central. Une fois dans le référentiel central, l'objet est soumis au contrôle de version et peut être partagé entre plusieurs utilisateurs.
801 2012-11-22
Développement multi-utilisateurs
Vous pouvez ajouter un seul objet ou un objet et tous ses objets dépendants au référentiel central. Lors de l'ajout d'un objet unique tel qu'un flux de données, seul cet objet est ajouté. Aucun objet dépendant n'est ajouté.
Vous pouvez ajouter des objets au référentiel central à tout moment. Toutefois, il est impossible d'ajouter un objet déjà existant dans le référentiel central.
Il est impossible d'ajouter une configuration de transformation en lecture seule au référentiel. Vous pouvez cependant répliquer une configuration de transformation puis ajouter la réplique au référentiel.
22.6.2.1 Ajouter un objet unique au référentiel central
1.
Ouvrez la bibliothèque d'objets locale.
2.
Cliquez avec le bouton droit de la souris sur l'objet et sélectionnez Ajouter au référentiel central
> Objet.
3.
La fenêtre Commentaires s'ouvre. Saisissez un commentaire dans le champ Commentaires puis cliquez sur OK.
Le progiciel ajoute l'objet au référentiel central actif.
Remarque :
La commande Ajouter au référentiel central n'est pas disponible si l'objet existe déjà dans le référentiel central.
802
22.6.2.2 Ajouter un objet et ses objets dépendants au référentiel central
1.
Ouvrez la bibliothèque d'objets locale.
2.
Cliquez avec le bouton droit de la souris sur l'objet puis sélectionnez Ajouter au référentiel central
> Objet et dépendants ou Ajouter au référentiel central > Avec filtrage (si le filtrage est requis).
3.
La fenêtre Commentaires s'ouvre. Saisissez un commentaire dans le champ Commentaires puis cliquez sur OK.
4.
Si vous avez sélectionné Avec filtrage, renseignez les fenêtres de filtrage.
5.
Cliquez sur Terminer pour ajouter les objets sélectionnés.
Il est également possible de sélectionner l'objet et de le faire glisser vers la bibliothèque d'objets centrale pour ajouter l'objet et ses objets dépendants au référentiel central. Les fenêtres de filtrage s'affichent.
Remarque :
• La commande Ajouter au référentiel central n'est pas disponible si l'objet existe déjà dans le référentiel central. Toutefois, la commande Ajouter au référentiel central est disponible si les dépendants de l'objet existent déjà dans le référentiel central et non l'objet lui-même.
2012-11-22
Développement multi-utilisateurs
• Il est impossible d'ajouter une configuration de transformation en lecture seule au référentiel. Pour exécuter cette action, il est nécessaire de créer un nouveau référentiel, de mettre à niveau le référentiel existant ou d'importer l'ATL contenant une nouvelle version des configurations de transformation en lecture seule.
Rubriques associées
•
22.6.3 Extraction d'objets
Lorsque vous envisagez de modifier un ou plusieurs objets d'une application, il est conseillé d'extraire les objets concernés. Lors de l'extraction, l'objet n'est plus disponible pour les autres utilisateurs. Ils peuvent afficher l'objet mais ne peuvent pas le modifier. L'extraction d'un objet permet d'éviter toute modification conflictuelle d'objet effectuée simultanément par deux utilisateurs.
Data Services modifie les icônes de l'objet dans les bibliothèques d'objets locale et centrale pour indiquer que l'objet est extrait.
Lorsque vous avez extrait un objet, la bibliothèque d'objets centrale affiche le référentiel central qui a effectué l'extraction. En fonction du nom du référentiel, il est possible de déterminer l'utilisateur travaillant avec cet objet.
Pour afficher les modifications périodiques, actualisez la bibliothèque d'objets centrale en cliquant sur le bouton Actualiser la bibliothèque d'objets centrale dans la barre d'outils de la bibliothèque d'objets centrale.
Sélectionnez une commande d'extraction selon l'action souhaitée sur l'objet.
803
22.6.3.1 Extraire des objets uniques ou des objets avec leurs dépendants
Les dépendants sont des objets utilisés par d'autres objets, par exemple des flux de données appelés
à partir d'un workflow. Vous pouvez extraire un seul objet ou un objet et tous ses objets dépendants
(tels que calculés dans le référentiel central). Il est par exemple possible d'extraire un workflow uniquement. Dans ce cas, vous pouvez modifier ce workflow, en lui ajoutant un nouveau script par exemple. Toutefois, vous ne pouvez pas modifier d'objets dépendants, comme les flux de données, dans le workflow et conserver les modifications dans le référentiel central. Les modifications effectuées sur les objets dépendants seront uniquement conservées dans le référentiel local. Il est également possible d'extraire le workflow et tous ses dépendants. Dans ce cas, vous pouvez modifier le workflow ou ses dépendants, puis conserver ces modifications dans les référentiels central et local.
Il est en général plus sûr d'extraire un objet avec l'ensemble de ses objets dépendants. Vous empêchez ainsi d'autres utilisateurs de modifier des objets dépendants par inadvertance.
2012-11-22
Développement multi-utilisateurs
22.6.3.1.1 Extraire un objet unique
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez extraire.
3.
Sélectionnez Extraire > Objet.
Il est également possible de sélectionner l'objet dans la bibliothèque d'objets centrale, puis de cliquer sur le bouton Extraire l'objet situé en haut de la bibliothèque d'objets centrale.
Le progiciel copie la dernière version de l'objet sélectionné du référentiel central vers votre référentiel local, puis marque l'objet comme extrait.
22.6.3.1.2 Extraire un objet et ses objets dépendants
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez extraire.
3.
Sélectionnez Extraire > Objet et dépendants.
Il est également possible de sélectionner l'objet dans la bibliothèque d'objets centrale, puis de cliquer sur le bouton Extraire l'objet et les dépendants situé en haut de la bibliothèque d'objets centrale.
SAP BusinessObjects Data Services copie la version la plus récente de l'objet sélectionné et de tous ses objets dépendants du référentiel central, puis marque ces objets comme extraits.
Si vous ou un autre utilisateur extrayez un objet dépendant, le progiciel vous le signale à l'aide d'une fenêtre Alerte d'extraction et vous invite à obtenir la dernière version de l'objet extrait.
Rubriques associées
•
804
22.6.3.2 Extraire des objets uniques ou des objets avec leurs dépendants sans remplacement
Lors de l'extraction d'un objet, il est possible de remplacer l'objet de votre référentiel local par la dernière version de celui-ci dans le référentiel central. Vous pouvez aussi laisser sa version actuelle intacte dans votre référentiel local.
Quand vous extrayez un objet, SAP BusinessObjects Data Services copie sa définition à partir du référentiel central et remplace toute définition d'objet présente dans votre référentiel local.
Vous pouvez extraire des objets sans les remplacer dans votre référentiel local. Supposons que vous travailliez dans votre référentiel local et que vous modifiiez un objet non extrait. Si vous jugez que la modification optimise la conception ou les performances de l'application, vous souhaiterez inclure cette modification dans le référentiel central.
2012-11-22
Développement multi-utilisateurs
Pour ce faire, il convient d'extraire l'objet sans remplacer l'objet présent dans le référentiel local, celui que vous avez déjà optimisé par une modification. Rechargez ensuite l'objet modifié dans le référentiel central.
Remarque :
Soyez vigilant lors de l'extraction d'objets sans remplacement de leur version dans le référentiel local.
Si vous ne remplacez pas les versions d'objets dans le référentiel local, vous pouvez perdre les modifications intégrées par d'autres utilisateurs.
22.6.3.2.1 Extraire un objet ou un objet et ses objets dépendants sans remplacement
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez extraire, puis sélectionnez
Extraire > Objet > sans remplacement pour extraire l'objet unique, ou sélectionnez Extraire >
Objet et dépendants sans remplacement pour extraire l'objet et tous ses objets dépendants.
SAP BusinessObjects Data Services marque tous les objets appropriés comme extraits (dans la bibliothèque d'objets et dans l'espace de travail), mais ne copie aucun objet du référentiel central vers le référentiel local.
22.6.3.3 Extraire des objets avec filtrage
Lors de l'extraction d'un objet avec filtrage, l'objet et tous ses objets dépendants sont extraits.
Remarque :
L'extraction remplace alors toujours les versions locales par les objets filtrés du référentiel central.
22.6.3.3.1 Extraire un objet et ses objets dépendants avec filtrage
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez extraire, puis sélectionnez
Extraire > Avec filtrage.
3.
Renseignez les fenêtres de filtrage.
4.
Cliquez sur Terminer pour extraire les objets sélectionnés.
Rubriques associées
•
22.6.4 Annulation de l'extraction
805 2012-11-22
Développement multi-utilisateurs
Vous pouvez parfois juger l'extraction d'un objet non nécessaire car vous n'aviez effectué aucune modification. Ou vous pouvez estimer inutiles les modifications effectuées sur un objet extrait. Vous préférez ainsi laissez la copie principale de l'objet telle quelle. Dans ces cas, vous pouvez annuler l'extraction.
Lors de l'annulation d'une extraction :
• L'objet dans le référentiel central reste tel qu'il était avant l'extraction. Aucune modification n'est effectuée et aucune autre version n'est enregistrée dans le référentiel central. Seul le statut de l'objet change : il n'est plus extrait, mais disponible.
• La version locale de l'objet conserve les modifications effectuées. Si vous souhaitez que l'objet local soit une copie exacte de l'objet central, appliquez l'opération Obtention des derniers éléments à cet objet.
Après l'annulation d'une extraction, les autres utilisateurs peuvent extraire et modifier l'objet.
22.6.4.1 Annuler l'extraction d'un objet unique
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Sélectionnez un objet extrait
3.
Cliquez sur le bouton Annuler l'extraction de l'objet.
806
SAP BusinessObjects Data Services supprime le symbole d'extraction et ne modifie pas l'objet dans le référentiel central. Tout objet dépendant extrait reste extrait.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet, puis sélectionner Annuler
l'extraction > Objet.
22.6.4.2 Annuler l'extraction d'un objet et de ses objets dépendants
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Sélectionnez l'objet extrait de niveau le plus élevé pour lequel vous souhaitez annuler l'extraction.
3.
Cliquez sur le bouton Annuler l'extraction de l'objet et des dépendants.
2012-11-22
Développement multi-utilisateurs
SAP BusinessObjects Data Services supprime les symboles d'extraction de l'objet et de tous les objets dépendants également extraits. Ces objets ne sont pas modifiés dans le référentiel central.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner Annuler l'extraction > Objet et dépendants.
22.6.5 Rechargement d'objets
Une fois les objets extraits modifiés, vous devez les recharger dans le référentiel central. Le rechargement d'objets crée une nouvelle version dans le référentiel central et permet aux autres utilisateurs d'obtenir les modifications effectuées. Une copie des modifications est également conservée à des fins de contrôle de révision. Vous pourrez obtenir ultérieurement une version donnée d'un objet rechargé puis la comparer aux modifications suivantes ou même rétablir la version précédente.
Rechargez un objet lorsque vos modifications sont terminées, lorsque d'autres utilisateurs ont besoin de l'objet contenant vos modifications ou lorsque vous souhaitez conserver une copie de l'objet en son statut actuel.
Sélectionnez une commande de rechargement selon l'action souhaitée sur l'objet.
Rubriques associées
•
Rechargement d'objets uniques et d'objets avec leurs dépendants
•
Rechargement d'un objet avec filtrage
807
22.6.5.1 Rechargement d'objets uniques et d'objets avec leurs dépendants
Tout comme vous pouvez extraire un objet unique ou un objet avec l'ensemble de ses objets dépendants, vous pouvez recharger un objet unique ou un objet avec tous ses objets dépendants extraits (tels que calculés dans le référentiel local).
22.6.5.1.1 Recharger un objet unique
1.
Ouvrez la bibliothèque d'objets centrale.
2012-11-22
Développement multi-utilisateurs
2.
Sélectionnez l'objet que vous souhaitez recharger.
3.
Cliquez sur le bouton Recharger l'objet situé en haut de la bibliothèque d'objets centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner Recharger > Objet.
4.
La fenêtre Recharger s'ouvre avec une zone Commentaire dans laquelle vous pouvez saisir des commentaires. Une fois les commentaires saisis, cliquez sur OK.
SAP BusinessObjects Data Services copie l'objet du référentiel local vers le référentiel central, puis supprime la marque d'extraction.
22.6.5.1.2 Recharger un objet et ses objets dépendants
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Sélectionnez l'objet de niveau le plus élevé que vous souhaitez recharger.
3.
Cliquez sur le bouton Recharger l'objet et les dépendants situé en haut de la bibliothèque d'objets centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner Recharger > Objet et dépendants.
4.
La fenêtre Recharger s'ouvre avec une zone Commentaire dans laquelle vous pouvez saisir des commentaires. Une fois les commentaires saisis, cliquez sur OK.
SAP BusinessObjects Data Services copie l'objet sélectionné et tous ses objets dépendants de votre référentiel vers le référentiel central, puis supprime la marque d'extraction.
808
22.6.5.2 Rechargement d'un objet avec filtrage
Tout comme vous pouvez extraire des objets avec filtrage, vous pouvez recharger des objets avec filtrage. Lors du rechargement d'un objet avec filtrage, l'objet et tous ses objets dépendants sont rechargés.
22.6.5.2.1 Recharger un objet avec filtrage
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez recharger, puis sélectionnez
Recharger > Avec filtrage.
3.
La fenêtre Recharger s'ouvre avec une zone Commentaire dans laquelle vous pouvez saisir des commentaires. Une fois les commentaires saisis, cliquez sur OK.
SAP BusinessObjects Data Services vous avertit que vous êtes sur le point de créer une nouvelle version de l'objet dans le référentiel central.
4.
Cliquez sur Oui pour poursuivre le rechargement.
5.
Renseignez les fenêtres de filtrage.
2012-11-22
Développement multi-utilisateurs
6.
Cliquez sur Terminer pour recharger les objets sélectionnés.
Rubriques associées
•
22.6.6 Etiquetage d'objets
Pour vous aider à organiser et à suivre le statut des objets dans l'application, il est possible d'étiqueter les objets. Vous pouvez choisir d'étiqueter un objet ou un objet et tous ses objets dépendants. Une
étiquette décrit non seulement un objet, mais elle permet également de conserver une relation entre les différentes versions d'un objet.
Supposons que le développeur A ajoute un job au référentiel central et travaille sur un workflow dans ce job. Le développeur B travaille simultanément sur un flux de données dans le même job. A la fin de la semaine, une fois que le développeur A a rechargé les deux versions du workflow et le développeur
B les quatre versions du flux de données dans le référentiel central, le job est étiqueté "Statut Fin de semaine 1". Cette étiquette contient la version 1 du job, la version 2 du workflow et la version 4 du flux de données. Les deux développeurs peuvent poursuivre les modifications dans leurs workflow et flux de données respectifs.
809 2012-11-22
Développement multi-utilisateurs
Si vous souhaitez obtenir ultérieurement le job avec la version du flux de données et cette étiquette, il convient d'obtenir le job par son étiquette et non d'extraire le job et ses dépendants.
L'étiquette "Statut Fin de semaine 1" permet de collecter les versions du workflow et du flux de données rechargées à la fin de la semaine. Sans cette étiquette, il faudrait obtenir une version particulière de chaque objet afin de rassembler la collection d'objets portant l'étiquette "Statut Fin de semaine 1".
Rubriques associées
•
22.6.6.1 Etiqueter un objet et ses objets dépendants
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez étiqueter, puis sélectionnez
Dernière version d'étiquette > Objet pour étiqueter uniquement l'objet mis en surbrillance ou sélectionnez Objet et dépendants pour étiqueter l'objet et tous ses objets associés.
La fenêtre "Dernière version d'étiquette" s'ouvre.
3.
Dans la zone Etiquette, saisissez un texte décrivant le statut actuel de l'objet, puis cliquez sur OK.
L'étiquette est insérée dans l'historique de l'objet et des dépendants.
Rubriques associées
•
Affichage de l'historique d'un objet
810
22.6.6.2 Pour obtenir un objet étiqueté avec filtrage
L'option de filtrage associée à l'opération Obtention par étiquette vous permet de filtrer (modification sélective) des informations spécifiques à l'environnement dans les définitions d'objet lorsque vous travaillez dans un environnement multi-utilisateur.
2012-11-22
Développement multi-utilisateurs
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Sélectionnez l'objet de niveau le plus élevé que vous souhaitez obtenir.
3.
Cliquez avec le bouton droit sur l'objet dans la bibliothèque d'objets centrale, puis sélectionnez
Obtention par étiquette > Avec filtrage.
4.
Renseignez la fenêtre de filtrage.
5.
Cliquez sur Terminer pour obtenir les objets sélectionnés.
Rubriques associées
•
22.6.7 Obtention d'objets
Pour vous assurer que le référentiel est à jour, vous "obtenez" des objets. Lorsque vous obtenez un objet, vous copiez la dernière version de cet objet dans la bibliothèque d'objets centrale et la collez dans le référentiel local, remplaçant ainsi la version du référentiel local. L'obtention d'un objet n'engendre pas son extraction. L'objet reste disponible pour les autres utilisateurs ; ils peuvent l'extraire et le modifier.
Vous pouvez obtenir un objet avec ou sans ses objets dépendants et avec ou sans filtrage.
Rubriques associées
•
Affichage de l'historique d'un objet
22.6.7.1 Obtenir un objet unique
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Sélectionnez l'objet que vous souhaitez obtenir.
3.
Cliquez sur le bouton Obtention de la dernière version de l'objet situé en haut de la bibliothèque centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner Obtention de dernière version > Objet.
La version la plus récente de l'objet dans le référentiel central est copiée vers le référentiel local.
811 2012-11-22
Développement multi-utilisateurs
22.6.7.2 Obtenir un objet et ses objets dépendants
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Sélectionnez l'objet de niveau le plus élevé que vous souhaitez obtenir.
3.
Cliquez sur le bouton Obtention de la dernière version de l'objet avec dépendants situé en haut de la bibliothèque centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner Obtention de dernière version > Objet et dépendants.
La version la plus récente de l'objet sélectionné et tous les objets dépendants du référentiel central sont copiés vers votre référentiel local.
22.6.7.3 Obtenir un objet et ses objets dépendants avec filtrage
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Sélectionnez l'objet de niveau le plus élevé que vous souhaitez obtenir.
3.
Cliquez avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionnez Obtention de dernière version > Avec filtrage.
4.
Renseignez les fenêtres de filtrage.
5.
Cliquez sur Terminer pour obtenir les objets sélectionnés.
Rubriques associées
•
22.6.8 Comparaison d'objets
SAP BusinessObjects Data Services permet de comparer deux objets des référentiels local et central pour déterminer leurs différences.
Rubriques associées
•
812 2012-11-22
Développement multi-utilisateurs
22.6.9 Affichage de l'historique d'un objet
Le référentiel central conserve un historique de toutes les modifications d'objets effectuées dans le référentiel central. Utilisez cet historique pour gérer et contrôler le développement de l'application.
22.6.9.1 Examiner l'historique d'un objet
1.
Ouvrez la bibliothèque d'objets centrale.
2.
Sélectionnez un objet.
3.
Cliquez sur le bouton Afficher l'historique situé en haut de la bibliothèque d'objets centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner Afficher l'historique.
La fenêtre Historique affiche plusieurs informations sur chaque révision de l'objet.
Colonne Description
Version
Numéro de révision de l'objet. Dès qu'un utilisateur enregistre l'objet, le progiciel en crée une nouvelle version.
Etiquette
Référentiel
Texte saisi par l'utilisateur pour décrire le statut de l'objet à un moment donné.
Informations sur le référentiel local à partir duquel le progiciel a enregistré cette version de l'objet et le nom d'utilisateur.
Date
Action
Commentaire
Date et heure de l'enregistrement de cette version de l'objet par le progiciel.
Type de modification effectuée par l'utilisateur sur l'objet. Cette table enregistre des actions telles que :
Rechargé : l'utilisateur a rechargé l'objet
Commentaires saisis par l'utilisateur lors de l'ajout d'un objet ou de son rechargement dans un référentiel central.
813 2012-11-22
Développement multi-utilisateurs
Rubriques associées
•
22.6.9.2 Obtenir une version précédente d'un objet
1.
Sélectionnez un objet.
2.
Cliquez sur le bouton Afficher l'historique situé en haut de la bibliothèque d'objets centrale.
3.
Cliquez sur la version de l'objet souhaitée.
4.
Cliquez sur le bouton Obtention de l'objet par version.
Remarque :
Lors de l'obtention d'une version précédente d'un objet, vous n'obtenez que l'objet lui-même, sans ses objets dépendants.
22.6.9.3 Obtenir un objet avec une étiquette donnée
1.
Sélectionnez un objet.
2.
Cliquez sur le bouton Afficher l'historique situé en haut de la bibliothèque d'objets centrale.
3.
Cliquez sur la version de l'objet avec l'étiquette particulière souhaitée.
4.
Cliquez sur le bouton Obtention par étiquette.
22.6.10 Suppression d'objets
Vous pouvez supprimer des objets du référentiel central ou d'un référentiel local. Pour supprimer un objet du référentiel central, cliquez avec le bouton droit de la souris sur l'objet dans la bibliothèque centrale d'objets puis sélectionnez Supprimer. Pour supprimer un objet du référentiel local, cliquez avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets puis sélectionnez Supprimer.
Lorsque vous supprimez un objet d'un référentiel local, vous ne le supprimez pas automatiquement du référentiel central actif. Vous pouvez en fait obtenir cet objet à partir du référentiel central pour l'insérer
à nouveau.
De même, lors de la suppression d'un objet d'un référentiel central, vous ne le supprimez pas automatiquement des référentiels locaux connectés. A moins que vous ne supprimiez l'objet du référentiel local, vous pouvez ajouter de nouveau cet objet au référentiel central.
814 2012-11-22
Développement multi-utilisateurs
Lorsque vous supprimez des objets du référentiel central, vous ne supprimez que l'objet sélectionné et l'ensemble de ses versions. Vous ne supprimez aucun objet dépendant.
22.7 Migration de jobs multi-utilisateurs
Vue d'ensemble de la migration de jobs multi-utilisateurs
La migration de jobs s'applique à SAP BusinessObjects Data Services sur plusieurs niveaux : au niveau des applications, de la gestion des référentiels et de la mise à niveau des produits. La migration d'application est beaucoup plus flexible au sein d'un environnement multi-utilisateurs, permettant de conserver non seulement plusieurs versions des objets lors du développement, mais aussi lors des phases de test et de production le cas échéant.
Rubriques associées
•
Gestion des phases des applications
•
Copie de contenu entre référentiels centraux
•
Migration du référentiel central
22.7.1 Gestion des phases des applications
Les applications traversent en général différentes phases, du développement à la production. Par exemple, une application peut traverser trois phases :
• Les développeurs créent une application.
• Les testeurs valident l'application.
• Les administrateurs exécutent l'application.
Un référentiel central unique peut prendre en charge l'application pendant l'ensemble des phases.
Utilisez l'étiquetage de job et les projets pour conserver les composants d'application de manière indépendante pour chaque phase. Par exemple, si le développeur souhaite rendre une certaine version d'une application prête pour la phase de test, il peut l'étiqueter “APPL_V1”. Les testeurs peuvent ensuite obtenir cette version précise de l'application à l'aide de l'étiquette puis procéder au test. Si le test réussit, un administrateur peut permettre à l'application de s'exécuter dans l'environnement de production. En outre, les configurations de banque de données et les emplacements du fichier permettent de configurer l'application afin qu'elle s'exécute dans chaque environnement local.
Dans certaines situations, plusieurs référentiels centraux peuvent être nécessaires pour la gestion des phases des applications. Si vous choisissez de prendre en charge plusieurs référentiels centraux, utilisez un référentiel local unique en tant qu'emplacement de transfert pour la transition.
Dans certaines situations, plusieurs référentiels centraux peuvent être nécessaires pour la gestion des phases des applications. En suivant l'exemple ci-dessus, une fois que les développeurs ont créé une
815 2012-11-22
Développement multi-utilisateurs version d'application prête pour la phase de test en l'étiquetant, un testeur peut l'obtenir à partir du référentiel central de développement, la tester puis la recharger dans un référentiel central de test.
Ce référentiel central de test contient toutes les versions testées au fil du temps, offrant aux testeurs la flexibilité de revenir à n'importe quelle version sans se baser sur l'environnement de développement.
Lorsqu'une version d'application réussit le test, un administrateur peut l'obtenir à partir du référentiel de test et la rendre disponible en production. Encore une fois, si vous devez conserver des versions précédentes d'une application déjà en production, vous devez créer un autre référentiel central.
Avec ce modèle, un développeur n'interfèrera jamais avec l'environnement de test, ni un testeur avec l'environnement de production, créant ainsi un processus de migration extrêmement sûr.
Notez que si vous choisissez de prendre en charge plusieurs référentiels centraux, il convient d'utiliser un référentiel local unique en tant qu'emplacement de transfert pour la transition de fichiers.
22.7.2 Copie de contenu entre référentiels centraux
Vous ne pouvez pas copier directement le contenu d'un référentiel central vers un autre référentiel central. Vous devez plutôt utiliser le référentiel local en tant que référentiel intermédiaire.
816 2012-11-22
Développement multi-utilisateurs
22.7.2.1 Copier le contenu d'un référentiel central vers un autre référentiel central
1.
Activez le référentiel central duquel vous souhaitez copier le contenu.
2.
Obtenez la dernière version de tous les objets dans ce référentiel central actif pour qu'ils existent dans votre référentiel local.
3.
Activez le référentiel central vers lequel vous souhaitez copier le contenu.
4.
Lors de la première copie de contenu, ajoutez les objets du référentiel local à ce référentiel central.
Toutefois, si vous devez copier à nouveau le contenu d'un référentiel central vers un autre (par exemple lors de la phase de test, une partie d'un job a été réaffectée à la phase de développement pour une reconception), le processus est légèrement plus complexe : a.
Extrayez tout d'abord certains objets sans remplacement du second référentiel central.
b.
A partir du référentiel local, obtenez la dernière version des objets du premier référentiel central
(par exemple lors du développement).
c.
Ensuite, au lieu de les ajouter, rechargez les objets mis à jour du référentiel local vers le second référentiel central (par exemple lors du test).
Rubriques associées
•
Activation d'un référentiel central
•
•
Ajout d'objets au référentiel central
•
•
22.7.3 Migration du référentiel central
Lors de la mise à niveau de la version de SAP BusinessObjects Data Services, vous devez migrer le référentiel central vers la nouvelle version. Il est recommandé de suivre les instructions suivantes lors de la migration d'un référentiel central vers une nouvelle version du progiciel.
1.
Sauvegardez toutes les tables de bases de données du référentiel central (et du référentiel local) et les données associées avant d'effectuer la mise à niveau.
2.
Conservez un référentiel central distinct pour chaque version de SAP BusinessObjects Data Services afin de conserver l'historique des objets.
Pour conserver la version actuelle et l'historique des objets dans le référentiel central, créez un nouveau référentiel central de la version actuelle du progiciel et copiez le contenu du référentiel
817 2012-11-22
Développement multi-utilisateurs central d'origine vers le nouveau référentiel. Ainsi, le second référentiel central agit en tant que sauvegarde de vos objets et des informations d'historique associées de la version précédente du progiciel.
Lorsque vous installez la nouvelle version du progiciel, mettez à jour le nouveau référentiel central vers la dernière version du progiciel.
3.
Coordonnez vos efforts pour mettre à niveau vos référentiels centraux et locaux de manière simultanée.
Différentes versions de vos référentiels central et local peuvent ne pas fonctionner simultanément.
Vous ne pouvez pas effectuer d'opération multi-utilisateurs entre des référentiels local et central de différentes versions du progiciel.
4.
Rechargez tous les objets (ou annulez les extractions si les objets n'ont pas été modifiés après leur extraction) avant de migrer les référentiels centraux.
Si vous ne pouvez pas mettre à niveau vos référentiels local et central simultanément, vous devez recharger tous les objets (ou annuler les extractions si les objets n'ont pas été modifiés lors de leur extraction) et en particulier les objets extraits vers un référentiel local que vous ne mettrez pas à niveau immédiatement. Après la mise à niveau du référentiel central vers la nouvelle version, vous ne pourrez pas recharger les objets du référentiel central de la version précédente du progiciel.
Rubriques associées
•
Copie de contenu entre référentiels centraux
818 2012-11-22
Index
Caractères numériques
3553
A abréviation étendue, correspondance
abréviations
accès v3, contrôle, défini 780
action du meilleur enregistrement,
activation
activer descriptions d'objets, niveau
système 52 descriptions, niveau objet 52
descriptions, paramétrage système
activer, à l'aide d'un champ 468 activer, à l'aide de sources 468
adaptateur SDK 101 adaptateurs, banques de données 101 adaptateurs, pré-packagés 101
Address Cleanse
Address Cleanse, Etats-Unis et global
Address Cleanse, fonctionnalités 549
Address Cleanse, préparation des
address not known
Address Not Known (ANKLink) 605
adresse
adresse japonaise, données 526
adresse, attribut
adresse, niveau
adresse, qualité
adresses de faux positifs
adresses positives, fausses
adresses, faux positif
adresses, nettoyage
affecter
Affichage des données lors de la conception
Afficher les cas d'emploi, option
sélectionner avant de supprimer
afficher les données définir la taille de l'échantillon, pour
AL_JobServerLoadBalanceDebug 331
analyser
années, interpréter deux chiffres 65
annotations
ajouter 55 redimensionner 55 supprimer 55
annotations (suite)
annuler extraction d'un objet et de ses
objets dépendants 806 extraction d'un objet unique 806
apostrophes, (') valeurs de la chaîne dans les
arborescence, PeopleSoft
assistant
associer
attribut de table, nom commercial 692
attributs
créer 52 définir des valeurs 52
aucune statistique, champ de sortie
aucune statistique, indicateur, DPV
aucune statistique, indicateurs
aucune statistique, indicateurs, DSF2
audit, étiquette
résolution des non valides 373
audit, flux de données affichage de la règle ayant échoué
374 affichage des résultats 374
permettre pour l'exécution du job
819 2012-11-22
Index audit, fonction activation dans flux de données
statistiques du nombre de lignes
statistiques du nombre de lignes
d'erreur 334, 364 types de données 364
audit, règle
exemples d'expressions
augment 593 répertoires DSF2 593
auto-certification, CASS
axes regrouper des pays à l'aide de l'Assistant de correspondance
B banque de données configuration des sources de
banque de données, services Web
banques de données
conditions pour les liens de base
connexion à la base de données,
connexion aux bases de données
et liens à la base de données 99
importation de métadonnées 85,
modifications de base de données,
banques de données (suite)
plusieurs configurations, fins 109
utilisation de plusieurs
banques de données en mémoire,
banques de données, cache persistant
banques de données, services web
afficher les objets importés 108
créer 106 définir 106 définition 106
importation de métadonnées 109
importer les opérations de services
base de données, liens conditions pour les banques de
défini 99 et banques de données 99
bases de données connexions à la banque de
modifications à, implémentation dans une banque de données
bases de données, mettre à jour 496
bibliothèque d'objets
bibliothèque d'objets centrale 793
bibliothèque d'objets locale 45
bibliothèque d'objets, appel d'objets
blocs Try/Catch
restriction de récupération
bloquer
boîte postale (Japon), adresse 532
boucles WHILE
considérations en matière de
C cache
répertoires LACSLink 581, 582,
cache de données, sélection via ERP
capture des données modifiées 725
cas d'utilisation de la CDM basée
configuration requise de la base de
définie en fonction de l'horodatage
exemples basés sur l'horodatage
présentation de la CDM basée sur
utiliser avec des ordinateurs
utiliser avec des sources basées
capture des données modifiées, basée
captures des données modifiées, sources basées sur l'horodatage
à la mise à jour seulement 758
modèles de flux de données et de
rapprocher les chevauchements
cas d'emploi, option Designer 645, 648
820 2012-11-22
Index
CASS (suite)
catch. Voir blocs Try/Catch 226
centraux, référentiels
ajout d'objets et de dépendants
802 ajout d'un objet unique 802
centroïde, niveau
certification CCAS
désactiver 571 certification CCAS, désactiver 571
certification, augmentations
certification, factures
certification, séquences
chaînes
commentaires dans 230 dans scripts 230
champ de sortie
champs
champs de sortie
champs de sortie (suite)
champs multiples, comparaison 483,
champs vides, correspondance 480
changement de siècle 65 chargement par lots, Oracle 65
chargement, données
charger données XML vers une colonne du
chemin
chemins d'accès aux répertoires 336
chevauchement entre sets de
cibles capture des données modifiées
fichiers de dépassement pour 703
classe d'adresse, champ généré 517
clés de décomposition, phonétiques
clés phonétiques 511 primaires et alternatives 511
code pays
ISO 541 pays pris en charge 541
codification, démographique 628
colonne, politique de retour 176
Analyser 359 analyser, attributs 359
colonne, recherche 176 colonne, sortie 176
colonnes, extraire et analyser des
combiner
deux sets de correspondance 507
commandes SQL de préchargement
utilisation de récupération 701
comparaisons d'enregistrements,
concat_date_time, fonction 158
configuration
paramètres de substitution 317
Configuration de l'impression,
configurations
Voir aussi configurations de
configurations système
configurations, système
connexions connecter les entrées et les sorties
connecter une source ou une transformation à une
connexion d'entrées et de sorties
connexion d'une source ou une transformation à une
connexions, flux de données 192, 200
contenu, type
contribution, valeur
conversion de types de données 71
conversion LCAS, indicateur 594
conversion, types de données 71
correction automatique, chargement
821 2012-11-22
Index
actions du meilleur enregistrement
amélioration de la performance 449
classer les enregistrements 457
comparaison de champs croisés
comparaison de champs multiples
comparaisons d'enregistrements
créer des candidats à mettre en
exemple de scoring pondéré 473
générer automatiquement des
initiales, acronymes, abréviations
méthode basée sur des règles 472
méthode du scoring pondéré 473
score de correspondance pondéré
sélection de l'indicateur de sortie
sélectionner des candidats de correspondance dans une base
sources de type Suppression 443 sources Normal 443 sources Special 443
correspondance phonétique 511 groupes de décomposition 511
correspondance, association 507 exemple 507
correspondance, classer les
correspondance, configurer utiliser l'Assistant de
correspondance, critères 430, 469
définir à l'aide de l'Assistant de
Correspondance, éditeur 204, 441
correspondance, hiérarchisation des
correspondance, méthode de
méthode basée sur des règles 472
méthode du scoring pondéré 473
définir à l'aide de l'Assistant de
correspondance, performance 448
correspondance, priorités
correspondance, récupération des
correspondance, script natif 508
correspondance, set
correspondance, stratégie
utiliser l'Assistant de
création banques de données pour bases
banques de données, adaptateur
clés de décomposition à l'aide de l'Assistant de correspondance
création (suite)
créer
clés de décomposition phonétiques
correspondance pour candidats
rapports de correspondance 513
créer@
critère de correspondance, ajouter 470
critère de correspondance, classement
470 critère de correspondance, classer 470
critères
critères, champs sélectionner à l'aide de l'Assistant
cycle de vie déplacer un package de nettoyage
package de nettoyage des
données 378 promotions, gestion 378
promouvoir un package de
D
Data Cleanse analyse des adresses
analyse des numéros de sécurité
analyser le nom et le titre 389
analyser les modèles définis par
analyser les noms et numéros de
standards de correspondance 393
DB2
utilisation avec SQL paramétré 78
822 2012-11-22
Index débogage
débogage, options
Affichage des données lors de la
Afficher les cas d'emploi 645, 648
débogueur interactif 664 débogueur 664
définir des filtres et points d'arrêt
gérer les filtres et points d'arrêt 674
options de la barre d'outils 657
utiliser le volet d'affichage des
décomposition, clé
décomposition, clés assistant de correspondance, créer
définir banques de données pour bases
banques de données, adaptateur
critères de correspondance à l'aide de l'Assistant de
niveaux de correspondance à l'aide de l'Assistant de
structures conditionnelles 223
définis par l'utilisateur, champs 194,
définition
degré de parallélisme, Global_DOP,
DELETE, code d'opération de type 163
delivery point validation performances du traitement
utilisation de mémoire
Delivery Point Validation
déplacer données dans les enregistrements
dépôt, indicateur 594 dépôts, nombre 594
descriptions
activer le paramétrage système 32
descriptions d'objets, désactiver 54 descriptions d'objets, masquer 54
Designer
référentiels centraux, afficher 64
surveiller l'exécution d'un job 62
Designer, interface utilisateur 27
destination, protection 495, 503
deuxième prénom, standards de
développement multi-utilisateurs
développement d'application 788
présentation 787 versions de référentiel 787
développement, multi-utilisateurs
configuration d'environnement 791
document type definition. Voir DTD
documentation automatique, rapport
domaine
domaines
données
capturer les modifications 707
problèmes avec, traitement 703 récupération 693, 703
valeurs manquantes ou erronées
données d'adresse, discrètes 518
données d'adresse, hybride multiligne
518 données d'adresse, multiligne 518
données d'adresse, réaffecter à des
données d'entrée
USA Regulatory Address Cleanse
données de sortie
USA Regulatory Address Cleanse
données de texte, traitement
données imbriquées, supprimer des
données numériques, correspondance
données XML chargement vers une colonne du
extraction d'une colonne dans le
données XML, extraire et analyser
définir une taille d'échantillon pour
options de la barre d'outils 657
utilisation avec boucles WHILE 226
données, charger
données, flux
création à partir de la bibliothèque
définition de valeurs de paramètre
données, récupération 466, 468
enregistrements de type
823 2012-11-22
Index
données, types
fausses adresses positives 569
récupération d'un code de
répertoires de mise en mémoire
stop processing alternative 566
DSF2 Augment, répertoires
DTD
format de message XML 244 importer des métadonnées 244
Voir aussi messages XML [DTD
DVD, programme d'installation 610
DVD, vérification
E
Early Warning System
Early Warning System, (EWS) 622
échange de données, temporisation,
éditeur
structures conditionnelles 221, 223
transformation, vue d'ensemble
transformations Qualité des
éditeur de banque de données, vue
Editeur de configuration de la
modification d'un format de fichier
spécifier plusieurs fichiers 139
eLOT (suite)
emplacement
Enhanced Line of Travel
enregistrement
enregistrement principal manipuler et supprimer des
enregistrement subordonné manipuler et supprimer des
enregistrement, priorité 457, 459
enregistrements enregistrer la priorité la plus élevée
en premier 487 principal et subordonné 487
enregistrements de destination,
enregistrements de sortie de
enregistrements de sortie,
enregistrements vides, filtrer 446 enregistrements vides, rediriger 446
enregistrer
enregistrements avec la priorité la
entrée, champs
entrées et sorties
entrées, sorties
erreur, groupes disponibles pour blocs Try/Catch
erreurs
débogage des définitions d'objet
interception et correction 226
824 2012-11-22
Index erreurs (suite)
non détectées par des blocs
espace de travail
étapes dans flux de données [étapes
dans jobs[étapes
dans workflows[étapes
étiquette
études, marché 628 et GeoCensus 628
exceptions
exemples de solutions 226 gestion de l'implémentation 226
récupération automatique et 694
Voir également blocs Try/Catch
exécuter des jobs
exécution
échec de la récupération 693, 703
exécution de la récupération pour
ordre dans flux de données 183
exécution de jobs
exécution, jobs
exportation
configuration de transformation 194
exporter des fichiers, échange de
extract_from_xml, fonction 259
extraction, options
commun 213 dictionnaires 213 langues 213
options de traitement 213 règles 213
extraire annulation d'un objet et de ses
objets dépendants 806 annulation d'un objet unique 806
données XML d'une colonne dans
objet et ses objets dépendants 804
objet et ses objets dépendants
objet et ses objets dépendants
sans remplacement 805 objet sans remplacement 805
F fausses adresses positives
fenêtre Audit, description 366
fenêtre de sortie, afficher 32
fenêtres
fichier de séquence de livraison 590
fichier de séquence de livraison de
seconde génération, (DSF2) 590
fichier de statistiques, distribution 591
fichier journal
fichier, formats noms de fichiers, variables dans
145, 312 variables dans nom 312
fichiers caractères multioctets dans un nom
fichiers (suite) lecture de plusieurs fichiers XML
installation de répertoires et de
phase de conception, spécification
fichiers de statistiques
fichiers journal
adresses de faux positifs 569, 579
fichiers journaux
fichiers XML
Fichiers XML comme cibles[cibles
fichiers, formats
Fichiers, statistiques
filtrage pour rechercher des valeurs
filtrer
options des champs d'entrée et de
recharger un objet avec 808, 812
flux de données ajout d'une transformation Qualité
ajout d'une transformation Query
ajouter une transformation à 192
conception pour récupération
création de liens entre les objets
dans jobs[flux de données
dans workflows [flux de données
825 2012-11-22
Index flux de données (suite)
redimensionner dans l'espace de
transmettre paramètres vers 164
flux de données dans jobs batch,
exécuter une seule fois 166, 183
flux de données intégré
points de vérification non visibles
flux de données, distribution 184
fonctions
contrasté avec transformations 189
fonctions d'erreur
format (Japon), LOPC 532 format régional, Hokkaido (Japon) 532
format, fichier transferts de fichiers à l'aide d'un
formats, fichiers
création à partir d'une table 136
exemple de fichiers, utilisation 133
formats de date pour champs 142
lecture de plusieurs fichiers 139
formats, fichiers (suite) threads de traitement en parallèle
fournisseurs de services
fournisseurs, niveaux
champs requis dans la transformation USA Regulatory
FROM, clause pour tables imbriquées
FTP, intervalle de tentative de
G générer
groupes de correspondance
Geocoder, transformation
gestion, territoire 628 et GeoCensus 628
Global Address Cleanse 521, 541
Global Address Cleanse, moteurs 514
Global Address Cleanse,
Global Suggestion Lists, transformation
groupe d'exceptions, numéros
groupe de correspondance, classer
groupe de décomposition, classer des
grouper statistiques 637, 638, 639, 641
groupes d'exceptions
groupes de correspondance, associés
groupes de division
groupes logiques
guillemets, simples (')
H hachage, fichiers
hiérarchies, métadonnées, importation
historique, conserver capture des données modifiées et
History_Preserving, transformation 763
I
icônes, afficher les noms 40, 47
ID
affecter 496 associer 496 supprimer 496
ID unique, (correspondance)
protection de destination 495, 503
ID uniques 496 avec l'option d'exécution 496 avec un fichier 496 avec une constante 496 recycler 496
ID, source de données 637, 638, 641
ID, unique
IDOC type de message réduit, ignorer
826 2012-11-22
Index
IDOC (suite) type de message réduit, ignorer un
if/then/else dans workflowsVoir
structures conditionnelles 221
Ignore Reduced Msg Type, SAP type de message réduit, ignorer un
imbriquées, tables
suppression de l'imbrication pour
supprimer l'imbrication de données
importation, métadonnées dans banque de données
[importation de métadonnées
importer variables pour le calcul des données lors de la conception
information, produit
pour application de certification 561
informations d'index secondaires pour
INSERT, code d'opération de type 163
installer fichier quotidien de suppression
NCOALink à l'aide de la GUI du
NCOALink à l'aide de la ligne de
Instruction CASS
instructions SELECT
équivalent dans le logiciel 198
intégré, flux de données créer en sélectionnant les objets
interface utilisateurDesigner 27
interruptions modifier les informations d'un
supprimer un récepteur
J
japonaises, données
largeur du texte de sortie 400
jeux de données, codes d'opération
job server
option LoadBalanceDebug 331 option LoadOSPolling 331
Job Server
par défaut, modification des options
Job Server par défaut, paramètre 60
jobs
activation du mode de récupération
débogage de l'exécution 328, 331
définition de valeurs de paramètre
dépannage des sources de fichier
exécution en mode de récupération
objets dans 69 organisation complexe 69
redimensionner dans l'espace de
validation 62 jobs, valider avant exécution 62
joignable depuis l'instruction SQL, case
journal de suivi, fichiers, description
journal PAF, informations clients 618
attribuer des noms de fichiers 620
journal, administrateur de listes 618
attribuer des noms de fichiers 620
journal, fichiers affichage durant l'exécution du job
journal, gestionnaire et agent
attribuer des noms de fichiers 620
attribuer des noms de fichiers 620
attribution de noms Mover ID 620
journaux, Web
prise en charge pour 156 vue d'ensemble 156
K
Key_Generation, transformation 759
L
LACSLink 523, 575, 576, 580, 581,
adresses avec faux positif 577
bloquer 578, 582 champs obligatoires 582
fausses adresses positives 576
mettre en cache les répertoires
récupération d'un code de
stop processing alternative 566
utilisation de la mémoire 581, 582,
LACSLInk
LACSLink, bloquer
LACSLink, installer les répertoires 581 lacsw.txt 581 lacsx.txt 581 lacsy.11 581
Large Organization Postal Code
lecteurs mappés 336 lecteurs réseau, chemins d'accès 336
827 2012-11-22
Index
lecture, donnéessources, voir 167
licencié
licencié USPS, client, informations
lignes créer des liens entre les objets des
lignes d'éléments uniques et données
imbriquées 254 lignes en double 254
Liste_Résultats, champ de sortie 425
listes
listes de propositions
Locatable Address Conversion System
longueur des clés
longueur, enregistrement, champ 154
lookup, fonction
utiliser pour générer des clés 759
M manipuler données dans les enregistrements
mappage de colonnes, calculer 684
marketing, ciblé 628 et GeoCensus 628
Match, transformation
médias, planification 628 et GeoCensus 628
meilleur enregistrement 487, 628
protection de destination 495, 503
meilleur enregistrement, action 495
champs d'entrée et de sortie 194
Meilleures pratiques d'entrée, onglet
Meilleures pratiques de sortie, onglet
Option Créer un ID de ligne 95
option mettre à jour le schéma 94
mémoire, utilisation 573, 589, 595
menus
messages
Voir également jobs en temps réel
messages XML
métadonnées
affichage de tables externes 83, 85
affichage des tables importées 83
échanger des fichiers avec des
fonctions, informations importées
modifications de, détermination 84
tables, information importée 86
métadonnées BusinessObjects,
exporter un fichier 688 importer un fichier 688
métadonnées, importer
métadonnées, importer (suite) utiliser l'échange de métadonnées
méthode, basée sur des règles 472
mettre à jour
mettre à l'échelle, espace de travail 44
tables de comparaison 186 tables de recherche 186 tables sources 186
mise en mémoire cache
mode non certifié
modèle
modèle, configuration
modèles
modélisation, prédictive 628 et GeoCensus 628
modifier
ID unique dans groupes de division
Modifier les options, bouton 200, 202
moniteur, ouvrir lors de l'exécution d'un
code postal 527 code postal japonais 527 format d'adresse 527 préfecture 527
move update. Voir également Mover
mover ID fichier quotidien de suppression
multi-utilisateurs
828 2012-11-22
Index multi-utilisateurs (suite) utilisation du renommage d'alias et
multi-utilisateurs, développement
N
navigation banque de données d'adaptateur
100 enregistrements uniques 608,
configuration de jobs de
configuration requise 610, 616
exigences de sécurité 608, 609
fichier quotidien de suppression
informations requises sur le niveau
répertoires et fichiers 609, 610
NCOALink, attribuer des noms de fichiers
USPS exigences relatives à la
NCOALink, fichier quotidien de
nettoyage des données, package
nettoyage, spécifique au domaine 395
niveaux de correspondance, multiples
NMS, application, relation avec l'agent
No Stats, table
nom de fichier
nom, standards de correspondance
deuxième prénom 446 prénom 446
nombre de comparaisons, réduire 448
NORMAL, code d'opération de type
notification, audit
O
objets
ajout au référentiel central 802
attributs, créer 52 attributs, définition 52 attributs, supprimer 52
coller 55 copier 50, 55 copier des objets 55
objets (suite)
relations 28 relations entre 28
SAP BusinessObjects Data
tri dans bibliothèque d'objets 83,
objets à usage unique
objets de conventions d'appellation 71
objets réutilisables
supprimer de la bibliothèque
objets réutilisables, appeler 27 objets réutilisables, sauvegarder 27
objets, bibliothèque
créer un objet réutilisable dans 49
objets disponibles dans 47 onglets dans 47
objets, supprimer les liens 43
obtenir
objet et ses objets dépendants 812
version précédente d'un objet 814
ODBC configuration des sources de
829 2012-11-22
Index
opération multi-utilisateurs sur les configurations de
opérations poussées vers base de données restrictions de procédures stockées
options
Oracle chargement par lots, convertir les
dépannage des flux de données
utiliser la capture des données
ordinateurs centraux
utiliser la capture des données
P package, importation de procédure
palette d'outils
définir flux de données avec 166
paramètres dans flux de données [paramètres
définition de valeurs transférées
transmettre automatiquement 62
transmettre vers flux de données
parcourir
regrouper dans des axes à l'aide de l'Assistant de
sélectionner à l'aide de l'Assistant
PeopleSoft, importation de
performance amélioration, avec liens de base
performance de correspondance,
performances capture des données modifiées et
transformation USA Regulatory
personnalisées, fonctions
phase de conception, spécification de
plats, fichiers
POI, recherche textuelle 400, 421
point de référence, recherche textuelle
point de vérification
points-virgules (;)
prénom, standards de correspondance
préparer pour l'Assistant correspondance
présentation
traitement des données de texte
présentation (suite)
Transformation Entity Extraction
Présentation
Présentation de la transformation
prétraitement de la correspondance,
procédures stockées, restriction sur
Profileur de données 337, 358, 359
profileur de données, données
projets
propositions, listes
propriétés
propriétés, colonnes, multiples 138
Q qualité des données
utiliser l'affichage des données 356
Qualité des données, transformations
ajout à un flux de données 200
Query, éditeur
Query, transformation
ajout à un flux de données 197
comparé à des instructions SQL
schéma de sortie, remplissage
Query, transformations dans jobs en temps réel[transformations Query
830 2012-11-22
Index
R rapport
générer des statistiques source
Rapport de synthèse (3553)
rapports de correspondance
RDI dans
RDI, traitement
récepteur d'interruption, modifier les
récepteur d'interruption, supprimer un
recharger
objet et ses objets dépendants 808
récupération automatique
chemin d'exécution au cours de
correction des défaillances 696 démarrer 696
exécution unique de workflows
indication de workflows en tant
utilisation de l'option de chargement de correction
utilisation pour commandes SQL
de préchargement 699, 701 variables pour 701
récupération automatique pour jobs batch exécution unique de flux de
récupération d'un code de déblocage
USPS
récupération du code de déblocage
récupération manuelle
création de workflows pour 702,
tables de statuts, utilisation pour
utilisation pour structures
récupération, automatique
flux de données dans jobs batch,
récupérer des données utiles dans les
enregistrements concordants 487
récursivités dans workflows 218
référentiel bibliothèque d'objets, relation avec
sauvegarder les définitions d'objets
référentiels centraux, afficher 64
règle, validation
règles de gestion
regrouper pays dans des axes à l'aide de l'Assistant de correspondance
regrouper les statistiques par source
Réinitialiser les utilisateurs, fenêtre 26
répertoires (suite)
répertoires statiques
répertoires, DPV
réplication
configuration de transformation 194
répliquer
modèles de format de fichier 135
requêtes, éditeur arborescence de schéma, limiter
residential delivery indicator (RDI) 625
résultats, intermédiairesjeux de
Résumé de job
S
SAP type de message réduit, ignorer
SAP BusinessObjects Data Services
schéma de sortie, remplissage
schéma, propagation, modification 86,
schémas
éléments d'arborescence dans
modifications des données
score de contribution, total 473
score de correspondance, pondéré
scores
exemple de similarité 471 similarité 471
831 2012-11-22
Index scoring
score de correspondance pondéré
scoring de pénalité, système 459
scoring, contribution 473 scoring, pondéré 473
scripts
éléments de 230 exemples 230 syntaxe 230
se connecter
SELECT, instructions pour tables imbriquées [tables imbriquées
sélectionner champs de critères à l'aide de l'Assistant de correspondance
pays à l'aide de l'Assistant de
stratégie de correspondance à l'aide de l'Assistant de
serveur d'accès définition pour le reporting des
Serveur d'accès
serveur, profileur de données
serveurs, profilage de données,
signes dollar, ($)
variables dans les paramètres 296
similarité, score 471 exemple 471
simple network management protocol
SNMP activer pour un Job Server sous
SNMP (suite) activer pour un Job Server sous
SNMP, agent
configuration et architecture 770
événements et commandes NMS
jobs en temps réel et nombre de
relation avec l'application NMS 770
relation avec le Job Server 770
statuts définis des jobs et Job
SNMP, paramètres de l'agent 777
contrôle d'accès, v1/v2c, défini
contrôle d'accès, v3, défini 777 interruptions, définies 777
Job Servers définis pour le SNMP
777, 778 variables système définies 778
sortie
sorties et entrées
sorties, entrées
source de données, ID 639 source physique 639
sources
sources d'entrée, générer
sources de données
configuration ODBC sur UNIX 81
sources, entrée générer des statistiques source
441 source d'entrée logique 441 source d'entrée physique 441
sous-districts (Japon), numérotés 532 sous-districts numérotés (Japon) 532
spécifications, déclaratives 183
standards de correspondance 446
standards de correspondance, champs
statistiques par liste 637, 638, 641
statistiques, nombre, lignes correctes
statistiques, regrouper par source de
stop processing alternative 569
Stop Processing Alternative
stratégie
sélectionner à l'aide de l'Assistant
stratégies du meilleur enregistrement,
stratégies personnalisées du meilleur
enregistrement, code Python 489
structures conditionnelles
utilisation pour récupération
suivi, journaux
ouvrir à l'exécution du job 329
supprimer
objets réutilisables des
supprimer imbrication de données imbriquées dans des tables
Supprimer, commande
menu Edition 31 menu Projet 31
832 2012-11-22
Index
supprimer, fichier quotidien 560, 609,
symboles dollar ($)
syntaxe
valeurs dans les paramètres 304
système ERP baisse des demandes directes à
sélection via cache de données
système, configurations
système, variables. Voir variables
systèmes hérités, connexion à 74
T table
table CDM
afficher 719 table CDM importée, afficher 719 table CDM, importée 719
Table_Comparison, transformation utiliser pour la capture des
tables ajouter aux flux de données
chargement dans une transaction
domaines, importer
externe, affichage des
externe, afficher les métadonnées
importation de métadonnées 85,
importé, affichage des
mise en cache pour comparaisons
mise en cache pour jointures
tables (suite) mise en cache pour recherches
schéma, détermination des
tables externes, métadonnées,
tables imbriquées jobs en temps réel[tables imbriquées
tables imbriquées,
tables, modèle
temporisation, adaptateur, démarrage
temps réel, jobs
Exigence pour serveur d'accès 267
sélection de données mises en
traitement d'une réponse de
DSF2 595 pseudo séquencement 595
traitement des données de texte 209
Traitement des données de texte,
traitement parallèle
traitement, post-correspondance sélection de l'indicateur de sortie
traitements du moteur, nombre
traiter
options de transfert personnalisé
transformation afficher les données d'entrée et de
Transformation Entity Extraction
transformation Match, configuration
transformation USA Regulatory
Transformation USA Regulatory
Address Cleanse
transformation, configuration 194
transformations
ajout à un flux de données 192
ajout de transformations de qualité des données à un flux de
arborescence de schéma, limiter
et données imbriquées
[transformations
jobs en temps réel [transformations
listes de propositions globales 515
USA Regulatory Address Cleanse
transformations de données en jobs
transformations, correspondance 439
Transformations, flux de données de
833 2012-11-22
Index trier
tries Voir blocs Try/Catch 226
type de données, définitions 641
types d'enregistrement, source
U
créer ou mettre à jour un univers
mappages de métadonnées entre
un référentiel et un univers 690
mappages entre des types de données de référentiel et
UPDATE, code d'opération de type
USA Regulatory Address Cleanse
USA Regulatory Address Cleanse,
Early Warning System (EWS) 622
USPS
USPS 3553
USPS Form 3553
utilisateur final
utilisateurs, réinitialiser 26
utilisation de la mémoire
utilisation de mémoire, LACSLink 585
utiliser la capture des données
V
vacant, indicateur 575 attribut d'adresse DPV 575
valeurs manquantes dans tables de
valeurs manquantes dans tables de
Validation, transformation 337, 359
variable définir pour le calcul des données
dans noms de formats fichier[noms de
noms de fichiers, utiliser dans 145
paramètres, transmettre
règles globales pour 310 règles locales pour 310
Utilisation de la fenêtre Variables
variables en tant que noms de fichier
pour fonction lookup_ext 312 pour sources et cibles 312
variables globales
ventes, directes 628 et GeoCensus 628
verrouillage, DPV 567 utilisateurs finaux 567
verrouiller
versions
versions (suite)
vides, convertir en valeur nulle pour
vitesse, traitement
vrai/faux dans workflowsstructures
vues, importation de métadonnées 85,
W
workflows
conception pour récupération
création de liens entre les objets
création pour récupération
définition de valeurs de paramètre
exécution unique 218, 221, 695
récupération en temps qu'unité 695
redimensionner dans l'espace de
réexécuter tout le workflow 695
structures conditionnelles dans 221
variables, transmettre
X
XML, éditeur de source
spécifier plusieurs fichiers 242
834 2012-11-22
XML, fichiers
lecture de plusieurs fichiers 242
Z
Z4Change 632, 633 activation 633
Index
Z4Change (suite)
zone statistique métropolitaine, (MSA)
835 2012-11-22
Index
836 2012-11-22

Öffentlicher Link aktualisiert
Der öffentliche Link zu Ihrem Chat wurde aktualisiert.