SAP Data Services
Version du document : 4.2 Support Package 6 (14.2.6.0) – 2015-12-11
PUBLIC
Guide de Designer
Contenu
2
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Contenu
Guide de Designer
Contenu
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
3
Suppression d'une banque de données de services Web et des objets de métadonnées associés
Exploration de métadonnées WSDL et WADL par une banque de données de services Web. . . . . . . .
4
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Contenu
Guide de Designer
Contenu
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
5
6
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Contenu
Guide de Designer
Contenu
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
7
8
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Contenu
Association de configurations des paramètres de substitution avec des configurations système
Guide de Designer
Contenu
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
9
10
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Contenu
Cycle de vie du package de nettoyage des données : développement, déploiement et gestion. . . . .
Guide de Designer
Contenu
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
11
12
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Contenu
Guide de Designer
Contenu
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
13
14
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Contenu
Guide de Designer
Contenu
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
15
1 Introduction
1.1 Bienvenue dans SAP Data Services
1.1.1 Bienvenue
SAP Data Services propose une solution d'entreprise unique pour l'intégration de données, la qualité des données, le profilage des données et le traitement des données de texte qui vous permet d'intégrer, de transformer, d'améliorer et de fournir des données sécurisées aux processus de gestion critiques. La solution propose une interface utilisateur de développement, un référentiel des métadonnées, une couche de connectivité de données, un environnement d'exécution et une console de gestion, permettant aux entreprises du domaine de l'informatique de réduire leur coût total en matière de propriété et d'accélérer la valeur temps. SAP Data Services garantit aux entreprises du secteur informatique une meilleure efficacité avec une seule solution permettant d'améliorer la qualité des données et d'accéder à des sources et des applications hétérogènes.
1.1.2 Ensemble de documentation pour SAP Data Services
Il est conseillé de se familiariser avec les différents éléments de la documentation relative au produit SAP Data
Services.
Vous trouverez la documentation Data Services la plus récente sur le SAP Help Portal .
Table 1 :
Document
Guide du SDK de l'adapta teur
Guide d'administration
Problèmes client résolus
Eléments fournis par ce document
Informations relatives à l'installation, à la configuration et à l'exécution du SDK de l'adaptateur
Data Services
Informations relatives aux tâches administratives telles que la surveillance, la gestion du cycle de vie, la sécurité, etc.
Informations relatives aux problèmes client résolus dans cette version.
Remarque
Dans certaines versions, ces informations sont affichées dans les notes de version.
Guide Designer
Organigramme de la docu mentation
Guide d'installation pour
UNIX
Informations relatives à la façon d'utiliser SAP Data Services Designer.
Informations relatives aux ouvrages, aux langues et aux emplacements de SAP Data Services.
Informations relatives aux procédures d'installation de SAP Data Services dans un environne ment UNIX.
16
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Introduction
Document
Guide d'installation pour
Windows
Guide d'intégration
Guide de la Console de ges tion
Guide principal
Eléments fournis par ce document
Informations relatives aux procédures d'installation de SAP Data Services dans un environne ment Windows.
Informations pour les développeurs tiers relatives à l'accès à la fonctionnalité SAP Data
Services à l'aide des services Web et des API.
Informations relatives à l'utilisation de l'Administrateur de Data Services et des rapports de métadonnées de Data Services.
Informations relatives à l'application, ses composantes et scénarios, pour la planification et la conception de votre infrastructure système. Des informations relatives à SAP Information Ste ward sont également disponibles dans ce guide.
Informations relatives à la façon d'améliorer la performance de SAP Data Services.
Guide d'optimisation de la performance
Guide de référence
Notes de version
Manuels techniques
Support de référence détaillé pour Data Services Designer.
Informations importantes requises avant l'installation et le déploiement de cette version de SAP
Data Services.
PDF «général» rassemblant les principaux ouvrages deData Services permettant d'effectuer des recherches :
● Guide d'administration
● Guide de Designer
● Guide de référence
● Guide de la Console de gestion
● Guide d'optimisation de la performance
● Guide d'intégration
● Supplément pour adaptateurs
● Supplément pour Google BigQuery
● Supplément pour J.D. Edwards
● Supplément pour applications Oracle
● Supplément pour PeopleSoft
● Supplément pour SAP
● Supplément pour Siebel
● Guide de Workbench
Guide de personnalisation de l'extraction pour le traite ment des données de texte
Informations relatives à la constitution de dictionnaires et de règles d'extraction pour créer vos propres modèles d'extraction à utiliser avec les transformations de traitement des données de texte.
Guide de référence des lan gues de traitement des don nées de texte
Didacticiel
Guide de mise à niveau
Informations relatives à l'analyse linguistique et aux fonctionnalités de traitement d'extraction que fournit la composante de traitement des données de texte, ainsi qu'une section de réfé rence pour chaque langue prise en charge.
Introduction pas à pas à l'utilisation de Data Services.
Nouveautés
Informations permettant d'effectuer une mise à niveau à partir des versions précédentes de
Data Services et modifications de comportement de produit spécifiques à la version, des ver sions antérieures de Data Services à la dernière version.
Met en évidence les nouvelles fonctions clés de cette version de SAP Data Services. Ce docu ment n'est pas mis à jour pour les versions Support Package ou patch.
Guide de Designer
Introduction
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
17
Document
Guide de Workbench
Eléments fournis par ce document
Fournit aux utilisateurs des informations sur la façon d'utiliser le Workbench pour la migration de données et des informations sur le schéma de base de données entre différents systèmes de base de données.
Différents guides complémentaires pourront en outre vous être utiles.
Table 2 :
Document
Supplément pour adaptateurs
Eléments fournis par ce document
Informations relatives à l'installation, à la configuration et à l'utilisation des adaptateurs
Data Services.
Supplément pour Google BigQuery
Informations relatives aux interfaces entre Data Services et Google BigQuery.
Supplément pour J.D. Edwards
Informations relatives aux interfaces entre Data Services, J.D. Edwards World et J.D. Ed wards OneWorld.
Informations relatives à l'interface entre Data Services et les applications Oracle.
Supplément pour Oracle Applica tions
Supplément pour PeopleSoft
Supplément pour SAP
Supplément pour Siebel
Informations relatives aux interfaces entre Data Services et PeopleSoft.
Informations relatives aux interfaces entre Data Services, les applications SAP et SAP
NetWeaver BW.
Informations relatives à l'interface entre Data Services et Siebel.
Des manuels d'information sur les services de plateforme d'informations SAP BusinessObjects sont également inclus.
Table 3 :
Document
Guide de l'administrateur des services de plateforme d'infor mations
Guide d'installation des services de plateforme d'informations pour UNIX
Guide d'installation des services de plateforme d'informations pour Windows
Eléments fournis par ce document
Informations destinées aux administrateurs responsables de la configuration et de la gestion d'une installation de services de plateforme d'informations.
Procédures d'installation des services de plateforme d'informations SAP BusinessObjects sur un environnement
UNIX.
Procédures d'installation des services de plateforme d'informations SAP BusinessObjects sur un environnement
Windows.
1.1.3 Accès à la documentation à partir du Web
Vous pouvez accéder à l'ensemble de la documentation de SAP Data Services à partir du site Support SAP destiné aux utilisateurs professionnels.
Pour ce faire, accédez à http://help.sap.com/bods .
Vous pouvez afficher les PDF en ligne ou les sauvegarder sur votre ordinateur.
18
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Introduction
1.1.4 Ressources d'informations SAP
Une liste de liens de ressources d'informations.
Grâce à son support client et à ses services de formation et de conseil, notre réseau mondial de spécialistes de la technologie SAP permet à votre entreprise d'optimiser sa gestion de l'information.
Aperçu des adresses utiles :
Table 4 :
Adresse
Services Support client, Conseil et Formation http://service.sap.com/
Documentation produit http://help.sap.com/bods/
Contenu
Informations relatives aux programmes de support pour l'utili sateur professionnel SAP, liens vers des articles techniques, téléchargements et discussions en ligne.
Documentation produit SAP.
Tutoriel SAP Data Services http://help.sap.com/businessobject/product_guides/ sbods42/en/ds_42_tutorial_en.pdf
Community Network SAP Data Services http://scn.sap.com/community/data-services
Page Wiki EIM sur le SCN http://wiki.sdn.sap.com/wiki/display/EIM/EIM+Home
Plateformes prises en charge (Product Availability Matrix) https://service.sap.com/PAM
Modèles http://scn.sap.com/docs/DOC-8820
Introduction de fonctionnalités, de concepts et de techniques de base pour extraire, transformer et charger des données batch depuis des sources de base de données relationnelle et de fichier plat pour l'utilisation dans l'entrepôt de données.
Trouvez des informations en ligne en temps opportun sur SAP
Data Services, notamment des forums, des astuces, des télé chargements supplémentaires, des échantillons et bien plus.
Tout le contenu est créé par la communauté pour la commu nauté. N'hésitez donc pas à participer et à nous contacter si vous avez un élément à soumettre.
Page qui permet aux utilisateurs de contribuer au contenu, de publier des commentaires et d'organiser les informations de manière hiérarchique de façon à les trouver plus facilement.
Informations relatives aux plateformes prises en charge pour
SAP Data Services, avec fonction de recherche pour trouver rapidement les informations associées à votre plateforme.
Modèles à télécharger et à modifier en fonction de vos be soins. Chaque modèle contient le projet, SAP Data Services requis, les jobs, les flux de données, les formats de fichier, les exemples de données, les tables de modèle et les fonctions personnalisées pour exécuter les flux de données dans votre environnement avec seulement quelques modifications.
1.2 Présentation de ce guide
Bienvenue dans le Guide Designer. Data Services Designer fournit un environnement de développement d'interface utilisateur graphique dans lequel vous définissez une logique d'application de données pour extraire, transformer et charger des données de bases de données et d'applications dans un entrepôt de données utilisé pour les requêtes analytiques et à la demande. Vous pouvez également utiliser Designer pour définir des chemins
Guide de Designer
Introduction
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
19
logiques pour traiter des requêtes basées sur des messages et des transactions d'applications Web, front-office et back-office.
1.2.1 A propos de ce guide
Le guide contient deux types d'informations :
● Des informations conceptuelles qui aident à comprendre Data Services Designer et son fonctionnement
● Des informations procédurales qui expliquent étape par étape comment accomplir une tâche
Vous trouverez ce guide très utile :
● En étudiant le produit
● En accomplissant les tâches de la phase de conception et de tests précoces de vos projets de déplacement de données.
● Comme source générale d'information durant toutes les phases de vos projets
1.2.2 Qui doit lire ce guide ?
Cette documentation ainsi que celles d'autres produits Data Services repose sur les principes suivants :
● Vous êtes développeur d'applications, consultant ou administrateur de base de données travaillant sur l'extraction, l'entreposage, l'intégration ou la qualité des données.
● Vous comprenez les concepts de vos systèmes de sources de données, de RDBMS, de Business Intelligence et de messagerie.
● Vous comprenez les besoins en matière de données de votre organisation.
● Vous connaissez bien SQL (Structured Query Language).
● Si vous désirez utiliser ce produit pour concevoir un traitement en temps réel, vous devez bien connaître :
○ les formats de schéma DTD et XML pour les fichiers XML ;
○ les services Web de publication (protocoles WSDL, REST, HTTP, HTTPS et SOAP, etc.).
● Vous connaissez bien les environnements d'installation de Data Services : Microsoft Windows ou UNIX.
20
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Introduction
2 Connexion au Designer
Pour vous connecter au progiciel, vous devez avoir accès à un référentiel local. En règle générale, vous créez un référentiel lors de l'installation. Vous pouvez néanmoins créer un référentiel à tout moment à l'aide du
Gestionnaire de référentiel et configurer les droits d'accès dans le CMS (Central Management Server).
Par ailleurs, chaque référentiel doit être associé à au moins un Job Server pour que vous puissiez exécuter des jobs liés aux référentiels dans Designer. Vous définissez habituellement un Job Server que vous associez à un référentiel lors de l'installation. En revanche, vous pouvez définir ou modifier des Job Server ou les liens entre les référentiels et les Job Server à tout moment à l'aide du Gestionnaire de serveurs.
Lorsque vous vous connectez à Designer, vous devez vous connecter en tant qu'utilisateur défini dans le CMS
(Central Management Server).
1. Saisissez vos références d'utilisateur pour le CMS.
Table 5 :
Option Description
Système
Spécifiez le nom de serveur et, facultativement, le port du
CMS.
Nom d'utilisateur
Mot de passe
Spécifiez le nom d'utilisateur à utiliser pour la connexion au
CMS.
Spécifiez le mot de passe à utiliser pour la connexion au
CMS.
Authentification
Spécifiez le type d'authentification utilisé par le CMS.
2. Cliquez sur
Se connecter
.
Le logiciel tente de se connecter au CMS à l'aide des informations spécifiées. Lorsque vous êtes connecté, la liste des référentiels locaux disponibles s'affiche.
3. Sélectionnez le référentiel que vous souhaitez utiliser.
4. Pour vous connecter à l'aide du référentiel sélectionné, cliquez sur
OK
.
Lorsque vous cliquez sur
OK
, vous devez saisir le mot de passe pour le référentiel Data Services. Ce comportement par défaut peut être modifié en ajoutant les droits nécessaires au référentiel dans le CMC.
Pour en savoir plus, voir le Guide d'administration.
Pour changer les référentiels dans Designer, faites un clic droit dans la bibliothèque d'objets locale et sélectionnez
Changer de bibliothèque d'objets
.
Guide de Designer
Connexion au Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
21
2.1 Restrictions de version
Les restrictions de version doivent être prises en compte lors de l'utilisateur de Designer.
La version du référentiel doit être associée à la même version principale que Designer et être inférieure ou égale à la version de Designer.
Lors de la connexion, le logiciel vous alerte en cas de non-concordance entre la version de Designer et celle de votre référentiel.
Une fois connecté, vous pouvez afficher la version du progiciel et la version du référentiel en sélectionnant
Aide
A propos de Data Services
.
Certaines fonctions de la version actuelle de Designer peuvent ne pas être prises en charge si vous n'êtes pas connecté à la dernière version du référentiel.
2.2 Réinitialisation des utilisateurs
Si plusieurs personnes essayent de se connecter à un même référentiel, il est possible que vous deviez réinitialiser ou déconnecter un utilisateur pour continuer.
La fenêtre Réinitialiser les utilisateurs affiche les utilisateurs et l'heure à laquelle ils se sont connectés au référentiel.
Cette fenêtre vous offre plusieurs possibilités. Vous pouvez :
●
Réinitialiser les utilisateurs
dans le référentiel et définir votre propre utilisateur comme l'utilisateur connecté actuellement.
●
Continuer
et vous connecter au système indépendamment du fait que d'autres utilisateurs soient connectés ou non.
●
Quitter
pour interrompre la tentative de connexion et fermer la session.
Remarque
Utilisez
Réinitialiser les utilisateurs
ou
Continuer
uniquement si vous êtes sûr d'être le seul utilisateur connecté au référentiel. Les modifications a posteriori risquent d'endommager le référentiel.
22
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Connexion au Designer
3 Interface utilisateur du Designer
Cette section présente l'interface graphique utilisateur de Designer.
3.1 Objets
Toutes les "entités" que vous définissez, modifiez ou utilisez dans Designer sont appelées objets.
La bibliothèque d'objets locale affiche des objets tels que les métadonnées source et cible, les fonctions du système, les projets et les jobs.
De nature hiérarchique, les objets sont constitués :
● D'options qui en définissent le fonctionnement. Dans une banque de données, le nom de la base de données à laquelle vous vous connectez est une option de l'objet banque de données, par exemple.
● De propriétés donnant des informations sur l'objet. Le nom de l'objet et sa date de création constituent, par exemple, des propriétés. Les propriétés décrivent un objet mais n'affectent pas son fonctionnement.
Le progiciel comprend deux types d'objets :
● Réutilisable
● Usage unique
Le type d'objet a une incidence sur la façon dont vous définissez et récupérez l'objet.
3.1.1 Objets réutilisables
Vous pouvez réutiliser et répliquer la plupart des objets définis dans le progiciel.
Une fois que vous avez défini et enregistré un objet réutilisable, le progiciel sauvegarde sa définition dans le référentiel local. Vous pouvez ensuite réutiliser la définition aussi souvent que vous le voulez en créant des appels.
Les objets réutilisables sont accessibles par le biais de la bibliothèque d'objets locale.
Un objet réutilisable possède une définition unique ; tous les appels de l'objet font référence à cette définition. Si vous modifiez la définition d'objet à un endroit, vous modifiez toutes les autres occurrences de l'objet.
Un flux de données est, par exemple, un objet réutilisable. Plusieurs jobs, comme un job de chargement hebdomadaire et un job de chargement quotidien, peuvent appeler le même flux de données. Si le flux de données change, les deux jobs utilisent la nouvelle version du flux de données.
La bibliothèque d'objets contient les définitions des objets. Utiliser la fonction Glisser-déplacer sur un objet de la bibliothèque revient à créer une référence (ou un appel) pour la définition d'objet existante.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
23
Informations associées
Utilisation de nouveaux objets réutilisables [page 41]
3.1.2 Objets à usage unique
Les objets à usage unique apparaissent uniquement en tant que composants d'autres objets et fonctionnent uniquement dans le contexte dans lequel ils ont été créés.
Vous souhaitez définir un objet à usage unique dans le contexte d'un seul job ou flux de données (par exemple, les scripts et certaines définitions de transformations).
3.1.3 Hiérarchie d'objets
Les relations entre objets sont de nature hiérarchique.
La figure suivante illustre les relations entre les principaux types d'objets :
24
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
3.2 Barre de menus
Cette section propose une brève description des menus de Designer.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
25
3.2.1 Menu Projet
Effectuez des tâches Windows standard ainsi que des tâches spécifiques au logiciel.
Table 6 :
Option
Nouveau
Ouvrir
Fermer
Supprimer
Enregistrer
Tout enregistrer
Imprimer
Configuration de l'impression
Quitter
Description
Définir un projet, un job batch, un job en temps réel, un work flow, un flux de données, une transformation, une banque de données, un format de fichier, un fichier DTD, un schéma XML ou une fonction personnalisée.
Ouvrir un projet existant.
Fermer le projet actif.
Supprimer l'objet sélectionné.
Enregistrer l'objet ouvert dans l'espace de travail.
Enregistrer toutes les modifications des objets pendant la ses sion de Designer en cours.
Imprimer l'espace de travail actif.
Configurer les informations relatives à l'imprimante par dé faut.
Quitter le Designer.
3.2.2 Menu Edition
Exécutez des commandes Windows standard, telles que Annuler, Couper, Coller, etc.
Table 7 :
Option
Annuler
Couper
Copier
Coller
Supprimer
Récupérer les derniers éléments supprimés
Tout sélectionner
Tout effacer
Description
Annuler la dernière opération.
Couper les objets ou le texte sélectionné(s) et le(s) placer dans le Presse-papiers.
Copier les objets ou le texte sélectionné(s) dans le Presse-pa piers.
Coller le contenu du Presse-papiers dans la zone de texte ou l'espace de travail actif.
Supprimer les objets sélectionnés.
Restaurer les objets supprimés dans l'espace de travail dont ils ont été supprimés. Seuls les derniers objets supprimés sont récupérés.
Sélectionner tous les objets dans l'espace de travail actif.
Effacer tous les objets de l'espace de travail actif (et non an nuler).
26
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
3.2.3 Menu Affichage
Utilisez le menu d'affichage dans le Designer pour afficher ou supprimer les barres d'outils et actualiser ou activer du contenu, tel que les descriptions d'objets.
Remarque
Une coche indique que l'option est active.
Table 8 :
Option
Barre d'outils
Barre d'état
Palette
Descriptions activées
Actualiser
Description
Afficher ou supprimer la barre d'outils dans la fenêtre
Designer.
Afficher ou supprimer la barre d'état dans la fenêtre Designer.
Afficher ou supprimer l'outil flottant palette.
Afficher les descriptions des objets pour lesquels les descrip tions sont activées.
Régénérer l'affichage. Cette commande permet de s'assurer que le contenu de l'espace de travail correspond aux informa tions les plus récentes du référentiel.
3.2.4 Menu Outils
Utilisez le menu Outils pour ouvrir ou fermer diverses fenêtres ou connexions, afficher des messages de statut et importer ou exporter des objets ou des métadonnées.
Remarque
Une icône avec une couleur de fond différente indique que l'option est active.
Table 9 :
Option
Bibliothèque d'objets
Zone de projet
Variables
Sortie
Moniteur du serveur du profileur
Description
Ouvrir ou fermer la fenêtre de la bibliothèque d'objets.
Afficher ou supprimer la zone de projet dans la fenêtre
Designer.
Ouvrir ou fermer la fenêtre Variables et paramètres.
Ouvrir ou fermer la fenêtre Sortie. La fenêtre Sortie affiche les erreurs survenues lors de la validation de jobs ou de l'exporta tion d'objets notamment.
Afficher le statut des tâches du profileur.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
27
Option
Exécuter l'Assistant de correspondance
Éditeur de correspondance
Éditeur associé
Éditeur défini par l'utilisateur
Fonctions personnalisées
Configurations système
Configurations des paramètres de substitution
Connexion au serveur du profileur
Exporter
Importer à partir du fichier
Échange de métadonnées
Référentiels centraux
Options
Console de gestion Data Services
Informations associées
Configuration d'environnement multi-utilisateurs [page 745]
Travail dans un environnement multi-utilisateurs [page 754]
Bibliothèque d'objets locale [page 38]
Variables et paramètres [page 287]
28
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Description
Ouvrez l'Assistant de correspondance pour créer un flux de données de correspondance. Sélectionnez une transforma tion dans un flux de données pour activer ce point de menu.
Les transformations générées par l'Assistant de correspon dance seront placées en aval de la transformation que vous avez sélectionnée.
Ouvrez l'Éditeur Match pour modifier les options de la trans formation Match.
Ouvrez l'Éditeur Associate pour modifier les options de la transformation Associate.
Ouvrez l'Éditeur User-Defined pour modifier les options de la transformation User-Defined.
Ouvrez la fenêtre Fonctions personnalisées.
Ouvrez l'éditeur Configurations système.
Ouvrez l'Editeur de paramètres de substitution pour créer et modifier des paramètres de substitution et des configura tions.
Se connecter au serveur du profileur.
Exporter des objets du référentiel vers un autre référentiel ou fichier. Cette commande permet d'ouvrir l'éditeur d'exporta tion dans l'espace de travail. Vous pouvez faire glisser des ob jets de la bibliothèque d'objets dans l'éditeur pour les expor ter. Pour exporter la totalité de votre référentiel, cliquez avec le bouton droit de la souris dans la bibliothèque d'objets et sé lectionnez
Référentiel Exporter vers le fichier
.
Importer des objets dans le référentiel actif à partir d'un fi chier. Les types de fichiers par défaut sont ATL, XML, DMT et
FMT. Pour en savoir plus sur les fichiers DMT et FMT, voir le
Guide de mise à niveau.
Importer et exporter des métadonnées vers des systèmes tiers par le biais d'un fichier.
Créer ou modifier des connexions à un référentiel central pour gérer des versions d'objets avec plusieurs utilisateurs.
Ouvrez la fenêtre Options.
Ouvrez la Console de gestion.
Guide de Designer
Interface utilisateur du Designer
Utilisation du Profileur de données [page 333]
Création et gestion de plusieurs configurations de banques de données [page 92]
Connexion au serveur du profileur [page 334]
Echange de métadonnées [page 665]
Options générales et de l'environnement [page 52]
3.2.5 Menu Débogage
Utilisez les options dans le menu de débogage pour afficher et analyser les données, définir des points d'arrêt et des filtres, etc.
Seules les options suivantes sont disponibles à tout moment dans ce menu :
Afficher les filtres/points d'arrêt
et
Filtres/Points d'arrêt
. Les options
Exécuter
et
Démarrer le débogage
sont uniquement actives lorsqu'un job est sélectionné. Toutes les autres options sont disponibles au moment voulu lors de l'exécution d'un job en mode de débogage.
Table 10 :
Option
Exécuter
Démarrer le débogage
Afficher les données au moment de la conception
Affichage automatique
Filtrer le jeu de données d'entrée
Options
Afficher les filtres/points d'arrêt
Filtres/Points d'arrêt
Description
Ouvre la fenêtre Propriétés d'exécution qui permet d'exécuter le job sélectionné.
Ouvre la fenêtre Propriétés de débogage qui permet d'exécu ter un job en mode de débogage.
Ouvre des volets de données dans l'éditeur de transformation pour vous permettre d'afficher et d'analyser l'entrée et la sor tie d'un jeu de données en temps réel lors de la conception d'une transformation.
Permet d'afficher automatiquement les données d'entrée et de sortie après modification d'une transformation.
Permet de filtrer le nombre de lignes de données affiché dans les volets d'affichage des données lors de la conception.
Ouvre une fenêtre qui permet de configurer le nombre de li gnes de données affiché et la durée autorisée avant le délai d'expiration pour les mises à jour.
Affiche et masque les filtres et points d'arrêt dans les dia grammes de l'espace de travail.
Ouvre une fenêtre permettant de gérer les filtres et points d'arrêt.
Informations associées
Utilisation du débogueur interactif [page 630]
Utilisation de l'affichage des données lors de la conception [page 628]
Fenêtre Filtres et points d'arrêt [page 640]
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
29
3.2.6 Menu Validation
Utilisez le menu de validation pour valider des objets et afficher des informations.
Designer affiche les options appropriées de ce menu lorsqu'un objet est ouvert dans l'espace de travail.
Table 11 :
Option
Valider
Afficher l'ATL
Afficher le SQL optimisé
Description
Valider les objets dans la vue active de l'espace de travail ou valider tous les objets dans le job avant d'exécuter l'applica tion.
Afficher une version en lecture seule de la langue associée au job.
Afficher le SQL généré par Data Services pour un flux de don nées sélectionné.
Pour en savoir plus sur la maximisation de la poussée vers le bas et pour afficher le SQL, voir le Guide
d'optimisation de la performance.
3.2.7 Menu Fenêtre
Fournit des options d'affichage et de navigation.
Table 12 :
Option
Précédent
Suivant
Afficher en cascade
Mosaïque verticale
Mosaïque horizontale
Fermer toutes les fenêtres
Description
Revenir en arrière dans la liste des fenêtres actives de l'es pace de travail.
Avancer dans la liste des fenêtres actives de l'espace de tra vail.
Afficher les volets des fenêtres en superposition avec affi chage des titres.
Afficher les volets des fenêtres les uns au-dessus des autres.
Afficher les volets des fenêtres côte à côte.
Fermer toutes les fenêtres ouvertes.
La liste des objets ouverts dans l'espace de travail est également affichée dans le menu Fenêtre. Le nom de l'objet sélectionné est indiqué par une coche. Vous pouvez accéder à un autre objet ouvert en sélectionnant son nom dans la liste.
30
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
3.2.8 Menu Aide
Fournit des liens utiles vers des documents, des sites Web et des informations sur les logiciels pour le cas où vous auriez besoin d'aide.
Table 13 :
Option
Notes de version
Nouveautés
Didacticiel
Communauté Data Services
Forums sur SCN (SAP Community Network)
Modèles
Afficher la page d'accueil
A propos de Data Services
Description
Affiche les notes de version relatives à la version actuelle.
Affiche une synthèse des nouvelles fonctions de cette version.
Affiche le Didacticiel Data Services, qui est une introduction
étape par étape à l'utilisation de SAP Data Services.
Permet d'obtenir rapidement des informations sur SAP Data
Services en ligne, notamment des trucs et astuces, des télé chargements supplémentaires et des échantillons. Tout le contenu est créé par la communauté pour la communauté.
N'hésitez donc pas à participer et à nous contacter si vous avez un élément à soumettre.
Explorez les forums SAP sur SAP Community Network pour bénéficier des connaissances d'autres utilisateurs de SAP
Data Services, publier des questions ou partager vos connais sances avec la communauté.
Modèles à télécharger et à modifier en fonction de vos be soins. Chaque modèle contient le projet, SAP Data Services requis, les jobs, les flux de données, les formats de fichier, les exemples de données, les tables de modèle et les fonctions personnalisées pour exécuter les flux de données dans votre environnement avec seulement quelques modifications.
Affiche la page d'accueil du DesignerData Services.
Affiche des informations sur le logiciel, notamment les ver sions de Designer, du Job Server et du moteur, ainsi que le co pyright.
3.3 Barre d'outils
En plus des nombreux outils Windows standard, le progiciel fournit des outils spécifiques à l'application, dont voici des exemples :
Table 14 :
Icône Outil Description
Fermer toutes les fenêtres Ferme toutes les fenêtres ouvertes dans l'espace de travail.
Bibliothèque d'objets locale Ouvre et ferme la fenêtre de la bibliothèque d'objets locale.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
31
Icône Outil
Bibliothèque d'objets centrale
Variables
Zone de projet
Description
Ouvre et ferme la fenêtre de la bibliothèque d'objets centrale.
Ouvre et ferme la fenêtre de création de variables et de paramètres.
Ouvre et ferme la zone de projet.
Sortie Ouvre et ferme la fenêtre de sortie.
Afficher les descriptions activées Active au niveau du système le paramètre d'affichage des descriptions d'objets dans l'espace de travail.
Valider l'affichage en cours Valide la définition d'objet ouverte dans l'espace de travail. Les autres objets inclus dans la définition sont également activés.
Valider tous les objets de la vue
Objets d'Audit dans le flux de don nées
Ouvre la fenêtre Audit qui permet de définir les étiquettes et règles d'audit pour le flux de données.
Afficher les cas d'emploi
Valide la définition d'objet ouverte dans l'espace de travail. Les objets inclus dans la définition sont également activés.
Précédent
Ouvre la fenêtre Sortie qui affiche les objets parents (comme les jobs) de l'objet ouvert dans l'espace de travail (flux de données, par exem ple). Cette commande permet de rechercher les autres jobs qui utili sent le même flux de données avant de décider de modifier la concep tion. Pour voir si un objet dans un flux de données est réutilisé ailleurs, cliquez avec le bouton droit et sélectionnez
Afficher les cas d'emploi
.
Revenir en arrière dans la liste des fenêtres actives de l'espace de tra vail.
Suivant Avancer dans la liste des fenêtres actives de l'espace de travail.
Console de gestion Ouvre et ferme la fenêtre Console de gestion.
Utilisez les outils à droite de l'outil A propos avec le débogueur interactif.
Informations associées
Options et barre d'outils du menu Débogage [page 640]
32
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
3.4 Zone de projet
La zone de projet affiche les objets utilisés dans chaque projet de façon hiérarchique. Les onglets disponibles dans la partie inférieure permettent d'effectuer différentes tâches. Ces onglets sont les suivants :
Table 15 :
Créer, afficher et gérer des projets. Propose une vue hiérarchique de tous les objets utilisés dans chaque projet.
Afficher le statut des jobs en cours d'exécution. Lorsque vous sélectionnez une exécution de job spécifique, son statut s'affiche, indiquant les étapes qui sont terminées et celles qui sont en cours d'exécution. Ces tâches peuvent également être réalisées à l'aide de lAdministrateur.
Afficher l'historique des jobs terminés. Les journaux peuvent également être consultés à l'aide de l'Administrateur.
Pour gérer l'emplacement de la zone de projet, cliquez avec le bouton droit de la souris sur sa bordure grise et sélectionnez/désélectionnez
Ancrage
ou bien sélectionnez
Masquer
dans le menu.
● Lorsque vous sélectionnez
Ancrage
, vous pouvez cliquer sur la zone de projet et la faire glisser pour l'ancrer à un bord de la fenêtre de Designer ou l'en détacher. Lorsque vous faites glisser la zone de projet pour l'éloigner d'un bord de la fenêtre de Designer, elle reste détachée. Pour basculer rapidement entre vos derniers emplacements avec ancrage et sans ancrage, il vous suffit de cliquer deux fois sur la bordure grise.
Lorsque vous désélectionnez Ancrage, vous pouvez cliquer sur la zone de projet et la faire glisser vers n'importe quel emplacement de l'écran sans qu'elle ne soit ancrée dans la fenêtre de Designer.
● Lorsque vous sélectionnez
Masquer
, la zone de projet n'est plus visible dans la fenêtre de Designer. Pour afficher à nouveau la zone de projet, cliquez sur son icône dans la barre d'outils.
Voici un exemple de l'onglet
Designer
de la fenêtre de projet, qui affiche la hiérarchie du projet :
Lorsque vous descendez dans la hiérarchie des objets au niveau de l'espace de travail de Designer, votre position dans la hiérarchie du projet est mise en surbrillance dans la fenêtre.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
33
3.5 Palette d'outils
La palette d'outils est une fenêtre distincte qui apparaît par défaut sur le bord droit de l'espace de travail de
Designer. Vous pouvez déplacer la palette d'outils à l'emplacement de votre choix sur l'écran ou l'ancrer à un bord de la fenêtre de Designer.
Les icônes disponibles dans la palette d'outils permettent de créer des objets dans l'espace de travail. Celles qui ne peuvent pas être utilisées sur le diagramme ouvert dans l'espace de travail sont désactivées.
Pour afficher le nom d'une icône, placez le curseur dessus jusqu'à ce que l'info-bulle de l'icône apparaisse.
Lorsque vous créez un objet à l'aide de la palette d'outils, vous créez une définition d'un objet. Si un nouvel objet est réutilisable, il sera automatiquement disponible dans la bibliothèque d'objets une fois que l'aurez créé.
Si vous sélectionnez l'icône de flux de données dans la palette d'outils et que vous définissez un nouveau flux de données, vous pourrez ultérieurement extraire ce flux de données de la bibliothèque d'objets et ajouter un appel à la définition existante, par exemple.
La palette d'outils contient les icônes suivantes :
Table 16 :
Icône Outil
Pointeur
Workflow
Description (classe)
Modifie le pointeur d'outil en pointeur de sé lection permettant de sélectionner et dépla cer des objets dans un diagramme.
Crée un workflow. (réutilisable)
Disponible
Partout
Jobs et workflows
Flux de données Crée un flux de données. (réutilisable) Jobs et workflows
Flux de données
ABAP
Transformation
Query
Modèle de table
Modèle de schémas imbriqués
Transport de don nées
Script
Uniquement utilisé avec l'application SAP.
Crée un modèle pour une requête. A utiliser pour définir les mappages de colonnes et les sélections de lignes (usage unique)
Flux de données
Crée une table pour une cible. (usage uni que)
Crée un modèle JSON ou XML. (usage uni que)
Uniquement utilisé avec l'application SAP.
Crée un objet de script. (usage unique)
Flux de données
Flux de données
Jobs et workflows
Structure condition nelle
Try
Crée un objet conditionnel. (usage unique) Jobs et workflows
Crée un objet try. (usage unique) Jobs et workflows
Catch Crée un objet Catch. (usage unique) Jobs et workflows
34
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
Icône Outil
Annotation
Description (classe)
Crée une annotation. (usage unique)
Disponible
Jobs, workflows et flux de don nées
3.6 Accessibilité du clavier Designer
Les touches suivantes sont disponibles pour la navigation dans Designer. L'ensemble des boîtes de dialogue et des affichages prennent en charge ces touches.
Table 17 :
Pour
Entrer en mode modification.
Fermer une boîte de dialogue ou un menu, ou annuler une opération en cours.
Appuyez sur
F2
Echap
Fermer la fenêtre en cours.
Faire défiler les fenêtres une par une.
CTRL+F4
CTRL+TABULATION
Afficher un menu de système pour la fenêtre de l'application.
ALT+ESPACE
Passer à la page suivante d'une feuille de propriétés.
CTRL+PAGE SUIVANTE
Passer à la page précédente d'une feuille de propriétés.
Passer au contrôle suivant sur un affichage ou une boîte de dialogue.
CTRL+PAGE PRECEDENTE
TABULATION
Passer au contrôle précédent sur un affichage ou une boîte de dialogue.
MAJ+TABULATION
Appuyer sur un bouton lorsqu'il est sélectionné.
ENTREE
ou
ESPACE
Activer le menu contextuel (opérations à l'aide du clic droit).
Développer ou réduire une arborescence (+).
MAJ+F10
ou
Flèche droite
Touche de menu
ou
Flèche gauche
Déplacer une arborescence vers le haut ou vers le bas.
Afficher le focus.
Opérations de touche de raccourci.
Flèche du haut
ou
Flèche du bas
ALT
ALT+<LETTRE>
3.7 Espace de travail
L'espace de travail comporte un emplacement qui permet de manipuler les objets système et d'assembler les processus de déplacement de données en mode graphique.
Lorsque vous ouvrez ou sélectionnez un job ou un flux quelconque dans une hiérarchie de jobs, l'espace de travail devient "actif" avec votre sélection.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
35
Ces processus sont représentés par des icônes que vous pouvez glisser-déposer dans un espace de travail pour créer un diagramme d'espace de travail. Ce diagramme offre une représentation visuelle d'une application de déplacement de données complète ou partielle.
3.7.1 Déplacement d'objets dans l'espace de travail
Pour déplacer les objets dans l'espace de travail, utilisez les commandes de souris standard.
Pour déplacer un objet vers un autre emplacement de l'espace de travail, procédez comme suit :
1. Cliquez sur l'objet pour le sélectionner.
2. Faites glisser l'objet jusqu'à l'emplacement souhaité de l'espace de travail.
3.7.2 Création de liens entre les objets
Pour définir le flux de données à travers les jobs et les workflows, vous devez créer des relations entre les objets de la gauche vers la droite dans l'espace de travail, conformément à l'ordre dans lequel les données doivent être déplacées.
Pour créer des relations entre les objets, procédez comme suit :
1. Placez les objets à relier dans l'espace de travail.
2. Cliquez sur le triangle placé du côté droit d'un objet et faites-le glisser vers le triangle placé du côté gauche de l'objet suivant dans le flux.
3.7.3 Suppression des liens entre les objets
Vous pouvez déconnecter des objets dans l'espace de travail.
Pour déconnecter des objets :
1. Cliquez sur la ligne de liaison.
2. Appuyez sur la touche
Supprimer
.
36
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
3.7.4 Description des objets
Pour ajouter des commentaires sur les objets, vous pouvez utiliser les descriptions.
Les annotations permettent d'expliquer un job, un workflow ou un flux de données. Les descriptions et les annotations des objets sont visibles dans l'espace de travail. Utilisées conjointement, les descriptions et les annotations permettent de documenter une application SAP Data Services . Vous pouvez décrire le comportement incrémental de différents jobs à l'aide de plusieurs annotations et affecter à chaque objet une description de base, par exemple.
Exemple
Ce job charge les catégories et dépenses actuelles puis génère des tables à des fins d'analyse.
Informations associées
Création de descriptions [page 45]
Création d'annotations [page 47]
3.7.5 Mise à l'échelle de l'espace de travail
La mise à l'échelle de l'espace de travail vous permet de modifier la vue d'un job, d'un workflow ou d'un flux de données.
Vous pouvez, par exemple, augmenter l'échelle pour examiner une partie définie d'un workflow ou réduire l'échelle pour pouvoir examiner l'ensemble d'un workflow sans devoir opérer de défilement.
Il existe plusieurs manières de modifier l'échelle de l'espace de travail :
● Dans la liste déroulante au niveau de la barre d'outils, sélectionnez une échelle prédéfinie ou saisissez une valeur personnalisée (100 %, par exemple).
● Cliquez avec le bouton droit dans l'espace de travail et sélectionnez l'échelle souhaitée.
● Sélectionnez
Mettre à l'échelle
. Le Designer calcule l'échelle pertinente pour le projet complet dans la zone d'affichage en cours.
● Si vous sélectionnez
Mise à l'échelle globale
, l'espace de travail est visible en intégralité dans la zone d'affichage en cours.
3.7.6 Organisation des fenêtres dans l'espace de travail
Le menu Fenêtre permet d'organiser les différentes fenêtres ouvertes dans l'espace de travail.
Vous pouvez organiser les fenêtres des façons suivantes :
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
37
● cascade
● mosaïque horizontale
● mosaïque verticale
3.7.7 Fermeture des fenêtres dans l'espace de travail
Lorsque vous explorez un objet dans la zone de projet ou l'espace de travail, une vue de la définition d'objet s'affiche dans l'espace de travail. Ces vues utilisent des ressources système et doivent être fermées lorsqu'elles ne sont pas utilisées.
Cette vue est repérable grâce à un onglet en bas de l'espace de travail ; autrement dit, plus vous ouvrez d'objets dans l'espace de travail, plus les onglets sont nombreux (vous pouvez afficher ou masquer ces onglets via le menu
Outils Options
. Accédez aux options
Designer Général
et sélectionnez/désélectionnez
Afficher les onglets dans l'espace de travail
).
Remarque
Ces vues utilisent des ressources système. Si vous avez un grand nombre de vues ouvert, vous risquez de constater une dégradation des performances.
Fermez les vues une par une en cliquant sur la case de fermeture en haut à droite de l'espace de travail. Pour fermer toutes les vues ouvertes, sélectionnez
Fenêtre Fermer toutes les fenêtres
ou cliquez sur l'icône
Fermer toutes les fenêtres
dans la barre d'outils.
Informations associées
Options générales et de l'environnement [page 52]
3.8 Bibliothèque d'objets locale
La bibliothèque d'objets locale donne accès aux objets réutilisables.
Il peut aussi bien s'agir d'objets système intégrés, comme des transformations, que des objets que vous créez et enregistrez, comme les banques de données, jobs, flux de données et workflows.
La bibliothèque d'objets locale se présente sous la forme d'une fenêtre dans votre référentiel local. Elle vous évite d'accéder directement au référentiel. Les mises à jour du référentiel interviennent dans le cadre du fonctionnement normal du progiciel. Lorsque vous enregistrez les objets que vous créez, ils sont ajoutés au référentiel. Les objets enregistrés sont accessibles par le biais de la bibliothèque d'objets locale.
Pour gérer l'emplacement de la bibliothèque d'objets, cliquez avec le bouton droit sur sa bordure grise et sélectionnez/désélectionnez
Ancrage
ou bien sélectionnez
Masquer
dans le menu.
38
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
● Lorsque vous sélectionnez
Ancrage
, vous pouvez cliquer sur la bibliothèque d'objets et la faire glisser pour l'ancrer à un bord de la fenêtre de Designer ou l'en détacher. Lorsque vous faites glisser la bibliothèque d'objets pour l'éloigner d'un bord de la fenêtre de Designer, elle reste détachée. Pour basculer rapidement entre vos derniers emplacements avec ancrage et sans ancrage, il vous suffit de cliquer deux fois sur la bordure grise.
Lorsque vous désélectionnez
Ancrage
, vous pouvez cliquer sur la bibliothèque d'objets et la faire glisser vers n'importe quel emplacement de l'écran sans qu'elle soit ancrée dans la fenêtre de Designer.
● Lorsque vous sélectionnez
Masquer
, la bibliothèque d'objets n'est plus visible dans la fenêtre de Designer.
Pour afficher à nouveau la bibliothèque d'objets, cliquez sur son icône dans la barre d'outils.
Pour plus d'informations sur le référentiel central et référentiel local lors d'un développement multi-utilisateurs, voir le Guide de Designer.
3.8.1 Ouvrir la bibliothèque d'objets.
La bibliothèque d'objets permet d'accéder aux types d'objets.
Sélectionnez
Outils Bibliothèque d'objets
ou cliquez sur l'icône de la bibliothèque d'objets dans la barre d'outils.
Le tableau indique l'onglet dans lequel le type d'objet apparaît dans la bibliothèque d'objets et décrit el contexte dans lequel vous pouvez utiliser chaque type d'objet.
Table 18 :
Onglet Description
Les projets sont des ensembles de jobs disponibles pendant une période définie.
Les jobs sont des workflows exécutables. Il existe deux types de jobs : les jobs batch et les jobs en temps réel.
Les workflows organisent les flux de données et les opérations qui prennent en charge les flux de données, définissant les interdépendances de ces objets.
Les flux de données décrivent le traitement d'une tâche.
Les transformations agissent sur les données et génèrent des jeux de données de sortie à par tir des sources indiquées. La bibliothèque d'objets liste les transformations intégrées et per sonnalisées.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
39
Onglet Description
Les banques de données représentent les liens avec les bases de données et applications utili sées dans votre projet. La liste des tables, documents et fonctions importés dans le progiciel est disponible sous chaque banque de données.
Les formats décrivent la structure d'un fichier plat, d'un fichier XML ou d'un message XML.
Les fonctions personnalisées sont des fonctions créées dans le langage de script du progiciel.
Vous pouvez les utiliser dans le cadre des jobs.
3.8.2 Afficher le nom de chaque onglet et de son icône
1. Agrandissez la fenêtre de la bibliothèque d'objets en largeur jusqu'à ce que les noms deviennent visibles.
ou
2. Placez le curseur sur l'onglet jusqu'à ce que l'info-bulle correspondante apparaisse.
3.8.3 Trier les colonnes de la bibliothèque d'objets
Cliquez sur l'intitulé de colonne.
Pour trier les flux de données, par exemple, cliquez sur l'en-tête de colonne
Flux de données
. Les noms sont
énumérés par ordre croissant. Pour afficher les noms par ordre décroissant, cliquez à nouveau sur l'en-tête de colonne
Flux de données
.
3.9 Editeurs d'objets
L'éditeur affiche les schémas d'entrée et de sortie de l'objet ainsi que les options pour l'objet.
Cliquez sur le nom de l'objet dans l'espace de travail pour ouvrir son éditeur. S'il existe plusieurs options, elles sont regroupées dans des onglets au niveau de l'éditeur.
Un schéma est une structure de données qui peut contenir des colonnes, d'autres schémas imbriqués et des fonctions (le contenu correspondant aux éléments du schéma). Une table est un schéma qui contient uniquement des colonnes.
Un éditeur permet d'effectuer les opérations suivantes :
● Annuler ou rétablir les actions effectuées dans la fenêtre (clic droit puis
Annuler
ou
Rétablir
).
● Rechercher une chaîne dans l'éditeur (clic droit puis
Rechercher
).
40
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
● Glisser-déposer des noms de colonnes dans les cases d'option pertinentes à partir du schéma d'entrée.
● Utiliser des couleurs pour identifier les chaînes et les commentaires dans les zones de texte autorisant la modification des expressions (mots-clés affichés en bleu ; chaînes affichées en rose entre guillemets ; commentaires débutant par le signe livre et affichés en vert).
Remarque
Il est impossible d'ajouter des commentaires à une clause de mappage dans une transformation Query. Si vous ajoutez des commentaires, le job ne s'exécute pas et il est impossible de l'exporter. Utilisez plutôt la fonction de description d'objet ou d'annotation de l'espace de travail. Par exemple, la syntaxe suivante n'est pas prise en charge dans l'onglet Mappage : table.column # comment
Informations associées
Editeurs de transformation Qualité des données [page 191]
3.10 Utilisation des objets
Informations relatives aux tâches courantes que vous réalisez lorsque vous utilisez des objets dans Designer.
Ces tâches font appel à plusieurs parties de Designer : la barre d'outils, la palette d'outils, l'espace de travail et la bibliothèque d'objets locale.
3.10.1 Utilisation de nouveaux objets réutilisables
Vous pouvez créer des objets réutilisables à partir de la bibliothèque d'objets ou à l'aide de la palette d'outils.
Une fois que vous avez créé un objet, vous pouvez l'utiliser en modifiant sa définition et en ajoutant des appels à d'autres objets.
Informations associées
Objets réutilisables [page 23]
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
41
3.10.1.1 Création d'un objet réutilisable dans la bibliothèque d'objets
Vous pouvez créer un objet réutilisable dans la bibliothèque d'objets plutôt que de le créer à l'aide de la palette d'outils.
1. Pour ouvrir la bibliothèque d'objets, sélectionnez
Outils Bibliothèque d'objets
.
2. Cliquez sur l'onglet correspondant au type d'objet.
3. Cliquez avec le bouton droit n'importe où, hormis sur les objets existants, et sélectionnez
Nouveau
.
4. Cliquez avec le bouton droit sur le nouvel objet et sélectionnez
Propriétés
. Saisissez des options comme le nom et la description pour définir l'objet.
3.10.1.2 Création d'un objet réutilisable à l'aide de la palette d'outils
Vous pouvez réutiliser et répliquer la plupart des objets définis dans le progiciel à l'aide la palette d'outils.
1. Dans la palette d'outils, cliquez sur l'icône de l'objet que vous voulez créer.
2. Déplacez le curseur vers l'espace de travail et cliquez à nouveau.
L'icône de l'objet apparaît à l'endroit où vous avez cliqué dans l'espace de travail.
3.10.2 Ajout d'un objet existant
Ajouter un objet existant ou créer un appel pour un objet existant.
1. Pour ouvrir la bibliothèque d'objets, sélectionnez
Outils Bibliothèque d'objets
.
2. Cliquez sur l'onglet correspondant à un type d'objet.
3. Sélectionnez un objet.
4. Faites glisser l'objet vers l'espace de travail.
Remarque
Les objets déposés dans l'espace de travail doivent obéir à la logique de la hiérarchie. Vous pouvez, par exemple, déposer un flux de données dans un job, mais vous ne pouvez pas déposer un workflow dans un flux de données.
Informations associées
42
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
3.10.3 Ouvrir la définition d'un objet
Options décrivant l'opération associée à un objet, visibles dans l'espace de travail lors de l'ouverture de l'objet.
Pour ouvrir la définition d'un objet, vous pouvez procéder de l'une ou l'autre des façons suivantes :
1. Dans l'espace de travail, cliquez sur le nom de l'objet. Un espace de travail vide s'affiche pour vous permettre de définir l'objet.
2. Dans la zone de projet, cliquez sur l'objet.
Vous définissez un objet à l'aide d'autres objets. Si vous cliquez sur le nom d'un flux de données batch, par exemple, un nouvel espace de travail apparaît pour vous permettre d'assembler les sources, les cibles et les transformations qui constituent le flux réel.
3.10.4 Modification des noms des objets
Vous pouvez modifier le nom d'un objet à partir de l'espace de travail ou de la bibliothèque d'objets.
Vous pouvez également créer une copie d'un objet existant.
Remarque
Il n'est pas possible de modifier le nom des objets intégrés.
1. Pour modifier le nom d'un objet dans l'espace de travail, procédez comme suit : a. Cliquez pour sélectionner l'objet dans l'espace de travail.
b. Cliquez avec le bouton droit et sélectionnez
Renommer
.
c. Modifiez le texte affiché dans la zone de texte de nom.
d. Pour enregistrer le nouveau nom, cliquez en dehors de la zone de texte ou appuyez sur Entrée.
2. Pour modifier le nom d'un objet dans la bibliothèque d'objets, procédez comme suit : a. Sélectionnez l'objet dans la bibliothèque d'objets.
b. Cliquez avec le bouton droit et sélectionnez
Propriétés
.
c. Modifiez le texte dans la première zone de texte.
d. Cliquez sur
OK
.
3. Pour copier un objet, procédez comme suit : a. Sélectionnez l'objet dans la bibliothèque d'objets.
b. Cliquez avec le bouton droit et sélectionnez
Répliquer
.
c. Le progiciel effectue une copie de l'objet supérieur (mais pas des objets qu'il appelle) et lui donne un nouveau nom que vous pouvez modifier.
3.10.5 Ajout, modification et affichage de propriétés d'objet
Vous pouvez ajouter, afficher et dans certains cas, modifier les propriétés d'un objet via sa page de propriétés.
1. Sélectionnez l'objet dans la bibliothèque d'objets.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
43
2. Cliquez avec le bouton droit et sélectionnez
Propriétés
. L'onglet
Général
de la fenêtre
Propriétés
s'ouvre.
3. Renseignez les feuilles de propriétés. Les feuilles de propriétés diffèrent selon le type d'objet mais les onglets
Général, Attributs et Attributs de classe, décrits dans les sections qui suivent, sont les plus communs.
4. Lorsque vous avez terminé, cliquez sur
OK
pour enregistrer les modifications apportées aux propriétés de l'objet et fermer la fenêtre.
Vous pouvez également cliquer sur
Appliquer
pour enregistrer les modifications sans fermer la fenêtre.
3.10.5.1 Onglet Général
Permet de modifier le nom de l'objet ainsi que de saisir ou modifier la description correspondante.
L'onglet
Général
comporte deux propriétés d'objet principales : le nom et la description.
Vous pouvez ajouter des descriptions d'objets à des objets à usage unique ou des objets réutilisables. Vous pouvez activer et désactiver la description d'un objet ; pour cela, cliquez dessus avec le bouton droit dans l'espace de travail et sélectionnez ou désélectionnez
Afficher les descriptions activées
.
En fonction de l'objet, d'autres propriétés peuvent être affichées dans l'onglet
Général
, par exemple :
●
Exécuter une seule fois
●
Restaurer en tant qu'unité
●
Degré de parallélisme
●
Utiliser les liens de base de données
●
Type de cache
●
Contournement
Informations associées
Banques de données liées [page 86]
Mécanismes de récupération [page 654]
Création et définition des flux de données [page 159]
3.10.5.2 Onglet Attributs
Permet d'affecter des valeurs aux attributs de l'objet en cours.
Pour affecter une valeur à un attribut, sélectionnez l'attribut et saisissez la valeur dans la zone
Valeur
en bas de la fenêtre.
Certaines valeurs d'attribut sont définies par le progiciel et ne peuvent pas être modifiées. Lorsque vous sélectionnez un attribut qui possède une valeur système, le champ
Valeur
n'est pas accessible.
44
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
3.10.5.3 Onglet Attributs de classe
Affiche les attributs disponibles pour le type d'objet sélectionné.
Tous les objets de flux de données possèdent, par exemple, les mêmes attributs de classe.
Pour créer un attribut pour une classe d'objets, cliquez avec le bouton droit dans la liste d'attributs et sélectionnez
Ajouter
. Le nouvel attribut est maintenant disponible pour l'ensemble des objets de la classe.
Pour supprimer un attribut, sélectionnez-le, cliquez avec le bouton droit et sélectionnez
Supprimer
. Vous ne pouvez pas supprimer les attributs de classe prédéfinis par Data Services.
3.10.6 Création de descriptions
Les descriptions permettent de donner des informations sur les objets.
Elles sont visibles dans les diagrammes de l'espace de travail. De ce fait, les descriptions sont un moyen pratique d'ajouter des commentaires aux objets dans l'espace de travail.
Une description est associée à un objet spécifique. Lorsque vous importez ou exportez cet objet du référentiel
(lors de la migration entre environnements de développement, de test et de production, par exemple), vous importez ou exportez également sa description.
Designer détermine quand afficher les descriptions des objets en fonction d'un paramètre au niveau système et d'un paramètre au niveau objet. Les deux paramètres doivent être activés pour que la description d'un objet particulier s'affiche.
Le paramètre au niveau système est spécifique à votre configuration. Il est désactivé par défaut. Pour l'activer, sélectionnez
AffichageDescriptions activées
ou cliquez sur le bouton
Afficher les descriptions activées
dans la barre d'outils.
Le paramètre au niveau objet est enregistré avec l'objet dans le référentiel. Il est également désactivé par défaut, sauf si vous ajoutez ou modifiez une description à partir de l'espace de travail. Pour activer le paramètre au niveau objet, cliquez avec le bouton droit sur l'objet et sélectionnez
Activer la description de l'objet
.
Une ellipse après le texte d'une description indique la présence de texte supplémentaire. Pour voir tout le texte, redimensionnez la description par cliquer-déplacer. Lorsque vous déplacez un objet, sa description est elle aussi déplacée. Pour connaître l'objet associé à une description donnée, affichez le nom de l'objet dans la barre d'état.
3.10.6.1 Ajout d'une description à un objet
1. Dans la zone de projet ou la bibliothèque d'objets, cliquez avec le bouton droit sur un objet et sélectionnez
Propriétés
.
2. Saisissez vos commentaires dans la zone de texte
Description
.
3. Cliquez sur
OK
.
La description de l'objet s'affiche dans la bibliothèque d'objets.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
45
3.10.6.2 Afficher une description dans l'espace de travail
1. Dans la zone de projet, sélectionnez un objet existant (tel qu'un job) contenant un objet auquel vous avez ajouté une description (tel qu'un workflow).
2. Dans le menu
Affichage
, sélectionnez
Descriptions activées
.
Vous pouvez également cliquer sur le bouton Afficher les descriptions activées dans la barre d'outils.
3. Cliquez avec le bouton droit sur le workflow et sélectionnez
Activer la description d'objets
.
La description s'affiche dans l'espace de travail au-dessous de l'objet.
3.10.6.3 Ajout d'une description à un objet depuis l'espace de travail
1. Dans le menu
Affichage
, sélectionnez
Descriptions activées
.
2. Dans l'espace de travail, cliquez avec le bouton droit sur un objet et sélectionnez
Propriétés
.
3. Dans la fenêtre Propriétés, renseignez la section
Description
.
4. Cliquez sur
OK
.
La description s'affiche automatiquement dans l'espace de travail (et l'option
Activer la description d'objets
est sélectionnée pour l'objet).
3.10.6.4 Masquer la description d'un objet
1. Dans le diagramme de l'espace de travail, cliquez avec le bouton droit sur un objet.
Vous pouvez également sélectionner plusieurs objets en procédant comme suit :
○ Appuyez sur la touche Ctrl et maintenez-la enfoncée tout en sélectionnant des objets dans le diagramme de l'espace de travail, puis cliquez avec le bouton droit sur l'un des objets sélectionnés.
○ Faites glisser une zone de sélection autour de tous les objets à sélectionner, puis cliquez avec le bouton droit sur l'un des objets sélectionnés.
2. Dans le menu contextuel, désélectionnez
Activer la description d'objets
.
La description de l'objet sélectionné est masquée même si l'option
Afficher les descriptions activées
est sélectionnée, car le basculement au niveau objet est prioritaire sur le basculement au niveau système.
3.10.6.5 Modifier les descriptions d'objets
1. Dans l'espace de travail, double-cliquez sur la description d'un objet.
2. Saisissez, coupez, copiez ou collez du texte dans la description.
3. Dans le menu
Projet
, sélectionnez
Enregistrer
.
46
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
Vous pouvez également cliquer avec le bouton droit sur un objet et sélectionner Propriétés pour ouvrir la fenêtre
Propriétés
de l'objet et ajouter ou modifier sa description.
Remarque
Si vous tentez de modifier la description d'un objet réutilisable, le progiciel vous informe que la description sera mise à jour dans chaque occurrence de l'objet au niveau de tous les jobs. Vous pouvez cocher la case
Ne plus afficher ce message
pour éviter cette alerte. Néanmoins, une fois désactivée, l'alerte ne peut être réactivée qu'avec l'intervention du support technique.
3.10.7 Création d'annotations
Les annotations décrivent un flux, une partie de flux ou un diagramme dans un espace de travail.
Une annotation est associée au job, workflow ou flux de données dans lequel elle apparaît. Lorsque vous importez ou exportez ce job, workflow ou flux de données, les annotations associées sont également transférées.
3.10.7.1 Annoter un diagramme d'espace de travail
1. Ouvrez le diagramme d'espace de travail que vous voulez annoter.
Les annotations permettent de décrire un espace de travail tel qu'un job, un workflow, un flux de données, un bloc Catch, une structure conditionnelle ou une boucle While.
2. Dans la palette d'outils, cliquez sur l'icône d'annotation.
3. Cliquez à l'endroit où vous voulez placer l'annotation dans l'espace de travail.
Une annotation s'affiche dans le diagramme.
Vous pouvez ajouter, modifier et supprimer du texte directement dans l'annotation. Il est également possible de redimensionner l'annotation et de la déplacer par cliquer-glisser. Vous pouvez ajouter un nombre illimité d'annotations à un diagramme.
3.10.7.2 Supprimer une annotation
1. Cliquez avec le bouton droit sur une annotation.
2. Sélectionnez
Supprimer
.
Vous pouvez également sélectionner une annotation et appuyer sur Supprimer.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
47
3.10.8 Copie d'objets
Vous pouvez couper ou copier des objets, puis les coller à l'emplacement souhaité dans l'espace de travail.
Il est possible de copier et coller plusieurs objets dans un même ou dans d'autres flux de données, workflows ou jobs. Par ailleurs, vous pouvez couper ou copier des appels de flux de données et de workflows, puis les coller dans des objets valides au niveau de l'espace de travail.
Les références à des variables globales, à des variables locales, à des paramètres et à des paramètres de substitution sont copiées. Néanmoins, vous devez définir chacun de ces éléments dans son nouveau contexte.
Remarque
L'opération de collage duplique les objets sélectionnés dans un flux mais continue à appeler les objets d'origine.
Autrement dit, l'opération de collage utilise l'objet d'origine dans un autre emplacement. L'opération de réplication crée un nouvel objet dans la bibliothèque d'objets.
Pour couper ou copier des objets puis les coller, procédez comme suit :
1. Dans l'espace de travail, sélectionnez les objets à couper ou à copier.
Pour sélectionner plusieurs objets, utilisez les raccourcis clavier Ctrl-clic, Maj-clic ou Ctrl+A
2. Cliquez avec le bouton droit et sélectionnez
Couper
ou
Copier
.
3. Cliquez dans le même flux ou sélectionnez-en un autre. Cliquez avec le bouton droit et sélectionnez
Coller
.
Si cela s'avère nécessaire pour éviter un conflit d'appellation, un nouveau nom est généré automatiquement.
Remarque
Si vous cliquez avec le bouton droit et sélectionnez
Coller
, les objets sont collés à l'emplacement sélectionné.
Les objets sont collés dans l'angle supérieur gauche de l'espace de travail si vous utilisez l'une des méthodes suivantes :
○ Clic sur l'icône
Coller
.
○ Clic sur
Édition Coller
.
○ Utilisation du raccourci clavier Ctrl+V.
Si vous utilisez une méthode qui colle les objets dans l'angle supérieur gauche, les objets collés par la suite sont placés les uns au-dessus des autres.
3.10.9 Enregistrement et suppression des objets
Enregistrer un objet dans le logiciel équivaut à sauvegarder la langue qui décrit cet objet dans le référentiel.
Vous pouvez enregistrer les objets réutilisables ; les objets à usage unique sont seulement enregistrés dans le cadre de la définition d'objet réutilisable qui les appelle.
Il est possible d'enregistrer les modifications de l'objet réutilisable actif dans l'espace de travail. Lorsque vous enregistrez l'objet, ses propriétés, les définitions des objets à usage unique qu'il appelle et les appels éventuels d'autres objets réutilisables sont sauvegardés dans le référentiel. Seul l'appel est enregistré, et non le contenu des objets réutilisables pris en compte.
48
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
Le progiciel sauvegarde la description même si l'objet n'est pas complet ou comporte une erreur (validation non effectuée).
3.10.9.1 Enregistrer les modifications apportées à un seul réutilisable
1. Ouvrez le projet dans lequel figure votre objet.
2. Sélectionnez
Projet Enregistrer
.
Cette commande enregistre tous les objets ouverts dans l'espace de travail.
Répétez ces étapes pour les autres objets à enregistrer.
3.10.9.2 Enregistrer tous les objets modifiés dans le référentiel
1. Sélectionnez
Projet Tout enregistrer
.
Le progiciel liste les objets réutilisables qui ont été modifiés depuis la dernière opération d'enregistrement.
2. (facultatif) Désélectionnez tout objet listé pour éviter de l'enregistrer.
3. Cliquez sur
OK
.
Remarque
Le logiciel vous invite à enregistrer tous les objets modifiés lorsque vous exécutez un job et que vous quittez Designer. L'enregistrement d'un objet réutilisable entraîne l'enregistrement des objets à usage unique qu'il contient le cas échéant.
3.10.9.3 Supprimer une définition d'objet du référentiel
1. Dans la bibliothèque d'objets, sélectionnez l'objet.
2. Cliquez avec le bouton droit et sélectionnez
Supprimer
.
○ Si vous tentez de supprimer un objet en cours d'utilisation, le progiciel émet un message d'avertissement et vous propose d'utiliser la fonction
Afficher les cas d'emploi
.
○ Si vous cliquez sur
Oui
, tous les appels de l'objet sont marqués par une icône rouge «supprimé» pour indiquer que les appels sont non valides. Pour produire un job exécutable, vous devez supprimer ou remplacer ces appels.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
49
Remarque
Les objets intégrés comme les transformations ne peuvent pas être supprimés de la bibliothèque d'objets.
Informations associées
Utilisation de Afficher les cas d'emploi [page 612]
3.10.9.4 Supprimer un appel d'objet
1. Ouvrez l'objet qui contient l'appel à supprimer.
2. Cliquez avec le bouton droit sur l'appel d'objet et sélectionnez
Supprimer
.
Si vous supprimez un objet réutilisable de l'espace de travail ou de la zone de projet, seul l'appel de l'objet est supprimé. La définition d'objet figure toujours dans la bibliothèque d'objets.
3.10.10 Recherche d'objets
Dans la bibliothèque d'objets, vous pouvez rechercher des objets définis dans un référentiel ou des objets disponibles par le biais d'une banque de données.
1. Cliquez avec le bouton droit dans la bibliothèque d'objets et sélectionnez
Rechercher
.
La fenêtre
Rechercher
s'affiche.
2. Saisissez les valeurs pertinentes pour la recherche.
Les options disponibles dans la fenêtre
Rechercher
sont décrites en détail après cette procédure.
3. Cliquez sur
Rechercher
.
Les objets correspondant à vos entrées sont affichés dans la fenêtre. Une ligne de statut située en bas de la fenêtre
Rechercher
indique où la recherche a été effectuée (localement ou centralement), le nombre d'éléments trouvés et la durée de la recherche.
Dans la fenêtre des résultats de la recherche, le menu contextuel affiche les options suivantes :
○
Ouvrir
un élément
○
Importer
des tables externes en tant que métadonnées du référentiel
○
Enregistrer sous
pour exporter les résultats de la recherche dans un fichier CSV
○
Afficher les cas d'emploi
pour afficher les objets parent dans la fenêtre de
sortie
○
Localiser dans la bibliothèque
pour sélectionner l'objet dans la bibliothèque locale ou centrale
○
Propriétés
pour afficher les attributs
Vous pouvez également faire glisser des objets depuis la fenêtre de résultats de la recherche et les déposer à l'emplacement de votre choix.
50
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
La fenêtre
Rechercher
permet d'accéder aux options suivantes :
Table 19 :
Option
Rechercher dans
Description
Emplacement où effectuer la recherche.
Sélectionnez un référentiel ou une banque de données spécifique.
Lorsque vous sélectionnez une banque de données, vous pouvez également choisir d'effec tuer la recherche dans les données importées (
Données internes
) ou dans la banque de don nées complète (
Données externes
). Vous pouvez également choisir d'effectuer la recherche dans le
Référentiel local
ou le
Référentiel central
.
Type d'objet
Type d'objet à rechercher.
Dans le cas d'une recherche dans le référentiel, vous disposez des valeurs Tables, Fichiers,
Flux de données, Workflows, Jobs, Hiérarchies, IDocs et Domaines.
Dans le cas d'une recherche dans une banque de données ou une application, effectuez une sélection parmi les types d'objet disponibles par l'intermédiaire de la banque de données.
Nom
Recherche une chaîne de texte dans le nom de l'objet.
Si la recherche porte sur le référentiel, le nom n'est pas sensible à la casse. Si la recherche porte sur une banque de données et que le nom est sensible à la casse dans cette banque de données, saisissez le nom tel qu'il figure dans la banque de données ou l'application et mettezle entre guillemets doubles (") afin de conserver la casse.
Vous pouvez indiquer si l'information à rechercher
Contient
le nom spécifié ou est
Egale
au nom spécifié à l'aide de la liste déroulante en regard du champ
Nom
.
Description
Recherche une chaîne de texte dans la description de l'objet.
Les objets importés dans le référentiel ont une définition provenant de leur source. Par défaut, les objets que vous créez dans Designer ne possèdent aucune description, sauf si vous en ajoutez une.
La recherche renvoie les objets dont l'attribut de description contient la valeur saisie.
Tout rechercher
Recherche une chaîne de texte dans toutes les parties de l'objet.
Pour les jobs, la recherche est effectuée dans le job lui-même et dans tous les éléments du job.
(
Contient
est la seule option de recherche.)
La fenêtre de recherche comporte également un bouton
Avancé
qui permet de rechercher les objets d'après leurs valeurs d'attribut. Vous pouvez uniquement effectuer une recherche par valeurs d'attribut dans le référentiel.
Le bouton
Avancé
permet d'accéder aux options suivantes :
Table 20 :
Option
Attribut
Description
Attribut de l'objet dans lequel effectuer la recherche.
Valeur
Valeur de l'attribut à rechercher.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
51
Option
Correspondance
Description
Type de recherche exécuté.
Pour rechercher un attribut contenant la valeur indiquée, sélectionnez
Contient
. Pour recher cher un attribut contenant uniquement la valeur indiquée, sélectionnez
Egal à
.
Informations associées
Utilisation de Afficher les cas d'emploi [page 612]
3.11 Options générales et de l'environnement
Affiche les groupes d'options relatifs à Designer, aux données et aux options du Job Server.
Pour ouvrir la fenêtre
Options
, sélectionnez
Outils Options
.
Pour développer les options, cliquez sur le signe plus. Lorsque vous sélectionnez une option ou un groupe d'options, une description s'affiche sur la droite.
3.11.1 Designer : environnement
Vous pouvez modifier les paramètres par défaut pour le reporting de métadonnées et les job servers, ainsi que les paramètres de port de communication pour le Designer.
Table 21 :Administrateur par défaut pour le reporting des métadonnées
Option Description
Administrateur
Sélectionnez l'Administrateur utilisé par l'outil de reporting des métadonnées. Un
Administrateur est défini par un nom d'hôte et un port.
Table 22 :Job Server par défaut
Option Description
Actuel
Affiche la valeur actuelle du Job Server par défaut.
Nouveau
Permet d'indiquer une nouvelle valeur pour le Job Server par défaut à partir d'une liste déroulante des Job Servers associés au référentiel. Les modifications sont appliquées immédiatement.
Si un référentiel est associé à plusieurs Job Servers, un seul Job Server doit être défini comme Job Server par défaut à utiliser lors de la connexion.
52
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
Remarque
Les options spécifiques au job et les noms de chemin indiqués dans Designer se rapportent au Job Server par défaut actuel. Si vous modifiez le Job Server par défaut, modifiez ces options et noms de chemin.
Table 23 :Ports de communication Designer
Option Description
Autoriser Designer à définir le port de communication du job server
Si la case est cochée, Designer définit automatiquement un port disponible pour la récep tion des messages du Job Server actuel. Elle est cochée par défaut. Décochez-la pour indi quer un port d'écoute ou une plage de ports.
De
A
Saisissez les numéros de port dans les zones de texte correspondantes. Pour indiquer un port d'écoute spécifique, saisissez le même numéro de port dans les deux zones de texte de port
De
et
A
. Les modifications seront seulement appliquées au redémarrage du progi ciel.
Uniquement activé lorsque vous désélectionnez le paramètre précédent. Permet d'indi quer une plage de ports dans laquelle Designer peut choisir un port d'écoute.
Vous pouvez décider de restreindre le port utilisé pour la communication entre Designer et le Job Server lorsque les deux composants sont séparés par un pare-feu.
Débogueur interactif
Permet de définir un port de communication avec un Job Server pour Designer, à utiliser lors de l'exécution en mode débogage.
Groupe de serveurs pour le référentiel local
Si le référentiel local auquel vous vous êtes connecté à l'ouverture de Designer est associé
à un groupe de serveurs, le nom du groupe de serveurs apparaît.
Informations associées
Modification du port du débogueur interactif [page 634]
3.11.2 Designer : généralités
Vous pouvez définir les paramètres par défaut pour les options couramment utilisées dans le Designer.
Table 24 :
Option
Afficher la taille de l'échantillonnage des données
(lignes)
Nombre de caractères dans le nom de l'icône d'espace de travail
Description
Contrôle la taille de l'échantillon utilisé pour afficher les données dans les sources et ci bles des flux de données en cours dans l'espace de travail. Pour visualiser les données, cliquez sur l'icône de loupe dans les objets sources et cibles.
Contrôle la longueur des noms d'objets affichés dans l'espace de travail. Les noms d'ob jets peuvent dépasser cette valeur mais Designer affiche seulement le nombre saisi ici. La valeur par défaut est de 17 caractères.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
53
Option
Nombre maximal d'éléments de l'arborescence de schéma à développer automatiquement
Paramètres par défaut aux variables portant le même nom
Description
Nombre d'éléments affichés dans l'arborescence de schéma. Les noms d'éléments ne doivent pas dépasser cette valeur. Saisissez un nombre pour le
Schéma d'entrée
et le
Schéma de sortie
. La valeur par défaut est 100.
Importer les domaines automatiquement
Lorsque vous déclarez une variable au niveau du workflow, le progiciel transmet automati quement la valeur sous forme de paramètre du même nom à un flux de données appelé par un workflow.
Cochez cette case pour importer automatiquement les domaines lors de l'importation d'une table faisant référence à un domaine.
Procéder à une validation complète avant l'exécution du job
Cette option permet d'exécuter une validation complète du job préalablement à son exé cution. Elle est désactivée par défaut. Si vous conservez ce paramétrage par défaut, vous devez valider la conception manuellement avant l'exécution du job.
Ouvrir le moniteur à l'exécution du job
Détermine le comportement de Designer lors de l'exécution d'un job. Si cette option est activée, Designer bascule de l'espace de travail à la vue du moniteur lors de l'exécution d'un job. Dans le cas contraire, l'espace de travail reste tel quel. L'option est activée par défaut.
Calculer automatiquement les mappages de colonnes
Calcule les informations relatives aux tables et colonnes cible et aux sources utilisées pour les compléter. Le progiciel utilise ces informations pour les rapports de métadon nées (sur l'impact et le lignage des données, par exemple), l'auto-documentation ou les rapports personnalisés. Les informations sur le mappage des colonnes sont sauvegar dées dans la table AL_COLMAP (vue ALVW_MAPPING) une fois que vous avez enregistré un flux de données, importé des objets dans un référentiel ou exporté des objets depuis un référentiel. Si l'option est sélectionnée, veillez à valider le job complet avant de l'enre gistrer car le calcul du mappage des colonnes est sensible aux erreurs et les flux de don nées présentant des problèmes de validation seront ignorés.
Afficher la boîte de dialogue une fois le job terminé
Afficher les onglets dans l'espace de travail
Permet d'indiquer si vous voulez obtenir une alerte ou simplement lire les messages de suivi.
Permet d'indiquer si vous voulez naviguer à l'aide des onglets en bas de l'espace de tra vail.
Fenêtre simple dans l'espace de travail
Permet d'afficher une seule fenêtre dans la zone d'espace de travail (par exemple un job ou une transformation). Si vous ouvrez une autre fenêtre, la fenêtre précédente se ferme et la nouvelle s'ouvre.
Permet d'afficher la page d'accueil Designer à l'ouverture de Designer.
Afficher la page d'accueil au démarrage
Activer la description de l'objet lors de l'instanciation
Active la description d'éléments pour les éléments placés dans votre flux (par exemple un lecteur ou une transformation mis dans un job, un workflow ou un flux de données).
Exclure les éléments non exécutables de l'exportation vers le document XML
Exclut les éléments non traités lors de l'exécution du job des documents XML exportés.
Par exemple, les coordonnées d'affichage de l'espace de travail de Designer ne sont pas exportées.
Pour en savoir plus sur l'actualisation de l'onglet des données d'utilisation, voir le Guide de la Console de gestion.
Informations associées
Utilisation de l'affichage des données [page 617]
54
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
3.11.3 Designer : éléments graphiques
Sélectionnez et prévisualisez les éléments de style afin de personnaliser vos espaces de travail. Ces options permettent d'établir une distinction claire entre l'espace de travail de conception de jobs/workflows et l'espace de travail de conception de flux de données.
Table 25 :
Option
Type de flux de l'espace de travail
Type de ligne
Epaisseur de ligne
Style d'arrière-plan
Jeu de couleurs
Utiliser le filigrane de navigation
Description
Passez de l'un à l'autre des types de flux d'espace de travail (Job/Workflow et Flux de données) pour visualiser les paramètres par défaut. Modifiez les paramètres de chaque type à l'aide des options restantes.
Choisissez un style pour les lignes de connecteurs d'objets.
Définit l'épaisseur de ligne du connecteur.
Choisissez un motif d'arrière-plan simple ou en mosaïque pour le type de flux sélec tionné.
Définit la couleur d'arrière-plan en bleu, gris ou blanc.
Ajoute un filigrane à l'arrière-plan du type de flux sélectionné. Cette option est uni quement disponible avec un style d'arrière-plan simple.
3.11.4 Designer : valeurs d'attributs
Lors d'une réimportation, Data Services conserve ou efface l'ancienne valeur pour certains attributs de table et de colonne. Vous pouvez contrôler les actions effectuées par Data Services lors d'une réimportation pour certains attributs.
Table 26 :
Attribut
Description professionnelle
Nom commercial
Type de contenu
Description
Nombre de lignes estimé
Etiquette de l'objet
Utilisation de la table
Type d'objet
Colonne et table
Colonne et table
Colonne
Colonne et table
Table
Colonne et table
Table
Description
Description commerciale d'une table ou d'une colonne.
Champ logique. L'attribut définit et exécute les jobs qui ex traient, transforment et chargent des données physiques pendant que les données Nom commercial restent intactes.
Définit le type de données dans une colonne.
Description de la colonne ou table.
Estimation de la taille de la table utilisée lors du calcul de l'or dre de lecture des tables pour l'exécution des opérations de jointure.
Etiquette utilisée pour décrire un objet.
Champ d'étiquette utilisé par exemple pour marquer une ta ble comme un fait ou une dimension.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
55
3.11.5 Designer : connexions au référentiel central
Le référentiel central fournit une bibliothèque d'objets partagée permettant aux développeurs d'enregistrer des objets dans leurs référentiels locaux et de les en extraire. Utilisez ces options pour définir les paramètres de connexion par défaut.
Table 27 :
Options
Connexions au référentiel central
Réactiver automatiquement
Description
Affiche les connexions au référentiel central et le référentiel central actif. Pour activer un référentiel central, cliquez avec le bouton droit sur l'une des connexions de la liste et sélection nez
Activer
.
Indiquez si vous voulez que le référentiel central actif soit ré activé chaque fois que vous vous connectez au progiciel à l'aide du référentiel local en cours.
3.11.6 Designer : langue
Ces options fournissent des paramètres régionaux dans une langue autre que l'anglais (paramètre par défaut) pour l'affichage de l'interface utilisateur Data Services et de tout texte généré dans d'autres langues par cette interface. Vous pouvez sélectionner les paramètres régionaux à la fois pour l'interface utilisateur et les données affichées.
Table 28 :
Option
Paramètres régionaux du produit
Description
Spécifie la langue de l'interface utilisateur et de tous les messages du pro duit.
Paramètres régionaux de visualisation préférés
Spécifie les paramètres régionaux à utiliser pour la présentation des données utilisateur. Par exemple, le format de la date doit correspondre aux paramè tres régionaux de visualisation préférés.
3.11.7 Designer : SSL
Par défaut, les chemins d'accès aux certificats SSL et aux fichiers de clé sont automatiquement configurés pendant l'installation. Il n'est pas nécessaire de les modifier à moins que vous ne souhaitiez utiliser vos propres certificats.
Remarque
Si vous modifiez des options SSL autres que
Utiliser le protocole SSL pour le profileur
, vous devez redémarrer
Designer et tous les serveurs Data Services.
56
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
Table 29 :
Option
Fichier de certificat du serveur
Fichier de clé privée du serveur
Utiliser le fichier de mots de passe de la clé privée du serveur
Dossier de certificats approuvés
Utiliser le protocole SSL pour le profileur
Description
Chemin d'accès au fichier de certificat du serveur. Le certifi cat du serveur doit être au format PEM.
Chemin d'accès au fichier de clé privée du serveur.
Sélectionnez cette option et indiquez l'emplacement du fichier de mots de passe si vous souhaitez utiliser un fichier de mots de passe de la clé privée.
Indiquez l'emplacement du dossier de certificats approuvés.
Les extensions valides pour les certificats dans le dossier des certificats approuvés comprennent .pem, .crt et .cer. Quelle que soit l'extension du fichier, tous les contenus du fichier de certificats doivent être au format PEM.
Sélectionnez cette option pour utiliser le protocole SSL pour les communications entre Designer et le serveur du profileur.
3.11.8 Données : généralités
Utilisez les options de la fenêtre Données - Généralités pour définir les options de données par défaut dans le logiciel.
Les options suivantes sont disponibles :
Table 30 :
Option
Changement de siècle
Description
Indique la façon dont le progiciel interprète le siècle pour les années à deux chiffres. Les années à deux chiffres supérieu res ou égales à cette valeur sont interprétées comme 19##.
Les années à deux chiffres inférieures à cette valeur sont in terprétées comme 20##. La valeur par défaut est 15.
Si, par exemple, vous donnez la valeur 15 à l'option
Changement de siècle
:
Table 31 :
Année à deux chiffres
99
16
15
14
Interprétation
1999
1916
1915
2014
Convertir les valeurs vides en valeurs nulles pour le Bulk
Loader Oracle
Convertit les valeurs vides en valeurs nulles lors du charge ment de données via l'utilitaire Bulk Loader Oracle :
● si la colonne ne fait pas partie de la clé primaire
● et si la colonne accepte la valeur Null.
Guide de Designer
Interface utilisateur du Designer
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
57
3.11.9 Job Server : environnement
Data Services utilise des processus et des threads pour exécuter des jobs qui extraient les données de sources, transforment les données et les chargent dans un entrepôt de données. Le nombre de processus et de threads en cours d'exécution simultanément influence la performance des jobs Data Services.
Table 32 :
Option
Nombre maximal de traitements de moteur
Description
Définit le nombre limite de traitements parallèles du moteur pour le Job Server.
3.11.10 Job Server : généralités
Utilisez cette fenêtre pour modifier les valeurs d'option par défaut pour un Job Server individuel.
Une fois le Job Server sélectionné, vous pouvez modifier la valeur par défaut pour un certain nombre d'éléments.
Par exemple, vous pouvez modifier le nombre de fois qu'un Job Serveur tente d'établir une connexion au FTP s'il a initialement échoué.
Informations associées
Modifier les valeurs d'option pour un Job Server individuel [page 329]
58
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Interface utilisateur du Designer
4 Projets et Jobs
Les objets Projet et Job représentent les deux niveaux supérieurs d'organisation pour les flux d'application que vous créez à l'aide de Designer.
4.1 Projets
Un projet désigne un objet réutilisable qui vous permet de regrouper des jobs.
Un projet désigne le niveau le plus élevé d'organisation proposé par le logiciel. L'ouverture d'un projet permet d'accéder facilement à un groupe d'objets dans l'interface utilisateur.
Vous pouvez utiliser un projet pour regrouper des jobs ayant des planifications dépendantes les unes des autres ou pour lesquelles vous souhaitez effectuer un suivi commun..
Les projets ont des caractéristiques communes :
● Les projets sont listés dans la bibliothèque d'objets.
● Vous pouvez ouvrir un seul projet à la fois.
● Les projets ne peuvent pas être partagés entre plusieurs utilisateurs.
4.1.1 Objets constituant un projet
Dans un projet, les objets s'affichent hiérarchiquement dans la zone de projet.
Si un signe plus (+) s'affiche en regard d'un objet, développez-le pour afficher les objets de niveau inférieur figurant dans l'objet. Le logiciel indique le contenu comme noms dans la hiérarchie de zone de projet et des icônes dans l'espace de travail.
Dans l'exemple suivant, le job Job_KeyGen contient deux flux de données et le flux de données DF_EmpMap contient plusieurs objets.
Guide de Designer
Projets et Jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
59
Chaque élément sélectionné dans la zone de projet s'affiche également dans l'espace de travail :
4.1.2 Création d'un projet
1. Sélectionnez
Projet Nouveau Projet
.
2. Entrez le nom de votre nouveau projet.
Le nom peut comporter des caractères alphanumériques et des traits de soulignement (_). Il ne peut pas contenir d'espaces.
3. Cliquez sur
Créer
.
Le nouveau projet s'affiche dans la zone de projet. Si vous ajoutez des jobs et d'autres objets de niveau inférieur, ils apparaissent également dans la zone de projet.
4.1.3 Ouvrir un projet existant
1. Sélectionnez
Projet Ouvrir
.
2. Sélectionnez le nom d'un projet existant dans la liste.
3. Cliquez sur
Ouvrir
.
60
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Projets et Jobs
Remarque
Si un autre projet a déjà été ouvert, le logiciel le ferme et ouvre le nouveau.
4.1.4 Enregistrer toutes les modifications apportées à un projet
1. Sélectionnez
Projet Tout enregistrer
.
Le logiciel liste les jobs, les workflows et les flux de données modifiés depuis le dernier enregistrement.
2. (facultatif) Désélectionnez tout objet listé pour éviter de l'enregistrer.
3. Cliquez sur
OK
.
Remarque
Le logiciel vous invite à enregistrer tous les objets modifiés lorsque vous exécutez un job et que vous quittez Designer. L'enregistrement d'un objet réutilisable entraîne l'enregistrement des objets à usage unique qu'il contient le cas échéant.
4.2 Jobs
Un job est le seul objet que vous pouvez exécuter.
Vous pouvez exécuter manuellement des jobs et les tester en mode développement. En mode production, vous pouvez planifier des jobs batch et configurer des jobs en temps réel comme services qui exécutent un processus lorsque le logiciel reçoit une demande de message.
Un job se compose d'étapes que vous souhaitez exécuter ensemble. Chaque étape est représentée par une icône objet que vous placez dans l'espace de travail pour créer un diagramme de jobs. Un diagramme de jobs se compose de deux objets ou plus reliés ensemble. Vous pouvez inclure l'un des objets suivants dans une définition de job :
● Flux de données
○ Sources
○ Cibles
○ Transformations
● Workflows
○ Scripts
○ Structures conditionnelles
○ Boucles WHILE
○ Blocs Try/Catch
Si un job devient complexe, organisez son contenu en workflows individuels puis créez un job individuel qui appelle ces workflows.
Guide de Designer
Projets et Jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
61
Les jobs en temps réel utilisent les mêmes composants que les jobs batch. Vous pouvez ajouter des workflows et des flux de données aux jobs batch et aux jobs en temps réel. Lorsque vous faites glisser une icône de workflow ou de flux de données dans un job, vous demandez au logiciel de valider ces objets selon les exigences du type de job
(batch ou temps réel).
Il existe certaines restrictions en ce qui concerne l'utilisation de certaines fonctions du logiciel avec les jobs en temps réel.
Informations associées
4.2.1 Créer un job dans la zone de projet
1. Dans la zone de projet, sélectionnez le nom du projet.
2. Cliquez avec le bouton droit de la souris et sélectionnez
Nouveau jobJob
ou
Job en temps réel
.
3. Modifiez le nom.
Le nom peut comporter des caractères alphanumériques et des traits de soulignement (_). Il ne peut pas contenir d'espaces.
Le logiciel ouvre un nouvel espace de travail où vous définissez le job.
4.2.2 Créer un job dans la bibliothèque d'objets
1. Accédez à l'onglet
Jobs
.
2. Cliquez avec le bouton droit de la souris sur
Jobs batch
ou
Jobs en temps réel
et sélectionnez
Nouveau
.
3. Un nouveau job s'affiche avec un nom par défaut.
4. Cliquez avec le bouton droit de la souris et sélectionnez
Propriétés
pour modifier le nom des objets et ajouter une description.
Le nom peut comporter des caractères alphanumériques et des traits de soulignement (_). Il ne peut pas contenir d'espaces.
5. Pour ajouter le job au projet en cours, faites-le glisser dans la zone de projet.
4.2.3 Conventions d'appellation pour objets dans jobs
Nous vous recommandons de suivre les conventions d'appellation cohérentes pour simplifier l'identification d'objet dans tous les systèmes de votre entreprise. Vous pourrez ainsi travailler plus facilement avec des métadonnées dans toutes les applications, par exemple :
62
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Projets et Jobs
● Applications de modélisation des données
● Applications ETL
● Applications de reporting
● Kits de développement de logiciel Adapter
Des exemples de conventions recommandées pour l'utilisation de jobs et autres objets sont indiqués dans le tableau suivant.
WF_
JOB_ n/a
DC_
SC_ n/a
PROC_
Table 33 :
Préfixe
DF_
EDF_
EDF_
RTJob_
Suffixe n/a
_Input
_Output n/a n/a n/a
_DS n/a n/a
_Memory_DS n/a
Objet
Flux de données
Flux de données imbriquées
Flux de données imbriquées
Job en temps réel
Workflow
Job
Banque de données
Configuration de banque de données
Configuration du système
Banque de données en mémoire
Procédure stockée
Exemple
DF_Currency
EDF_Example_Input
EDF_Example_Output
RTJob_OrderStatus
WF_SalesOrg
JOB_SalesOrg
ORA_DS
DC_DB2_production
SC_ORA_test
Catalog_Memory_DS
PROC_SalesStatus
Bien que Designer soit une interface utilisateur graphique avec des icônes représentant des objets dans sa fenêtre, d'autres interfaces peuvent vous amener à identifier les types d'objets par le texte seul. En utilisant un préfixe ou un suffixe vous pouvez plus facilement identifier votre type d'objet.
Outre les préfixes et les suffixes, vous pouvez être amené à fournir des noms standardisés pour des objets identifiant une action spécifique dans tous les types d'objets. Par exemple : DF_OrderStatus, RTJob_OrderStatus.
Outre les préfixes et les suffixes, les conventions d'appellation peuvent également inclure des identificateurs de nom du chemin. Par exemple, la convention d'appellation de procédure stockée peut être la suivante :
<datastore>.<owner>.<PROC_Name>
<datastore>.<owner>.<package>.<PROC_Name>
Guide de Designer
Projets et Jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
63
5 Banques de données
Décrit les différents types de banques de données, fournit des détails sur la banque de données du connecteur
Attunity et des instructions pour la configuration des banques de données.
5.1 Qu'est-ce qu'une banque de données
Les banques de données représentent des configurations de connexion entre le logiciel et les bases de données ou les applications.
Ces configurations peuvent être directes ou via un adaptateur. Les configurations de banque de données permettent au logiciel d'accéder aux métadonnées d'une base de données ou d'une application, et de lire depuis ou d'écrire dans cette base de données ou application pendant que le logiciel exécute un job.
Les banques de données SAP Data Services peuvent se connecter à :
● Des bases de données et des systèmes de fichier de l'ordinateur principal.
● Des applications qui ont des adaptateurs pré-packagés ou écrits par l'utilisateur.
● J.D. Edwards One World et J.D. Edwards World, applications Oracle, PeopleSoft, applications, SAP applications, SAP NetWeaver BW, applications Siebel et Google BigQuery. Voir les guides suppléments appropriés.
● Serveurs à distance utilisant FTP, SFTP et SCP.
Remarque
Le logiciel lit et écrit des données stockées dans des fichiers plats à l'aide de formats de fichiers plats. Le logiciel lit et écrit des données stockées dans des documents XML à l'aide de schémas DTD et XML.
Les informations spécifiques auxquelles un objet de banque de données peut accéder dépendent de la configuration de connexion. Lorsque la base de données ou l'application est modifiée, apportez les modifications correspondantes dans les informations de banque de données dans le logiciel. Le logiciel ne détecte pas automatiquement les nouvelles informations.
Remarque
Les objets supprimés d'une connexion à la banque de données sont identifiés dans la zone du projet et dans l'espace de travail par une icône rouge "supprimé". Cet indicateur visuel permet de trouver et de mettre à jour les flux de données affectés par les modifications de la banque de données.
Il est possible de créer plusieurs configurations pour une banque de données. Cela vous permet de prévoir en avance les différents environnements dans lesquels la banque de données peut être utilisée et limite le travail impliqué par la migration de jobs. Par exemple, il est possible d'ajouter un ensemble de configurations(DEV, TEST et PROD) au même nom de banque de données. Ces paramètres de connexion restent avec la banque de données lors de l'exportation ou de l'importation. Il est possible de grouper tous les ensembles de configurations de la
64
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
banque de données dans une configuration système. Lors de l'exécution ou de la planification d'un job, sélectionnez une configuration système et ainsi l'ensemble des configurations de la banque de données pour l'environnement actuel.
Informations associées
Banques de données de bases de données [page 65]
Banques de données de l'adaptateur [page 88]
Formats de fichiers [page 109]
Mise en forme des documents XML [page 225]
Création et gestion de plusieurs configurations de banques de données [page 92]
5.2 Banques de données de bases de données
Permet à Data Services d'effectuer des opérations de lecture et d'écriture dans les types de base de données pris en charge.
Les banques de données de bases de données représentent des connexions uniques ou multiples avec :
● Des systèmes hérités à l'aide de Attunity Connect
● Des bases de données IBM DB2, Informix, Microsoft SQL Server, Oracle, SQL Anywhere, SAP ASE, Sybase IQ,
MySQL, Netezza, SAP HANA, SAP Data Federator et Teradata (à l'aide de connexions natives)
● D'autres bases de données (par ODBC)
● Un référentiel, à l'aide d'une banque de données en mémoire ou d'une banque de données de cache persistant
Vous créez une connexion à la plupart des sources de données à l'aide du nom de serveur au lieu du nom du DSN
(nom de source de données) ou du nom du TNS (Transparent Network Substrate). Les connexions avec nom de serveur (également appelées connexions sans DSN et connexions sans TNS) suppriment le besoin de configurer les mêmes entrées DSN ou TNS sur chaque ordinateur dans un environnement distribué.
Pour en savoir plus sur les connexions sans DSN et sans TNS, voir le Guide d'administration.
5.2.1 Interface de l'ordinateur central
Le logiciel fournit la banque de données du connecteur Attunity qui accède aux sources de données de l'ordinateur central par Attunity Connect.
Les sources de données auxquelles Attunity Connect accède sont dans la liste suivante : Pour une liste complète des sources, consultez la documentation d'Attunity.
● Adabas
● DB2 UDB pour OS/390 et DB2 UDB pour OS/400
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
65
● IMS/DB
● VSAM
● Fichiers plats sur OS/390 et fichiers plats sur OS/400
5.2.1.1 Conditions préalables pour une banque de données
Attunity
Le connecteur Attunity accède aux données de l'ordinateur central à l'aide du logiciel que vous devez installer manuellement sur le serveur de l'ordinateur central et sur l'ordinateur du client local (Job Server). Le logiciel se connecte au connecteur Attunity à l'aide de son interface ODBC.
Il n'est pas nécessaire d'acheter un gestionnaire de pilotes ODBC distinct pour UNIX et pour les plateformes
Windows.
Serveurs
Installez et configurez le produit Attunity Connect sur le serveur (par exemple, un ordinateur z Series).
Clients
Pour accéder aux données de l'ordinateur central à l'aide du connecteur Attunity, installez le produit Attunity
Connect. Le pilote ODBC est requis. Attunity offre également un outil facultatif appelé Attunity Studio, qu'il est possible d'utiliser pour la configuration et l'administration.
Configurez les sources de données ODBC sur le client (Job Server de SAPData Services).
Lorsque vous installez un Job Server sur UNIX, l'installateur vous invite à fournir un chemin du répertoire d'installation pour le logiciel du connecteur Attunity. De plus, il n'est pas nécessaire d'installer un gestionnaire de pilotes parce que le logiciel charge les pilotes ODBC directement sur les plateformes UNIX.
Pour plus d'informations sur la manière d'installer et de configurer ces produits, consultez leur documentation.
5.2.1.2 Création et configuration d'une banque de données
Attunity
Pour utiliser l'option de la banque de données du connecteur Attunity, mettez à niveau le référentiel vers la version 6.5.1 ou ultérieure de SAP Data Services.
Pour créer et configurer une banque de données du connecteur Attunity :
1. Dans l'onglet
Banques de données
de la bibliothèque d'objets, faites un clic droit et sélectionnez
Nouveau
.
66
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
2. Saisissez un nom pour la banque de données.
3. Dans la zone
Type de banque de données
, sélectionnez
Base de données
.
4. Dans la case
Type de la base de données
, sélectionnez
Connecteur Attunity
.
5. Saisissez le nom de la source de données Attunity, l'emplacement du démon Attunity (
Emplacement de l'hôte
), le numéro du port du démon Attunity, et un nom unique de l'espace de travail du serveur Attunity.
6. Pour modifier les options par défaut (telles que
Lignes par validation
ou
Langue
), cliquez sur le bouton
Avancé
.
7. Cliquez sur
OK
.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les tables de métadonnées dans le référentiel actuel.
5.2.1.3 Spécification de plusieurs sources de données dans une banque de données Attunity
La banque de données du connecteur Attunity permet d'accéder à plusieurs sources de données Attunity sur le même emplacement de démon Attunity.
Si plusieurs types de données existent sur le même ordinateur, par exemple une base de données DB2 et VSAM, il est possible que vous souhaitiez accéder aux deux types de données à l'aide d'une seule connexion. Par exemple, vous pouvez utiliser une connexion unique pour relier les tables (et pousser vers le bas l'opération de jointure vers un serveur distant), ce qui réduit la quantité de données transmises par le réseau.
Pour spécifier plusieurs sources dans l'éditeur de banque de données :
1. Séparez les noms des sources de données par des points virgules dans la case de la source de données
Attunity à l'aide du format suivant :
AttunityDataSourceName;AttunityDataSourceName
Par exemple, si vous possédez une source de données DB2 appelée DSN4 et une source de données VSAM appelée Navdemo, saisissez les valeurs suivantes dans la case Source de données :
DSN4;Navdemo
2. Si vous faites une liste de plusieurs noms de source de données pour une banque de données du connecteur
Attunity, assurez-vous de respecter les conditions suivantes :
○ Toutes les sources de données Attunity doivent être accessibles avec le même nom d'utilisateur et mot de passe.
○ Toutes les sources de données Attunity doivent utiliser le même espace de travail. Lorsque vous configurez l'accès aux sources de données dans Attunity Studio, utilisez le même nom d'espace de travail pour chaque source de données.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
67
5.2.1.4 Convention d'appellation Data Services pour les tables Attunity
Le format Data Services pour l'accès aux tables Attunity est particulier à Data Services.
Puisqu'une seule banque de données peut accéder à plusieurs systèmes logiciels qui ne partagent pas le même espace de noms, le nom de la source de données Attunity doit être indiqué lorsqu'elle fait référence à une table.
Avec un connecteur Attunity, faites précéder le nom de la table avec les noms de la source de données et du propriétaire, séparés par deux points. Le format est le suivant :
AttunityDataSource:OwnerName.TableName
Lors de l'utilisation de Designer pour créer vos jobs avec des tables Attunity importées, Data Services génère automatiquement le SQL correct pour ce format. Cependant, lorsque vous créez SQL, assurez-vous d'utiliser ce format. Il est possible de créer SQL dans les constructions suivantes :
● fonction SQL ;
● transformation SQL ;
● fonction pushdown_sql ;
● commandes de pré-chargement dans un chargeur de table ;
● commandes de post-chargement dans un chargeur de table.
Remarque
Pour les tables de Data Services, la longueur maximum du nom du propriétaire pour la plupart des types de référentiels est de 256 caractères (64 pour MySQL et 128 pour MS SQL server). Dans le cas des tables
Attunity, la longueur maximum du nom de la source de données Attunity et du nom réel du propriétaire est de
63 caractères (les deux-points comptent pour 1 caractère).
5.2.1.5 Limitations pour la banque de données Attunity
Toutes les fonctionnalités Data Services sont disponibles lorsque vous utilisez une banque de données du connecteur Attunity, excepté pour quelques fonctionnalités.
● Chargement par lots
● Fonctions importées (importe les métadonnées pour les tables uniquement)
● Tables de modèle (création de tables)
● Le type de données date-heure prend en charge jusqu'à 2 multiples décimaux de secondes uniquement
● Data Services ne peut pas charger des données d'horodatage dans une colonne d'horodatage dans une table car Attunity tronque les données varchar à 8 caractères, ce qui n'est pas assez pour représenter correctement une valeur d'horodatage.
● Lors de l'exécution d'un job sur UNIX, le job peut échouer avec l'erreur suivante :
[D000] Cannot open file /usr1/attun/navroot/def/sys System error 13: The file access permissions do not allow the specified action.; (OPEN)
Cette erreur se produit à cause des autorisations de fichier insuffisantes pour certains des fichiers dans le répertoire d'installation Attunity. Pour éviter cette erreur, remplacez les autorisations de fichier pour tous les
68
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
fichiers dans le répertoire Attunity par 777 en exécutant la commande suivante depuis le répertoire d'installation Attunity :
$ chmod -R 777 *
5.2.2 Définition d'une banque de données d'une base de données
Définissez au moins une banque de données d'une base de données pour chaque base de données ou système de fichier central avec lesquels vous échangez des données.
Pour définir une banque de données de base de données, obtenez les privilèges d'accès à la base de données ou au système de fichier décrits par la banque de données.
Par exemple, le fait de permettre au logiciel d'utiliser le SQL paramétré lors de la lecture ou de l'écriture sur des bases de données DB2 autorise l'utilisateur (de la banque de données/base de données) à créer, exécuter et déposer les procédures stockées. Si l'utilisateur n'est pas autorisé à créer, exécuter et déposer les procédures stockées, les jobs continuent d'exécuter. Cependant, les jobs produiront un message d'avertissement et exécuteront moins efficacement.
1. Dans l'onglet
Banques de données
de la bibliothèque d'objets, faites un clic droit et sélectionnez
Nouveau
.
2. Saisissez le nom de la nouvelle banque de données dans le champ
Nom de la banque de données
.
Le nom peut contenir tous les caractères alphabétiques ou numériques, ou des tirets de soulignement (_). Il ne peut pas contenir d'espace.
3. Dans la zone
Type de banque de données
, sélectionnez
Base de données
.
Le logiciel affiche les options pertinentes pour ce type. Vous trouverez de plus amples informations sur ces options et sur les types de base de données qui ne sont pas traités ici dans la section "Banques de données de base de donnée" du Guide de référence.
Type de base de données
Oracle
Connexions sans DSN
Informations supplémentaires
Le type de base de données Oracle prend en charge les connexions sans
TNS. Pour utiliser une connexion sans TNS, désélectionnez
Utiliser le nom du
TNS
et saisissez le nom de l'hôte, le SID et le port.
Les types de base de données DB2, Informix, MySQL, Netezza ou SAP HANA prennent en charge les connexions sans DSN.
Pour obtenir la dernière liste des bases de données prises en charge pour les connexions sans DSN, voir les Notes de version.
Pour utiliser une connexion sans DSN, désélectionnez
Utiliser le nom de source de données (DSN)
et saisissez le nom du serveur de base de données, le nom de la base de données (pour DB2 et MySQL) et les informations de port.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
69
Type de base de données
Data Federator
Informations supplémentaires
Si vous sélectionnez Informix et que vous souhaitez utiliser des connexions sans DSN lorsque Data Services se trouve sur un autre ordinateur que le ser veur Informix, vous devez identifier l'hôte Informix comme suit :
1. Accédez au dossier d'installation du client Informix (par exemple : C:
\Program Files\IBM\Informix\Client-SDK\bin Run setnet32.exe
).
2. Dans l'onglet d'informations sur le serveur, saisissez le nom du serveur
Informix IBM, le nom d'hôte et les autres informations requises.
3. Faites du serveur Informix IBM le serveur par défaut.
Pour les connexions sans DSN à une base de données Informix, le Designer peut à présent obtenir le nom de l'hôte Informix pour le nom de serveur Infor mix indiqué.
Lorsque vous utilisez ce type de base de données, vous devez spécifier le nom du catalogue et le nom du schéma dans l'URL. Si vous ne le faites pas, il est possible que toutes les tables de chaque catalogue s'affichent.
1. Sélectionnez Admin ODBC puis l'onglet DSN système.
2. Mettez en surbrillance
Data Federator
puis cliquez sur
Configurer
.
3. Dans l'option URL, saisissez le nom du catalogue et le nom du schéma.
Par exemple : jdbc:leselect://localhost/
<NomCatalogue> ;schema= <NomSchéma>
4. Sélectionnez
Activer le transfert automatique des données
pour permettre à la transformation Data_Transfer d'utiliser les tables de transfert dans cette banque de données pour pousser vers le bas les opérations de base de données ultérieures. Cette case à cocher s'affiche pour toutes les bases de données, sauf le connecteur Attunity, Data Federator, le cache mémoire et le cache persistant.
5. Pour ajouter plus d'informations, sélectionnez
Avancé
.
Cliquez sur la cellule sous chaque option de configuration et saisissez ou sélectionnez une valeur.
6. Si vous souhaitez que le logiciel convertisse un type de données de votre source qu'il ne prend normalement pas en charge, sélectionnez
Importer les types de données non pris en charge comme VARCHAR de taille
et saisissez le nombre de caractères que vous autorisez. Vous trouverez de plus amples informations sur les types de données dans le Guide de référence.
7. Cliquez sur
OK
pour enregistrer la banque de données de base de données.
Remarque
Sur les versions de Data Integrator antérieures à la version 11.7.0, le type de base de données approprié à utiliser lors de la création d'une banque de données sur Netezza était ODBC. SAP Data Services 11.7.1 fournit une option Netezza spécifique comme type de base de données à la place d'ODBC. Lors de l'utilisation de Netezza comme base de données avec le logiciel, nous recommandons de sélectionner l'option Netezza du logiciel comme type de base de données plutôt qu'ODBC.
70
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
Informations associées
Comment importer des métadonnées [page 76]
Création et gestion de plusieurs configurations de banques de données [page 92]
5.2.3 Configuration des sources de données ODBC sur UNIX
Pour utiliser les sources de données ODBC sur les plateformes UNIX, il est possible que vous deviez effectuer une configuration supplémentaire.
Data Services fournit le Gestionnaire de connexions pour simplifier la configuration des sources de données
ODBC nativement prises en charges telles que MySQL et Teradata. Les autres sources de données ODBC peuvent exiger une configuration manuelle.
5.2.4 Parcourir les métadonnées depuis une banque de données de base de données
Vous pouvez afficher les métadonnées pour les objets importés ou non importés et pour contrôler si les métadonnées ont changé pour les objets déjà importés.
Le logiciel enregistre les informations de métadonnées pour tous les objets importés dans une banque de données.
5.2.4.1 Affichage des objets importés
1. Accédez à l'onglet
Banques de données
dans la bibliothèque d'objets.
2. Cliquez sur le signe plus (+) à côté du nom de la banque de données pour afficher les types d'objet dans la banque de données. Par exemple, les banques de données de base de données ont des fonctions, des tables, et des tables de modèle.
3. Cliquez sur le signe plus (+) à côté d'un type d'objet pour afficher les objets de ce type importés depuis la banque de données. Par exemple, cliquez sur le signe plus (+) à côté des tables pour afficher les tables importées.
5.2.4.2 Tri de la liste des objets
Cliquez sur l'en-tête de colonne pour trier par ordre alphabétique les objets dans chaque regroupement, et les regroupements dans chaque banque de données. Cliquez à nouveau pour trier par ordre alphabétique inversé.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
71
5.2.4.3 Afficher les métadonnées de banque de données
1. Sélectionnez l'onglet
Banques de données
dans la bibliothèque d'objets.
2. Sélectionnez une banque de données, faites un clic droit et sélectionnez
Ouvrir
. (Il est également possible de double-cliquer sur l'icône de la banque de données.)
Le logiciel ouvre l'explorateur de banque de données dans l'espace de travail. L'explorateur de banque de données liste les tables dans la banque de données. Il est possible de voir des tables dans la base de données externe ou dans le référentiel interne. Il est également possible de faire une recherche dans ces composants.
3. Sélectionnez
Métadonnées externes
pour afficher les tables dans la base de données externe.
Si vous sélectionnez une table ou plus, il est possible de faire un clic droit pour plus d'options.
Table 34 :
Commande Description
Ouvrir (uniquement disponible si vous sélectionnez une seule table).
Ouvre l'éditeur pour les métadonnées de table.
Importer
Rapprocher
Importe (ou réimporte) des métadonnées de la base de données vers le référentiel.
Contrôle les différences entre les métadonnées de la base de données et celles dans le référentiel.
4. Sélectionnez
Métadonnées du référentiel
pour afficher les tables importées.
Si vous sélectionnez une table ou plus, il est possible de faire un clic droit pour plus d'options.
Table 35 :
Commande Description
Ouvre l'éditeur pour les métadonnées de table.
Ouvrir (uniquement disponible si vous sélectionnez une seule table).
Rapprocher
Réimporter
Contrôle les différences entre les métadonnées du référen tiel et celles de la base de données.
Réimporte les métadonnées de la base de données vers le référentiel.
Supprimer Supprime la table ou les tables du référentiel.
Propriétés (uniquement disponible si vous sélectionnez une seule table).
Affiche les propriétés de la table sélectionnée.
Afficher les données Ouvre la fenêtre Afficher les données qui permet de voir les données qui sont actuellement dans la table.
72
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
Informations associées
Importer par recherche [page 78]
5.2.4.4 Déterminer si un schéma a changé depuis son importation
1. Dans la fenêtre du navigateur qui affiche la liste des tables du référentiel, sélectionnez
Métadonnées externes
.
2. Sélectionnez la table ou les tables dont vous souhaitez contrôler les modifications.
3. Faites un clic droit et sélectionnez
Rapprocher
.
La colonne Modifiée affiche OUI pour indiquer que les tables de la base de données sont différentes des métadonnées importées dans le logiciel. Pour utiliser les métadonnées du logiciel les plus récentes, réimportez la table.
La colonne Importée affiche OUI pour indiquer que la table a été importée dans le référentiel.
5.2.4.5 Parcourir les métadonnées pour une table externe
1. Dans la fenêtre du navigateur qui affiche la liste des tables externes, sélectionnez la table que vous souhaitez afficher.
2. Faites un clic droit et sélectionnez
Ouvrir
.
Un éditeur de table apparait dans l'espace de travail et affiche le schéma et les attributs de la table.
5.2.4.6 Afficher les métadonnées pour une table importée
1. Sélectionnez le nom de la table dans la liste des tables importées.
2. Faites un clic droit et sélectionnez
Ouvrir
.
Un éditeur de table apparait dans l'espace de travail et affiche le schéma et les attributs de la table.
5.2.4.7 Afficher les informations d'index secondaires pour les tables
Les informations d'index secondaires peuvent aider à comprendre le schéma d'une table importée.
1. Dans l'onglet des banques de données de Designer, cliquez avec le bouton droit de la souris sur la table pour ouvrir le menu contextuel.
2. Dans le menu contextuel, cliquez sur
Propriétés
pour ouvrir la fenêtre Propriétés.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
73
3. Dans la fenêtre Propriétés, cliquez sur l'onglet
Index
. La partie gauche de la fenêtre affiche la liste d'index.
4. Cliquez sur un index pour voir le contenu.
5.2.5 Importation de métadonnées par une banque de données de base de données
Pour les banques de données de base de données, il est possible d'importer les métadonnées pour des tables et des fonctions.
5.2.5.1 Informations de table importée
Le logiciel détermine et enregistre un set spécifique d'informations de métadonnées pour les tables. Après avoir importé les métadonnées, il est possible de modifier les noms de colonne, les descriptions et les types de données.
Les modifications sont propagées vers tous les objets qui appellent ces objets.
Table 36 :
Métadonnées
Nom de la table
Description
Le nom de la table tel qu'il apparait dans la base de données.
Remarque
La longueur maximale dépend du type de référentiel Data
Services. Pour la plupart des types de référentiels, la lon gueur maximale est de 256 caractères ; elle est de 64 ca ractères pour MySQL et de 128 caractères pour MS SQL server.
Description de la table
Nom de colonne
Description de la colonne
Type de données de la colonne
Type de contenu de la colonne
La description de la table.
Le nom de la colonne.
La description de la colonne.
Le type de données pour la colonne.
Si une colonne est définie comme un type de données non pris en charge, le logiciel convertit le type de données en un type pris en charge. Dans certains cas, si le logiciel ne peut pas convertir le type de données, il ignore la colonne entière.
Le type de contenu identifie le type de données dans le champ.
74
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
Métadonnées
Colonne de la clé primaire
Attribut de la table
Nom du propriétaire
Description
La/Les colonne(s) qui contient/contiennent la clé primaire pour la table.
Après qu'une table ait été ajoutée à un diagramme de flux de données, ces colonnes sont indiquées dans la liste de colonne par une icône de clé à côté du nom de colonne.
Les informations enregistrées par le logiciel sur la table telles que la date de création et la date de modification si ces va leurs sont disponibles.
Nom du propriétaire de la table.
Remarque
Le nom du propriétaire pour les sources de données
MySQL et Netezza correspond au nom de la base de don nées ou du schéma dans lequel la table apparait.
5.2.5.1.1 Informations sur varchar et colonne à partir de SAP
Data Federator
Toutes les colonnes de décimales importées dans Data Services depuis une source de données SAP Data
Federator sont converties à la précision et à l'échelle décimale (28,6).
Toutes les colonnes varchar importées dans le logiciel à partir d'une source de données SAP Data Federator sont de type varchar (1024).
Il est possible de modifier la précision ou l'échelle décimale et la taille varchar dans le logiciel après l'importation depuis la source de données SAP Data Federator.
5.2.5.2 Informations de procédures et de fonctions stockées importées
Le logiciel peut importer des fonctions et des procédures stockées à partir d'un certain nombre de bases de données.
Vous pouvez importer des procédures stockées depuis les bases de données DB2, MS SQL Server, Oracle, SAP
HANA, SQL Anywhere, SAP ASE, Sybase IQ et Teradata.
Il est également possible d'importer des fonctions stockées et des packages depuis Oracle. Il est possible d'utiliser ces fonctions et procédures dans les spécifications d'extraction que vous avez données à Data Services.
Les informations importées pour les fonctions incluent :
● Les paramètres de fonction
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
75
● Le type de renvoi
● Le nom, le propriétaire
Les fonctions et les procédures importées apparaissent sur l'onglet
Banques de données
de la bibliothèque d'objets. Les fonctions et les procédures apparaissent dans la branche
Fonction
de chaque arborescence de banque de données.
Il est possible de configurer les fonctions et les procédures importées grâce à l'assistant de fonction et l'éditeur rapide dans une catégorie identifiée par le nom de la banque de données.
5.2.5.3 Comment importer des métadonnées
Décrit les méthodes d'importation des métadonnées.
5.2.5.3.1 Importer par navigation
Remarque
Les fonctions ne peuvent pas être importées par navigation.
1. Ouvrez la bibliothèque d'objets.
2. Accédez à l'onglet
Banques de données
.
3. Sélectionnez la banque de données que vous souhaitez utiliser.
4. Faites un clic droit et sélectionnez
Ouvrir
.
Les éléments disponibles pour importer via la banque de données apparaissent dans l'espace de travail.
Dans certains environnements, les tables sont organisées et affichées sous forme d'arborescence. Si c'est le cas, un signe plus (+) se trouve à gauche du nom. Cliquez sur le signe plus pour naviguer dans l'arborescence.
L'espace de travail contient des colonnes qui indiquent si la table a déjà été importée dans le logiciel
(Importée) et si le schéma de table a été modifié depuis qu'il a été importé (Modifié). Pour vérifier si le référentiel contient les métadonnées les plus récentes pour un objet, faites un clic droit sur l'objet et sélectionnez Rapprocher.
5. Sélectionnez les éléments pour lesquels vous souhaitez importer des métadonnées.
Par exemple, pour importer une table, vous devez sélectionner une table plutôt qu'un dossier qui contient des tables.
6. Faites un clic droit et sélectionnez
Importer
.
7. Dans la bibliothèque d'objets, accédez à l'onglet
Banques de données
pour afficher la liste des objets importés.
76
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
5.2.5.3.2 Comparer par nom
1. Ouvrez la bibliothèque d'objets.
2. Cliquez sur l'onglet
Banques de données
.
3. Sélectionnez la banque de données que vous souhaitez utiliser.
4. Faites un clic droit et sélectionnez
Importer par nom
5. Dans la fenêtre Importer par nom, sélectionnez le type d'élément que vous souhaitez importer de la liste
Type
.
Si vous importez une procédure stockée, sélectionnez
Fonction
.
6. Pour importer des tables : a. Saisissez un nom de table dans la case
Nom
pour indiquer une table particulière, ou sélectionnez la case à cocher
Tout
, si disponible, pour spécifier toutes les tables.
Si le nom respecte la casse dans la base de données (et non pas tout en majuscules), saisissez le nom tel qu'il apparait dans la base de données et utilisez les guillemets doubles (") autour du nom pour conserver la casse.
b. Saisissez un nom de propriétaire dans la case
Propriétaire
pour limiter les tables indiquées à un propriétaire particulier. Si vous laissez le nom de propriétaire vide, vous indiquez des tables correspondantes qui ne tiennent pas compte du propriétaire (c'est-à-dire, toutes les tables avec le nom de table indiqué).
7. Importer des fonctions et des procédures :
○ Dans la case
Nom
, saisissez le nom de la fonction ou de la procédure stockée.
Si le nom respecte la casse dans la base de données (et non pas tout en majuscules), saisissez le nom tel qu'il apparait dans la base de données et utilisez les guillemets doubles (") autour du nom pour conserver la casse. Autrement, le logiciel convertit les noms en des caractères majuscules.
Il est également possible de saisir le nom d'un package. Un package Oracle est une collection encapsulée d'objets de programme reliés (par exemple des procédures, fonctions, variables, curseurs et exceptions) stockés ensemble dans une base de données. Le logiciel permet d'importer des procédures ou des fonctions créées dans des packages et de les utiliser comme des procédures ou des fonctions de niveau supérieur.
Si vous saisissez un nom de package, le logiciel importe toutes les fonctions et les procédures stockées définies dans le package Oracle. Il est impossible d'importer une fonction ou une procédure individuelle définie dans un package.
○ Saisissez un nom de propriétaire dans la case
Propriétaire
pour limiter les fonctions indiquées à un propriétaire particulier. Si vous laissez le nom de propriétaire vide, vous indiquez des fonctions correspondantes qui ne tiennent pas compte du propriétaire (c'est-à-dire, toutes les fonctions avec le nom indiqué).
○ Si vous importez une fonction Oracle ou une procédure stockée et que l'une des conditions suivantes s'applique, décochez la case
Joignable depuis l'expression SQL
. Une procédure stockée ne peut pas être poussée vers le bas vers une base de données à l'intérieur d'une autre instruction SQL lorsque la procédure stockée contient une instruction DDL, qu'elle termine la transaction actuelle avec COMMIT ou
ROLLBACK, ou qu'elle émet une commande ALTER SESSION ou ALTER SYSTEM.
8. Cliquez sur
OK
.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
77
5.2.5.3.3 Importer par recherche
Remarque
Les fonctions ne peuvent pas être importées par recherche
1. Ouvrez la bibliothèque d'objets.
2. Cliquez sur l'onglet
Banques de données
.
3. Sélectionnez le nom de la banque de données que vous souhaitez utiliser.
4. Faites un clic droit et sélectionnez
Rechercher
.
La fenêtre Rechercher apparait.
5. Saisissez le nom entier de l'élément ou une partie dans la zone de texte
Nom
.
Si le nom respecte la casse dans la base de données (et non pas tout en majuscules), saisissez le nom tel qu'il apparait dans la base de données et utilisez les guillemets doubles (") autour du nom pour conserver la casse.
6. Sélectionnez
Contient
ou
Egal à
depuis la liste déroulante à droite en fonction de si vous avez fourni une valeur de recherche complète ou partielle.
Egal à sélectionne uniquement la chaîne de recherche complète. C'est à dire que vous devez rechercher nom_table.propriétaire plutôt que nom_table.
7. (Facultatif) Saisissez une description dans la zone de texte
Description
.
8. Sélectionnez le type d'objet dans la case
Type
.
9. Sélectionnez la banque de données dans laquelle vous souhaitez faire la recherche à partir de la case
Rechercher dans
.
10. Sélectionnez
Externe
dans la boîte déroulante à droite de la boîte
Rechercher dans
.
Externe indique que le logiciel recherche l'élément dans la base de données entière définie par la banque de données.
Interne indique que le logiciel recherche uniquement les éléments qui ont été importés.
11. Accédez à l'onglet
Avancé
pour faire une recherche à l'aide des valeurs d'attribut du logiciel.
Les options avancées s'appliquent uniquement aux recherches d'éléments importés.
12. Cliquez sur
Rechercher
.
Le logiciel liste les tables qui correspondent à vos critères de recherche.
13. Pour importer une table à partir de la liste retournée, sélectionnez la table, faites un clic droit et sélectionnez
Importer
.
78
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
5.2.5.4 Réimportation d'objets
Si vous avez déjà importé un objet tel qu'une banque de données, une fonction ou une table, il est possible de le réimporter, ce qui met à jour les métadonnées de l'objet depuis la base de données (la réimportation remplace toutes les modifications que vous avez apportées à l'objet dans le logiciel).
Dans les anciennes versions du logiciel, pour réimporter les objets, vous ouvriez la banque de données, affichiez les métadonnées du référentiel et sélectionniez les objets à réimporter. Dans cette version du logiciel, il est possible de réimporter les objets à l'aide de la bibliothèque d'objets à plusieurs niveaux :
● Objets individuels : réimporte les métadonnées pour un objet individuel tel qu'une table ou une fonction
● Niveau de nœud de catégorie : réimporte les définitions de tous les objets de ce type dans cette banque de données, par exemple, toutes les tables dans la banque de données
● Niveau de banque de données : réimporte l'ensemble de la banque de données et tous les objets dépendants, dont les tables, les fonctions, les IDOC et les hiérarchies
5.2.5.4.1 Réimporter les objets depuis la bibliothèque d'objets
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Banques de données
.
2. Faites un clic droit sur un objet individuel et cliquez sur
Réimporter
, ou faites un clic droit sur un nœud de catégorie ou sur un nom de banque de données et cliquez sur
Tout réimporter
.
Il est également possible de sélectionner plusieurs objets individuels en appuyant sur Ctrl ou Shift et en cliquant.
3. Cliquez sur
Oui
pour réimporter les métadonnées.
4. Si vous avez sélectionné plusieurs objets à réimporter (par exemple avec
Tout réimporter
), le logiciel demande confirmation pour chaque objet à moins que vous cochiez la case
Ne plus me poser la question pour les objets restants
.
Il est possible d'ignorer des objets à réimporter en cliquant sur Non pour cet objet.
Si vous n'êtes pas sur de vouloir réimporter (et donc remplacer) l'objet, cliquez sur Afficher utilisation pour afficher l'emplacement où l'objet est actuellement utilisé dans les jobs.
5.2.6 Banques de données en mémoire
Une banque de données en mémoire est un conteneur pour des tables en mémoire.
Le logiciel permet de créer une banque de données de base de données à l'aide de la
Mémoire
comme
Type de la base de données
. Les banques de données en mémoire sont conçues pour améliorer la performance de traitement des flux de données qui exécutent des jobs en temps réel. Les données (en petite quantité en général dans un job en temps réel) sont stockées en mémoire pour offrir un accès immédiat plutôt que d'accéder aux données sources d'origine.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
79
Une banque de données offre normalement une connexion à une base de données, à une application ou à un adaptateur. En revanche, une banque de données en mémoire contient des schémas de tables en mémoire enregistrés dans le référentiel.
Les tables en mémoire sont des schémas qui permettent de cacher les données intermédiaires. Les tables en mémoire peuvent cacher les données des tables de base de données relationnelles ou des fichiers de données hiérarchiques tels que les messages XML et les IDocs SAP (qui contiennent tous les deux des schémas imbriqués).
Les tables en mémoire peuvent être utilisées pour :
● Déplacer les données entre des flux de données dans des jobs en temps réel. En cachant les données intermédiaires, la performance des jobs en temps réel avec plusieurs flux de données est largement meilleure qu'elle le serait si des fichiers ou des tables ordinaires étaient utilisés pour stocker les données intermédiaires. Pour obtenir la meilleure performance, utilisez uniquement les tables en mémoire lors du traitement de petites quantités de données.
● Stockez les données de table en mémoire pour la durée du job. En enregistrant les données de table en mémoire, la fonction LOOKUP_ECT et les autres transformations et fonctions qui ne nécessitent pas d'opérations de base de données peuvent accéder aux données sans avoir à les lire depuis une base de données distante.
La durée de vie des données de table en mémoire correspond à la durée du job. Les données des tables en mémoire ne peuvent pas être partagées entre plusieurs jobs en temps réel. La prise en charge de l'utilisation des tables en mémoire pour les jobs batch n'est pas disponible.
5.2.6.1 Définir une banque de données en mémoire
1. A partir du menu
Projet
, sélectionnez
Nouveau Banque de données
.
2. Dans la case
Nom
, saisissez le nom de la nouvelle banque de données.
Assurez-vous d'utiliser la convention d'appellation ''Memory_DS". Les noms des banques de données sont ajoutés aux noms des tables lorsque les icônes de table apparaissent dans l'espace de travail. Les tables en mémoire sont représentées dans l'espace de travail avec des icônes de table ordinaires. Par conséquent,
étiquetez une banque de données en mémoire pour distinguer ses tables en mémoire des tables de base de données ordinaires dans l'espace de travail.
3. Dans la case
Type de la banque de données
, laissez le paramètre par défaut
Base de données
.
4. Dans la case
Type de la base de données
, sélectionnez
Mémoire
.
Aucun attribut supplémentaire n'est requis pour la banque de données en mémoire.
5. Cliquez sur
OK
.
5.2.6.2 Création d'une table en mémoire
1. A partir de la palette d'outils, cliquez sur l'icône de modèle de table.
2. Cliquez dans un flux de données pour placer la table de modèle.
La fenêtre
Créer une table
s'ouvre.
80
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
3. A partir de la fenêtre
Créer une table
, sélectionnez la banque de données en mémoire.
4. Saisissez un nom de table.
5. Si vous souhaitez une colonne d'ID de ligne générée par le système dans la table, cliquez sur la case à cocher
Créer un ID de ligne
.
6. Cliquez sur
OK
.
La table en mémoire apparait dans l'espace de travail comme une icône de table de modèle.
7. Connectez la table en mémoire au flux de données comme une cible.
8. Depuis le menu
Projet
, sélectionnez
Enregistrer
.
Dans l'espace de travail, l'icône de la table en mémoire est remplacée par une icône de table cible, et la table apparait dans la bibliothèque d'objets sous la liste des tables de la banque de données en mémoire.
Informations associées
Option Créer un ID de ligne [page 82]
5.2.6.3 Utiliser une table en mémoire comme une source ou une cible
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Banques de données
.
2. Développez la banque de données en mémoire qui contient la table en mémoire que vous souhaitez utiliser.
3. Développez
Tables
.
Une liste des tables apparait.
4. Sélectionnez la table en mémoire que vous souhaitez utiliser comme une source ou une cible, et faites-la glisser dans un flux de données ouvert.
5. Connectez la table en mémoire comme une source ou une cible dans le flux de données.
Si vous utilisez une table en mémoire comme une cible, ouvrez l'éditeur de table cible de la table en mémoire pour définir les options de table.
6. Enregistrez le job
Informations associées
Options de cible de la table en mémoire [page 82]
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
81
5.2.6.4 Option Mettre à jour le schéma
Il est possible que vous souhaitiez mettre à jour rapidement un schéma de table cible en mémoire si le schéma précédent a été modifié.
Pour ce faire, utilisez l'option
Mettre à jour le schéma
. Autrement, vous devriez ajouter une nouvelle table en mémoire pour mettre à jour un schéma.
1. Faites un clic droit sur l'icône de la table cible en mémoire dans l'espace de travail.
2. Sélectionnez
Mettre à jour le schéma
.
Le schéma de l'objet précédent est utilisé pour mettre à jour le schéma de la table cible en mémoire. La table en mémoire actuelle est mise à jour dans le référentiel. Toutes les occurrences de la table en mémoire actuelle sont mises à jour avec le nouveau schéma.
5.2.6.5 Options de cible de la table en mémoire
L'option
Supprimer les données de la table avant le chargement
est disponible pour les cibles de la table en mémoire. L'option est activée par défaut (la case est sélectionnée). Pour définir cette option, ouvrez l'éditeur de table cible en mémoire. Si vous décochez cette option, de nouvelles données sont ajoutées aux données de table existantes.
5.2.6.6 Option Créer un ID de ligne
Si l'option
Créer un ID de ligne
est cochée dans la fenêtre Créer table en mémoire, le logiciel génère une colonne d'entier appelée
DI_Row_ID
dans laquelle la première ligne insérée obtient la valeur 1, la deuxième ligne insérée obtient la valeur 2, etc. Cette nouvelle colonne vous permet d'utiliser une expression LOOKUP_EXT en tant qu'itérateur dans un script.
Remarque
La même fonctionnalité est disponible pour les autres types de banque de données qui utilisent la fonction
SQL.
Utilisez la colonne
DI_Row_ID
pour itérer sur une table à l'aide d'une fonction lookup_ext dans un script.
Exemple :
$NumOfRows = total_rows (memory_DS..table1)
$I = 1;
$count=0 while ($count < $NumOfRows) begin
$data =
lookup_ext([memory_DS..table1, 'NO_CACHE','MAX'],[A],[O],[DI_Row_ID,'=',$I]);
$1 = $I + 1;
if ($data != NULL)
begin
$count = $count + 1;
end end
82
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
Dans le script précédent, table1 est une table en mémoire. Le nom de la table est précédé par son nom de banque de données (memory_DS), d'un point, d'un espace vide (où se trouverait le propriétaire de la table pour une table ordinaire), puis d'un second point. Il n'existe pas de propriétaires pour les banques de données en mémoire, donc les tables sont uniquement identifiées par le nom de la banque de données et le nom de la table comme indiqué.
Sélectionnez les arguments de la fonction LOOKUP_EXT (ligne 7) depuis l'éditeur de fonctions lorsque vous définissez une fonction LOOKUP_EXT.
La fonction TOTAL_ROWS(DatastoreName.Owner.TableName) renvoie le nombre de lignes d'une table particulière dans une banque de données. Cette fonction peut être utilisée avec tout type de banque de données.
Dans le cas d'une utilisation avec une banque de données en mémoire, utilisez la syntaxe suivante :
TOTAL_ROWS(
<DatastoreName..TableName>
)
Le logiciel fournit également une fonction intégrée qu'il est possible d'utiliser pour effacer explicitement les données d'une table en mémoire. Cette fonction offre un meilleur contrôle que celui qu'offre le job actif sur les données et l'utilisation de la mémoire. La fonction TRUNCATE_TABLE(
<DatastoreName..TableName>
) peut uniquement être utilisée avec des tables en mémoire.
5.2.6.7 Dépannage des tables en mémoire
● Une erreur possible, particulièrement avec l'utilisation des tables en mémoire, est que le logiciel exécute en dehors de la zone de mémoire virtuelle. Le logiciel quitte s'il exécute en dehors de la mémoire en exécutant une opération.
● Une erreur de validation et d'exécution se produit si le schéma d'une table en mémoire ne correspond pas au schéma de l'objet précédent dans le flux de données.
Pour corriger cette erreur, utilisez l'option Mettre à jour le schéma ou créez une nouvelle table en mémoire qui correspond au schéma de l'objet précédent dans le flux de données.
● Deux fichiers journaux contiennent les informations spécifiques aux tables en mémoire : le journal trace_memory_reader et le journal trace_memory_loader.
5.2.7 Banques de données de cache persistant
Une banque de données de cache persistent est un conteneur pour ces tables de cache.
Le logiciel permet de créer une banque de données de base de données à l'aide d'un
Cache persistant
comme
Type de la base de données
. Les banques de données de cache persistant offrent les avantages ci-dessous pour les flux de données qui traitent de larges volumes de données.
● Il est possible de stocker une grande quantité de données dans un cache persistant que le logiciel charge rapidement dans la mémoire pour fournir un accès immédiat durant un job. Par exemple, il est possible d'accéder à une table de recherche ou à une table de comparaison localement (plutôt que de les lire depuis une base de données distante).
● Il est possible de créer des tables de cache qui peuvent être partagées par les flux de données (à la différence d'une table en mémoire qui ne peut pas être partagée entre plusieurs jobs en temps réel). Par exemple, si une grande table de recherche utilisée dans une fonction lookup_ext est rarement modifiée, il est possible de
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
83
créer un cache une seule fois, et les jobs ultérieurs peuvent utiliser ce cache plutôt que d'en créer un à chaque fois.
Une banque de données offre normalement une connexion à une base de données, à une application ou à un adaptateur. En revanche, une banque de données de cache persistant contient des schémas de tables de cache enregistrés dans le référentiel.
Les tables de cache persistant permettent de cacher de grandes quantités de données. Les tables de cache persistant peuvent cacher des données provenant de tables de base de données relationnelles et de fichiers.
Remarque
Il est impossible de cacher les données des fichiers de données hiérarchiques tels que les messages XML et les
IDocs SAP (qui contiennent tous les deux des schémas imbriqués). Il est impossible d'effectuer des insertions, des suppressions ou des mises à jour incrémentielles sur une table de cache persistant.
Vous créez une table de cache persistant en chargeant les données dans la table cible de cache persistant qui utilise un flux de données. Vous pouvez ensuite lire depuis la table de cache dans un autre flux de données.
Lorsque vous chargez des données dans une table de cache persistant, le logiciel tronque et recrée systématiquement la table.
5.2.7.1 Création de banques de données de cache persistant
Il est possible de créer des banques de données de cache persistant à l'aide de la fenêtre
Editeur de banque de données
.
1. À partir du menu
Projet
, sélectionnez
Nouveau Banque de données
.
2. Dans la case
Nom
, saisissez le nom de la nouvelle banque de données.
Assurez-vous d'utiliser une convention d'appellation telle que ''Persist_DS". Les noms des banques de données sont ajoutés aux noms des tables lorsque les icônes de table apparaissent dans l'espace de travail.
Les tables de cache persistant sont représentées dans l'espace de travail avec des icônes de table ordinaires.
Par conséquent, étiquetez une banque de données de cache persistant pour distinguer ses tables de cache persistant des tables de base de données ordinaires dans l'espace de travail.
3. Dans la case
Type de la banque de données
, laissez le paramètre par défaut
Base de données
.
4. Dans la case
Type de la base de données
, sélectionnez
Cache persistant
.
5. Dans la case
Répertoire du cache
, vous pouvez soit saisir soit naviguer vers un répertoire dans lequel vous souhaitez stocker le cache persistant.
6. Cliquez sur
OK
.
5.2.7.2 Création de tables de cache persistant
Lors de la création d'une table de cache persistant, il n'est pas nécessaire d'indiquer le schéma de la table ou d'importer les métadonnées de la table.
A la place, le logiciel crée automatiquement le schéma pour chaque table de cache persistant en fonction du schéma précédent. Lors de la première sauvegarde du job, le logiciel définit le schéma de la table de cache
84
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
persistant et enregistre la table. Par la suite, la table apparait avec une icône de table dans l'espace de travail et dans la bibliothèque d'objets sous la banque de données de cache persistant.
Vous créez une table de cache persistant sous l'une des formes suivantes :
● Comme une table de modèle cible dans un flux de données
● Comme une partie de la transformation Data_Transfer lors de l'exécution d'un job
5.2.7.2.1 Créer une table de cache persistant comme cible dans un flux de données
1. Utilisez l'une des méthodes suivantes pour ouvrir la fenêtre
Créer un modèle
:
○ Depuis la palette d'outils :
1. Cliquez sur l'icône de modèle de table.
2. Cliquez dans un flux de données pour placer la table de modèle dans l'espace de travail.
3. Dans la fenêtre
Créer un modèle
, sélectionnez la banque de données de cache persistant.
○ Depuis la bibliothèque d'objets :
1. Développez une banque de données de cache persistant.
2. Cliquez sur l'icône de table de modèle et faites-la glisser dans l'espace de travail.
2. Sur la fenêtre
Créer un modèle
, saisissez un nom de table.
3. Cliquez sur
OK
.
La table de cache persistant apparait dans l'espace de travail comme une icône de table de modèle.
4. Connectez la table de cache persistant au flux de données comme cible (généralement une transformation
Query).
5. Dans la transformation Query, mappez les colonnes Entrée de schéma que vous souhaitez inclure dans la table de cache persistant.
6. Ouvrez l'éditeur de table cible de la table de cache persistant pour définir les options de table.
7. Sur l'onglet Options de l'éditeur de table cible de cache persistant, il est possible de modifier les options suivantes pour la table de cache persistant.
○
Comparaison des colonnes
: indique la manière dont les colonnes d'entrée sont mappées aux colonnes de table de cache persistant. Il existe deux options :
○ Compare_by_position : le logiciel ne prend pas en compte les noms de colonnes et mappe les colonnes sources aux colonnes cibles par position.
○ Comparer_par_nom : le logiciel mappe les colonnes sources aux colonnes cibles par le nom. Cette option est celle par défaut
○
Inclure les clés en double
: sélectionnez cette case à cocher pour cacher les clés en double. Cette option est sélectionnée par défaut.
8. Sur l'onglet Clés, indiquez la/les colonne(s) clé(s) à utiliser comme clé dans la table de cache persistant.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
85
9. Depuis le menu
Projet
, sélectionnez
Enregistrer
. Dans l'espace de travail, l'icône de la table de modèle est remplacée par une icône de table cible, et la table apparait dans la bibliothèque d'objets sous la liste des tables de la banque de données de cache persistant.
5.2.7.3 Utilisation de tables de cache persistant comme des sources
Après avoir créé une table de cache persistant comme une cible dans un flux de données, il est possible d'utiliser une table de cache persistant comme une source dans n'importe quel flux de données. Il est également possible de l'utiliser comme une table de recherche ou une table de comparaison.
5.2.8 Banques de données liées
Plusieurs fournisseurs de base de données prennent en charge des chemins de communication à sens unique entre un serveur de base de données à un autre. Oracle appelle ces chemins liens de base de donnés.
Dans DB2, le chemin de communication à sens unique d'un serveur de base de données à un autre est fourni par un serveur d'informations qui permet à un set de serveurs d'obtenir des données des sources de données distantes. Dans Microsoft SQL Server, les serveurs liés fournissent le chemin de communication à sens unique d'un serveur de base de données à un autre. Ces solutions permettent aux utilisateurs locaux d'accéder à des données sur une base de données distante, qui peut se trouver sur l'ordinateur local ou distant, du même type de base de données ou d'un type différent.
Par exemple, un serveur de base de données local Oracle, appelé Ordres, peut stocker un lien de base de données pour accéder aux informations dans une base de données Oracle distante, appelée Clients. Les utilisateurs connectés à Clients ne peuvent cependant pas utiliser le même lien pour accéder aux données dans Ordres. Les utilisateurs connectés à la base de données Client doivent définir un lien différent, stocké dans le dictionnaire de données de la base de données Client, pour accéder aux données sur Ordres.
Le logiciel fait référence aux chemins de communication entre les bases de données sous le nom de liens de base de données. Les banques de données dans une relation de lien de base de données sont appelées banques de données liées. Le logiciel utilise les banques de données liées pour améliorer sa performance en poussant vers le bas des opérations vers une base de données cible à l'aide d'une banque de données cibles.
5.2.8.1 Relations entre les liens de base de données et les banques de données
Un lien de base de données enregistre les informations sur la manière de se connecter à une source de données distante, telles que son nom d'hôte, le nom de la base de données, le nom de l'utilisateur, le mot de passe et le type de base de données. Les mêmes informations sont stockées dans une banque de données de base de données SAP Data Services. Il est possible d'associer la banque de données à une autre banque de données et ensuite d'importer un lien de base de données externe comme une option de banque de données. Les banques de données doivent se connecter aux bases de données définies dans le lien de base de données.
86
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
Les conditions supplémentaires sont les suivantes :
● Un serveur local pour des liens de base de données doit être un serveur cible dans le logiciel
● Un serveur distant pour des liens de base de données doit être un serveur source dans le logiciel
● Un lien de base de données externe (qui existe en premier dans une base de données) établit la relation entre une banque de données cible et une banque de données source
● Une banque de données locale peut être reliée à zéro ou plusieurs banques de données à l'aide d'un lien de base de données pour chaque base de données distante
● Deux banques de données peuvent être reliées ensemble à l'aide d'un seul lien
Le diagramme ci-dessous affiche les relations possibles entre les liens de base de données et les banques de données liées :
Quatre liens de base de données, les DBLink 1 à 4, sont sur la base de données DB1 et le logiciel les lit par la banque de données DS1.
● Le DBLink 1 relie la banque de données DS1 à la banque de données DS2. Cette relation est appelée banque de données liée DBLink1 (la banque de données liée porte le même nom que le lien de base de données externe).
● DBLink2 n'est mappé à aucune banque de données dans le logiciel car il relie DS1 à DS2, qui sont également reliées à DBLink1. Bien qu'il ne s'agisse pas d'un cas ordinaire, il est possible de créer plusieurs liens de base de données externe qui connectent à la même source distante. Cependant, le logiciel n'autorise qu'un seul lien de base de données entre une banque de données cible et une paire de banques de données source. Par exemple, si vous sélectionnez DBLink1 pour lier la banque de données cible DS1 à la banque de données source DS2, vous ne pouvez pas importer DBLink2 pour réaliser la même chose.
● DBLink3 n'est mappé à aucune banque de données dans le logiciel car il n'existe aucune banque de données définie pour la source de données distante à laquelle le lien de base de données externe fait référence.
● DBLink4 relie DS1 avec DS3.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
87
5.3 Banques de données de l'adaptateur
Les banques de données d'adaptateur permettent de se connecter aux adaptateurs.
En fonction de l'implémentation de l'adaptateur, les adaptateurs permettent de :
● Parcourir les métadonnées d'application
● Importer les métadonnées d'application dans un référentiel
● Déplacer les données batch et en temps réel entre le logiciel et les applications
SAP offre un kit de développement de logiciel (SDK) pour adaptateur pour développer vos propres adaptateurs personnalisés. Vous pouvez également acheter les adaptateurs pré-packagés du logiciel pour accéder aux métadonnées et aux données d'applications dans n'importe qu'elle application. Pour plus d'informations sur ces produits, contactez votre représentant commercial SAP.
Les adaptateurs sont représentés dans Designer par des banques de données d'adaptateurs. Les jobs fournissent un mouvement de données batch et en temps réel entre le logiciel et les applications par des objets subordonnés d'une banque de données d'adaptateur :
Table 37 :
Objets subordonnés Utilisés comme Utilisés pour
Mouvement de données batch Tables
Documents
Fonctions
Fonctions de message
Messages sortants
Source ou cible
Source ou cible
Appel de fonction dans une requête
Appel de fonction dans une requête
Cible uniquement
Mouvement de données en temps réel
Les adaptateurs peuvent donner accès aux données et aux métadonnées d'une application, ou simplement aux métadonnées. Par exemple, si la source de données est compatible avec SQL, l'adaptateur peut être conçu pour accéder aux métadonnées, tandis que le logiciel extrait les données de ou charge les données directement dans l'application.
Pour en savoir plus sur l'installation, la configuration et l'utilisation des adaptateurs, voir Supplément pour
adaptateurs.
Informations associées
Objets sources et cibles [page 161]
Objets source et cible en temps réel [page 267]
88
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
5.4 Banques de données de services Web
Les banques de données de services Web représentent une connexion depuis Data Services vers une source de données externe basée sur les services Web.
5.4.1 Définition d'une banque de données de services Web
Vous devez définir au moins une banque de données pour chaque service Web avec lequel vous échangez des données.
Pour définir une banque de données, vous devez avoir les privilèges d'accès aux services Web appropriés décrits par la banque de données.
1. Dans l'onglet
Banques de données
de la bibliothèque d'objets, faites un clic droit et sélectionnez
Nouveau
.
2. Saisissez le nom de la nouvelle banque de données dans le champ
Nom de la banque de données
.
Le nom peut contenir tous les caractères alphabétiques ou numériques, ou des tirets de soulignement (_). Il ne peut pas contenir d'espace.
3. Sélectionnez le
Type de banque de données
.
Choisissez une option de service Web. Lorsque vous sélectionnez un type de banque de données, Data
Services affiche les autres options pertinentes pour ce type.
4. Indiquez l'
URL du service Web
.
L'URL doit accepter les connexions et renvoyer le WSDL. Pour les services Web REST, vous pouvez saisir une
URL ou le chemin d'accès au fichier local WADL. Voir "Technologies de services Web" dans le Guide
d'intégration pour en savoir plus sur les fichiers WSDL et WADL.
5. Cliquez sur
OK
.
La configuration de banque de données est enregistrée dans le référentiel de métadonnées et la nouvelle banque de données apparait dans la bibliothèque d'objets.
5.4.2 Modification de la configuration d'une banque de données de services Web
1. Faites un clic droit sur la banque de données que vous souhaitez parcourir et sélectionnez
Modifier
pour ouvrir la fenêtre
Editeur de banque de données
.
2. Modifiez les informations de configuration.
3. Cliquez sur
OK
.
La configuration modifiée de la banque de données est enregistrée dans le référentiel de métadonnées.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
89
5.4.3 Suppression d'une banque de données de services Web et des objets de métadonnées associés
1. Faites un clic droit sur la banque de données que vous souhaitez supprimer et sélectionnez
Supprimer
.
2. Cliquez sur
OK
dans la fenêtre de confirmation.
Data Services supprime du référentiel de métadonnées la banque de données et tous les objets de métadonnées contenus dans cette banque de données. Si ces objets existent dans des flux de données
établis, ils apparaissent avec une icône de suppression.
5.4.4 Exploration de métadonnées WSDL et WADL par une banque de données de services Web
Data Services enregistre les informations de métadonnées pour tous les objets importés dans une banque de données. Vous pouvez utiliser Data Services pour afficher les métadonnées pour les objets importés ou non importés et pour contrôler si les métadonnées ont changé pour les objets déjà importés.
Voir "Technologies de services Web" dans le Guide d'intégration pour en savoir plus sur les fichiers WSDL et
WADL.
5.4.4.1 Affichage des objets importés
1. Accédez à l'onglet
Banques de données
dans la bibliothèque d'objets.
2. Cliquez sur le signe plus (+) à côté du nom de la banque de données pour afficher les types d'objet dans la banque de données. Les banques de données de services Web possèdent des fonctions.
3. Cliquez sur le signe plus (+) à côté d'un type d'objet pour afficher les objets de ce type importés depuis la banque de données.
5.4.4.2 Tri de la liste des objets
Cliquez sur l'en-tête de colonne pour trier par ordre alphabétique les objets dans chaque regroupement, et les regroupements dans chaque banque de données. Cliquez à nouveau pour trier par ordre alphabétique inversé.
5.4.4.3 Affichage des métadonnées WSDL et WADL
1. Sélectionnez l'onglet
Banques de données
dans la bibliothèque d'objets.
2. Sélectionnez une banque de données, faites un clic droit et sélectionnez
Ouvrir
. (Il est également possible de double-cliquer sur l'icône de la banque de données.)
Data Services ouvre l'explorateur de banque de données dans l'espace de travail. L'explorateur de banque de données liste les ports et les opérations de services Web dans la banque de données. Il est possible de voir les
90
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
ports et les opérations dans le service Web externe ou dans le référentiel interne. Il est également possible de faire une recherche dans ces composants.
3. Sélectionnez
Métadonnées externes
pour afficher les ports et les opérations du service Web à partir du fichier externe WSDL ou WADL. Voir "Technologies de services Web" dans le Guide d'intégration pour en savoir plus sur les fichiers WSDL et WADL.
Si vous sélectionnez une opération ou plus, il est possible de faire un clic droit pour plus d'options.
Table 38 :
Commande
Importer
Description
Importe (ou ré-importe) des opérations de la base de données vers le référentiel.
4. Sélectionnez Métadonnées du référentiel pour afficher les opérations de services Web importées.
Si vous sélectionnez une ou plusieurs opérations, vous pouvez faire un clic droit pour plus d'options.
Table 39 :
Commande
Supprimer
Propriétés
Description
Supprime l'opération ou les opérations du référentiel.
Affiche les propriétés de l'opération de service Web sélectionnée.
5.4.5 Importation de métadonnées par une banque de données de services Web
Pour les banques de données de services Web, il est possible d'importer les métadonnées pour des opérations de service Web.
5.4.5.1 Importation d'opérations de services Web
1. Faites un clic droit sur la banque de données que vous souhaitez parcourir puis sélectionnez
Ouvrir
.
2. Trouvez dans la liste navigable l'opération de services Web que vous souhaitez importez.
3. Faites un clic droit sur l'opération et sélectionnez
Importer
.
L'opération est importée dans le conteneur de fonctions de la banque de données de services Web.
5.5 Modification d'une définition de banque de données
Comme tous les objets, les banques de données sont définies par des options et des propriétés.
Les options contrôlent l'opération des objets. Par exemple, le nom de la base de données à laquelle se connecter est une option de banque de données.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
91
Les propriétés documentent l'objet. Par exemple, le nom de la banque de données et la date à laquelle elle a été créée sont des propriétés de banque de données. Les propriétés sont simplement des descriptions de l'objet et n'affectent pas son opération.
5.5.1 Modification des options de banque de données
1. Accédez à l'onglet
Banques de données
dans la bibliothèque d'objets.
2. Faites un clic droit sur le nom de la banque de données et sélectionnez
Modifier
.
L'éditeur de banque de données apparaît (la barre de titre pour cette boîte de dialogue affiche Modifier la banque de données). Il est possible de réaliser les tâches suivantes :
○ Modifier les informations de connexion pour la configuration de banque de données actuelle.
○ Cliquez sur
Avancé
et modifiez les propriétés pour la configuration actuelle.
○ Cliquez sur
Modifier
pour ajouter, modifier ou supprimer des configurations supplémentaires. La boîte de dialogue
Configurations pour la banque de données
s'ouvre lorsque vous sélectionnez
Modifier
dans l'éditeur de banque de données. Après avoir ajouté une nouvelle configuration à une banque de données existante, vous pouvez utiliser les champs dans la grille pour modifier les valeurs et les propriétés de connexion pour la nouvelle configuration.
3. Cliquez sur
OK
.
Les options prennent immédiatement effet.
5.5.2 Modifier les propriétés de la banque de données
1. Accédez à l'onglet Banque de données dans la bibliothèque d'objets.
2. Faites un clic droit sur le nom de la banque de données et sélectionnez
Propriétés
.
La fenêtre Propriétés s'ouvre.
3. Modifiez les propriétés de la banque de données.
4. Cliquez sur
OK
.
5.6 Création et gestion de plusieurs configurations de banques de données
La création de plusieurs configurations pour une seule banque de données permet de consolider des connexions aux banques de données distinctes pour des sources ou des cibles similaires dans une banque de données source ou cible avec plusieurs configurations.
Il est alors possible de sélectionner un ensemble de configurations qui inclut les sources et les cibles que vous souhaitez en sélectionnant une configuration système lorsque vous exécutez ou planifiez le job. La possibilité de créer plusieurs configurations de banque de données offre une plus grande facilité d'utilisation pour les scénarios de portabilité de job, tels que :
92
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
● OEM (différentes bases de données pour la conception et la distribution)
● Migration (différentes connexions pour DEV, TEST et PROD)
● Multi-instance (bases de données avec des versions différentes ou des paramètres régionaux)
● Multi-utilisateurs (bases de données pour les référentiels centraux et locaux)
Informations associées
Solutions de portabilité [page 97]
5.6.1 Définitions
Termes que vous devez bien connaître lors de la création et de la gestion de plusieurs configurations de banque de donnés
Table 40 :
Terme
Configuration de banque de don nées
Configuration de banque de don nées par défaut
Configuration de banque de don nées actuelle
Objets de base de données
Nom du propriétaire
Définition
Permet de fournir plusieurs sources ou cibles de métadonnées pour les banques de don nées. Chaque configuration est une propriété d'une banque de données qui fait référence
à un ensemble d'options configurables (telles que le nom de connexion à la base de don nées, le type de base de données, le nom d'utilisateur, le mot de passe, et le paramètre régional) et à leurs valeurs.
La configuration de banque de données utilisée par le logiciel pour parcourir et importer les objets de la base de données (tables et fonctions), et pour exécuter les jobs si aucune configuration système n'est indiquée. Si une banque de données a plus d'une configura tion, sélectionnez une configuration par défaut au besoin. Si la banque de données a une seule configuration, le logiciel l'utilise comme configuration par défaut.
La configuration de banque de données utilisée par le logiciel pour exécuter un job. Si vous définissez une configuration système, le logiciel exécute le job à l'aide de la configuration de système. Indiquez une configuration actuelle pour chaque configuration système. Si vous ne créez pas une configuration de système, ou que la configuration système ne spé cifie pas de configuration pour une banque de données, le logiciel utilise la configuration de banque de données par défaut comme la configuration actuelle lors de l'exécution du job.
Les tables et les fonctions qui sont importées d'une banque de données. Les objets de base de données possèdent normalement des propriétaires. Certains objets de base de données n'ont pas de propriétaire. Par exemple, les objets de base de données dans une banque de données ODBC connectée à une base de données Access n'ont pas de proprié taire.
Le nom du propriétaire pour un objet de base de données (par exemple, une table) dans une base de données sous-jacente. Egalement connu comme nom du propriétaire de la base de données ou nom du propriétaire physique.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
93
Terme
Alias
Objets dépendants
Définition
Un nom de propriétaire logique. Créez un alias pour les objets qui sont dans des environ nements de base de données différents s'il existe des noms de propriétaire différents dans ces environnements. Il est possible de créer un alias depuis un éditeur de banque de données pour n'importe quelle configuration de banque de données.
Les objets dépendants sont les jobs, les workflows, les flux de données et les fonctions personnalisées dans lesquels un objet de base de données est utilisé. Les informations d'objets dépendants sont générées par l'utilitaire cas d'emploi.
5.6.2 Pourquoi utiliser plusieurs configurations de banque de données ?
En créant plusieurs configurations de banque de données, il est possible de réduire le temps de développement de bout en bout dans un environnement d'entrepôt des données d'entreprise multi-source, 24h/24, 7j/7, car il est possible de transporter facilement les jobs dans différents types, versions et instances de base de données.
Par exemple, le déplacement peut être aussi simple que :
1. Créer une nouvelle configuration dans une banque de données source ou cible existante.
2. Ajouter un alias de banque de données puis de mapper les configurations avec des noms de propriétaire d'objets différents à cet alias.
3. Définir une configuration système puis d'ajouter des configurations de banque de données requises pour un environnement particulier. Sélectionner une configuration système lors de l'exécution d'un job.
5.6.3 Création d'une nouvelle configuration
Il est possible de créer plusieurs configurations pour tous les types de banque de données, hormis les banques de données en mémoire.
Utilisez l'éditeur de banque de données pour créer et modifier les configurations de banque de données.
5.6.3.1 Création d'une nouvelle configuration de banque de données
1. A partir de l'onglet Banques de données de la bibliothèque d'objets, faites un clic droit sur une banque de données existante et sélectionnez
Modifier
.
2. Cliquez sur
Avancé
pour afficher les informations de la configuration existante.
Chaque banque de données doit avoir au moins une configuration. Si une seule configuration existe, c'est la configuration par défaut.
3. Cliquez sur
Modifier
pour ouvrir la fenêtre Configurations pour la banque de données.
4.
Cliquez sur l'icône
Créer une configuration
dans la barre d'outils.
94
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
La fenêtre Créer une configuration s'ouvre.
5. Dans la fenêtre Créer une configuration : a. Saisissez un
Nom
de configuration unique et logique.
b. Sélectionnez un
Type de la base de données
dans le menu déroulant.
c. Sélectionnez une
Version de la base de données
dans le menu déroulant.
d. Dans la section Valeurs des tables cibles et des transformations SQL, le logiciel présélectionne la valeur
Utiliser les valeurs de
en fonction du type et de la version de la base de données existante. Designer utilise automatiquement la transformation SQL et les valeurs cible existantes pour le même type et version de base de données.
De plus, si la base de données que vous souhaitez associer à une nouvelle configuration est une version postérieure à celle associée aux autres configurations existantes, Designer renseigne automatiquement l'option
Utiliser les valeurs de
avec l'ancienne version.
Cependant, si un type et une version de base de données ne sont pas déjà indiqués dans une configuration existante, ou si la version de la base de données est plus ancienne que la configuration existante, vous pouvez choisir d'utiliser les valeurs d'une autre configuration existante ou de la configuration par défaut pour le type et la version de base de données.
e. Cochez ou décochez l'option
Restaurer des valeurs si elles existent déjà
.
Lorsque vous supprimez les configurations de banque de données, le logiciel enregistre toutes les valeurs de cible et les transformations SQL associées. Si vous créez une nouvelle configuration de banque de données avec le même type et la même version de base de données que celle précédemment supprimée, l'option Restaurer des valeurs si elles existent déjà permet d'accéder et de profiter des paramètres de valeur enregistrés.
○ Si vous conservez cette option (sélectionnée par défaut), le logiciel utilise les valeurs personnalisées cibles et de transformation SQL des anciennes configurations de banque de données supprimées.
○ Si vous désélectionnez
Restaurer des valeurs si elles existent déjà
, le logiciel n'essaye pas de restaurer les valeurs de cible et de transformation SQL, vous permettant de fournir de nouvelles valeurs.
f. Cliquez sur
OK
pour enregistrer la nouvelle configuration.
Si la banque de données contient des flux de données préexistants avec des transformations SQL ou des objets cibles, le logiciel doit ajouter de nouvelles valeur de type et de version de base de données pour ces transformations et objets cibles. Dans ce cas, lorsque vous ajoutez une nouvelle configuration de banque de données, le logiciel affiche la fenêtre
Nouvelles valeurs ajoutées - Objets modifiés
qui fournit des informations détaillées sur les flux de données affectés et les objets modifiés. Ces mêmes résultats s'affichent également dans la fenêtre Sortie de Designer.
Pour chaque banque de données, le logiciel requiert qu'une configuration soit désignée comme la configuration par défaut. Le logiciel utilise la configuration par défaut pour importer les métadonnées et conserve également la configuration par défaut lors de l'exportation et des opérations multi-utilisateurs. La première configuration de banque de données est automatiquement désignée comme la configuration par défaut ; cependant, après avoir ajouté une ou plusieurs configurations de banque de données supplémentaires, il est possible d'utiliser l'éditeur de banque de données pour marquer une configuration différente comme configuration par défaut.
Lorsque vous exportez un référentiel, le logiciel conserve toutes les configurations de toutes les banques de données, y compris les paramètres de texte de transformation SQL et de l'éditeur de table cible. Si la banque de données que vous exportez existe déjà dans le référentiel cible, le logiciel remplace les configurations dans la cible par les configurations sources. Le logiciel exporte les configurations système séparément des autres objets de jobs reliés.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
95
5.6.4 Ajout d'un alias de banque de données
Vous pouvez créer plusieurs alias pour une banque de données puis mapper les configurations de banque de données à chaque alias dans l'éditeur de banque de données.
5.6.4.1 Création d'un alias
1. Dans l'éditeur de banque de données, cliquez sur
Avancé
, puis sur
Alias (cliquez ici pour les créer)
.
La fenêtre Créer un alias s'ouvre.
2. Sous
Nom de l'alias dans Designer
, utilisez uniquement des caractères alphanumériques et le symbole de tiret de soulignement (_) pour saisir un nom d'alias.
3. Cliquez sur
OK
.
La fenêtre
Créer un alias
se ferme et le nouvel alias apparaît sous la catégorie Alias.
Lorsque vous définissez un alias de banque de données, le logiciel remplace l'alias de la configuration de banque de données indiqué pour le nom du propriétaire réel lors de l'importation de métadonnées pour les objets de base de données. Il est également possible de renommer les tables et les fonctions après les avoir importées.
Informations associées
Modification du nom du propriétaire de table et de fonction [page 103]
5.6.5 Fonctions pour identifier la configuration
Le logiciel fournit des fonctions qui sont utiles lors de l'utilisation de plusieurs configurations de banque de données cible et source.
Table 41 :
SAP Data Services
Fonction
Catégorie SAP Data Servi ces
Description type_de_BdD Divers Renvoie le type de base de données de la configuration de banque de données actuelle.
db_version db_database_name
Divers
Divers
Renvoie la version de base de données de la configuration de banque de données actuelle.
Renvoie le nom de la base de données de la configuration de banque de données actuelle si le type de base de données est
MS SQL Server ou SAP ASE.
96
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
SAP Data Services
Fonction db_owner current_configuration current_system_configura tion
Catégorie SAP Data Servi ces
Divers
Divers
Divers
Description
Renvoie le nom du propriétaire réel qui correspond au nom d'alias donné sous la configuration de banque de données ac tuelle.
Renvoie le nom de la configuration de banque de données qui est utilisée lors de l'exécution.
Renvoie le nom de la configuration système actuelle. Si au cune configuration système n'est définie, renvoie une valeur nulle.
Le logiciel lie les paramètres de transformation SQL et d'éditeur de table cible utilisés dans un flux de données aux configurations de banque de données. Il est également possible d'utiliser une interpolation de variable dans un texte SQL avec ces fonctions pour permettre à la transformation SQL de s'effectuer correctement sans tenir compte de la configuration utilisée par Job server lors de l'exécution du job.
Utilisez l'Administrateur pour sélectionner une configuration système ainsi que pour afficher la configuration de banque de données sous-jacente associée lorsque vous :
● Exécutez des jobs batch
● Planifiez des jobs batch
● Affichez l'historique des jobs batch
● Créez des services pour les jobs en temps réel
Pour utiliser plusieurs configurations correctement, concevez les jobs pour ne pas avoir à modifier les schémas, types de données, fonctions, variables, etc. lorsque vous passez d'une configuration de banque de données à une autre. Par exemple, si vous avez une banque de données avec une configuration pour des sources Oracle et des sources SQL, assurez-vous que les schémas de métadonnées de table correspondent exactement. Utilisez les mêmes noms de table, noms d'alias, numéros et ordre de colonnes, ainsi que les mêmes noms de colonne, types de données et types de contenu.
Informations associées
Astuces de portabilité des jobs [page 101]
5.6.6 Solutions de portabilité
Définissez plusieurs configurations sources ou cibles pour une seule banque de données si vous souhaitez modifier rapidement les connexions à une base de données source ou cible différente.
Le logiciel offre plusieurs solutions différentes pour les job de déplacement.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
97
Informations associées
Développement multi-utilisateurs [page 741]
Travail dans un environnement multi-utilisateurs [page 754]
5.6.6.1 Migration entre environnements
Le déplacement des métadonnées du référentiel vers un autre environnement (par exemple du développement au test, ou du test à la production) utilise des bases de données sources et cibles différentes.
Le processus inclut généralement les caractéristiques suivantes :
● Les environnements utilisent le même type de base de données mais peuvent avoir des versions ou des paramètres régionaux de base de données uniques.
● Les objets de base de données (tables et fonctions) peuvent appartenir à des propriétaires différents.
● Chaque environnement a un nom de connexion à la base de données, un nom d'utilisateur, un mot de passe, d'autres propriétés de connexion et un mappage du propriétaire uniques.
● Vous utilisez une procédure de migration du référentiel typique. Soit vous exportez les jobs vers un fichier
ATL puis importez le fichier ATL dans un autre référentiel, soit vous exportez directement les jobs d'un référentiel à un autre.
Puisque le logiciel remplace les configurations de banques de données lors de l'exportation, il est recommandé d'ajouter des configurations pour l'environnement cible (par exemple, ajouter des configurations pour l'environnement test lors de la migration du développement au test) au référentiel source (par exemple, ajouter au référentiel de développement avant la migration vers l'environnement test). L'utilitaire Exportation enregistre les configurations supplémentaires dans l'environnement cible, ce qui signifie que vous n'avez pas besoin de modifier les banques de données avant d'exécuter des jobs déplacés dans l'environnement cible.
Cette solution offre les avantages suivants :
● Temps de d'arrêt de production minimum : vous pouvez démarrer les jobs dès que vous les avez exportés.
● Problèmes de sécurité minimaux : les testeurs et les opérateurs en production n'ont pas besoin d'autorisation pour modifier les objets du référentiel.
5.6.6.2 Chargement de plusieurs instances
Le scénario de migration pour le chargement de plusieurs instances d'une source de données dans un entrepôt de données cible, est identique au scénario de migration, sauf que vous utilisez un seul référentiel.
5.6.6.2.1 Charger plusieurs instances d'une source de données dans un entrepôt de données cible
1. Créez une banque de données qui se connecte à une instance particulière.
98
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
2. Définissez la première configuration de banque de données. Cette configuration de banque de données contient toutes les propriétés configurables telles que le type de base de données, le nom de connexion à la base de données, le nom d'utilisateur, le mot de passe, la version de la base de données, et les informations des paramètres régionaux.
Lorsque vous définissez une configuration d'une banque de données d'adaptateur, assurez-vous que le Job
Server pertinent s'exécute afin que Designer puisse rechercher toutes les instances d'adaptateur disponibles pour la banque de données.
3. Définissez un ensemble de mappage alias-au-propriétaire dans la configuration de banque de données.
Lorsque vous utilisez un alias pour une configuration, le logiciel importe tous les objets à l'aide de l'alias de métadonnées plutôt qu'à l'aide des noms de propriétaire réels. Cela permet d'utiliser les objets de base de données pour les jobs qui sont transparents pour les autres instances de base de données.
4. Utilisez l'outil de renommage du propriétaire de l'objet de la base de données pour renommer les propriétaires des objets de base de données existants.
5. Importez les objets de la base de données et développez des jobs à l'aide de ces objets, puis exécutez les jobs.
6. Pour prendre en charge les jobs qui exécutent sous différentes instances, ajoutez des configurations de banque de données pour chaque instance supplémentaire.
7. Mappez les noms du propriétaire à partir des nouvelles configurations d'instance de base de données aux alias que vous avez définis dans une étape précédente.
8. Exécutez les jobs dans toutes les instances de base de données.
Informations associées
Modification du nom du propriétaire de table et de fonction [page 103]
5.6.6.3 Déploiement d'OEM
Vous pouvez concevoir des jobs pour un type de base de données et déployez ces jobs vers d'autres types de base de données comme partenaire OEM.
Le déploiement inclut généralement les caractéristiques suivantes :
● L'instance nécessite plusieurs types et versions de base de données source.
● Puisqu'une banque de données peut seulement accéder à une instance à la fois, il est possible que vous deviez déclencher des fonctions lors de l'exécution pour correspondre aux différentes instances. Si c'est le cas, le logiciel nécessite un texte SQL différent pour les fonctions (telles que lookup_ext et sql) et les transformations (telles que la transformation SQL). Le logiciel nécessite également des paramètres différents pour la table cible (configurables dans l'éditeur de table cible).
● Les instances peuvent utiliser des paramètres régionaux différents.
● Les tables de base de données dans différentes bases de données appartiennent à des propriétaires différents.
● Chaque instance a un nom de connexion à la base de données, un nom d'utilisateur, un mot de passe, d'autres propriétés de connexion et des mappages du propriétaire uniques.
● Vous exportez les jobs vers des fichiers ATL pour le déploiement.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
99
5.6.6.3.1 Déployer des jobs vers d'autres types de base de données en tant que partenaires OEM.
1. Développez des jobs pour un type particulier de base de données en suivant les étapes décrites dans le
scénario Chargement de plusieurs instances [page 98] .
Pour prendre en charge une nouvelle instance sous un nouveau type de base de données, le logiciel copie les propriétés de base de données de la table cible et de la transformation SQL à partir de la configuration précédente vers chaque configuration supplémentaire lorsque vous l'enregistrez.
Si vous avez sélectionné une méthode de chargeur par lots pour une ou plusieurs table(s) cible dans les flux de données du job, et que de nouvelles configurations s'appliquent à des types de base de données différents, ouvrez les cibles et définissez manuellement l'option de chargeur par lots (si vous souhaitez toujours utiliser la méthode de chargeur par lots avec le nouveau type de base de données). Le logiciel ne copie pas les options de chargeur par lot pour les cibles d'un type de base de données à un autre.
Lorsque le logiciel enregistre une nouvelle configuration, il génère également un rapport qui fournit une liste des cibles automatiquement définies pour le chargement par lots. Faites référence à ce rapport pour apporter des modifications manuelles si besoin.
2. Si le texte SQL dans une transformation SQL ne s'applique pas au nouveau type de base de données, modifiez le texte SQL pour le nouveau type de base de données.
Si le texte SQL contient des noms de propriétaire ou de base de données codés en dur, pensez à remplacer ces noms avec des variables pour fournir des noms de propriétaire et des noms de base de données pour plusieurs types de base de données. Ainsi, vous ne devez pas modifier le texte SQL pour chaque environnement.
3. Puisque le logiciel ne prend pas en charge un texte SQL unique pour chaque type ou version de base de données des fonctions sql(), lookup_ext(), et pushdown_sql(), utilisez la fonction db_type et les fonctions similaires pour obtenir le type et la version de base de données de la configuration de banque de données actuelle et fournir le texte SQL correct pour ce type et cette version de base de données à l'aide de la technique de substitution (interpolation) de variables.
5.6.6.4 Développement multi-utilisateurs
Lorsque vous utilisez le système de gestion du référentiel central, plusieurs développeurs, chacun avec leur propre référentiel local, peuvent recharger et extraire les jobs.
L'environnement de développement inclut généralement les caractéristiques suivantes :
● Il possède un référentiel central et un nombre de référentiels locaux.
● Plusieurs environnements de développement sont parfois fusionnés (via des opérations de référentiel central telles que les rechargements et les extractions). Lorsque la fusion se produit, les noms de propriétaire réels
(utilisés au départ pour l'importation d'objets) doivent être ensuite mappés à un ensemble d'alias partagés entre tous les utilisateurs.
● Le logiciel conserve l'historique des objets (versions et étiquettes).
● Les instances partagent le même type de base de données mais peuvent avoir des versions ou des paramètres régionaux de base de données différents.
● Les objets de base de données peuvent appartenir à des propriétaires différents.
100
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
● Chaque instance a un nom de connexion à la base de données, un nom d'utilisateur, un mot de passe, d'autres propriétés de connexion et un mappage du propriétaire uniques.
Dans le scénario de développement multi-utilisateurs, vous devez définir des alias pour que le logiciel puisse conserver correctement l'historique pour tous les objets dans l'environnement partagé.
5.6.6.4.1 Déplacement de jobs dans un environnement multiutilisateurs
Lors du déplacement de jobs dans un environnement multi-utilisateurs, prenez en compte ces points :
● Renommez les propriétaires de table et les propriétaires de fonction pour consolider les noms de propriétaire des objets de base de données d'objets dans des alias
○ La modification du nom se produit dans les référentiels locaux. Pour renommer les objets de base de données stockés dans le référentiel central, extrayez la banque de données vers un référentiel local et appliquez l'outil de renommage dans le référentiel local.
○ Si les objets à renommer ont des objets dépendants, le logiciel vous demande d'extraire les objets dépendants.
○ Si tous les objets dépendants peuvent être extraits, le renommage crée un nouvel objet qui possède l'alias et supprime l'objet d'origine qui possède le nom du propriétaire d'origine.
○ Si tous les objets dépendants ne peuvent pas être extraits (les flux de données sont extraits par un autre utilisateur), le logiciel affiche un message qui vous laisse l'option de continuer ou d'annuler l'opération. Si vous ne pouvez pas extraire certains objets dépendants, l'outil de renommage affecte uniquement les flux que vous pouvez extraire. Après le renommage, l'objet d'origine coexiste avec le nouvel objet. Le nombre de flux touchés par le processus de renommage affecte les informations sur l'utilisation et les cas d'emploi dans Designer pour l'objet d'origine et le nouvel objet.
● Vous êtes responsable du rechargement de tous les objets dépendants qui ont été extraits durant le processus de renommage du propriétaire. Le rechargement de nouveaux objets n'entraine pas automatiquement le rechargement des objets dépendants qui ont été extraits.
○ Le logiciel ne supprime pas les objets d'origine du référentiel central lorsque vous rechargez les nouveaux objets.
○ Soyez prudents car le fait de recharger dans les banques de données et de les extraire comme des opérations multi-utilisateur peut remplacer les configurations de banque de données.
○ Conservez les configurations de banque de données de tous les utilisateurs en ne remplaçant pas les configurations qu'ils ont créées. Ajoutez plutôt une configuration et définissez-la comme configuration par défaut lorsque vous travaillez dans votre propre environnement.
○ Lorsque votre groupe termine la phase de développement, il est recommandé que le dernier développeur supprime les configurations qui s'appliquent aux environnements de développement et ajoutez les configurations qui s'appliquent aux environnements de test ou de production.
5.6.7 Astuces de portabilité des jobs
● Le logiciel suppose que les métadonnées d'une table ou d'une fonction sont les mêmes dans les différents types et versions de base de données indiqués dans les différentes configurations d'une même banque de
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
101
données. Par exemple, si vous importez une table lorsque la configuration par défaut de la banque de données est Oracle, puisque vous utilisez la table dans un job pour extraire depuis DB2, le job exécutera.
● Importez les métadonnées pour un objet de base de données à l'aide de la configuration par défaut et utilisez les mêmes métadonnées avec toutes les configurations définies dans la même banque de données.
● Le logiciel prend en charge ses options dans certains types ou versions de base de données qu'il ne prend pas en charge dans d'autres. Par exemple, le logiciel prend en charge la lecture parallèle sur les tables partitionnées par hachage Oracle, mais pas sur les tables partitionnées par hachage de DB2 ou d'autres bases de données. Si vous importez une table partitionnée par hachage Oracle et définissez le flux de données pour exécuter en parallèle, le logiciel lit à partir de chaque partition en parallèle. Cependant, lorsque vous exécutez un job à l'aide des sources de l'environnement DB2, la lecture parallèle ne se produit pas.
● Les fonctionnalités suivantes prennent en charge la portabilité de job :
○ Transformation SQL améliorée
Avec la transformation SQL améliorée, il est possible de saisir un texte SQL différent pour les différents types/versions de base de données, et d'utiliser une substitution de variables dans le texte SQL pour permettre au logiciel de lire le bon texte pour la configuration de banque de données associée.
○ Editeur de table cible amélioré
A l'aide des options de l'éditeur de table cible amélioré, il est possible de configurer les cibles de table de base de données pour les différents types/versions de base de données pour correspondre à leurs configurations de banque de données.
○ Editeur de banque de données amélioré
A l'aide de l'éditeur de banque de données amélioré, il est possible de choisir lors de la création d'une nouvelle configuration de banque de données de copier les propriétés de la base de données (y compris les options de cible de table et de banque de données, ainsi que le texte de la transformation SQL) à partir d'une configuration existante, ou d'utiliser les valeurs actuelles.
● Lors de la conception d'un job qui est exécuté à partir de types ou versions de base de données différentes, nommez les tables de base de données, les fonctions, et les procédures stockées de la même façon pour toutes les sources. Si vous créez des configurations pour des bases de données non sensibles à la casse et pour des bases de données sensibles à la casse dans la même banque de données, il est recommandé de nommer les tables, fonctions, et procédures stockées avec des caractères tout en majuscules.
● Les schémas de table doivent correspondre dans les bases de données de la banque de données. Cela signifie que le nombre de colonnes, les noms des colonnes, et les positions des colonnes doit être exactement les mêmes. Les types de données de la colonne doivent être les mêmes ou compatibles. Par exemple, si vous avez une colonne VARCHAR dans une source Oracle, utilisez également une colonne VARCHAR dans la source Microsoft SQL Server. Si vous avez une colonne DATE dans une source Oracle, utilisez une colonne
DATETIME dans la source Microsoft SQL Server. Définissez les clés primaires et étrangères de la même manière.
● Les schémas de procédures stockées doivent correspondre. Lorsque vous importez une procédure stockées depuis une configuration de banque de données, et que vous l'utilisez pour une autre configuration de banque de données, le logiciel suppose que la signature de la procédure stockées est exactement la même pour les deux bases de données. Par exemple, si une procédure stockée est une fonction stockée (uniquement les fonctions stockées prises en charge par Oracle), alors vous devez l'utiliser comme une fonction avec toutes les autres configurations dans une banque de données (en d'autres termes, toutes les bases de données doivent être Oracle). Si la procédure stockée a trois paramètres dans une base de données, elle doit avoir exactement trois paramètres dans les autres bases de données. De plus, les noms, positions, types de données et les types in/out des paramètres doivent correspondre exactement.
102
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
Informations associées
Guide de développement avancé : Développement multi-utilisateurs [page 741]
Guide de développement avancé : Configuration d'un environnement multi-utilisateurs [page 745]
5.6.8 Modification du nom du propriétaire de table et de fonction
Utilisez le renommage de propriétaire pour affecter un alias de métadonnées unique au lieu du nom du propriétaire réel pour les objets de la base de données dans la banque de données.
Vous pouvez renommer le propriétaire des tables importées, tables de modèle ou des fonctions. La consolidation de métadonnées sous un nom d'alias unique permet d'accéder à des informations cohérentes et précises sur les dépendances à tout moment tout en permettant également de passer plus facilement d'une configuration à une autre lorsque vous déplacez les jobs dans différents environnements.
Lors de l'utilisation d'objets stockés dans un référentiel central, un alias partagé permet de suivre facilement les objets rechargés par plusieurs utilisateurs. Si tous les utilisateurs des référentiels locaux utilisent le même alias, le logiciel peut suivre les dépendances pour les objets rechargés et extraits du référentiel central par votre équipe.
Lorsque vous renommez un propriétaire, les instances d'une table ou d'une fonction dans un flux de données sont affectées, et non pas la banque de données depuis laquelle elles ont été importées.
1. À partir de l'onglet Banque de données de la bibliothèque d'objets locale, développez une table, une table de modèle ou une catégorie de fonction.
2. Faites un clic droit sur la table ou sur la fonction et sélectionnez
Renommer le propriétaire
.
3. Saisissez un Nouveau
nom du propriétaire
puis cliquez sur
Renommer
.
Lorsque vous saisissez un Nouveau nom du propriétaire, le logiciel l'utilise comme un alias de métadonnées pour la table ou la fonction.
Remarque
Si l'objet que vous renommez existe déjà dans la banque de données, le logiciel détermine si les deux objets ont le même schéma. Si tel est le cas, le logiciel poursuit. Si les schémas sont différents, le logiciel affiche un message à cet effet. Il est possible que vous deviez choisir un nom d'objet différent.
Le logiciel prend en charge les renommages de propriétaire sensibles à la casse ou non sensibles à la casse.
● Si les objets que vous souhaitez renommer proviennent d'une base de données sensible à la casse, le mécanisme de renommage du propriétaire conserve la sensibilité à la casse.
● Si les objets que vous souhaitez renommer proviennent d'une banque de données qui contient des bases de données sensibles à la casse et non sensibles à la casse, le logiciel reposera la sensibilité à la casse des nouveaux noms de propriétaire sur la sensibilité à la casse de la configuration par défaut. Pour s'assurer que tous les objets sont portables dans toutes les configurations de ce scénario, saisissez tous les noms de propriétaire et les noms d'objet avec des caractères tout en majuscules.
Lors du processus de renommage du propriétaire :
● Le logiciel met à jour les objets dépendants (jobs, workflows et flux de données qui utilisent l'objet renommé) pour utiliser le nouveau nom du propriétaire.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
103
● La bibliothèque d'objets affiche l'entrée de l'objet avec le nouveau nom du propriétaire. Les informations d'utilisation et de cas d'emploi affichées reflètent le nombre d'objets dépendants mis à jour.
● Si le logiciel met à jour avec succès tous les objets dépendants, il supprime les métadonnées pour l'objet avec le nom du propriétaire d'origine de la bibliothèque d'objets et du référentiel.
5.6.8.1 Utilisation de la fenêtre Renommer dans un scénario multi-utilisateurs
L'utilisation d'un alias pour tous les objets stockés dans un référentiel central permet au logiciel de suivre tous les objets rechargés par plusieurs utilisateurs.
Si tous les utilisateurs des référentiels locaux utilisent le même alias, le logiciel peut suivre les dépendances pour les objets rechargés et extraits du référentiel central par votre équipe.
Lorsque vous rechargez et extrayez les objets d'un référentiel central, en fonction du statut d'extraction d'un objet renommé et de l'éventuelle association de l'objet à des objets dépendants, il existe plusieurs comportements possibles lorsque vous sélectionnez le bouton
Renommer
.
Table 42 :
Scénario Comportement lors de l'utilisation de la fonctionnalité Renommer.
1 - L'objet n'est pas extrait et n'a au cun objet dépendant dans le référen tiel local ou central.
Lorsque vous cliquez sur
Renommer
, le logiciel renomme le propriétaire de l'objet.
2 - L'objet est extrait et n'a aucun objet dépendant dans le référentiel local ou central.
Lorsque vous cliquez sur
Renommer
, le logiciel renomme le propriétaire de l'objet.
3 - L'objet n'est pas extrait et a un ou plusieurs objet(s) dépendant(s)
(dans le référentiel local).
Lorsque vous cliquez sur
Renommer
, le logiciel affiche une seconde fenêtre avec une liste des objets dépendants (qui utilisent ou font référence à l'objet renommé).
Si vous cliquez sur
Continuer
, le logiciel renomme les objets et modifie les objets dépen dants qui font référence à l'objet renommé à l'aide du nouveau nom du propriétaire. Si vous cliquez sur
Annuler
, Designer renvoie à la fenêtre Renommer le propriétaire.
Remarque
Il est possible qu'un objet ait toujours un ou plusieurs objet(s) dépendant(s) dans le référentiel central. Cependant, si l'objet à renommer n'est pas extrait, le mécanisme
Renommer le propriétaire (par dessein) n'affecte pas les objets dépendants dans le référentiel central.
104
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
Scénario
4 - L'objet est extrait et a un ou plu sieurs objet(s) dépendant(s).
Comportement lors de l'utilisation de la fonctionnalité Renommer.
Ce scénario est relativement complexe.
● Si vous n'êtes pas connecté au référentiel central, le message de statut est :
This object is checked out from central repository
<X> . Please select Tools | Central Repository… to activate that repository before renaming.
● Si vous êtes connecté au référentiel central, la fenêtre Renommer le propriétaire s'ouvre.
Lorsque vous cliquez sur
Renommer
, une deuxième fenêtre s'ouvre pour afficher les objets dépendants et un statut qui indique leur état d'extraction et leur empla cement. Si un objet dépendant se trouve dans le référentiel local uniquement, le message de statut vous indiquera qu'il est uniquement utilisé dans un référentiel local et que l'extraction n'est pas nécessaire.
● Si l'objet dépendant se trouve dans le référentiel central et qu'il n'est pas extrait, le message de statut vous indiquera qu'il n'est pas extrait.
● Si l'objet dépendant est extrait ou extrait par un autre utilisateur, le message de statut affiche le nom du référentiel extrait. Par exemple,
Oracle.production.user1
.
Comme dans le scénario 2, le but de cette deuxième fenêtre est d'afficher les ob jets dépendants. De plus, cette fenêtre permet d'extraire les objets dépendants né cessaires du référentiel central, sans avoir à accéder à la fenêtre Bibliothèque d'ob jets centrale.
Cliquez sur le bouton
Actualiser la liste
pour mettre à jour le statut d'extraction dans la liste. Cette mise à jour est utile lorsque le logiciel identifie un objet dépen dant dans le référentiel central mais qu'un autre utilisateur l'a extrait.
Lorsque cet utilisateur recharge l'objet dépendant, cliquez sur
Actualiser la liste
pour mettre à jour le statut et vérifier que l'objet dépendant n'est plus extrait.
Conseil
Pour tirer le meilleur parti de la fonctionnalité Renommer le propriétaire, ex trayez les objets dépendants associés du référentiel central. Cette extraction aide à éviter d'avoir des objets dépendants qui font référence à des objets avec des noms de propriétaire qui n'existent pas. A partir du référentiel central, sé lectionnez un ou plusieurs objet(s), puis faites un clic droit et sélectionnez
Extraire
.
Après avoir extrait l'objet dépendant, Designer met à jour le statut. Si l'extraction
était réussie, le statut affiche le nom du référentiel local.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
105
Scénario Comportement lors de l'utilisation de la fonctionnalité Renommer.
4a - Vous cliquez sur
Continuer
, mais un ou plusieurs objet(s) dépen dant(s) ne sont pas extraits du réfé rentiel central.
Dans cette situation, le logiciel affiche une autre boîte de dialogue pour vous prévenir des objets pas encore traités et pour confirmer votre désir de continuer. Vous devez :
● cliquer sur
Non
pour revenir à la boîte de dialogue précédente qui affiche les objets dépendants ;
● cliquer sur
Oui
pour continuer à renommer l'objet sélectionné et modifier ses ob jets dépendants.
Le logiciel modifie les objets qui ne sont pas extraits dans le référentiel local pour faire référence au nouveau nom de propriétaire. Il est de votre responsabilité de maintenir une cohérence avec les objets dans le référentiel central.
4b - Vous cliquez sur
Continuer
et tous les objets dépendants sont ex traits du référentiel central.
Le logiciel renomme le propriétaire de l'objet sélectionné et modifie tous les objets dé pendants pour faire référence au nouveau nom du propriétaire. Bien qu'il semble que l'objet d'origine ait un nouveau nom du propriétaire, le logiciel n'a en réalité pas modifié l'objet d'origine ; il a créé un nouvel objet identique à l'original mais utilise le nouveau nom du propriétaire. L'objet d'origine avec l'ancien nom du propriétaire existe toujours.
Le logiciel effectue alors une "annulation de l'extraction" sur l'objet d'origine. C'est alors
à vous de devoir recharger l'objet renommé.
Lorsque l'opération de renommage est réussie, dans l'onglet
Banque de données
de la bibliothèque d'objets locale, le logiciel met à jour la table ou la fonction avec le nouveau nom du propriétaire et la fenêtre Sortie affiche le message suivant :
Object <Object_Name> : Owner name <Old_Owner> successfully renamed to <New_Owner> , including references from dependent objects.
Si le logiciel n'a pas renommé avec succès le propriétaire, la fenêtre Sortie affiche le message suivant :
Object <Object_Name> : Owner name <Old_Owner> could not be renamed to <New_Owner> .
5.6.9 Définition d'une configuration système
Lors de la conception de jobs, déterminez et créez des configurations de banque de données et des configurations système en fonction de votre environnement et de vos règles d'entreprise.
Pour ce faire, vous devez connaître la différence entre les configurations de banque de données et les configurations système.
Table 43 :
Configurations de banque de données
Configurations système
Chaque configuration de banque de données définit une connexion à une base de données particulière depuis une banque de données unique.
Chaque configuration système définit un ensemble de configurations de banque de données qu'il est préférable d'utiliser ensemble lors de l'exécution d'un job. Il est possible de définir une configuration de système si le référentiel contient au moins une banque de données avec plusieurs configurations. Il est également possible d'associer des configurations de pa ramètres de substitution à des configurations système.
106
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
Créez des configurations de banque de données pour les banques de données du référentiel avant de créer des configurations système pour les organiser et les associer.
Sélectionnez une configuration de système à utiliser au moment de l'exécution. Dans de nombreuses entreprises, un concepteur de jobs définit les configurations de banque de données et de système requises, puis un administrateur système détermine quelle configuration de système utiliser lors de la planification et du lancement d'un job.
Le logiciel conserve les configurations système séparément des jobs. Il est impossible de recharger ou d'extraire les configurations système dans un environnement multi-utilisateurs. Cependant, il est possible d'exporter des configurations système vers un fichier plat distinct que vous pouvez ensuite importer.
Informations associées
Création d'une nouvelle configuration [page 94]
5.6.9.1 Création d'une configuration système
1. Dans la barre de menu de Designer, sélectionnez
Outils Configurations système
.
La fenêtre
Modifier les configurations système
s'affiche.
2. Pour ajouter une nouvelle configuration système, réalisez l'une des opérations suivantes :
○ Cliquez sur l'icône
Créer une configuration
pour ajouter une configuration qui référence la configuration par défaut des paramètres de substitution et chaque connexion à la banque de données.
○ Sélectionnez une configuration existante et cliquez sur l'icône
Dupliquer la configuration
pour créer une copie de la configuration sélectionnée.
Il est possible d'utiliser la copie comme modèle et de modifier les sélections de paramètres de substitution ou de configuration de banque de données pour qu'elles s'adaptent à vos besoins.
3. Renommez la nouvelle configuration système si vous le souhaitez.
a. Sélectionnez la configuration système que vous souhaitez renommer.
b. Cliquez sur l'icône
Renommer la configuration
pour activer le mode de modification pour le champ du nom de la configuration.
c. Saisissez un nouveau nom unique et cliquez en dehors du champ du nom pour accepter votre choix.
Il est recommandé de suivre une convention d'affectation de nom cohérente et d'utiliser le préfixe
SC_
dans chaque nom de configuration système pour pouvoir identifier facilement ce fichier comme étant une configuration système. Cette pratique est particulièrement utile lorsque vous exportez la configuration système.
4. A partir de la liste, sélectionnez une configuration de paramètres de substitution à associer avec la configuration système.
5. Pour chaque banque de données, sélectionnez la configuration de banque de données que vous souhaitez utiliser lors de l'exécution d'un job à l'aide de la configuration système.
Si vous ne mappez pas une configuration de banque de données à une configuration système, le Job Server utilise la configuration de banque de données par défaut au moment de l'exécution.
Guide de Designer
Banques de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
107
6. Cliquez sur
OK
pour enregistrer les paramètres de la configuration système.
Informations associées
5.6.9.2 Exportation d'une configuration système
1. Dans la bibliothèque d'objets, sélectionnez l'onglet Banques de données et faites un clic droit sur une banque de données.
2. Sélectionnez
Référentiel Exporter les configurations système
.
Il est recommandé d'ajouter le préfixe CS_ à chaque fichier .atl de configuration système exportée pour identifier facilement ce fichier comme étant une configuration système.
3. Cliquez sur
OK
.
108
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Banques de données
6 Formats de fichiers
Ensemble de propriétés qui décrivent la structure de métadonnées d'un fichier plat (ASCII).
Les formats de fichier décrivent la structure de métadonnées d'un fichier spécifique. Un modèle de format de fichier est une description générique qui peut être utilisée pour plusieurs fichiers de données.
Cette section évoque les formats de fichiers, la manière d'utiliser l'éditeur de format de fichier et la manière de créer un format de fichier dans le logiciel.
6.1 Comprendre les formats de fichier
Le logiciel peut utiliser les données stockées dans des fichiers pour les sources et les cibles de données.
Un format de fichier définit une connexion à un fichier. Par conséquent, vous utilisez un format de fichier pour connecter aux données sources ou cibles lorsque les données sont stockées dans un fichier plutôt que dans une table de base de données. La bibliothèque d'objets enregistre les modèles de format de fichier que vous utilisez pour définir les formats de fichier spécifiques comme des sources ou des cibles dans des flux de données.
Pour travailler avec des formats de fichier, effectuez les tâches suivantes :
● Créez un modèle de format de fichier qui définit la structure pour un fichier.
● Créez un format de fichier source ou cible dans un flux de données. Le format de fichier source ou cible est basé sur un modèle et indique les informations de connexion telles que le nom du fichier.
Les objets de format de fichier peuvent décrire les fichiers des types suivants :
● Délimité : les caractères comme les virgules ou les tabulations séparent chaque champ.
● Largeur fixe : vous indiquez la largeur de la colonne.
● Transport SAP : permet de définir les objets de transport de données dans les flux de données des applications SAP.
● Texte non structuré : permet de lire un ou plusieurs fichiers de texte non structuré à partir d'un répertoire.
● Binaire non structuré : permet de lire un ou plusieurs documents binaires à partir d'un répertoire.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
109
6.2 Editeur de format de fichier
Utilisez l'éditeur de format de fichier pour définir des propriétés pour les modèles de format de fichier et les formats de fichier source et cible.
Les propriétés disponibles varient selon le mode de l'éditeur de format de fichier :
Table 44 :
Mode
Mode Nouveau
Mode Modification
Mode Source
Mode Cible
Description
Créer un modèle de format de fichier
Modifier un modèle de format de fichier existant
Modifier le format de fichier d'un fichier source particulier
Modifier le format de fichier d'un fichier cible particulier
L'éditeur de format de fichier est composé de trois zones de travail :
Table 45 :
Zone de travail
Propriétés-valeurs
Attributs de colonne
Aperçu des données
Emplacement
À gauche de la fenêtre de l'éditeur de format.
Description
Modifier les valeurs pour les propriétés de format de fichier. Dévelop pez et réduisez les groupes de propriétés en cliquant sur le signe plus ou le signe moins principal.
En haut à droite de la fenê tre de l'éditeur de format.
Modifier et définir les colonnes ou les champs dans le fichier. Les for mats spécifiques au champ remplacent le format par défaut défini dans la zone Propriétés-Valeurs.
En bas à droite de la fenê tre de l'éditeur de format.
Afficher la manière dont les paramètres affectent les exemples de données, le cas échéant.
L'éditeur de format de fichier contient des barres de "fractionnement" pour permettre le redimensionnement de la fenêtre et de toutes les zones de travail. Il est possible d'étendre l'éditeur de format de fichier en plein écran.
Les propriétés et les apparences des zones de travail varient avec le format du fichier.
110
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
Le bouton
Afficher l'ATL
affiche une copie en lecture seule du fichier Transformation Language généré pour le format de fichier.
Remarque
Il est possible que le Support SAP destiné aux utilisateurs professionnels vous indique d'utiliser ce bouton.
6.3 Créer des formats de fichier
Pour indiquer un fichier source ou cible, vous créez un modèle de format de fichier qui définit la structure pour un fichier.
Lorsque vous glissez-déplacez le format de fichier dans un flux de données, le format représente un fichier qui est basé sur le modèle et indique les informations de connexion telles que le nom du fichier.
6.3.1 Création d'un nouveau format de fichier plat
Étapes de création d'un nouveau format de fichier plat.
1. Cliquez avec le bouton droit sur
Fichiers plats
dans l'onglet
Formats
de la bibliothèque d'objets et sélectionnez
Nouveau
.
L'
Éditeur de format de fichier
s'ouvre.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
111
2. Dans la colonne propriétés-valeurs à gauche, sélectionnez le type de fichier plat dans la liste déroulante
Type
.
Remarque
Le logiciel propose les options restantes en fonction du type choisi.
3. Saisissez un
nom
descriptif pour le modèle de format de fichier.
Après avoir enregistré le modèle de format de fichier, il est impossible de modifier le nom mais vous pouvez ajouter ou modifier une description.
4. Renseignez le reste des options dans la colonne propriétés le cas échéant (voir le Guide de référence pour les descriptions d'options).
5. Le cas échéant, renseignez les informations dans la section attributs de colonne en haut à droite de la fenêtre de l'
Éditeur de format de fichier
.
6. Cliquez sur
Enregistrer et fermer
pour enregistrer le modèle de format de fichier et fermer l'éditeur de format de fichier.
Informations associées
Définition des attributs de colonne lors de la création d'un format de fichier [page 113]
Types de fichiers plats [page 112]
Transferts personnalisés de fichiers [page 128]
Objets d'emplacement de fichier [page 142]
6.3.1.1 Types de fichiers plats
Lorsque vous créez un format de fichier plat à l'aide de l'
Éditeur de format de fichier
, vous devez choisir un type de fichier.
La table suivante contient les types de fichiers plats que vous pouvez choisir lors de la création ou la modification d'un format de fichier plat.
Table 46 :
Type Description
Délimité
Largeur fixe
Transport SAP
pour un fichier qui utilise une séquence de caractères pour sé parer les colonnes.
pour un fichier qui utilise des largeurs spécifiées pour chaque colonne pour les objets de transport de données dans les flux de don nées des applications SAP.
112
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
Type
Texte non structuré
Binaire non structuré
Description pour un ou plusieurs fichiers de texte non structuré à partir d'un répertoire. Le schéma est fixé pour ce type.
pour un ou plusieurs documents binaires et de texte non structurés à partir d'un répertoire. Le schéma est fixé pour ce type.
Informations associées
Création d'un nouveau format de fichier plat [page 111]
6.3.1.2 Définition des attributs de colonne lors de la création d'un format de fichier
Modifiez et définissez les colonnes ou les champs d'un fichier source dans la section attributs de colonne.
Attention
Les formats spécifiques au champ que vous définissez dans la section attributs de colonne écrasent le format par défaut défini dans la colonne propriétés-valeurs à gauche.
Lors de la création d'un format de fichier pour certains fichiers source, il est possible de spécifier la structure des colonnes dans la zone de travail Attributs de colonne (volet en haut à droite) de l'
Éditeur de format de fichier
. Il est possible de modeler les attributs de fichier à l'aide d'un exemple de fichier.
1. Cliquez sur
Champ1
sous la colonne
Nom de champ
et saisissez un nom de champ.
2. Cliquez sur la cellule
Type de données
et choisissez un type de données dans la liste déroulante.
3. Poursuivez la configuration du champ en renseignant les autres attributs applicables dans la ligne.
Informations supplémentaires concernant les colonnes :
○ Les colonnes
Échelle
et
Précision
sont destinées à des types de données décimales et numériques.
○ Pour le
Type de contenu
, si vous ajoutez une colonne lors de la création d'un format, le logiciel peut renseigner le type de contenu en fonction du nom du champ. Si un type de contenu approprié n'est pas disponible, le logiciel laisse le
type de contenu
vide par défaut.
○ Vous pouvez également saisir les informations dans le champ
Format
pour les types de données appropriés (type de données horodateur par exemple). Ces informations remplacent le format par défaut défini dans la zone Propriétés-Valeurs pour ce type de données.
4. Ajoutez un nouveau champ en cliquant sur la cellule vide sous la première ligne de champ.
5. Cliquez sur
Enregistrer et fermer
pour enregistrer le modèle de format de fichier et fermer l'éditeur de format de fichier.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
113
Remarque
Vous n'avez pas besoin d'indiquer les colonnes pour les fichiers utilisés comme des cibles. Si vous indiquez des colonnes et qu'elles ne correspondent pas au schéma de sortie de la transformation précédente, le logiciel écrit dans le fichier cible à l'aide du schéma de sortie de la transformation.
Remarque
Pour le type de données décimale ou réelle, si vous indiquez seulement un format de colonne source et que les noms de colonnes et les types de données dans le schéma cible ne correspondent pas à ceux dans le schéma source, le logiciel ne peut pas utiliser le format de colonne source spécifié. A la place, il utilise par défaut le format utilisé par la page de code sur l'ordinateur où le Job Server est installé.
Informations associées
Création d'un nouveau format de fichier plat [page 111]
6.3.1.3 Utilisation d'un programme de transfert personnalisé
Un programme de transfert personnalisé fait référence à un programme de protocole de transfert de fichiers tiers que vous utilisez pour lire et charger les fichiers plats. Cette option s'applique aux fichiers plats délimités ou de largeur fixe.
Pour les autres types de fichiers plats et pour les schémas imbriqués, il est possible de configurer une définition de protocole de transfert de fichiers en créant un objet d'emplacement de fichier plutôt qu'en utilisant les paramètres du programme de transfert personnalisé.
Si vous sélectionnez
Oui
à l'option
Programme de transfert personnalisé
, vous devez renseigner les options dans la section
Transfert personnalisé
ultérieurement dans la section propriétés-valeurs.
1. Définissez l'option
Programme de transfert personnalisé
sur
Oui
.
2. Développez la section
Transfert personnalisé
et saisissez le nom du programme de transfert personnalisé et les arguments.
Informations associées
Création d'un nouveau format de fichier plat [page 111]
Protocoles de transfert de fichier [page 127]
Objets d'emplacement de fichier [page 142]
114
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
6.3.2 Modélisation d'un format de fichier sur un exemple de fichier.
1. Depuis l'onglet
Formats
dans la bibliothèque d'objets locale, créez un nouveau modèle de format de fichier ou modifiez un modèle de format de fichier plat existant.
2. Sous
Fichier(s) de données
:
○ Si l'exemple de fichier se trouve sur le même ordinateur que Designer Data Services, définissez
Emplacement
sur
Local
. Naviguez pour définir les options
Répertoire racine
et
Fichier(s)
pour spécifier l'exemple de fichier.
Remarque
Lors de la conception, il est possible de spécifier un fichier qui se trouve sur l'ordinateur où Designer s'exécute ou sur l'ordinateur où le Job Server s'exécute. Indiquez l'emplacement du fichier dans la propriété Emplacement. Lors de l'exécution, vous devez spécifier un fichier qui se trouve sur l'ordinateur du Job Server qui exécute le job.
○ Si l'exemple de fichier se trouve sur le même ordinateur que le Job Server actuel, définissez
Emplacement
sur
Job Server
. Saisissez les options
Répertoire racine
et
Fichier(s)
pour spécifier l'exemple de fichier.
Lorsque vous sélectionnez
Job Server
, l'icône
Parcourir
est désactivée ; vous devez donc saisir le chemin d'accès au fichier. Vous pouvez saisir un chemin d'accès absolu ou un chemin d'accès relatif, mais le Job
Server doit pouvoir y accéder. Par exemple, un chemin sur UNIX devrait être /usr/data/abc.txt. Un chemin sur Windows devrait être C:\DATA\abc.txt.
Remarque
Dans le système d'exploitation Windows, les fichiers ne sont pas sensibles à la casse ; cependant, les noms de fichier sont sensibles à la casse dans l'environnement UNIX. (Par exemple, abc.txt et aBc.txt sont deux fichiers différents dans le même répertoire UNIX.)
Pour réduire le risque de saisir des erreurs, il est possible d'effectuer un telnet (établir une connexion au protocole Telnet) sur l'ordinateur du Job Server (UNIX ou Windows) et de trouver le nom complet du chemin du fichier que vous souhaitez utiliser. Ensuite, copiez-collez le nom du chemin depuis l'application de telnet directement dans la zone de texte Répertoire racine dans l'éditeur de format de fichier. Il est impossible d'utiliser Windows Explorer pour déterminer l'emplacement exact du fichier sur Windows.
3. Si le type de fichier est délimité, définissez le séparateur de colonne approprié pour l'exemple de fichier. Il est possible de choisir dans la liste déroulante ou de spécifier des séparateurs Unicodes en saisissant directement le code de caractère Unicode sous la forme /XXXX où XXXX est un code de caractère Unicode décimal. Par exemple, /44 est le caractère Unicode pour la virgule (,).
4. Sous
Entrée/Sortie
, définissez
Ignorer l'en-tête de la ligne
sur
Oui
si vous souhaitez utiliser la première ligne dans le fichier pour désigner les noms de champ.
L'éditeur de format de fichier affiche les noms de colonne dans la zone Aperçu des données et crée automatiquement la structure des métadonnées.
5. Facultatif. Modifiez la structure des métadonnées si nécessaires dans la zone des attributs de colonne en haut à droite de l'
Éditeur de format de fichier
.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
115
Pour les fichiers délimités et de largeur fixe, il est possible de modifier la structure des métadonnées dans la zone de travail Attributs de la colonne : a. Faites un clic droit pour insérer ou supprimer des champs.
b. Renommez les champs.
c. Définissez les types de données d. Saisissez des longueurs de champ pour les types de données
Blob
et
Varchar
.
e. Saisissez les informations d'échelle et de précision pour les types de données
Numérique
et
Décimale
.
f. Saisissez les informations du champ
Format
pour les types de données appropriés si vous le souhaitez.
Ces informations de format remplacent le format par défaut défini dans la zone Valeurs dans les
Propriétés pour ce type de données.
g. Saisissez les informations de
Type de contenu
. Vous n'avez pas besoin d'indiquer les colonnes pour les fichiers utilisés comme des cibles. Si vous avez ajouté une colonne lors de la création d'un nouveau format, le type de contenu peut automatiquement se renseigner en fonction du nom de champ. Si un type de contenu approprié ne peut pas être automatiquement renseigné, il est vide par défaut.
Pour les fichiers de largeur fixe, il est possible de modifier la structure des métadonnées dans la zone de travail Attributs de la colonne : a. Cliquez pour sélectionner et mettre en surbrillance les colonnes b. Faites un clic droit pour insérer ou supprimer des champs.
Remarque
La zone Aperçu des données ne peut pas afficher les données Blob.
6. Cliquez sur
Enregistrer et fermer
pour enregistrer le modèle de format de fichier et fermer l'éditeur de format de fichier.
6.3.3 Répliquer et renommer des formats de fichier
Après avoir créé un schéma de format de fichier, il est possible de créer rapidement un autre objet de format de fichier avec le même schéma en répliquant le format de fichier existant et en le renommant :
6.3.3.1 Réplication d'un format de fichier pour la création d'un format de fichier
Étapes pour créer un format de fichier à l'aide de l'option
Répliquer
.
1. Dans l'onglet
Formats
de la bibliothèque d'objets, cliquez avec le bouton droit sur un format de fichier existant et sélectionnez
Répliquer
dans le menu déroulant.
L'
Éditeur de format de fichier
s'ouvre et affiche le schéma du format de fichier copié.
2. Saisissez un nouveau nom unique dans l'option
Nom
.
Remarque
Vous devez saisir un nouveau nom pour le fichier répliqué. Le logiciel ne vous autorise pas à enregistrer le fichier répliqué avec le même nom que celui d'origine (ou que celui d'un autre objet de format de fichier
116
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
existant). De plus, c'est votre seule chance de modifier la valeur de la propriété
Nom
. Une fois enregistré, il n'est plus possible de modifier à nouveau le nom.
3. Modifiez les autres propriétés le cas échéant.
Recherchez les propriétés disponibles lorsque l'éditeur de format de fichier est en mode source ou en mode cible.
4. Pour enregistrer et afficher le nouveau schéma de format de fichier, cliquez sur
Enregistrer
.
Pour terminer le processus de réplication (même après avoir modifié le nom et cliqué sur Enregistrer), cliquez sur
Annuler
ou appuyez sur le bouton
Echap de votre clavier.
5. Cliquez sur
Enregistrer et fermer
.
Informations associées
Formats de fichiers [page 109]
6.3.4 Création d'un format de fichier à partir d'un schéma de table plate existant
Étapes pour utiliser un schéma de fichier plat existant dans un flux de données afin de créer rapidement un format de fichier plat au lieu de créer un format de fichier à partir de zéro.
Avant de suivre la procédure ci-dessous, ouvrez le flux de données applicable contenant l'objet avec le schéma à copier.
1. Cliquez sur le nom de l'objet.
L'éditeur d'objet s'ouvre en affichant le schéma (par exemple
Entrée de schéma
situé en haut à gauche de l'éditeur)
2. Cliquez avec le bouton droit sur le nom du schéma et sélectionnez
Créer format de fichier
dans le menu déroulant.
L'
Éditeur de format de fichier
s'ouvre et affiche les paramètres actuels du schéma.
3. Saisissez un nom pour le nouveau schéma dans l'option
Nom
.
4. Définissez les propriétés applicables pour le nouveau schéma, le cas échéant, et cliquez sur
Enregistrer et fermer
.
Le logiciel enregistre le nouveau modèle de format de fichier dans le référentiel. Vous pouvez y accéder dans l'onglet
Formats
de la bibliothèque d'objets dans le dossier
Fichiers plats
.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
117
6.3.5 Créer un fichier source ou cible spécifique
Étapes pour utiliser un format de fichier comme source ou comme cible dans un flux de données.
Créez un flux de données dans l'espace de travail et choisissez le fichier plat que vous utiliserez comme source ou cible.
1. Cliquez sur un nom de format de fichier plat dans le dossier
Fichiers plats
de l'onglet
Formats
dans la bibliothèque d'objets locale.
2. Faites glisser le modèle de format de fichier vers l'espace de travail du flux de données.
Un menu pop-up s'affiche.
3. Sélectionnez
Créer la source
pour définir un format de fichier source, ou sélectionnez
Créer la cible
pour définir un format de fichier cible.
Le fichier plat source ou cible apparaît dans votre espace de travail.
4. Cliquez sur le nom de l'objet de format de fichier dans l'espace de travail pour ouvrir l'éditeur.
L'éditeur d'objet s'ouvre. Les propriétés disponibles varient si vous avez choisi
Créer la source
ou
Créer la cible
.
5. Renseignez les propriétés
Nom(s) de fichier(s)
et
Emplacement
dans
Fichier(s) de données
.
Remarque
Il est possible d'utiliser des variables comme des noms de fichier.
6. Connectez l'objet de format de fichier à l'objets applicable dans le flux de données.
Informations associées
Définir des noms de fichier lors de l'exécution à l'aide de variables [page 306]
6.4 Edition de formats de fichier
Il est possible de modifier des modèles de format de fichier existants pour correspondre aux modifications apportées dans le format ou la structure d'un fichier.
Il est impossible de modifier le nom d'un modèle de format de fichier.
Par exemple, si vous avez un champ de date dans un fichier source ou cible dont le format est mm/jj/aa et que les données pour ce champ passent au format jj-mm-aa à cause de changements dans le programme qui génère le fichier source, vous pouvez modifier le modèle de format de fichier correspondant et les informations sur le format de la date.
Pour les formats de fichier source ou cible spécifiques, il est possible de modifier les propriétés qui définissent uniquement cette source ou cette cible telles que le nom et l'emplacement du fichier.
118
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
Attention
Si le modèle est utilisé dans d'autres jobs (l'utilisation est supérieure à 0), les modifications que vous apportez au modèle sont également apportées aux fichiers qui utilisent le modèle.
Pour modifier un modèle de format de fichier, procédez de la façon suivante :
1. Dans l'onglet
Formats
de la bibliothèque d'objets, cliquez deux fois sur un format de fichier plat existant (ou faites un clic droit et sélectionnez
Modifier)
.
L'éditeur de format de fichier s'ouvre avec les valeurs du format existant.
2. Modifiez les valeurs selon vos besoins.
Recherchez les propriétés disponibles lorsque l'éditeur de format de fichier est en mode source ou en mode cible.
3. Cliquez sur
Enregistrer
.
6.4.1 Modifier un fichier source ou cible
1. Dans l'espace de travail, cliquez sur le nom d'un fichier source ou cible.
L'Éditeur de format de fichier s'ouvre : L'
Éditeur de fichiers source
ou l'
Éditeur de fichiers cible
s'ouvre, affichant les propriétés du fichier source ou cible sélectionné.
2. Modifiez les propriétés souhaitées.
Il existe des propriétés communes aux modes source et cible. Toutefois, des options sont spécifiques à chaque mode. Retrouvez les descriptions complètes des options dans le Guide de référence.
Restriction
Toutes les modifications de valeurs que vous apportez dans les modes source ou cible remplacent celles du format de fichier d'origine.
Pour modifier les propriétés qui ne sont pas disponibles en mode source ou cible, vous devez modifier le modèle de format de fichier du fichier.
3. Cliquez sur
Enregistrer
.
6.4.2 Modification de plusieurs propriétés de colonne
Étapes pour définir les mêmes propriétés de colonne, telles que le type de données et le type de contenu, pour plusieurs colonnes d'un format de fichier dans la zone des attributs de colonne de l'
Éditeur de format de fichier
.
Utilisez ces étapes lors de la création d'un nouveau format de fichier ou de la modification d'un format de fichier existant.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
119
Remarque
Pour plus de clarté, nous faisons référence à chaque champ comme colonne séparée. Par exemple, le champ
Prénom et Nom sont deux colonnes. Nous ne faisons pas référence aux colonnes à proprement parler (
Nom de champ
,
Type de données
, etc.) de la zone attributs de la colonne.
1. Cliquez avec le bouton droit sur un format de fichier existant sous le dossier
Fichiers plats
de l'onglet
Formats
de la bibliothèque d'objets et sélectionnez
Modifier
.
L'
Éditeur de format de fichier
s'ouvre.
2. Dans la zone des attributs de colonne (volet en haut à droite), sélectionnez les colonnes que vous souhaitez modifier.
○ Pour sélectionner des colonnes consécutives, sélectionnez la première colonne et appuyez sur la touche
Maj
puis sélectionnez la dernière colonne.
○ Pour sélectionner des colonnes non consécutives, appuyez sur la touche
Contrôle
et cliquez sur chaque colonne applicable.
3. Faites un clic droit et sélectionnez
Propriétés
.
La fenêtre
Propriétés de colonnes multiples
s'ouvre. L'option
Nom
affiche le nom de chaque colonne sélectionnée et ne peut être modifié.
4. Modifiez les options applicables,
Type de données
ou
Type de contenu
par exemple, puis cliquez sur
OK
.
Les valeurs que vous définissez dans la boîte de dialogue
Propriétés de colonnes multiples
apparaissent dans l'
Éditeur de format de fichier
comme les valeurs de la zone attributs de colonne.
Informations associées
Formats de fichiers [page 109]
6.5 Fonctionnalités des formats de fichiers
Le logiciel offre plusieurs possibilités pour le traitement des fichiers.
6.5.1 Lecture de plusieurs fichiers en une fois
Le logiciel peut lire plusieurs fichiers avec le même format à partir d'un seul répertoire à l'aide d'un seul objet source.
1. Ouvrez l'éditeur pour le format de fichier source
2. Sous
Fichier(s) de données
dans l'éditeur de format de fichier, définissez l'
Emplacement
des fichiers sources sur
Local
ou
Job Server
.
3. Définissez le répertoire racine dans
Répertoire racine
.
120
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
Remarque
Si le Job Server se trouve sur un autre ordinateur que Designer, il est impossible d'utiliser la fonction
Parcourir pour indiquer le répertoire racine. Vous devez saisir le chemin. Vous pouvez saisir un chemin d'accès absolu ou un chemin d'accès relatif, mais le Job Server doit pouvoir y accéder.
4. Sous
Nom(s) de fichier
, saisissez soit :
○ Une liste des noms de fichier séparés par des virgules, soit
○ Un nom de fichier contenant un caractère générique (* ou ?).
Exemple :
1999????.txt lit les fichiers de l'année 1999
*.txt lit tous les fichiers avec l'extension txt à partir du Répertoire racine spécifié
6.5.2 Identification des noms de fichiers sources
Vous pouvez identifier le fichier source pour chaque ligne dans la cible
Il est possible que vous souhaitiez effectuer cette opération dans les situations suivantes :
● Vous avez spécifié un caractère générique pour lire plusieurs fichiers sources en même temps
● Vous chargez depuis différents fichiers sources sur différentes exécutions
Pour identifier un fichier source, procédez de la façon suivante :
1. Sous
Informations source
dans l'éditeur de format de fichier, définissez
Inclure la colonne Nom du fichier
sur
Oui
. Cette option génère une colonne appelée DI_FILENAME qui contient le nom du fichier source.
2. Dans l'éditeur Query, mappez la colonne DI_FILENAME de l'Entrée de schéma à la Sortie de schéma.
3. Lors de l'exécution du job, la colonne DI_FILENAME pour chaque ligne dans la cible contient le nom du fichier source.
6.5.3 Formats des nombres
Le point (.) et la virgule (,) sont les deux formats les plus utilisés pour déterminer les séparateurs de décimales et de milliers pour les types de données numériques.
Lors de la mise en forme des fichiers dans le logiciel, les types de données dans lesquels ces symboles peuvent
être utilisés incluent Décimal, Numérique, Flottant et Double. Il est possible d'utiliser n'importe quel symbole pour l'indicateur des milliers, et n'importe quel symbole pour le séparateur de décimales. Exemple : 2,098.65 ou
2.089,65.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
121
Table 47 :
Format
{aucun}
#,##0.0
#.##0,0
Description
Le logiciel s'attend à ce que le nombre contienne uniquement le séparateur de décimales. La lecture des données numériques et de ce séparateur de décimales est déterminée par les paramètres régio naux du Job Server de Data Service. La virgule (,) est le séparateur de décimales lorsque les Paramè tres régionaux de Data Service sont définis sur un pays qui utilise des virgules (par exemple, l'Allema gne ou la France). Le point (.) est le séparateur de décimales lorsque les Paramètres régionaux sont définis sur un pays qui utilise des points (par exemple, les États-Unis, l'Inde et le RU). Dans ce format, le logiciel renvoie une erreur si un nombre contient un séparateur des milliers. Lorsque le logiciel écrit les données, il utilise uniquement le séparateur de décimales des paramètres régionaux du Job Ser ver. Il n'utilise pas de séparateur de milliers.
Le logiciel s'attend à ce que le séparateur de décimales d'un nombre soit un point (.) et que le sépara teur des milliers soit une virgule (,). Lorsque le logiciel charge les données dans un fichier plat, il utilise une virgule (,) comme séparateur des milliers et un point (.) comme séparateur de décimales.
Le logiciel s'attend à ce que le séparateur de décimales d'un nombre soit une virgule (,) et que le sépa rateur des milliers soit un point (.). Lorsque le logiciel charge les données dans un fichier plat, il utilise un point (.) comme séparateur des milliers et une virgule (,) comme séparateur de décimales.
Les signes décimaux de début et de fin sont également pris en charge. Exemple : +12,000.00 ou 32.32-.
6.5.4 Ignorer les lignes avec des marqueurs spécifiés
L'éditeur de format de fichier offre une façon d'ignorer les lignes qui contiennent un marqueur (ou des marqueurs) spécifié(s) lors de la lecture des fichiers.
Par exemple, il est possible que vous souhaitiez ignorer les marqueurs des lignes de commentaires tels que # et //.
Associés avec cette fonction, deux caractères spéciaux (le point-virgule (;) et la barre oblique inverse (\) ) rendent possible la définition de plusieurs marqueurs dans la chaîne pour ignorer les marqueurs de lignes. Utilisez le pointvirgule pour délimiter chaque marqueur, et la barre oblique inverse pour indiquer des caractères spéciaux comme des marqueurs (tels quel la barre oblique inverse et le point-virgule).
La valeur par défaut de marqueur est une chaîne vide. Lorsque vous spécifiez la valeur par défaut, aucune ligne n'est ignorée.
Pour spécifier des marqueurs pour les lignes à ignorer, procédez de la façon suivante :
1. Ouvrez l'éditeur de format de fichier depuis la Bibliothèque d'objets ou en ouvrant un objet source dans l'espace de travail.
2. Recherchez
Ignorer les marqueurs de ligne
sous la Propriété
Format
.
3. Cliquez dans la zone de texte associée et saisissez une chaîne pour indiquer un ou plusieurs marqueurs représentant les lignes que le logiciel doit ignorer durant la lecture du fichier et/ou la création de métadonnées.
122
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
La table suivante donne quelques exemples de marqueur(s) de lignes à ignorer. (Chaque valeur est délimitée par un point-virgule à moins que le point-virgule soit précédé d'une barre oblique inverse.)
Table 48 :
Valeur(s) de marqueur abc abc;def;hi abc;\; abc;\\;\;
Ligne(s) ignorée(s)
Aucune (valeur par défaut)
Toutes celles qui commencent par la chaîne abc
Toutes celles qui commencent par abc , def ou hi
Toutes celles qui commencent par abc ou ;
Toutes celles qui commencent par abc , \ ou ;
6.5.5 Formats de date au niveau du champ
Il est possible de spécifier un format de date au niveau du champ pour remplacer les formats de date, d'heure ou de date-heure définis dans la zone Propriétés-Valeurs.
Par exemple, lorsque le
Type de données
est défini sur Date, il est possible de modifier la valeur dans le champ
Format
correspondant par un format de date différent tel que :
● aaaa.mm.jj
● mm/jj/aa
● jj.mm.aa
6.5.6 Threads de traitement en parallèle
Data Services peut utiliser des threads parallèles pour lire et charger les fichiers pour maximiser la performance.
Pour spécifier des threads parallèles pour traiter les formats de fichier :
1. Ouvrez l'éditeur de format de fichier de l'une des manières suivantes :
○ Dans l'onglet Formats de la bibliothèque d'objets, faites un clic droit sur un nom de format de fichier et cliquez sur
Modifier
.
○ Dans l'espace de travail, double-cliquez sur l'objet source ou cible.
2. Trouvez les
Threads de traitement en parallèle
sous la Propriété
Général
.
3. Indiquez le nombre de threads pour lire ou charger ce format de fichier.
Par exemple, si vous avez 4 processeurs sur l'ordinateur du Job Server, saisissez le nombre 4 dans la case
Threads de traitement en parallèle
.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
123
6.5.7 Erreur de traitement pour les sources de fichier plat
Vous pouvez configurer l'Éditeur de format de fichier pour identifier les lignes dans des sources de fichiers plats qui contiennent des erreurs.
Lors de l'exécution du job, le logiciel traite les lignes des sources de fichiers plats une par une. Vous pouvez afficher des informations relatives aux erreurs suivantes :
Table 49 :
Type d'erreur
Erreurs de conversion de type de don nées
Erreurs de format de lignes
Exemple
Un champ peut être défini dans l'Éditeur de format de fichier comme contenant un type de données de nombre entier, alors que les données rencontrées sont de type varchar.
En cas d'un fichier de largeur fixe, le logiciel identifie une ligne qui ne correspond pas à la valeur de largeur attendue.
Ces propriétés d'erreur de traitement s'appliquent uniquement aux sources de fichiers plats.
6.5.7.1 Options d'erreur de traitement
Dans l'Éditeur de format de fichier, l'ensemble de propriétés
Erreur de traitement
permet de choisir si le logiciel doit effectuer les actions de traitement d'erreur.
Vous pouvez laisser le logiciel effectuer les tâches suivantes :
● vérifier l'un ou l'autre des deux types d'erreur de la source de fichier plat
● écrire la/les ligne(s) non valide(s) dans un fichier d'erreur spécifique
● arrêter le traitement du fichier source après avoir atteint un nombre spécifié de lignes non valides
● enregistrer les avertissements de conversion des types de données ou de format de lignes dans le journal des erreurs ; si c'est le cas, il est possible de limiter le nombre d'avertissements à enregistrer sans arrêter le job
6.5.7.2 A propos du fichier d'erreur
S'il est activé, le fichier d'erreur inclut les informations relatives aux erreurs.
Le format est un fichier texte délimité par un point-virgule. Il est possible d'avoir plusieurs fichiers d'entrée sources pour le fichier d'erreur. Le fichier reste sur le même ordinateur que le Job Server.
Les entrées dans un fichier d'erreur a la syntaxe suivante : source file path and name; row number in source file; Data Services error; column number where the error occurred; all columns from the invalid row
L'entrée suivante illustre une erreur de format de lignes : d:/acl_work/in_test.txt;2;-80104: 1-3-A column delimiter was seen after column number <3> for row number <2> in file <d:/acl_work/in_test.txt>. The total number of columns defined is <3>, so a row delimiter should be seen after column number
124
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
<3>. Please check the file for bad data, or redefine the input schema for the file by editing the file format in the UI.;3;defg;234;def où 3 indique une erreur qui s'est produite après la troisième colonne, et defg;234;def sont les trois colonnes de données à partir de la ligne non valide.
Remarque
Si vous définissez l'option
Threads de traitement en parallèle
du format de fichier sur n'importe quelle valeur supérieure à
0
ou sur
{aucun}
, le numéro de la ligne dans la valeur du fichier source est -1.
6.5.7.3 Configuration de l'Editeur de mise en forme pour la gestion des erreurs
6.5.7.3.1 Capture d'erreurs de conversion des types de données ou de format de lignes
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Formats
.
2. Développez
Fichiers plats
, faites un clic droit sur un format et cliquez sur
Modifier
.
3. L'Editeur de format de fichier s'ouvre.
4. Pour capturer les erreurs de conversion des types de données, sous les propriétés
Erreur de traitement
pour l'option
Capturer les erreurs de conversion des données
, cliquez sur
Oui
.
5. Pour capturer les erreurs dans les formats de lignes, pour l'option
Capturer les erreurs de format de lignes
, cliquez sur
Oui
.
6. Cliquez sur
Enregistrer
ou
Enregistrer et fermer
.
6.5.7.3.2 Ecrire des lignes non valides dans un fichier d'erreur.
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Formats
.
2. Développez
Fichiers plats
, faites un clic droit sur un format et cliquez sur
Modifier
.
L'Editeur de format de fichier s'ouvre.
3. Sous les propriétés
Erreur de traitement
, cliquez sur
Oui
pour l'une des propriétés
Capturer les erreurs de conversion des données
ou
Capturer les erreurs de format de lignes
, ou pour les deux.
4. Pour l'option
Ecrire les lignes d'erreur dans le fichier
, cliquez sur
Oui
.
Deux champs supplémentaires apparaissent : Répertoire racine du fichier d'erreur et Nom du fichier d'erreur.
5. Saisissez un
Répertoire racine du fichier d'erreur
dans lequel stocker le fichier d'erreur.
Si vous saisissez un chemin d'accès à un répertoire à cet endroit, saisissez alors uniquement le nom du fichier dans la propriété Nom du fichier d'erreur.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
125
6. Saisissez un
Nom du fichier d'erreur
.
Si vous laissez le champ Répertoire racine du fichier d'erreur vide, saisissez alors un chemin complet et le nom du fichier à cet endroit.
7. Cliquez sur
Enregistrer
ou
Enregistrer et fermer
.
Pour plus de flexibilité lors du nommage du fichier d'erreur, il est possible de saisir une variable qui est définie pour un fichier particulier avec un nom de chemin complet. Utilisez des variables pour spécifier des noms de fichier que vous ne pouvez pas saisir autrement, comme ceux qui contiennent des caractères multioctets
6.5.7.3.3 Limiter le nombre de lignes non valides traitées avant l'arrêt du job
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Formats
.
2. Développez
Fichiers plats
, faites un clic droit sur un format et cliquez sur
Modifier
.
L'Editeur de format de fichier s'ouvre.
3. Sous les propriétés
Erreur de traitement
, cliquez sur
Oui
pour l'une des propriétés
Capturer les erreurs de conversion des données
ou
Capturer les erreurs de format de lignes
, ou pour les deux.
4. Pour l'option
Nombre maximum d'erreurs avant l'arrêt du job
, saisissez un nombre.
Remarque
Cette propriété était anciennement connue comme la Limite des lignes incorrectes.
5. Cliquez sur
Enregistrer
ou
Enregistrer et fermer
.
6.5.7.3.4 Enregistrer les avertissements de conversion des types de données dans le journal des erreurs
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Formats
.
2. Développez
Fichiers plats
, faites un clic droit sur un format et cliquez sur
Modifier
.
L'Editeur de format de fichier s'ouvre.
3. Sous les propriétés
Erreur de traitement
, pour
Journaliser les avertissements de conversion des données
, cliquez sur
Oui
.
4. Cliquez sur
Enregistrer
ou
Enregistrer et fermer
.
6.5.7.3.5 Enregistrer des avertissements de format de lignes dans le journal des erreurs
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Formats
.
126
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
2. Développez
Fichiers plats
, faites un clic droit sur un format et cliquez sur
Modifier
.
L'Editeur de format de fichier s'ouvre.
3. Sous les propriétés
Erreur de traitement
, pour
Journaliser les avertissements de format de lignes
, cliquez sur
Oui
.
4. Cliquez sur
Enregistrer
ou
Enregistrer et fermer
.
6.5.7.3.6 Limiter le nombre de messages d'avertissement à enregistrer
Si vous choisissez d'enregistrer les avertissements des types de données ou de format de lignes, vous pouvez limiter le nombre total d'avertissements à enregistrer sans interférer avec l'exécution du job.
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Formats
.
2. Développez
Fichiers plats
, faites un clic droit sur un format et cliquez sur
Modifier
.
L'Editeur de format de fichier s'ouvre.
3. Sous les propriétés
Erreur de traitement
, pour
Journaliser les avertissements de format de lignes
ou
Journaliser les avertissements de conversion des données
(ou les deux), cliquez sur
Oui
.
4. Pour l'option
Nombre maximum d'avertissements dans le journal
, saisissez un nombre.
5. Cliquez sur
Enregistrer
ou
Enregistrer et fermer
.
6.6 Protocoles de transfert de fichier
Description des deux méthodes de configuration des protocoles de transfert de fichier dans un format de fichier.
Pour utiliser les paramètres du protocole de transfert de fichiers, il est possible de choisir de définir un programme de transfert personnalisé ou de créer un objet d'emplacement de fichier. Ces deux méthodes doivent
être définies avec un format de fichier spécifique dans l'Éditeur de format de fichier. La table suivante décrit les méthodes de protocole de transfert de fichiers.
Table 50 :
Méthode de transfert de fichier
Programme de transfert personnalisé
Description
Uniquement pour les types de fichiers de largeur fixe et déli mités. Lit et charge les fichiers à l'aide des paramètres du pro gramme de transfert personnalisé dans le groupe d'options du
Transfert personnalisé
dans l'
Éditeur de format de fichier
.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
127
Méthode de transfert de fichier
Objet d'emplacement de fichier
Description
Pour divers types de fichiers. Contient des informations de protocole de transfert de fichiers pour les protocoles tels que
FTP, SFTP ou SCP et inclut les informations de serveurs lo caux et à distance. Créez un objet d'emplacement de fichier et associez-le à un format de fichier dans l'
Éditeur de format de fichier
.
Informations associées
Transferts personnalisés de fichiers [page 128]
Objets d'emplacement de fichier [page 142]
6.6.1 Transferts personnalisés de fichiers
Le logiciel peut lire et charger les fichiers à l'aide d'un programme de transfert de fichier tiers pour les fichiers plats.
Définissez un programme de transfert de fichiers personnalisé lorsque vous créez ou modifiez un format de fichier pour un fichier plat délimité ou de largeur fixe. Il est possible d'utiliser des programmes de transfert tiers
(personnalisés) pour :
● Incorporer des applications de transfert de fichiers de standards de société comme une partie de l'exécution d'un job de logiciel.
● Fournir une grande flexibilité et une sécurité élevée pour les fichiers transférés par un pare-feu.
L'option de programme de transfert personnalisé permet de spécifier :
● Un programme de transfert personnalisé (appelé durant l'exécution d'un job)
● Des arguments supplémentaires, en fonction de ce qui est disponible dans votre programme, tels que :
○ Des données de connexion
○ Des mécanismes de cryptage/décryptage
○ Des mécanismes de compression
Informations associées
Utilisation d'un programme de transfert personnalisé [page 114]
128
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
6.6.1.1 Variables de système de transfert personnalisé pour les fichiers plats
L'utilisation de variables comme arguments de programme de transfert personnalisé, permet de collecter les informations de connexion saisies dans le logiciel et d'utiliser ces données au moment de l'exécution avec votre programme de transfert personnalisé.
Remarque
Si vous avez détaillé des informations telles qu'un serveur local ou à distance à ajouter aux variables de transfert personnalisé, envisagez plutôt de créer un objet d'emplacement de fichier. La boîte de dialogue
Emplacement du fichier vous fournit les options de saisie des emplacements de serveur.
Lorsque vous définissez des options de transfert personnalisé pour des cibles et des sources de fichiers externes, certaines informations de transfert, comme le nom du serveur distant à partir duquel ou vers lequel le fichier est transféré, peuvent avoir besoin d'être saisies littéralement comme argument de programme de transfert. Vous pouvez saisir d'autres informations à l'aide des variables de système suivantes :
Table 51 :
Données saisies pour :
Nom d'utilisateur
Mot de passe
Répertoire local
Fichier(s)
Sont remplacées par cette variable si cette option a été définie dans le champ
Argument
$AW_USER
$AW_PASSWORD
$AW_LOCAL_DIR
$AW_FILE_NAME
Les options de transfert personnalisé suivantes utilisent un fichier de commande Windows (Myftp.cmd) avec cinq arguments. Les arguments 1 à 4 sont des variables de système :
● Les variables Utilisateur et Mot de passe sont pour le serveur externe
● La variable Répertoire local est pour l'emplacement dans lequel les fichiers transférés sont stockés dans le logiciel
● La variable Nom du fichier est pour les noms des fichiers à transférer
L'argument 5 fournit le nom littéral du serveur externe.
Remarque
Si vous ne spécifiez aucun fichier de sortie standard (comme ftp.out dans l'exemple ci-dessous), le logiciel
écrit la sortie standard dans le journal de suivi du job.
@echo off set USER=%1 set PASSWORD=%2 set LOCAL_DIR=%3 set FILE_NAME=%4 set LITERAL_HOST_NAME=%5 set INP_FILE=ftp.inp
echo %USER%>%INP_FILE% echo %PASSWORD%>>%INP_FILE% echo lcd %LOCAL_DIR%>>%INP_FILE% echo get %FILE_NAME%>>%INP_FILE%
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
129
echo bye>>%INP_FILE% ftp -s%INPT_FILE% %LITERAL_HOST_NAME%>ftp.out
Informations associées
Objets d'emplacement de fichier [page 142]
6.6.1.2 Options de transfert personnalisé pour les fichiers plats
Remarque
Si vous avez détaillé des informations comme les noms d'utilisateurs et les mots de passe à ajouter aux variables de transfert personnalisé, envisagez plutôt de créer un objet d'emplacement de fichier. La boîte de dialogue Emplacement de fichier vous fournit les options de saisie des emplacements de serveur.
Dans les options de programme de transfert personnalisé, seule l'option
Exécutable de programme
est obligatoire.
La saisie des valeurs
Nom d'utilisateur
,
Mot de passe
et
Arguments
est facultative. Ces options sont fournies pour que vous indiquiez des arguments qui peuvent être traités par le programme de transfert personnalisé (comme les données de connexion).
Il est également possible d'utiliser
Arguments
pour activer ou désactiver les fonctionnalités intégrées dans le programme telles que les mécanismes de cryptage/décryptage et de compression. Par exemple, vous pouvez concevoir votre programme de transfert pour que, lorsque vous saisissez -sSecureTransportOn ou -
CCompressionYES, la sécurité ou la compression soit activée.
Remarque
Les arguments disponibles dépendent de ce qui est inclus dans le programme de transfert personnalisé.
Consultez la documentation du programme de transfert personnalisé pour une liste des arguments valides.
Vous pouvez utiliser la case
Arguments
pour saisir un nom d'utilisateur et un mot de passe. Cependant, le logiciel fournit également des cases
Nom d'utilisateur
et
Mot de passe
distinctes. En saisissant les variables $
<AW_USER> et $
<AW_PASSWORD>
comme
Arguments
puis en utilisant les cases
Utilisateur
et
Mot de passe
pour saisir des chaînes littérales, ces cases supplémentaires sont utiles de deux manières :
● Vous pouvez mettre plus facilement à jour les utilisateurs et les mots de passe dans le logiciel lorsque vous configurez le logiciel pour utiliser un programme de transfert, et lorsque vous exportez par la suite le job. Par exemple, lorsque vous migrez le job vers un autre environnement, il est possible que vous souhaitiez changer les informations de connexion sans faire défiler les autres arguments.
● Vous pouvez utiliser les propriétés de masque et de cryptage de la case
Mot de passe
. Les données saisies dans la case
Mot de passe
sont masquées dans les fichiers journaux et sur l'écran, stockées dans le référentiel et cryptées par Data Services.
130
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
Remarque
Le logiciel envoie un mot de passe au programme de transfert personnalisé en texte en clair. Si vous n'autorisez pas que les mots de passe en clair soient exposés comme des arguments dans les exécutables de ligne de commande, configurez le programme personnalisé pour :
○ récupérer le mot de passe depuis un emplacement approuvé ;
○ hériter des privilèges de sécurité à partir du programme appelant (dans ce cas, le logiciel).
Informations associées
Objets d'emplacement de fichier [page 142]
6.6.1.3 Options de transfert personnalisé
L'option de transfert personnalisé permet d'utiliser un programme tiers pour transférer les sources et les cibles de fichiers plats.
Il est possible de configurer le programme de transfert personnalisé dans la fenêtre Editeur de format de fichier.
Comme d'autres paramètres de format de fichier, il est possible de remplacer les paramètres de programme de transfert personnalisé s'ils sont modifiés pour une source ou une cible dans un flux de données en particulier. Il est également possible de modifier l'option de transfert personnalisé lors de l'exportation d'un format de fichier.
Informations associées
Configurer un programme de transfert personnalisé dans l'éditeur de format de fichier [page 131]
Protocoles de transfert de fichier [page 127]
6.6.1.3.1 Configurer un programme de transfert personnalisé dans l'éditeur de format de fichier
1. Sélectionnez l'onglet
Formats
dans la bibliothèque d'objets.
2. Faites un clic droit sur
Fichiers plats
dans l'onglet et sélectionnez
Nouveau
.
L'Editeur de format de fichier s'ouvre.
3. Sélectionnez soit le type de fichier
Délimité
soit
Largeur fixe
.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
131
Remarque
Bien que l'option de programme de transfert personnalisé n'est pas prise en charge par les types de fichier des applications SAP, il est possible de l'utiliser comme une méthode de transport de données pour un flux de donnée SAP ABAP.
4. Saisissez un nom de format
5. Sélectionnez
Oui
pour l'option
Programme de transfert personnalisé
.
6. Développez
Transfert personnalisé
et saisissez le nom du programme de transfert personnalisé et les arguments.
7. Remplissez les autres cases dans la fenêtre de l'éditeur de format de fichier.
Dans la section Fichier(s) de données, indiquez l'emplacement du fichier dans le logiciel.
Pour indiquer des variables de système pour Répertoire racine et Fichier(s) dans la case Arguments :
○ Associer la variable de système $
<AW_LOCAL_DIR>
avec l'argument du répertoire local du programme de transfert personnalisé.
○ Associer la variable de système $
<AW_FILE_NAME>
avec l'argument du nom de fichier du programme de transfert personnalisé.
Par exemple, saisissez : -l$AW_LOCAL_DIR\$AW_FILE_NAME
Lorsque le programme exécute, les paramètres Répertoire racine et Fichier(s) sont remplacés par ces variables et lus par le programme de transfert personnalisé.
Remarque
L'indicateur -1 utilisé dans l'exemple ci-dessus est un indicateur de programme personnalisé. Les arguments que vous pouvez utiliser comme des arguments de programme personnalisé dans le logiciel dépendent de ce qu'attend le programme de transfert personnalisé.
8. Cliquez sur
Enregistrer
.
6.6.1.4 Astuces de conception
Utiliser ces astuces de conception avec les options de transfert personnalisé.
● Les variables ne sont pas prises en charge dans les noms de fichier lors de l'appel d'un programme de transfert personnalisé pour le fichier.
● Il est uniquement possible de modifier les options du transfert personnalisé dans la fenêtre Éditeur de format de fichier (ou Éditeur de banque de données dans le cas de l'application SAP) avant qu'elles soient exportées.
Il est impossible de modifier les mises à jour des sources et cibles de fichier au niveau du flux de données une fois exportées. Une fois importés, il est possible d'ajuster les paramètres de l'option de transfert personnalisé au niveau du flux de données. Ils remplacent les paramètres au niveau du format de fichier.
Lors de la conception d'un programme de transfert personnalisé pour travailler avec le logiciel, souvenez-vous que :
● Le logiciel s'attend à ce que le programme de transfert appelé renvoie 0 en cas de réussite, et une valeur différente de zéro en cas d'échec.
132
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
● Le logiciel fournit des informations de suivi avant et après que le programme de transfert personnalisé exécute. Le programme de transfert complet et ses arguments avec le mot de passe masqué (le cas échéant) sont écrits dans le journal de suivi. Lorsque "Transfert personnalisé exécuté" apparaît dans le journal de suivi, le programme de transfert personnalisé est terminé.
● Si le programme de transfert personnalisé termine avec succès (code de retour = 0), le logiciel contrôle les
éléments suivants :
○ Pour un flux de données ABAP, si le fichier de transport n'existe pas dans le répertoire local, il affiche une erreur et le logiciel s'arrête.
○ Pour une source de fichier, si le fichier ou les fichiers à lire par le logiciel n'existent pas dans le répertoire local, le logiciel écrit un message d'avertissement dans le journal de suivi.
● Si le programme de transfert personnalisé affiche une erreur ou que l'exécution échoue (le code de retour n'est pas 0), alors le logiciel produit une erreur avec le code de retour et la sortie stdout/stderr.
● Si le programme de transfert personnalisé réussit mais produit une sortie standard, le logiciel émet un avertissement, enregistre les premiers 1 000 octets de la sortie produite, et poursuit le traitement.
● Le concepteur du programme de transfert personnalisé doit fournir des arguments d'option valides pour garantir que les fichiers sont transférés vers et depuis le répertoire local (spécifié dans le logiciel). Cette opération peut exiger que le fichier distant et le nom du répertoire soient spécifiés comme des arguments puis envoyés à l'interface Designer à l'aide de variables de système.
6.7 Utilisation de format de fichier du copybook COBOL
Un format de fichier du copybook COBOL décrit la structure définie dans un fichier copybook COBOL (indiqué généralement par une extension .cpy).
Lors de la création d'un format de copybook COBOL, il est possible de :
● créer juste le format, puis configurer la source après avoir ajouté le format à un flux de données ;
● créer le format et l'associer à un fichier de données en même temps.
Cette section décrit également comment :
● créer des règles pour identifier quels enregistrements représentent quels schémas à l'aide d'une option d'ID de champ ;
● identifier le champ qui contient la longueur de l'enregistrement du schéma à l'aide d'une option de champ de longueur d'enregistrement.
Informations associées
Objets d'emplacement de fichier [page 142]
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
133
6.7.1 Créer un format de fichier de copybook COBOL
1. Dans la bibliothèque d'objets locale, cliquez sur l'onglet
Formats
, faites un clic droit sur
Copybook COBOL
et cliquez sur
Nouveau
.
La fenêtre Importer le copybook COBOL s'ouvre.
2. Nommez le format en saisissant un nom dans le champ
Nom du format
.
3. Sur l'onglet
Format
pour l'option
Nom du fichier
, spécifiez le format de fichier du copybook COBOL à importer, qui porte généralement l'extension .cpy.
Lors de la conception, il est possible de spécifier un fichier de l'une des façons suivantes :
○ Pour un fichier situé sur l'ordinateur où Designer s'exécute, vous pouvez utiliser le bouton
Parcourir
.
○ Pour un fichier localisé sur l'ordinateur où le Job Server est exécuté, vous devez saisir le chemin vers le fichier. Vous pouvez saisir un chemin d'accès absolu ou un chemin d'accès relatif, mais le Job Server doit pouvoir y accéder.
4. Cliquez sur
OK
.
Le logiciel ajoute le copybook COBOL à la bibliothèque d'objets.
5. La boîte de dialogue
Nom(s) de schéma du copybook COBOL
s'affiche. Si vous le souhaitez, sélectionnez ou double-cliquez sur un nom de schéma pour le renommer.
6. Cliquez sur
OK
.
Lorsque vous ajoutez ultérieurement le format à un flux de données, vous pouvez utiliser les options dans l'éditeur de source pour définir les sources.
6.7.2 Créer un format de fichier de copybook COBOL et un fichier de données
1. Dans la bibliothèque d'objets locale, cliquez sur l'onglet
Formats
, faites un clic droit sur
Copybook COBOL
et cliquez sur
Nouveau
.
La fenêtre Importer le copybook COBOL s'ouvre.
2. Nommez le format en saisissant un nom dans le champ
Nom du format
.
3. Sur l'onglet
Format
pour l'option
Nom du fichier
, spécifiez le format de fichier du copybook COBOL à importer, qui porte généralement l'extension .cpy.
Lors de la conception, il est possible de spécifier un fichier de l'une des façons suivantes :
○ Pour un fichier localisé sur l'ordinateur où le Designer est exécuté, vous pouvez utiliser le bouton
Parcourir.
○ Pour un fichier localisé sur l'ordinateur où le Job Server est exécuté, vous devez saisir le chemin vers le fichier. Vous pouvez saisir un chemin d'accès absolu ou un chemin d'accès relatif, mais le Job Server doit pouvoir y accéder.
4. Cliquez sur l'onglet
Fichier de données
.
5. Pour l'option
Répertoire
, saisissez ou naviguez vers le répertoire qui contient le fichier de données du copybook COBOL à importer.
Si vous incluez un chemin d'accès à un répertoire à cet endroit, saisissez alors uniquement le nom du fichier dans le champ Nom.
134
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
6. Indiquez le
Nom
du fichier de données du copybook COBOL.
Si vous laissez le champ Répertoire vide, saisissez alors un chemin complet et le nom du fichier à cet endroit.
Lors de la conception, il est possible de spécifier un fichier de l'une des façons suivantes :
○ Pour un fichier localisé sur l'ordinateur où le Designer est exécuté, vous pouvez utiliser le bouton
Parcourir.
○ Pour un fichier localisé sur l'ordinateur où le Job Server est exécuté, vous devez saisir le chemin vers le fichier. Vous pouvez saisir un chemin d'accès absolu ou un chemin d'accès relatif, mais le Job Server doit pouvoir y accéder.
7. Si un fichier de données n'est pas sur le même ordinateur que le Job Server, cliquez sur l'onglet
Accès aux données
, sélectionnez
FTP
ou
Personnalisé
puis saisissez les critères pour l'accès au fichier de données.
8. Cliquez sur
OK
.
9. La boîte de dialogue
Nom(s) de schéma du copybook COBOL
s'affiche. Si vous le souhaitez, sélectionnez ou double-cliquez sur un nom de schéma pour le renommer.
10. Cliquez sur
OK
.
L'onglet ID de champ permet de créer des règles pour identifier quels enregistrements représentent quel schéma.
6.7.3 Créer des règles pour identifier quels enregistrements représentent quels schémas
1. Dans la bibliothèque d'objets locale, cliquez sur l'onglet
Formats
, faites un clic droit sur
Copybook COBOL
et cliquez sur
Modifier
.
La fenêtre Modifier le copybook COBOL s'ouvre.
2. Dans le volet supérieur, sélectionnez un champ pour représenter le schéma.
3. Cliquez sur l'onglet
ID de champ
.
4. Sur l'onglet ID de champ, sélectionnez la case à cocher
Utiliser le champ <nom du schéma. nom du fichier> comme ID
.
5. Cliquez sur
Insérer en dessous
pour ajouter une valeur éditable à la liste Valeurs.
6. Saisissez une valeur pour le champ.
7. Continuez à insérer (ajouter) les valeurs si nécessaire.
8. Sélectionnez les champs supplémentaires et insérez des valeurs si nécessaire.
9. Cliquez sur
OK
.
6.7.4 Identifier le champ qui contient la longueur de l'enregistrement du schéma
1. Dans la bibliothèque d'objets locale, cliquez sur l'onglet
Formats
, faites un clic droit sur
Copybook COBOL
et cliquez sur
Modifier
.
La fenêtre Modifier le copybook COBOL s'ouvre.
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
135
2. Cliquez sur l'onglet
Champ de longueur d'enregistrement
.
3. Pour le schéma à modifier, cliquez sur sa colonne Champ de longueur d'enregistrement pour activer un menu déroulant.
4. Sélectionnez le champ (un par schéma) qui contient la longueur d'enregistrement.
La valeur de décalage est automatiquement remplacée par la valeur par défaut, 4 ; cependant, vous pouvez la modifier avec une autre valeur numérique. Le décalage est la valeur obtenue dans la longueur d'enregistrement totale lorsqu'elle est ajoutée à la valeur dans le champ Longueur d'enregistrement.
5. Cliquez sur
OK
.
6.8 Création des formats de classeur Microsoft Excel sur les plateformes UNIX
Décrit comment utiliser un classeur Microsoft Excel comme une source avec un Job Server sur une plateforme
UNIX.
Pour créer des formats de classeur Microsoft Excel sur Windows, consultez le Guide de référence.
Pour accéder au classeur, vous devez créer et configurer une instance d'adaptateur dans l'Administrateur. La procédure suivante offre une vue d'ensemble du processus de configuration. Pour plus de détails sur la création d'adaptateurs, consultez le Guide de la Console de gestion.
Pensez également aux conditions suivantes :
● Pour importer le classeur, il doit être disponible sur un système de fichier Windows. Il est possible de modifier par la suite l'emplacement du fichier actuel à utiliser pour le traitement dans l'éditeur de source du format de classeur Excel. Consultez le Guide de référence.
● Pour réimporter ou afficher les données dans Designer, le fichier doit être disponible sous Windows.
● Les entrées dans le fichier du journal des erreurs peuvent être représentées numériquement pour les champs de date et d'heure.
De plus, Data Services écrit les enregistrements avec les erreurs vers la sortie (dans Windows, ces enregistrements sont ignorés).
Informations associées
Objets d'emplacement de fichier [page 142]
6.8.1 Créer un format de classeur Microsoft Excel sur UNIX
1. À l'aide du Gestionnaire de serveurs (
<LINK_DIR> /bin/svrcfg), vérifiez que le Job Server UNIX peut prendre en charge les adaptateurs.Voir le Guide d'installation pour Unix.
2. Assurez-vous qu'un référentiel associé au Job Server est enregistré dans la CMC (Central Management
Console). Pour enregistrer un référentiel dans la CMC, consultez le Guide d'administration.
136
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
3. Dans l'Administrateur, ajoutez un adaptateur pour accéder aux classeurs Excel. Voir le guide Management
Console Guide.
Il est possible de configurer seulement un adaptateur Excel par Job Server. Utilisez les options suivantes :
○ Dans l'onglet Statut, cliquez sur l'adaptateur du Job Server à droite pour le configurer.
○ Sur l'onglet Configuration de l'adaptateur de la page Instances de l'adaptateur, cliquez sur
Ajouter
.
○ Dans l'onglet Configuration de l'adaptateur, saisissez le
Nom de l'instance de l'adaptateur
. Saisissez
BOExcelAdapter (obligatoire et sensible à la casse).
Vous pouvez laisser toutes les options sur leur valeur par défaut sauf s'il s'agit d'un traitement de fichiers supérieur à 1 MB. Dans ce cas, modifiez la valeur des Options supplémentaires du programme de lancement Java -Xms64m -Xmx512 ou -Xms128m -Xmx1024m (la valeur par défaut est -Xms64m -
Xmx256m). Notez que la gestion de la mémoire Java peut empêcher le traitement de fichiers très volumineux (ou de plusieurs fichiers plus petits).
Remarque
Lors du démarrage de Data Services 4.2 SP5, l'adaptateur Excel utilise un mécanisme basé sur les
événements SAX pour analyser les fichiers Excel. Si vous souhaitez le rétablir comme dans la version
4.2 SP4 ou version précédente, définissez l'indicateur suivant sur Faux et redémarrez le Job Server.
L'indicateur est spécifié dans les options du programme de lancement Java pour les paramètres de configuration BOExcelAdapter dans la Console de gestion.
DuseSAXEventModelForXlsx=false
Si l'indicateur DuseSAXEventModelForXlsx n'est pas spécifié, il est définit par défaut sur vrai et utilise le modèle d'événement SAX.
Lors du traitement de fichiers Excel volumineux, il est recommandé d'augmenter la taille heap de Java dans les options du lanceur Java. Exemple :
-Xms256m –Xmx4096m
4. Depuis l'onglet
Administrateur Adaptateur Statut de l'instance de l'adaptateur
, lancez l'adaptateur.
5. Dans Designer, onglet
Formats
de la bibliothèque d'objets, créez le format de fichier en important le classeur
Excel. Pour plus de détails, consultez le Guide de référence.
6.9 Création de formats de fichier de journal Web
Les journaux Web sont des fichiers plats générés par les serveurs Web et qui sont utilisés pour Business
Intelligence.
Les journaux Web suivent généralement les détails des accès au site Web tels que :
● Les noms de domaine du client ou les adresses IP
● Les noms d'utilisateur
● Les horodatages
● Les actions demandées (peut inclure la chaîne de recherche)
● Les octets transférés
● L'adresse en référence
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
137
● L'ID de témoin de connexion en charge
Les journaux Web utilisent un format de fichier commun et un format de fichier commun étendu.
Format de journal Web commun :
151.99.190.27 - - [01/Jan/1997:13:06:51 -0600]
"GET /~bacuslab HTTP/1.0" 301 -4
Format de journal Web commun étendu : saturn5.cun.com - - [25/JUN/1998:11:19:58 -0500]
"GET /wew/js/mouseover.html HTTP/1.0" 200 1936
"http://av.yahoo.com/bin/query?p=mouse+over+javascript+source+code&hc=0"
"Mozilla/4.02 [en] (x11; U; SunOS 5.6 sun4m)"
Le logiciel prend en charge les formats de journal Web commun et commun étendu comme des sources. L'éditeur de format de fichier prend également en charge les éléments suivants :
● Un tiret comme un indicateur de valeur nulle
● Le fuseau horaire dans le format date-heure, par exemple 01/Jan/1997:13:06:51 –0600
Le logiciel inclut plusieurs fonctions pour le traitement des données du journal Web :
● Fonction word_ext
● Fonction concat_data_time
● Fonction WL_GetKeyValue
Informations associées
Fonction concat_date_time [page 139]
Fonction WL_GetKeyValue [page 139]
6.9.1 Fonction word_ext
word_ext est une fonction de chaîne qui étend la fonction de mot en renvoyant le mot identifié par sa position dans une chaîne délimitée.
Cette fonction est utile pour l'analyse des noms de fichier ou d'URL.
Format
word_ext(string, word_number, separator(s))
Un nombre de mot négatif signifie qu'il faut compter de droite à gauche
138
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
Exemples
word_ext('www.bodi.com', 2, '.') renvoie 'bodi'.
word_ext('www.cs.wisc.edu', -2, '.') renvoie 'wisc'.
word_ext('www.cs.wisc.edu', 5, '.') renvoie NULL.
word_ext('aaa+=bbb+=ccc+zz=dd', 4, '+=') renvoie 'zz'. Si deux séparateurs sont spécifiés (+=), la fonction recherche l'un ou l'autre.
word_ext(',,,,,aaa,,,,bb,,,c ', 2, '.') renvoie 'bb'. Cette fonction ignore les séparateurs consécutifs.
6.9.2 Fonction concat_date_time
concat_date_time est une fonction de date qui renvoie l'horodatage à partir d'entrées distinctes de date et d'heure.
Format
concat_date_time(date, time)
Exemple
concat_date_time(MS40."date",MS40."time")
6.9.3 Fonction WL_GetKeyValue
WL_GetKeyValue est une fonction personnalisée (écrite en langage de script) qui renvoie les valeurs d'un mot clé donné.
Elle est utile pour l'analyse des chaînes de recherche.
Format
WL_GetKeyValue(string, keyword)
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
139
Exemple
Une recherche sur Google pour bodi B2B est enregistrée dans un journal Web comme :
GET "http://www.google.com/search?hl=en&lr=&safe=off&q=bodi+B2B&btnG=Google+Search"
WL_GetKeyValue('http://www.google.com/search?hl=en&lr=&safe=off&q=bodi
+B2B&btnG=Google+Search','q') returns 'bodi+B2B'.
6.10 Formats de fichier non structurés
Les formats de fichier non structurés sont un type de format de fichier plat.
Pour lire les fichiers qui contiennent du contenu non structuré, créez un format de fichier comme une source qui lit un ou plusieurs fichier(s) à partir d'un référentiel. Lors de l'exécution, l'objet source dans le flux de données produit une ligne par fichier et contient une référence à chaque fichier pour accéder à son contenu. Dans le flux de données, vous pouvez utiliser une transformation de traitement des données de texte telle que Entity Extraction pour traiter le texte non structuré ou utiliser une autre transformation pour manipuler les données.
Les types de format de fichier non structurés incluent :
Table 52 :
Types de format de fichier non structu rés
Description
Texte non structuré Utilisez ce format pour traiter un répertoire de fichiers texte incluant :
● Texte
● HTML
● XML
Data Services enregistre le contenu de chaque fichier à l'aide du type de données
Long.
140
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Formats de fichiers
Types de format de fichier non structu rés
Description
Binaire non structuré utilisez ce format pour lire les documents binaires. Data Services enregistre le con tenu de chaque fichier à l'aide du type de données Blob.
● Il est possible de traiter une variété de formats de documents en obtenant vo tre entrée à partir d'une variété de fichiers au format binaire, puis en transmet tant cet objet BLOB à la transformation Traitement des données de texte. De cette manière, les formats suivants sont acceptés :
○ Microsoft Word : 2003, 2007 et 2010 (Office Open XML)
○ Microsoft PowerPoint : 2003, 2007 et 2010
○ Microsoft Excel : 2003, 2007 et 2010
○ Adobe PDF : 1.3 – 1.7
○ Microsoft RTF : 1.8 et 1.9.1
○ Microsoft Outlook E-mail Message : 2003, 2007, 2010
○ Message électronique généré : fichiers "
.eml
"
○ Texte Open Document, feuille de calcul et présentation : 1,0, 1,1, 1,2
○ Corel WordPerfect : 6.0 (1993) – X5 (2010)
● Vous pouvez également utiliser le format de fichier binaire non structuré pour déplacer un répertoire de fichiers graphiques sur le disque vers une table de base de données. Supposons que vous souhaitez associer des photos d'em ployés avec les données d'employés correspondantes qui sont stockées dans une base de données. Le flux de données inclurait la source du format de fi chier binaire non structuré, une transformation Query qui associe la photo de l'employé avec les données de l'employé à l'aide du numéro d'ID de l'employée par exemple, et la table cible de base de données.
Informations associées
Présentation de Text Data Processing [page 195]
Créer des formats de fichier [page 111]
Guide de Designer
Formats de fichiers
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
141
7 Objets d'emplacement de fichier
Les objets d'emplacement de fichier sont des objets réutilisables de premières classe permettant de définir un protocole spécifique de transfert de fichiers.
Protocoles de transfert de fichiers applicables : Local, SCP, FTP et SFTP. Outre la saisie des spécificités du protocole de transfert de fichiers, vous définissez un serveur local et à distance pour lesquels vous (ou l'utilisateur) disposez d'autorisations. Le logiciel stocke les objets d'emplacement de fichier dans
Emplacements de fichier
de l'onglet
Format
de la bibliothèque d'objets Data Services Designer.
Une fois l'objet d'emplacement de fichier créé, vous pouvez l'associer à un objet de format lorsque vous créez un objet ou en modifiez un existant. Pour utiliser les informations du protocole de transfert de fichiers dans un flux de données, vous devez associer un objet d'emplacement de fichier à une source ou une cible dans un flux de données.
Objets de formats applicables : fichiers plats, fichiers de schémas imbriqués (XML/DTD, JSON), copybooks
COBOL et classeurs Excel.
Remarque
Les classeurs Excel et les copybooks COBOL associés à un objet d'emplacement de fichier ne peuvent être utilisés qu'en tant que source dans le flux de données.
Lorsque vous utilisez un objet d'emplacement de fichier dans un flux de données comme source ou cible, le logiciel utilise les informations de serveur local ou à distance et les protocoles de transfert de fichiers depuis l'objet d'emplacement de fichier pour déplacer une copie des données du serveur à distance vers le serveur local à utiliser comme source dans un flux de données et pour charger les données de sortie générées du flux de données vers le serveur local puis vers le serveur à distance.
Le logiciel fournit des options de contrôle des actions sur les données existantes lorsque le logiciel transfère les données dans un fichier (fichiers locaux ou à distance). Le logiciel peut ajouter, écraser, supprimer ou enregistrer les données dans les serveurs locaux ou à distance en fonction du type d'objet de format, du type de protocole et du type d'utilisation (source ou cible). Le logiciel peut également créer un fichier de données dans le serveur local ou à distance s'il n'en existe pas.
Informations associées
Création d'un objet d'emplacement de fichier [page 145]
Gestion des fichiers de données locales ou à distance [page 143]
142
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Objets d'emplacement de fichier
7.1 Gestion des fichiers de données locales ou à distance
Configurez un objet d'emplacement de fichier pour ajouter, écraser, enregistrer ou supprimer des données dans des fichiers de données locales ou à distance le cas échéant et afin de créer un fichier de données s'il n'en existe pas.
Bien que dans certains cas les options enregistrent ou suppriment les données existantes, ces options sont appelées options d'ajout. Les options d'ajout se trouvent dans les boîtes de dialogue des différents éditeurs qui dépendent du fait que vous travaillez avec une source ou une cible, avec un fichier plat, un schéma imbriqué, un copybook COBOL ou un classeur Excel.
Table 53 :Options d'ajout de fichier
Option Objet d'emplacement de fichier utilisé comme
Emplacement de l'op tion
Supprimer et recréer le fichier
Cible (schémas imbri qués)
Éditeur de fichier cible de schéma imbriqué
Protocole
FTP, SFTP
Description
Oui : écrase le fichier à distance existant avec les données de sortie générées.
Non : ajoute les don nées de sortie générées du fichier local vers le fichier à distance.
Remarque
Activé ou désactivé : lorsqu'un fichier à distance n'existe pas, le logiciel crée un fichier à distance et le renseigne avec les sorties générées.
SCP
Local
Activé ou désactivé : le logiciel écrase toujours le fichier à distance avec le contenu du fi chier de sortie généré.
Activé ou désactivé : le logiciel ajoute, écrase ou crée un fichier local uniquement.
Guide de Designer
Objets d'emplacement de fichier
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
143
Option
Supprimer le fichier après le transfert
Objet d'emplacement de fichier utilisé comme
Emplacement de l'op tion
Protocole
Source (tous les objets de format applicables)
Éditeur de format de schéma imbriqué
(XML,
DTD, ou JSON)
Local
Supprimer le fichier
Cible (fichiers plats uni quement)
Éditeur de fichiers cibles
FTP, SFTP
SCP
Local
Description
Oui : le logiciel sup prime le fichier local après la lecture de don nées dans le flux de données.
Non : le logiciel enregis tre le fichier local après la lecture de données dans le flux de don nées.
Oui : le logiciel écrase le contenu du fichier à distance avec les sor ties générées.
Non : le logiciel ajoute les sorties générées au contenu existant du fi chier à distance.
Remarque
Activé ou désactivé : lorsqu'un fichier à distance n'existe pas, le logiciel crée un fichier à distance et le renseigne avec les sorties générées.
Activé ou désactivé : le logiciel écrase toujours un fichier à distance existant ou crée un fi chier à distance s'il n'en existe pas.
Activé ou désactivé : le logiciel écrase ou ajoute uniquement les données au fichier lo cal.
144
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Objets d'emplacement de fichier
Informations associées
Associer des objets d'emplacement de fichier à des formats de fichier [page 148]
7.2 Création d'un objet d'emplacement de fichier
Créez un objet d'emplacement de fichier à utiliser avec les formats de fichier pour définir le protocole de transfert de fichiers entre les serveurs locaux et à distance.
Suivez cette procédure pour créer un objet d'emplacement de fichier :
1. Cliquez avec le bouton droit sur le dossier
Emplacements de fichier
dans l'onglet
Formats
de la bibliothèque d'objets et sélectionnez
Nouveau
.
2. Saisissez un
Nom
pour le nouvel objet dans la boîte de dialogue
Créer un emplacement de fichier
.
3. Sélectionnez un protocole depuis la liste déroulante
Protocole
. Le protocole par défaut est Local.
La définition de l'option
Protocole
détermine les options restantes. La table suivante répertorie de brèves descriptions des options. Pour les descriptions complètes et pour en savoir plus, voir les descriptions dans le
Guide de référence.
Table 54 :
Option Brève description
Hôte
Nom du serveur à distance
Port
Empreinte de la clé d'hôte
Type d'autorisation
Utilisateur
Numéro de port du serveur à distance
Code de l'ordinateur hôte (SFTP et SCP uniquement)
Mot de passe ou clé publique
Nom d'utilisateur du serveur à distance
Mot de passe
Chemin d'accès du fichier de clé privée pour l'autorisation
SSH
Mot de passe du serveur à distance
Chemin d'accès au fichier de clé privée (SFTP et SCP uni quement)
Phrase secrète de clé privée pour l'autorisation SSH
Phrase secrète du fichier de clé privée (SFTP et SCP uni quement)
Chemin d'accès du fichier de clé publique pour l'autorisation
SSH
Chemin d'accès au fichier de clé publique (SFTP et SCP uni quement)
Nombre de tentatives de connexion
Nombre de nouvelles tentatives de connexion
Guide de Designer
Objets d'emplacement de fichier
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
145
Option
Intervalle de tentatives de connexion
Répertoire à distance
Répertoire local
Brève description
Délai en secondes entre chaque nouvelle tentative de con nexion
(facultatif) chemin d'accès du fichier pour le serveur à dis tance
Chemin d'accès du fichier du serveur local pour cet objet d'emplacement de fichier
4. Cliquez sur
OK
.
Le logiciel crée l'objet d'emplacement de fichier. Il est possible de créer des configurations multiples de l'objet d'emplacement de fichier en cliquant sur
Modifier
plutôt que sur
OK
. Autrement, vous pouvez modifier un objet d'emplacement de fichier existant pour créer des configurations supplémentaires.
Informations associées
Associer des objets d'emplacement de fichier à des formats de fichier [page 148]
Créer des configurations multiples pour un objet d'emplacement de fichier [page 147]
7.3 Modification d'un objet d'emplacement de fichier existant
Modifiez un objet d'emplacement de fichier pour modifier les paramètres ou ajouter des configurations supplémentaires.
1. Cliquez avec le bouton droit sur le dossier
Emplacements de fichiers
pour modifier dans l'onglet
Formats
de la bibliothèque d'objets et sélectionnez
Modifier
.
La boîte de dialogue
Modifier l'emplacement de fichier
<nomdufichier>
s'ouvre.
2. Modifiez les autres options applicables et cliquez sur
OK
.
Vous donnez un nom à l'objet d'emplacement de fichier lorsque vous le créez. Il est impossible de modifier le nom de l'objet d'emplacement de fichier lorsque vous le modifiez.
Informations associées
Création de configurations multiples d'objet d'emplacement de fichier [page 147]
146
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Objets d'emplacement de fichier
7.4 Créer des configurations multiples pour un objet d'emplacement de fichier
Créez des configurations multiples d'objet d'emplacement de fichier pour chaque type de protocole de transfert de fichier utilisé.
Chaque objet d'emplacement de fichier possède au moins une configuration. Si une seule configuration existe, c'est la configuration par défaut. Lorsque vous créez des configurations multiples dans un objet d'emplacement de fichier, vous pouvez modifier la configuration par défaut de n'importe quelle configuration dans l'objet.
L'utilisation de configurations multiples est pratique. Par exemple, lorsque vous utilisez différents protocoles en fonction de votre environnement, il est possible de créer un objet d'emplacement de fichier qui contient les configurations pour vos environnements de test et de production. Dans votre environnement de test, vous utilisez un protocole local car les tests ont lieu en interne. Lorsque vous migrez à l'environnement de production, vous utilisez SFTP afin de transférer en tout sécurité les fichiers entre le serveur à distance et le serveur local. Basculez entre les protocoles en modifiant l'objet d'emplacement de fichier utilisé dans votre job pour utiliser une configuration par défaut différente.
7.4.1 Création de configurations multiples d'objet d'emplacement de fichier
Étapes pour créer des configurations d'emplacement de fichier supplémentaires dans un objet d'emplacement de fichier unique et pour sélectionner une configuration par défaut.
1. Cliquez avec le bouton droit sur le nom d'un objet d'emplacement de fichier dans
Emplacements de fichier
de l'onglet
Format
dans la bibliothèque d'objets et cliquez sur
Modifier
.
La boîte de dialogue
Modifier l'emplacement de fichier
<nomdufichier>
s'ouvre.
2. Cliquez sur
Modifier...
.
La boîte de dialogue
Configurations pour l'emplacement de fichier
<nomdufichier>
s'ouvre.
3. Cliquez sur l'icône Créer une configuration ( ).
La boîte de dialogue
Créer une configuration
s'ouvre.
4. Saisissez un nom unique pour la configuration et cliquez sur
OK
.
Une nouvelle colonne Configurations apparaît avec le nouveau nom en en-tête.
5. Si cette configuration est votre configuration par défaut, sélectionnez
Oui
dans
Configuration par défaut
.
Remarque
Si vous avez des configurations multiples dans un objet d'emplacement de fichier, le logiciel bascule automatiquement les autres configurations sur
Non
dans
Configuration par défaut
.
6. Sélectionnez le protocole depuis le menu déroulant
Protocole
.
Les options restantes apparaissant après l'option
Protocoles
dépendent du type de protocole que vous choisissez. Toutefois, si vous avez des configurations multiples (plus d'une colonne de paramètres), il peut y
Guide de Designer
Objets d'emplacement de fichier
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
147
avoir des options répertoriées qui ne s'appliquent pas au protocole que vous définissez. Les options ne s'appliquant pas à une configuration apparaissent dans la colonne «Sans objet».
7. Renseignez les autres options applicables et cliquez sur
OK
.
Pour les descriptions d'options, consultez le Guide de référence.
7.5 Associer des objets d'emplacement de fichier à des formats de fichier
Pour utiliser les informations de protocole de transfert de fichier que vous saisissez dans un objet d'emplacement de fichier, vous associez l'objet d'emplacement de fichier à une source de fichier spécifique ou à une cible dans le flux de données.
Vous pouvez également inclure un objet d'emplacement de fichier lorsque vous créez ou modifiez un nouveau format.
Remarque
Certains formats ne s'appliquent pas aux objets d'emplacement de fichier. Dans ce cas, les options de l'objet d'emplacement de fichier ne s'appliquent pas. Voir la table suivante pour les types de format.
La table suivante vous explique synthétiquement comment associer un objet spécifique d'emplacement de fichier à un format de fichier spécifique.
Table 55 :
Type de format
Fichier plat
Fichier de schéma DTD, XML, ou JSON
Copybook COBOL
Classeur Excel
Associer un objet d'emplacement de fichier
Créez un nouveau format de fichier plat ou modifiez-en un et ajoutez les informations de l'objet d'emplacement de fichier dans la section
Fichiers de données
de l'
Éditeur de format de fichier
.
Modifiez un fichier de schéma et ajoutez les informations de l'objet d'emplacement de fichier dans l'onglet
Format
de l'
Éditeur de format
.
Modifiez un copybook COBOL existant et saisissez les infor mations d'emplacement de fichier dans l'onglet
Fichier de données
de la boîte de dialogue
Modifier le copybook COBOL
.
Modifiez un classeur Excel existant et saisissez les informa tions d'emplacement de fichier dans l'onglet
Format
de la boîte de dialogue
Importer le classeur Excel
.
148
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Objets d'emplacement de fichier
Informations associées
7.5.1 Association d'un format de fichier plat à un objet d'emplacement de fichier
Étapes d'association d'un modèle de fichier plat existant à un objet d'emplacement de fichier.
Remarque
Il est possible d'associer un objet d'emplacement de fichier existant à un modèle existant de format de fichier plat ou à un nouveau modèle. Les instructions suivantes fonctionnent avec un modèle existant de format de fichier plat.
1. Cliquez avec le bouton droit sur le modèle de format de fichier plat imbriqué applicable dans la bibliothèque d'objets sous
Fichiers plats
et cliquez sur
Modifier
.
La boîte de dialogue
Éditeur de format de fichier
<filename>
s'ouvre.
2. Renseignez les options suivantes dans la section
Fichiers de données
:
Option
Emplacement
Supprimer le fichier après le transfert
Description
Nom de l'objet d'emplacement de fichier.
L'option apparaît uniquement lorsque vous choisissez un objet d'emplacement de fichier pour l'option
Emplacement
.
○ Oui : le logiciel supprime la copie du fichier du serveur local après son utilisation en tant que source ou cible dans le flux de données.
○ Non : le logiciel enregistre la copie du fichier du serveur local après son utilisation en tant que source ou cible dans le flux de données.
Il est possible de modifier ce paramètre dans l'Éditeur source ou cible lorsque vous définissez la paire format de fi chier/objet d'emplacement de fichier en tant que source ou cible dans le flux de données.
Guide de Designer
Objets d'emplacement de fichier
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
149
3. Renseignez les autres options applicables liées au format de fichier puis cliquez sur
Enregistrer et fermer
.
Informations associées
Objets sources et cibles [page 161]
Gestion des fichiers de données locales ou à distance [page 143]
7.5.2 Association des fichiers de schéma XML, DTD ou JSON
Étapes d'association d'un schéma imbriqué à un objet d'emplacement de fichier.
Créez un schéma imbriqué pour DTD, XML ou JSON.
1. Cliquez avec le bouton droit sur le modèle de schéma imbriqué applicable dans la bibliothèque d'objets sous
Schémas imbriqués
et cliquez sur
Modifier
.
Le schéma s'ouvre et affiche l'onglet
Général
, de lecture seule.
2. Ouvrez l'onglet
Format
et renseignez les options suivantes :
Option
Emplacement du fichier
Supprimer le fichier après le transfert
Description
Nom de l'objet d'emplacement de fichier.
L'option apparaît uniquement lorsque vous choisissez un objet d'emplacement de fichier pour l'option
Emplacement du fichier
.
○ Oui : le logiciel supprime la copie du fichier du serveur local après son utilisation en tant que source ou cible dans le flux de données.
○ Non : le logiciel enregistre la copie du fichier du serveur local après son utilisation en tant que source ou cible dans le flux de données.
Il est possible de modifier ce paramètre dans l'éditeur de source ou de cible lorsque vous utilisez cet objet dans un flux de données.
3. Renseignez les autres options applicables liées au format de fichier puis cliquez sur
Enregistrer et fermer
.
Lorsque vous incluez le schéma imbriqué que vous venez de créer dans un flux de données, l'objet d'emplacement de fichier apparaît dans l'onglet Source.
Informations associées
Gestion des fichiers de données locales ou à distance [page 143]
150
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Objets d'emplacement de fichier
7.5.3 Association des copybooks COBOL à un objet d'emplacement de fichier
Étapes d'association d'un copybook COBOL à un objet d'emplacement de fichier.
Remarque
Un objet de copybook COBOL ne peut être utilisé qu'en tant que source dans un flux de données.
1. Cliquez avec le bouton droit sur le copybook COBOL applicable dans la bibliothèque d'objets sous
Schémas imbriqués
et cliquez sur
Modifier
.
La boîte de dialogue
Modifier le copybook COBOL
s'ouvre.
2. Renseignez les options suivantes dans l'onglet
Fichier de données
:
Option
Emplacement du fichier
Supprimer le fichier après le transfert
Description
Nom de l'objet d'emplacement de fichier.
L'option apparaît uniquement lorsque vous choisissez un objet d'emplacement de fichier pour l'option
Emplacement du fichier
.
○ Oui : le logiciel supprime la copie du fichier du serveur local après son utilisation en tant que source dans le flux de données.
○ Non : le logiciel enregistre la copie du fichier du serveur local après son utilisation en tant que source dans le flux de données.
Il est possible de modifier ce paramètre dans l'éditeur de source ou de cible lorsque vous utilisez cet objet dans un flux de données. Non applicable aux objets cible.
3. Renseignez les options restantes le cas échéant. Les descriptions des options se trouvent dans le Guide de
référence.
L'objet d'emplacement de fichier est associé au copybook COBOL.
Informations associées
Créer un format de fichier de copybook COBOL [page 134]
Gestion des fichiers de données locales ou à distance [page 143]
Guide de Designer
Objets d'emplacement de fichier
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
151
7.5.4 Association de classeurs Excel à un objet d'emplacement de fichier
Étapes d'association d'un classeur Excel à un objet d'emplacement de fichier.
Remarque
Les classeurs Excel ne peuvent être utilisés qu'en tant que source dans un flux de données.
1. Cliquez avec le bouton droit sur un classeur Excel existant dans
Classeurs Excel
de l'onglet
Formats
de la bibliothèque d'objets puis cliquez sur
Modifier
.
La boîte de dialogue
Importer le classeur Excel
s'ouvre.
2. Renseignez les options suivantes dans l'onglet
Format
:
Option
Emplacement du fichier
Supprimer le fichier après le transfert
Description
Nom de l'objet d'emplacement de fichier.
L'option apparaît uniquement lorsque vous choisissez un objet d'emplacement de fichier pour l'option
Emplacement du fichier
.
○ Oui : le logiciel supprime la copie du fichier du serveur local après son utilisation en tant que source dans le flux de données.
○ Non : le logiciel enregistre la copie du fichier du serveur local après son utilisation en tant que source dans le flux de données.
Il est possible de modifier ce paramètre dans l'éditeur de source ou de cible lorsque vous utilisez cet objet dans un flux de données. Non applicable aux objets cible.
3. Renseignez les options restantes le cas échéant. Les descriptions des options se trouvent dans le Guide de
référence.
L'objet d'emplacement de fichier est associé au classeur Excel.
Informations associées
Créer un format de classeur Microsoft Excel sur UNIX [page 136]
152
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Objets d'emplacement de fichier
7.6 Ajout d'un objet d'emplacement de fichier à un flux de données
Étapes pour l'ajout d'un objet d'emplacement de fichier à un flux de données en tant que source ou cible.
Vous pouvez effectuer ces étapes avec un objet de format auquel est associé ou non un objet d'emplacement de fichier. Si aucun objet d'emplacement de fichier n'est associé au format d'objet, ou si vous souhaitez modifier l'objet d'emplacement de fichier associé, il est possible d'ajouter ou de modifier l'association en effectuant la procédure ci-dessous.
1. Glissez l'objet de format applicable dans un flux de données dans votre espace de travail.
2. Dans la boîte de dialogue contextuelle, sélectionnez
Créer la source
ou
Créer la cible
, le cas échéant.
3. Cliquez sur le nom de l'objet que vous venez d'ajouter. S'il s'agit d'une source, l'
Éditeur de fichiers source
s'ouvre. S'il s'agit d'une cible, l'
Éditeur de fichiers cible
s'ouvre.
Les options qui apparaissent varient en fonction du type de d'objet de format choisi (fichier plat, JSON, XML par exemple).
4. Dans l'
Éditeur de fichiers source
ou dans l'
Éditeur de fichiers cible
, sélectionnez un objet d'emplacement de fichier existant dans le menu déroulant
Emplacement
. Il est également possible de modifier une association existante à un objet d'emplacement de fichier le cas échéant.
5. Fermez la fenêtre de l'
Éditeur de fichiers source
ou de l'
Éditeur de fichiers cible
.
6. Continuez la configuration du flux de données, le cas échéant.
Informations associées
Création et définition des flux de données [page 159]
Objets d'emplacement de fichier [page 142]
Associer des objets d'emplacement de fichier à des formats de fichier [page 148]
Gestion des fichiers de données locales ou à distance [page 143]
7.7 Utilisation de scripts pour déplacer des fichiers depuis ou vers un serveur à distance
Exemples des fonctions intégrées d'objet d'emplacement de fichier dans les scripts dans un workflow.
Utilisez les deux fonctions intégrées copy_from_remote_server et copy_to_remote_server dans les scripts de flux de données afin d'identifier un objet d'emplacement de fichier et un format de fichier au lieu d'utiliser un format associé à un objet d'emplacement de fichier. Les scripts identifient l'objet d'emplacement de fichier contenant vos paramètres de protocole de transfert de fichier, afin que le logiciel utilise votre protocole pour copier les fichiers depuis ou vers un serveur à distance. Vous pouvez également saisir un nom de fichier en utilisant des caractères génériques (* et ?) pour déplacer un groupe de fichiers qui correspondent au critère du caractère générique.
Guide de Designer
Objets d'emplacement de fichier
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
153
Exemple
Table 56 :Exemples de fichier de script
Fonction
Exemple de code copy_from_remote_system('FTP_Datasto re', '*.txt');
Résultat
Téléchargez les fichiers qui correspondent au critère du ca ractère générique du nom de fichier depuis le serveur à dis tance.
Exemple de code copy_from_remote_system('FTP_Datasto re', 'mydata.txt');
Téléchargez le fichier individuel depuis le serveur à distance.
Exemple de code copy_to_remote_system('FTP_Datastore
', 'myremotedata.txt');
Téléchargez le fichier individuel vers le serveur à distance.
Exemple de code copy_to_remote_system('FTP_Datastore
', '*.txt');
Téléchargez les fichiers qui correspondent au critère du ca ractère générique du nom de fichier vers le serveur à dis tance.
154
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Objets d'emplacement de fichier
8 Flux de données
Décrit les fondements des flux de données, y compris les objets de flux de données, l'utilisation des recherches, l'exécution de flux de données et les audits.
8.1 Qu'est-ce qu'un flux de données ?
Les flux de données extraient, transforment et chargent les données.
Tout ce qui a trait aux données, y compris la lecture des sources, la transformation des données et le chargement des cibles, se produit dans un flux de données. Les lignes qui connectent les objets dans un flux de données représentent le flux des données durant les étapes de transformation des données.
Après avoir défini un flux de données, il est possible de l'ajouter à un job ou à un workflow. A l'intérieur d'un workflow, un flux de données peut envoyer et recevoir des informations vers et depuis d'autres objets grâce aux paramètres d'entrée et de sortie.
8.1.1 Dénomination des flux de données
Les noms des flux de données peuvent inclure des caractères alphanumériques et des tirets de soulignement (_).
Il ne peuvent pas contenir d'espace vide.
8.1.2 Exemple d'un flux de données
Supposons que vous souhaitez renseigner la table des faits de votre entrepôt de données avec de nouvelles données à partir de deux tables contenues dans la base de données de transaction source.
Le flux de données comporte les éléments suivants :
● Deux tables sources
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
155
● Une jointure entre ces tables, définie dans une transformation Query
● Une table cible où les nouvelles lignes sont placées
Vous indiquez le flux des données par ces composants en les connectant dans l'ordre dans lequel les données se déplacent dans ces derniers. Le flux de données obtenu ressemble à l'image ci-dessous :
8.1.3 Etapes dans un flux de données
Chaque icône que vous placez dans le diagramme de flux de données devient une étape dans le flux de données.
Il est possible d'utiliser les objets suivants comme des étapes dans un flux de données :
● source
● cible
● transformations
Les connexions que vous établissez entre les icônes déterminent l'ordre dans lequel le logiciel achève les étapes.
Informations associées
Objets sources et cibles [page 161]
8.1.4 Les flux de données comme des étapes dans les workflows
Les flux de données sont des opérations fermées, même lorsqu'ils sont des étapes dans un workflow.
Les jeux de données créés dans un flux de données ne sont pas disponibles pour les autres étapes dans le workflow.
Un workflow n'opère pas sur les jeux de données et ne peut pas fournir plus de données à un flux de données ; cependant, un worflow peut réaliser les opérations suivantes :
156
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
● Appeler les flux de données pour effectuer les opérations de mouvement des données
● Définir les conditions appropriées pour exécuter les flux de données
● Transmettre les paramètres vers et depuis les flux de données
8.1.5 Jeux de données intermédiaires dans un flux de données
Chaque étape dans un flux de données, jusqu'à la définition de cible, produit un résultat intermédiaire (par exemple, les résultats d'une instruction SQL contenant une clause WHERE), qui se déplace vers l'étape suivante d'un flux de données.
Le résultat intermédiaire comporte un ensemble de lignes de l'opération précédente et le schéma dans lequel les lignes sont organisées. Ce résultat est appelé un jeu de données. Ce jeu de données peut, à son tour, être davantage "filtré" et dirigé dans un autre jeu de données.
8.1.6 Codes d'opération
Chaque ligne dans un jeu de données est marquée d'un code d'opération qui identifie le statut de la ligne.
Les codes d'opération sont comme suit :
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
157
Table 57 :
Code d'opération
NORMAL
INSERT
DELETE
UPDATE
Description
Crée une nouvelle ligne dans la cible.
Toutes les lignes dans un jeu de données sont marquées d'un indicateur NORMAL lorsqu'elles sont extraites d'une source. Si une ligne est marquée d'un indicateur NORMAL lorsqu'elle est chargée dans une cible, elle est insérée comme une nouvelle ligne dans la cible.
Crée une ligne dans la cible.
Les lignes peuvent être marquées d'un indicateur INSERT par les transformations dans le flux de données pour indiquer qu'une modification a eu lieu dans un jeu de données, par rapport à une image plus ancienne du même jeu de données. La modification est enregistrée dans la ci ble séparément à partir des données existantes.
Ignoré par la cible. Les lignes marquées d'un indicateur DELETE ne sont pas chargées.
Les lignes peuvent être marquées d'un indicateur DELETE uniquement par la transformation
Map_Operation.
Remplace une ligne existante dans la cible.
Les lignes peuvent être marquées d'un indicateur UPDATE par les transformations dans le flux de données pour indiquer qu'une modification a eu lieu dans un jeu de données, par rapport à une image plus ancienne du même jeu de données. La modification est enregistrée dans la ci ble dans la même ligne que les données existantes.
8.1.7 Transfert des paramètres vers les flux de données
Les données ne circulent pas en dehors d'un flux de données, même lorsque vous ajoutez un flux de données à un workflow. Néanmoins, il est possible de transmettre des paramètres vers et depuis un flux de données.
Les paramètres évaluent les valeurs individuelles plutôt que les ensembles de valeurs. Lorsqu'un flux de données reçoit des paramètres, les étapes à l'intérieur du flux de données peuvent faire référence à ces paramètres comme des variables.
Les paramètres rendent les définitions de flux de donnés plus flexibles. Par exemple, un paramètre peut indiquer la dernière fois qu'une table des faits a été mise à jour. Il est possible d'utiliser cette valeur dans un flux de données pour extraire uniquement les lignes modifiées depuis la dernière mise à jour. Le schéma ci-dessous indique le paramètre last_update utilisé dans une requête pour déterminer le jeu de données utilisé pour charger la table des faits.
158
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
Informations associées
Variables et paramètres [page 287]
8.2 Création et définition des flux de données
Vous pouvez créer des flux de données à l'aide d'objets de la bibliothèque d'objets ou de la palette d'outils.
Après avoir créé un flux de données, il est possible de modifier ses propriétés.
Informations associées
Modification des propriétés d'un flux de données [page 160]
8.2.1 Définir un nouveau flux de données à l'aide de la bibliothèque d'objets
1. Dans la bibliothèque d'objets, accédez à l'onglet
Flux de données
.
2. Sélectionnez la catégorie de flux de données, faites un clic droit et sélectionnez
Nouveau
.
3. Sélectionnez le nouveau flux de données.
4. Faites glisser le flux de données dans l'espace de travail pour un job ou un workflow.
5. Ajoutez les sources, les transformations et les cibles dont vous avez besoin.
8.2.2 Définir un nouveau flux de données à l'aide de la palette d'outils
1. Sélectionnez l'icône du flux de données dans la palette d'outils.
2. Cliquez sur l'espace de travail pour un job ou un workflow pour placer le flux de données.
Il est possible d'ajouter des flux de données à un job batch ou à un job en temps réel. Lorsque vous faites glisser une icône de flux de données dans un job, vous dites au logiciel de valider ces objets en fonction des conditions du type de job (batch ou en temps réel).
3. Ajoutez les sources, les transformations et les cibles dont vous avez besoin.
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
159
8.2.3 Modification des propriétés d'un flux de données
Après avoir créé un flux de données, il est possible de modifier ses propriétés.
1. Faites un clic droit sur le flux de données et sélectionnez
Propriétés
.
La fenêtre
Propriétés
s'ouvre pour le flux de données.
2. Modifiez les propriétés souhaitées d'un flux de données.
3. Cliquez sur
OK
.
Cette table décrit les différentes propriétés qu'il est possible de définir pour le flux de données.
Table 58 :
Option
Exécuter une seule fois
Description
Lorsque vous indiquez qu'un flux de données doit être exécuté une seule fois, un job batch ne ré-exécutera jamais ce flux de données après qu'il ait terminé avec succès, sauf si le flux de données est contenu dans un workflow qui est une unité de restau ration qui ré-exécute et qui n'a pas terminé avec succès ailleurs en dehors de l'unité de restauration. Il est recommandé de ne pas marquer un flux de données à Exécu ter une seule fois si un workflow parent est une unité de restauration.
Utiliser les liens de base de données
Les liens de base de données sont des chemins de communication entre un serveur de base de données et un autre. Les liens de base de données permettent aux utili sateurs locaux d'accéder à des données sur une base de données distante, qui peut se trouver sur l'ordinateur local ou distant, du même type de base de données ou d'un type différent.
Degré de parallélisme
Type de cache
Le degré de parallélisme (DOP) est une propriété d'un flux de données qui définit le nombre de fois que chaque transformation dans un flux de données réplique pour traiter un sous-ensemble parallèle de données.
Il est possible de cacher les données pour améliorer la performance des opérations telles que les jointures, les groupements, les tris, les filtrages, les recherches et les comparaisons de table. Il est possible de sélectionner l'une des valeurs suivantes pour l'option Type de cache dans la fenêtre de Propriétés du flux de données :
○
En mémoire
: sélectionnez cette valeur si le flux de données traite une petite quantité de données qui peuvent être contenues dans la mémoire disponible.
○
Paginable
: cette valeur est celle par défaut.
160
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
Option
Contournement
Description
Permet de contourner l'exécution d'un flux de données au moment de la création.
Cette option est uniquement disponible au niveau de l'appel du flux de données
(lorsque le flux de données se trouve dans l'espace de travail Designer, par exem ple).
Restriction
Vous devez créer des paramètres de substitution de contournement à utiliser avec l'option
Contournement
. Par exemple, dans la fenêtre
Editeur de paramètres de substitution
, vous pouvez créer $$BYPASSEnable avec la valeur Oui et $$BY
PASSDisable avec la valeur Non (ou toute autre valeur différente de Oui).
Une fois la création de votre job terminée, vous pouvez désactiver le contournement avant de le passer en mode de production.
Pour en savoir plus, voir Contournement de workflows et flux de données spécifi ques [page 651]
.
Informations associées
Création d'un paramètre de substitution [page 312]
8.3 Objets sources et cibles
Un flux de données lit et charge directement les données à l'aide d'objets source et cible.
Les objets source définissent les sources à partir desquelles vous lisez les données.
Les objets cible définissent les cibles vers lesquelles vous écrivez (ou chargez) les données.
Informations associées
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
161
8.3.1 Objets sources
Les objets source contiennent les données à lire par le flux de données pour traitement.
Table 59 :
Objet source
Table
Modèle de table
Fichier
Document
Fichier JSON
Message JSON
Fichier XML
Message XML
Description Accès au logiciel
Fichier formaté avec des colonnes et des lignes tel qu'utilisé dans les bases de données relationnelles.
Direct ou par adapta teur
Direct Une table de modèle créée et enregistrée dans un autre flux de données
(utilisée pour le développement).
Fichier plat délimité ou de largeur fixe.
Direct
Par adaptateur Fichier avec un format spécifique à l'application (non accessible en lecture par les analyseurs SQL ou XML).
Fichier mis en forme avec des données JSON.
Utilisé comme une source dans les jobs en temps réel.
Direct
Direct
Fichier mis en forme avec des balises XML.
Utilisé comme une source dans les jobs en temps réel.
Direct
Direct
Il est également possible d'utiliser des messages IDoc comme sources en temps réel pour les applications SAP.
Informations associées
Objets source et cible en temps réel [page 267]
8.3.2 Objets cibles
Les objets cible reçoivent les données traitées qui sont chargées depuis le flux de données.
Table 60 :
Objet cible
Document
Description
Fichier avec un format spécifique à l'application (non accessible en lecture par les analyseurs SQL ou XML).
Accès au logiciel
Par adaptateur
Fichier
Fichier JSON
Message JSON
Fichier plat délimité ou de largeur fixe.
Un fichier formaté dans le format JSON.
Voir Objets source et cible en temps réel [page 267] .
Direct
Direct
Modèle de fichier imbri qué
Fichier JSON ou XML dont le format est basé sur la sortie de la transforma tion précédente (utilisé pour le développement, essentiellement pour dé boguer les flux de données).
Direct
162
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
Objet cible
Message sortant
Table
Modèle de table
Fichier XML
Message XML
Description
Voir
Objets source et cible en temps réel [page 267] .
Accès au logiciel
Fichier formaté avec des colonnes et des lignes tel qu'utilisé dans les bases de données relationnelles.
Direct ou par adapta teur
Table dont le format est basé sur la sortie de la transformation précédente
(utilisé pour le développement).
Direct
Fichier mis en forme avec des balises XML.
Voir
Objets source et cible en temps réel [page 267] .
Direct
Il est également possible d'utiliser des messages IDoc comme sources en temps réel pour les applications SAP.
8.3.3 Ajout d'objets sources ou cibles aux flux de données
Remplissez les conditions préalables suivantes avant d'utiliser un objet source ou cible dans un flux de données :
Table 61 :
Pour Connaissances requises
Tables accédées directement à partir d'une base de données Définir une banque de données d'une base de données et im porter les métadonnées de table.
Tables de modèle
Fichiers
Fichiers XML et messages
Définir une banque de données d'une base de données.
Définir un format de fichier et importer le fichier.
Importer un format de fichier XML.
Objets accédés par un adaptateur Définir une banque de données d'adaptateur et importer des métadonnées d'objet.
1. Ouvrez le flux de données dans lequel vous souhaitez placer l'objet.
2. Si la bibliothèque d'objets n'est pas déjà ouverte, sélectionnez
Outils Bibliothèque d'objets
pour l'ouvrir.
3. Sélectionnez l'onglet de la bibliothèque d'objets approprié : sélectionnez l'onglet Formats pour les fichiers plats, les DTD, JSN ou les schémas XML, ou sélectionnez l'onglet Banques de données pour les bases de données et les objets adaptateurs.
4. Sélectionnez l'objet que vous souhaitez ajouter comme une cible ou une source. (Développez les listes réduites en cliquant sur le signe plus à côté d'une icône conteneur.)
Pour une nouvelle table de modèle, sélectionnez l'icône Table de modèle dans la palette d'outils.
Pour un nouveau fichier de modèle JSON ou XML, sélectionnez l'icône Modèle de schémas imbriqués dans la palette d'outils.
5. Déplacez l'objet dans l'espace de travail.
6. Pour les objets qui peuvent être soit sources soit cibles, un menu pop-up apparait lorsque vous relâchez le curseur. Sélectionnez le type d'objet à réaliser.
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
163
Pour les nouvelles tables de modèle et les nouveaux fichiers de modèle XML, une deuxième fenêtre apparait lorsque vous relâchez le curseur. Saisissez les informations requises pour le nouvel objet modèle. Les noms peuvent inclure des caractères alphanumériques et des tirets de soulignement (_). Les tables de modèle ne peuvent pas avoir le même nom qu'une table existante dans une banque de données.
7. L'objet source ou cible apparait dans l'espace de travail.
8. Cliquez sur le nom de l'objet dans l'espace de travail
Le logiciel ouvre l'éditeur pour l'objet. Définissez les options requises pour l'objet.
Remarque
Assurez-vous que les fichiers qui font référence aux formats des fichiers plats, DTD, JSON ou schémas XML sont accessibles depuis le Job Server où le job est exécuté et spécifiez l'emplacement du fichier relatif à cet ordinateur.
Informations associées
Banques de données de bases de données [page 65]
Formats de fichiers [page 109]
Importer un format de schéma XML ou DTD [page 235]
Banques de données de l'adaptateur [page 88]
Ajout d'un objet d'emplacement de fichier à un flux de données [page 153]
8.3.4 Tables de modèle
Lors de la conception initiale d'une application, il est possible que vous trouviez pratique d'utiliser des tables de modèle pour représenter les tables de base de données.
Avec les tables de modèle, vous ne devez pas créer au départ une nouvelle table dans votre système de gestion de base de données ni importer les métadonnées dans le logiciel. A la place, le logiciel crée automatiquement la table dans la base de données avec le schéma défini par le flux de données lors de l'exécution d'un job.
Après la création d'une table de modèle comme cible dans un flux de données, il est possible de l'utiliser comme une source dans d'autres flux de données. Bien qu'une table de modèle puisse être utilisée comme une table source dans plusieurs flux de données, elle peut être utilisée comme table cible dans un seul flux de données.
Les tables de modèle sont particulièrement utiles au début du développement de l'application lorsque vous concevez et testez un projet. Si vous modifiez et enregistrez l'opération de transformation des données dans le flux de données dans lequel la table de modèle est une cible, le schéma de la table de modèle change automatiquement. Toutes les mises à jour du schéma s'appliquent automatiquement aux autres instances de la table de modèle. Lors du processus de validation, le logiciel vous avertit de toutes les erreurs telles que celles qui découlent de la modification du schéma.
164
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
8.3.4.1 Créer une table de modèle cible
1. Utilisez l'une des méthodes suivantes pour ouvrir la fenêtre
Créer un modèle
:
○ Depuis la palette d'outils :
○ Cliquez sur l'icône de modèle de table.
○ Cliquez dans un flux de données pour placer la table de modèle dans l'espace de travail.
○ Sur la fenêtre
Créer un modèle
, sélectionnez une banque de données.
○ Depuis la bibliothèque d'objets :
○ Développez une banque de données.
○ Cliquez sur l'icône de table de modèle et faites-la glisser dans l'espace de travail.
○ Depuis la bibliothèque d'objets :
○ Développez une banque de données.
○ Cliquez sur l'icône de table de modèle et faites-la glisser dans l'espace de travail.
2. Sur la fenêtre
Créer un modèle
, saisissez un nom de table.
3. Cliquez sur
OK
.
La table apparait dans l'espace de travail comme une icône de table de modèle.
4. Connectez la table de modèle au flux de données comme une cible (généralement une transformation Query).
5. Dans la transformation Query, mappez les colonnes Entrée de schéma que vous souhaitez inclure dans la table cible.
6. Depuis le menu
Projet
, sélectionnez
Enregistrer
.
Dans l'espace de travail, l'icône de la table de modèle est remplacée par une icône de table cible, et la table apparait dans la bibliothèque d'objets sous la liste de la banque de données des tables.
Une fois que vous êtes satisfait de la conception du flux de données, enregistrez-le. Lorsque le job est exécuté, le logiciel utilise la table de modèle pour créer une nouvelle table dans la base de données que vous avez indiquée lors de la création de la table de modèle. Une fois qu'une table de modèle est créée dans la base de données, il est possible de convertir la table de modèle du référentiel en une table régulière.
8.3.5 Conversion des tables de modèle en tables régulières
Vous devez convertir les tables de modèle en tables régulières pour profiter de certaines fonctionnalités comme le chargement par lots.
D'autres fonctionnalités, telles que l'exportation d'un objet, sont disponibles pour les tables de modèle.
Remarque
Une fois qu'une table de modèle est convertie, il n'est plus possible de modifier le schéma.
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
165
8.3.5.1 Convertir un modèle de table en une table régulière depuis la bibliothèque d'objets
1. Ouvrez la bibliothèque d'objets et accédez à l'onglet
Banques de données
.
2. Cliquez sur le signe plus (+) à côté de la banque de données qui contient la table de modèle que vous souhaitez convertir.
Une liste d'objets apparait.
3. Cliquez sur le signe plus (+) à coté de
Table de modèle
.
La liste des tables de modèle apparait.
4. Faite un clic droit sur la table de modèle que vous souhaitez convertir et sélectionnez
Importer la table
.
Le logiciel convertit la table de données dans le référentiel en une table régulière en l'important de la base de données. Pour mettre à jour l'icône dans tous les flux de données, sélectionnez
Afficher Actualiser
.
Dans la bibliothèque d'objets de la banque de données, la table est désormais listée sous Tables au lieu de
Tables de modèle.
8.3.5.2 Convertir un modèle de table en une table régulière depuis un flux de données
1. Ouvrez le flux de données qui contient la table de modèle
2. Faites un clic droit sur la table de modèle que vous souhaitez convertir et sélectionnez
Importer la table
.
Une fois qu'une table de modèle est convertie en une table régulière, il n'est plus possible de modifier le schéma de la table.
8.4 Comprendre la propagation de colonnes
Vous pouvez utiliser
Propager la colonne à partir de
dans un flux de données pour ajouter une colonne existante à partir d'une source ou d'une transformation en amont par le biais d'objets intermédiaires vers un point d'arrivée sélectionné.
Les colonnes sont ajoutées dans chaque objet sans aucune modification sur le type de données ou les autres attributs. Lorsqu'il existe plus d'un chemin possible entre le point de départ et le point d'arrivée, il est possible d'indiquer le chemin pour les colonnes ajoutées.
La propagation de colonnes est une opération de tirage. La commande
Propager la colonne à partir de
est émise à partir de l'objet dans lequel la colonne est nécessaire. La colonne est extraite de la source ou transformation en amont sélectionnée et ajoutée à chaque objet intermédiaire ainsi qu'à l'objet du point d'arrivée sélectionné.
Par exemple, dans le flux de données ci-dessous, la table source Employee contient les informations de nom des employés ainsi que l'ID d'employé, l'information sur le travail et les dates d'embauche. La transformation
Name_Cleanse est utilisée pour normaliser les noms d'employés. Enfin, les données sont sorties dans un fichier
XML appelé Noms_Employés.
166
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
Après avoir vu la sortie dans la table Employee_Names, vous vous rendez compte que l'initiale du milieu (colonne minit) doit être incluse dans la sortie. Faites un clic droit sur le schéma de niveau supérieur de la table
Employee_Names et sélectionnez
Propager la colonne à partir de
. La fenêtre
Propager la colonne vers
Noms_Employés
apparait.
Dans le volet gauche de la fenêtre
Propager la colonne vers Employee_Names
, sélectionnez la table source
Employee
depuis la liste d'objets. La liste des colonnes de sortie affichées dans le volet droit change pour afficher les colonnes dans le schéma de l'objet sélectionné. Sélectionnez la colonne
MINIT
comme la colonne que vous souhaitez tirer à partir de la source, puis cliquez sur
Propager
.
Le schéma de la colonne minit est transporté par les transformations Queryet Name_Cleanse vers la table
Employee_Names.
Les caractéristiques des colonnes propagées sont les suivantes :
● La commande
Propager colonne à partir de
peut être émise à partir du schéma de niveau supérieur d'une transformation ou d'une cible.
● Les colonnes sont ajoutées dans chaque objet sans aucune modification sur le type de données ou les autres attributs. Une fois qu'une colonne est ajoutée au schéma d'un objet, la colonne fonctionne exactement de la même façon que si elle avait été créée manuellement.
● La colonne propagée est ajoutée à la fin de la liste de schéma dans chaque objet.
● Le nom de la colonne de sortie est généré automatiquement pour éviter des conflits de nom avec les colonnes existantes. Il est possible de modifier le nom de colonne.
● Seules les colonnes inclues dans les schémas de niveau supérieur peuvent être propagées. Les colonnes dans les schémas imbriquées ne peuvent pas être propagées.
● Une colonne peut être propagée plus d'une fois. Toutes les colonnes existantes sont affichées dans le volet droit de la fenêtre
Propager la colonne vers
dans le champ
Existe déjà dans
. Chaque colonne supplémentaire a un nom unique.
● Plusieurs colonnes peuvent être sélectionnées et propagées en même temps.
Remarque
Il est impossible de propager une colonne avec une transformation Hierarchy_Flattening ou une transformation
Table_Comparison.
8.4.1 Ajout de colonnes dans un flux de données
Vous pouvez ajouter une colonne à partir d'une source ou d'une transformation en amont par le biais d'objets intermédiaires vers un point d'arrivée sélectionné à l'aide de la commande Propager.
Les colonnes sont ajoutées dans chaque objet sans aucune modification sur le type de données ou les autres attributs.
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
167
Ajouter des colonnes dans un flux de données :
1. Dans l'objet en aval dans lequel vous souhaitez ajouter la colonne (le point d'arrivée), faites un clic droit sur le schéma de niveau supérieur et cliquez sur
Propager la colonne à partir de
.
Propager la colonne à partir de
peut être émis à partir du schéma de niveau supérieur dans une transformation ou un objet cible.
2. Dans le volet gauche de la fenêtre
Propager la colonne vers
, sélectionnez l'objet en amont qui contient la colonne que vous souhaitez mapper.
Les colonnes disponibles dans cet objet sont affichées dans le volet droit avec une liste des mappages existants depuis cette colonne.
3. Dans le volet droit, sélectionnez la colonne que vous souhaitez ajouter et cliquez soit sur
Propager
soit sur
Propager et fermer
.
L'une des opérations suivantes se produit :
○ S'il n'existe qu'un seul chemin possible, la colonne sélectionnée est ajoutée par les transformations intermédiaires à l'objet en aval.
○ S'il existe plus d'un chemin possible par les objets intermédiaires, la boîte de dialogue
Choisir le routage vers
apparaît. Cela peut se produire lorsque le flux de données contient une transformation Query avec plusieurs objets d'entrée. Sélectionnez le chemin que vous préférez et cliquez sur
OK
.
8.4.2 Propager les colonnes dans un flux de données contenant une transformation Merge
La propagation permet d'apporter des modifications à la colonne en aval.
Dans un flux de données valide qui contient deux sources ou plus qui sont fusionnées à l'aide d'une transformation
Merge, le schéma des entrées dans la transformation Merge doit être identique. Toutes les sources doit avoir le même schéma, y compris :
● le même nombre de colonnes
● les mêmes noms des colonnes
● les colonnes semblables doivent avoir le même type de données
Afin de conserver un flux de données valide lors de la propagation d'une colonne par une transformation Merge, vous devez vous assurer de respecter cette restriction.
Lorsque vous propagez une colonne et qu'une transformation Merge se trouve entre le point de départ et le point d'arrivée, un message vous alerte qu'une fois l'opération de propagation terminée, le flux de données sera non valide puisque les schémas d'entrée dans la transformation Merge ne seront pas identiques. Si vous décidez de poursuivre l'opération de propagation de la colonne, vous devrez ajouter plus tard des colonnes aux schémas d'entrée dans la transformation Merge pour que le flux de données soit valide.
Par exemple, dans le flux de données ci-dessous, les données de chaque table source sont filtrées, puis les résultats sont fusionnés dans la transformation Merge.
168
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
Si vous choisissez de propager une colonne à partir de la source SALES(Pubs.DBO)vers la cible CountrySales, la colonne est ajoutée au schéma TableFilter mais pas au schéma FileFilter, donnant lieu à des schémas d'entrée différents dans la transformation Merge et un flux de données non valide.
Afin de conserver un flux de données valide lors de la propagation d'une colonne par une transformation Merge, suivez un processus à plusieurs étapes :
1. Assurez-vous que la colonne que vous souhaitez propager est disponible dans les schémas de tous les objets qui mènent dans la transformation Merge sur le côté en aval. Cela garantit que toutes les entrées dans la transformation Merge sont identiques et que le flux de données est valide.
2. Propagez la colonne sur le côté en amont de la transformation Merge vers le point d'arrivée souhaité.
8.5 Tables de recherche et fonction lookup_ext
Les tables de recherche contiennent des données auxquelles d'autres tables font référence.
En règle générale, les tables de recherche peuvent comporter les types de colonnes suivants :
● Colonne de recherche : permet d'établir une correspondance avec une ou plusieurs lignes en fonction des valeurs d'entrée. Pour identifier une correspondance dans une ligne, vous appliquez des opérateurs tels que
=, >, <, ~. Une table de recherche peut contenir plusieurs colonnes de recherche.
● Colonne de sortie : colonne renvoyée par la ligne, qui correspond à la condition de recherche définie pour la colonne de recherche. Une table de recherche peut contenir plusieurs colonnes de sortie.
● Colonne de politique de retour : permet d'indiquer les données à renvoyer lorsque plusieurs lignes correspondent à la ou aux conditions de recherche.
Utilisez la fonction lookup_ext pour extraire des données d'une table de recherche en fonction de conditions de recherche définies par l'utilisateur pour établir une correspondance entre les données d'entrée et les données de la table de recherche. La fonction lookup_ext permet non seulement d'extraire une valeur dans une table ou un fichier en fonction des valeurs d'une table source ou d'un fichier différent, mais elle propose aussi des fonctionnalités étendues permettant d'effectuer les opérations suivantes :
● Retourner plusieurs colonnes à partir d'une même recherche.
● Effectuer une sélection parmi d'autres opérateurs, y compris les critères spéciaux, pour définir une condition de recherche.
● Indiquer une politique de retour pour la recherche.
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
169
● Appeler lookup_ext dans des scripts et des fonctions personnalisées (ce qui vous permet également de réutiliser la ou les recherches regroupées dans des scripts).
● Définir un SQL personnalisé à l'aide du paramètre SQL_override pour alimenter le cache de recherche et parvenir à affiner d'importantes quantités de données aux seules sections pertinentes pour la recherche.
● Appeler lookup_ext à l'aide de l'assistant de fonction dans le mappage de sortie de requête pour retourner plusieurs colonnes dans une transformation Query.
● Sélectionner une stratégie de mise en cache et, par exemple, décider de placer dans la mémoire cache l'intégralité de la table de recherche ou de générer des instructions SQL de façon dynamique pour chaque enregistrement d'entrée.
● Utiliser lookup_ext avec les tables de banque de données en mémoire ou les tables du cache persistant. En ce qui concerne les tables de recherche, l'utilisation du cache persistant présente les avantages suivants par rapport aux tables en mémoire :
○ Plusieurs flux de données peuvent utiliser la même table de recherche disponible dans le cache persistant.
○ Le progiciel n'a pas besoin de construire la table de recherche chaque fois qu'un flux de données l'utilise.
○ Le cache persistant n'a aucune contrainte de mémoire car il est stocké sur disque et le progiciel exécute rapidement la pagination dans la mémoire.
● Utiliser le cache paginable (qui n'est pas disponible pour les fonctions lookup et lookup_seq).
● Utiliser des expressions dans les tables de recherche et retourner les valeurs obtenues.
Pour une description des fonctions lookup et lookup_seq associées, voir le Guide de référence.
8.5.1 Accès à l'éditeur lookup_ext
La fonction lookup_ext possède son propre éditeur graphique.
Il existe deux façons d'appeler l'éditeur :
● en ajoutant un appel de fonction à l'intérieur d'une transformation Query (utilisez cette option si vous souhaitez que la table de recherche retourne plusieurs colonnes) ;
● à partir de l'onglet Mappage dans une requête ou une fonction de script.
8.5.1.1 Ajout d'un appel de fonction
1. Dans la transformation Query, au niveau du volet
Schéma de sortie
, sans sélectionner de colonne de sortie spécifique, cliquez avec le bouton droit sur le volet et sélectionnez
Nouvel appel de fonction
.
2. Sélectionnez la catégorie de fonction
Fonctions de recherche
et le nom de fonction
lookup_ext
.
3. Pour appeler l'éditeur, cliquez sur
Suivant
.
La section Sortie vous permet d'ajouter plusieurs colonnes au schéma de sortie.
Une fois que vous avez fermé la fenêtre lookup_ext, vous pouvez rouvrir l'éditeur graphique pour apporter des modifications (cliquez avec le bouton droit sur le nom de la fonction dans le schéma et sélectionnez
Modifier l'appel de fonction
), ce qui constitue un avantage du nouvel appel de fonction.
170
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
8.5.1.2 Appel de l'éditeur lookup_ext depuis l'onglet
Mappage
1. Sélectionnez le nom de la colonne de sortie.
2. Dans l'onglet
Mappage
, cliquez sur
Fonctions
.
3. Sélectionnez la
catégorie de fonctionFonctions de recherche
et le
nom de fonctionlookup_ext
.
4. Pour appeler l'éditeur, cliquez sur
Suivant
.
Dans la section Sortie, le champ
Variable
remplace le champ
Nom de la colonne de sortie
. Vous pouvez définir une colonne de sortie destinée à alimenter la colonne sélectionnée dans le schéma de sortie. Lorsque lookup_ext retourne plusieurs colonnes de sortie, utilisez des variables pour stocker les valeurs de sortie ou utilisez lookup_ext comme nouvel appel de fonction comme indiqué précédemment dans cette section.
L'éditeur graphique n'est pas disponible avec les fonctions utilisées dans les mappages. En revanche, vous pouvez traiter le texte manuellement dans l'onglet
Mappage
.
8.5.2 Exemple : Définition d'une fonction lookup_ext simple
Cette procédure décrit la définition d'une fonction lookup_ext simple à l'aide d'un nouvel appel de fonction.
L'exemple associé illustre l'utilisation d'une table de recherche pour extraire les noms des services des salariés.
Pour en savoir plus sur les options disponibles pour la fonction lookup_ext, voir le Guide de référence.
1. Dans un flux de données, ouvrez l'éditeur de requêtes.
2. Dans le volet
Entrée de schéma
, faites glisser la colonne d'ID vers le volet
Sortie de schéma
.
3. Sélectionnez la colonne ID dans le volet
Sortie de schéma
, cliquez avec le bouton droit et sélectionnez
Nouvel appel de fonction
. Cliquez sur
Insérer en dessous
.
4. Sélectionnez la
catégorie de fonctionFonctions de recherche
et le
nom de fonctionlookup_ext
, puis cliquez sur
Suivant
.
L'éditeur lookup_ext apparaît.
5. Dans la fenêtre
Lookup_ext - Sélectionner les paramètres
, sélectionnez une table de recherche : a. En regard de la zone de texte
Table de recherche
, cliquez sur la flèche de liste déroulante puis cliquez deux fois sur la banque de données, le format de fichier ou le schéma actuel comprenant la table.
b. Sélectionnez la table de recherche et cliquez sur
OK
.
Dans l'exemple, la table de recherche est un fichier au format txt appelé ID_lookup.txt, qui réside dans D:
\Data.
6. Pour la
spécification du cache
, la valeur par défaut de CACHE_DE_PRECHARGEMENT est utile lorsque le nombre de lignes de la table est peu élevé ou que vous pensez accéder à un fort pourcentage des valeurs de la table.
AUCUN_CACHE lit les valeurs de la table de recherche pour chaque ligne sans valeurs mises en cache.
Sélectionnez CACHE_DE_CHARGEMENT_A_LA_DEMANDE lorsque la table comporte un grand nombre de lignes et que vous pensez accéder fréquemment à un faible pourcentage de ses valeurs ou lorsque vous utilisez la table dans plusieurs recherches avec des conditions de comparaison extrêmement sélectives, qui donnent un petit sous-ensemble de données.
7. Pour disposer de ressources supplémentaires en vue de l'exécution de la fonction lookup_ext, sélectionnez
Exécuter en tant que processus séparé
. Cette option crée un processus de flux de données enfant séparé pour la fonction lookup_ext lorsque le progiciel exécute le flux de données.
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
171
8. Définissez une ou plusieurs conditions. Pour chacune, ajoutez un nom de colonne de table de recherche
(effectuez une sélection dans la liste déroulante ou faites glisser des éléments depuis le volet
Paramètre
), sélectionnez l'opérateur pertinent et entrez une expression en la saisissant, la faisant glisser, la collant ou à l'aide de l'éditeur rapide (cliquez sur l'icône dans la colonne de droite).
Dans l'exemple, la condition correspond à ID_DEPT = Employees.ID_DEPT.
9. Définissez la sortie. Pour chaque colonne de sortie : a. Ajoutez un nom de colonne de la table de recherche.
b. Le cas échéant, modifiez la valeur par défaut (valeur nulle).
c. Indiquez le
nom de la colonne de sortie
en la saisissant, la faisant glisser, la collant ou à l'aide de l'éditeur rapide (cliquez sur l'icône dans la colonne de droite).
Dans l'exemple, la colonne de sortie est ID_DEPT_NAME.
10. Si plusieurs correspondances sont possibles, indiquez l'ordre et définissez une politique de retour (
MAX
par défaut) pour la sélection d'une correspondance. Pour ordonner la sortie, saisissez le ou les noms de colonne dans la liste
Organiser par
.
Exemple
L'exemple suivant illustre le mode d'utilisation de la table de recherche ID_lookup.txt pour extraire les noms des services des salariés.
La table des salariés (Employees) se présente comme suit :
Table 62 :
ID
SSN111111111
SSN222222222
TAXID333333333
NAME
Employee1
Employee2
Employee3
ID_DEPT
10
10
20
La table de recherche ID_lookup.txt se présente comme suit :
Table 63 :
ID_DEPT
10
20
ID_PATTERN ms(SSN*) ms(TAXID*)
ID_RETURN
=substr(ID_Pattern,4,20)
=substr(ID_Pattern,6,30)
L'éditeur lookup_ext est alors configuré comme suit.
ID_DEPT_NAME
Payroll
Comptabilité
172
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
Informations associées
Exemple : Définition d'une fonction lookup_ext complexe [page 173]
8.5.3 Exemple : Définition d'une fonction lookup_ext complexe
Cette procédure décrit la définition d'une fonction lookup_ext complexe à l'aide d'un nouvel appel de fonction.
. Cet exemple illustre l'extraction et la normalisation des numéros d'identification des salariés.
Pour en savoir plus sur les options disponibles pour la fonction lookup_ext, voir le Guide de référence.
1. Dans un flux de données, ouvrez l'éditeur de requêtes.
2. Dans le volet
Entrée de schéma
, faites glisser la colonne d'ID vers le volet
Sortie de schéma
. Procédez de même pour la colonne Nom.
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
173
3. Dans le volet
Sortie de schéma
, cliquez avec le bouton droit sur la colonne Nom et cliquez sur
Nouvel appel de fonction
. Cliquez sur
Insérer en dessous
.
4. Sélectionnez la
Catégorie de fonction Fonctions de recherche
et le
Nom de la fonction lookup_ext
, puis cliquez sur
Suivant
.
5. Dans la fenêtre
Lookup_ext - Sélectionner les paramètres
, sélectionnez une table de recherche :
Dans l'exemple, la table de recherche (au format txt) est nommée ID_lookup.txt et réside dans D:\Data.
6. Définissez une ou plusieurs conditions.
Dans l'exemple, la condition correspond à ID_PATTERN ~ Employees.ID.
7. Définissez la sortie. Pour chaque colonne de sortie : a. Ajoutez un nom de colonne de la table de recherche.
b. Si vous voulez que le progiciel interprète la colonne dans la table de recherche comme une expression et retourne la valeur calculée, cochez la case
Expression
.
c. Le cas échéant, modifiez la valeur par défaut (valeur nulle).
d. Indiquez le
nom de la ou des colonnes de sortie
en le saisissant, en le faisant glisser ou en le collant ou à l'aide de l'éditeur rapide (cliquez sur l'icône dans la colonne de droite).
Dans l'exemple, les colonnes de sortie sont ID_RETURN et ID_DEPT_NAME.
Exemple
Extraction et normalisation des numéros d'identification des salariés
Dans cet exemple, vous voulez extraire et normaliser des numéros de sécurité sociale et d'identification fiscale de salariés, avec des préfixes différents. Vous allez supprimer les préfixes afin de normaliser les numéros. Vous voulez également identifier le service d'origine du numéro. Le flux de données comporte une table source
Employees, une requête configurée avec look_ext et une table cible.
Configurez l'éditeur lookup_ext comme dans le graphique suivant.
174
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
La condition de recherche correspond à ID_PATTERN ~ Employees.ID.
Le progiciel lit les différentes lignes de la table source Employees, puis passe à la table de recherche
ID_lookup.txt pour identifier toutes les lignes qui répondent à la condition de recherche.
L'opérateur ~ indique que le logiciel appliquera une comparaison de modèles à Employees.ID. Lorsqu'il rencontre un modèle correspondant à Employees.ID dans ID_lookup.ID_PATTERN, le logiciel applique l'expression dans ID_lookup.ID_RETURN. Dans cet exemple, Employee1 et Employee2 ont tous deux des ID qui correspondent au modèle ms(SSN*) dans la table de recherche. Le logiciel applique alors l'expression
=substr(ID_PATTERN,4,20) aux données, ce qui permet d'extraire de la chaîne de correspondance
(Employees.ID) une sous-chaîne de 20 caractères maximum en partant de la quatrième position. Les résultats pour Employee1 et Employee2 sont respectivement de 111111111 et 222222222.
Pour la sortie de la colonne de recherche ID_RETURN, le progiciel évalue ID_RETURN comme une expression car la case
Expression
est cochée. Dans la table de recherche, la colonne ID_RETURN contient l'expression
=substr(ID_PATTERN,4,20). Dans cette expression, ID_PATTERN se rapporte à la colonne ID_PATTERN de la table de recherche. Lorsque la condition de recherche ID_PATTERN ~ Employees.ID est vraie, le progiciel
évalue l'expression. Dans le cas présent, le progiciel remplace le caractère générique ID_PATTERN par la véritable valeur de Employees.ID.
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
175
La sortie comprend également la colonne ID_DEPT_NAME, que le progiciel retourne comme une valeur littérale
(du fait que la case Expression n'est pas cochée). La table cible obtenue se présente comme suit :
Table 64 :
ID
SSN111111111
SSN222222222
TAXID333333333
NAME
Employee1
Employee2
Employee3
ID_RETURN
111111111
222222222
333333333
ID_DEPT_NAME
Payroll
Payroll
Accounting
Informations associées
Exemple : Définition d'une fonction lookup_ext simple [page 171]
Accès à l'éditeur lookup_ext [page 170]
8.6 Exécution d'un flux de données
Un flux de données est une spécification déclarative à partir de laquelle le logiciel détermine les bonnes données à traiter.
Par exemple, dans des flux de données placés dans des jobs batch, l'ordre de la transaction est d'extraire, de transformer, puis de charger les données dans une cible. Les flux de données sont similaires aux instructions SQL.
La spécification déclare la sortie souhaitée.
Le logiciel exécute un flux de données à chaque fois qu'un flux de données se produit dans un job. Cependant, il est possible de spécifier qu'un job batch exécute un flux de données particulier une seule fois. Dans ce cas, le logiciel exécute uniquement la première occurrence du flux de données ; le logiciel ignore les occurrences suivantes dans le job.
Vous pouvez utiliser cette fonctionnalité lorsque vous développez des jobs batch complexes avec plusieurs chemins, tels que les jobs avec des blocs Try/Catch ou des structures conditionnelles, et que vous souhaitez vous assurer que le logiciel n'exécute qu'une seule fois un flux de données particulier.
Informations associées
Création et définition des flux de données [page 159]
176
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
8.6.1 Poussée vers le bas des opérations vers le serveur de base de données
À partir des informations contenues dans la spécification du flux de données, le logiciel produit une sortie tout en optimisant la performance.
Par exemple, pour les sources et les cibles SQL, le logiciel crée des instructions SQL spécifiques à la base de données en fonction des diagrammes du flux de données du job. Pour optimiser la performance, le logiciel pousse vers le bas autant d'opérations de transformation que possibles vers la base de donnée source ou cible, et combine autant d'opérations que possible dans une requête vers la base de données. Par exemple, le logiciel essaye de pousser vers le bas les jointures et les évaluations de fonction. En poussant les opérations vers la base de données, le logiciel réduit le nombre de lignes et d'opérations que le moteur doit traiter.
La conception du flux de données influence le nombre d'opérations que le logiciel peut pousser vers la base de données sources ou cibles. Avant d'exécuter un job, il est possible d'examiner le SQL généré par le logiciel et de modifier la conception pour aboutir aux résultats les plus efficaces.
Il est possible d'utiliser la transformation Data_Transfer pour pousser vers le bas des opérations consommatrices de ressources n'importe où dans un flux de données vers la base de données. Les opérations consommatrices de ressources incluent les jointures, GROUP BY, ORDER BY et DISTINCT.
8.6.2 Exécution de flux de données distribués
Le logiciel offre la possibilité de distribuer les travaux de traitement des données consommatrices de mémoire et de processeurs (tels que les jointures, les regroupements, les comparaisons de table et les recherches) dans les multiples processus et ordinateurs.
Ce travail de distribution offre les bénéfices potentiels suivants :
● Une meilleure gestion de la mémoire en tirant profit de plus de ressources processeurs et de mémoire physique
● Une meilleure performance et extensibilité de job en utilisant une exécution de flux de données secondaire simultanée pour tirer profit du grid computing
Il est possible de créer un flux de données secondaire pour que le logiciel n'ait pas besoin de traiter l'ensemble du flux de données en mémoire en une seule fois. Il est également possible de distribuer les flux de données secondaires aux différents job servers d'un groupe de serveurs pour utiliser plus de mémoire et des ressources processeurs supplémentaires.
Utilisez les fonctionnalités suivantes pour diviser un flux de données en plusieurs flux de données secondaires
● L'option
Exécuter en tant que processus séparé
sur les opérations consommatrices de ressources qui incluent :
○ Transformation Hierarchy_Flattening
○ Transformation Associate
○ Transformation Country ID
○ Transformation Global Address Cleanse
○ Transformation Global Suggestion Lists
○ Match Transform
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
177
○ Transformation United States Regulatory Address Cleanse
○ Transformation User-Defined
○ Les opérations de requête qui sont consommatrices de processeurs et de mémoire :
○ Jointures
○ GROUP BY
○ ORDER BY
○ DISTINCT
○ Transformation Table_Comparison
○ Fonction Lookup_ext
○ Fonction Count_distinct
○ Fonction Search_replace
Si vous sélectionnez l'option Exécuter en tant que processus séparé pour plusieurs opérations dans un flux de données, le logiciel divise le flux de données en des flux de données secondaires plus petits qui utilisent des ressources différentes (mémoire et ordinateur) les uns des autres. Lorsque vous indiquez plusieurs options
Exécuter en tant que processus séparé, les processus de flux de données secondaire exécutent en parallèle.
● Transformation Data_Transfer
Avec cette transformation, le logiciel n'a pas besoin de traiter l'ensemble du flux de données sur l'ordinateur du Job Server. À la place, la transformation Data_Transfer peut pousser vers le bas le traitement d'une opération consommatrice de ressource vers le serveur de base de données. Cette transformation divise le flux de données en deux flux de données secondaires et transfère les données vers une table dans le serveur de base de données pour permettre au logiciel de pousser vers le bas l'opération.
8.6.3 Equilibrage de charge
Il est possible de distribuer l'exécution d'un job ou une partie d'un job dans de multiples Job Servers dans un groupe de serveurs pour mieux équilibrer les opérations consommatrices de ressources.
Vous pouvez spécifier les valeurs suivantes dans l'option
Niveau de distribution
lors de l'exécution d'un job :
● Niveau de job : un job peut s'exécuter sur un Job Server disponible.
● Niveau de flux de données : chaque flux de données dans un job peut s'exécuter sur un Job Server disponible.
● Sous-niveau de flux de données : une opération consommatrice de ressources (comme le tri, la comparaison de table ou la recherche de table) dans un flux de données peut s'exécuter sur un Job Serveur disponible.
8.6.4 Caches
Le logiciel offre l'option de cacher les données dans la mémoire pour améliorer les opérations dans les flux de données telles que :
Table 65 :
Opération
Jointures
Description
Puisqu'une source interne d'une jointure doit être lue pour chaque ligne d'une source externe, il est possible que vous souhaitiez mettre en cache une source lors qu'elle est utilisée comme source interne dans une jointure.
178
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données
Opération
Comparaisons de tables
Recherches
Description
Puisqu'une table de comparaison doit être lue pour chaque ligne d'une source, il est possible que vous souhaitiez mettre en cache la table de comparaison.
Puisqu'une table de recherche peut exister dans une base de données distante, il est possible que vous souhaitiez la mettre en cache dans la mémoire pour réduire les temps d'accès.
Le logiciel offre les types de caches suivants qui peuvent être utilisés par le flux de données pour toutes les opérations qu'il contient :
Table 66 :
Cache
En mémoire
Cache paginable
Description
Utilisez le cache en mémoire lorsque le flux de données traite une petite quantité de données qui peuvent être contenues dans la mémoire.
Utilisez le cache paginable lorsque le flux de données traite une très grande quan tité de données qui ne peuvent pas être contenues dans la mémoire.
Si vous divisez le flux de données en flux de données secondaires qui exécutent chacun sur un Job Server différent, chaque flux de données secondaires peut utiliser son propre type de cache.
8.7 Vue d'ensemble d'un audit de flux de données.
Il est possible d'auditer des objets dans un flux de données pour collecter les statistiques d'audit d'exécution.
Il est possible d'effectuer les tâches suivantes avec cette fonctionnalité d'audit :
● Collecter des statistiques d'audit sur les données lues dans un job, traitées par plusieurs transformations et chargées dans des cibles.
● Définir des règles à propos des statistiques d'audit pour déterminer si les données correctes sont traitées.
● Générer une notification en cas d'échec d'audit.
● Faire une requête pour les statistiques d'audit qui persistent dans le référentiel.
Informations associées
Utilisation de l'Audit [page 355]
Guide de Designer
Flux de données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
179
9 Transformations
Les transformations opèrent sur les jeux de données en manipulant les jeux d'entrées et en produisant un ou plusieurs jeux de sortie.
A l'inverse, les fonctions opèrent sur les valeurs uniques dans des colonnes spécifiques dans un jeu de données.
De nombreuses transformations intégrées sont disponibles depuis la bibliothèque d'objets sur l'onglet
Transformation
.
Les transformations que vous pouvez utiliser dépend du package logiciel que vous avez acheté. (Si une transformation appartient à un package que vous n'avez pas acheté, elle est désactivée et ne peut pas être utilisée dans un job.)
Les transformations sont regroupées dans les catégories suivantes :
● Data Integrator : Transformations permettant d'extraire, de transformer et de charger des données. Ces transformations contribuent à assurer l'intégrité des données et à optimiser la productivité du développeur pour le chargement et la mise à jour de l'environnement d'entrepôt de données.
● Data Quality : Transformations permettant d'améliorer la qualité de vos données. Ces transformations peuvent analyser, corriger, enrichir, mettre en correspondance et consolider vos biens personnalisés et d'informations opérationnelles.
● Plateformes : Transformations requises pour des opérations de mouvements de données générales. Ces transformations vous permettent de générer, mapper et fusionner des lignes à partir de deux sources ou plus, de créer des opérations de requête SQL (expressions, recherches, jointures et filtres), d'effectuer des répartitions conditionnelles et de masquer des données personnelles pour préserver la pertinence, l'anonymat et la sécurité des données sensibles.
● Text Data Processing : Transformations aidant à extraire des informations spécifiques de votre texte. Elles peuvent analyser d'importants volumes de texte, ce qui vous permet d'identifier et d'extraire des entités et des faits, par exemple, des clients, des produits, des emplacements et des informations financières pertinentes pour votre organisation.
Table 67 :
Catégorie de transforma tions
Transformation
Data Integrator Data_Transfer
Description
Date_Generation
Effective_Date
Hierarchy_Flattening
Permet à un flux de données de diviser son traitement en deux sous-flux de données et de pousser vers le bas des opérations consommatrices de ressour ces vers le serveur de base de données.
Génère une colonne contenant des valeurs de dates en fonction des dates de début et de fin, et de l'incrément que vous avez fournis.
Génère une colonne "fin de validité" supplémentaire en fonction de la "date de validité" de la clé primaire.
Aplanit les données hiérarchiques sous forme de tables relationnelles pour qu'elles puissent participer à un schéma en étoile. La mise à plat hiérarchique peut être verticale ou horizontale.
180
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
Catégorie de transforma tions
Transformation
Data Quality
Description
History_Preserving
Key_Generation
Map_CDC_Operation
Pivot (Columns to Rows) Fait pivoter les valeurs des colonnes spécifiques en lignes. (Voir aussi Reverse
Pivot.)
Reverse Pivot (Lignes en colonnes)
Fait pivoter les valeurs des lignes spécifiques en colonnes.
Table_Comparison
Trie les données d'entrée, mappe les données de sortie et résout les pré-ima ges et les post-images pour les lignes Mettre à jour. Bien qu'elle soit habituelle ment utilisée pour prendre en charge la capture des données modifiées d'Ora cle, cette transformation prend en charge tous les flux de données si leurs con ditions d'entrée sont respectées.
XML_Pipeline
Associate
Compare deux jeux de données et produit la différence entre eux sous forme de jeu de données avec des lignes marquées d'un indicateur Insérer et Mettre à jour.
Traite des entrées XML volumineuses dans des petits lots.
Combine les résultats de deux ou plus transformations Match, ou deux ou plus transformations Associate, ou une combinaison des deux, pour trouver les cor respondances dans les sets de correspondance.
Country ID
Convertit les lignes marquées d'un indicateur Mettre à jour en Mettre à jour plus Insérer, pour que les valeurs d'origine soient conservées dans la cible. Indi quez dans quelle colonne rechercher les données mises à jour.
Génère de nouvelles clés pour les données sources à partir d'une valeur basée sur les clés existantes dans la table que vous avez indiquée.
Data Cleanse
DSF2 Walk Sequencer
Geocoder
Analyse les données d'entrée puis identifie le pays de destination pour chaque enregistrement.
Identifie et analyse les données de nom, de fonction et de société, les numéros de téléphone, les numéros de sécurité sociale, les dates et les adresses électro niques. Elle peut affecter un sexe, ajouter des titres de civilité, générer des standards Match et convertir des sources d'entrée à un format standard. Elle peut également analyser et manipuler plusieurs formes de données internatio nales, de données opérationnelles et de produit.
Ajoute des informations de séquence de distribution aux données qu'il est pos sible d'utiliser avec un logiciel de tri préalable pour remplir les conditions pour des remises de séquence de tour.
Utilise les coordonnées géographiques, les adresses et les données de points d'intérêt (POI) pour ajouter une adresse, une latitude et une longitude, un re censement et d'autres informations aux enregistrements.
Global Address Cleanse
Global Suggestion Lists
Match
Identifie, analyse, valide et corrige les données d'adresses globales, telles que le numéro principal, le nom principal, le type principal, la direction, l'identifica teur secondaire et le numéro secondaire.
Complète et renseigne les adresses avec des données minimales et peut four nir des propositions pour les correspondances possibles.
Identifie les enregistrements de correspondance en fonction des règles d'en treprise. Elle effectue également la sélection de candidat, ID unique, le meilleur enregistrement et d'autres opérations.
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
181
Catégorie de transforma tions
Transformation
Plateforme
Text Data
Processing
Description
USA Regulatory Address
Cleanse
User-Defined
Case
Data_Mask
Map_Operation
Merge
Query
Row_Generation
SQL
Validation
Entity_Extraction
Identifie, analyse, valide et corrige les données d'adresses des Etats-Unis en fonction du CASS (Coding Accuracy Support System).
Effectue tout ce pourquoi il est possible d'écrire un code Python. Il est possible d'utiliser la transformation User-Defined pour créer des enregistrements et des jeux de données, ou pour renseigner un champ avec une valeur spécifique, pour ne citer que quelques possibilités.
Simplifie la logique de branche dans les flux de données en consolidant la logi que de case ou de prise de décisions dans une transformation. Les chemins sont définis dans une table d'expressions.
Utilise des techniques de masquage des données, telles que le remplacement de caractère, la variance numérique et la variance de date pour camoufler ou masquer les informations personnelles contenues dans vos bases de données
(les numéros de compte bancaire, les numéros de carte de crédit et le revenu, par exemple). Le masquage des données préserve la pertinence et les relations des données tout en assurant la confidentialité et l'anonymat des informations confidentielles du client et contribue à respecter les directives de protection des données.
Modifie les données basées sur les codes d'opération actuels et les expressions de mappage. Les codes d'opération peuvent alors être convertis entre opéra tions de manipulation des données.
Unifie les lignes à partir de deux sources ou plus dans une seule cible.
Extrait un jeu de données qui satisfait les conditions que vous avez indiquées.
Une transformation Query est semblable à une instruction SQL SELECT.
Génère une colonne contenant des valeurs de nombre entier démarrant à zéro par incrément de 1 pour la valeur de fin spécifiée.
Effectue les opérations de requête SQL indiquées.
Assure que les données dans le flux de données répondent à vos critères du rant toutes les phases. Il est possible de filtrer ou de remplacer les données qui ne répondent pas aux critères.
Extrait des informations (entités et faits) d'un contenu au format de type texte,
HTML, XML ou binaire (par exemple, PDF).
9.1 Ajout d'une transformation à un flux de données
Il est possible d'utiliser Designer pour ajouter des transformations aux flux de données.
1. Ouvrez un objet de flux de données.
2. Ouvrez la bibliothèque d'objets si elle n'est pas déjà ouverte et cliquez sur l'onglet
Transformations
.
3. Sélectionnez la transformation ou la configuration de transformation que vous souhaitez ajouter au flux de données.
4. Faites glisser l'icône de transformation ou de configuration de transformation dans l'espace de travail du flux de données. Si vous avez sélectionné une transformation qui possède plusieurs configurations de
182
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
transformation disponibles, un menu déroulant vous invite à sélectionner une configuration de transformation.
5. Dessinez les connexions du flux de données.
Pour connecter une source à une transformation, cliquez sur le carré sur le côté droit de la source et déplacez le curseur vers la flèche sur le côté gauche de la transformation.
Continuez à connecter les entrées et les sorties tel que requis pour la transformation.
○ L'entrée pour la transformation peut être la sortie depuis une autre transformation, ou la sortie depuis une source ; ou bien la transformation peut ne pas exiger des données sources.
○ Vous pouvez connecter la sortie de la transformation à l'entrée d'une autre transformation ou cible.
6. Double-cliquez sur le nom de la transformation.
Cette opération ouvre l'éditeur de transformation, ce qui permet de terminer la définition de la transformation.
7. Saisissez des valeurs d'options.
Pour qu'une colonne de données soit marquée comme une option de transformation, saisissez le nom de la colonne tel qu'il apparait dans le schéma d'entrée ou faites glisser le nom de la colonne depuis le schéma d'entrée vers la boite d'option.
Informations associées
Ajout d'une transformation Query à un flux de données [page 187]
Ajout d'une transformation Data Quality à un flux de données [page 189]
Ajout d'une transformation de traitement des données de texte à un flux de données [page 202]
9.2 Editeurs de transformations
Après avoir ajouté une transformation à un flux de données, configurez-la à l'aide de l'éditeur de transformation.
Les présentations de l'éditeur de transformations varient.
La transformation la plus utilisée est la transformation Query, qui possède deux volets :
● Une zone de schéma d'entrée et/ou une zone de schéma de sortie
● Une zone d'options (ou zone de paramètres) qui permet de définir toutes les valeurs requises par la transformation.
Les transformations Data Quality, telles que Match et Data Cleanse, utilisent un éditeur de transformations qui permet de définir les options et de mapper les champs d'entrée et de sortie.
L'éditeur de la transformation Entity Extraction permet de définir des options d'extraction et de mapper les champs d'entrée et de sortie.
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
183
Informations associées
Editeurs de transformation Qualité des données [page 191]
Editeur de transformation Entity Extraction [page 203]
9.3 Configurations de transformation
Une configuration de transformation désigne une transformation avec des champs de saisie et de sortie préconfigurés Meilleure pratique et des options pouvant être utilisées dans plusieurs flux de données.
Ces champs sont utiles lorsque vous utilisez de manière répétitive une transformation avec des options spécifiques et des champs d'entrée et de sortie.
Certaines transformations, par exemple, Data Quality ont des configurations en lecture seule fournies lorsque
Data Services est installé. Vous pouvez également créer votre propre configuration de transformation par la réplication d'une configuration de transformation existante ou par la création d'une autre. Vous ne pouvez pas exécuter une exportation ou des opérations multi-utilisateurs sur des configurations de transformation en lecture seule.
Dans la fenêtre Editeur de configuration de transformation, vous configurez les options par défaut, les champs de saisie et de sortie Meilleure pratique pour votre configuration de transformation. Après avoir placé une instance de la configuration de transformation dans un flux de données, vous pouvez remplacer celles qui existent par défaut.
Si vous modifiez une configuration de transformation, cette modification est héritée par chaque instance de la configuration de transformation utilisée dans les flux de données, sauf si un utilisateur a explicitement remplacé la même valeur d'option dans une instance.
Informations associées
Création d'une configuration de transformation [page 184]
Ajout d'un champ défini par l'utilisateur [page 186]
9.3.1 Création d'une configuration de transformation
Vous pouvez créer des champs d'entrée et de sortie préconfigurés de meilleures pratiques ainsi que des options que vous souhaitez utiliser dans plusieurs flux de données.
1. Dans l'onglet
Transformations
de la
Bibliothèque d'objets locale
, cliquez avec le bouton droit sur une transformation et sélectionnez
Nouvelle
afin de créer une configuration de transformation ou cliquez avec le bouton droit sur une configuration de transformation existante et sélectionnez
Répliquer
.
184
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
Si les options Nouvelle ou Répliquer ne sont pas disponibles dans le menu, le type de transformation sélectionné ne peut pas comporter de configurations de transformation.
La fenêtre
Editeur de configuration de la transformation
s'ouvre.
2. Dans la zone
Nom de configuration de la transformation
, saisissez le nom de la configuration de transformation.
3. Dans l'onglet
Options
, définissez les valeurs d'option pour déterminer la manière dont la transformation traitera vos données. Les options disponibles dépendent du type de transformation pour laquelle vous créez une configuration.
Pour les transformations Associate, Match et User-Defined, les options ne sont pas modifiables dans l'onglet
Options. Vous devez définir les options dans les éditeurs Associate, Match ou User-Defined auxquels vous pouvez accéder en cliquant sur le bouton
Modifier les options
.
Si vous modifiez la valeur par défaut d'une option, un triangle vert s'affiche près du nom de l'option pour indiquer qu'un remplacement a été effectué.
4. Pour désigner une option comme "meilleure pratique", cochez la case
Meilleure pratique
située près de la valeur de l'option. La désignation d'une option comme meilleure pratique indique aux autres utilisateurs qui emploient la configuration de transformation les options habituellement définies pour ce type de transformation.
Utilisez le filtre pour afficher toutes les options ou simplement les options qui sont désignées comme meilleure pratique.
5. Cliquez sur le bouton
Vérifier
pour contrôler si les valeurs d'option sélectionnées sont valides.
S'il existe des erreurs, elles sont affichées en bas de la fenêtre.
6. Dans l'onglet
Meilleures pratiques d'entrée
, sélectionnez les champs d'entrée que vous désirez désigner comme meilleure pratique pour la configuration de transformation.
Les configurations de transformation fournies avec SAP BusinessObjects Data Services n'indiquent pas les champs d'entrée meilleure pratique, il n'apparaît donc pas qu'un schéma d'entrée est préféré à d'autres. Par exemple, vous pouvez mapper les champs de votre flux de données qui contiennent des données d'adresses si celles-ci se trouvent dans des champs discrets, des champs multilignes ou une combinaison de champs discrets et multilignes.
Ces champs d'entrée seront les seuls affichés si le filtre Meilleure pratique est sélectionné dans l'onglet
Entrée de l'éditeur de transformation lorsque la configuration de la transformation est utilisée dans un flux de données.
7. Pour les configurations de transformation Associate, Match et User-Defined, vous pouvez créer des champs d'entrée définis par l'utilisateur. Cliquez sur le bouton
Créer
et saisissez le nom du champ d'entrée.
8. Dans l'onglet
Meilleures pratiques de sortie
, sélectionnez les champs de sortie que vous désirez désigner comme meilleure pratique pour la configuration de transformation.
Ces champs de sortie seront les seuls affichés si le filtre Meilleure pratique est sélectionné dans l'onglet Sortie de l'éditeur de transformation lorsque la configuration de la transformation est utilisée dans un flux de données.
9. Cliquez sur
OK
pour enregistrer la configuration de transformation.
La configuration de transformation est affichée dans la
Bibliothèque d'objets locale
sous la transformation de base du même type.
Vous pouvez désormais utiliser la configuration de transformation dans les flux de données.
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
185
9.3.2 Ajout d'un champ défini par l'utilisateur
Pour certaines transformations comme les transformations Associate, Match et User-Defined, vous pouvez créer des champs d'entrée définis par l'utilisateur plutôt que des champs reconnus par la transformation.
Ces transformations utilisent des champs définis par l'utilisateur parce qu'elles ne comportent pas de set prédéfini de champs d'entrée.
Vous pouvez ajouter un champ défini par l'utilisateur à une seule instance d'une transformation dans un flux de données ou à une configuration de transformation afin qu'il puisse être utilisé dans toutes les instances.
Dans la transformation User-Defined, vous pouvez également ajouter des champs de sortie définis par l'utilisateur.
1. Dans l'onglet
Transformations
de la
bibliothèque d'objets locale
cliquez avec le bouton droit sur une configuration de transformation Associate, Match ou User-Defined existante et sélectionnez
Modifier
.
La fenêtre
Editeur de configuration de la transformation
s'ouvre.
2. Dans l'onglet
Meilleures pratiques d'entrée
, cliquez sur le bouton
Créer
et saisissez le nom du champ d'entrée.
3. Cliquez sur
OK
pour enregistrer la configuration de transformation.
Lorsque vous créez un champ défini par l'utilisateur dans la configuration de transformation, il est affiché comme champ disponible dans chaque instance de la transformation utilisée dans un flux de données. Vous pouvez
également créer des champs définis par l'utilisateur dans chaque instance de transformation.
Informations associées
Editeurs de transformation Qualité des données [page 191]
9.4 La transformation Query
Extrait un jeu de données qui satisfait les conditions que vous avez indiquées. Cette transformation est semblable
à une instruction SQL SELECT.
La transformation Query est la transformation la plus utilisée.
La transformation Query peut effectuer les opérations suivantes :
● Sélectionner (filtrer) les données à extraire à partir des sources
● Relier les données à partir de plusieurs sources
● Mapper les colonnes du schéma d'entrée vers le schéma de sortie
● Effectuer des transformations et des fonctions sur les données
● Effectuer des imbrications et des désimbrications de données
● Ajouter de nouvelles colonnes, des schémas imbriqués et des résultats de fonctions au schéma de sortie
● Affecter des clés primaires aux colonnes de sortie
186
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
Informations associées
9.4.1 Ajout d'une transformation Query à un flux de données
Utilisez l'icône de la transformation Query pour ajouter une transformation Query à un flux de données.
1. Cliquez sur l'icône Query dans la palette d'outils.
2. Cliquez n'importe où dans l'espace de travail du flux de données.
3. Connectez la Query aux entrées et sorties.
Remarque
○ Les entrées pour une Query peuvent inclure la sortie d'une autre transformation ou la sortie d'une source.
○ Les sorties d'une Query peuvent inclure une entrée dans une autre transformation ou une entrée dans une cible.
○ Vous pouvez modifier le type de contenu des colonnes de vos données en sélectionnant un type différent dans la liste des types de contenu de sortie.
○ Si vous connectez une table cible à une Query avec un schéma de sortie vide, le logiciel remplit automatiquement le schéma de sortie de la Query avec les colonnes de la table cible, sans aucun mappage.
9.4.2 Editeur Query
L'éditeur Query est une interface graphique qui permet d'effectuer des opérations de requête.
Il contient les zones suivantes : zone
schéma d'entrée
(en haut à gauche), zone
schéma de sortie
(en haut à droite), et une zone
paramètres
(zone à onglets en bas). L'icône indique que l'onglet contient des entrées définies par l'utilisateur ou qu'il existe au moins une paire de jointures (onglet FROM uniquement).
Les zones de schéma d'entrée et de sortie peuvent contenir : des colonnes, des schémas imbriqués et des fonctions (uniquement de sortie).
Les listes
Entrée de schéma
et
Sortie de schéma
affichent les schémas actuellement sélectionnés dans chaque zone. Le schéma de sortie actuellement sélectionné est appelé schéma actuel et détermine les éléments suivants :
● Les éléments de sortie qui peuvent être modifiés (ajoutés, mappés ou supprimés)
● Le périmètre des onglets
Sélectionner
jusqu'à
Organiser par
dans la zone de paramètres
Le schéma actuel est mis en surbrillance tandis que tous les autres (non actuels) schémas de sortie sont en gris.
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
187
9.4.2.1 Modification du schéma de sortie actuel
Vous pouvez faire d'un schéma, une colonne ou des fonctions "un élément actuel" dans la zone du schéma de sortie.
Vous pouvez réaliser les tâches suivantes :
● Sélectionnez un schéma de la liste Sortie de manière à ce qu'il soit mis en surbrillance.
● Faites un clic droit sur un schéma, une colonne ou une fonction dans la zone Schéma de sortie et sélectionnez
En faire l'élément actuel
.
● Double-cliquez sur l'un des éléments non actuels (grisés) dans la zone Schéma de sortie.
9.4.2.2 Modification du contenu du schéma de sortie
La zone Schéma de sortie affiche les champs sortis par la transformation et qui deviennent les champs d'entrée de la transformation en aval dans le flux de données.
Il est possible de modifier le schéma de sortie en suivant plusieurs méthodes :
● Glissez-déposez (ou copiez-collez) les colonnes ou les schémas imbriqués de la zone de schéma d'entrée vers la zone de schéma de sortie pour créer des mappages simples.
● Utilisez les options du menu clic droit sur les éléments de sorties pour :
○ Ajouter de nouvelles colonnes et nouveaux schémas de sortie.
○ Utiliser des appels de fonction pour générer des nouvelles colonnes de sortie.
○ Affecter ou inverser les paramètres de la clé primaire sur les colonnes de sortie. Les colonnes de clé primaire sont marquées par une icône clé.
○ Désimbriquer ou réimbriquer les schémas.
● Utilisez l'onglet
Mappage
pour proposer des mappages de colonnes complexes. Glissez-déposez les schémas et les colonnes d'entrées dans le schéma de sortie pour activer l'éditeur. Utilisez l'assistant de fonctions et l'éditeur rapide pour construire des expressions. Lorsque l'éditeur de texte est activé, il est possible d'accéder
à ces fonctionnalités à l'aide des boutons situés au-dessus de l'éditeur.
● Utilisez les onglets de
Sélectionner
jusqu'à
Organiser par
pour apporter des paramètres supplémentaires pour le schéma actuel (similaire aux clauses d'instructions SQL SELECT). Il est possible de glisser-déposer les schémas et les colonnes dans ces zones.
Table 68 :
Nom de l'on glet
Description
Sélectionner Indique s'il faut sortir uniquement les lignes d'éléments uniques (sans prendre en compte les lignes identiques doublon).
De Liste tous les schémas d'entrée. Il permet d'indiquer les paires de jointure et les conditions de jointure, ainsi que de saisir le classement de jointure et le cache pour chaque schéma d'entrée. La clause SQL
FROM obtenue est affichée.
188
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
Nom de l'on glet
Où
Description
Indique les conditions qui déterminent quelles lignes sont des sorties.
Saisissez les conditions dans la syntaxe SQL, comme une clause WHERE dans une instruction SQL SE
LECT. Exemple :
<TABLE1.N° EMP.> = <TABLE2.N° EMP.> AND
<TABLE1.N° EMP.> > 1000 OR
<TABLE2.N° EMP.> < 9000
Utilisez les boutons
Fonctions
,
Domaines
et
Editeur rapide
pour aider à construire des expressions.
Regrouper par Indique la manière dont les lignes de sortie sont regroupées (le cas échéant).
Organiser par Indique la manière dont les lignes de sortie sont séquencées (le cas échéant).
● Utilisez l'onglet
Rechercher
pour localiser les éléments de sortie et d'entrée contenant un mot ou un terme spécifique.
9.5 Transformations Data Quality
Les transformations Qualité des données sont un ensemble de transformations qui aident à améliorer la qualité des données.
Elles peuvent analyser, standardiser, corriger et ajouter des informations à vos données clients et opérationnelles.
Les transformations Qualité des données comprennent :
● Associate
● Country ID
● Data Cleanse
● DSF2 Walk Sequencer
● Global Address Cleanse
● Global Suggestion Lists
● Match
● USA Regulatory Address Cleanse
● User-Defined
9.5.1 Ajout d'une transformation Data Quality à un flux de données
Les transformations Qualité des données ne peuvent pas être directement connectées à une transformation en amont qui contient ou génère des tables imbriquées. C'est commun dans les flux de données en temps réel, en particulier ceux qui effectuent une comparaison. Pour connecter ces transformations, il faut insérer une
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
189
transformation Query ou une transformation Pipeline XML entre la transformation comportant la table imbriquée et la transformation Data Quality.
1. Ouvrez un objet de flux de données.
2. Ouvrez la bibliothèque d'objets si ce n'est pas déjà fait.
3. Accédez à l'onglet
Transformations
.
4. Développez le dossier de transformations Qualité des données et sélectionnez la transformation ou la configuration de transformation à ajouter au flux de données.
5. Faites glisser l'icône de transformation ou de configuration de transformation dans l'espace de travail du flux de données. Si vous avez sélectionné une transformation qui possède plusieurs configurations de transformation disponibles, un menu déroulant vous invite à sélectionner une configuration de transformation.
6. Dessinez les connexions du flux de données.
Pour connecter une source ou une transformation à une autre transformation, cliquez sur le carré situé sur le bord droit de la source ou de la transformation en amont et faites glisser le curseur vers la flèche placée sur le bord gauche de la transformation Qualité des données.
○ L'entrée pour la transformation peut être la sortie depuis une autre transformation, ou la sortie depuis une source ; ou bien la transformation peut ne pas exiger des données sources.
○ Vous pouvez connecter la sortie de la transformation à l'entrée d'une autre transformation ou cible.
7. Double-cliquez sur le nom de la transformation.
Cette opération ouvre l'éditeur de transformation, ce qui permet de terminer la définition de la transformation.
8. Dans le schéma d'entrée, sélectionnez les champs d'entrée que vous désirez mapper et faites-les glisser vers le champ approprié de l'onglet
Entrée
.
Cette action mappe le champ d'entrée à un nom de champ qui est reconnu par la transformation afin que celle-ci sache comment la traiter correctement. Par exemple, un champ d'entrée nommé "Organisation" serait mappé au champ Société. Lorsque les types de contenu de l'entrée sont définis, ces colonnes sont automatiquement mappées aux champs d'entrée appropriés. Vous pouvez modifier le type de contenu des colonnes de vos données en sélectionnant un type différent dans la liste des types de contenu de sortie.
9. Pour les transformations Associate, Match et User-Defined, vous pouvez ajouter des champs définis par l'utilisateur dans l'onglet
Entrée
. Vous pouvez procéder de deux manières différentes :
○ Cliquez sur la première ligne vide en bas de la table et appuyez sur la touche F2 de votre clavier. Saisissez le nom du champ. Sélectionnez le champ d'entrée approprié dans la zone déroulante pour mapper le champ.
○ Faites glisser le champ d'entrée approprié vers la première ligne vide en bas de la table.
Pour renommer le champ défini par l'utilisateur, cliquez sur le nom, appuyez sur la touche F2 du clavier et saisissez le nouveau nom.
10. Dans l'onglet
Options
, sélectionnez les valeurs de l'option appropriée pour déterminer la manière dont la transformation traitera vos données.
○ Mappez vos champs d'entrée avant de définir les valeurs d'option, parce que dans certaines transformations, les options disponibles et les valeurs d'option dépendent des champs d'entrée mappés.
○ Pour les transformations Associate, Match et User-Defined, les options ne sont pas modifiables dans l'onglet Options. Vous devez définir les options dans les éditeurs Associate, Match et User-Defined . Vous pouvez accéder à ces éditeurs en cliquant sur le bouton Modifier les options de l'onglet Options ou en cliquant avec le bouton droit sur la transformation dans le flux de données.
190
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
Si vous modifiez la valeur par défaut d'une option, un triangle vert s'affiche près du nom de l'option pour indiquer qu'un remplacement a été effectué.
11. Dans l'onglet
Sortie
, double-cliquez sur les champs que vous désirez sortir de la transformation. Les transformations Qualité des données peuvent générer des champs en plus des champs d'entrée que traite la transformation, vous pouvez donc sortir plusieurs champs.
Vérifiez que vous avez défini les options avant de mapper les champs de sortie.
Les champs sélectionnés apparaissent dans le schéma de sortie. Le schéma de sortie de cette transformation devient le schéma d'entrée de la prochaine transformation dans le flux de données.
12. Si vous désirez transmettre des données via la transformation sans les traiter, faites glisser directement les champs du schéma d'entrée vers le schéma de sortie.
13. Pour renommer ou redimensionner un champ de sortie, double-cliquez dessus et modifiez les propriétés dans la fenêtre
Propriétés des colonnes
.
Informations associées
Editeurs de transformation Qualité des données [page 191]
9.5.2 Editeurs de transformation Qualité des données
Les éditeurs Data Quality offrent des interfaces graphiques permettant de configurer les champs et les options d'entrée et de sortie.
Les interfaces utilisateur contiennent les zones suivantes : schéma d'entrée (en haut à gauche), schéma de sortie
(en haut à droite) et paramètres (zone inférieure à onglets).
La zone des paramètres comporte trois onglets : Entrée, Options et Sortie. Généralement, la meilleure pratique consiste à remplir les onglets dans cet ordre parce que les paramètres disponibles dans un onglet peuvent dépendre de ceux sélectionnés dans l'onglet précédent.
Zone Schéma d'entrée
La zone Schéma d'entrée affiche les champs d'entrée qui sont sortis par la transformation en amont dans le flux de données.
Zone Schéma de sortie
La zone Schéma de sortie affiche les champs sortis par la transformation et qui deviennent les champs d'entrée de la transformation en aval dans le flux de données.
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
191
Onglet Entrée
L'onglet Entrée affiche les noms des champs disponibles reconnus par la transformation. Mappez ces champs aux champs d'entrée de la zone Schéma d'entrée. Le mappage des champs d'entrée aux noms des champs reconnus par la transformation indique à celle-ci comment traiter ces champs.
Onglet Options
L'onglet Options contient les règles de gestion qui déterminent la manière dont la transformation traite les données. Chaque transformation comporte un ensemble d'options disponibles différent. Si vous modifiez la valeur par défaut d'une option, un triangle vert s'affiche près du nom de l'option pour indiquer qu'un remplacement a été effectué.
Dans les transformations Associate, Match et User-Defined, vous ne pouvez pas modifier les options directement dans l'onglet Options. Vous devez plutôt utiliser les éditeurs Associate, Match et User-Defined, accessibles via le bouton Modifier les options.
Onglet Sortie
L'onglet Sortie affiche les noms des champs pouvant être sortis par la transformation. Les transformations Data
Quality peuvent générer des champs en plus des champs d'entrée que traite la transformation, vous pouvez donc sortir de nombreux champs. Ces champs de sortie mappés sont affichés dans la zone Schéma de sortie.
Filtre et tri
Les onglets Entrée, Options et Sortie contiennent chacun des filtres qui déterminent les champs à afficher dans les onglets.
Table 69 :
Filtre Description
Meilleure pratique
En cours d'utilisation
Affiche les champs ou les options ayant été désignés comme meilleure pratique pour ce type de transformation. Ce ne sont toutefois que des propositions, elles peuvent ne pas répondre
à vos besoins de traitement ou de sortie des données.
Les configurations de transformation fournies avec le progi ciel n'indiquent pas de champs d'entrée meilleure pratique.
Affiche les champs ayant été mappés à un champ d'entrée ou de sortie.
192
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
Filtre
Tout
Description
Affiche tous les champs disponibles.
L'onglet Sortie comporte des fonctionnalités supplémentaires de filtrage et de tri, accessibles en cliquant sur les en-têtes des colonnes. Vous pouvez filtrer chaque colonne de données pour afficher une ou plusieurs valeurs et
également trier les champs dans l'ordre croissant ou décroissant. Les icônes dans l'en-tête de colonne indiquent si un filtre ou un tri est appliqué à la colonne. Comme il est possible d'appliquer les filtres et les tris sur plusieurs colonnes, l'opération se fait de gauche à droite. Le menu Filtre et tri n'est pas disponible s'il n'existe qu'un type d'élément dans la colonne.
Aide intégrée
L'aide intégrée sert à rechercher des informations supplémentaires sur les transformations et les options de SAP
BusinessObjects Data Services. La rubrique change pour fournir une aide sur le contexte dans lequel vous
évoluez.
Vous pouvez également accéder aux autres rubriques à l'aide des liens hypertexte figurant dans la rubrique ouverte.
Editeurs des transformations Associate, Match et User-Defined
Pour afficher les informations des options des transformations Associate, Match et User-Defined, il faut ouvrir leurs éditeurs respectifs en sélectionnant la transformation dans le flux de données, puis sélectionner
Outils
<transformation>
Éditeur
Remarque
Vous ne pouvez pas accéder aux options de l'éditeur Match lors de la vérification des flux de données créés dans l'Assistant de nettoyage Information Steward. Les options de la transformation Match ne peuvent pas
être modifiées; les contrôles d'accès à l'éditeur Match sont donc inactifs.
Informations associées
Editeurs des transformations Associate, Match et User-Defined [page 194]
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
193
9.5.2.1 Editeurs des transformations Associate, Match et
User-Defined
Les transformations Associate, Match et User-Defined comportent chacune leur propre éditeur dans lequel vous pouvez ajouter des groupes d'options et modifier les options.
Les éditeurs de ces trois transformations ont une apparence et des fonctions similaires, dans certains cas, ils partagent les mêmes groupes d'options.
La fenêtre de l'éditeur est partagée en quatre zones :
1.
Explorateur d'options
— Dans cette zone, vous sélectionnez les groupes d'options ou les opérations disponibles pour la transformation. Pour afficher un groupe d'options masqué, cliquez avec le bouton droit sur le groupe d'options auquel il appartient et sélectionnez son nom dans le menu.
2.
Editeur d'options
— Dans cette zone, vous indiquez la valeur de l'option.
3.
Boutons
— Utilisez-les pour ajouter, supprimer et ordonner les groupes d'options.
4.
Aide intégrée
— L'aide intégrée affiche des informations supplémentaires sur l'utilisation de l'écran actif de l'éditeur.
194
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
9.5.2.2 Editeur d'options classées
Certaines transformations permettent de sélectionner et d'indiquer l'ordre de plusieurs valeurs pour une seule option.
L'option de séquence d'analyse de la transformation Data Cleanse constitue un exemple.
Pour configurer une option classée :
1. Cliquez sur les boutons de commande
Ajouter
et
Supprimer
pour supprimer des valeurs d'option entre des listes de valeurs Disponible et Sélectionné.
Remarque
Supprimer toutes les valeurs.
Pour supprimer la liste des valeurs Sélectionné et déplacer toutes les valeurs d'option à la liste de valeurs Disponible, cliquez sur
Tout supprimer
.
2. Sélectionnez une valeur dans la liste de valeurs Disponible et cliquez sur les boutons de commande Flèche vers le haut et le bas pour modifier la position de la valeur dans la liste.
3. Cliquez sur
OK
pour sauvegarder les modifications apportées à la configuration de l'option. Les valeurs sont répertoriées dans Designer et séparées par des caractères tiret vertical (|).
9.6 Transformations Text Data Processing
Les transformations Text Data Processing permettent d'extraire des informations spécifiques du texte.
Elles peuvent analyser d'importants volumes de texte, identifier et extraire des entités et des faits, par exemple, des clients, des produits, des emplacements et des informations financières pertinentes pour votre organisation.
Les sections suivantes présentent cette fonctionnalité et la transformation Entity Extraction.
9.6.1 Présentation de Text Data Processing
Text Data Processing peut identifier automatiquement la langue du texte d'entrée et sélectionner les dictionnaires propres à cette langue ainsi que les règles d'analyse pour extraire des entités, notamment les personnes, les dates, les lieux, les organisations etc. et les extrait en plusieurs langues.
Il recherche également des modèles, des activités, des événements et des relations parmi des entités et active leur extraction. L'extraction de telles informations à partir du texte, indique le sujet du texte, ces informations peuvent être utilisées dans des applications pour la gestion de l'information, l'intégration de données et la qualité des données ; Business Intelligence ; requête, analyse et reporting ; recherche, navigation, gestion des documents et de contenu parmi d'autres scénarios d'utilisation.
Text Data Processing va au-delà des outils conventionnels de correspondance de caractère pour la récupération des informations, permettant de rechercher les correspondances exactes pour des chaînes spécifiques. Il comprend la sémantique des mots. Outre la correspondance d'entité, il exécute une fonction complémentaire de découverte de nouvelle entité. Pour personnaliser l'extraction d'entité, le logiciel vous permet d'indiquer votre
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
195
propre liste d'entités dans un dictionnaire personnalisé. Ces dictionnaires vous permettent d'archiver des entités et de gérer des variations de nom. Les noms d'entité connus peuvent être standardisés à l'aide d'un dictionnaire.
Text Data Processing automatise l'extraction des informations clés de sources de texte pour réduire la vérification et le taggage manuels. Ceci permet une réduction des coûts, en facilitant la compréhension des importants insights masqués dans le texte. L'accès aux informations pertinentes à partir d'un texte non structuré peut faciliter la rationalisation et réduire les coûts superflus.
Dans Data Services, Text Data Processing fait référence à un ensemble de transformations qui extrait des informations à partir de données non structurées et crée des données structurées pouvant être utilisées par divers outils de Business Intelligence.
9.6.2 Présentation de la transformation Entity Extraction
Le traitement des données de texte est réalisé dans le logiciel à l'aide de la transformation Entity Extraction.
La transformation Entity Extraction extrait des entités et des faits d'un texte non structuré.
L'extraction implique le traitement et l'analyse de texte, l'identification de langue, la recherche d'entités d'intérêt, leur affectation au type approprié et la présentation de ces métadonnées sous un format standard. Les dictionnaires et les règles vous permettent de personnaliser votre sortie d'extraction pour inclure des entités qui y sont définies. Les applications d'extraction s'adaptent aux besoins de vos informations. Les exemples suivants sont des informations pouvant être extraites à l'aide de cette transformation :
● Co-occurrence et associations de noms de marque, noms de société, personne, volume d'affaires etc.
● Informations concurrentielles sur le marché telles que les activités de concurrent, fusion et événements d'acquisition, communiqués, contact information etc.
● Associations d'une personne, activités ou rôle dans un événement spécifique.
● Informations sur la réclamation client, rapports ou informations relatives au patient, par exemple les effets inverses du médicament.
● Divers modèles alphanumériques, par ex. numéros ID, dates de contrat, profits etc.
9.6.2.1 Entités et faits - présentation
Les entités indiquent des noms de personnes, des lieux et des éléments pouvant être extraits.
Les
Entités
sont définies comme un couple d'un nom et de son type. Le
Type
indique la catégorie principale d'une entité.
Vous trouverez ci-dessous des exemples d'entités :
● Paris est une entité ayant comme nom "Paris" et comme type
LOCALITE
.
● Monsieur Joe Smith est une entité dotée du nom "Monsieur Joe Smith" et du type
PERSONNE
.
Les entités peuvent avoir des sous-types. Un sous-type indique une autre classification d'une entité ; il désigne une spécification hiérarchique d'un type d'entité permettant de distinguer différentes variétés sémantiques du même type d'entité. Un sous-type peut être décrit comme une sous-catégorie d'une entité.
Vous trouverez ci-dessous des exemples d'entités et de sous-types :
196
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
● Boeing 747 est une entité du type
VEHICULE
et a comme sous-type
AIR
.
● Mercedes-Benz SL500 est une entité du type
VEHICULE
et a comme sous-type
TERRAIN
.
● SAP est une entité du type
ORGANISATION
et a comme sous-type
COMMERCIALE
.
Les
Faits
indiquent un modèle qui crée une expression pour extraire des informations telles que les sentiments, les événements ou les relations. Les faits sont extraits à l'aide de règles d'extraction personnalisées. Un fait désigne un terme de protection couvrant des extractions de modèles plus complexes incluant une ou plusieurs entités, une relation entre une ou plusieurs entités ou une sorte de prédicat concernant une entité. Les faits indiquent dans quel contexte différentes entités sont reliées dans le texte. Les entités par elles-mêmes indiquent uniquement qu'elles figurent dans un document mais les faits fournissent des informations sur la façon dont ces entités sont reliées. Les types de faits identifient la catégorie d'un fait ; par exemple, des sentiments et des demandes. Un
sous-fait
désigne des informations clés intégrées dans un fait. Un type de sous-fait peut être décrit comme une catégorie associée au sous-fait.
Vous trouverez ci-dessous quelques exemples de faits et de types de faits :
● SAP a acquis Business Objects dans de bonnes conditions. Il s'agit d'un événement de type fusion et acquisition (
M&A
).
● Monsieur Joe Smith est très préoccupé par ses réservations auprès de la compagnie aérienne. Il s'agit d'un fait de type
SENTIMENT
.
Comment fonctionne l'extraction
Le processus d'extraction utilise sa connaissance inhérente de la sémantique des mots et du contexte linguistique dans lequel ces mots apparaissent pour rechercher des entités et des faits. Il crée des modèles spécifiques pour extraire des entités et des faits en fonction de règles système. Vous pouvez ajouter des entrées dans un dictionnaire et écrire des règles personnalisées pour personnaliser une sortie d'extraction. Le texte d'exemple suivant et la sortie de l'exemple suivante indiquent comment un contenu non structuré peut être transformé en une information structurée pour être traité et analysé ultérieurement.
Exemple
Texte d'exemple et informations relatives à l'extraction
"Monsieur Jones est très ennuyé par rapport à Green Insurance Corp. L'offre relative à son véhicule sinistré n'est pas assez importante. Il déclare que Green lui a proposé 1250 $ mais sa voiture est estimée partout entre
2500 $ et 4500 $. Monsieur Jones souhaiterait que Green s'aligne sur d'autres concurrents."
Cet exemple de texte, lorsqu'il est traité avec la transformation d'extraction, configuré à l'aide des règles personnalisées de sentiment et de demande identifierait et regrouperait les informations de façon logique
(identification d'entités, sous-types, faits, types de faits, sous-faits et types de sous-faits) pouvant être traités ultérieurement.
Les tableaux suivants indiquent des résultats partiels avec des informations marquées comme entités, types d'entités, sous-types, faits, types de faits, sous-faits et types de sous-faits à partir de l'exemple de texte :
Table 70 :
Entités
M. Jones
Type d'entité
PERSONNE
Sous-type
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
197
Entités
Green Insurance
Green
$1250.00
Type d'entité
ORGANISATION
DIV_PROP
DEVISE
Table 71 :
Faits Type de fait
SENTIMENT
M. Jones est très en nuyé par rapport à
Green Insurance Corp.
Jones souhaiterait que
Green s'aligne sur d'au tres concurrents.
DEMANDE
Sous-fait
très ennuyé
Sous-type
COMMERCIALE
Type de sous-fait
SentimentTrèsNégatif
9.6.2.2 Présentation du dictionnaire
Un dictionnaire d'extraction désigne un répertoire d'entités défini par l'utilisateur.
Il s'agit d'un outil de personnalisation facile à utiliser qui indique une liste d'entités que la transformation Entity
Extraction doit toujours extraire lors du traitement d'un texte. Les informations sont classées sous le
format standard
et la
variante
d'une entité. Un formulaire standard peut avoir une ou plusieurs variantes imbriquées ; les variantes sont d'autres noms connus d'une entité. Par exemple,
United Parcel Service of America
est le format standard pour cette société et
United Parcel Service
et
UPS
sont tous deux variantes de la même société.
Alors que chaque format standard doit avoir un type, les variantes peuvent de manière facultative avoir leur propre type. Par exemple, alors que
United Parcel Service of America
est associé à un type de format standard
ORGANISATION
, vous pouvez définir un type de variante
ABREV
pour inclure des abréviations. Une structure du dictionnaire peut permettre de standardiser les références d'une entité.
Vous trouverez de plus amples informations sous «Using Dictionaries» dans le guide Text Data Processing
Extraction Customization Guide.
9.6.2.3 Aperçu de règle
Une règle d'extraction définit des modèles personnalisés pour extraire des entités, des relations, des événements et d'autres extractions plus importantes soumises ensemble en tant que faits.
Vous écrivez des règles d'extraction personnalisées pour exécuter une extraction répondant à vos besoins spécifiques.
Vous trouverez de plus amples informations sous «Utilisation de règles d'extraction» dans le Guide de
personnalisation d'extraction de traitement de données de texte.
198
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
9.6.3 Utilisation de la transformation Entity Extraction
Utilisez la transformation Entity Extraction pour extraire des informations à partir d'un contenu au format texte,
HTML, XML, ou binaire (tel que PDF) et générer une sortie structurée.
Vous pouvez utiliser la sortie de plusieurs façons en fonction de votre workflow. Vous pouvez l'utiliser comme entrée pour une autre transformation ou l'écrire dans plusieurs sources de sortie, par exemple une table de base de données ou un fichier plat. La sortie est générée en codage UTF-16. La liste suivante indique des scénarios sur le moment où utiliser la transformation seule ou associée à d'autres transformations Data Services.
● Recherche d'informations et de relations spécifiques issues d'une quantité importante de texte liée à un domaine générale. Par exemple, une société est intéressée par l'analyse des commentaires client reçus dans un texte en forme libre suite au lancement d'un nouveau produit.
● Relier des informations structurées à partir d'un texte non structuré avec des informations structurées existantes pour effectuer de nouvelles connexions. Par exemple, un service de poursuite pénale essaie d'établir des connexions entre divers crimes et des personnes impliquées à l'aide de sa propre base de données et des informations disponibles dans divers rapports au format texte.
● Analyse et rapport relatif aux problèmes de qualité d'un produit, par exemple des réparations trop élevées et des retours de certains produits. Par exemple, vous pouvez disposer d'informations structurées sur des produits, des pièces, des clients et des fournisseurs dans une base de données, alors que des informations importantes relatives aux problèmes peuvent se présenter sous forme de notes : champs d'enregistrements de maintenance, journaux de réparation, escalades produit et journaux de centre de support. Pour identifier les problèmes, vous devez établir des connexions entre diverses formes de données.
9.6.4 Différences entre traitement des données de texte et transformations Data Cleanse
La transformation Entity Extraction propose une fonctionnalité similaire à la transformation Data Cleanse dans certains cas, notamment concernant les fonctions de personnalisation.
La documentation décrit les différences entre les deux transformations et celle qui doit être utilisée conformément à vos objectifs. La transformation Text Data Processing et la transformation Entity Extraction sont logiques pour un contenu non structuré et la transformation Data Cleanse permet de standardiser et de nettoyer des données structurées. Le tableau suivant décrit certaines des principales différences. Dans de nombreux cas, l'utilisation d'une combinaison transformations Entity Extraction/Data Cleanse génèrera les données les mieux adaptées à vos analyses et rapports Business Intelligence.
Table 72 :
Critères
Type d'entrée
Taille d'entrée
Périmètre d'en trée
Text Data Processing Data Cleanse
Texte non structuré nécessitant une ana lyse linguistique pour générer des informa tions pertinentes.
Supérieure à 5 Ko du texte.
Données structurées représentées comme champs d'enregis trements.
Inférieure à 5 Ko du texte.
Normalement domaine général avec varia tions.
Domaine de données spécifique avec variations limitées.
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
199
Critères
Tâche corres pondante
Utilisation po tentielle
Sortie
Text Data Processing
Découverte de contenu, réduction bruit, correspondance de modèle et relation en tre différentes entités.
Data Cleanse
Recherche dans le dictionnaire, reconnaissance des dépen dances.
Identifie les informations potentiellement significatives à partir d'un contenu non structuré et les extrait sous un format pou vant être archivé dans un référentiel.
Garantit la qualité des données pour la correspondance et l'ar chivage dans un référentiel tel que Meta Data Management.
Crée des annotations sur le texte source sous forme d'entités, de types d'entités, de faits et leur décalage, longueur etc. L'en trée n'est pas modifiée.
Crée des champs analysés et standardisés. L'entrée est modi fiée si nécessaire.
9.6.5 Utilisation de plusieurs transformations
Incluez plusieurs transformations dans le même flux de données pour effectuer diverses analyses sur des informations non structurées.
Par exemple, pour extraire des noms et des adresses imbriqués dans un texte et valider les informations avant l'exécution de l'analyse sur les informations extraites, vous pourriez effectuer les opérations suivantes :
● Utiliser la transformation Extraction d'entité pour traiter un texte contenant des noms et des adresses et extraire différentes entités.
● Transférer la sortie d'extraction à la transformation Case pour identifier les lignes représentant des noms et les lignes représentant des adresses
● Utiliser la transformation Data Cleanse pour standardiser les noms extraits et utiliser la transformation Global
Address Cleanse pour valider et corriger les données d'adresse extraites.
Remarque
Pour générer les bonnes données, incluez les champs standard_form et type dans le schéma de sortie de la transformation Entity Extraction, mappez le champ type dans la transformation Case en fonction du type d'entité tel que PERSON, ADDRESS1, etc. Ensuite, mappez toutes les entités PERSON de la transformation Case vers la transformation Data Cleanse et mappez les entités ADDRESS1 vers la transformation Global Address
Cleanse.
9.6.6 Exemples d'utilisation de transformation Entity
Extraction
Cette section décrit des exemples d'utilisation de la transformation Entity Extraction.
Le scénario est le suivant : un service de ressources humaines souhaite analyser des CV reçus sous divers formats. Les formats sont les suivants :
● Un fichier texte en tant que pièce jointe à un e-mail
200
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
● Un CV texte collé dans un champ sur le site Web de la société
● Mises à jour de contenu de CV que le service souhaite traiter en temps réel
Exemple
Pièce jointe d'e-mail de fichier texte
Le service des ressources humaines reçoit fréquemment des CV comme pièces jointes aux e-mails de la part de candidats. Il archive ces pièces jointes dans un répertoire distinct sur un serveur.
Pour analyser et traiter des données à partir de ces fichiers texte :
1. Configurez un format de fichier
Texte non structuré
indiquant le répertoire des CV.
2. Créez un flux de données avec le format de fichier texte non structuré comme source, une transformation
Entity Extraction et une cible.
3. Configurez la transformation à traiter et analysez le texte.
Exemple
Le CV texte collé dans un champ sur un site Web
Le formulaire de candidature en ligne du service des ressources humaines comprend un champ où les candidats peuvent coller leurs CV. Ce champ est capturé dans une colonne de table de base de données.
Pour analyser et traiter les données de la base de données :
1. Configurez une connexion à la base de données via une banque de données.
2. Créez un flux de données avec la table de base de données comme source, une transformation Entity
Extraction et une cible.
3. Configurez la transformation à traiter et analysez le texte.
Exemple
Contenu mis à jour à traiter en temps réel
Supposez que le service des ressources humaines recherche une compétence spécifique chez une candidate.
Lorsque la candidate met à jour son CV sur le formulaire Web de la société avec la compétence requise, le responsable RH souhaite immédiatement en être informé. Utilisez un job en temps réel pour activer cette fonctionnalité.
Pour analyser et traiter les données en temps réel :
1. Ajoutez un job en temps réel incluant des marqueurs de début et de fin et un flux de données. Connectez les objets.
2. Créez le flux de données avec une source de message, une transformation Entity Extraction et une cible de message.
3. Configurez la transformation à traiter et analysez le texte.
Informations associées
Formats de fichier non structurés [page 140]
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
201
Banques de données de bases de données [page 65]
9.6.7 Ajout d'une transformation de traitement des données de texte à un flux de données
L'ajout d'informations aux flux de données vous permet d'extraire des informations (entités et faits) d'un contenu au format de type texte, HTML, XML ou binaire (par exemple, PDF).
1. Ouvrez un objet de flux de données.
2. Ouvrez la bibliothèque d'objets locale si ce n'est pas déjà fait.
3. Accédez à l'onglet
Transformations
.
4. Développez le dossier de transformations
Traitement des données de texte
et sélectionnez la transformation ou la configuration de transformation à ajouter au flux de données.
5. Faites glisser l'icône de transformation ou de configuration de transformation dans l'espace de travail du flux de données. Si vous avez sélectionné une transformation qui possède plusieurs configurations de transformation disponibles, un menu déroulant vous invite à sélectionner une configuration de transformation.
6. Dessinez les connexions du flux de données.
Pour connecter une source ou une transformation à une autre transformation, cliquez sur le carré situé sur le bord droit de la source ou de la transformation en amont et faites glisser le curseur vers la flèche placée sur le bord gauche de la transformation de traitement des données de texte.
○ L'entrée pour la transformation peut être la sortie d'une autre transformation ou d'une source.
○ Vous pouvez connecter la sortie de la transformation à l'entrée d'une autre transformation ou cible.
7. Double-cliquez sur le nom de la transformation.
Cette opération ouvre l'éditeur de transformation, ce qui permet de terminer la définition de la transformation.
8. Dans le schéma d'entrée, sélectionnez le champ d'entrée que vous désirez mapper et faites-le glisser vers le champ approprié de l'onglet
Entrée
.
Cette action mappe le champ d'entrée à un nom de champ qui est reconnu par la transformation afin que celle-ci sache comment la traiter correctement. Par exemple,
○ un champ d'entrée nommé
Contenu
sera mappé au champ d'entrée
TEXT
.
○ un champ d'entrée qui peut identifier de manière unique le contenu sera mappé au champ d'entrée
TEXT_ID
.
9. Dans l'onglet
Options
, sélectionnez les valeurs de l'option appropriée pour déterminer la manière dont la transformation traitera vos données.
Mappez les champs d'entrée avant de définir les valeurs des options.
Si vous modifiez la valeur par défaut d'une option, un triangle vert s'affiche près du nom de l'option pour indiquer qu'un remplacement a été effectué.
10. Dans l'onglet
Sortie
, double-cliquez sur les champs que vous désirez sortir de la transformation. Les transformations peuvent générer des champs en plus des champs d'entrée que traite la transformation, vous pouvez donc sortir plusieurs champs.
Vérifiez que vous avez défini les options avant de mapper les champs de sortie.
202
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
Les champs sélectionnés apparaissent dans le schéma de sortie. Le schéma de sortie de cette transformation devient le schéma d'entrée de la prochaine transformation dans le flux de données.
11. Si vous désirez transmettre des données via la transformation sans les traiter, faites glisser directement les champs du schéma d'entrée vers le schéma de sortie.
12. Pour renommer ou redimensionner un champ de sortie, double-cliquez dessus et modifiez les propriétés dans la fenêtre
Propriétés des colonnes
.
Informations associées
Editeur de transformation Entity Extraction [page 203]
9.6.8 Editeur de transformation Entity Extraction
Les options de transformation
Entity Extraction
indiquent divers paramètres de traitement de contenu à l'aide de la transformation.
Les options de filtrage parmi différentes options d'extraction permettent de limiter les entités et les fais extraits, à des entités spécifiques à partir d'un dictionnaire, de fichiers système, d'entités/de faits issus de règles ou une combinaison de ces éléments.
Les options d'extraction sont divisées en catégories qui sont les suivantes :
●
Commun
Cette option est définie pour indiquer que la transformation Entity Extraction doit être exécutée comme un processus séparé.
●
Langues
Utilisez cette option pour indiquer la langue du processus d'extraction.
○
Langue
: La valeur par défaut est "Automatique", indiquant à la transformation de tenter d'identifier la langue. Vous pouvez sélectionner une autre langue dans une liste.
○
Langue par défaut
: Vous pouvez sélectionner la langue applicable si la transformation n'a pas pu identifier celle-ci.
○
Filtrer par types d'entité
est facultatif ; vous pouvez sélectionner cette option lorsque vous sélectionnez la langue pour limiter le résultat de l'extraction.
●
Options de traitement
Utilisez ces options pour indiquer les paramètres à utiliser lors du traitement du contenu.
●
Dictionnaires
Utilisez cette option pour indiquer différents dictionnaires à utiliser pour le traitement du contenu. Pour utiliser l'option de filtrage
Types d'entités
, vous devez indiquer le
Fichier dictionnaire
.
Remarque
Traitement des données de texte comprend le fichier schéma dictionnairedictionnaire d'extraction.xsd. Par défaut, ce fichier est installé dans le dossier LINK_DIR/bin, où LINK_DIR est votre répertoire d'installation Data Services. Reportez-vous à ce schéma pour créer vos propres fichiers dictionnaire.
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
203
●
Règles
Utilisez cette option pour indiquer différents fichiers de règles à utiliser pour traiter le contenu. Pour utiliser l'option de filtrage
Noms de règles
, vous devez indiquer le
Fichier de règles
.
Si vous n'indiquez aucune option de filtrage, la sortie d'extraction contiendra toutes les entités extraites à l'aide des types d'entités définis dans la langue sélectionnée, fichier(s) dictionnaire et nom(s) de règles dans le(s) fichier(s) dictionnaire sélectionné(s).
Remarque
La sélection d'un fichier dictionnaire ou un fichier de règles dans le processus d'extraction est facultative. La sortie d'extraction inclura les entités internes, si elles sont indiquées.
De nombreuses options peuvent être spécifiées par paramètre de substitution.
Vous trouverez de plus amples informations sous «Using Dictionaries» dans le guide Text Data Processing
Extraction Customization Guide.
Informations associées
Spécification schéma XML [page 226]
Tâches dans l'Éditeur de paramètres de substitution [page 309]
9.6.9 Utilisation d'options de filtrage
L'utilisation de ces options permet de limiter les entités extraites à des entités spécifiques d'un dictionnaire, les fichiers système, les entités/faits de règles ou une combinaison de ces éléments.
Les options de filtrage sous différentes options d'extraction contrôlent la sortie générée par la transformation
Entity Extraction.
Par exemple, vous traitez des champs de commentaires client pour une société automobile et vous êtes intéressé par les commentaires liés à un modèle spécifique. L'utilisation des options de filtrage permet de contrôler votre sortie pour extraire des données uniquement liées à ce modèle.
Les options de filtrage sont divisées en trois catégories :
Table 73 :
Option
Filtrer par types d'entité
Filtrer par types d'entité
Groupe d'options
Langues
Dictionnaire
Description
Limite la sortie d'extraction pour inclure uni quement les entités sélectionnées pour cette langue.
Limite la sortie d'extraction pour inclure uni quement les entités définies dans un diction naire.
204
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
Option
Filtrer par noms de règles
Groupe d'options
Règles
Description
Limite la sortie d'extraction pour inclure uni quement les entités et les faits renvoyés par les règles spécifiques.
Le tableau suivant décrit des informations figurant dans la sortie d'extraction en fonction de la combinaison de ces options :
Table 74 :
Langues Diction naires
Types d'entités
Oui
Types d'entités
Non
Non
Oui
Non
Non
Oui
Oui
Oui
Oui
Non
Oui
Non
Oui
Règles Contenu de sortie d'extraction Remarque
Noms de règle
Non
Non
Non
Oui
Oui
Oui
Oui
Entités (extraites à l'aide des types d'entités) sélectionnées dans le filtre.
Entités (extraites à l'aide des types d'entités) définies dans la langue sélectionnée et types d'entités sélectionnés à partir du filtre des dic tionnaires.
Si plusieurs dictionnaires contenant le même type d'entité sont indiqués, mais que ce type est sélectionné uniquement comme filtre pour l'un de ces dictionnai res, les entités de ce type seront égale ment renvoyées à partir de l'autre diction naire.
Entités (extraites à l'aide des types d'entités) définies dans les filtres pour la langue sélec tionnée et tout dictionnaire indiqué.
Entités (extraites à l'aide des types d'entités) définies dans la langue sélectionnée et tout nom de règle sélectionné dans le filtre à partir de tout fichier de règles indiqué.
Si plusieurs fichiers de règles contenant le même nom de règle sont indiqués mais si ce nom est sélectionné uniquement comme filtre pour l'un de ces fichiers, les entités et les faits de ce type seront égale ment renvoyés à partir de l'autre fichier de règles.
Entités (extraites à l'aide de types d'entités) définies dans la langue sélectionnée, types d'entités sélectionnés à partir du filtre de dic tionnaires et tout nom de règle sélectionné dans le filtre à partir de tout fichier de règles in diqué.
Entités (extraites à l'aide de types d'entités) définies dans les filtres pour la langue sélec tionnée et tout nom de règle sélectionné dans le filtre à partir de tout fichier de règles indiqué.
Entités (extraites à l'aide de types d'entités) définies dans les filtres pour la langue sélec tionnée, types d'entités sélectionnés à partir du filtre de dictionnaires et tout nom de règle sé lectionné dans le filtre à partir de tout fichier de règles indiqué.
Le processus d'extraction filtre la sortie à l'aide de l'union d'entités ou de faits ex traits pour la langue sélectionnée, les dic tionnaires et les fichiers de règles.
Guide de Designer
Transformations
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
205
Si vous modifiez la langue, les dictionnaires ou les règles sélectionné(e)s, tout filtrage associé à cette option sera uniquement réinitialisé en cliquant sur l'option
Filtrer par...
. Vous devez sélectionner de nouveaux choix de filtrage en fonction de la sélection modifiée.
Remarque
Si vous utilisez plusieurs dictionnaires (ou règles) et avez défini des options de filtrage pour certains des dictionnaires sélectionnés (ou règles), le processus d'extraction combine les dictionnaires en interne et la sortie est filtrée à l'aide de l'union des types d'entités sélectionnés pour chaque dictionnaire et des noms de règle sélectionnés pour chaque fichier de règles. La sortie identifiera la source comme un fichier de dictionnaire
(ou règle) et non le nom individuel d'un fichier de dictionnaire (ou règle).
Remarque
Si vous sélectionnez l'option
Dictionnaire uniquement
sous le groupe
Options de traitement
avec un fichier de dictionnaire valide, les types d'entités définis pour la langue ne sont pas inclus dans la sortie d'extraction mais toute entité et tout fait de fichiers de règles extrait(e) est inclus(e).
Informations associées
Editeur de transformation Entity Extraction [page 203]
206
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Transformations
10 Workflows
Un workflow définit le processus de prise de décision pour l'exécution de flux de données.
Par exemple, les éléments d'un workflow peuvent déterminer le chemin d'exécution en fonction d'une valeur définie par un job précédent ou peut indiquer un autre chemin si le chemin principal est incorrect. Finalement, un workflow a pour but de préparer l'exécution de flux de données et de définir l'état du système à la fin de l'exécution des flux de données.
Les jobs sont des workflows spéciaux. Les jobs ont une particularité en ce sens où vous pouvez les exécuter.
Presque toutes les fonctionnalités documentées pour les workflows s'appliquent également aux jobs, à une exception : les jobs n'ont pas de paramètre.
Informations associées
10.1 Etapes d'un workflow
Les étapes de workflow prennent la forme d'icône que vous placez dans l'espace de travail pour créer un diagramme de workflows.
Les objets suivants peuvent être des éléments de workflows :
● Workflows
● Flux de données
● Scripts
● Structures conditionnelles
● Boucles While
● Blocs Try/Catch
Les workflows peuvent appeler d'autres workflows et vous pouvez imbriquer des appels dans n'importe quelle profondeur. Un workflow peut également s'appeler lui-même.
Guide de Designer
Workflows
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
207
Les connexions que vous établissez entre les icônes dans l'espace de travail déterminent l'ordre dans lequel des workflows sont exécutés, sauf si les jobs contenant ces workflows sont exécutés en parallèle.
10.2 Ordre d'exécution dans les workflows
Les étapes d'un workflow sont exécutées dans une séquence de gauche à droite, indiquée par les lignes reliant les
étapes.
Vous trouverez ci-dessous le diagramme d'un workflow appelant trois flux de données :
Notez que Data_Flow1 n'a aucune connexion de la gauche mais est relié de la l'arête droite à l'arête gauche de
Data_Flow2 et que ce Data_Flow2 est relié à Data_Flow3. Un seul thread de contrôle relie les trois étapes.
L'exécution commence par Data_Flow1 et se poursuit à travers les trois flux de données.
Reliez les étapes d'un workflow lorsqu'il existe une dépendance entre les étapes. S'il n'existe aucune dépendance, les étapes ne doivent pas être reliées. Dans ce cas, le logiciel peut exécuter les étapes indépendantes dans le workflow en tant que processus distincts. Dans le workflow suivant, le logiciel exécute les flux de données 1 à 3 en parallèle :
Pour exécuter des workflows plus complexes en parallèle, définissez chaque séquence comme workflow distinct puis appelez chacun des workflows d'un autre workflow comme dans l'exemple suivant :
208
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Workflows
Vous pouvez indiquer qu'un job exécute un workflow spécifique ou un flux de données à la fois. Dans ce cas, le logiciel exécute la première occurrence du workflow ou de flux de données ; le logiciel ignore les occurrences suivantes dans le job. Vous pouvez utiliser cette fonctionnalité pour un développement complexe de jobs avec plusieurs chemins, par exemple des jobs avec des blocs Try/Catch ou des structures conditionnelles et vous souhaitez garantir que le logiciel exécute uniquement un workflow spécifique ou un flux de données à la fois.
10.3 Exemple de workflow
Supposez que vous souhaitiez mettre à jour une table de faits. Vous définissez un flux de données dans lequel la transformation de données actuelle a lieu. Cependant, avant de déplacer des données de la source, vous souhaitez déterminer la dernière date de mise à jour de la table de faits, de telle sorte que seules les lignes ajoutées ou modifiées depuis cette date, soient extraites.
Vous devez écrire un script pour déterminer la dernière date de mise à jour. Vous pouvez alors transférer cette date au flux de données comme paramètre.
En outre, vous voulez vérifier que les connexions de données requises pour créer la table de faits sont actives lorsque les données sont lues à partir de cette dernière. Pour ce faire, dans le logiciel, définissez un bloc Catch/
Try. Si les connexions ne sont pas actives, le catch exécute un script que vous avez écrit, qui envoie automatiquement un e-mail informant un Administrateur du problème.
Les scripts et la détection d'erreur ne peuvent pas être exécutés dans le flux de données. Il existe plutôt des
étapes de processus de prise de décision influençant le flux de données. Ce processus de prise de décision est défini comme workflow, tel que le suivant :
Le logiciel exécute ces étapes dans l'ordre dans lequel vous les avez reliées.
10.4 Création de workflows
Vous pouvez créer des workflows à l'aide de la bibliothèque d'objets ou de la palette d'outils.
Une fois que vous avez créé un workflow, vous pouvez indiquer qu'un seul job exécute le workflow à la fois, sous forme de processus simple ou continu, même si ce dernier apparaît plusieurs fois dans le job.
10.4.1 Créer un workflow à l'aide de la bibliothèque d'objets
1. Ouvrez la bibliothèque d'objets.
Guide de Designer
Workflows
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
209
2. Accédez à l'onglet
Workflows
.
3. Cliquez avec le bouton droit de la souris et sélectionnez
Nouveau
.
4. Faites glisser le workflow dans le diagramme.
5. Ajoutez les flux de données, les workflows, les structures conditionnelles et les scripts dont vous avez besoin.
10.4.2 Créer un workflow à l'aide de la palette d'outils
1. Sélectionnez l'icône Workflow dans la palette d'outils.
2. Cliquez sur l'endroit où vous souhaitez placer le workflow dans le diagramme.
Si plusieurs instances d'un workflow apparaissent dans un job, vous pouvez améliorer la performance de l'exécution en lançant le workflow une seule fois.
10.4.3 Spécifier qu'un job exécute le workflow une seule fois
Lorsque vous spécifiez qu'un workflow doit être exécuté une seule fois, un job ne ré-exécutera jamais ce workflow après qu'il ait terminé avec succès.
Sauf si le flux de données est contenu dans un workflow qui est une unité de restauration qui ré-exécute et qui n'a pas terminé avec succès ailleurs en dehors de l'unité de restauration.
Il est recommandé de ne pas activer l'option
Exécuter une seule fois
pour un workflow, si ce dernier ou un workflow parent est une unité de restauration.
1. Cliquez avec le bouton droit de la souris sur le workflow et sélectionnez
Propriétés
.
La fenêtre Propriétés s'ouvre pour le workflow.
2. Sélectionnez
Régulier
dans la liste déroulante
Type d'exécution
.
3. Cochez la case
Exécuter une seule fois
4. Cliquez sur
OK
.
10.4.4 Qu'est-ce qu'un workflow unique ?
Un workflow unique exécute tous les flux de données subordonnés d'un processus de système d'exploitation.
Si les flux de données sont destinés à être exécutés en parallèle, ils sont exécutés dans différents threads au lieu de différents processus. L'avantage d'un traitement unique est qu'il est possible de partager des ressources telles que des connexions à la base de données entre plusieurs flux de données.
Remarque
Les workflows uniques comportent les limitations suivantes :
● Un workflow unique ne peut pas appeler ou contenir de workflow continu.
210
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Workflows
● Un workflow unique ne peut pas utiliser de flux de données secondaire. C'est pourquoi les options de transformation Data Transfer et "Exécuter en tant que processus séparé" ne sont pas valides. Le logiciel génère une erreur de validation d'exécution.
● Un workflow unique peut être exécuté uniquement par un workflow continu. Un workflow unique ne peut pas appeler d'autre workflow unique.
10.4.4.1 Spécifier qu'un job s'exécute comme workflow unique
1. Cliquez avec le bouton droit de la souris sur un workflow et sélectionnez
Propriétés
.
2. Sélectionnez
Unique
dans la liste déroulante Type d'exécution.
3. Cliquez sur
OK
.
10.4.5 Qu'est-ce qu'un workflow continu ?
Un workflow continu exécute tous les flux de données dans une boucle mais les conserve en mémoire pour l'itération suivante.
Cela libère de la nécessité de répéter certaines étapes courantes d'exécution (telles que la connexion au référentiel, l'analyse/optimisation/compilation ATL, l'ouverture des connexions à la base de données).
Remarque
Les workflows continus comportent les limitations suivantes :
● Un workflow continu ne peut pas appeler ou contenir un autre workflow continu. Si un workflow continu en appelle un autre qui ne se termine jamais, il ne peut jamais redémarrer les processus subordonnés.
● Un workflow continu ne peut pas utiliser de flux de données secondaire. C'est pourquoi les options de transformation Data Transfer et "Exécuter en tant que processus séparé" ne sont pas valides. Le logiciel génère une erreur de validation d'exécution.
● Un workflow unique ou normal ne peut pas appeler ou contenir de workflow continu.
● Un job en temps réel ne peut pas appeler de workflow continu.
● La transformation XML_Map de plateforme ne peut pas être utilisée dans un workflow continu.
● Les transformations Data Integrator, Data_Transfer et XML_Pipeline ne peuvent pas être utilisées dans un workflow continu.
10.4.5.1 Spécifier qu'un job exécute un workflow continu
1. Cliquez avec le bouton droit de la souris sur un workflow et sélectionnez
Propriétés
.
2. Sélectionnez
Continu
dans la liste déroulante Type d'exécution.
3. Accédez à l'onglet
Options continues
.
4. Indiquez quand vous souhaitez que le workflow valide les ressources :
Guide de Designer
Workflows
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
211
○ Pour valider les ressources après un certain nombre d'exécutions, sélectionnez
Après un certain nombre d'exécutions
et saisissez le nombre d'exécutions. La valeur par défaut est 100.
○ Pour valider les ressources après un certain nombre d'heures, cochez la case
Après
, sélectionnez
Nombre d'heures
et saisissez le nombre d'heures.
○ Pour valider les ressources après un certain nombre de jours, cochez la case
Après
, sélectionnez
Nombre de jours
et saisissez le nombre de jours.
○ Pour valider les ressources lorsque le résultat d'une fonction n'est pas égal à zéro, cochez la case
Après
, sélectionnez
Le résultat de la fonction n'est pas égal à zéro
et saisissez la fonction à utiliser.
5. Pour arrêter le workflow lorsque le résultat d'une fonction personnalisée est égal à zéro, sélectionnez
Lorsque le résultat de la fonction est nul
et saisissez la fonction personnalisée à utiliser.
6. Cliquez sur
OK.
10.5 Structures conditionnelles
Les structures conditionnelles sont des objets à utilisation unique utilisés pour implémenter une logique if/then/ else dans un workflow.
Les structures conditionnelles et leurs composants (expressions if, diagrammes then et else) sont incluses dans le périmètre des variables et des paramètres de flux de contrôle parent.
Pour définir une structure conditionnelle, indiquez une condition et deux branches logiques :
Branche conditionnelle Description
If
Expression booléenne qui donne la valeur VRAI ou FAUX Vous pouvez utiliser des fonctions, des variables et des opérateurs standard pour créer l'expression.
Then
Else
Eléments de workflow à exécuter si l'expression
If
donne la valeur VRAIE
(Facultatif) Eléments de workflow à exécuter si l'expression
If
donne la valeur FALSE.
Définissez les branches
Then
et
Else
dans la structure conditionnelle.
Une structure conditionnelle peut être intégrée à un workflow. Supposez que vous utilisiez un fichier de commandes Windows pour transférer des données d'un système hérité dans le logiciel. Vous écrivez un script dans un workflow pour exécuter le fichier de commandes et renvoyer un indicateur correct. Vous définissez ensuite une structure conditionnelle qui lit l'indicateur pour déterminer si les données sont disponibles pour le reste du workflow.
212
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Workflows
Pour implémenter cette structure conditionnelle dans le logiciel, vous définissez deux workflows, un pour chaque branche de la structure conditionnelle. Si les éléments de chaque branche sont simples, vous pouvez les définir dans l'éditeur de structures conditionnelles lui-même.
Les branches
Then
et
Else
de la structure conditionnelle peuvent contenir tout objet susceptible de se trouver dans un workflow, notamment d'autres workflows, des structures conditionnelles imbriquées, des blocs Try/
Catch, etc.
10.5.1 Définir un conditionnel
1. Définissez les workflows appelés par les branches
Then
et
Else
de la structure conditionnelle.
Il est recommandé de définir, tester et sauvegarder chaque workflow comme objet distinct plutôt qu'en créant ces workflows dans l'éditeur de structures conditionnelles.
2. Ouvrez le workflow dans lequel vous souhaitez placer la structure conditionnelle.
3. Cliquez sur l'icône pour une structure conditionnelle dans la palette d'outils.
4. Cliquez sur l'emplacement où vous souhaitez placer la structure conditionnelle dans le diagramme.
La structure conditionnelle apparaît dans le diagramme.
5. Cliquez sur le nom de la structure conditionnelle pour ouvrir l'éditeur de structures conditionnelles.
6. Cliquez sur
if
.
7. Saisissez l'expression booléenne contrôlant la structure conditionnelle.
Poursuivez la création de votre expression. Vous souhaitez peut-être utiliser l'assistant de fonction ou l'éditeur rapide.
8. Une fois l'expression créée, cliquez sur
OK
.
9. Ajoutez le workflow prédéfini dans la case
Then
.
Guide de Designer
Workflows
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
213
Pour ajouter un workflow existant, ouvrez la bibliothèque d'objets dans l'onglet Workflows, sélectionnez le workflow souhaité puis faites-le glisser dans la case Then.
10. (Facultatif) Ajoutez le workflow prédéfini dans la case
Else
.
Si l'expression IF donne la valeur FAUX et la case Else n'est pas cochée, le logiciel quitte la structure conditionnelle et poursuit avec le workflow.
11. Une fois la structure conditionnelle exécutée, sélectionnez
DeboggerValider
.
Le logiciel teste votre structure conditionnelle par rapport aux erreurs de syntaxe et affiche toutes les erreurs rencontrées.
12. La structure conditionnelle est à présent définie. Cliquez sur le bouton
Retour
pour revenir au workflow appelant la structure conditionnelle.
10.6 Boucles While
La boucle WHILE désigne un objet à utilisation unique que vous pouvez utiliser dans un workflow.
Utilisez une boucle WHILE pour répéter une séquence d'étapes dans un workflow tant qu'une condition est vraie.
Généralement, les étapes exécutées au cours de la boucle WHILE se traduisent par une modification de la condition de telle sorte qu'éventuellement, la condition ne soit plus remplie et que le workflow existe à partir de la boucle WHILE. Si la condition n'est pas modifiée, la boucle WHILE n'est pas interrompue.
Par exemple, vous souhaitez peut-être qu'un workflow attende jusqu'à ce que le système écrive un fichier spécifique. Vous pouvez utiliser une boucle WHILE pour vérifier l'existence du fichier à l'aide de la fonction
214
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Workflows
file_exists. Tant que le fichier n'existe pas, vous pouvez exécuter le workflow en mode veille pour une durée spécifique, soit une minute avant que le contrôle ne reprenne.
Comme le système peut ne jamais écrire le fichier, vous devez ajouter un autre contrôle à la boucle, par exemple un compteur, pour garantir que la boucle WHILE existe éventuellement. En d'autres mots, modifiez la boucle
WHILE pour vérifier l'existence du fichier et la valeur du compteur. Dès que le fichier n'existe pas et que la valeur du compteur est inférieure à une valeur spécifique, répétez la boucle WHILE. Dans chaque itération de la boucle, mettez le workflow en mode veille puis augmentez le compteur.
10.6.1 Définition d'une boucle WHILE
Vous pouvez définir une boucle WHILE dans tout workflow.
1. Ouvrez le workflow où vous souhaitez placer la boucle WHILE.
2. Cliquez sur l'icône Boucle WHILE dans la palette d'outils.
3. Cliquez sur l'emplacement où vous souhaitez placer la boucle WHILE dans le diagramme d'espace de travail.
La boucle WHILE s'affiche dans le diagramme.
4. Cliquez sur la boucle WHILE pour ouvrir l'éditeur de boucles WHILE.
5. Dans la case
WHILE
en haut de l'éditeur, saisissez la condition qui doit s'appliquer à l'initialisation et répétez les étapes dans la boucle WHILE.
Vous pouvez également ouvrir l'éditeur d'expressions qui vous permet, en agrandissant l'espace, de saisir une expression et d'accéder à l'assistant de fonction. Cliquez sur
OK
dès que vous avez saisi une expression dans l'éditeur.
6. Ajoutez les étapes que vous voulez exécuter au cours de la boucle WHILE dans l'espace de travail, dans l'éditeur de boucles WHILE.
Guide de Designer
Workflows
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
215
Vous pouvez ajouter tout objet valide dans un workflow incluant des scripts, des workflows et des flux de données. Reliez ces objets pour représenter l'ordre dans lequel vous souhaitez exécuter les étapes.
Remarque
Même si vous pouvez inclure le workflow parent dans la boucle WHILE, des appels récursifs peuvent créer une boucle infinie.
7. Une fois que vous avez défini les étapes dans la boucle WHILE, sélectionnez
Débogage Valider
.
Le logiciel teste votre définition par rapport aux erreurs de syntaxe et affiche les erreurs rencontrées.
8. Fermez l'éditeur de boucles WHILE pour revenir au workflow appelant.
10.6.2 Utilisation d'une boucle WHILE avec la visualisation des données
Selon la conception de votre job, il est possible que le logiciel ne termine pas toutes les itérations d'une boucle
WHILE si vous exécutez un job en mode de visualisation des données.
Lorsque vous utilisez la visualisation des données, un job est interrompu lorsque le logiciel a récupéré le nombre de lignes indiqué pour tous les objets pouvant être analysés.
Les situations suivantes peuvent se produire lors de l'utilisation de la boucle WHILE pendant l'exécution d'un job en mode de visualisation des données :
● Si la boucle WHILE contient des objets pouvant être analysés et qu'il n' y en a pas en dehors de la boucle
WHILE (par exemple si la boucle WHILE est le dernier objet d'un job), l'exécution du job prendra fin après l'analyse des objets dans la boucle WHILE, peut-être à la fin de la première itération de la boucle WHILE.
● S'il reste des objets pouvant être analysés par la suite, la boucle WHILE est exécutée normalement. Les objets analysés dans la boucle WHILE indiqueront les résultats de la dernière itération.
● S'il n'existe aucun objet pouvant être analysé suite à la boucle WHILE mais s'il existe des objets pouvant être analysés terminés parallèlement à la boucle WHILE, l'exécution du job se termine à la fin de l'analyse de tous les objets pouvant être analysés. La boucle WHILE peut exécuter n'importe quel nombre d'itérations.
10.7 Blocs Try/Catch
Un bloc Try/Catch désigne une combinaison d'un objet Try et d'un ou plusieurs objets Catch qui permettent d'indiquer d'autres workflows si des erreurs surviennent lorsque le logiciel exécute un job.
Blocs Try/Catch :
● Groupes d'exceptions "Catch" "levées" par le logiciel, le DBMS ou le système d'exploitation.
● Appliquez les solutions aux groupes d'exceptions ou aux erreurs spécifiques dans un groupe.
● Poursuivez l'exécution.
Les objets Try et Catch sont des objets à utilisation unique.
216
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Workflows
Voici une méthode générale d'implémentation de la gestion des exceptions :
1. Insérez un objet Try avant les étapes de gestion des erreurs.
2. Insérez un objet Catch dans le workflow après les étapes.
3. Dans l'objet Catch, exécutez les étapes suivantes :
○ Sélectionnez un ou plusieurs groupes d'erreurs que vous souhaitez intercepter.
○ Définissez les actions exécutées par une exception levée. Ces actions peuvent être un objet de script unique, un flux de données, un workflow ou une combinaison de ces objets.
○ Facultatif. Utilisez des fonctions Catch dans le bloc Catch pour identifier les détails de l'erreur.
Si une exception est renvoyée au cours de l'exécution d'un bloc Try/Catch et si aucun objet Catch ne recherche cette exception, l'exception est traitée par la logique d'erreur normale.
Le workflow suivant indique un bloc Try/Catch autour d'un flux de données :
Dans ce cas, si le flux de données BuildTable provoque des exceptions générées par le système indiquées dans le catch Catch_A, les actions définies dans Catch_A sont exécutées.
L'action initialisée par l'objet catch peut être simple ou complexe. Voici des exemples d'actions d'exceptions possibles :
● Envoyer le message d'erreur à une base de données de reporting en ligne ou à votre groupe de support.
● Exécuter à nouveau un workflow échoué ou un flux de données.
● Exécuter une diminution de version d'un workflow échoué ou un flux de données.
Informations associées
Définition d'un bloc Try/Catch [page 217]
Catégories d'exceptions disponibles [page 219]
Exemple : détermination des détails d'une erreur [page 219]
10.7.1 Définition d'un bloc Try/Catch
Pour définir des blocs Try/Catch :
1. Ouvrez le workflow qui contiendra le bloc Try/Catch.
2. Cliquez sur l'icône Try dans la palette d'outils.
3. Cliquez sur l'emplacement où vous voulez placer le try dans le diagramme.
L'icône Try s'affiche dans le diagramme.
Guide de Designer
Workflows
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
217
Remarque
Aucun éditeur n'existe pour un Try ; le Try initialise le bloc Try/Catch.
4. Cliquez sur l'icône Catch dans la palette d'outils.
5. Cliquez sur l'emplacement où vous voulez placer l'objet catch dans l'espace de travail.
L'objet catch s'affiche dans l'espace de travail.
6. Reliez les objets Try et Catch aux objets liés.
7. Cliquez sur le nom de l'objet catch pour ouvrir l'éditeur catch.
8. Sélectionnez un ou plusieurs groupes dans la liste des
Exceptions
.
Pour sélectionner tous les groupes d'exceptions, cochez la case en haut.
9. Définissez les actions à exécuter pour chaque groupe d'exceptions et ajoutez les actions à la boîte de workflows catch. Les actions peuvent être un script individuel, un flux de données, un workflow ou toute combinaison de ces objets.
a. Il est recommandé de définir, de tester et de sauvegarder les actions comme objet distinct plutôt que de les créer dans l'éditeur Catch.
b. Pour définir des actions pour des erreurs spécifiques, utilisez les fonctions catch suivantes dans un script exécutant le workflow :
○ error_context()
○ error_message()
○ error_number()
○ error_timestamp() c. Pour ajouter un workflow existant à la case de workflow catch, ouvrez la bibliothèque d'objets dans l'onglet Workflows, sélectionnez le workflow souhaité et glissez-le dans la case.
10. Une fois le catch exécuté, sélectionnez
Validation Valider Tous les objets de la vue
.
Le logiciel teste votre définition par rapport aux erreurs de syntaxe et affiche les erreurs rencontrées.
11. Cliquez sur le bouton
Retour
pour revenir au workflow appelant le catch.
12. Pour intercepter plusieurs groupes d'exceptions et affecter différentes actions à chacun d'entre eux, répétez les étapes 4 à 11 pour chaque catch dans le workflow.
Remarque
Dans une séquence de blocs Catch, si un bloc Catch intercepte une exception, les blocs Catch suivants ne seront pas exécutés. Par exemple, si votre workflow a la séquence suivante et que Catch1 intercepte une exception, Catch2 et CatchAll ne seront pas exécutés.
Try > DataFlow1 > Catch1 > Catch2 > CatchAll
Si une erreur du groupe d'exceptions listée dans le Catch survient au cours de l'exécution de ce bloc Try/Catch, le logiciel exécute le workflow Catch.
Informations associées
Catégories d'exceptions disponibles [page 219]
218
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Workflows
Exemple : détermination des détails d'une erreur [page 219]
10.7.2 Catégories d'exceptions disponibles
Les catégories d'exceptions disponibles comprennent les éléments suivant :
● Erreurs d'exécution (1001)
● Erreurs d'accès à la base de données (1002)
● Erreurs de connexion à la base de données (1003)
● Erreurs de traitement de fichier plat (1004)
● Erreurs d'accès au fichier (1005)
● Erreurs d'accès au référentiel (1006)
● Erreurs de système SAP (1007)
● Exception de ressource système (1008)
● Erreurs d'exécution BW SAP (1009)
● Erreurs de traitement XML (1010)
● Erreurs de copybook COBOL (1011)
● Erreurs de classeur Excel (1012)
● Erreurs de transformation Data Quality (1013)
10.7.3 Exemple : détermination des détails d'une erreur
Cet exemple illustre la façon d'utiliser les fonctions d'erreur dans un script de catch. Supposez que vous souhaitiez déterminer des erreurs d'accès à la base de données et envoyer les détails de l'erreur à votre groupe de support.
1. Dans l'éditeur catch, sélectionnez le groupe d'exceptions que vous souhaitez déterminer. Dans cet exemple, cochez la case devant
Erreurs d'accès à la base de données(1002)
.
2. Dans la zone de workflow de l'éditeur catch, créez un objet de script avec le script suivant :
mail_to('support@my.com',
'Data Service error number' || error_number(),
'Error message: ' || error_message(),20,20);
print('DBMS Error: ' || error_message());
3. Cet exemple de script de catch inclut la fonction mail_to pour effectuer les opérations suivantes :
○ Indiquer l'adresse e-mail de votre groupe de support.
○ Envoyer le numéro d'erreur renvoyé par la fonction error_number() pour l'exception détectée.
○ Envoyer le message d'erreur renvoyé par la fonction error_message() pour l'exception détectée.
4. L'exemple de script de catch inclut une commande d'impression permettant d'imprimer le message d'erreur pour l'erreur de la base de données.
Guide de Designer
Workflows
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
219
10.8 Scripts
Les scripts sont des objets à utilisation unique, utilisés pour appeler des fonctions et affecter des valeurs aux variables dans un workflow.
Par exemple, vous pouvez utiliser la fonction SQL dans un script pour déterminer la dernière heure de mise à jour pour une table et affecter cette valeur à une variable. Vous pouvez ensuite affecter la variable à un paramètre transféré dans un flux de données et qui identifie les lignes à extraire d'une source.
Un script peut contenir les instructions suivantes :
● Appels de fonction
● Instructions IF
● Instructions WHILE
● Instructions d'affectation
● Opérateurs
Les règles de base pour la syntaxe du script sont les suivantes :
● Chaque ligne se termine par un point-virgule (;).
● Les noms de variables commencent par le symbole dollar ($).
● Les valeurs de chaîne sont entre parenthèses simples (').
● Les commentaires commencent par un symbole dièse (#).
● Les appels de fonction indiquent toujours des paramètres même si la fonction n'utilise aucun paramètre.
Par exemple, l'instruction de script suivante détermine la date du jour et affecte la valeur à la variable
$AUJOURD'HUI :
$TODAY = sysdate();
Vous ne pouvez pas utiliser des variables à moins de les déclarer dans le workflow appelant le script.
10.8.1 Création d'un script
1. Ouvrez le workflow.
2. Cliquez sur l'icone Script dans la palette d'outils.
3. Cliquez sur l'emplacement où vous souhaitez placer le script dans le diagramme.
L'icône Script s'affiche dans le diagramme.
4. Cliquez sur le nom du script pour ouvrir l'éditeur de scripts.
5. Saisissez les instructions de scripts, chacune suivie d'un point-virgule.
L'exemple suivant illustre un script qui détermine l'heure de début d'une fonction personnalisée.
AW_StartJob ('NORMAL','DELTA', $G_STIME,$GETIME);
$GETIME =to_date( sql('ODS_DS','SELECT to_char(MAX(LAST_UPDATE) ,
\'YYYY-MM-DDD HH24:MI:SS\')
FROM EMPLOYEE'),
'YYYY_MMM_DDD_HH24:MI:SS');
220
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Workflows
Cliquez sur le bouton Fonction pour inclure des fonctions dans votre script.
6. Une fois le script terminé, sélectionnez
Validation Valider
.
Le logiciel teste votre script par rapport aux erreurs de syntaxe et affiche toutes les erreurs rencontrées.
7. Cliquez sur le bouton
...
puis
Enregistrer
pour nommer et enregistrer votre script.
Le script est enregistré par défaut sous
<LINK_DIR> /Data Services/DataQuality/Samples.
10.8.2 Débogage de scripts à l'aide de la fonction d'impression
Le logiciel dispose de fonctionnalité de débogage permettant d'imprimer les éléments suivants :
● Les valeurs de variables et de paramètres lors de l'exécution
● Le chemin d'exécution suivi dans un script
Vous pouvez utiliser la fonction d'impression pour écrire les valeurs des paramètres et variables d'un workflow dans le journal de suivi. Par exemple, dans un script, la ligne suivante : print('The value of parameter $ <x> : [$ <x> ]'); crée la sortie suivante dans le journal de suivi :
The following output is being printed via the Print function in <Session <job_name> .
The value of parameter $ <x> : <value>
Guide de Designer
Workflows
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
221
11 Données imbriquées
Le progiciel mappe les données imbriquées avec un schéma distinct qui est implicitement lié à une seule ligne et une seule colonne du schéma parent. Ce mécanisme s'intitule le NRDM (Nested Relational Data Modelling, modélisation de données relationnelles imbriquées).
Les données réelles ont souvent des relations hiérarchiques représentées dans une base de données relationnelle avec des schémas maître-détail utilisant des clés étrangères pour créer le mappage. Toutefois, certains jeux de données, tels que les documents XML et les IDocs SAP ERP, traitent les relations hiérarchiques à l'aide de données imbriquées.
Le NRDM permet d'afficher et de manipuler les relations hiérarchiques au sein des cibles, des transformations et des sources des flux de données.
Les commandes clients sont souvent présentées en utilisant l'imbrication : les postes d'une commande client sont liés à un seul en-tête et sont affichés à l'aide d'un schéma imbriqué. Chaque ligne du jeu de données de la commande client contient un schéma imbriqué du poste.
11.1 Représentation de données hiérarchiques
Vous pouvez représenter les mêmes données hiérarchiques de différentes manières.
En voici des exemples :
Lignes multiples dans un seul jeu de données
Table 75 :Jeu de données de la commande
N° com mande
IDClient AdresseLivrai son1
AdresseLi vraison2
9999
9999
1001
1001
123 State St
123 State St
Town, CA
Town, CA
Elé ment
001
002
Qté
2
4
PrixElément
10
5
Jeux de données multiples liés par une jointure
222
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Table 76 :Jeu de données de l'en-tête de commande
N° commande IDClient AdresseLivrai son1
9999 1001 123 State St
AdresseLivraison2
Town, CA
Table 77 :Jeu de données des postes
N° com mande
Elément
9999
9999
001
002
Qté
2
4
PrixElément
10
5
OU En-tête de commande N° de commande = Poste N° de commande
Données imbriquées
La méthode des données imbriquées peut s'avérer plus concise (aucune information répétée) et peut se mettre à l'échelle pour présenter un niveau supérieur de complexité hiérarchique. Par exemple, les colonnes d'un schéma imbriqué peuvent également contenir des colonnes. Il existe une instance unique de chaque schéma imbriqué pour chaque ligne à chaque niveau de la relation.
Jeu de données de la commande
En généralisant davantage le concept des données imbriquées, chaque ligne de chaque niveau peut disposer d'un nombre quelconque de colonnes contenant des schémas imbriqués.
Jeu de données de la commande
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
223
Vous pouvez afficher la structure des données imbriquées dans les schémas d'entrée et de sortie des sources, cibles et transformations dans les flux de données. Les schémas imbriqués s'affichent avec une icône de schéma associée d'un signe plus, indiquant que l'objet contient des colonnes. La structure du schéma indique la manière dont les données sont classées.
● Ventes est le schéma de niveau supérieur.
● LineItems est un schéma imbriqué. Le signe moins précédant l'icône de schéma indique que la liste de colonnes est ouverte.
● CustInfo est un schéma imbriqué dont la liste de colonnes est fermée.
224
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
11.2 Mise en forme des documents XML
Le progiciel permet d'importer et d'exporter des métadonnées pour des documents XML (fichiers ou messages) utilisés en tant que sources ou cibles dans les jobs. Les documents XML sont des documents hiérarchiques.
Leur structure valide est stockée dans des documents aux formats distincts.
Un schéma XML (.xsd, par exemple) ou un fichier Document Type Definition (définition du type de document, .dtd) spécifient le format d'un fichier ou d'un message XML (.xml).
Lors de l'importation de métadonnées du format d'un document, celles-ci sont structurées dans le schéma interne du progiciel pour les documents hiérarchiques utilisant le modèle NRDM.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
225
Informations associées
Spécification schéma XML [page 226]
Mappage de schémas facultatifs [page 233]
Spécification d'options de source pour les fichiers XML [page 231]
Utilisation de Document Type Definitions (DTD) [page 234]
Génération de schémas DTD et XML à partir d'un schéma NRDM [page 236]
11.2.1 Spécification schéma XML
Le progiciel prend en charge les spécifications XML Schema 1.0 du WC3.
Pour un document XML contenant des informations pour passer une commande (en-tête de commande, client et postes), le schéma XML correspondant inclut la structure de la commande et les relations entre les données.
Message avec des données
Table 78 :
N°Commande
9999
IDClient
1001
AdresseLivrai son1
123 State St
AdresseLivrai son2
Town, CA
Postes
Elément
001
002
QtéElément
2
4
PrixElément
10
5
Chaque colonne du document XML correspond à un ELEMENT ou une définition d'attribut dans le schéma XML.
Schéma XML correspondant
<?xml version="1.0"?>
<xs:schema xmlns:xs="http://www.w3.org/2001/XMLSchema">
<xs:element name="Order">
<xs:complexType>
<xs:sequence>
<xs:element name="OrderNo" type="xs:string" />
<xs:element name="CustID" type="xs:string" />
<xs:element name="ShipTo1" type="xs:string" />
<xs:element name="ShipTo2" type="xs:string" />
<xs:element maxOccurs="unbounded" name="LineItems">
<xs:complexType>
<xs:sequence>
<xs:element name="Item" type="xs:string" />
<xs:element name="ItemQty" type="xs:string" />
<xs:element name="ItemPrice" type="xs:string" />
</xs:sequence>
226
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
</xs:complexType>
</xs:element>
</xs:sequence>
</xs:complexType>
</xs:element>
</xs:schema>
11.2.2 À propos de l'importation des schémas XML
Importez les métadonnées de chaque schéma XML que vous utilisez.
La bibliothèque d'objets répertorie dans la catégorie Schémas imbriqués de l'onglet
Formats
les schémas XML importés.
Lors de l'importation d'un schéma XML, le logiciel lit les éléments et les attributs définis puis importe les éléments suivants :
● Structure de document
● Espace de noms
● Noms de table et de colonne
● Type de données de chaque colonne
● Type de contenu de chaque colonne
● Table imbriquée et attributs de colonne
Alors que les schémas XML effectuent une distinction entre éléments et attributs, le logiciel les importe et les convertit vers une table imbriquée et vers les attributs de colonne.
11.2.2.1 Importer un schéma XML
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Format
.
2. Cliquez avec le bouton droit de la souris sur l'icône
Schémas imbriqués
puis sélectionnez
Nouveau
Schéma XML
.
3. Saisissez les paramètres pour les schémas XML que vous importez, en fonction des descriptions d'option cidessous.
Table 79 :
Option
Nom du format
Description
Saisissez le nom que vous voulez utiliser pour le format dans le logiciel.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
227
Option
Nom de fichier/URL
Espace de noms
Description
Saisissez ou naviguez vers le nom de fichier du schéma
XML ou son adresse URL.
Remarque
Si le Job Server se trouve sur un ordinateur autre que
Designer Data Services, vous pouvez utiliser
Parcourir
pour indiquer le chemin d'accès du fichier. Vous devez saisir le chemin. Vous pouvez saisir un chemin d'accès absolu ou un chemin d'accès relatif, mais le Job Server doit pouvoir y accéder.
Sélectionnez un schéma XML importé dans la liste dérou lante uniquement si le nom de l'élément racine n'est pas unique dans le schéma XML.
Remarque
Lorsque vous importez un schéma XML pour un job ser vice Web en temps réel, utilisez un espace de noms cible unique pour le schéma. Lorsque Data Services génère le fichier WSDL pour un job en temps réel avec un schéma source ou cible qui n'a pas d'espace de noms cible, il ajoute un espace de noms cible généré automatique ment à la section de types du schéma XML. Ce proces sus peut réduire la performance car Data Services doit supprimer les informations de l'espace de noms de la demande de service Web au cours du traitement, puis joindre à nouveau les informations correctes de l'espace de noms avant de renvoyer la réponse au client.
Nom de l'élément racine
Niveau circulaire
Taille varchar par défaut
Sélectionnez le nom du noeud principal que vous souhaitez importer dans la liste déroulante. Le logiciel importe uni quement les éléments du schéma XML appartenant à ce nœud ou à tout sous-nœud.
Spécifiez le nombre de niveaux uniquement si le schéma
XML contient des éléments récursifs (l'élément A contient l'élément B, l'élément B contient l'élément A). Cette valeur doit correspondre au nombre de niveaux récursifs dans le contenu du schéma XML. Dans le cas contraire, le job qui utilise ce schéma XML va échouer.
Configurez le progiciel pour importer des chaînes en tant que varchar de toute taille. La valeur par défaut est 1024.
4. Cliquez sur
OK
.
Après l'importation d'un schéma XML, vous pouvez modifier les propriétés de sa colonne, comme le type de données, à l'aide de l'onglet
Général
de la fenêtre Propriétés des colonnes. Il est également possible d'afficher et de modifier les attributs des colonnes et des tables imbriquées à partir de la fenêtre Propriétés des colonnes.
228
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
11.2.2.2 Afficher et modifier les attributs des colonnes et des tables imbriquées pour le schéma XML
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Formats
.
2. Développez la catégorie
Schéma imbriqué
.
3. Cliquez deux fois sur un nom de schéma XML.
La fenêtre de l'
Éditeur de format XML
s'ouvre dans l'espace de travail. Les parties
Format du schéma XML
se trouvent dans le volet supérieur de la fenêtre.
La colonne Type affiche les types de données qu'utilise le logiciel lorsqu'il importe les métadonnées du document XML.
4. Cliquez deux fois sur une table imbriquée ou une colonne et sélectionnez l'onglet
Attributs
de la boîte de dialogue
Propriétés
pour afficher ou modifier les attributs de schéma XML.
11.2.3 Importation de types abstraits
Un schéma XML utilise des types abstraits pour forcer la substitution pour un élément ou un type spécifique.
● Lorsqu'un élément est défini comme étant abstrait, un membre du groupe de substitution de l'élément doit s'afficher dans ce document d'instance.
● Lorsqu'un type est défini comme étant abstrait, le document d'instance doit utiliser un type dérivé (identifié par l'attribut xsi:type).
Par exemple, un élément abstrait PublicationType peut avoir un groupe de substitution composé de types complexes, par exemple MagazineType, BookType et NewspaperType.
Par défaut, tous les types complexes ou tous les types dérivés sont sélectionnés dans le groupe de substitution pour le type abstrait, mais vous pouvez choisir de sélectionner un sous-ensemble.
11.2.3.1 Limiter le nombre de types dérivés à importer pour un type abstrait
1. Dans la fenêtre
Importer format de schéma XML
, lorsque vous saisissez le nom du fichier ou l'adresse URL d'un schéma XML contenant un type abstrait, le bouton de commande
Type abstrait
est activé.
Par exemple, l'extrait suivant d'un xsd définit l'élément PublicationType comme étant abstrait avec des types dérivés BookType et MagazineType :
<xsd:complexType name="PublicationType" abstract="true">
<xsd:sequence>
<xsd:element name="Title" type="xsd:string"/>
<xsd:element name="Author" type="xsd:string" minOccurs="0" maxOccurs="unbounded"/>
<xsd:element name="Date" type="xsd:gYear"/>
</xsd:sequence>
</xsd:complexType>
<xsd:complexType name="BookType">
<xsd:complexContent>
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
229
<xsd:extension base="PublicationType">
<xsd:sequence>
<xsd:element name="ISBN" type="xsd:string"/>
<xsd:element name="Publisher" type="xsd:string"/>
</xsd:sequence>
</xsd:extension>
/xsd:complexContent>
</xsd:complexType>
<xsd:complexType name="MagazineType">
<xsd:complexContent>
<xsd:restriction base="PublicationType">
<xsd:sequence>
<xsd:element name="Title" type="xsd:string"/>
<xsd:element name="Author" type="xsd:string" minOccurs="0" maxOccurs="1"/>
<xsd:element name="Date" type="xsd:gYear"/>
</xsd:sequence>
</xsd:restriction>
</xsd:complexContent>
</xsd:complexType>
2. Pour sélectionner un sous-ensemble de types dérivés pour un type abstrait, cliquez sur le bouton
Type abstrait
et effectuez les actions suivantes : a. Dans la zone déroulante de la case
Type abstrait
, sélectionnez le nom du type abstrait.
b. Cochez les cases en regard de chaque nom de type dérivé que vous voulez importer.
c. Cliquez sur
OK
.
Remarque
Lorsque vous modifiez votre format de schéma XML, le logiciel sélectionne tous les types dérivés pour le type abstrait par défaut. En d'autres termes, le sous-ensemble que vous avez précédemment sélectionné n'est pas conservé.
11.2.4 Importation de groupes de substitution
Un schéma XML utilise des groupes de substitution pour affecter des éléments à un groupe spécifique d'éléments qui peut être substitué pour un élément spécifique nommé appelé élément principal.
La liste des groupes de substitution peut avoir des centaines ou même des milliers de membres mais une application utilise généralement uniquement un nombre limité d'entre eux. Tous les groupes de substitution sont sélectionnés par défaut mais vous pouvez décider de sélectionner un sous-ensemble.
11.2.5 Limiter le nombre de groupes de substitution à importer
Vous pouvez sélectionner un sous-ensemble de groupes de substitution à importer.
1. Dans la fenêtre
Importer format de schéma XML
, lorsque vous saisissez le nom du fichier ou l'adresse URL d'un schéma XML contenant des groupes de substitution, le bouton
Groupe de substitution
est activé.
230
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Par exemple, l'extrait suivant d'un xsd définit l'élément PublicationType avec des groupes de substitution
MagazineType, BookType, AdsType et NewspaperType :
<xsd:element name="Publication" type="PublicationType"/>
<xsd:element name="BookStore">
<xsd:complexType>
<xsd:sequence>
<xsd:element ref="Publication" maxOccurs="unbounded"/>
</xsd:sequence>
</xsd:complexType>
</xsd:element>
<xsd:element name="Magazine" type="MagazineType" substitutionGroup="Publication"/>
<xsd:element name="Book" type="BookType" substitutionGroup="Publication"/>
<xsd:element name="Ads" type="AdsType" substitutionGroup="Publication"/>
<xsd:element name="Newspaper" type="NewspaperType" substitutionGroup="Publication"/>
2. Cliquez sur le bouton
Groupe de substitution
.
a. Dans la liste déroulante, dans la case
Groupe de substitution
, cochez le nom du groupe de substitution.
b. Cochez les cases devant chaque nom de groupe de substitution que vous voulez importer.
c. Cliquez sur
OK
.
Remarque
Lorsque vous modifiez votre format de schéma XML, le logiciel sélectionne tous les éléments pour le groupe de substitution par défaut. En d'autres termes, le sous-ensemble que vous avez précédemment sélectionné n'est pas conservé.
11.2.6 Spécification d'options de source pour les fichiers XML
Créer un flux de données avec un fichier XML comme fichier source.
Une fois les métadonnées importées pour les documents XML (fichiers ou messages), vous créez un flux de données pour utiliser les documents XML en tant que sources ou cibles dans les jobs.
Suivez ces étapes pour créer un flux de données avec un fichier XML source :
1. Dans la catégorie
Schéma imbriqué
de l'onglet
Format
de la bibliothèque d'objets, glissez le schéma XML qui définir votre fichier XML source dans votre flux de données.
2. Placez une requête dans le flux de données et connectez la source XML à l'entrée de la requête.
3. Cliquez deux fois sur la source XML dans l'espace de travail pour ouvrir l'Editeur de fichiers source XML.
4. Spécifiez le nom du fichier source XML dans la zone de texte
Fichier XML
.
Informations associées
Lecture de plusieurs fichiers XML en une fois [page 232]
Identification des noms de fichiers sources [page 121]
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
231
11.2.6.1 Lecture de plusieurs fichiers XML en une fois
Le logiciel peut lire plusieurs fichiers avec le même format à partir d'un seul répertoire à l'aide d'un seul objet source.
Configurez un flux de données selon les indications de
Spécification d'options de source pour les fichiers XML
.
1. Double-cliquez sur le fichier XML source dans le flux de données correspondant afin d'ouvrir la fenêtre de l'
Éditeur de fichiers source de schémas imbriqués
dans l'espace de travail.
2. Dans l'onglet
Source
de la partie inférieure de la fenêtre, saisissez un nom de fichier contenant un caractère générique (* ou ?) dans l'option
Fichier
.
Exemple :
D:\orders\1999????.xml lit tous les fichiers .xml contenant «1999» dans leur nom à partir du répertoire spécifié.
D:\orders\*.xml lit tous les fichiers avec l'extension .xml à partir du répertoire spécifié.
11.2.6.2 Identification des noms de fichiers source
Vous pouvez souhaiter identifier le fichier XML source pour chaque ligne de votre sortie de source dans les situations suivantes :
● Vous avez spécifié un caractère générique pour lire plusieurs fichiers source en une fois.
● Vous chargez à partir de plusieurs fichiers source à différents jours.
11.2.6.2.1 Identifier le fichier XML source pour chaque ligne dans la cible
Configurez un flux de données selon les indications de
Spécification d'options de source pour les fichiers XML
.
1. Double-cliquez sur le fichier XML source dans le flux de données correspondant afin d'ouvrir la fenêtre de l'
Éditeur de fichiers source de schémas imbriqués
dans l'espace de travail.
2. Dans l'onglet
Source
de la partie inférieure de la fenêtre, sélectionnez
Inclure la colonne Nom du fichier
.
Cette option génère une colonne appelée DI_FILENAME pour contenir le nom du fichier XML source.
3. Ouvrez la transformation Query dans le flux de données. Dans l'Editeur Query, mappez la colonne
DI_FILENAME de l'entrée de schéma vers la sortie de schéma.
Lors de l'exécution du job, la colonne cible DI_FILENAME contiendra le nom du fichier XML source pour chaque ligne de la cible.
232
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
11.2.7 Mappage de schémas facultatifs
Il est possible de spécifier rapidement un mappage par défaut pour les schémas facultatifs sans devoir construire manuellement une table imbriquée vide pour chaque schéma facultatif dans la transformation Query. De même, lors de l'importation de schémas XML (via des fichiers DTD ou XSD), le progiciel marque automatiquement les tables imbriquées comme facultatives si l'option correspondante a été définie dans le fichier DTD ou XSD. Le progiciel conserve cette option lorsque vous copiez et collez des schémas dans les transformations Query.
Cette fonctionnalité est particulièrement utile lorsque vous disposez de schémas XML très volumineux et de nombreux niveaux imbriqués dans les jobs. Lorsque vous rendez une colonne de schéma facultative et ne lui affectez aucun mappage, le progiciel instance automatiquement la table imbriquée lors de l'exécution du job.
Même si un élément de schéma est marqué comme facultatif, il est toujours possible de lui affecter un mappage. Il faut pour cela programmer de manière appropriée le bloc de sous-requête correspondant avec une logique d'application spécifiant la manière dont le progiciel doit générer la sortie. Toutefois, si vous modifiez une partie du bloc de sous-requête, le bloc de requête obtenu doit être complet et conforme aux règles de validation normales requises pour un bloc de requête imbriqué. Vous devez mapper tout schéma de sortie non facultatif vers un bloc de requête imbriqué valide. Le progiciel génère une valeur nulle dans l'emplacement de la liste de projets correspondant de l'ATL pour tout schéma facultatif sans bloc de sous-requête défini et associé.
11.2.7.1 Rendre une table imbriquée "facultative"
1. Cliquez avec le bouton droit de la souris sur une table imbriquée, puis sélectionnez
Facultatif
pour l'activer.
Pour la désactiver, cliquez de nouveau avec le bouton droit de la souris sur la table imbriquée, puis sélectionnez à nouveau
Facultatif
.
2. Vous pouvez également cliquer avec le bouton droit de la souris sur une table imbriquée et sélectionner
Propriétés
, puis ouvrir l'onglet Attributs et définir la valeur d'attribut
Table facultative
sur
oui
ou
non
. Cliquez sur
Appliquer
puis sur
OK
pour définir la valeur.
Remarque
Si la valeur Table facultative est différente de oui ou de non, il est impossible de marquer la table imbriquée comme facultative
Lorsque vous exécutez un job avec une table imbriquée définie comme facultative et que vous n'avez pas défini de colonne ni de table imbriquée sous cette table, le progiciel génère un ATL spécifique et n'exécute pas la validation de l'interface utilisateur pour cette table imbriquée.
Exemple :
CREATE NEW Query ( EMPNO int KEY ,
ENAME varchar(10),
JOB varchar (9)
NT1 al_nested_table ( DEPTNO int KEY ,
DNAME varchar (14),
NT2 al_nested_table (C1 int) ) SET("Optional
Table" = 'yes') )
AS SELECT EMP.EMPNO, EMP.ENAME, EMP.JOB,
NULL FROM EMP, DEPT;
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
233
Remarque
Vous ne pouvez pas marquer comme facultatifs des schémas de niveau supérieur, des tables non imbriquées ou des tables imbriquées contenant des appels de fonction.
11.2.8 Utilisation de Document Type Definitions (DTD)
Un fichier DTD peut spécifier le format d'un document XML (fichier ou message). Le DTD décrit les données contenues dans le document XML et les relations entre les éléments dans les données.
Pour un document XML contenant des informations pour passer une commande (en-tête de commande, client et poste), le DTD correspondant inclut la structure de la commande et les relations entre les données.
Message avec des données
Table 80 :
N°Commande
9999
IDClient
1001
AdresseLivrai son1
123 State St
AdresseLivrai son2
Town, CA
Élément
001
002
Chaque colonne du document XML correspond à une définition d'ELEMENT.
Postes
QtéÉlément
2
4
PrixÉlément
10
5
Définition DTD correspondante
<?xml encoding="UTF-8"?>
<!ELEMENT Order (OrderNo, CustID, ShipTo1, ShipTo2, LineItems+)>
<!ELEMENT OrderNo (#PCDATA)>
<!ELEMENT CustID (#PCDATA)>
<!ELEMENT ShipTo1 (#PCDATA)>
<!ELEMENT ShipTo2 (#PCDATA)>
<!ELEMENT LineItems (Item, ItemQty, ItemPrice)>
<!ELEMENT Item (#PCDATA)>
<!ELEMENT ItemQty (#PCDATA)>
<!ELEMENT ItemPrice (#PCDATA)>
Importez les métadonnées de chaque DTD que vous souhaitez utiliser. La bibliothèque d'objets répertorie les DTD importés dans l'onglet
Formats
.
Vous pouvez importer des métadonnées de tout fichier XML (avec une référence à un DTD) ou DTD existant. Si vous importez les métadonnées d'un fichier XML, le progiciel extrait automatiquement le DTD pour ce fichier XML.
234
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Lors de l'importation d'un DTD, le progiciel lit les éléments et attributs définis. Il ignore d'autres parties de la définition, telles que le texte et les commentaires. Cela permet de modifier les données XML importées ainsi que le type de données au besoin.
11.2.8.1 Importer un format de schéma XML ou DTD
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Format
.
2. Cliquez avec le bouton droit de la souris sur l'icône
Schémas imbriqués
, puis sélectionnez
Nouveau
DTD
.
3. Saisissez les paramètres dans la fenêtre Importer le format DTD :
○ Dans la zone
Nom de la définition DTD
, saisissez le nom que vous souhaitez attribuer au format DTD importé dans le logiciel.
○ Saisissez le fichier spécifiant le DTD que vous souhaitez importer.
Remarque
Si le Job Server se trouve sur un autre ordinateur que Designer, il est impossible d'utiliser Parcourir pour indiquer le chemin du fichier. Vous devez saisir le chemin. Vous pouvez saisir un chemin d'accès absolu ou un chemin d'accès relatif, mais le Job Server doit pouvoir y accéder.
○ Si vous importez un fichier XML, sélectionnez
XML
pour l'option
Type de fichier
. Si vous importez un fichier DTD, sélectionnez l'option
DTD
.
○ Dans la zone
Nom de l'élément racine
, sélectionnez le nom du nœud principal que vous souhaitez importer. Le progiciel importe uniquement les éléments du DTD appartenant à ce nœud ou à tout sousnœud.
○ Si le DTD contient des éléments récursifs (l'élément A contient l'élément B et l'élément B contient l'élément A), spécifiez le nombre de ses niveaux en saisissant une valeur dans la zone
Niveau circulaire
.
Cette valeur doit correspondre au nombre de niveaux récursifs dans le contenu du DTD. Dans le cas contraire, le job qui utilise ce DTD va échouer.
○ Vous pouvez configurer le progiciel pour importer des chaînes en tant que varchar de toute taille. Varchar
1024 est la valeur par défaut.
4. Cliquez sur
OK
.
Après l'importation d'un DTD, vous pouvez modifier les propriétés de sa colonne, comme le type de données, à l'aide de l'onglet
Général
de la fenêtre
Propriétés des colonnes
. Il est également possible d'afficher et de modifier les attributs des colonnes et des tables imbriquées du DTD à partir de la fenêtre
Propriétés des colonnes
.
11.2.8.2 Afficher et modifier les attributs des colonnes et des tables imbriquées des DTD
1. Dans la bibliothèque d'objets, cliquez sur l'onglet
Formats
.
2. Développez la catégorie
Schémas imbriqués
.
3. Cliquez deux fois sur le nom d'un DTD.
La fenêtre
Format DTD
s'affiche dans l'espace de travail.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
235
4. Cliquez deux fois sur une colonne ou une table imbriquée.
La fenêtre
Propriétés des colonnes
s'ouvre.
5. Sélectionnez l'onglet
Attributs
pour afficher ou modifier les attributs du DTD.
11.2.9 Génération de schémas DTD et XML à partir d'un schéma NRDM
Vous pouvez cliquer avec le bouton droit sur un schéma à partir d'un éditeur de requêtes dans Designer et générer un schéma DTD ou XML correspondant à la structure du schéma sélectionné (NRDM ou relationnel).
Cette fonctionnalité est utile pour stocker des données dans un fichier XML puis les lire dans un autre flux de données.
1. Générez un schéma DTD ou XML.
2. Utilisez le schéma DTD ou XML pour configurer un format XML.
3. Utilisez le format XML pour configurer une source XML pour le fichier stocké.
Le schéma DTD ou XML généré reposera sur les informations suivantes :
● Les colonnes deviennent des éléments ou des attributs, selon la configuration de l'attribut de type XML sur
ATTRIBUT ou ELEMENT.
● Si l'attribut Requis est défini sur NON, l'élément ou l'attribut correspondant est marqué comme facultatif.
● Les tables imbriquées deviennent des éléments intermédiaires.
● L'attribut Type natif est utilisé pour définir le type de l'élément ou de l'attribut.
● Lors de la génération de schémas XML, les valeurs MinOccurs et MaxOccurs sont définies selon les attributs
Occurrences minimum et Occurrences maximum de la table imbriquée correspondante.
Aucune autre information n'est prise en compte lors de la génération du schéma DTD ou XML.
11.3 Opérations sur les donnés imbriquées
Cette section décrit les opérations que vous pouvez effectuer sur les données imbriquées.
11.3.1 Vue d'ensemble des données imbriquées et de la transformation Query
Lors du travail avec des données imbriquées, la transformation Query fournit une interface pour exécuter des instructions SELECT à chaque niveau de la relation définie dans le schéma de sortie.
Avec les données relationnelles, une transformation Query permet d'exécuter une instruction SELECT. Le mappage entre les schémas d'entrée et de sortie définit la liste de projets pour l'instruction.
236
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Vous utilisez la transformation Query pour manipuler les données imbriquées. Pour extraire une partie des données imbriquées uniquement, vous pouvez utiliser la transformation XML_Pipeline.
Sans données imbriquées, la transformation Query suppose que la clause FROM dans l'instruction SELECT contient les jeux de données connectés en tant qu'entrées dans l'objet de requête. Lorsque vous travaillez avec des données imbriquées, il est nécessaire de définir explicitement la clause FROM dans une requête. Le progiciel assiste en définissant les entrées de niveau supérieur en tant que valeurs de la clause FROM par défaut pour le schéma de sortie de niveau supérieur.
Les autres éléments de l'instruction SELECT définis par la requête fonctionnent de la même manière avec les données imbriquées et les données plates. Toutefois, une instruction SELECT ne pouvant inclure que des références aux jeux de données relationnelles, une requête qui inclut des données imbriquées contient également une instruction SELECT pour définir les opérations de chaque schéma parent et enfant dans la sortie.
L'Éditeur Query contient un onglet pour chaque clause de la requête :
● SELECT permet de spécifier des lignes d'éléments uniques de la sortie (sans prendre en compte les lignes identiques doublon).
● FROM répertorie tous les schémas d'entrée et permet de spécifier des paires et des conditions de jointure.
Les paramètres saisis pour les onglets suivants s'appliquent uniquement au schéma en cours (affiché dans la zone de texte Sortie de schéma située en haut à droite de l'Editeur Query) :
● WHERE
● GROUP BY
● ORDER BY
Informations associées
11.3.2 Construction de la clause FROM
La clause FROM permet de spécifier les tables et les vues à utiliser dans une instruction JOIN.
La clause FROM se trouve au bas de l'onglet FROM. Elle se remplit automatiquement avec les informations incluses dans les sections Schéma(s) d'entrée en haut et Paires de jointures au milieu de l'onglet. Vous pouvez modifier la clause FROM en modifiant les schémas sélectionnés dans la zone Schéma(s) d'entrée et la section
Paires de jointures.
Les schémas sélectionnés dans la section Schéma(s) d'entrée (et reflétés dans la clause FROM), notamment les colonnes contenant des schémas imbriqués, peuvent être inclus dans la sortie.
Lorsque vous incluez plus d'un schéma dans la section Schéma(s) d'entrée (en sélectionnant la case à cocher
De
), il est possible de spécifier des paires et des conditions de jointure et de saisir un cache et un classement de jointure pour chaque schéma d'entrée.
Les descriptions de la clause FROM et le comportement de la requête sont similaires pour les données imbriquées et les données relationnelles. Le schéma en cours permet de distinguer plusieurs instructions SELECT au sein d'une seule requête. Toutefois, les instructions SELECT étant dépendantes les unes des autres et l'interface
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
237
utilisateur facilitant la construction de jeux de données arbitraires, la détermination des clauses FROM appropriées pour plusieurs niveaux d'imbrication peut s'avérer complexe.
Une clause FROM peut inclure :
● Tout schéma de niveau supérieur de l'entrée
● Tout schéma représentant une colonne d'un schéma dans la clause FROM du schéma parent
● Toute condition de jointure des paires de jointure
La clause FROM forme un chemin pouvant débuter à tout niveau de la sortie. Le premier schéma du chemin doit toujours être un schéma de niveau supérieur de l'entrée.
Les données produites par une instruction SELECT d'un schéma de niveau inférieur diffèrent en fonction de la présence d'un schéma dans la clause FROM du niveau supérieur.
Les deux exemples suivants utilisent le jeu de données d'une commande client pour illustrer des scénarios dans lesquels les valeurs de la clause FROM modifient les données obtenues de la requête.
Informations associées
Modification du contenu du schéma de sortie [page 188]
11.3.2.1 Exemple : la clause FROM inclut toutes les entrées de niveau supérieur
Pour inclure les informations détaillées d'un client pour toutes les commandes dans la sortie, reliez le schéma
Order_Status_In du niveau supérieur avec le schéma Cust. Incluez les deux schémas d'entrée du niveau supérieur dans la clause FROM pour générer les données appropriées. Lorsque vous sélectionnez les deux schémas d'entrée dans la zone Schéma(s) d'entrée de l'onglet FROM, ils apparaissent automatiquement dans la clause
FROM.
238
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Respectez les points suivants :
● La table Schéma(s) d'entrée dans l'onglet FROM inclut les deux schémas de niveau supérieur
Order_Status_In et Cust (ce qui se reflète également dans la clause FROM).
● Le volet Sortie de schéma affiche le schéma imbriqué cust_info et les colonnes Cust_ID, Customer_name et
Address.
11.3.2.2 Exemple : la clause FROM de niveau inférieur contient une entrée de niveau supérieur
Supposons que vous souhaitiez faire apparaître les informations détaillées d'un schéma dans chaque ligne d'un niveau inférieur d'un autre schéma. Par exemple, l'entrée inclut un schéma de niveau supérieur intitulé Materials et un schéma imbriqué intitulé LineItems. Vous souhaitez que l'entrée comprenne les informations détaillées des articles pour chaque poste. Le graphique ci-dessous illustre cette configuration dans Designer.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
239
L'exemple sur la gauche affiche la configuration suivante :
● La zone Schéma d'entrée dans l'onglet FROM affiche le schéma imbriqué LineItems sélectionné.
● L'onglet FROM affiche la clause FROM «FROM "Order".LineItems».
L'exemple sur la droite affiche la configuration suivante :
● Le schéma Materials.Description est mappé au schéma de sortie LineItems.Item.
● Les Schéma(s) d'entrée Materials et Order.LineItems sont sélectionnés dans la zone Schéma d'entrée dans l'onglet FROM (la colonne From contient des cases cochées).
● Une paire de jointure est créée en reliant le schéma imbriqué Order.LineItems au schéma de niveau supérieur
Materials à l'aide d'un type de jointure externe gauche.
● Une condition de jointure est ajoutée lorsque le champ Item sous le schéma imbriqué LineItems est égal au champ Item du schéma de niveau supérieur Materials.
Clause FROM obtenue :
"Order".LineItems.Item = Materials.Item
240
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
11.3.3 Imbrication de colonnes
Lorsque vous imbriquez des lignes d'un schéma dans un autre schéma, le jeu de données produit dans le schéma imbriqué représente le résultat d'une requête sur le premier schéma utilisant les valeurs associées du second.
Par exemple, si vous disposez d'informations concernant une commande client dans un schéma d'en-tête et un schéma de postes, vous pouvez imbriquer les postes sous le schéma d'en-tête. Les postes d'une seule ligne du schéma d'en-tête sont égaux aux résultats d'une requête incluant le numéro de commande :
SELECT * FROM LineItems
WHERE Header.OrderNo = LineItems.OrderNo
Vous pouvez utiliser une transformation Query pour construire un jeu de données imbriquées à partir des données relationnelles. Lorsque vous indiquez les colonnes incluses dans le schéma imbriqué, spécifiez la requête utilisée pour définir le jeu de données imbriquées pour chaque ligne du schéma parent.
11.3.3.1 Construire un jeu de données imbriqué
Suivez les étapes suivantes pour configurer un jeu de données imbriquées.
1. Créez un flux de données avec les sources d'entrée que vous souhaitez inclure dans le jeu de données imbriquées.
2. Placez une transformation Query et une table cible dans le flux de données. Connectez les sources à l'entrée de la requête.
3. Ouvrez la transformation Query et configurez la
liste Select
, la
clause FROM
et la
clause WHERE
afin de décrire l'instruction SELECT exécutée par la requête pour déterminer le jeu de données de niveau supérieur.
Table 81 :
Option
Liste SELECT
Clause FROM
Notes mappez les éléments du schéma d'entrée au schéma de sortie en faisant glisser les colonnes du schéma d'entrée vers le schéma de sortie. Il est également possible d'inclure de nouvelles colonnes ou des expressions de mappage pour les colonnes.
incluez les sources d'entrée dans la liste de l'onglet
FROM
, puis incluez toute jointure et condition de jointure requises pour définir les données.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
241
Option
Clause WHERE
Notes incluez tout filtrage requis pour définir le jeu de données pour la sortie de niveau supérieur.
4. Créez un nouveau schéma dans la sortie.
Cliquez avec le bouton droit de la souris dans la zone Sortie de schéma de l'Editeur Query, sélectionnez
Nouveau schéma de sortie
, puis nommez le nouveau schéma. Une nouvelle icône de schéma s'affiche dans la sortie, imbriquée sous le schéma de niveau supérieur.
Vous pouvez également faire glisser un schéma complet de l'entrée vers la sortie.
5. Remplacez le schéma de sortie actuel par le schéma imbriqué en cliquant avec le bouton droit de la souris sur le schéma imbriqué puis en sélectionnant
En faire l'élément actuel
.
L'Editeur Query se modifie pour afficher le nouveau schéma actuel.
6. Indiquez la clause FROM, la
liste SELECT
et la clause
WHERE
afin de décrire l'
instruction SELECT
exécutée par la requête pour déterminer le jeu de données de niveau supérieur.
Table 82 :
Option
Clause FROM
Liste SELECT
Clause WHERE
Notes si vous avez créé un nouveau schéma de sortie, il convient de faire glisser les schémas de l'entrée pour remplir la clause FROM. Si vous avez fait glisser un schéma existant de l'entrée vers la sortie de niveau supérieur, ce schéma est automatiquement mappé et répertorié dans l'onglet FROM.
seules les colonnes respectant les exigences de la clause
FROM sont disponibles.
Seules les colonnes respectant les exigences de la clause
FROM sont disponibles.
7. Si la sortie l'exige, imbriquez un autre schéma à ce niveau.
Répétez les étapes 4 à 6 dans ce schéma actuel pour tous les schémas imbriqués que vous souhaitez configurer.
8. Si la sortie l'exige, imbriquez un autre schéma sous le niveau supérieur.
Faites du schéma de niveau supérieur le schéma actuel.
Informations associées
Construction de la clause FROM [page 237]
Modification du contenu du schéma de sortie [page 188]
242
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
11.3.4 Utilisation de colonnes corrélées dans des données imbriquées
La corrélation permet d'utiliser des colonnes d'un schéma de niveau supérieur pour construire un schéma imbriqué.
Dans un modèle relationnel imbriqué, les colonnes d'un schéma imbriqué sont implicitement liées aux colonnes de la ligne parente. Pour tirer parti de cette relation, il est possible d'utiliser des colonnes du schéma parent pour construire le schéma imbriqué. La colonne de niveau supérieur est une colonne corrélée.
L'inclusion d'une colonne corrélée dans un schéma imbriqué peut servir à deux fins :
● La colonne corrélée est une clé dans le schéma parent. Inclure la clé dans le schéma imbriqué permet de conserver une relation entre les deux schémas après leur conversion d'un modèle de données imbriqué à un modèle relationnel.
● La colonne corrélée est un attribut dans le schéma parent. Inclure l'attribut dans le schéma imbriqué permet d'utiliser cet attribut pour simplifier les requêtes corrélées sur les données imbriquées.
Pour inclure une colonne corrélée dans un schéma imbriqué, il n'est pas nécessaire d'inclure le schéma contenant cette colonne dans la clause FROM du schéma imbriqué.
1. Créez un flux de données avec une source incluant un schéma parent avec un schéma imbriqué.
Par exemple, la source peut être un schéma d'en-tête de commande incluant une colonne LineItems qui contient un schéma imbriqué.
2. Connectez une requête à la sortie de la source.
3. Dans l'éditeur de requêtes, copiez toutes les colonnes du schéma parent à la sortie.
Outre les colonnes de niveau supérieur, le progiciel crée une colonne intitulée LineItems qui contient un schéma imbriqué correspondant au schéma imbriqué LineItems dans l'entrée.
4. Remplacez le schéma actuel par le schéma LineItems.
5. Incluez une colonne corrélée dans le schéma imbriqué.
Les colonnes corrélées peuvent inclure des colonnes du schéma parent et tout autre schéma inclus dans la clause FROM du schéma parent.
Faites par exemple glisser la colonne OrderNo du schéma d'en-tête vers le schéma LineItems. L'inclusion de la colonne corrélée crée une nouvelle colonne de sortie dans le schéma LineItems intitulée OrderNo et la mappe à la colonne Order.OrderNo. Le jeu de données créé pour LineItems inclut toutes les colonnes
LineItems et OrderNo.
Si la colonne corrélée provient d'un schéma autre que le parent immédiat, les données du schéma imbriqué contiennent uniquement les lignes correspondant aux valeurs associées dans la ligne actuelle du schéma parent et les valeurs de la colonne corrélée.
11.3.5 Lignes d'éléments uniques et données imbriquées
L'option
Lignes d'éléments uniques
dans les transformations Query supprime toute ligne doublon au niveau supérieur d'une jointure.
Cette option est particulièrement utile pour éviter des produits croisés dans des jointures générant une sortie imbriquée.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
243
11.3.6 Regroupement de valeurs de schémas imbriqués
Lorsque vous spécifiez une clause GROUP BY pour un schéma contenant un schéma imbriqué, l'opération de regroupement combine les schémas imbriqués de chaque groupe.
Par exemple, pour assembler tous les postes inclus dans toutes les commandes pour chaque statut d'un jeu de commande, vous pouvez définir la clause GROUP BY au niveau supérieur du jeu de données sur la colonne de statut (Order.State) et créer un schéma de sortie qui inclut une colonne State (définie sur Order.State) et le schéma imbriqué LineItems.
Il en résulte un jeu de lignes (une pour chaque statut) comprenant la colonne State et le schéma imbriqué
LineItems contenant tous les schémas LineItems pour toutes les commandes de ce statut.
11.3.7 Suppression de l'imbrication de données imbriquées
Pour charger un jeu de données contenant des schémas imbriqués dans une cible relationnelle (non imbriquée), il est nécessaire de supprimer l'imbrication des lignes imbriquées.
Une commande client peut par exemple utiliser un schéma imbriqué pour définir la relation entre l'en-tête et les postes de la commande. Pour charger les données dans des schémas relationnels, il convient de supprimer l'imbrication des multiniveaux. La suppression de l'imbrication génère un produit croisé du schéma de niveau supérieur (parent) et du schéma imbriqué (enfant).
244
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Il est également possible de charger différentes colonnes de différents niveaux imbriqués dans des schémas distincts. Une commande client peut par exemple être aplanie afin que le numéro de commande soit conservé séparément avec chaque poste et les informations d'en-têtes et de postes chargées dans différents schémas.
Le progiciel permet de supprimer l'imbrication de tout nombre de schémas imbriqués à toute profondeur. Quel que soit le nombre de niveaux impliqués, le résultat des schémas desquels l'imbrication a été supprimée est un produit croisé des schémas parent et enfant. Lorsque plusieurs niveaux d'imbrications doivent être supprimés, l'imbrication du schéma enfant le plus profond est supprimée en premier, puis celle du résultat (le produit croisé du schéma parent et du schéma enfant le plus profond) et ainsi de suite jusqu'à l'imbrication du schéma de niveau supérieur.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
245
La suppression de l'imbrication de tous les schémas (produit croisé de l'ensemble des données) peut générer un résultat inattendu. Par exemple, si une commande client inclut plusieurs valeurs client, telles que les adresses de livraison et de facturation, l'aplatissement d'une commande client par la suppression de l'imbrication des schémas client et de postes produit des lignes de données pouvant ne pas être utiles pour le traitement de la commande.
11.3.7.1 Suppression de l'imbrication de données imbriquées
1. Créez la sortie dont vous voulez supprimer l'imbrication dans le schéma de sortie d'une requête.
Les données de colonnes ou schémas non imbriqués peuvent s'avérer plus complexes à filtrer après l'opération de suppression de l'imbrication. Vous pouvez exécuter la commande Couper pour supprimer des colonnes ou schémas du niveau supérieur. Pour supprimer des schémas ou colonnes imbriqués dans des schémas imbriqués, faites du schéma imbriqué le schéma actuel puis coupez les colonnes non nécessaires ou les colonnes imbriquées.
246
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
2. Cliquez avec le bouton droit de la souris sur le nom du schéma dont vous souhaitez supprimer l'imbrication et sélectionnez
Supprimer l'imbrication
.
La sortie de la requête (l'entrée de la prochaine étape dans le flux de données) inclut les données dans la nouvelle relation, comme illustré dans le diagramme suivant.
11.3.8 Transformation de niveaux inférieurs de données imbriquées
Les données imbriquées incluses dans l'entrée de transformations (à l'exception des transformations Query ou
XML_Pipeline) passent par la transformation sans être incluses dans l'opération de transformation. Seules les colonnes de niveau supérieur du jeu de données d'entrée sont disponibles pour des transformations ultérieures.
11.3.8.1 Transformer des valeurs de niveaux inférieurs de schémas imbriqués
1. Exécutez l'une des actions suivantes pour obtenir les données imbriquées :
○ Utilisez une transformation Query pour supprimer l'imbrication des données.
○ Utilisez une transformation XML_Pipeline pour sélectionner des parties des données imbriquées.
○ Exécutez la transformation.
2. Imbriquez de nouveau les données pour recréer les relations imbriquées.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
247
Informations associées
Suppression de l'imbrication de données imbriquées [page 244]
11.4 Extraction et analyse XML pour les colonnes
Le progiciel permet d'extraire des données XML stockées dans une table source ou dans une colonne de fichier plat, de les transformer en données NRDM, puis de les charger dans une colonne de fichier cible ou plat.
En outre vous pouvez extraire des données de fichiers et de messages XML, leur représentation sous forme de données NRDM lors d'une transformation puis leur chargement dans un fichier ou un message XML.
De plus en plus de fournisseurs de bases de données permettent de stocker des données XML dans une seule colonne. Le champ est en général une valeur varchar, long ou clob. La fonctionnalité de gestion XML du progiciel prend également en charge la lecture et l'écriture de tels champs. Le progiciel fournit quatre fonctions prenant en charge l'extraction et le chargement de colonnes :
● extract_from_xml
● load_to_xml
● long_to_varchar
● varchar_to_long
La fonction extract_from_xml extrait le contenu XML stocké dans une seule colonne et crée la structure NRDM correspondante pour permettre sa transformation par le progiciel. Cette fonction prend uniquement en charge les données varchar.
Pour permettre l'extraction et l'analyse de colonnes, les données de colonnes long et clob doivent être converties en varchar avant de pouvoir être transformées par le progiciel.
● Le progiciel convertit une entrée de type de données clob en données varchar si vous sélectionnez l'option
Importer les types de données non pris en charge comme VARCHAR de taille
lors de la création d'une connexion de banque de données de base de données dans l'Editeur de banque de données.
● Si la source utilise un type de données long, appliquez la fonction long_to_varchar pour convertir les données en valeur varchar.
Remarque
Le progiciel limite la taille des données XML prises en charge par ces méthodes à 100 Ko en raison de la limitation actuelle de ce type de données varchar. Il est prévu que cette restriction soit levée à l'avenir.
La fonction load_to_xml génère du contenu XML d'une structure NRDM donnée dans le progiciel, puis charge ce contenu dans une colonne varchar. Si vous souhaitez qu'un job convertisse la sortie en colonne long, appliquez la fonction varchar_to_long qui utilise la sortie de la fonction load_to_xml en tant qu'entrée.
248
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
11.4.1 Exemples de scénarios
Les scénarios suivants décrivent l'utilisation des fonctions permettant d'extraire des données XML d'une colonne source et de les charger dans une colonne cible.
Informations associées
Extraction de données XML d'une colonne dans le progiciel [page 249]
Chargement de données XML vers une colonne du type de données long [page 251]
Extraction de chaînes XML de qualité des données à l'aide de la fonction extract_from_xml [page 252]
11.4.1.1 Extraction de données XML d'une colonne dans le progiciel
Ce scénario utilise les fonctions long_to_varchar et extract_from_xml pour extraire des données XML d'une colonne avec des données de type long.
Exécutez les étapes préalables suivantes avant le début des étapes principales :
1. Importer une table Oracle contenant une colonne nommée
Contenu
, le type de données long et les données
XML pour un bon de commande.
2. Importer dans le référentiel le schéma XML PO.xsd qui fournit le format pour les données XML.
3. Créer un projet, un job et un flux de données pour votre conception.
4. Ouvrir le flux de données et déposer la table source avec la colonne nommée
contenu
dans le flux de données.
Pour extraire des données XML d'une colonne dans le logiciel, suivez les étapes préalables ci-dessus puis suivez les étapes ci-dessous :
1. Créez une requête avec une colonne de sortie du type de données varchar et assurez-vous que sa taille est suffisante pour contenir les données XML.
2. Nommez cette colonne de sortie
contenu
.
3. Dans la section Mappage de l'éditeur de requêtes, ouvrez l'Assistant Fonction, sélectionnez le type de fonction
Conversion
, puis sélectionnez la fonction
long_to_varchar
et configurez-la en saisissant ses paramètres.
long_to_varchar(content, 4000)
Le second paramètre de cette fonction (4000 dans l'exemple c-dessus) représente la taille maximale des données XML stockées dans la colonne de la table. Utilisez ce paramètre avec prudence. Si la taille n'est pas suffisante pour contenir le maximum de données XML pour la colonne, le progiciel tronquera les données, engendrant une erreur d'exécution. Inversement, ne saisissez pas un nombre trop important, ce qui exploiterait trop de mémoire de l'ordinateur lors de l'exécution.
4. Dans l'éditeur de requêtes, mappez la colonne de table source vers une nouvelle colonne de sortie.
5. Créez une seconde requête utilisant la fonction extract_from_xml pour extraire les données XML.
Pour appeler la fonction extract_from_xml :
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
249
a. cliquez avec le bouton droit de la souris sur le contexte actuel dans la requête b. Sélectionnez
Nouvel appel de fonction
.
c. Lorsque l'Assistant Fonction s'ouvre, sélectionnez
Conversion
et
extract_from_xml
.
Remarque
Vous pouvez utiliser la fonction
extract_from_xml
dans un nouvel appel de fonction. Autrement, la fonction ne sera pas affichée dans l'Assistant Fonction.
6. Entrez les valeurs pour les paramètres d'entrée et cliquez sur
Suivant
.
Table 83 :Paramètres d'entrée
Paramètre
Nom de colonne XML
Nom de colonne DTD ou XML
Activez la validation
Description
Saisissez
contenu
, qui correspond à la colonne de sortie dans la requête précédente contenant les données XML.
Saisissez le nom du schéma du bon de commande (dans ce cas
PO
).
Saisissez 1 si vous souhaitez que le progiciel valide les don nées XML avec le schéma spécifié. Dans le cas contraire, saisissez 0 .
7. Pour la fonction, sélectionnez une ou plusieurs colonnes que vous souhaitez utiliser à la sortie.
Imaginez que ce schéma de bon de commande contienne cinq éléments de niveau supérieur :
DateCommande, AdresseLivraison, AdresseFacturation, Commentaire et Eléments. Vous pouvez sélectionner un nombre quelconque de colonnes de niveau supérieur d'un schéma XML qui inclut des données de colonnes de modèle de données scalaires ou relationnelles imbriquées (NRDM). Le type de renvoi de la colonne est défini dans le schéma. Si la fonction échoue en raison d'une erreur lors de la tentative de production de la sortie XML, le progiciel renvoie une valeur nulle pour les colonnes scalaires et des tables imbriquées vides pour les colonnes NRDM. La fonction extract_from_xml ajoute également deux colonnes :
○ AL_ERROR_NUM — renvoie des codes d'erreurs : 0 pour une réussite et un entier autre que zéro pour les
échecs
○ AL_ERROR_MSG : renvoie un message d'erreur si la valeur de AL_ERROR_NUM est autre que 0. Renvoie une valeur nulle si la valeur de AL_ERROR_NUM est 0
Sélectionnez une ou plusieurs de ces colonnes en tant que sortie appropriée pour la fonction extract_from_xml.
8. Cliquez sur
Terminer
.
Le progiciel génère l'appel de fonction dans le contexte en cours et remplit le schéma de sortie de la requête avec les colonnes de sortie spécifiées.
Avec les données converties dans la structure NRDM, vous êtes prêt à lui appliquer des opérations de transformation appropriées.
Par exemple, si vous souhaitez charger la structure NRDM vers un fichier XML cible, créez un fichier XML cible puis connectez la seconde requête à ce dernier.
Remarque
Si vous souhaitez modifier l'appel de fonction, cliquez avec le bouton droit de la souris sur l'appel de fonction dans la seconde requête et sélectionnez
Modifier l'appel de fonction
.
250
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Dans cet exemple, pour extraire des données XML d'une colonne du type de données long, nous avons créé deux requêtes : la première pour convertir les données à l'aide de la fonction long_to_varchar et la seconde pour ajouter la fonction extract_from_xml.
Il est également possible d'utiliser une seule requête en saisissant l'expression de la fonction long_to_varchar directement dans le premier paramètre de la fonction extract_from_xml. Le premier paramètre de la fonction extract_from_xml peut utiliser une colonne du type de données varchar ou une expression qui renvoie les données de type varchar.
Si le type de données de la colonne source n'est pas long mais varchar, n'incluez pas la fonction long_to_varchar à votre flux de données.
11.4.1.2 Chargement de données XML vers une colonne du type de données long
Ce scénario utilise les fonctions load_to_xml et varchar_to_long pour convertir une structure NRDM en données scalaires de type varchar dans un format XML puis la charger vers une colonne du type de données long.
Dans cet exemple, vous souhaitez convertir en données XML une structure NRDM pour un bon de commande à l'aide de la fonction load_to_xml. Vous voulez ensuite charger ces données vers une colonne de table Oracle intitulée
contenu
du type de données long. La fonction load_to_xml renvoyant une valeur du type de données varchar, vous utilisez la fonction varchar_to_long pour convertir la valeur de type de données varchar en valeur de type de données long.
1. Créez une requête et connectez-la à une requête ou source précédente (présentant la structure NRDM d'un bon de commande). Dans cette requête, créez une colonne de sortie du type de données varchar intitulée
contenu
. Assurez-vous que la taille de la colonne est suffisante pour contenir les données XML.
2. Dans la zone
Mappage
, ouvrez l'Assistant Fonction, cliquez sur la catégorie
Fonctions de conversion
 puis sélectionnez la fonction
load_to_xml
.
3. Cliquez sur
Suivant
.
4. Entrez les valeurs pour les paramètres d'entrée.
La fonction load_to_xml dispose de sept paramètres.
5. Cliquez sur
Terminer
.
Dans la zone de mappage de la fenêtre Query, notez l'expression de la fonction : load_to_xml(PO, 'PO', 1, '<?xml version="1.0" encoding = "UTF-8" ?>', NULL, 1,
4000)
Dans cet exemple, la fonction convertit la structure NRDM du bon de commande PO en données XML et affecte la valeur au contenu de la colonne de sortie.
6. Créez une autre requête avec les colonnes de sortie correspondant aux colonnes de la table cible.
a. Supposons que la colonne soit intitulée
contenu
et soit du type de données long.
b. Ouvrez l'Assistant Fonction dans la section de mappage de la requête puis sélectionnez la catégorie
Fonctions de conversion
.
c. Utilisez la fonction varchar_to_long pour mapper la colonne d'entrée
contenu
vers la colonne de sortie
contenu
.
La fonction varchar_to_long n'utilise qu'un seul paramètre d'entrée.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
251
d. Saisissez une valeur pour le paramètre d'entrée.
varchar_to_long(content)
7. Connectez cette requête à une cible de base de données.
De même que dans l'exemple utilisant la fonction extract_from_xml, vous avez ici utilisé deux requêtes. La première requête a converti une structure NRDM en données XML puis a affecté la valeur à une colonne du type de données varchar. La seconde requête a converti le type de données varchar en long.
Il est possible de ne mettre qu'une seule requête en œuvre en utilisant les deux fonctions dans une seule expression : varchar_to_long( load_to_xml(PO, 'PO', 1, '<?xml version="1.0" encoding = "UTF-8" ?
>', NULL, 1, 4000) )
Si le type de données de la colonne de la table de la base de données cible stockant les données XML est varchar, la fonction varchar_to_long n'est pas utile dans la transformation.
11.4.1.3 Extraction de chaînes XML de qualité des données à l'aide de la fonction extract_from_xml
Ce scénario utilise la fonction extract_from_xml pour extraire des données XML des transformations Geocoder,
Global Suggestion Lists, Global Address Cleanse et USA Regulatory Address Cleanse
La transformation Geocoder, la transformation Global Suggestion Lists et la fonctionnalité Liste de propositions dans les transformations Global Address Cleanse et USA Regulatory Address Cleanse peuvent éditer un champ contenant une chaîne XML. Les transformations éditent les champs suivants pouvant contenir une chaîne XML.
Transformation
Geocoder
Champ de sortie XML
Liste_Résultats
Description de champ de sortie
Contient une chaîne de sortie XML lorsque plusieurs enregistrements sont renvoyés pour une recherche. Le contenu dépend des données disponibles.
Liste_Propositions
Global Address Cleanse
Global Suggestion List
USA Regulatory Address Cleanse
Contient une chaîne de sortie XML incluant toutes les valeurs de champ de composant de la liste de propositions indiquées dans les options de transformation.
Pour éditer ces champs comme champs
XML, vous devez sélectionner XML comme style de sortie dans les options de transformation.
Pour utiliser les données figurant dans les chaînes XML (par exemple, dans une application Web qui utilise le job publié comme service Web), vous devez extraire les données. Il existe deux méthodes d'extraction de données :
252
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Table 84 :Méthodes d'extraction de données
Méthode
Insérer une transformation Query à l'aide de la fonction ex tract_from_xml.
Développez un flux de données simple qui ne supprime pas l'imbrication des données
Description
Cette méthode permet d'insérer une transformation Query dans le flux de données après la transformation Geocoder,
Global Suggestion Lists, Global Address Cleanse ou USA Re gulatory Address Cleanse Utilisez ensuite la fonction ex tract_from_xml pour analyser les données de sortie imbri quées.
Cette méthode est considérée comme meilleure pratique car elle propose des données de sortie analysées, facilement ac cessibles dans un intégrateur.
Cette méthode permet d'éditer facilement le champ de sortie contenant la chaîne XML sans suppression de l'imbrication de données.
Cette méthode permet au développeur d'application ou à l'in tégrateur de sélectionner de manière dynamique les compo sants de sortie dans le schéma de sortie final avant de les ex poser comme service Web. Le développeur d'application doit travailler étroitement avec le concepteur de flux de données pour comprendre le flux de données au-delà d'un service Web en temps réel. Le développeur d'application doit comprendre les options de transformation et indiquer les éléments à ren voyer de la liste de propositions d'adresse retour puis suppri mer l'imbrication de la chaîne de sortie XML pour générer des
éléments discrets d'adresse.
Informations associées
Qualité des données [page 368]
11.4.1.3.1 Extraction de chaînes XML de qualité des données à l'aide de la fonction extract_from_xml
1. Créez un fichier XSD pour la sortie.
2. Dans l'onglet
Format
de la bibliothèque d'objets locale, créez un schéma XML pour la XSD de sortie.
3. Dans l'onglet
Format
de la bibliothèque d'objets locale, créez un schéma XML pour gac_suggestion_list.xsd, global_suggestion_list.xsd,urac_suggestion_list.xsd ou result_list.xsd.
4. Dans le flux de données, incluez le champ suivant dans la
Sortie de schéma
de la transformation :
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
253
Table 85 :
Transformation
○ Global Address Cleanse
○ Global Suggestion List
○ USA Regulatory Address Cleanse
Geocoder
Champ
Liste_Propositions
Liste_Résultats
5. Ajoutez une transformation Query après la transformation Global Address Cleanse, Global Suggestion
Lists,USA Regulatory Address Cleanse ou Geocoder. Terminez-la comme suit.
a. Passez par tous les champs sauf le champ Liste_Propositions ou le champ Liste_Résultats à partir de l'entrée de schéma jusqu'à la sortie de schéma. Pour ce faire, faites glisser les champs directement du schéma d'entrée vers le schéma de sortie.
b. Dans
Sortie de schéma
, faites un clic droit sur le nœud Requête et sélectionnez
Nouveau schéma de sortie
. Saisissez Liste_Propositions ou Liste_Résultats comme le nom du schéma (ou peu importe le nom du champ qui est dans la sortie XSD).
c. Dans
Sortie de schéma
, faites un clic droit sur le champ Liste_Propositions ou Liste_Résultats et sélectionnez
En faire l'élément actuel
d. Dans
Sortie de schéma
, faites un clic droit sur le champ Liste_Propositions ou Liste_Résultats et sélectionnez
Nouvel appel de fonction
.
e. Sélectionnez
Fonctions de conversion
dans la colonne
Catégories de fonction
et
extract_from_xml
dans la colonne
Nom de la fonction
et cliquez sur
Suivant
.
f. Dans la fenêtre
Définir les paramètres d'entrée
, saisissez les informations suivantes et cliquez sur
Suivant
.
Table 86 :Options Définir les paramètres d'entrée
Option
Nom du champ XML
DTD ou nom de schéma
Activer la validation
Description
Sélectionnez le champ Liste_Propositions ou Liste_Résul tats de la transformation en amont.
Sélectionnez le schéma XML que vous avez créé pour gac_suggestion_list.xsd, urac_suggestion_list.xsd, ou re sult_list.xsd.
Saisissez 1 pour permettre la validation.
g. Sélectionnez LISTE ou ENREGISTREMENT dans la liste des paramètres à gauche et cliquez sur le bouton de la flèche à droite pour l'ajouter à la liste Paramètres de sortie sélectionnés.
h. Cliquez sur
Terminer
.
La
Sortie de schéma
inclut les champs de la liste de propositions/liste de résultats dans le champ
Liste_Propositions ou Liste_Résultats.
6. Incluez le schéma XML pour le XML de sortie après la Requête. Ouvrez le schéma XML pour valider que les champs sont identiques dans l'
Entrée de schéma
et dans la
Sortie de schéma
.
7. Si vous extrayez des données depuis une transformation Global Address Cleanse, Global Suggestion Lists ou
USA Regulatory Address Cleanse et que vous avez choisi de sortir uniquement un sous-ensemble des champs de sortie de la liste de propositions disponibles dans l'onglet
Options
, insérez une deuxième transformation Query pour spécifier les champs que vous souhaitez sortir. Cette opération permet de sélectionner les composants de sortie dans le schéma de sortie final avant qu'il soit exposé comme un service
Web.
254
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
Informations associées
Qualité des données [page 368]
11.5 Extraction JSON
Outre l'extraction des données de fichiers et de messages JSON, leur représentation sous forme de données
NRDM lors d'une transformation puis leur chargement dans un fichier ou un message JSON, le logiciel permet
également d'extraire des données JSON stockées dans une colonne de fichier plat ou table source.
Le logiciel fournit la fonction extract_from_json pour prendre en charge l'extraction à partir des colonnes.
La fonction extract_from_json stocke le contenu JSON dans une seule colonne et crée la structure NRDM correspondante pour permettre sa transformation par le logiciel. Cette fonction prend uniquement en charge les données varchar.
Pour permettre l'extraction et l'analyse de colonnes, les données de colonnes long et clob doivent être converties en varchar avant de pouvoir être transformées par le logiciel.
● Le logiciel convertit une entrée de type de données clob en données varchar si vous sélectionnez l'option
Importer les types de données non pris en charge en tant que VARCHAR de taille
lors de la création d'une connexion à la banque de données de base de données dans l'Editeur de banque de données.
● Si la source utilise un type de données long, appliquez la fonction long_to_varchar pour convertir les données en valeur varchar.
11.5.1 Extraction des données de la chaîne JSON à l'aide de la fonction extract_from_json
1. Créez un fichier de schéma ou un fichier de données JSON pour la sortie.
2. Dans l'onglet
Format
de la Bibliothèque d'objets locale, cliquez sur
Nouveau Schéma JSON
pour créer un schéma pour votre sortie à l'aide du fichier de schéma ou du fichier de données JSON ci-dessus.
3. Dans le flux de données, dans la sortie de schéma, cliquez avec le bouton droit sur une colonne et sélectionnez
Nouvel appel de fonction
.
4. Dans la catégorie
Fonctions de conversion
, sélectionnez
extract_from_json
et cliquez
Suivant
.
5. Dans la fenêtre Définir les paramètres d'entrée, saisissez les informations suivantes et cliquez sur
Suivant
:
Option
Nom de champ JSON
Nom du schéma
Activez la validation
Description
Sélectionnez le champ Liste_Propositions ou Liste_Résul tats de la transformation en amont.
Sélectionnez le schéma que vous avez créé
Saisissez 1 pour permettre la validation.
6. Sélectionnez
LISTE
ou
ENREGISTREMENT
dans la liste des paramètres à gauche et cliquez sur le bouton de droite en forme de flèche pour l'ajouter à la liste des paramètres de sortie sélectionnés.
Guide de Designer
Données imbriquées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
255
7. Cliquez sur
Terminer
.
La sortie de schéma inclut les champs de la liste de propositions/liste de résultats dans le champ
Liste_Propositions ou Liste_Résultats.
256
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Données imbriquées
12 Jobs en temps réel
Le logiciel prend en charge une transformation de données en temps réel.
Temps réel signifie que le logiciel peut recevoir des demandes de systèmes ERP et d'applications Web et envoyer les réponses immédiatement après l'accès aux données demandées d'une mémoire cache de données ou d'une deuxième application. Vous définissez des opérations de traitement des messages à la demande en créant des jobs en temps réel dans le Designer.
12.1 Traitement d'un message de demande/réponse
Les messages transférés via un système en temps réel comprennent les informations requises pour exécuter une transaction commerciale.
Le contenu de ce message peut varier :
● Il pourrait être une commande client ou une facture traitée par un système ERP, destinée à un cache de données.
● Il pourrait être une demande de statut de commande créée par une application Web nécessitant une réponse de la part d'un cache de données ou d'un système back-office.
Le serveur d'accès écoute sans cesse les messages entrants. Lorsqu'il reçoit un message, le serveur d'accès dirige le message vers un processus d'attente qui effectue un ensemble prédéfini d'opérations pour le type de message. Le serveur d'accès reçoit alors une réponse pour le message et répond à l'application initiale.
Deux composants prennent en charge le traitement du message de demande-réponse :
Table 87 :
Composant
Serveur d'accès
Job en temps réel
Description
Écoute les messages et dirige chaque message en fonction du type de message.
Effectue un ensemble prédéfini d'opérations pour ce type de message et crée une réponse.
Le traitement peut nécessiter l'ajout de données supplémentaire au message à partir d'un cache de données ou le chargement des données du message dans un cache de données. Le serveur d'accès renvoie la réponse à l'application initiale.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
257
12.2 Qu'est-ce qu'un job en temps réel ?
Designer permet de définir le traitement de messages en temps réel à l'aide d'un job en temps réel.
Vous créez un job en temps réel différent pour chaque type de message que votre système peut créer.
12.2.1 Temps réel par rapport à job
Les jobs en temps réel extraient des données du corps du message reçu et de toute source secondaire utilisée dans le job.
Tout comme un job batch, un job en temps réel extrait, transforme et charge des données. Chaque job en temps réel peut extraire des données d'un type de message individuel. Il peut également extraire des données d'autres sources, par exemple de tables ou de fichiers.
Les mêmes transformations que vous pouvez définir dans des batch jobs sont disponibles dans des jobs en temps réel. Cependant vous pouvez utiliser les transformations différemment dans des jobs en temps réel. Par exemple, vous pouvez utiliser des branches et des contrôles logiques plus souvent que vous ne le souhaiteriez dans les jobs batch. Si un client souhaite connaître le moment où il peut enlever sa commande au centre de distribution, vous serez amené à créer un job CheckOrderStatus à l'aide d'une fonction de recherche pour compter les postes de commande client puis une transformation Case pour indiquer le statut sous forme de chaînes : «Aucun poste n'est prêt pour l'enlèvement» ou «X poste de votre commande sont prêts pour l'enlèvement» ou «Votre commande est prête pour l'enlèvement».
Dans les jobs en temps réel, le logiciel écrit également des données dans les cibles de message et les cibles secondaires en parallèle. Chaque message reçoit ainsi une réponse dès que possible.
Contrairement aux jobs batch, les jobs en temps réel ne sont pas exécutés en réponse à une planification ou un déclencheur interne ; les jobs en temps réel sont exécutés comme des services en temps réel lancés via l'Administrateur. Les services en temps réel attendent alors des messages du serveur d'accès. Lorsque le serveur d'accès reçoit un message, il le transfère à un service en temps réel en cours d'exécution conçu pour traiter ce
258
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
type de message. Le service en temps réel traite le message et renvoie une réponse. Le service en temps réel continue à écouter et traiter les messages à la demande jusqu'à ce qu'il reçoive une instruction pour arrêter.
12.2.2 Messages
Les messages types comprennent des informations requises pour implémenter une transaction commerciale spécifique et pour donner une réponse appropriée.
La façon dont vous créez un job en temps réel dépend du type de message que vous souhaitez qu'il traite.
Par exemple, supposez qu'un message contienne des informations requises pour déterminer le statut d'une commande spécifique. Le message peut juste contenir le numéro de la commande client. Le job en temps réel correspondant peut utiliser l'entrée pour interroger les sources correctes et renvoyer les informations produit appropriées.
Dans ce cas, le message contient des données qui peuvent être représentées comme colonne individuelle dans un tableau comportant une seule ligne.
Dans un deuxième cas, un message pourrait être une commande client à saisir dans un système ERP. Le message pourrait contenir le numéro de la commande, des informations client et les détails du poste de la commande. Le traitement des messages pourrait renvoyer une confirmation indiquant que la commande a été correctement soumise.
Dans ce cas, le message contient des données qui ne peuvent pas être représentées dans un seul tableau ; les informations de l'en-tête de la commande peuvent être représentées par un tableau et les postes de la commande par un deuxième tableau. Le logiciel représente les données d'en-tête et de poste du message dans une relation imbriquée.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
259
Au cours du traitement du message, le job en temps réel traite toutes les lignes de la table imbriquée pour chaque ligne de la table de niveau supérieur. Dans cette commande client, les deux postes sont traités pour la ligne individuelle des informations d'en-tête.
Les jobs en temps réel peuvent envoyer uniquement une ligne de données dans un message de réponse (cible de message). Cependant vous pouvez structurer des cibles de message de sorte que toutes les données figurent sur une seule ligne en imbriquant des tableaux dans des colonnes d'un seul tableau de niveau supérieur.
Les flux de données du logiciel prennent en charge l'imbrication de tableaux dans d'autres tableaux.
Informations associées
12.2.3 Exemples de jobs en temps réel
Exemple qui donne une description de niveau supérieur sur la façon dont des jobs en temps réel accèdent à des scénarios en temps réel classiques.
Les sections suivantes décrivent les objets réels que vous souhaitez utiliser pour créer la logique dans Designer.
12.2.3.1 Chargement de transactions dans une application back-office
Un job en temps réel peut recevoir une transaction de la part d'une application Web et la charge dans une application back-office (ERP, SCM, système hérité). Une transformation Query vous permet d'inclure des valeurs d'un cache de données pour compléter la transaction avant de l'appliquer par rapport à l'application back-office
(par exemple, un système ERP).
260
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
12.2.3.2 Collection de données back-office dans un cache de données
Vous pouvez utiliser des messages pour conserver le cache de données actuel. Les jobs en temps réel peuvent recevoir des messages d'une application back-office et les charger dans un cache de données ou un entrepôt de données.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
261
12.2.3.3 Récupération de valeurs, de cache de données, applications back-office
Vous pouvez créer des jobs en temps réel qui utilisent des valeurs issues d'un cache de données pour déterminer si l'application back-office (par exemple, un système ERP) doit être interrogée directement.
12.3 Création de jobs en temps réel
Vous pouvez créer des jobs en temps réel en utilisant les mêmes objets comme jobs batch (flux de données, workflows, structures conditionnelles, boucles WHILE etc.).
Cependant, l'utilisation d'objet doit respecter un modèle de job en temps réel valide.
12.3.1 Modèles de job en temps réel
À la différence des jobs batch qui déplacent en général de grandes quantités de données à des moments planifiés, un job en temps réel, une fois démarré en tant que service en temps réel, est à l'écoute d'une demande éventuelle.
Lorsqu'un job en temps réel reçoit une demande (en général pour accéder à un nombre réduit d'enregistrements), le logiciel traite la requête, renvoie une réponse et continue à écouter. Cette logique d'écoutetraitement-écoute forme une boucle de traitement.
Un job en temps réel est constitué de trois composants de traitement : l'initialisation, une boucle de traitement en temps réel et le nettoyage.
● Le composant d'initialisation (facultatif) peut être un script, un workflow, un flux de données ou une combinaison d'objets. Il ne s'exécute qu'au démarrage d'un service en temps réel.
262
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
● La boucle de traitement en temps réel est un conteneur de logique de traitement unique du job. Vous pouvez y spécifier un nombre quelconque de workflows et de flux de données.
● Le composant de nettoyage (facultatif) peut être un script, un workflow, un flux de données ou une combinaison d'objets. Il ne s'exécute qu'à l'arrêt d'un service en temps réel.
Dans une boucle de traitement en temps réel, une source de message unique doit être incluse à la première étape et une cible de message unique doit être incluse à la dernière étape.
Les modèles suivants prennent en charge cette règle :
● Modèle de flux de données simple
● Modèle de flux de données multiples
● Modèle de flux de données Demande/Confirmation
Informations associées
Modèle de flux de données simple [page 263]
Modèle de flux de données multiples [page 263]
12.3.1.1 Modèle de flux de données simple
Le modèle de flux de données simple permet de créer un job en temps réel à l'aide d'un flux de données simple dans sa boucle de traitement en temps réel. Ce flux de données simple doit comprendre une source de message simple et une cible de message simple.
12.3.1.2 Modèle de flux de données multiples
Le modèle de flux de données multiples permet de créer un job en temps réel à l'aide de flux de données multiples dans sa boucle de traitement en temps réel.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
263
L'utilisation de flux de données multiples, permet de garantir que les données de chaque message sont entièrement traitées dans un flux de données initial avant le début du traitement des flux de données suivants. Par exemple, si les données représentent 40 éléments, l'ensemble des 40 éléments doit être transféré par le premier flux de données vers une table de stockage ou une table en mémoire avant le transfert vers un deuxième flux de données. Vous pouvez ainsi contrôler et collecter toutes les données dans un message à tout point d'un job en temps réel pour la conception et la correction des erreurs.
Si vous utilisez des flux de données multiples dans une boucle en temps réel :
● Le premier objet de la boucle doit être un flux de données. Ce flux de données doit avoir une seule source de message.
● Le dernier objet de la boucle doit être un flux de données. Ce flux de données doit avoir une cible de message.
● Des flux de données supplémentaires ne peuvent pas avoir des sources ou des cibles de message.
● Vous pouvez ajouter n'importe quel nombre de flux de données supplémentaires à la boucle et vous pouvez les ajouter à n'importe quel nombre de workflows.
● Tous les flux de données peuvent utiliser des tables en mémoire entrantes et/ou sortantes pour transférer des jeux de données au flux de données suivant. Les tables en mémoire stockent les données dans la mémoire parallèlement à l'exécution d'une boucle. Elles améliorent la performance des jobs en temps réel avec des flux de données multiples.
12.3.2 Utilisation des modèles de job en temps réel
12.3.2.1 Modèle de flux de données simple
Lorsque vous utilisez un flux de données simple dans une boucle de traitement en temps réel, l'apparence de votre diagramme de flux de données peut être la suivante :
Notez que le flux de données a une source de message et une cible de message.
264
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
12.3.2.2 Modèle de flux de données multiples
Lorsque vous utilisez des flux de données multiples dans une boucle de traitement en temps réel, vos diagrammes de flux de données peuvent ressembler à ceux de l'exemple de scénario suivant dans lequel Data
Services écrit des données sur plusieurs cibles selon la conception de vos flux de données multiples.
Exigences de l'exemple de scénario :
Votre job doit effectuer les tâches suivantes, en terminant une tâche avant de passer à la suivante :
● recevoir des demandes sur le statut d'ordres individuels de la part d'un portail Web et enregistrer chaque message sur un fichier plat de sauvegarde ;
● exécuter une jointure de demande pour rechercher le statut de l'ordre et l'écrire dans une table de base de données client ;
● répondre à chaque message avec les résultats de la jointure de demande.
Solution :
Créer d'abord un job en temps réel et ajouter un flux de données, un workflow et un autre flux de données à la boucle en temps réel. Ajouter ensuite un flux de données au workflow. Puis configurer les tâches dans chaque flux de données :
● Le premier flux de données reçoit le message XML (à l'aide d'une source de message XML) et enregistre le message dans le fichier plat (cible de format de fichier plat). Pendant ce temps, ce même flux de données
écrit les données dans une table en mémoire (cible de la table).
Remarque
Vous voulez peut-être créer une table en mémoire pour déplacer les données vers des flux de données séquentiels.
● Le deuxième flux de données lit les données de message de la table en mémoire (source de la table), crée une jointure avec les données archivées (source de la table) et écrit les résultats dans une table de base de données (cible de la table) et une nouvelle table en mémoire (cible de la table).
Notez que ce flux de données ne comporte ni source de message ni cible de message.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
265
● Le dernier flux de données envoie la réponse. Il lit le résultat de la jointure dans la table en mémoire (source de la table) et charge la réponse (cible du message XML).
Informations associées
Conception d'applications en temps réel [page 276]
Banques de données en mémoire [page 79]
12.3.3 Créer un job en temps réel avec un flux de données unique
1. Dans Designer, créez ou ouvrez un projet existant.
2. Dans la zone de projet, cliquez avec le bouton droit de la souris sur l'espace et sélectionnez
Nouveau job en temps réel
dans le menu contextuel.
New_RTJob1 s'affiche dans la zone de projet. L'espace de travail affiche la structure du job, composée de deux marqueurs :
○ RT_Process_begins
○ Step_ends
Ces marqueurs représentent le début et la fin d'une boucle en temps réel.
3. Dans la zone de projet, renommez
New_RTJob1
.
Ajoutez toujours un préfixe aux noms de job avec leur type de job. Dans ce cas, utilisez la convention d'appellation : RTJOB_JobName.
Même si les jobs en temps réel sauvegardés sont regroupés sous l'onglet Job de la bibliothèque d'objets, les noms de job peuvent également s'afficher dans les éditeurs de texte utilisés pour créer des appels d'adaptateur ou de services Web. Dans ces cas, un préfixe sauvegardé avec le nom du job vous aidera à l'identifier.
266
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
4. Pour créer un job avec un flux de données simple : a. Cliquez sur l'icône Flux de données dans la palette d'outils.
Vous pouvez ajouter des flux de données à un job batch ou à un job en temps réel. Lorsque vous placez une icône Flux de données dans un job, vous demandez au Data Services de valider le flux de données conformément aux exigences du type de job (batch ou temps réel).
b. Cliquez sur la boucle.
Les limites d'une boucle sont indiquées par des marqueurs de début et de fin. Une source de message et une cible de message sont autorisées dans une boucle en temps réel.
c. Connectez les marqueurs de début et de fin au flux de données.
d. Créez le flux de données en incluant une source et une cible de message.
e. Ajoutez, configurez et connectez un (des) objet(s) d'initialisation et de nettoyage le cas échéant.
12.4 Objets source et cible en temps réel
Les jobs en temps réel doivent contenir un objet source et/ou cible en temps réel.
Normalement les objets disponibles sont les suivants :
Table 88 :
Objet Description
Message XML Message XML structuré au format de schéma DTD ou
XML
Message sor tant
Message en temps réel avec un format spécifique à l'application (non lisible par un analyseur XML)
Utilisé en tant que : Accès au logiciel
Source ou cible
Cible
Directement ou via des adaptateurs
Via un adaptateur
Vous pouvez également utiliser des messages IDoc comme sources en temps réel pour des applications SAP.
Pour plus d'informations, voir Supplément pour SAP.
La procédure d'ajout de sources et de cibles à des jobs en temps réel est identique à celle d'ajout de sources et de cibles à des jobs batch avec les éléments supplémentaires suivants :
Table 89 :
Pour Connaissances requises
Messages XML Importer un schéma DTD ou XML pour définir un format
Message sortant Définir une banque de données d'adaptateur et importer des métadonnées d'objet.
Emplacement de la bibliothèque d'objets
Onglet
Formats
Onglet
Banques de données
sous banque de données d'adaptateur
Informations associées
Importer un format de schéma XML ou DTD [page 235]
Banques de données de l'adaptateur [page 88]
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
267
12.4.1 Pour afficher un schéma source ou cible de message
XML
Dans l'espace de travail d'un job en temps réel, cliquez sur le nom d'une source ou d'une cible de message XML pour ouvrir son éditeur.
Si la source ou la cible de message XML contient des données imbriquées, le schéma affiche des tables imbriquées pour représenter les relations entre les données.
12.4.2 Sources et cibles secondaires
Les jobs en temps réel peuvent également avoir des sources ou des cibles secondaires.
Par exemple, supposez que vous traitiez un message contenant une commande client à partir d'une application
Web. La commande contient le nom du client mais lorsque vous appliquez la commande par rapport à votre système ERP, vous devez fournir des informations client plus détaillées.
Dans un flux de données d'un job en temps réel, vous pouvez compléter le message par les informations client pour créer le document complet à envoyer au système ERP. Les informations supplémentaires peuvent provenir du système ERP lui-même ou d'un cache de données contenant les mêmes informations.
Les tables et les fichiers (notamment fichiers XML) en tant que sources peuvent fournir ces informations supplémentaires.
Le logiciel lit des données à partir de sources secondaires conformément à la façon dont vous configurez le flux de données. Le logiciel charge des données dans les cibles secondaires parallèlement à un message cible.
Ajoutez des sources et des cibles secondaires aux flux de données des jobs en temps réel de la même façon qu'aux flux de données des jobs batch.
Informations associées
Objets sources et cibles [page 161]
Ajout d'objets sources ou cibles aux flux de données [page 163]
268
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
12.4.3 Chargement opérationnel de tables
Les tables cible dans des jobs en temps réel prennent en charge un chargement opérationnel dans lequel les données résultant du traitement d'un flux de données simple peuvent être chargées dans plusieurs tables en tant que transaction simple.
Aucun élément de la transaction ne s'applique si un élément échoue.
Remarque
Les tables cible dans des jobs batch prennent également en charge un chargement opérationnel. Cependant soyez prudent lorsque vous activez cette option pour un job batch car elle nécessite l'utilisation d'une mémoire, ce qui peut réduire la performance lorsque vous déplacez d'importantes quantités de données.
Vous pouvez indiquer l'ordre dans lequel les tables sont incluses dans la transaction à l'aide de l'éditeur de table cible. Cette fonctionnalité prend en charge un scénario dans lequel vous avez un groupe de tables avec des clés externes qui dépendent d'un groupe contenant des clés primaires.
Vous pouvez utiliser le chargement opérationnel uniquement lorsque toutes les cibles dans un flux de données sont dans la même banque de données. Si le flux de données charge des tables dans plusieurs banques de données, les cibles de chaque banque de données sont chargées indépendamment. Alors que plusieurs cibles d'une banque de données peuvent être incluses dans une transaction, les cibles d'autres banques de données doivent être incluses dans une autre transaction.
Vous pouvez indiquer le même ordre de transaction ou des ordres de transaction distincts pour toutes les cibles à inclure dans la même transaction. Si vous indiquez le même ordre de transaction pour toutes les cibles dans la même banque de données, les tables sont toujours incluses dans la mêle transaction mais sont chargées ensemble. Le chargement est validé une fois que le chargement de toutes les tables est terminé dans la transaction.
Si vous indiquez des ordres de transaction distincts pour toutes les cibles dans la même banque de données, les ordres de transaction indiquent les ordres de chargement des tables. La table avec l'ordre de transaction le plus petit est chargée en premier etc., jusqu'à ce que la table avec l'ordre de transaction le plus grand soit chargée en dernier. Deux tables ne sont pas chargées simultanément. Le chargement est validé lorsque le chargement de la dernière table est terminé.
12.4.4 Astuces relatives à la conception pour flux de données dans des jobs en temps réel
Lorsque vous concevez des flux de données en temps réel, vous devez suivre certaines règles.
● Si vous incluez une table à une jointure avec une source en temps réel, le logiciel inclut le jeu de données de la source en temps réel comme boucle externe de la jointure. Si plusieurs sources supplémentaires sont incluses dans la jointure, vous pouvez contrôler quelle table est incluse à la boucle suivante la plus externe de la jointure à l'aide des classements de jointure des tables.
● Dans des jobs en temps réel, ne mettez pas en mémoire cache les données de sources secondaires sauf si ces données sont statiques. Les données seront lues au début du job en temps réel et ne seront pas mises à jour lors de l'exécution du job.
● Si aucune ligne n'est transférée à la cible XML, le job en temps réel renvoie une réponse vide au serveur d'accès. Par exemple, si le système reçoit une demande pour un numéro de produit qui n'existe pas, votre job
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
269
peut être conçu de telle sorte qu'aucune donnée ne soit transférée au message de réponse. Vous pouvez être amené à fournir des instructions appropriées à votre utilisateur (traitement d'exception dans votre job) dans le cadre de ce type de scénario.
● Si plusieurs lignes sont transférées à la cible XML, la cible lit la première ligne et rejette les autres lignes. Afin d'éviter ce problème, utilisez vos connaissances relatives au Modèle de données relationnel imbriqué et structurez vos formats de message source et cible de telle sorte qu'une "ligne" corresponde à un message. Le modèle de données relationnel imbriqué permet de structurer toute quantité de données sur une seule "ligne" car les colonnes des tableaux peuvent contenir d'autres tableaux.
● Les mécanismes de récupération ne sont pas pris en charge dans les jobs en temps réel.
Informations associées
12.5 Test des jobs en temps réel
12.5.1 Exécution d'un job en temps réel en mode test
Vous pouvez tester des conceptions de job en temps réel sans configurer le job comme service associé à un serveur d'accès.
En mode test, vous pouvez exécuter un job en temps réel à l'aide d'un exemple de message source à partir d'un fichier pour déterminer si le logiciel crée le message cible escompté.
12.5.1.1 Spécifier un exemple de message XML et un fichier test cible
1. Dans les éditeurs de cible et de source de message XML, entrez un nom de fichier dans la case
Fichier test
XML
.
Entrez le nom de chemin complet pour le fichier source qui contient votre échantillon de données. Utilisez les chemins pour les fichiers test relatifs à l'ordinateur qui exécute le job server pour le référentiel actuel.
2. Exécutez le job.
Le mode test est toujours activé pour des jobs en temps réel. Le logiciel lit des données à partir du fichier test source et les charge dans le fichier test cible.
270
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
12.5.2 Utilisation de la fonction d'affichage des données
Utiliser la fonctionnalité d'affichage de données pour capturer un échantillon de données de sortie pour garantir que la conception fonctionne.
Ce processus permet de s'assurer que la transformation conçue renvoie les résultats escomptés.
Informations associées
Conception et débogage [page 612]
12.5.3 Utilisation d'une cible de fichier XML
Utilisez une cible de fichier XML pour capturer le message créé par un flux de données en autorisant le renvoi du message au serveur d'accès.
Tout comme un message XML, vous définissez un fichier XML en important un schéma DTD ou XML pour le fichier puis faites glisser le format dans la définition de flux de données. Contrairement aux messages XML, vous pouvez inclure des fichiers XML comme sources ou cibles dans des jobs batch et des jobs en temps réel.
12.5.3.1 Utiliser un fichier pour une capture de sortie à partir d'étapes de job en temps réel
1. Dans l'onglet
Formats
de la bibliothèque d'objets, faites glisser le schéma DTD ou XML dans un flux de données d'un job en temps réel.
Un menu vous invite à indiquer la fonction du fichier.
2. Sélectionnez
Créer la cible du fichier XML
.
La cible du fichier XML s'affiche dans l'espace de travail.
3. Dans l'éditeur de fichiers, indiquez l'emplacement où le logiciel écrit les données.
Saisissez un nom de fichier par rapport à l'ordinateur exécutant le job server.
4. Reliez la sortie de l'étape du flux de données de capture à l'entrée du fichier.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
271
12.6 Building blocks des jobs en temps réel
12.6.1 Complément aux données de message
Vous pouvez définir les étapes dans le job en temps réel pour compléter les informations du message si les données incluses dans des messages de sources en temps réel ne correspondent pas exactement à vos besoins pour le traitement ou l'archivage des informations.
Une technique permettant de compléter les données dans une source en temps réel comprend les étapes suivantes :
1. Inclure une table ou un fichier en tant que source.
Outre la source en temps réel, inclure les fichiers ou les tables pour lesquels vous avez besoin d'informations complémentaires.
2. Utiliser une demande pour extraire les données requises de la table ou du fichier.
3. Utiliser les données de la source en temps réel pour rechercher les données supplémentaires nécessaires.
Vous pouvez inclure une expression JOIN dans la demande pour extraire les valeurs spécifiques requises de la source supplémentaire.
272
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
La condition de jointure relie les deux schémas d'entrée, ce qui se traduit par une sortie uniquement pour le document de poste de vente et les postes de ligne inclus dans la saisie à partir de l'application.
Utilisez prudemment les données dans la jointure pour garantir un retour de valeur. Si la jointure ne renvoie aucune donnée, la demande ne crée aucune ligne et le message retourne sans valeur au serveur d'accès. Si vous ne pouvez pas garantir le retour d'une valeur, tenez compte des alternatives suivantes :
○
Appel de la fonction de recherche
– renvoie une valeur par défaut si le système ne trouve aucune correspondance.
○
Jointure externe
– renvoie toujours une valeur, même si le système ne trouve aucune correspondance.
12.6.1.1 Complément à l'exemple de données de message
Dans cet exemple, un message de demande comprend des informations sur la commande client et son message de réponse renvoie le statut de la commande. La logique applicative utilise le numéro de client et la classification de priorité pour déterminer le niveau du statut à renvoyer. Le message contient uniquement le nom du client et le numéro de la commande. Un job en temps réel est alors défini pour récupérer le numéro de client et la classification d'autres sources avant de déterminer le statut de la commande.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
273
1. Incluez la source en temps réel au job en temps réel.
2. Incluez la source complémentaire au job en temps réel.
Cette source pourrait être une tableau ou un fichier. Dans cet exemple, les informations complémentaires requises ne changent pas très souvent, il est donc judicieux d'extraire les données d'un cache de données plutôt que d'accéder directement à un système ERP.
3. Relier les sources.
Dans une transformation Query, créez une jointure sur le nom du client :
Message.CustName = Cust_Status.CustName
Vous pouvez créer la sortie pour inclure uniquement les colonnes requises par le job en temps réel pour déterminer le statut de la commande.
4. Complétez le job en temps réel pour déterminer le statut de la commande.
L'exemple indiqué ici détermine le statut de la commande dans l'une des deux méthodes, en fonction de la valeur du statut client. Le statut de la commande des clients les mieux classés est déterminé directement de l'ERP. Le statut de la commande pour les autres clients est déterminé à partir d'un cache de données d'informations relatives à la commande client.
La logique peut être organisée en flux de données simple ou multiples. L'illustration ci-dessous présente un modèle de flux de données simple.
Les deux branches renvoient le statut de commande pour chaque ligne de poste de la commande. Le flux de données fusionne les résultats et crée la réponse. La section suivante décrit comment concevoir des chemins de branche dans un flux de données.
274
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
12.6.2 Création de branche de flux de données en fonction d'une valeur de cache de données
L'une des choses les plus importantes que vous pouvez faire avec un job en temps réel est de concevoir une logique qui détermine si des réponses doivent être générées à partir d'un cache de données ou de données d'une application back-office (ERP, SCM, CRM).
Voici une technique permettant de créer cette logique :
1. Déterminez la règle d'accès au cache de données et à l'application back-office.
2. Comparez les données de la source en temps réel à la règle.
3. Définissez chaque chemin pouvant résulter de la sortie.
Vous pouvez être amené à prendre en compte le cas où la règle indique l'accès à l'application back-office mais le système n'est pas disponible actuellement.
4. Fusionnez les résultats de chaque chemin dans un jeu de données simple.
5. Transférez le résultat unique vers la cible en temps réel.
Vous pouvez être amené à effectuer un contrôle des erreurs et un traitement des exceptions pour être sûr qu'une valeur est transférée à la cible. Si la cible reçoit un jeu vide, le job en temps réel renvoie une réponse vide (début et fin de balise XML uniquement) au serveur d'accès.
Cet exemple décrit une section d'un job en temps réel qui traite une nouvelle commande client. La section assure le contrôle du stock disponible des produits commandés, elle répond à la question "le stock magasin est-il suffisant pour satisfaire cette commande ? "
La règle contrôlant l'accès à l'application back-office indique que le stock (Stck.) doit être supérieur à une valeur prédéfinie (IMargin), supérieure à la quantité commandée (Qté) pour considérer la valeur en stock des données mises en cache comme acceptable.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
275
Le logiciel compare chaque poste de la commande dans l'ordre de mappage.
Table 90 :Commande d'achat entrante
N° commande IDClient
9999 1001
Elément
001
002
Poste
Article
7333
2288
Table 91 :Cache de données de stock
Article
7333
2288
Stock
600
1500
IMargin
100
200
Qté
300
1400
Remarque
La quantité d'articles dans la commande client est comparée aux valeurs en stock du cache de données.
12.6.3 Appel de fonctions d'application
Un job en temps réel peut utiliser des fonctions d'application pour traiter des données.
Vous pouvez inclure des tables comme paramètres d'entrée ou de sortie à la fonction.
Les fonctions d'application nécessitent des valeurs de saisie pour certains paramètres et certains peuvent ne pas
être renseignés. Vous devez déterminer les exigences de la fonction pour préparer les entrées appropriées.
Pour créer l'entrée, vous pouvez indiquer la table de niveau supérieur, les colonnes de niveau supérieur et toutes les tables imbriquées un niveau au-dessous des tables listées dans la clause FROM du contexte appelant la fonction. Si la fonction d'application comprend une structure comme paramètre d'entrée, vous devez indiquer les colonnes individuelles composant la structure.
Un flux de données peut contenir plusieurs étapes qui appellent une fonction, récupèrent des résultats puis les placent dans les colonnes et les tables requises pour une réponse.
12.7 Conception d'applications en temps réel
Vous pouvez créer des applications en temps réel qui répondent à vos besoins en matière de ressource et d'informations internes et externes.
Le logiciel propose une connexion à faible impact fiable entre une application Web et des applications back-office, par exemple un système ERP. Chaque implémentation d'un système ERP étant différente et le logiciel incluant une logique d'aide à la décision polyvalente, vous pouvez décider de concevoir un système.
276
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
12.7.1 Baisse des requêtes nécessitant un accès à une application back-office
Ensemble de recommandations et de considérations permettant de réduire le temps passé à tester des cycles de développement.
Les informations auxquelles vos clients sont autorisés à accéder via votre application Web peuvent influencer la performance que les clients voient sur le Web. Vous pouvez améliorer la performance par vos décisions en matière de conception d'application Web. Notamment, vous pouvez structurer votre application pour réduire le nombre de requêtes nécessitant un accès direct à l'application back-office (ERP, SCM, système hérité).
Par exemple, si votre système ERP prend en charge une structure de détermination du prix complexe qui comprend des dépendances, par exemple la priorité du client, la disponibilité du produit ou la quantité commandée, vous ne pourrez peut-être pas compter sur les valeurs d'un cache de données pour les informations prix. L'autre solution serait de demander les informations prix directement à partir du système ERP. L'accès au système ERP semble plus lent que l'accès direct à la base de données, réduisant la performance des expériences de vos clients avec l'application Web.
Pour réduire l'impact des requêtes nécessitant un accès direct au système ERP, modifiez votre application Web.
Via l'exemple de la détermination du prix, personnalisez l'application pour éviter l'affichage des informations prix avec des informations produit standard et affichez la détermination du prix uniquement après le choix d'un produit ou d'une quantité spécifique par le client. Ces techniques paraissent évidentes dans le cadre des systèmes de réservations de compagnies aériennes qui fournissent des informations prix, une offre pour un vol spécifique, contrairement à d'autres sites Web qui indiquent la détermination du prix pour chaque article affiché comme élément des catalogues de produit.
12.7.2 Messages de jobs en temps réel aux instances d'adaptateur
Si un job en temps réel souhaite envoyer un message à une instance d'adaptateur, vous devez décider si vous devez créer un appel de fonction de message ou un message sortant.
● Les appels de fonction message permettent à l'instance d'adaptateur de collecter des demandes et d'envoyer des réponses.
● Les objets de message sortant peuvent uniquement envoyer des messages sortants. Ils ne peuvent pas être utilisés pour recevoir des messages.
12.7.3 Service en temps réel appelé par une instance d'adaptateur
Lorsqu'une instance de l'opération (dans un adaptateur) reçoit un message d'une ressource d'information, elle le convertit en fichier XML (le cas échéant) puis envoie le message XML à un service en temps réel.
Dans le service en temps réel, le message de l'adaptateur est représenté par un objet de schéma DTD ou XML
(archivé dans l'onglet
Formats
de la bibliothèque d'objets). Le schéma DTD ou XML représente le schéma de données pour la ressource d'information.
Guide de Designer
Jobs en temps réel
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
277
Le service en temps réel traite le message de la ressource de l'information (transmis par l'adaptateur) et renvoie une réponse.
Dans l'exemple de flux de données ci-dessous, le Query traite un message (représenté ici par "Activité") reçu d'une source (une instance de l'adaptateur) et renvoie la réponse à une cible (à nouveau une instance de l'adaptateur).
Remarque
Ce document utilise des termes propres à la programmation Java. (Reportez-vous à la documentation SDK sur l'adaptateur pour en savoir plus sur les termes tels que instance de l'opération et ressource de l'information.)
278
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Jobs en temps réel
13 Flux de données intégrés
Un flux de données intégré est un flux de données qui est appelé depuis un autre flux de données.
Le logiciel fournit des options faciles à utiliser pour créer des flux de données intégrés.
13.1 Vue d'ensemble des flux de données intégrés
Les données sont transmises dans ou en dehors du flux de données intégré à partir du flux parent par une seule source ou cible.
Un flux de données intégré peut contenir autant de sources ou cibles que nécessaire, mais uniquement un seule entrée ou une seule sortie peut transmettre les données vers ou depuis le flux de données parent.
Il est possible de créer les types de flux de données intégrés suivants :
Table 92 :
Type
Une entrée
Une sortie
Aucune entrée ni sortie
A utiliser lorsque vous souhaitez...
Ajouter un flux de données intégré à la fin d'un flux de données.
Ajouter un flux de données intégré au début d'un flux de données.
Répliquer un flux de données existant.
Un flux de données intégré est une aide à la conception qui n'a aucun effet sur l'exécution des jobs. Lorsque le logiciel exécute le flux de données parent, il développe les flux de données intégrés, optimise le flux de données parent puis l'exécute.
Utilisez les flux de données intégrés pour :
● Simplifier l'affichage du flux de données. Regroupez des sections d'un flux de données dans les flux de données intégrés pour permettre une documentation et une présentation plus claires.
● Réutiliser la logique du flux de données. Enregistrez les sections logiques d'un flux de données pour pouvoir utiliser la logique exacte dans d'autres flux de données, ou fournir ou manière simple de répliquer la logique et de la modifier pour d'autres flux.
● Déboguer la logique du flux de données. Répliquez les sections d'un flux de données comme des flux de données intégrés pour pouvoir les exécuter indépendamment.
Guide de Designer
Flux de données intégrés
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
279
13.2 Exemples de flux de données imbriquées
Exemples de cas présentant où et comment utiliser les flux de données intégrés.
Dans cet exemple, un flux de données utilise une source unique pour charger trois systèmes cibles différents. La transformation Case envoie chaque ligne de la source aux différentes transformations qui les traitent pour obtenir une sortie cible unique.
Il est possible de simplifier le flux de données parent en utilisant des flux de données intégrés pour les trois cas différents.
13.3 Création de flux de données intégrés
Vous pouvez créer un flux de données intégré ou intégrer un flux de données existant.
Pour créer des flux de données intégrés, vous pouvez utiliser l'une des deux méthodes suivantes :
280
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données intégrés
● Sélectionnez les objets dans un flux de donnée, faites un clic droit et sélectionnez
Créer un flux de données intégré
.
● Faites glisser un flux de données complet et validé de la bibliothèque d'objets vers un flux de données ouvert dans l'espace de travail. Puis :
○ Ouvrez le flux de données que vous venez à l'instant d'ajouter.
○ Faites un clic droit sur un objet que vous souhaitez utiliser comme un port d'entrée ou de sortie et sélectionnez
Créer le port
pour cet objet.
Le logiciel marque l'objet que vous sélectionnez comme le point de connexion pour ce flux de données intégré.
Remarque
Il est possible d'indiquer un seul port, ce qui signifie que le flux de données intégré peut apparaitre uniquement au début ou à la fin du flux de données parent.
Data Services ignore certains des fichiers physiques requis pour les sources et cibles auxquelles des ports sont affectés.
○ Lors de l'utilisation d'un flux de données intégré, certaines données seront directement transmises de l'appelant vers la ou les transformations en regard du port source.
○ Lors de l'utilisation directe d'un flux de données, Data Services utilisera les fichiers physiques dans les sources et cibles, mais ignorera les ports.
13.3.1 Utilisation de l'option Créer un flux de données intégré
Utilisez cette option pour créer un flux de données intégré.
1. Sélectionnez les objets dans un flux de données ouvert à l'aide d'une des méthodes suivantes :
○ Cliquez sur l'espace vide et faites glisser le rectangle autour des objets.
○ Appuyez sur Ctrl et cliquez sur chaque objet.
Assurez-vous que les objets que vous sélectionnez sont :
○ tous connectés les uns aux autres ;
○ connectés à d'autres objets en fonction du type de flux de données intégré que vous souhaitez créer, tel qu'une entrée, une sortie, ou aucune entrée ni sortie.
2. Faites un clic droit et sélectionnez
Créer un flux de données intégré
.
La fenêtre Créer un flux de données intégré s'ouvre, avec le flux de données intégré connecté au flux parent par un objet d'entrée.
3. Nommez le flux de données intégré à l'aide de la convention FDI_
<NomFDI>
; par exemple FDI_ERP.
Si vous décochez la case Remplacer les objets dans le flux de données d'origine, le logiciel n'apporte aucune modification dans le flux de données d'origine. Le logiciel enregistre le nouvel objet du flux de données intégré dans le référentiel et l'affiche dans la bibliothèque d'objets sous l'onglet Flux de données.
Vous pouvez utiliser un flux de données intégré créé sans remplacement comme un flux de données autonome pour le dépannage.
Si l'option Remplacer les objets dans le flux de données d'origine est sélectionnée, le flux de données d'origine devient un flux de données parent, qui a un appel vers le nouveau flux de données intégré.
Guide de Designer
Flux de données intégrés
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
281
4. Cliquez sur
OK
.
Le flux de données intégré apparaît dans le nouveau flux de données parent.
5. Cliquez sur le nom du flux de données intégré pour l'ouvrir.
6. Notez que le logiciel a créé un nouvel objet, FDI_ERP_Entrée, qui correspond au port d'entrée qui connecte ce flux de données intégré au flux de données parent.
Lorsque vous utilisez l'option
Créer un flux de données intégré
, le logiciel crée automatiquement un objet d'entrée ou de sortie en fonction de l'objet qui est connecté au flux de données intégré lors de sa création.
Par exemple, si un flux de données intégré a une connexion de sortie, le flux de données intégré inclut alors un objet de fichier XML cible étiqueté
<NomFDI> _Sortie.
Les conventions d'affectation de nom pour chaque type de flux de données intégré sont :
Table 93 :
Type
Une entrée
Une sortie
Aucune entrée ni sortie
Conventions d'affectation de nom
<NomFDI>
_Entrée
<NomFDI>
_Sortie
Le logiciel crée un flux de données intégré sans objet d'entrée ou de sortie.
282
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données intégrés
13.3.2 Création de flux de données intégrés à partir de flux existants
Vous pouvez appeler un flux de données existant depuis un autre flux de données.
Vous devrez placer le flux de données dans le flux de données parent, puis marquer quelle source ou quelle cible utiliser pour transmettre les données entre les flux de données parent et intégré.
1. Faites glisser un flux de données valide existant de la bibliothèque d'objets dans un flux de données qui est ouvert dans l'espace de travail.
2. Pensez à renommer le flux à l'aide de la convention d'appellation FDI_
<NomFDI>
.
Le flux de données intégré apparaît sans aucune pointe de flèche (ports) dans l'espace de travail.
3. Ouvrez le flux de données intégré.
4. Faites un clic droit sur un objet cible ou source (fichier ou table) et sélectionnez
Créer le port
.
Remarque
Assurez-vous de spécifier uniquement un port de sortie ou d'entrée.
De la même façon qu'un flux de données normal, les différents types de ports de flux de données intégrés sont indiqués par des marquages directionnels sur l'icône du flux de données intégré.
13.3.3 Utilisation des flux de données intégrés
Lorsque vous créez et configurez un flux de données intégré à l'aide de l'option
Créer un flux de données intégré
, le logiciel crée un nouveau fichier XML d'entrée ou de sortie et enregistre le schéma dans le référentiel comme un schéma XML.
Il est possible de réutiliser un flux de données intégré en le faisant glisser de l'onglet
Flux de données
de la bibliothèque d'objets vers d'autres flux de données. Pour enregistrer l'heure de mappage, il est possible que vous souhaitiez utiliser l'option Mettre à jour le schéma ou l'option Schéma de correspondance.
Le scénario d'exemple suivant utilise les deux options :
● Créez le flux de données 1.
● Sélectionnez les objets dans le flux de données 1 et créez le flux de données intégré 1 pour que le flux de données parent 1 appelle le flux de données intégré 1.
● Créez le flux de données 2 et le flux de données 3 et ajoutez le flux de données intégré 1 aux deux flux.
● Retournez au flux de données 1. Modifiez le schéma de l'objet précédant le flux de données intégré 1 et utilisez l'option Mettre à jour le schéma avec le flux de données intégré 1. Cette option met à jour le schéma du flux de données intégré 1 dans le référentiel.
● Désormais, les schémas dans les flux de données 2 et 3 qui sont alimentés dans le flux de données intégré 1 seront différents du schéma attendu par le flux de données intégré.
● Utilisez l'option Schéma de correspondance pour le flux de données intégré 1 dans les flux de données 2 et 3 pour résoudre les incohérences au moment de l'exécution. L'option Schéma de correspondance affecte uniquement les paramètres dans le flux de données actuel.
Les sections suivantes décrivent plus en détail l'utilisation des options Mettre à jour le schéma et Schéma de correspondance.
Guide de Designer
Flux de données intégrés
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
283
13.3.3.1 Mise à jour des schémas
Le logiciel fournit une option pour mettre à jour un schéma d'entrée d'un flux de données intégré.
Cette option met à jour le schéma d'un objet d'entrée d'un flux de données intégré avec le schéma de l'objet précédent dans le flux de données parent. Toutes les occurrences du flux de données intégré se mettent à jour lorsque vous utilisez cette option.
1. Ouvrez le flux de données parent du flux de données intégré.
2. Faites un clic droit sur l'objet du flux de données intégré et sélectionnez
Mettre à jour le schéma
.
13.3.3.2 Correspondance des données entre les flux de données parent et intégré
Le schéma d'un objet d'entrée d'un flux de données intégré peut correspondre à un schéma de l'objet précédent dans le flux de données parent par le nom ou par le poste. Une correspondance par poste est celle par défaut.
13.3.3.2.1 Spécifier la manière dont les schémas doivent correspondre
1. Ouvrez le flux de données parent du flux de données intégré.
2. Faites un clic droit sur l'objet du flux de données intégré et sélectionnez
Schéma de correspondancePar nom
ou
Schéma de correspondancePar poste
.
L'option Schéma de correspondance affecte uniquement les paramètres pour le flux de données actuel.
Data Services permet également au schéma de l'objet précédent dans le flux de données parent d'avoir plus ou moins de colonnes que le flux de données intégré. Le flux de données intégré ignore les colonnes supplémentaires et lit les colonnes manquantes comme des valeurs nulles.
Les colonnes dans les deux schémas doivent avoir des types de données identiques ou convertibles. Consultez la section sur la "Conversion de type" dans le Guide de référence pour plus d'informations.
13.3.3.3 Suppression d'objets de flux de données intégré
Il est possible de supprimer les ports du flux de données intégré ou de supprimer l'intégralité des flux de données intégrés.
284
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données intégrés
13.3.3.3.1 Supprimer un port
Faites un clic droit sur l'objet d'entrée ou de sortie dans le flux de données intégré et décochez
Créer le port
. Data
Services supprime la connexion à l'objet parent.
Remarque
Il est impossible de supprimer un port en supprimant simplement la connexion dans le flux parent.
13.3.3.3.2 Suppression d'un flux de données intégré
Sélectionnez-le dans le flux de données parent ouvert et sélectionnez
Supprimer
dans le menu clic droit ou dans le menu Edition.
Si vous supprimez des flux de données intégrés de la bibliothèque d'objets, l'icône du flux de données intégré apparait avec un cercle rouge barré dans le flux de données parent.
Supprimez ces objets de flux de données intégré qui n'existent plus des flux de données parent.
13.3.4 Test séparé d'un flux de données intégré
Les flux de données intégrés peuvent être testés en les exécutant séparément comme des flux de donnés réguliers.
1. Indiquez un fichier XML pour le port d'entrée ou le port de sortie.
Lorsque vous utilisez l'option Créer un flux de données intégré, un objet du fichier XML d'entrée ou de sortie est créé puis connecté (facultatif) à l'objet précédent ou suivant dans le flux de données parents. Pour tester le fichier XML sans le flux de données parent, cliquez sur le nom du fichier XML pour ouvrir son éditeur source ou cible pour indiquer un nom de fichier.
2. Placez le flux de données intégré dans un job.
3. Exécutez le job.
Il est également possible d'utiliser les fonctionnalités suivantes pour tester des flux de données intégrés :
● Afficher les données pour les exemples de données passées dans un flux de données intégré.
● Statistiques d'audit sur les données lues depuis les sources, transformées, et chargées dans les cibles, et règles sur les statistiques d'audit pour vérifier que les données attendues sont traitées.
Guide de Designer
Flux de données intégrés
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
285
Informations associées
Conception et débogage [page 612]
13.3.5 Dépannage des flux de données intégrés
Les situations suivantes produisent des erreurs :
● Un port d'entrée et un port de sortie sont indiqués dans un flux de données intégré.
● Flux de données qui n'existent plus piégés.
● Connexion au flux de données parent supprimée alors que l'option
Créer le port
dans le flux de données intégré reste sélectionnée.
● Les transformations avec des séparateurs (comme la transformation Case) indiquées comme l'objet du port de sortie car un séparateur produit plusieurs sorties, et les flux de données intégrés peuvent seulement en avoir une.
● Variables et paramètres déclarés dans le flux de données intégré qui ne sont pas déclarés dans le flux de données parent.
● Intégration du même flux de données à tous les niveaux de ce flux de données.
Il est cependant possible d'avoir des niveaux d'intégration illimités. Par exemple, le flux de données FDI1 appelle le flux de données intégré FDI1 qui appelle le FDI2.
Informations associées
Suppression d'un flux de données intégré [page 285]
286
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Flux de données intégrés
14 Variables et paramètres
Vous pouvez améliorer la flexibilité et la réutilisabilité des workflows et des flux de données en utilisant des variables locales et globales lorsque vous créez des jobs.
Les variables sont des caractères génériques symboliques pour les valeurs. Les types de données d'une variable peuvent être de n'importe quel type pris en charge par le logiciel comme un entier, une décimale, une date ou une chaîne texte.
Vous pouvez utiliser des variables dans des expressions pour simplifier la prise de décision ou l'utilisation de données (utilisation de l'arithmétique ou substitution de caractère). Par exemple, une variable peut être utilisée dans une instruction LOOP ou IF pour vérifier une valeur de variable afin de définir l'étape à exécuter :
If $ <amount_owed> > 0 print('$ <invoice.doc> ');
Si vous définissez des variables dans un job ou un workflow, le logiciel les utilise généralement dans un script, un catch ou un processus conditionnel.
Vous pouvez utiliser des variables dans des flux de données. Par exemple, utilisez-les dans une fonction personnalisée ou dans la clause WHERE d'une transformation Query.
Il existe deux types de variables, chacune ayant ses propres restrictions.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
287
Table 94 :
Type de variable
Locale
Globale
Restrictions
Limitées à l'objet dans lequel elles sont créées (job ou work flow). Vous devez utiliser des paramètres pour transférer des variables locales aux objets enfant (worflows et flux de don nées).
Limitées au job dans lequel elles sont créées ; cependant, les paramètres ne doivent pas être nécessairement transférés aux workflows et aux flux de données.
Remarque
Si vous avez des workflows exécutés en parallèle, les varia bles globales ne sont pas affectées.
Remarque
Les paramètres sont des expressions transférées dans un workflow ou un flux de données lorsqu'ils sont appelés dans un job.
Vous créez des variables locales, des paramètres et des variables globales à l'aide de la fenêtre Variables et paramètres dans Designer.
Vous pouvez définir des valeurs pour des variables locales ou globales dans des objets de script. Vous pouvez
également définir des valeurs de variables globales à l'aide d'un job externe, d'une exécution ou de propriétés de planification.
Vous pouvez utiliser des variables comme noms de fichier pour les sources et cibles suivantes :
● Sources et cibles de fichier plat
● Sources et cibles de fichier XML
● Cibles de message XML (exécutées dans Designer en mode test)
● Sources et cibles de fichier IDoc (dans un environnement d'application SAP)
● Sources et cibles de message IDoc (dans un environnement d'application SAP)
Informations associées
288
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
14.1 Fenêtre Variables et paramètres
La boîte de dialogue
Variables et paramètres
se maintient au-dessus de ce que vous avez ouvert dans la zone de projet et l'espace de travail de Designer.
Le
Contexte
Lorsque vous ouvrez d'autres objets, cette boîte ne se ferme pas, elle ne se minimise pas non plus, mais il est possible de la glisser à une autre position si nécessaire. Lorsque vous cliquez sur d'autres objets applicables, le logiciel modifie le contenu de l'étiquette (en affichant le nom de l'objet ouvert) en haut de la boîte de dialogue
Variables et paramètres
pour afficher les variables et les paramètres de l'objet sélectionné L'étiquette
Contexte
reflète le nom de l'objet nouvellement sélectionné. Si l'objet n'est pas applicable aux variables et paramètres, ou s'il n'a pas de variable ni de paramètre définis, le contenu de la boîte ne se modifie pas ou reste vide.
Deux onglets composent la partie principale de la boîte : l'étiquette
Définitions
(en haut de la boîte de la dialogue) affiche le nom de l'objet sélectionné et
Appels
.
●
Définitions
: afficher et créer des variables et paramètres.
●
Appels
: afficher le nom de chaque paramètre défini pour tous les objets dans une définition d'objet parent.
De plus, si vous cliquez droit avec le bouton sur une variable ou un paramètre dans les onglets et sélectionnez
Afficher utilisation
dans le menu contextuel, vous obtiendrez des informations concernant les autres objets utilisant la variable et le paramètre en question.
Informations associées
Onglets Définitions et Appels [page 290]
Types de variables et paramètres [page 289]
Accès à Afficher utilisation depuis la fenêtre Variables et paramètres [page 293]
14.1.1 Types de variables et paramètres
Les variables et paramètres sont utilisés différemment en fonction du type d'objet et de si la variable est locale ou globale.
La table suivante répertorie les variables et paramètres que vous pouvez créer en fonction du type d'objet et la façon de les utiliser.
Table 95 :
Type d'objet Variables et paramètres applicables Utilisé par
Job Variables locales
Variables globales
Script ou structure conditionnelle dans le job
Tout objet dans le job
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
289
Type d'objet
Workflow
Flux de données
Variables et paramètres applicables
Variables locales
Paramètres
Paramètres
Utilisé par
Workflow actuel transféré vers d'autres work flows ou flux de données à l'aide d'un paramè tre.
Objets parents pour transférer des variables lo cales. Les workflows peuvent également ren voyer des variables ou des paramètres aux ob jets parents.
Clause WHERE, mappage de colonne ou fonc tion dans le flux de données. Les flux de don nées ne peuvent pas renvoyer des valeurs de sortie.
14.1.2 Onglets Définitions et Appels
La boîte de dialogue
Variables et paramètres
est constituée des ongles
Définitions
et
Appels
. La valeur
Contexte
reflète le nom de l'objet sélectionné.
Dans les onglets
Définitions
et
Appels
, il est possible de cliquer avec le bouton droit sur une variable ou un nom de paramètre et sélectionner
Afficher utilisation
depuis le menu contextuel. Une boîte de dialogue
Rechercher
s'ouvre, répertoriant les autres objets utilisant la variable ou le paramètre mis en surbrillance.
Table 96 :
Onglet Objectif
Définitions
Afficher les variables (nom et type de données) et les paramè tres (nom, type de données et type de paramètre) pour l'objet sélectionné et créer de nouvelles variables et de nouveaux pa ramètres.
● Définir la variable locale et les paramètres au niveau du workflow et du flux de données.
● Définir les variables globales au niveau de job.
290
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
Onglet
Appels
Objectif
Afficher le nom de chaque paramètre défini pour les objets dans une définition d'objet parent et saisir les valeurs de cha que paramètre.
● Type de paramètre d'entrée : les valeurs peuvent être des constantes, des variables ou autre paramètre.
● Sortie ou type de paramètre d'entrée/sortie : les valeurs peuvent être des variables ou des paramètres.
En outre, les valeurs de l'onglet
Appels
doivent utiliser :
● Le même type de données que la variable, car elles se si tuent dans une entrée ou un type de paramètre entrée/ sortie.
● Un type de données compatible si elles se situent dans un type de paramètre de sortie.
● Des règles et la syntaxe de la langue de script.
Exemple
L'illustration suivante présente le contenu des onglets
Définitions
et
Appels
dans la fenêtre
Variables et paramètres
pour le workflow en cours appelé WF_DeltaFacts. Notez que le nom du workflow s'affiche dans l'étiquette
Contexte
, en haut de la fenêtre
Variables et paramètres
.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
291
Informations associées
Fenêtre Variables et paramètres [page 289]
Accès à Afficher utilisation depuis la fenêtre Variables et paramètres [page 293]
Affichage de variables et paramètres [page 292]
14.2 Affichage de variables et paramètres
Utilisez la fenêtre
Variables et paramètres
pour afficher, modifier et créer des variables locales et globales et des paramètres pour les objets sélectionnés dans Designer.
1. Dans Designer sélectionnez
Outils Variables
.
La fenêtre
Variables et paramètres
s'ouvre.
2. Double-cliquez sur l'objet applicable dans la bibliothèque d'objets ou cliquez sur un objet dans la zone de projet ou l'espace de travail.
292
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
L'étiquette
Contexte
de la fenêtre
Variables et paramètres
affiche le nom de l'objet sélectionné ou de l'objet affiché dans l'espace de travail. Si aucun objet n'est sélectionné ou si l'objet n'est pas applicable aux variables et paramètres, le contenu de la fenêtre ne change pas ou reste vide.
3. Le cas échéant, ouvrez un autre objet.
Le contenu de
Variables et paramètres
change pour refléter les variables et paramètres de l'objet nouvellement ouvert.
Informations associées
Fenêtre Variables et paramètres [page 289]
Types de variables et paramètres [page 289]
Onglets Définitions et Appels [page 290]
14.3 Accès à Afficher utilisation depuis la fenêtre Variables et paramètres
Utilisez
Afficher utilisation
pour les objets dans la boîte de dialogue
Variables et paramètres
.
1. Depuis la bibliothèque d'objets, ouvrez un job, un workflow ou un flux de données.
2. Sélectionnez
Outils Variables
.
La boîte de dialogue
Variables et paramètres
s'ouvre.
3. Soit dans l'onglet
Définitions
soit dans l'onglet
Appels
, cliquez avec le bouton droit sur le nom d'une variable applicable puis sélectionnez
Afficher utilisation
du menu contextuel.
La boîte de dialogue
Rechercher
s'ouvre et affiche une liste de tous les objets utilisant la variable.
Remarque
Il n'est pas nécessaire de modifier les paramètres dans la boîte de dialogue
Recherche
. Le logiciel renseigne automatiquement les critères de recherche pour trouver les informations «afficher utilisation» pour la variable sélectionnée.
Sans fermer la boîte de dialogue
Recherche
ou celle de
Variables et paramètres
, vous pouvez sélectionner un autre objet de la bibliothèque d'objets et effectuer la même procédure pour obtenir les informations d'une autre variable.
Informations associées
Fenêtre Variables et paramètres [page 289]
Affichage de variables et paramètres [page 292]
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
293
14.4 Utiliser des variables locales et des paramètres
Pour transférer une variable locale vers un autre objet, définissez la variable locale, puis à partir de l'objet appelant, créez un paramètre et mappez le paramètre à la variable locale en saisissant une valeur de paramètre.
Exemple
Pour utiliser une variable locale dans un flux de données, définissez la variable dans un workflow parent puis transférez la valeur de la variable comme paramètre du flux de données.
14.4.1 Paramètres
Des paramètres peuvent être définis pour :
● Transférer leurs valeurs aux workflows ou à l'extérieur de workflows
● Transférer leurs valeurs aux flux de données
Un type : entrée, sortie ou entrée/sortie est affecté à chaque paramètre. La valeur transférée par le paramètre peut être utilisée par tout objet appelé par le workflow ou flux de données.
Remarque
Vous pouvez également créer des variables locales et des paramètres à utiliser dans des fonctions personnalisées.
294
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
14.4.2 Transférer les valeurs dans le flux de données
Vous pouvez utiliser une valeur transférée comme paramètre dans un flux de données pour contrôler les données transformées dans le flux de données.
Exemple
Le flux de données DF_PartFlow traite quotidiennement des valeurs en stock. Il peut traiter tous les numéros de pièce fabricant utilisés ou une gamme de numéros de pièce fabricant en fonction d'exigences externes, par exemple la tranche de numéros traitée en dernier.
Si le workflow qui appelle DF_PartFlow enregistre la tranche de numéros traitée, il peut transférer la valeur de fin de la tranche $EndRange comme paramètre aux flux de données pour indiquer la valeur de début de la tranche suivante à traiter.
Le logiciel peut calculer une nouvelle valeur de fin en fonction d'un numéro de pièce fabricant archivé à traiter chaque fois, par exemple $SizeOfSet puis transférer cette valeur au flux de données comme valeur de fin.
Une transformation Query dans le flux de données utilise les paramètres transférés pour filtrer les numéros de pièce fabricant extraits de la source.
Le flux de données pourrait être utilisé par plusieurs appels figurant dans un ou plusieurs workflows pour exécuter la même tâche sur différentes tranches de numéros en indiquant différents paramètres pour les appels spécifiques.
14.4.3 Définir une variable locale
Étapes pour utiliser la fenêtre Variables et paramètres afin de définir une variable locale pour un job ou un flux de données.
1. Dans Designer, cliquez sur le nom du job ou du workflow dans la zone de projet ou l'espace de travail ou cliquez deux fois sur la bibliothèque d'objets.
2. Cliquez sur
Outils Variables
.
La fenêtre
Variables et paramètres
s'ouvre. La fenêtre affiche toutes les variables actuellement définies pour cet objet.
3. En ayant ouvert l'onglet Définition, cliquez avec le bouton droit sur
Variables
et sélectionnez
Insérer
. S'il existe des variables répertoriées, insérez une variable à une position spécifique dans la liste en cliquant avec le bouton droit sur une variable puis sélectionnez
Insérer avant
ou
Insérer après
.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
295
Une nouvelle variable apparaît dans la liste sous le nom $NewVariable0. Une boîte de contexte s'affiche autour de la cellule du nom et le curseur prend la forme d'une flèche avec un crayon jaune pour modification.
4. Cliquez sur $NewVariable0 dans la cellule du nom et saisissez un nouveau nom pour la variable : le nom doit commencer avec le symbole dollar ($).
Le nom peut contenir des caractères alphanumériques ou des traits de soulignement, mais il ne peut pas contenir d'espace. Le nom doit toujours commencer par un symbole dollar ($).
5. Cliquez sur la cellule du type de données pour la nouvelle variable et sélectionnez le type de données approprié dans la liste déroulante.
6. Facultatif. Si plus d'une variable est créée, indiquez l'ordre de la nouvelle variable dans la liste à l'aide du menu contextuel (cliquez avec le bouton droit) et sélectionnez
Déplacer vers le haut
ou
Déplacer vers le bas
.
7. Une fois les variables créées et modifiées, fermez la fenêtre Variables et paramètres en cliquant sur le «x» en haut à droite.
14.4.4 Définir une variable locale
Étapes pour copier une variable existante afin d'en créer une nouvelle.
1. Dans Designer, cliquez sur le nom du job ou du workflow dans la zone de projet ou l'espace de travail ou cliquez deux fois sur la bibliothèque d'objets.
2. Cliquez sur
Outils Variables
.
La fenêtre
Variables et paramètres
s'affiche. La fenêtre affiche toutes les variables actuellement définies pour cet objet.
3. En ayant ouvert l'onglet
Définition
, cliquez avec le bouton droit sur la variable à copier et cliquez sur
Répliquer
.
Une fenêtre de propriétés s'ouvre et affiche une nouvelle variable avec les mêmes propriétés que la variable répliquée et un nom modifiable (par exemple, $Copy_1_NewVariable1).
4. Saisissez le nouveau nom de la variable et effectuez toute autre modification de Type de données, le cas
échéant.
Le nom peut contenir des caractères alphanumériques ou des traits de soulignement, mais il ne peut pas contenir d'espace. Le nom doit toujours commencer par un symbole dollar ($).
5. Cliquez sur
OK
.
La nouvelle variable apparaît dans la liste de variables de l'onglet
Définition
.
6. Facultatif. Cliquez avec le bouton droit sur le nom de la variable de la liste puis sélectionnez
Déplacer vers le haut
ou
Déplacer vers le bas
pour déplacer la variable à un nouvel emplacement dans la liste.
7. Une fois les variables créées et modifiées, fermez la fenêtre Variables et paramètres en cliquant sur le «x» en haut à droite.
14.4.5 Définition de paramètres
Deux étapes permettent de configurer un paramètre pour un workflow ou un flux de données :
● Ajouter la définition de paramètre au flux.
296
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
● Définir la valeur du paramètre dans l'appel de flux.
14.4.5.1 Ajouter un paramètre à un workflow ou à un flux de données
1. Cliquez sur le nom du workflow ou du flux de données.
2. Cliquez sur
Outils Variables
.
La fenêtre
Variables et paramètres
s'affiche.
3. Accédez à l'onglet
Définition
.
4. Sélectionnez
Paramètres
.
5. Cliquez avec le bouton droit de la souris et sélectionnez
Insérer
. Ou, pour insérer un paramètre à une position spécifique dans la liste, sélectionnez un paramètre existant, cliquez avec le bouton droit de la souris et sélectionnez
Insérer avant
ou
Insérer après
.
Un nouveau paramètre s'affiche (par exemple, $NewParameter0). Un cadre de contexte s'affiche et le curseur prend la forme d'une flèche avec un crayon jaune.
6. Pour modifier le nom d'une variable, cliquez sur la cellule du nom.
Le nom peut contenir des caractères alphanumériques ou des traits de soulignement, mais il ne peut pas contenir d'espace. Le nom doit toujours commencer par un symbole dollar ($).
7. Cliquez sur la cellule du type de données pour le nouveau paramètre et sélectionnez le type de données approprié dans la liste déroulante.
Si le paramètre est une entrée ou un paramètre d'entrée/de sortie, il doit avoir le même type de données que la variable ; si le paramètre est un type de paramètre de sortie, il doit avoir un type de données compatible.
8. Cliquez sur la cellule du type de paramètre et sélectionnez le type de paramètre (entrée, sortie ou entrée/ sortie).
9. Pour spécifier la position du paramètre dans la liste, cliquez avec le bouton droit de la souris sur le paramètre et sélectionnez
Déplacer vers le haut
ou
Déplacer vers le bas
.
10. Fermez la fenêtre
Variables et paramètres
.
14.4.5.2 Définir la valeur du paramètre dans l'appel de flux
1. Ouvrez le job appelant, le workflow ou le flux de données.
2. Cliquez sur
Outils Variables
pour ouvrir la fenêtre
Variables et paramètres
.
3. Sélectionnez l'onglet
Appels
.
L'onglet Appels affiche tous les objets appelés à partir du job en cours, workflow ou flux de données.
4. Cliquez sur la cellule
Valeur d'argument
.
Un cadre de contexte s'affiche et le curseur prend la forme d'une flèche avec un crayon jaune.
5. Saisissez l'expression que le paramètre transfèrera dans la cellule.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
297
Si le type de paramètre est une entrée, sa valeur peut être une expression contenant une constante (par exemple, 0, 3 ou 'string1'), une variable ou un autre paramètre (par exemple, $startID ou $parm1).
Si le type de paramètre est une sortie ou une entrée/sortie, la valeur doit être une variable ou un paramètre.
La valeur ne peut pas être une constante car par définition, la valeur d'un paramètre sortie ou entrée/sortie peut être modifiée par tout objet dans le flux.
Pour indiquer des valeurs spécifiques, utilisez la syntaxe suivante :
Table 97 :
Type de valeur Syntaxe spécifique
Variable
Chaîne
<$variable_name>
<'string>
'
14.5 Utiliser des variables globales
Les variables globales sont globales uniquement dans un job. Il n'est pas nécessaire de définir des paramètres lorsque vous utilisez des variables globales.
Lorsque vous affectez un nom à une variable globale, ce nom est exclusif au job, et il est impossible d'utiliser la même variable globale ou le même nom de variable globale dans un autre job.
Les variables globales apportent un maximum de flexibilité lors de l'exécution. Par exemple, au cours de la production, vous pouvez modifier des valeurs de variables globales par défaut au cours de l'exécution à partir d'une planification de job ou d'un appel SOAP sans avoir à ouvrir un job dans Designer.
Vous pouvez définir les valeurs des variables globales dans les objets de script, ou vous pouvez utiliser un job externe, une exécution ou des propriétés de planification.
14.5.1 Définition d'une variable globale
Étapes pour utiliser la fenêtre Variables et paramètres afin de définir une variable globale pour un job.
1. Dans Designer, cliquez sur le nom du job dans la zone de projet ou l'espace de travail ou cliquez deux fois sur la bibliothèque d'objets.
2. Cliquez sur
Outils Variables
.
La fenêtre
Variables et paramètres
s'affiche. La fenêtre affiche toutes les variables actuellement définies pour cet objet.
3. En ayant ouvert l'onglet Définition, cliquez avec le bouton droit sur
Variables globales
et sélectionnez
Insérer
.
S'il existe des variables répertoriées, insérez une variable à une position spécifique dans la liste en cliquant avec le bouton droit sur une variable puis sélectionnez
Insérer avant
ou
Insérer après
.
Une nouvelle variable apparaît dans la liste sous le nom $NewJobGlobalVariable0. Une boîte de contexte s'affiche autour de la cellule du nom et le curseur prend la forme d'une flèche avec un crayon jaune pour modification.
298
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
4. Cliquez sur $NewJobGlobalVariable0 dans la cellule du nom et saisissez un nouveau nom pour la variable : le nom doit commencer avec le symbole dollar ($).
Le nom peut contenir des caractères alphanumériques ou des traits de soulignement, mais il ne peut pas contenir d'espace. Le nom doit toujours commencer par un symbole dollar ($).
5. Cliquez sur la cellule du type de données pour la nouvelle variable et sélectionnez le type de données approprié dans la liste déroulante.
6. Facultatif. Si plus d'une variable est créée, indiquez l'ordre de la nouvelle variable dans la liste à l'aide du menu contextuel (cliquez avec le bouton droit) et sélectionnez
Déplacer vers le haut
ou
Déplacer vers le bas
.
7. Une fois les variables créées et modifiées, fermez la fenêtre Variables et paramètres en cliquant sur le «x» en haut à droite.
14.5.2 Répliquer une variable globale
Étapes pour copier une variable globale existante afin d'en créer une nouvelle.
1. Dans Designer, cliquez sur le nom du job dans la zone de projet ou l'espace de travail ou cliquez deux fois sur un nom de job dans la bibliothèque d'objets.
2. Cliquez sur
Outils Variables
.
La fenêtre
Variables et paramètres
s'affiche. La fenêtre affiche toutes les variables actuellement définies pour cet objet.
3. En ayant ouvert l'onglet
Définition
, cliquez avec le bouton droit sur la variable globale à copier et cliquez sur
Répliquer
.
Une fenêtre de propriétés s'ouvre et affiche une nouvelle variable avec les mêmes propriétés que la variable répliquée et un nom modifiable (par exemple, $Copy_1_NewJobGlobalVariable1).
4. Modifiez le nom de la nouvelle variable globale et effectuez toute autre modification de Type de données, le cas échéant.
Le nom peut contenir des caractères alphanumériques ou des traits de soulignement, mais il ne peut pas contenir d'espace. Le nom doit toujours commencer par un symbole dollar ($).
5. Cliquez sur
OK
.
La nouvelle variable globale apparaît dans la liste de variables globales de l'onglet
Définition
.
6. Facultatif. Cliquez avec le bouton droit sur le nom de la variable globale de la liste puis sélectionnez
Déplacer vers le haut
ou
Déplacer vers le bas
pour déplacer la variable à un nouvel emplacement dans la liste.
7. Une fois les variables globales créées et modifiées, fermez la fenêtre Variables et paramètres en cliquant sur le «x» en haut à droite.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
299
14.5.3 Afficher des variables globales à partir de la boîte de dialogue Propriétés
Il est possible d'afficher les variables globales d'un job à l'aide de la fenêtre Variables et paramètres mais vous pouvez également les afficher depuis la boîte de dialogue Propriétés d'un job sélectionné.
Les variables globales définies dans un job sont visibles pour les objets relatifs à ce job. Une variable globale définie dans un job ne peut pas être modifiée ou affichée à partir d'un autre job.
Pour afficher des variables globales à partir de la boîte de dialogue Propriétés d'un job :
1. Dans la bibliothèque d'objets, sélectionnez l'onglet
Jobs
.
2. Cliquez avec le bouton droit sur le job applicable et sélectionnez
Propriétés
.
3. Cliquez sur l'onglet
Variable globale
.
4. Facultatif. Utilisez la zone
Filtre
pour filtrer la liste de variables globales en fonction de caractéristiques spécifiques.
14.5.4 Valeurs pour les variables globales
Outre la définition d'une valeur de variable globale dans un job à l'aide d'un script d'initialisation, vous pouvez
également définir et gérer des valeurs de variable globale à l'extérieur d'un job.
Les valeurs définies à l'extérieur d'un job sont traitées de la même façon que celles définies à l'intérieur d'un job
(dans un script d'initialisation par exemple). Ces deux méthodes ont leurs avantages.
Lorsque vous avez défini des valeurs à la fois internes et externes pour une variable globale dans un job, le logiciel choisit automatiquement la valeur définie à l'intérieur du job comme valeur à utiliser.
Définir des valeurs à l'extérieur d'un job a certains avantages. Par exemple, il est possible d'ouvrir la boîte de dialogue Propriétés d'un job pour afficher les valeurs de substitution globales au lieu d'ouvrir le job.
Vous définissez les valeurs de variable globale à l'extérieur d'un job des façons suivantes :
● Comme propriété de job
● Comme propriété d'exécution ou de planification
Remarque
Il n'est pas nécessaire d'affecter une valeur à une variable globale. Toutefois, le logiciel lit comme NULL une variable globale sans valeur.
Lorsque vous définissez des valeurs pour des variables globales à l'extérieur d'un job, il est possible d'afficher les valeurs dans les boîtes de dialogue Propriétés et Propriétés d'exécution dans Designer et dans les pages Options d'exécution et Planification de l'Administrateur. De plus, vous pouvez modifier facilement les valeurs lorsque vous testez ou planifiez le job.
Remarque
Vous ne pouvez pas transférer des variables globales comme arguments de ligne de commande pour des jobs en temps réel.
300
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
14.5.4.1 Classement automatique de valeurs de variables globales dans un job
Lorsque vous définissez des valeurs pour les variables globales et que vous saisissez des valeurs différentes pour la même variable globale à l'aide de différentes méthodes, le logiciel utilise le classement automatique afin de sélectionner la valeur à utiliser pour une exécution de job.
Le logiciel sélectionne la valeur de classement la plus élevée pour l'utiliser dans le job. Une valeur saisie comme propriété de job a le plus petit classement. Une valeur définie à l'intérieur d'un job a le classement le plus élevé.
14.5.4.1.1 Propriété d'exécution et propriété de job
Si vous définissez une valeur de variable globale à l'aide d'une propriété de job et que vous définissez une variable globale différente (pour la même variable globale) à l'aide d'une propriété d'exécution, la valeur de propriété d'exécution écrase la valeur de propriété de job et devient la valeur par défaut pour l'exécution de job en cours.
Remarque
Vous ne pouvez pas sauvegarder de valeurs de variables globales de propriété d'exécution.
Exemple
Par exemple, supposez qu'un job, JOB_Test1, ait trois variables globales déclarées :
● $YEAR
● $MONTH
● $DAY
Vous définissez la variable «$YEAR» en tant que propriété de job avec la valeur «2003».
Pour l'exécution de job initiale, vous définissez les valeurs de $MONTH et $DAY en tant que propriétés d'exécution comme suit :
● $MONTH = JANUARY'
● $DAY = 31
Le logiciel exécute une liste d'instructions contenant des valeurs par défaut pour JOB_Test1 :
$YEAR=2003;
$MONTH='JANUARY';
$DAY=31;
Pour la seconde exécution de job, vous définissez les variables $YEAR = «2002» et $MONTH = «JANUARY» en tant que propriétés de job mais ne définissez pas de valeur pour $DAY. Le logiciel exécute la liste suivante d'instructions :
$YEAR=2002;
$MONTH='JANUARY';
La valeur de $DAY n'ayant pas été définie lors de l'exécution du second job, le logiciel la lit comme NULL ; la valeur $YEAR est 2002 et non 2003 car vous avez défini «2002» en tant que propriété d'exécution lors de la seconde exécution.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
301
14.5.4.1.2 Propriétés de job et propriétés de planification
Si vous avez défini une valeur de variable globale à la fois pour une propriété de planification et de job, la valeur de propriété de planification se substitue à la valeur de propriété de job et devient la valeur par défaut externe pour l'exécution de job en cours.
Le logiciel sauvegarde la valeur de propriété de planification dans le référentiel. Cependant, ces valeurs sont uniquement associées à une planification de job, pas au job lui-même. Par conséquent, vous devez afficher et modifier ces valeurs dans l'Administrateur.
14.5.4.1.3 Propriété interne au job et propriété externe
La valeur est déterminée lorsque le logiciel tente d'appliquer la valeur externe.
Une valeur de variable globale définie à l'intérieur d'un job se substitue toujours à toute valeur externe.
Cependant, la substitution n'est pas exécutée tant que le logiciel tente d'appliquer les valeurs externes au job en cours d'exécution avec la valeur interne. Jusque là, le logiciel traite les valeurs d'exécution, de planification ou de propriété comme valeurs par défaut.
Exemple
Par exemple, supposez un job nommé JOB_Test2 contenant trois workflows, chacun comportant un flux de données. Le deuxième flux de données se trouve dans un workflow précédé d'un script dans lequel la valeur
MAY est définie pour $MONTH. Le premier et le troisième flux de données ont la même variable globale sans valeur définie. La propriété d'exécution $MONTH = 'APRIL' constitue la valeur de variable globale.
Dans ce scénario, 'APRIL' devient la valeur par défaut pour le job. 'APRIL' reste la valeur de la variable globale tant qu'elle ne se chevauche pas avec une autre valeur pour la même variable dans le deuxième workflow. La valeur du script se trouvant dans le job, 'MAY' se substitue à 'APRIL' pour la variable $MONTH. Le logiciel continue à traiter le job avec cette nouvelle valeur.
302
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
14.5.4.2 Définir une valeur de variable globale comme propriété de job
1. Cliquez avec le bouton droit de la souris sur la librairie d'objets ou sur la zone de projet
2. Cliquez sur
Propriétés
.
3. Cliquez sur l'onglet
Variable globale
.
Toutes les variables globales créées dans ce job s'affichent.
4. Pour filtrer par nom les variables globales affichées, saisissez une partie du nom dans la zone
Filtre
.
5. Saisissez des valeurs pour les variables globales dans ce job.
Vous pouvez utiliser toute instruction utilisée dans un script avec cette option.
6. Pour définir plusieurs valeurs de variable globale, utilisez la touche Contrôle pour sélectionner les variables, cliquez avec le bouton droit de la souris et sélectionnez
Mettre à jour la valeur
. Saisissez la valeur dans l'éditeur rapide et cliquez sur
OK
.
7. Cliquez sur
OK
.
Le logiciel sauvegarde les valeurs dans le référentiel comme propriétés de job.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
303
Vous pouvez également afficher et modifier ces valeurs par défaut dans la boîte de dialogue Propriétés d'exécution de Designer et dans les pages Options d'exécution et Planification de l'Administrateur. Vous pouvez ainsi substituer les valeurs de propriété du job lors de l'exécution.
14.5.4.3 Définir une valeur de variable globale comme propriété d'exécution
1. Exécutez un job à partir de Designer ou bien exécutez ou planifiez un job batch à partir de l'Administrateur.
Remarque
A des fins de test, vous pouvez exécuter des jobs en temps réel à partir de Designer en mode test. Vérifiez que vous avez défini les propriétés d'exécution pour un job en temps réel.
2. Affichez les variables globales dans le job et leurs valeurs par défaut (le cas échéant).
3. Modifiez les valeurs des variables globales le cas échéant.
4. Si vous utilisez Designer, cliquez sur
OK
. Si vous utilisez l'Administrateur, cliquez sur
Exécuter
ou
Planifier
.
Le job est exécuté à l'aide les valeurs que vous saisissez. Les valeurs saisies comme propriétés d'exécution ne sont pas sauvegardées. Les valeurs saisies en tant que propriétés de planification sont sauvegardées mais sont accessibles uniquement depuis l'Administrateur.
14.6 Règles de variables locales et globales
Il existe des règles à suivre lors de la définition de valeurs pour des variables locales et globales.
La table suivante décrit les règles spécifiques à suivre lorsque vous définissez ces variables.
Table 98 :
Règle pour Description
Attribution de nom
● Les variables locales et globales doivent avoir des noms uniques dans leur contexte de job.
● Toute modification de nom apportée à une variable glo bale peut être effectuée au niveau du job uniquement.
304
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
Règle pour
Réplication de jobs et de workflows
Importation et exportation
Description
● Lorsque vous répliquez tous les objets, les variables loca les et globales définies dans ce contexte de job sont éga lement répliquées.
● Lorsque vous répliquez un flux de données ou un work flow, tous les paramètres et toutes les variables locales et globales sont également répliqués. Cependant vous de vez valider ces variables locales et globales dans le con texte de job dans lequel elles ont été créées.
Remarque
Si vous tentez de valider un flux de données ou un workflow contenant des variables globales sans job,
Data Services indique une erreur.
● Lorsque vous exportez un objet du job, vous exportez
également toutes les variables locales et globales définies pour ce job.
● Lorsque vous exportez un objet de niveau inférieur (par exemple, un flux de données) sans le job parent, la varia ble globale n'est pas exportée. Seul l'appel vers cette va riable globale est exporté.
Remarque
Si vous utilisez cet objet dans un autre job sans définir la variable globale dans le nouveau job, une erreur de validation se produira.
14.7 Variables d'environnement
Vous pouvez utiliser des variables d'environnement système dans des jobs, des workflows ou des flux de données. Les fonctions get_env, set_env et is_set_env donnent accès aux variables de système d'exploitation sous-jacent qui se comportent comme l'autorise le système d'exploitation.
Vous pouvez définir temporairement la valeur d'une variable d'environnement dans un job, un workflow ou un flux de données. Une fois définie, la valeur est visible pour tous les objets de ce job.
Utilisez les fonctions get_env, set_env et is_set_env pour définir, récupérer et tester les valeurs de variables d'environnement.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
305
14.8 Définir des noms de fichier lors de l'exécution à l'aide de variables
Vous pouvez définir des noms de fichier lors de l'exécution en indiquant une variable comme nom de fichier.
Les variables peuvent être utilisées comme noms de fichier pour les sources et cibles suivantes :
● Fichiers plats
● Fichiers XML et messages
● Fichiers IDoc et messages (dans un environnement SAP)
Les variables peuvent également être utilisées comme noms de fichier pour la fonction lookup_ext (pour un fichier plat utilisé comme paramètre de table de recherche).
14.8.1 Utilisation d'une variable dans un nom de fichier plat
Définissez un nom de fichier plat à l'aide d'une variable au cours de l'exécution.
1. Créez une variable locale ou globale à l'aide de
Outils Variables
dans la fenêtre Variables et aramètres.
Voir
Définir une variable locale [page 295] et
Définition d'une variable globale [page 298]
pour en savoir plus.
2. Créez un script pour définir la valeur d'une variable locale ou globale en suivant les étapes dans
Création d'un script [page 220]
, ou appelez une variable d'environnement système.
3. Déclarez la variable dans l'éditeur de format de fichier ou dans l'éditeur de fonctions comme paramètre lookup_ext.
○ Lorsque vous définissez une valeur de variable pour un fichier plat, indiquez le nom de fichier et le nom du répertoire. Saisissez la variable dans la propriété
Fichier(s)
sous
Fichier(s) de données
dans l'éditeur de format de fichier. Vous ne pouvez pas saisir une variable dans la propriété
Répertoire racine
.
○ Pour les recherches, remplacez le chemin et le nom de fichier dans le cadre
Table de recherche
de l'éditeur de fonctions lookup_ext, par le nom de variable.
Le schéma suivant indique comment définir des valeurs pour des variables dans les sources et cibles de fichier plat dans un script.
306
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
Lorsque vous utilisez des variables comme sources et cibles, vous pouvez également utiliser plusieurs noms de fichier et caractères génériques. Ni l'un ni l'autre n'est pris en charge dans la fonction lookup_ext.
Le schéma ci-dessus donne un exemple sur la façon d'utiliser plusieurs noms de variables et caractères génériques. Notez que la variable $FILEINPUT comprend deux noms de fichier (séparés par une virgule). Les deux noms (KNA1comma.* et KNA1c?mma.in) utilisent également les caractères génériques (* et ?) pris en charge par le logiciel.
14.9 Paramètres de substitution
14.9.1 Présentation des paramètres de substitution
Utiliser le même paramètre de substitution dans plusieurs objets pour définir de manière efficace la même valeur dans un emplacement, au lieu de modifier chaque objet séparément.
Lorsque vous utilisez des paramètres de substitution, vous devez uniquement modifier une fois la valeur dans la boîte de dialogue
Variables et Paramètres
pour modifier la valeur de tous les objets qui utilisent le paramètre. Par exemple, si vous créez un job faisant référence à un répertoire unique sur votre ordinateur local et que vous exportez ce job vers un autre ordinateur, le job recherchera le seul répertoire dans le nouvel environnement. Si ce répertoire n'existe pas, le job ne sera pas exécuté. Lorsque vous utilisez des paramètres de substitution, le logiciel met automatiquement à jour cette valeur dans tous les objets qui utilisent le paramètre de substitution.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
307
Pour plus de confort, vous pouvez configurer un groupe de paramètres de substitution pour un environnement d'exécution spécifique en associant leurs valeurs constantes sous une configuration de paramètre de substitution. Créez plusieurs configurations pour regrouper les paramètres de substitution en fonction d'un environnement d'exécution, par exemple. Vous pouvez alors contrôler de nombreuses valeurs différentes en modifiant les configurations.
Utilisez des paramètres dans les expressions, les instructions SQL, les champs d'option et les chaînes de constante. Les paramètres de substitution peuvent apparaître comme une valeur dans de nombreuses options et de nombreux éditeurs d'expressions, afin que vous puissiez choisir une variable de substitution spécifique à partir de la liste de valeurs.
Exemple
Utilisez un paramètre de substitution dans un script, tel que :
Print('Data read in : [$$FilePath]'); or Print('[$$FilePath]');
Utilisez un paramètre de substitution dans un format de fichiers comme le nom de fichier : [$$FilePath]/ file.txt
Informations associées
Création ou renommage d'une configuration pour un paramètre de substitution [page 313]
Paramètres de substitution par défaut pour la qualité de données [page 309]
14.9.1.1 Paramètres de substitution par rapport aux variables globales
Les paramètres de substitution diffèrent des variables globales dans leur manière d'affecter vos jobs.
Les paramètres de substitution s'appliquent au niveau du référentiel. Les variables globales s'appliquent uniquement au job dans lequel elles sont définies. Par exemple, vous utilisez une variable globale pour une valeur de paramètre qui n'est pas calculée tant que le job est en cours d'exécution, alors que vous utilisez un paramètre de substitution pour les constantes qui ne sont pas modifiées pendant l'exécution. Un paramètre de substitution défini dans un référentiel local donné est disponible pour tous les jobs de ce référentiel. Par conséquent, l'utilisation d'un paramètre de substitution signifie que vous ne devez pas définir une variable globale dans chaque job pour paramétrer une valeur constante.
Le tableau suivant décrit les principales différences entre les variables globales et les paramètres de substitution.
Table 99 :
Variables globales
Définies au niveau du job
Ne peuvent pas être partagées via des jobs
Paramètres de substitution
Définis au niveau du référentiel
Disponibles pour tous les jobs dans un référentiel
308
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
Variables globales
Spécifiques au type de données
La valeur peut varier au cours de l'exécution de job
Paramètres de substitution
Aucun type de données (toutes les chaînes)
Ensemble de constantes avant l'exécution du job (constantes)
Vous pouvez utiliser les paramètres de substitution dans tous les emplacements où les variables globales sont prises en charge ; par exemple, utilisez les paramètres de substitution dans les zones suivantes, lesquelles prennent également en charge les variables globales :
● Clauses WHERE de transformation Query
● Mappages
● Identificateurs d'instruction SQL pour transformation SQL
● Options de fichier plat
● Transformations User-defined
● options de transformation Address cleanse
● Seuils de correspondance
14.9.1.2 Paramètres de substitution par défaut pour la qualité de données
Le logiciel installe certains paramètres de substitution par défaut utilisés par des transformations Data Quality.
Par exemple, la table suivante liste les paramètres de substitution par défaut pour la transformation USA
Regulatory Address Cleanse.
Table 100 :
Paramètre de substitution Description
$$RefFilesAddressCleanse
$$ReportsAddressCleanse
Définit l'emplacement des répertoires address cleanse.
Active la collection de données pour la création de rapports avec les statistiques address cleanse. Les options sont Oui ou
Non.
14.9.2 Tâches dans l'Éditeur de paramètres de substitution
Vous pouvez utiliser l'
Éditeur de paramètres de substitution
pour exécuter de nombreuses tâches liées à la création et à la modification de paramètres de substitution et de configuration.
Ouvrez l'
Editeur de paramètres de substitution
de Designer en sélectionnant
Outils Configurations des paramètres de substitution
.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
309
Table 101 :Ce que vous pouvez faire dans l'Éditeur de paramètres de substitution
Tâche Méthode
Créer un paramètre
Copier un paramètre existant
Cliquez avec le bouton droit sur un paramètre de substitution existant, près de l'emplacement où vous souhaitez placer le nouveau paramètre, puis sélectionnez
Insérer
.
Cliquez avec le bouton droit sur un paramètre de substitution existant puis sélectionnez
Copier
.
Remarque
Voir Coller un paramètre copié.
Coller un paramètre copié
Modifier un paramètre existant
Filtrer la liste des paramètres pour une recherche plus aisée
Cliquez avec le bouton droit sur un paramètre de substitution existant, en dessous de l'emplacement où vous souhaitez pla cer le paramètre copié, cliquez avec le bouton droit et sélec tionnez
Coller
. Le paramètre collé apparaît dans la ligne audessus du paramètre sélectionné.
Cliquez avec le bouton droit sur le paramètre existant. Une icône crayon apparaît à gauche du nom du paramètre. Entrez vos modifications dans la zone de texte. Lorsque vous avez terminé, cliquez sur une autre ligne pour afficher vos modifi cations.
Saisissez le nom ou le nom partiel du paramètre dans la zone de texte
Filtre
et la liste des paramètres affiche automatique ment un sous-ensemble des paramètres de substitution qui correspondent à votre filtre.
Remarque
Vous n'avez pas besoin d'inclure les symboles dollar dans le cadre du filtre. Par exemple, saisissez «référentiel» et non «$$référentiel».
Afficher utilisation
Réorganiser la liste de paramètres
À l'aide du bouton : sélectionnez un paramètre existant et cli quez sur le bouton
Afficher utilisation
À l'aide du menu contextuel : Cliquez avec le bouton droit sur le paramètre existant et sélectionnez
Afficher utilisation
à par tir du menu contextuel.
La boîte de dialogue
Rechercher
s'ouvre et affiche une liste de tous les objets utilisant le paramètre.
Sélectionnez un paramètre et glissez-le vers une nouvelle po sition dans la liste.
310
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
Tâche
Trier les configurations
Méthode
Remarque
Vous devez avoir créé plus d'une configuration.
Définir un groupe de configurations par défaut
Créer un groupe de configuration
Ajouter une configuration au paramètre de substitution
Renommer une configuration existante.
Cliquez sur l'icône
Trier les noms de configuration par ordre croissant
ou
Trier les noms de configuration par ordre décroissant
dans la barre d'outils.
Cliquez sur la flèche déroulante à côté de l'option
Configuration par défaut
puis sélectionnez un nom de configu ration.
Cliquez sur l'icône
Créer une configuration des paramètres de substitution
dans la barre d'outils.
Cliquez deux fois sur la zone de texte de configuration dans la ligne de paramètre applicable. L'icône crayon apparaît à gau che du nom du paramètre. Saisissez la nouvelle configuration.
Sélectionnez l'en-tête de colonne de la configuration applica ble et cliquez sur l'icône
Renommer la configuration des paramètres de substitution
dans la barre d'outils. Saisissez le nouveau nom.
Créer une copie de configuration
Supprimer une configuration
Sélectionnez la configuration applicable et cliquez sur l'icône
Créer une configuration des paramètres de substitution dupliquée
dans la barre d'outils.
Sélectionnez l'en-tête de colonne d'une configuration (il ne peut pas s'agir d'une configuration par défaut) puis cliquez sur l'icône
Supprimer la configuration des paramètres de substitution
dans la barre d'outils.
Déplacer la configuration par défaut désignée vers l'avant (la première colonne à côté de la liste de paramètres de substitu tion).
Cliquez sur l'icône
Déplacer la configuration par défaut vers l'avant
.
Informations associées
Création d'un paramètre de substitution [page 312]
14.9.2.1 Attribution de noms aux paramètres de substitution
Lorsque vous définissez des paramètres de substitution et leur attribuez des noms, utilisez les règles suivantes :
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
311
● Le préfixe de nom correspond à deux signes dollar $$ (les variables globales comportent un préfixe avec un signe dollar). Lorsque vous ajoutez de nouveaux paramètres de substitution dans l'éditeur de paramètres de substitution, l'éditeur ajoute automatiquement le préfixe.
● Lorsque vous saisissez des noms dans l'éditeur de paramètres de substitution, n'utilisez pas de ponctuation
(ni guillemets ni crochets) sauf des traits de soulignement. Les caractères suivants ne sont pas autorisés :
,: / ' \ " = < > + | - * % ; \t [ ] ( ) \r \n $ ] +
● Vous pouvez saisir des noms directement dans des zones, des mappages de colonnes, des options de transformation etc. Cependant, vous devez les mettre entre crochets, par exemple, [$$SamplesInstall].
● Les noms peuvent contenir tout caractère numérique ou alphanumérique ou des traits de soulignement mais pas d'espaces.
● Les noms ne sont pas sensibles à la casse.
● La longueur maximale pour la plupart des types de référentiels est de 256 caractères (64 pour MySQL et 128 pour MS SQL server).
● Les noms doivent être uniques dans le référentiel.
14.9.2.2 Création d'un paramètre de substitution
Comment ajouter un paramètre de substitution à une configuration.
Vous créez des paramètres de substitution pour gagner du temps en saisissant la valeur une seule fois et en l'enregistrant dans une configuration de paramètre de substitution. Vous définissez une valeur constante pour le paramètre de substitution pour la raison suivante : lorsque vous utilisez le paramètre dans plusieurs objets, vous devez saisir la valeur constante une seule fois, lors de sa création.
1. Dans Designer, sélectionnez
Outils Configurations des paramètres de substitution
.
L'
Editeur de paramètres de substitution
s'ouvre. La première colonne, appelée Paramètre de substitution, liste les paramètres de substitution disponibles dans le référentiel. La seconde colonne contient la valeur constante pour le paramètre. Par défaut, l'en-tête de colonne est Configuration1.
2. Cliquez deux fois sur la ligne vide. Une icône crayon apparaît à gauche de la ligne; Saisissez le nom. (Il se peut que vous deviez faire défiler jusqu'en bas de la colonne Paramètres de substitution pour une ligne vide.)
Le logiciel ajoute automatiquement un préfixe de sigle de double dollar ($$) au nom lorsque vous naviguez dans la cellule.
3. Cliquez deux fois dans la cellule suivante sous la colonne de configuration applicable et saisissez la valeur constante que représente le paramètre dans cette configuration. Le logiciel applique la valeur constante au paramètre lorsque vous exécutez le job.
Informations associées
Création ou renommage d'une configuration pour un paramètre de substitution [page 313]
Exportation et importation de paramètres de substitution [page 317]
312
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
14.9.2.3 Création ou renommage d'une configuration pour un paramètre de substitution
Comment créer un groupe de configurations ou renommer un groupe de configurations existant.
Vous pouvez souhaiter créer un second groupe de configurations afin de pouvoir affecter plus d'une valeur constante à un paramètre de substitution. Par exemple, si vos fichiers de répertoires pour le test d'un job sont situés dans un emplacement différent des répertoires que vous utilisez dans la production, vous pourriez affecter deux valeurs constantes différentes pour le paramètre. Le logiciel nomme automatiquement le premier groupe de configuration Configuration1 et les groupes suivants Configuration_1, Configuration_n+1, etc.
1. Pour modifier le nom d'un groupe de configurations, sélectionnez l'en-tête de la colonne de configuration applicable pour la mettre en surbrillance, puis cliquez sur l'icône
Renommer la configuration des paramètres de substitution
dans la barre d'outils.
2. Saisissez le nouveau nom dans l'en-tête de la colonne en surbrillance.
Le nouveau nom apparaît dans l'en-tête de colonne.
3. Pour ajouter une configuration, cliquez sur l'icône
Créer une configuration des paramètres de substitution
dans la barre d'outils.
Une nouvelle colonne de configuration apparaît avec le nom affecté automatiquement en surbrillance (par exemple, Configuration_1).
4. Saisissez un nom unique dans l'en-tête de la colonne en surbrillance.
Le logiciel affiche deux colonnes de configuration.
Pour modifier la configuration par défaut qui s'appliquera lorsque vous exécutez des jobs, sélectionnez-la dans la zone de liste déroulante en haut de la fenêtre.
Exemple
La capture d'écran suivante affiche deux groupes de configuration des paramètres de substitution. Le paramètre de substitution $$NetworkDir a la valeur D:/Data/Staging dans la configuration nommée
Windows_Subst_Param_Conf et la valeur /usr/data/staging dans la configuration UNIX_Subst_Param_Conf.
Notez que chaque configuration peut contenir plusieurs paramètres de substitution.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
313
Informations associées
Configurations des paramètres de substitution et configurations système [page 314]
14.9.3 Configurations des paramètres de substitution et configurations système
Une configuration système regroupe un ensemble de configurations de banque de données et une configuration des paramètres de substitution.
Une configuration des paramètres de substitution peut être associée à une ou plusieurs configurations système.
Par exemple, vous pouvez créer une configuration système pour votre système local et une configuration système différente pour votre système à distance. Selon votre environnement, les deux configurations système peuvent indiquer la même configuration des paramètres de substitution ou chaque configuration système peut nécessiter une configuration des paramètres de substitution différente.
Au cours de l'exécution d'un job, vous pouvez définir la configuration système et le job sera exécuté avec les valeurs de la configuration des paramètres de substitution associée.
Informations associées
Qu'est-ce qu'une banque de données [page 64]
314
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
Présentation des paramètres de substitution [page 307]
14.9.4 Association de configurations des paramètres de substitution avec des configurations système
Comment associer une configuration des paramètres de substitution avec une configuration système.
Associer une configuration des paramètres de substitution avec une configuration système :
1. Dans Designer, ouvrez l'
Éditeur de configuration système
en sélectionnant
Outils Configurations système
.
L'éditeur contient au moins deux colonnes : la première colonne contient des banques de données existantes et la colonne est nommée Paramètre de substitution. La seconde colonne et les suivantes sont nommées d'après la configuration système existante. Par exemple, si vous avez une configuration système, il existe une colonne nommée d'après le nom de votre configuration système.
2. Dans la ligne pour l'objet de banque de données applicable, sélectionnez la flèche déroulante dans la cellule sous la colonne de configuration système applicable.
Une liste de configurations des paramètres de substitution existants apparaît.
3. Sélectionnez une configuration des paramètres de substitution à partir de la liste déroulante.
4. Si vous souhaitez créer une configuration système, cliquez sur l'icône
Créer une configuration
dans la barre d'outils. Une nouvelle colonne apparaît. Saisissez le nom de la nouvelle configuration système dans l'en-tête de colonne.
5. Quand vous avez terminé, cliquez sur
OK
.
Exemple
L'exemple suivant présente deux configurations système, SC_Amerique et SC_Europe. Il existe deux configurations des paramètres de substitution, une pour chaque région : Americas_Subst_Parm_Conf et
Europe_Subst_Parm_Conf. Chaque configuration des paramètres de substitution définie où les fichiers de source de données sont localisés pour cette région. Par exemple (non affiché dans la capture d'écran cidessous) :
● Les fichiers de source de données pour Americas_Subst_Parm_Conf sont dans D:/Data/Americas.
● Les fichiers de source de données pour Europe_Subst_Parm_Conf sont dans D:/Data/Europe.
Sélectionnez la configuration des paramètres de substitution appropriée pour chaque banque de données et chaque configuration système applicable. Par exemple, la banque de données ODS_DS (ligne sous la première colonne, Paramètre de substitution) est associée à la configuration des paramètres de substitution
DSConf_Americas et à la configuration système SC_Americas.
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
315
Informations associées
Définition d'une configuration système [page 106]
14.9.5 Remplacement d'un paramètre de substitution dans l'Administrateur
Dans l'Administrateur, vous pouvez remplacer les paramètres de substitution ou sélectionner une configuration système pour indiquer une configuration des paramètres de substitution sur quatre pages :
● Exécuter le job batch
● Planifier le job batch
● Commande de l'exécution de l'exportation
● Configuration du service en temps réel
Par exemple, la page Exécuter le job batch affiche le nom de la configuration système sélectionnée, la configuration des paramètres de substitution et le nom de chaque paramètre de substitution et sa valeur.
Pour remplacer un paramètre de substitution :
1. Sélectionnez la configuration système appropriée.
2. Sous
Paramètres de substitution
, cliquez sur
Ajouter un paramètre ignoré
qui affiche les paramètres de substitution disponibles.
316
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
3. Dans la liste déroulante, sélectionnez le paramètre de substitution à remplacer.
4. Dans la deuxième colonne, saisissez la valeur de remplacement. Saisissez la valeur comme une chaîne sans guillemets (contrairement aux variables globales).
5. Exécutez le job.
14.9.6 Exécution d'un job avec des paramètres de substitution
Pour voir les détails sur la façon dont les paramètres de substitution sont utilisés dans le job au cours de l'exécution dans le journal de suivi Designer :
1. Cliquez avec le bouton droit de la souris sur le nom de job et cliquez sur
Propriétés
.
2. Cliquez sur l'onglet
Suivi
.
3. Pour l'option
Effectuer le suivi des assembleurs
, définissez la valeur sur
Oui.
4. Cliquez sur
OK.
Lorsque vous exécutez un job à partir de Designer, la fenêtre Propriétés d'exécution s'affiche. Vous disposez des options suivantes :
● Dans l'onglet
Options d'exécution
du menu déroulant
Configuration système
, vous pouvez sélectionner la configuration système avec laquelle vous souhaitez exécuter le job. Si vous ne sélectionnez pas de configuration système, le logiciel applique la configuration des paramètres de substitution par défaut comme le définit l'éditeur de paramètres de substitution.
Vous pouvez cliquer sur
Parcourir
pour afficher la fenêtre
Sélectionner la configuration système
afin de voir la configuration des paramètres de substitution associée à chaque configuration système. La fenêtre
Sélectionner la configuration système
est en lecture seule. Pour modifier une configuration système, cliquez sur
Outils Configurations système
.
● Vous pouvez remplacer la valeur des paramètres de substitution spécifiques au moment de l'exécution.
Cliquez sur l'onglet
Paramètres de substitution
, sélectionnez un paramètre de substitution dans la colonne
Nom et saisissez une valeur en cliquant deux fois sur la cellule Valeur.
Pour remplacer les valeurs du paramètre de substitution, lorsque vous lancez un job via un service Web, reportez-vous au Guide d'intégration.
Informations associées
Remplacement d'un paramètre de substitution dans l'Administrateur [page 316]
14.9.7 Exportation et importation de paramètres de substitution
Les paramètres de substitution sont archivés dans un référentiel local avec leurs valeurs configurées. Le logiciel ne comprend pas de paramètres de substitution en temps qu'élément d'une exportation normale. Vous pouvez
Guide de Designer
Variables et paramètres
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
317
cependant exporter des paramètres de substitution et des configurations vers d'autres référentiels en les exportant dans un fichier et en important le fichier dans un autre référentiel.
14.9.7.1 Exportation de paramètres de substitution
1. Cliquez avec le bouton droit de la souris sur la bibliothèque d'objets locale
référentiel Exporter les configurations des paramètres de substitution
.
2. Cochez la case de la colonne
Exportation
pour les configurations des paramètres de substitution à exporter.
3.
Sauvegardez
le fichier.
Le logiciel le sauvegarde comme un fichier texte avec une extension .atl.
14.9.7.2 Importation de paramètres de substitution
Les paramètres de substitution doivent d'abord avoir été exportés dans un fichier ATL.
Tenez compte des comportements suivants lors de l'importation de paramètres de substitution :
● Le logiciel ajoute tous les nouveaux paramètres de substitution et les configurations au référentiel local de destination.
● Si le référentiel a un paramètre de substitution avec le même nom que celui du fichier exporté, l'importation
écrasera la valeur du paramètre. De la même façon, si le référentiel a une configuration des paramètres de substitution avec le même nom que la configuration exportée, l'importation écrasera toutes les valeurs de paramètre pour cette configuration.
1. Dans Designer, cliquez avec le bouton droit sur la bibliothèque d'objets et sélectionnez
Référentiel
Importer à partir du fichier
.
2. Naviguez jusqu'au fichier à importer.
3. Cliquez sur
OK
.
Informations associées
Exportation de paramètres de substitution [page 318]
318
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Variables et paramètres
15 Exécution de jobs
Cette section contient une vue d'ensemble de l'exécution d'un job par le logiciel, les étapes pour exécuter les jobs, déboguer les erreurs et modifier les options du job server.
15.1 Vue d'ensemble d'une exécution de job
Il est possible d'exécuter les jobs de trois façons différentes. En fonction de vos besoins, vous pouvez configurer :
Table 102 :
Job
Jobs immédiats
Jobs planifiés
Services
Description
Le logiciel lance les jobs batch et les jobs en temps réel, puis les exécute immédiate ment depuis Designer. Pour ces jobs, Designer et le Job Server désigné (où le job s'exé cute, généralement plusieurs fois sur le même ordinateur) doivent être en cours d'exé cution. Vous exécuterez probablement les jobs immédiats uniquement durant le cycle de développement.
Les jobs batch sont planifiés. Pour planifier un job, utilisez l'Administrateur ou un plani ficateur tiers.
Lorsque les jobs sont planifiés par un logiciel tiers :
● Le job démarre en dehors du logiciel.
● Le job opère sur un job batch (ou script shell pour UNIX) qui a été exporté du logi ciel.
Lorsqu'un job est appelé par un planificateur tiers :
● Le Job Server correspondant doit être en cours d'exécution.
● Designer n'a pas besoin d'être en cours d'exécution.
Les jobs en temps réel sont configurés comme des services qui écoutent en continu les requêtes d'un serveur d'accès et traitent les requêtes à la demande dès leur réception.
Utilisez l'Administrateur pour créer un service à partir d'un job en temps réel.
15.2 Préparation de l'exécution des jobs
15.2.1 Validation des jobs et des composants de jobs
Il est également possible de valider explicitement les jobs et leurs composants lors de leur création en :
Guide de Designer
Exécution de jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
319
Table 103 :
Cliquant sur le bouton
Tout valider
dans la barre d'outils (ou en sélectionnant
Valider Tous les objets de la vue
depuis le menu
Débogage
). Cette commande contrôle la syntaxe de la définition d'objet pour l'espace de travail actif et pour tous les objets qui sont appelés de façon récursive de puis la vue de l'espace de travail actif.
En cliquant sur le bouton
Valider l'affichage en cours
dans la barre d'outils (ou en sélectionnant
Valider Vue actuelle
depuis le menu
Débogage
. Cette commande contrôle la syntaxe de la dé finition d'objet pour l'espace de travail actif.
Vous pouvez définir les options de Designer (
Outils Options Designer Général
) pour valider les jobs démarrés dans Designer avant l'exécution du job. Le paramètre par défaut est de ne pas valider.
Le logiciel valide également les jobs avant de les exporter.
Si lors de la validation le logiciel découvre une erreur dans la définition d'objet, il ouvre une boîte de dialogue indiquant qu'une erreur existe, puis il ouvre la fenêtre Sortie pour afficher l'erreur.
S'il existe des erreurs, double-cliquez sur l'erreur dans la fenêtre Sortie pour ouvrir l'éditeur de l'objet contenant l'erreur.
Si vous ne pouvez pas lire le texte d'erreur complet dans la fenêtre, vous pouvez accéder à des informations supplémentaires en faisant un clic droit sur la liste des erreurs et en sélectionnant
Afficher
depuis le menu contextuel.
Les messages d'erreur ont les niveaux de gravité suivants :
Table 104 :
Gravité Description
Message d'information uniquement ; n'empêche pas le job d'exécuter. Aucune action n'est requise.
Information
Avertissement L'erreur n'est pas assez grave pour arrêter l'exécution du job, mais il est possible que vous obteniez des résultats imprévus. Par exemple, si le type de données d'une colonne source dans une transfor mation dans un flux de données ne correspond pas au type de données d'une colonne cible dans une transformation, le logiciel vous alerte avec un message d'avertissement.
Erreur L'erreur est assez gave pour arrêter l'exécution du job. Vous devez réparer l'erreur avant que le job exécute.
15.2.2 S'assurer que le Job Server est en cours d'exécution
Avant d'exécuter un job (comme une tâche immédiate ou planifiée), assurez-vous que le Job Server est associé avec le référentiel dans lequel le client exécute.
Lorsque Designer démarre, il affiche le statut du Job Server pour le référentiel auquel vous êtes connecté.
320
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Exécution de jobs
Table 105 :
Icône Description
Le Job Server est en cours d'exécution
Le Job Server est inactif
Le nom du Job Server actif et le numéro du port apparaissent dans la barre de statut lorsque le curseur se trouve sur l'icône.
15.2.3 Paramétrage des options d'exécution du job
Les options pour les jobs incluent le débogage et le suivi. Bien qu'il s'agisse d'options d'objet (elles affectent la fonction de l'objet), elles se trouvent soit dans la fenêtre Propriété soit dans la fenêtre Exécution associée avec le job.
Les options d'exécution pour les jobs peuvent être définies pour une instance unique ou comme une valeur par défaut.
● Le menu de clic droit
Exécuter
définit les options uniquement pour une exécution unique et remplace les paramètres par défaut.
● Le menu de clic droit
Propriétés
définit les paramètres par défaut.
15.2.3.1 Définir les options d'exécution pour chaque exécution du job
1. À partir de la zone
Projet
, cliquez avec le bouton droit de la souris sur le nom du job et sélectionnez
Propriétés
.
2. Sélectionnez les options dans la fenêtre Propriétés.
Informations associées
Ajout, modification et affichage de propriétés d'objet [page 43]
Définir une valeur de variable globale comme propriété de job [page 303]
Définir une valeur de variable globale comme propriété d'exécution [page 304]
15.3 Exécution des jobs comme des tâches immédiates
Les tâches immédiates ou "à la demande" sont initiées depuis Designer. Designer et le Job Server doivent être tous deux en cours d'exécution pour que le job s'exécute.
Guide de Designer
Exécution de jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
321
15.3.1 Exécuter un job comme une tâche immédiate
1. Dans la zone de projet, sélectionnez le nom du job.
2. Cliquez avec le bouton droit et sélectionnez
Exécuter
.
Guide de référence : objets, descriptions d'objets, job batch. Vous pouvez sélectionner le Job Serveur de votre choix
Le logiciel vous invite à enregistrer tous les objets qui comportent des modifications qui n'ont pas été enregistrées.
3. L'étape suivante est différente si la case
Procéder à une validation complète avant l'exécution du job
est cochée dans les Options de Designer :
○ Si vous n'avez pas sélectionné cette case à cocher, une fenêtre s'ouvre et affiche les propriétés d'exécution (débogage et suivi) pour le job. Passez à l'étape suivante.
○ Si vous avez sélectionné cette case à cocher, le logiciel valide le job avant son exécution. Vous devez corriger toutes les erreurs graves avant l'exécution du job. Il est possible également que des messages d'avertissement apparaissent, comme par exemple des messages qui indiquent que les valeurs de date seront converties en valeurs date-heure. Corrigez-les si vous le souhaitez (ils n'empêchent pas l'exécution du job) ou cliquez sur
OK
pour continuer. Après la validation du job, une fenêtre s'ouvre et affiche les propriétés d'exécution (débogage et suivi) pour le job.
4. Définissez les propriétés d'exécution.
pour traiter ce job, les profils de banque de données pour les sources et cibles le cas échéant,
Remarque
La configuration des propriétés d'exécution affecte ici une modification temporaire pour l'exécution en cours uniquement.
5. Cliquez sur
OK
.
Dès que le logiciel débute l'exécution, la fenêtre d'exécution s'ouvre avec le bouton du journal de suivi actif.
Utilisez les boutons en haut de la fenêtre du journal pour afficher le journal de suivi, le journal de surveillance et le journal des erreurs (s'il existe des erreurs).
Une fois le job terminé, utilisez un outil de requête RDBMS pour contrôler les contenus de la table ou du fichier cible.
Informations associées
Designer : généralités [page 53]
Débogage des erreurs d'exécution [page 323]
Définir une valeur de variable globale comme propriété de job [page 303]
Définir une valeur de variable globale comme propriété d'exécution [page 304]
322
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Exécution de jobs
15.3.2 Onglet Surveillance
L'onglet
Surveillance
liste les journaux de suivi de toutes les exécutions d'un job en cours ou les plus récentes.
Les icônes des feux de signalisation dans l'onglet
Surveillance
ont les significations suivantes :
● Un feu vert indique que le job est en cours d'exécution
Il est possible de faire un clic droit et de sélectionner Supprimer le job pour arrêter un job qui est toujours en cours d'exécution.
● Un feu rouge indique que le job est arrêté
Il est possible de faire un clic droit et de sélectionner Propriétés pour ajouter une description pour un journal de suivi spécifique. Cette description est enregistrée avec le journal auquel il est possible d'accéder ultérieurement par l'onglet Journal.
● Une croix rouge indique que le job a rencontré une erreur
15.3.3 Onglet Journal
Il est également possible de sélectionner l'onglet
Journal
pour afficher l'historique du journal de suivi d'un job.
Cliquez sur le journal de suivi pour l'ouvrir dans l'espace de travail.
Utilisez les icônes du journal de suivi, de surveillance et des erreurs (de gauche à droite en haut de la fenêtre d'exécution du job dans l'espace de travail) pour afficher chaque type de journal disponible pour la date et heure à laquelle le job a été exécuté.
15.4 Débogage des erreurs d'exécution
La table suivante répertorie les outils qui peuvent vous aider à comprendre les erreurs d'exécution :
Table 106 :
Outil Définition
Package de débogage Crée un package de débogage de job incluant le fichier ATL ainsi que les fichiers journaux, de surveil lance et de suivi. Cette action vous permet, et permet au support client SAP, de corriger les erreurs relatives à l'exécution.
Journal des erreurs Affiche le nom de l'objet qui était exécuté au moment où une erreur s'est produite, et le texte du message d'erreur obtenu. Si le job a exécuté par rapport aux données SAP, certaines erreurs ABAP sont aussi disponibles dans le journal des erreurs.
Journal de surveillance Affiche chaque étape de chaque flux de données dans le job, le nombre de lignes qui se déplacent dans chaque étape, et la durée de chaque étape.
Guide de Designer
Exécution de jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
323
Outil
Données cible
Journal de suivi
Définition
Examine toujours les données cibles pour voir si le job a produit les résultats attendus.
Enumère les étapes exécutées dans le job et l'heure à laquelle l'exécution a commencé et terminé.
Informations associées
Utilisation des journaux [page 324]
Examen des journaux de suivi [page 326]
Examen des journaux de surveillance [page 326]
Examen des journaux des erreurs [page 326]
Examen des données cibles [page 326]
Création d'un package de débogage [page 326]
15.4.1 Utilisation des journaux
Cette section décrit la manière d'utiliser les journaux dans Designer.
● Pour ouvrir le journal de suivi à l'exécution du job, sélectionnez
Outils Options Designer Général
Ouvrir le moniteur à l'exécution du job
.
● Pour copier le contenu du journal à partir d'un journal ouvert, sélectionnez une ou plusieurs lignes et utilisez les commandes clés [Ctrl+C].
15.4.1.1 Accéder à un journal lors de l'exécution du job
Si vous définissez vos options de manière ouvrir le volet Moniteur lors de l'exécution de jobs, et que votre
Designer s'exécute lorsque débute l'exécution de job, la fenêtre d'exécution s'ouvre automatiquement, affichant les informations du journal de suivi.
Cliquez sur les icônes du moniteur et du journal des erreurs (icônes du milieu et de droite en haut de la fenêtre d'exécution) pour afficher ces journaux. L'icône de journal des erreurs est disponible seulement si votre exécution de job génère des avertissements ou des erreurs. L'icône d'avertissement (triangle jaune avec un point d'exclamation) indique que le job contient des avertissements. L'icône d'avertissement se transforme en icône d'erreur (cercle rouge avec un X blanc au dessus) l'exécution de job contient des erreurs.
Il est possible de cliquer sur les différentes icônes lorsque le job s'exécution pour afficher chaque journal. Le volet
Moniteur reste ouvert jusqu'à ce que vous le fermiez.
324
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Exécution de jobs
15.4.1.2 Accès à un journal après que la fenêtre d'exécution a
été fermée
1. Dans la zone du projet, cliquez sur l'onglet
Journal
.
2. Cliquez sur un nom de job pour afficher tous les fichiers des journaux de suivi, de surveillance et des erreurs dans l'espace de travail. Ou développez le job qui vous intéresse pour afficher la liste des fichiers du journal de suivi et cliquez sur l'un d'entre eux.
Les indicateurs de journal signifient les éléments suivants :
Table 107 :
Indicateur du journal de job Description
N_ Indique que le job a exécuté avec succès sur le Job Server explicitement sélectionné.
Indique que job a été exécuté avec succès par un groupe de serveurs. Le Job Server listé a exécuté le job.
Indique que le job a rencontré une erreur sur le Job Server explicitement sélectionné.
Indique que le job a rencontré une erreur alors qu'il était exécuté par un groupe de ser veurs. Le Job Server listé a exécuté le job.
3. Cliquez sur l'icône du journal pour l'exécution du job qui vous intéresse. (Identifiez l'exécution à partir du poste dans la séquence ou de l'horodatage.)
4. Utilisez la zone de liste pour passer d'un type de journal à un autre ou pour afficher
Aucun journal
ou
Tous les journaux
.
15.4.1.3 Supprimer un journal
Supprimez les fichiers journaux de la zone de projet dans Designer.
Attention
Avant de supprimer les fichiers journaux, assurez-vous que vous n'avez pas besoin des informations qu'ils contiennent pour des fins de reporting ou statistiques. Certains fichiers journaux contiennent d'importantes informations dont le logiciel a besoin pour créer des rapports réglementaires ou certifiés ainsi que des tables statistiques et certains fichiers journaux sont écrasés lorsque vous exécutez un autre job. Nous vous suggérons donc, si vous devez créer des données réglementaires, certifiées ou statistiques basées sur un processus spécifique, de créer des copies de sauvegarde de ces fichiers avant de les supprimer.
Pour supprimer manuellement les fichiers journaux du Designer :
1. Dans la zone du projet, cliquez sur l'onglet
Journal
.
2. Faites un clic droit sur le journal que vous souhaitez supprimer et sélectionnez
Supprimer le journal
.
Guide de Designer
Exécution de jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
325
15.4.1.4 Examen des journaux de suivi
Utilisez les journaux de suivi pour déterminer à quel endroit une exécution a échoué, si les étapes d'exécution se sont produites dans l'ordre attendu, et quelles parties de l'exécution prennent le plus de temps.
15.4.1.5 Examen des journaux de surveillance
Le journal de surveillance quantifie les activitiés des composants du job. Il fait une liste du temps passé sur un composant donné d'un job et du nombre de lignes de données qui se déplacent par ce composant.
15.4.1.6 Examen des journaux des erreurs
Le logiciel produit un journal des erreurs pour chaque exécution de job. Utilisez les journaux des erreurs pour déterminer la manière dont une exécution a échoué. Si l'exécution s'est terminée sans erreur, le journal des erreurs est vide.
15.4.2 Examen des données cibles
La meilleure mesure de la réussite d'un job est l'état des données cibles. Examinez toujours les données pour vous assurer que l'opération de mouvement des données a produit les résultats que vous attendiez. Assurez-vous que :
● Les données n'aient pas été tronquées ou converties dans des types incompatibles.
● Les données n'aient pas été dupliquées dans la cible.
● Les données ne se soient pas perdues entre les mises à jour de la cible.
● Les clés générées aient été correctement incrémentées.
● Les valeurs mises à jour aient été correctement gérées.
15.4.3 Création d'un package de débogage
Créer un package de débogage de job incluant le fichier ATL ainsi que les fichiers journaux, de surveillance et de suivi.
Vous pouvez créer un package de débogage de job incluant le fichier ATL ainsi que les fichiers journaux, de surveillance et de suivi. Envoyez le fichier .zip ou .tar généré au support client SAP pour vous aider à corriger les erreurs relatives à l'exécution. Vous pouvez générer le package de débogage lors de l'exécution du job soit depuis la fenêtre Propriétés d'exécution de Designer ou la page Options d'exécution de l'Administrateur de la console de gestion.
1. Dans la zone de projet Designer, cliquez avec le bouton droit de la souris sur le nom du job et sélectionnez
Exécuter
.
326
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Exécution de jobs
Le logiciel vous invite à enregistrer tous les objets qui comportent des modifications qui n'ont pas été enregistrées.
2. Dans la fenêtre
Propriétés d'exécution
, sélectionnez l'onglet
Suivi
.
3. Sélectionnez
Créer un package de débogage
et remplacez la valeur par
Oui
.
4. Cliquez sur
OK
.
Le logiciel génère le fichier de package de débogage .zip ou .tar à l'emplacement suivant :
<DS_COMMON_DIR>
\log\ <Nom_Job_Server> \ <nom référentiel>
sur l'ordinateur sur lequel le Job Server est installé.
Vous pouvez télécharger le package de débogage à partir de l'Administrateur de la console de gestion. Pour en savoir plus, voir le Guide de la Console de gestion de SAP Data Services.
15.5 Modification des options du Job Server
Familiarisez-vous avec les aspects les plus techniques de la gestion des données effectuée par le logiciel (à l'aide du Guide de référence) et certaines de ses interfaces comme celles pour les adaptateurs et les applications SAP.
Il existe de nombreuses options disponibles dans le logiciel pour le dépannage et l'ajustement d'un job.
Table 108 :
Option Description de l'option Valeur par défaut
Adapter Data Exchange Timeout
(Pour les adaptateurs). Définit la durée durant laquelle un ap pel de fonction ou un message sortant attend une réponse de l'opération de l'adaptateur.
10800000
(3 heures)
Adapter Start Time-out
AL_JobServerLoadBalance
Debug
(Pour les adaptateurs). Définit la durée durant laquelle l'Admi nistrateur ou Designer attend une réponse du Job Server qui gère les adaptateurs (démarrage/arrêt/statut).
90000 (90 secondes)
Permet à un Job Serveur de noter les informations du groupe de serveurs si la valeur est définie sur VRAI . Les informations sont enregistrées sous : <$LINK_DIR> /log/
<JobServerName> /server_eventlog.txt
.
FAUX
AL_JobServerLoadOSPolling Définit l'intervalle d'interrogation (en secondes) que le logiciel utilise pour obtenir les informations sur le statut utilisées pour calculer l'index d'équilibrage de chargement. Cet index est uti lisé par des groupes de serveurs.
60
Guide de Designer
Exécution de jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
327
Option
Display DI Internal Jobs
FTP Number of Retry
FTP Retry Interval
Global_DOP
Ignore Reduced Msg Type
Ignore Reduced Msg
Type_foo
OCI Server Attach Retry
Description de l'option Valeur par défaut
Affiche la banque de données interne du logiciel,
CD_DS_d0cafae2, et les jobs associés dans la bibliothèque d'objets. La banque de données CD_DS_d0cafae2 prend en charge deux jobs internes. Le premier calcule les dépendan ces d'utilisation sur les tables de référentiel, et le deuxième met à jour les configurations du groupe de serveurs.
Si vous modifiez le mot de passe du référentiel, le nom d'utili sateur ou d'autres informations de connexion, remplacez la valeur par défaut de cette option par VRAI, fermez et rouvrez
Designer, puis mettez à jour la configuration de banque de données CD_DS_d0cafae2 pour qu'elle corresponde à la nou velle configuration du référentiel. Cela permet au job de calcul des dépendances d'utilisation (CD_JOBd0cafae2) et au job du groupe de serveurs (di_job_al_mach_info) d'exécuter sans au cune erreur de connexion.
FAUX
Définit le nombre de tentatives pour une connexion au FTP qui
échoue initialement.
0
Définit l'intervalle de tentative de connexion au FTP en millise condes.
1000
Définit le degré de parallélisme pour tous les flux de données exécutés par un Job Server donné. Il est également possible de définir le
Degré de parallélisme
pour les flux de données in dividuels à partir de la fenêtre Propriétés de chaque flux de données. Si la valeur de
Degré de parallélisme
d'un flux de données est
0
, alors le Job Server utilise la valeur Global_DOP.
Le Job Server utilise la valeur de
Degré de parallélisme
du flux de données si elle est définie sur une autre valeur que 0 car elle remplace la valeur Global_DOP.
2
(Pour les applications SAP). Désactive le traitement du type de message réduit IDoc pour tous les types de message si la valeur est définie sur TRUE .
FAUX
(Pour les applications SAP). Désactive le traitement du type de message réduit IDoc pour un type de message spécifique
(tel que
<foo>
) si la valeur est définie sur
TRUE
.
FAUX
Le moteur appelle la fonction OCIServerAttach d'Oracle
à chaque fois qu'il établit une connexion avec Oracle. Si le mo teur appelle cette fonction trop rapidement (en traitant des flux de données parallèles par exemple), la fonction peut
échouer. Pour corriger cette erreur, augmenter la valeur de tentative à 5 .
3
328
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Exécution de jobs
Option
Splitter Optimization
Use Explicit Database Links
Use Domain Name
Description de l'option Valeur par défaut
Le logiciel peut se bloquer si vous créez un job dans lequel une source de fichier alimente deux requêtes. Si cette option est définie sur VRAI, le moteur crée en interne deux fichiers sour ces qui alimentent les deux requêtes au lieu d'un séparateur qui alimente les deux requêtes.
FAUX
Les jobs avec des liens de base de données normalement im portés font preuve d'une performance améliorée car le logiciel utilise ces liens pour pousser vers le bas le traitement vers une base de données. Si vous définissez cette option sur
FAUX, aucun flux de données n'utilise les banques de données liées.
VRAI
L'utilisation des banques de données liées peut également
être désactivée depuis n'importe qu'elle boîte de dialogue des propriétés des flux de données. L'option de niveau du flux de données a la priorité sur cette option de niveau du Job Server.
Ajoute un nom de domaine à un nom de Job Server dans le ré férentiel. Cet ajout crée un nom de serveur complet et permet
à Designer de localiser un Job Server sur un domaine diffé rent.
VRAI
Si le nom complet de l'hôte (y compris le domaine) n'est pas correctement stocké, la connexion entre Designer ou le Job
Server et le référentiel peut échouer. Si ce problème survient, attribuez à l'option la valeur FAUX avant d'ajouter les référen tiels.
15.5.1 Modifier les valeurs d'option pour un Job Server individuel
1. Sélectionnez le Job Server avec lequel vous souhaitez travailler en le configurant comme Job Server par défaut.
a. Sélectionnez
Outils Options Designer Environnement
.
b. Sélectionnez un Job Server dans la section
Job Server par défaut
.
c. Cliquez sur
OK
.
2. Sélectionnez
Outils Options Job Server Général
.
3. Saisissez la section et la clé que vous souhaitez utiliser dans la liste suivante des paires de valeurs :
Guide de Designer
Exécution de jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
329
Table 109 :
Section int int
AL_JobServer
AL_JobServer string
AL_Engine
Clé
AdapterDataExchangeTimeout
AdapterStartTimeout
AL_JobServerLoadBalanceDebug
AL_JobServerLoadOSPolling
DisplayDIInternalJobs
FTPNumberOfRetry
AL_Engine
AL_Engine
AL_Engine
AL_Engine
FTPRetryInterval
Global_DOP
IgnoreReducedMsgType
IgnoreReducedMsgType_foo
AL_Engine
AL_Engine
AL_Engine
Repository
OCIServerAttach_Retry
SPLITTER_OPTIMIZATION
UseExplicitDatabaseLinks
UseDomainName
4. Saisissez une valeur.
Par exemple, saisissez les informations suivantes pour modifier la valeur par défaut du nombre de fois qu'un
Job Serveur retente d'établir une connexion au FTP s'il a initialement échoué.
Table 110 :
Option
Section
Clé
Exemple de valeur
AL_Engine
FTPNumberOfRetry
330
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Exécution de jobs
Option
Valeur
Exemple de valeur
2
Ces paramètres modifient la valeur par défaut pour l'option FTPNumberOfRetry passant de zéro à deux.
5. Pour enregistrer les paramètres et fermer la fenêtre Options, cliquez sur
OK
.
6. Sélectionnez à nouveau un Job Serveur par défaut en répétant l'étape 1, si besoin.
15.5.2 Utilisation des noms de lecteurs mappés dans un chemin d'accès
Le progiciel prend uniquement en compte les chemins d'accès au format UNC (Universal Naming Convention) pour les répertoires. Si vous configurez un chemin d'accès pour un lecteur mappé, le progiciel convertit le lecteur en question dans son équivalent UNC.
Pour éviter que votre lecteur mappé ne soit reconverti en chemin d'accès UNC, vous devez ajouter les noms des lecteurs dans la fenêtre
Options
de Designer.
1. Sélectionnez
Outils Options
.
2. Dans la fenêtre
Options
, développez
Job Server
et sélectionnez
Général
.
3. Dans la zone d'édition
Section
, saisissez
MappedNetworkDrives
.
4. Dans la zone d'édition
Clé
, saisissez
LecteurLocal1
pour établir le mappage avec un lecteur local ou
LecteurDistant1
pour établir le mappage avec un lecteur distant.
5. Dans la zone d'édition
Valeur
, saisissez une lettre de lecteur, comme
M:\
pour un lecteur local ou
\
\<nom_ordinateur>\<nom_partage>
pour un lecteur distant.
6. Pour fermer la fenêtre, cliquez sur OK.
Si vous voulez ajouter un autre lecteur mappé, vous devez fermer la fenêtre
Options
et recommencer la saisie.
Veillez à ce que chaque entrée dans la zone d'édition
Clé
corresponde à un nom unique.
Guide de Designer
Exécution de jobs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
331
16 Évaluation des données
Puisque les systèmes opérationnels changent fréquemment, le contrôle de la qualité des données devient critique dans vos jobs d'extraction, de transformation et de chargement (ETL).
Le logiciel propose des contrôles de qualité des données qui agissent comme un pare-feu pour identifier et réparer les erreurs dans les données. Ces fonctionnalités peuvent aider à s'assurer que vous avez des informations fiables.
Vous pouvez utiliser les fonctionnalités suivantes proposées par le logiciel pour déterminer et améliorer la qualité et la structures de vos données source :
Table 111 :
Fonctionnalité
Profileur de données
Afficher les données
Affichage des données lors de la conception
Transformation Validation
Audit du flux de données
Description
Utilisation du Profileur de données pour déterminer :
● La qualité des données source avant de les extraire. Le Profileur de don nées peut identifier les anomalies dans les données sources pour vous aider à mieux définir des mesures de correction pour la transformation
Validation, Data Quality ou pour d'autres transformations.
● La distribution, la relation et la structure des données sources pour mieux concevoir les jobs et les flux de données, ainsi que l'entrepôt de données cible.
● Le contenu des données sources et cibles pour pouvoir vérifier que le job d'extraction des données renvoie les résultats attendus.
Utilisation de la fonctionnalité Afficher les données pour :
● Afficher les données sources avant d'exécuter un job pour vous aider à créer des conceptions de job de meilleure qualité.
● Comparer des échantillons de données de différentes étapes de votre job pour vérifier que le job d'extraction des données renvoie les résultats attendus.
Utilisation de la fonctionnalité Affichage des données lors de la conception pour afficher et analyser l'entrée et la sortie pour un jeu de données en temps réel lors de la conception d'une transformation avant même que le flux de données soit terminé ou valide.
Utilisation de la transformation Validation pour :
● Vérifier que les données source répondent à vos règles de gestion.
● Prendre des mesures appropriées lorsque les données ne répondent pas aux règles d'entreprise.
Utilisation de la fonctionnalité d'audit du flux de données pour :
● Définir des règles qui déterminent si une source, une transformation ou un objet cible traite les données correctes.
● Définir les mesures à prendre lorsqu'une règle d'audit échoue.
332
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Fonctionnalité
Transformations Data Quality
Tableaux de bord Validation des données
Description
Utilisation des transformations Data Quality pour améliorer la qualité des données.
Utilisation des tableaux de bords Validation des données dans l'outil de rap ports de métadonnées pour évaluer l'exactitude des données cibles en fonc tion des règles de validation créées dans les jobs batch. Ce retour permet aux utilisateurs professionnels de réviser, d'évaluer et d'identifier rapidement les incohérences ou les erreurs potentielles dans les données sources.
Informations associées
Présentation de la qualité des données [page 368]
Utilisation du Profileur de données [page 333]
Utilisation de la fonction d'affichage des données pour déterminer la qualité des données [page 350]
Utilisation de l'affichage des données lors de la conception [page 628]
Utilisation de la transformation Validation [page 352]
Utilisation de l'Audit [page 355]
16.1 Utilisation du Profileur de données
Le Profileur de données s'exécute sur un serveur de profileur pour fournir les informations de profileur de données suivantes, qui peuvent être affichées par plusieurs utilisateurs :
Table 112 :
Analyse
Analyse de colonne
Analyse de relation
Description
Le Profileur de données fournit deux types de profils de colonne :
● Profilage de base : cette information inclut la valeur minimale, la valeur maximale, la valeur moyenne, la longueur minimale de la chaîne et la longueur maximale de la chaîne.
● Profilage détaillé : l'analyse de colonne détaillée inclut le nombre distinct, le pour centage distinct, la médiane, la longueur médiane de la chaîne, le nombre modèle et le pourcentage modèle.
Cette information identifie les incohérences de données entre deux colonnes pour les quelles vous définissez une relation, y compris les colonnes qui ont une relation de clé primaire et clé étrangère existante. Il est possible d'enregistrer deux niveaux de don nées :
● Enregistrez les données uniquement dans les colonnes que vous avez sélection nées pour la relation.
● Enregistrez les valeurs dans toutes les colonnes dans chaque ligne.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
333
16.1.1 Sources de données à profiler
Il est possible d'exécuter le Profileur de données sur les données contenues dans les sources suivantes : Voir les
Notes de version pour la liste complète des sources prises en charge par le Profileur de données.
Table 113 :
Source
Bases de données
Applications
Fichiers plats
Includes
● Connecteur Attunity pour les bases de données sur l'ordi nateur central
● DB2
● Oracle
● SQL Server
● SAP Sybase IQ
● SAP Sybase SQL Anywhere
● Teradata
● One World de JD Edwards
● JD Edwards World
● Applications Oracle
● PeopleSoft
● Applications SAP
● SAP NetWeaver Business Warehouse
● Siebel
Par exemple, texte brut, fichier binaire, valeurs séparées par des virgules et valeurs séparées par un séparateur.
16.1.2 Connexion au serveur du profileur
Vous devez installer et configurer le serveur du profileur avant de pouvoir utiliser le Profileur de données.
Designer doit être connecté au serveur du profileur pour exécuter le Profileur de données et afficher ses résultats.
Vous fournissez cette information de connexion sur la fenêtre Connexion au serveur du profileur.
1. Utilisez l'une des méthodes suivantes pour appeler la fenêtre Connexion au serveur du profileur.
○ Depuis le menu de la barre d'outils, sélectionnez
Outils Connexion au serveur du profileur
.
○ Sur la barre de statut en bas, double-cliquez sur l'icône Serveur du profileur qui se trouve à droite de l'icône Job server.
2. Saisissez vos références d'utilisateur pour le CMS.
Option
Système
Nom d'utilisateur
Mot de passe
Authentification
Description
Spécifiez le nom de serveur et facultativement le port du CMS.
Spécifiez le nom d'utilisateur à utiliser pour la connexion au CMS.
Spécifiez le mot de passe à utiliser pour la connexion au CMS.
Spécifiez le type d'authentification utilisé par le CMS.
3. Cliquez sur
Se connecter
.
334
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Le logiciel essaie de se connecter au CMS à l'aide des informations indiquées. Lorsque vous vous connectez avec succès, la liste des référentiels du profileur qui sont à votre disposition est affichée.
4. Sélectionnez le référentiel que vous souhaitez utiliser.
5. Cliquez sur
OK
pour vous connecter à l'aide du référentiel sélectionné.
Lorsque vous vous connectez avec succès au serveur du profileur, l'icône Serveur du profileur sur la barre de statut en bas n'a plus le signe X rouge dessus. De plus, lorsque vous déplacez le pointeur sur l'icône, la barre de statut affiche l'emplacement du serveur du profileur. Cliquez sur
16.1.3 Statistiques du profileur
16.1.3.1 Profil de colonne
Il est possible de générer des statistiques pour une ou plusieurs colonnes.
Les colonnes peuvent toutes appartenir à une source de données ou à plusieurs sources de données. Dans le cas d'une génération de statistiques pour plusieurs sources dans une tâche du profileur, toutes les sources doivent
être dans la même banque de données.
Informations associées
Affichage des attributs de colonne générés par le profileur de données [page 345]
Soumission des tâches du profileur de colonnes [page 338]
16.1.3.1.1 Profilage de base
Par défaut, le Profileur de données génère des attributs de profileur de base pour chaque colonne sélectionnée.
La table suivante décrit les attributs de profileur de base pour chaque attribut :
Table 114 :
Attribut de base
Min
Nombre min.
Max
Nombre max.
Moyenne
Description
Valeur la plus basse dans cette colonne.
Nombre de lignes qui contiennent la valeur la plus basse dans cette colonne.
Valeur la plus élevée dans cette colonne.
Nombre de lignes qui contiennent la valeur la plus élevée dans cette colonne.
Pour les colonnes numériques, valeur moyenne dans cette colonne.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
335
Attribut de base
Longueur minimale de la chaîne
Longueur maximale de la chaîne
Longueur moyenne de la chaîne
Valeurs nulles
% de valeurs nulles
Zéros
% de zéros
Vides
% de vides
Description
Pour les colonnes avec des caractères, longueur de la valeur de chaîne la plus courte dans cette colonne.
Pour les colonnes avec des caractères, longueur de la valeur de chaîne la plus longue dans cette colonne.
Pour les colonnes avec des caractères, longueur moyenne des valeurs de chaîne dans cette co lonne.
Nombre de valeurs NULL dans cette colonne.
Pourcentage de lignes contenant une valeur NULL dans cette colonne.
Nombre de valeurs 0 dans cette colonne.
Pourcentage de lignes contenant une valeur 0 dans cette colonne.
Pour les colonnes avec des caractères, nombre de lignes qui contiennent un vide dans cette co lonne.
Pourcentage de lignes contenant un vide dans cette colonne.
16.1.3.1.2 Profilage détaillé
La génération d'attributs détaillés consomme plus de temps et de ressources de l'ordinateur, l'utilisation doit donc être limitée à des attributs spécifiques.
Vous pouvez générer plusieurs attributs détaillés en plus des attributs de base, mais la génération d'attributs détaillés consomme plus de temps et de ressources de l'ordinateur. Par conséquent, il est recommandé de ne pas sélectionner le profil détaillé à moins d'avoir besoin des attributs suivants :
Table 115 :
Attribut détaillé
Médiane
Longueur médiane de la chaîne
Distinctes
% de distinctes
Modèles
% de modèles
Description
Valeur qui se trouve dans la ligne du milieu de la table source.
Pour les colonnes avec des caractères, valeur qui se trouve dans la ligne du milieu de la table source.
Nombre de valeurs distinctes dans cette colonne.
Pourcentage de lignes contenant chaque valeur distincte dans cette colonne.
Nombre de modèles différents dans cette colonne.
Pourcentage de lignes contenant chaque modèle dans cette colonne.
16.1.3.1.3 Exemples
Exemples d'utilisation des statistiques de profilage de colonne pour améliorer la qualité des données
Il est possible d'utiliser les attributs de profil de colonnes pour vous aider dans les différentes tâches, y compris les tâches suivantes :
336
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
● Obtenir des statistiques, des fréquences, des plages et des valeurs hors normes de base. Par exemple, ces statistiques de profilage peuvent indiquer qu'une valeur de colonne est notamment plus élevée que les autres valeurs dans la source de données. Il est possible que vous décidiez alors de définir une transformation
Validation pour activer un indicateur dans une table différente avant de charger cette valeur hors normes dans la table cible.
● Identifier des variantes du même contenu. Par exemple, le numéro de référence peut être un type de données integer dans une source de données, et un type de données varchar dans une autre source de données. Il est possible que vous décidiez alors quel type de données vous souhaitez utiliser dans votre entrepôt de données cible.
● Découvrir des modèles et des formats de données. Par exemple, les statistiques de profilage peuvent indiquer que le numéro de téléphone se trouve sous des formats différents. Avec ces informations de profil, il est possible que vous décidiez de définir une transformation Validation pour toutes les convertir afin qu'elles utilisent le même format cible.
● Analyser la plage numérique. Par exemple, le numéro de client peut avoir une plage de chiffres dans une source, et une plage différente dans une autre source. La cible doit avoir un type de données qui s'adapte à la plage maximale.
● Identifier les informations manquantes, les valeurs nulles et les vides dans le système source. Par exemple, les statistiques de profilage peuvent indiquer que les valeurs nulles apparaissent pour les numéros de fax. Il est possible que vous décidiez alors de définir une transformation Validation pour remplacer la valeur nulle par une phrase telle que "Inconnu" dans la table cible.
16.1.3.2 Profil de relation
Un profil de relation indique le pourcentage des valeurs non correspondantes dans les colonnes de deux sources.
Les sources incluent :
● les tables ;
● les fichiers plats ;
● la combinaison d'une table et d'un fichier plat.
Les colonnes clés peuvent avoir une clé primaire et une relation de la clé étrangère définies, ou elles peuvent n'avoir aucun lien (si l'une d'elle provient d'une banque de données et l'autre d'un format de fichier).
Il est possible de choisir entre deux niveaux de profils de relation à enregistrer :
Table 116 :
Option
Enregistrer uniquement les données de colonnes clés
Description
Par défaut, le Profileur de données enregistre uniquement les données des colonnes que vous avez sélectionnées pour la re lation.
Remarque
Le niveau Enregistrer uniquement les données de colonnes clés n'est pas disponible avec l'utilisation des banques de données Oracle.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
337
Option
Enregistrer toutes les données de colonnes
Description
Il est possible d'enregistrer les valeurs des autres colonnes dans chaque ligne, mais ce processus prend plus de temps et consomme plus de ressources d'ordinateur.
Lorsque vous affichez les résultats du profil de relation, vous pouvez descendre dans la hiérarchie pour voir les données réelles qui ne correspondent pas.
Il est possible d'utiliser le profil de relation pour vous aider dans les différentes tâches, y compris les tâches suivantes :
● Identifier les données manquantes dans le système source. Par exemple, une source de données peut inclure la région, mais il est possible que ce ne soit pas le cas d'une autre source.
● Identifier les données redondantes dans les sources de données. Par exemple, il est possible qu'il existe des noms et des adresses en double entre deux sources, ou qu'aucun nom n'existe pour une adresse dans une source.
● Valider les relations dans les sources de données. Par exemple, deux systèmes de suivi des problèmes différents peuvent inclure un sous-ensemble de problèmes signalés par le client, mais certains problèmes existent uniquement dans un système ou dans l'autre.
Informations associées
Soumission des tâches du profileur de relations [page 341]
Affichage des résultats du profileur [page 344]
16.1.4 Exécution d'une tâche du profileur
Le profileur de données permet de calculer les statistiques du profileur pour tous les ensembles de colonnes sélectionnés.
Remarque
Cette fonctionnalité facultative n'est pas disponible pour les colonnes avec des schémas imbriqués, ou les types de données LONG ou TEXT.
Il est impossible d'exécuter une tâche du profileur de la colonne avec une tâche du profileur de la relation.
16.1.4.1 Soumission des tâches du profileur de colonnes
1. Dans la bibliothèque d'objets de Designer, vous pouvez sélectionner une table ou un fichier plat.
Pour une table, accédez à l'onglet
Banques de données
et sélectionnez une table. Pour profiler toutes les tables d'une banque de données, sélectionnez le nom de celle-ci. Pour sélectionner un sous-ensemble de tables dans l'onglet
Banques de données
, maintenez la touche Ctrl enfoncée en sélectionnant chaque table.
338
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Pour un fichier plat, accédez à l'onglet
Formats
et sélectionnez un fichier.
2. Après avoir sélectionné la source de données, vous pouvez générer des statistiques de profil de colonne selon une des méthodes suivantes :
○ Cliquez avec le bouton droit et sélectionnez
Soumettre la demande de profil de la colonne
.
Le calcul de certaines statistiques de profil peut durer longtemps. Sélectionnez cette méthode pour que la tâche de profilage s'exécute de manière asynchrone et que vous puissiez réaliser d'autres tâches de
Designer pendant l'exécution de la tâche de profilage.
Cette méthode permet également de profiler plusieurs sources en une seule tâche du profileur.
○ Cliquez avec le bouton droit de la souris, sélectionnez
Afficher les données
, cliquez sur l'onglet
Profil
puis sur
Mettre à jour
. Cette option soumet une tâche de profilage synchrone et vous devez attendre qu'elle soit terminée pour pouvoir réaliser d'autres tâches dans Designer.
Vous pouvez éventuellement utiliser cette option si vous êtes déjà dans la fenêtre
Afficher les données
et que vous remarquez que les statistiques de profil n'ont pas encore été générées ou que la date à laquelle elles l'ont été est antérieure à vos besoins.
3. (Facultatif) Modifiez le nom de la tâche du profileur.
Le profileur de données génère un nom par défaut pour chaque tâche du profileur. Vous pouvez modifier le nom de la tâche afin de créer un nom plus significatif, un nom unique ou supprimer les tirets qui sont autorisés dans les noms des colonnes, mais pas dans ceux des tâches.
Si vous sélectionnez une source unique, le format du nom par défaut est le suivant :
<nomutilisateur_t_nomsource>
Si vous sélectionnez plusieurs sources, le format du nom par défaut est le suivant :
<nomutilisateur_t_nompremièresource_nomdernièresource>
Table 117 :
Colonne t nomutilisateur nompremièresource nomdernièresource
Description
Nom d'utilisateur utilisé par le progiciel pour accéder aux services système.
Type de profil. La valeur est C pour un profil de colonne qui obtient des attributs (tels que les valeurs inférieure et supérieure) pour chaque colonne sélectionnée.
Nom de la première source par ordre alphabétique.
Nom de la dernière source par ordre alphabétique si vous en sélectionnez plusieurs.
4. Si vous sélectionnez une source, la fenêtre
Soumettre la demande de profil de la colonne
liste les colonnes et les types de données.
Conservez la coche devant chaque colonne à profiler et supprimez la coche devant chaque colonne que vous ne désirez pas profiler.
Vous pouvez aussi cliquer dans la case à cocher située en haut devant
Nom
pour désélectionner toutes les colonnes, puis cocher les cases.
5. Si vous avez sélectionné plusieurs sources, la fenêtre
Soumettre la demande de profileur de la colonne
liste les sources à gauche.
a. Sélectionnez une source pour afficher ses colonnes du côté droit.
b. Du côté droit de la fenêtre
Soumettre la demande de profil de la colonne
, conservez la coche devant chaque colonne à profiler et supprimez la coche devant chaque colonne que vous ne souhaitez pas profiler.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
339
Autrement, vous pouvez vous pouvez cliquer dans la case à cocher placée en haut devant Nom pour désélectionner toutes les colonnes, puis cocher chaque case des colonnes à profiler.
c. Répétez les étapes 1 et 2 pour chaque source de données.
6. (Facultatif) Sélectionnez
Profilage détaillé
pour une colonne.
Remarque
Le profileur de données consomme beaucoup de ressources lorsqu'il génère des statistiques de profil détaillées. Choisissez le profilage détaillé uniquement si vous avez besoin de ces attributs : comptage distinct, pourcentage distinct, valeur médiane, longueur de chaîne médiane, modèle, nombre de modèles.
Si vous avez sélectionné le profilage détaillé, vérifiez que le répertoire de cache paginable indiqué contient suffisamment d'espace disque pour la taille des données que vous profilez.
Si vous voulez des attributs détaillés pour toutes les colonnes de toutes les sources listées, cliquez sur
Profilage détaillé
et sélectionnez
Appliquer
pour toutes les colonnes de toutes les sources.
Si vous voulez supprimer le profilage détaillé pour toutes les colonnes, cliquez sur
Profilage détaillé
et sélectionnez
Supprimer
pour toutes les colonnes de toutes les sources.
7. Cliquez sur
Soumettre
pour exécuter la tâche de profilage.
Remarque
Si les métadonnées de la table ont été modifiées depuis que vous les avez importées (par exemple, ajout d'une colonne), vous devez réimporter la table source avant d'exécuter la tâche du profileur.
Si vous avez cliqué sur l'option
Soumettre la demande de profil de la colonne
pour atteindre cette fenêtre
Soumettre la demande de profileur de la colonne
, le volet Moniteur du profileur s'affiche automatiquement lorsque vous cliquez sur
Soumettre
.
Si vous avez cliqué sur
Mettre à jour
dans l'onglet
Profil
de la fenêtre
Afficher les données
, la fenêtre du moniteur
Profileur
ne s'affiche pas lorsque vous cliquez sur
Soumettre
. À la place, une tâche de profilage est soumise de manière asynchrone et vous devez attendre qu'elle soit terminée pour pouvoir effectuer d'autres tâches dans Designer.
Vous pouvez également surveiller votre tâche de profileur d'après son nom dans l'Administrateur.
8. Quand la tâche du profileur est terminée, vous pouvez afficher les résultats de profil dans l'option
Afficher les données
.
Informations associées
Surveillance des tâches du profileur à l'aide de Designer [page 343]
Affichage des résultats du profileur [page 344]
340
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
16.1.4.2 Soumission des tâches du profileur de relations
Un profil de relation indique le pourcentage des valeurs non correspondantes dans les colonnes de deux sources.
Les sources peuvent être un des éléments suivants :
● Tables
● Fichiers plats
● Combinaison d'une table et d'un fichier plat
Une relation de clé primaire et de clé étrangère peut être définie pour les colonnes ou bien elles peuvent être sans relation (comme quand l'une vient d'une banque de données et l'autre d'un format de fichier).
Les deux colonnes ne doivent pas obligatoirement être du même type, mais elles doivent être convertibles. Par exemple, si vous exécutez une tâche du profileur de relations sur une colonne Integer et une colonne Varchar, le profileur de données convertit les valeurs des entiers en valeur de caractères (Varchar) pour effectuer la comparaison.
Remarque
Le profileur de données consomme beaucoup de ressources lorsqu'il génère des valeurs de relations. Si vous prévoyez d'utiliser le profilage de relations, vérifiez que le répertoire de cache paginable indiqué contient suffisamment d'espace disque pour la taille des données que vous profilez.
Informations associées
Sources de données à profiler [page 334]
16.1.4.2.1 Génération d'un profil de relation pour les colonnes de deux sources
1. Dans la bibliothèque d'objets de Designer, sélectionnez deux sources.
Pour sélectionner deux sources dans la même banque de données ou le même format de fichier : a. Accédez à l'onglet
Banque de données
ou
Format
dans la bibliothèque d'objets.
b. Maintenez la touche Ctrl enfoncée en sélectionnant la deuxième table.
c. Cliquez avec le bouton droit et sélectionnez
Soumettre la demande de profil de relation
.
Pour sélectionner deux sources de banques de données ou formats de fichier différents : a. Accédez à
Banque de données
ou
Format
dans la bibliothèque d'objets.
b. Cliquez avec le bouton droit sur la première source, sélectionnez
Soumettre la demande de profil de la relation Relation avec
.
c. Changez de banque de données ou de format dans la bibliothèque d'objets d. Cliquez sur la deuxième source.
La fenêtre
Soumettre la demande de profil de la relation
s'affiche.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
341
Remarque
Il est impossible de créer un profil de relation pour les colonnes dont les données sont de type LONG ou
TEXTE.
2. (Facultatif) Modifiez le nom de la tâche du profileur.
Vous pouvez modifier le nom de la tâche afin de créer un nom plus significatif, un nom unique ou supprimer les tirets qui sont autorisés dans les noms des colonnes, mais pas dans ceux des tâches. Le nom par défaut généré par le profileur de données pour plusieurs sources a le format suivant :
<nomutilisateur>
_
<t>
_
<nompremièresource>
_
<nomdernièresource>
Table 118 :
Colonne t nomutilisateur nompremièresource nomdernièresource
Description
Nom d'utilisateur utilisé par le progiciel pour accéder aux services système.
Type de profil. La valeur est R pour le profil de relation qui obtient des valeurs sans correspon dance dans les deux colonnes sélectionnées.
Nom de la première source sélectionnée.
Nom de la dernière source sélectionnée.
3. Par défaut, s'il existe une relation, le volet supérieur de la fenêtre
Soumettre la demande de profil de la relation
affiche une ligne entre la colonne de clé primaire et la colonne de clé étrangère des deux sources. Vous pouvez changer les colonnes à profiler.
La moitié inférieure de la fenêtre
Soumettre la demande de profil de la relation
montre que la tâche du profileur va utiliser l'opération égale (=) pour comparer les deux colonnes. Le profileur de données va déterminer les valeurs qui ne sont pas égales et calculer le pourcentage de valeurs non correspondantes.
4. Pour supprimer une relation existante entre deux colonnes, sélectionnez la ligne, cliquez avec le bouton droit et sélectionnez
Supprimer la relation sélectionnée
.
Pour supprimer toutes les relations existantes entre deux sources, exécutez une des actions suivantes :
○ Cliquez avec le bouton droit dans le volet supérieur et cliquez sur
Supprimer toutes les relations
.
○ Cliquez sur
Supprimer toutes les relations
près du bas de la fenêtre
Soumettre la demande de profil de la relation
.
5. S'il n'existe pas de relation de clé primaire et clé étrangère entre les deux sources de données, indiquez les colonnes à profiler. Vous pouvez redimensionner chaque source de données pour afficher toutes les colonnes.
Pour indiquer ou modifier les colonnes dont vous voulez voir les valeurs de relation : a. Déplacez le curseur sur la première colonne à sélectionner. Maintenez le curseur enfoncé et dessinez une ligne vers l'autre colonne à sélectionner.
b. Si vous avez supprimé toutes les relations et que vous voulez que le profileur de données sélectionne une relation de clé primaire et clé étrangère existante, cliquer avec le bouton droit dans le volet supérieur et cliquez sur
Proposer une relation
, ou bien cliquez sur
Proposer une relation
près du bas de la fenêtre
Soumettre la demande de profil de la relation
.
6. L'option
Enregistrer uniquement les données de colonnes clés
est sélectionnée par défaut. Elle indique que le profileur de données enregistre les données uniquement dans les colonnes sélectionnées pour la relation.
Aucun échantillon de données n'est visible dans les autres colonnes lorsque vous affichez le profil de la relation.
342
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Pour voir les valeurs des autres colonnes dans le profil de la relation, sélectionnez l'option
Enregistrer les données de toutes les colonnes
.
7. Cliquez sur
Soumettre
pour exécuter la tâche du profileur.
Remarque
Si les métadonnées de la table ont été modifiées depuis que vous les avez importées (par exemple, ajout d'une colonne), vous devez réimporter la table source avant d'exécuter la tâche du profileur.
8. Le volet du moniteur du profileur s'affiche automatiquement lorsque vous cliquez sur
Soumettre
.
Vous pouvez également surveiller votre tâche de profileur d'après son nom dans l'Administrateur.
9. Lorsque la tâche du profileur est terminée, vous pouvez afficher les résultats du profil dans l'option
Afficher les données
en cliquant avec le bouton droit sur une tables dans la bibliothèque d'objets.
Informations associées
Affichage des données de profil de la relation générées par le profileur de données [page 348]
Surveillance des tâches du profileur à l'aide de Designer [page 343]
Affichage des résultats du profileur [page 344]
16.1.5 Surveillance des tâches du profileur à l'aide de Designer
La fenêtre du moniteur du
Profileur
s'affiche automatiquement lorsque vous soumettez une tâche du profileur si vous avez cliqué sur la barre de menu pour afficher la fenêtre du moniteur du
Profileur
. Vous pouvez ancrer ce volet du moniteur du profileur dans Designer ou le laisser séparé.
Le volet du moniteur du profileur affiche la tâche en cours d'exécution et toutes les tâches du profileur ayant été exécutées durant un nombre de jours configuré.
● Cliquez sur l'icône
Actualiser
● Cliquez sur l'icône
Informations
pour afficher les sources que la tâche sélectionnée est en train de profiler. Si la tâche a échoué, la fenêtre Informations affiche également un message d'erreur.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
343
Le moniteur du profileur affiche les colonnes suivantes : Les icônes situées dans le coin supérieur gauche du moniteur du profileur affichent les informations suivantes :
Table 119 :
Colonne Description
Nom Nom de la tâche du profileur envoyée depuis Designer.
Les icônes dans le coin supérieur gauche du profileur
Si la tâche du profileur s'applique à une seule source, le nom par défaut a le format suivant :
<username_t_sourcename>
Si la tâche du profileur s'applique à plusieurs sources, le nom par défaut a le format suivant :
<username_t_firstsourcename_lastsourcename>
Type
Statut
Horodatage
Sources
Le type de la tâche du profileur peut être :
● icône pour actualiser le volet Moniteur du profileur et afficher le dernier statut des tâches du profileur. pour actualiser le volet Moniteur du profileur et afficher le dernier statut des tâches du profileur.
● Relation
Le statut d'une tâche du profileur peut être :
● Terminé : la tâche s'est terminée correctement.
● En attente : la tâche est dans la file d'attente car le nombre maximal de tâches simultanées a
été atteint ou qu'une autre tâche profile la même table.
● En cours d'exécution : la tâche est en cours d'exécution.
● Erreur : la tâche s'est terminée avec une erreur. Double-cliquez sur la valeur de cette colonne
Statut pour afficher le message d'erreur.
Date et heure d'exécution de la tâche du profileur.
Noms des tables sur lesquelles s'exécute la tâche du profileur.
Informations associées
Exécution d'une tâche du profileur [page 338]
16.1.6 Affichage des résultats du profileur
Le profileur de données calcule et enregistre les attributs du profileur dans un référentiel du profileur pouvant être affiché par plusieurs utilisateurs.
344
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Informations associées
Affichage des attributs de colonne générés par le profileur de données [page 345]
Affichage des données de profil de la relation générées par le profileur de données [page 348]
16.1.6.1 Affichage des attributs de colonne générés par le profileur de données
1. Dans la bibliothèque d'objets, sélectionnez la table dont vous voulez afficher les attributs du profileur.
2. Cliquez avec le bouton droit et sélectionnez
Afficher les données
.
3. Cliquez sur l'onglet
Profil
(deuxième) pour afficher les attributs de profil de colonne.
a. L'onglet
Profil
affiche le nombre d'enregistrement physiques traités par le profileur de données pour générer les valeurs de la grille de profil.
b. La grille de profil contient les noms de colonne de la source actuelle et les attributs de profil de chaque colonne. Pour remplir la grille de profil, exécutez une tâche du profileur ou sélectionnez les noms dans cette colonne et cliquez sur
Mettre à jour
.
c. Vous pouvez trier les valeurs de chaque colonne d'attribut en cliquant sur leurs en-têtes. La valeur n/a dans la grille de profil indique qu'un attribut ne s'applique pas à un type de données.
Table 120 :
Attribut de profil de base
Description
Min.
Nombre min.
Max.
Nombre max.
Valeur la plus basse dans cette colonne.
Nombre de lignes qui contiennent la valeur la plus basse dans cette colonne.
Valeur la plus élevée dans cette colonne.
Nombre de lignes qui contiennent la valeur la plus éle vée dans cette colonne.
Moyenne Pour les colonnes numériques, valeur moyenne dans cette colonne.
Longueur minimale de la chaîne
Pour les colonnes avec des caractères, longueur de la valeur de chaîne la plus courte dans cette colonne.
Longueur maximale de la chaîne
Pour les colonnes avec des caractères, longueur de la valeur de chaîne la plus longue dans cette colonne.
Longueur moyenne de la chaîne
Pour les colonnes avec des caractères, longueur moyenne des valeurs de chaîne dans cette colonne.
Valeurs nulles Nombre de valeurs
NULL
dans cette colonne.
% de valeurs nulles Pourcentage de lignes contenant une valeur NULL dans cette colonne.
Type de données pertinent
Carac tère
Numéri que
Date/ heure
Oui
Oui
Oui
Oui
Oui
Oui
Oui
Oui n/a
Oui
Oui
Oui
Oui
Oui
Oui
Oui
Oui
Non
Non
Non
Oui
Oui
Oui
Oui
Sans objet
Non
Non
Non
Oui
Oui
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
345
Attribut de profil de base
Description
Zéros
% de zéros
Vides
% de vides
Nombre de valeurs 0 dans cette colonne.
Pourcentage de lignes contenant une valeur 0 dans cette colonne.
Pour les colonnes avec des caractères, nombre de li gnes qui contiennent un vide dans cette colonne.
Pourcentage de lignes contenant un vide dans cette colonne.
Oui
Oui
Type de données pertinent
Carac tère
Numéri que
Date/ heure
Non Oui Non
Non Oui Non
Non
Non
Non
Non d. Si vous avez sélectionné l'option
Profilage détaillé
dans la fenêtre
Soumettre la demande de profileur de la colonne
, l'onglet
Profil
affiche également les colonnes d'attribut détaillées suivantes.
Table 121 :
Attribut de profil dé taillé
Description
Distinctes
% de distinctes
Médiane
Longueur médiane de la chaîne
Valeur qui se trouve dans la ligne du milieu de la table source.
Oui
Pour les colonnes avec des caractères, valeur qui se trouve dans la ligne du milieu de la table source.
Oui
% de modèle
Nombre de valeurs distinctes dans cette colonne.
Pourcentage de lignes contenant chaque valeur dis tincte dans cette colonne.
Modèles
Pourcentage de lignes contenant chaque valeur dis tincte dans cette colonne. Format de chaque modèle unique de cette colonne.
Oui
Nombre de modèles différents dans cette colonne.
Oui
Type de données pertinent
Caractère Numéri que
Date/heure
Oui
Oui
Oui
Oui
Oui
Oui
Oui
Non
Non
Non
Oui
Non
Non
Non
4. Cliquez sur une valeur d'attribut pour afficher la ligne entière de la table source. La moitié inférieure de la fenêtre
Afficher les données
affiche les lignes qui contiennent la valeur d'attribut sur laquelle vous avez cliqué.
Vous pouvez masquer les colonnes que vous ne désirez pas afficher en cliquant sur l'icône Afficher/masquer les colonnes.
Par exemple, votre colonne cible ADDRESS comporte seulement 45 caractères, mais les données de profilage de cette table source Client affichent que la longueur maximale de chaîne est 46. Cliquez sur la valeur 46 pour afficher les données réelles. Vous pouvez redimensionner la largeur de la colonne pour afficher la chaîne entière.
5. (Facultatif) Cliquez sur
Mettre à jour
pour mettre à jour les attributs de profil. Raisons d'une mise à jour à ce moment :
○ Les attributs de profil n'ont pas encore été générés.
○ La date de génération des attributs de profil est antérieure à celle voulue. La valeur Date de dernière mise
à jour dans l'angle inférieur gauche de l'onglet
Profil
est l'horodatage de la dernière génération des profils d'attribut.
346
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Remarque
L'option Mettre à jour soumet une tâche synchrone du profileur et vous devez attendre qu'elle soit terminée pour pouvoir exécuter d'autres tâches dans Designer.
La fenêtre
Soumettre la demande de profil de la colonne
s'affiche.
Comme les calculs de mise à jour ont un impact sur les performances, sélectionnez uniquement les noms des colonnes dont vous avez besoin pour cette opération de profilage. Vous pouvez également cliquer dans la case à cocher située en haut devant Nom pour désélectionner toutes les colonnes, puis cocher la case placée devant chaque colonne à profiler.
6. Cliquez sur une statistique dans Distinctes ou Modèles pour afficher le pourcentage de chaque valeur distincte ou valeur de modèle dans une colonne. Les valeurs de modèle, le nombre d'enregistrements de chaque valeur de modèle et les pourcentages s'affichent à droite de l'onglet
Profil
.
Par exemple, l'onglet
Profil
suivant pour la table CUSTOMERS affiche les attributs de profil pour la colonne
REGION. L'attribut Distincts de la colonne REGION affiche la statistique 19, c'est-à-dire qu'il existe 19 valeurs distinctes pour REGION.
7. Cliquez sur la statistique de la colonne Distincts pour afficher chacune des 19 valeurs et le pourcentage de lignes de la table CUSTOMERS ayant cette valeur pour la colonne REGION. En outre, les barres de la colonne la plus à droite affichent la taille relative de chaque pourcentage.
8. Les données de profilage du côté droit montrent qu'un important pourcentage des valeurs de REGION est
Null. Sous Valeur, cliquez sur Null ou, sous Enregistrements, cliquez sur 60 pour afficher les autres colonnes dans les lignes qui comportent une valeur Null dans la colonne REGION.
9. Vos règles de gestion peuvent indiquer que REGION ne doit pas contenir de valeur NULL dans votre entrepôt de données cible. Décidez donc quelle valeur doit remplacer les valeurs NULL lorsque vous définissez une transformation Validation.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
347
Informations associées
Exécution d'une tâche du profileur [page 338]
Définition d'une règle de validation en fonction du profil de colonne [page 354]
16.1.6.2 Affichage des données de profil de la relation générées par le profileur de données
Les données de profil de relation affichent le pourcentage de valeurs sans correspondance dans les colonnes de deux sources. Les sources peuvent être des tables, des fichiers plats ou une combinaison d'une table et d'un fichier plat. Une relation de clé primaire et de clé étrangère peut être définie pour les colonnes ou bien elles peuvent être sans relation (comme quand l'une vient d'une banque de données et l'autre d'un format de fichier).
1. Dans la bibliothèque d'objets, sélectionnez la table ou le fichier dont vous voulez afficher les données de profil de relation.
2. Cliquez avec le bouton droit et sélectionnez
Afficher les données
.
3. Cliquez sur l'onglet
Relation
(troisième) pour afficher les résultats du profil de relation.
Remarque
L'onglet
Relation
n'est visible que si vous avez exécuté une tâche du profileur de relations.
4. Cliquez sur le pourcentage non nul dans le diagramme pour afficher les valeurs de clé non contenues dans l'autre table.
Par exemple, l'onglet Relation ci-dessous de Afficher les données montre le pourcentage de clients (16,67) n'ayant pas de commande. Le profil de la relation a été défini sur la colonne CUST_ID de la table
ODS_CUSTOMER et la colonne CUST_ID de la table ODS_SALESORDER. La valeur de l'ovale de gauche indique que 16,67 % des lignes de la table ODS_CUSTOMER ont des valeurs de CUST_ID qui n'existent pas dans la table ODS_SALESORDER.
348
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Cliquez sur le pourcentage 16,67 dans l'ovale ODS_CUSTOMER pour afficher les valeurs de CUST_ID qui n'existent pas dans la table ODS_SALESORDER. Les valeurs non correspondantes KT03 et SA03 sont affichées sur le côté droit de l'onglet relation. Chaque ligne affiche une valeur de CUST_ID non correspondante, le nombre d'enregistrements comportant cette valeur de CUST_ID et le pourcentage total de clients comportant cette valeur de CUST_ID.
5. Cliquez sur l'une des valeurs du côté droit pour afficher les autres colonnes des lignes qui contiennent cette valeur.
La moitié inférieure de l'onglet
Profil de relation
affiche les valeurs des autres colonnes de la ligne comportant la valeur KT03 dans la colonne CUST_ID.
Remarque
Si vous n'avez pas sélectionné l'option Enregistrer les données de toutes les colonnes dans la fenêtre
Soumettre la demande de profil de la relation
, vous ne pouvez pas afficher les données des autres colonnes.
Informations associées
Soumission des tâches du profileur de relations [page 341]
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
349
16.2 Utilisation de la fonction d'affichage des données pour déterminer la qualité des données
Utilisez l'affichage des données pour vous aider à déterminer la qualité des données source et cible. L'affichage des données permet :
● d'afficher des échantillons de données source avant d'exécuter un job afin de créer des conceptions de job de qualité supérieure ;
● de comparer des échantillons de données de différentes étapes de votre job pour vérifier que le job d'extraction des données renvoie les résultats attendus.
Remarque
Pour utiliser la fonction d'affichage des données sur un fichier, celui-ci doit être accessible depuis Designer.
Informations associées
Définition d'une règle de validation en fonction du profil de colonne [page 354]
Utilisation de l'affichage des données [page 617]
16.2.1 Onglet Données
L'onglet
Données
est toujours disponible et affiche le contenu des données de modèles de lignes. Vous pouvez afficher un sous-ensemble de colonnes de chaque ligne et définir des filtres pour afficher un sous-ensemble de lignes.
Par exemple, vos règles de gestion peuvent imposer que tous les numéros de téléphone et de fax aient un seul format pour chaque pays. L'onglet
Données
ci-dessous affiche un sous-ensemble de lignes des clients résidant en
France.
350
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Notez que les colonnes PHONE et FAX affichent des valeurs ayant deux formats différents. Vous pouvez désormais décider du format à utiliser dans l'entrepôt de données cible et définir une transformation Validation en conséquence.
Informations associées
Propriétés de l'affichage des données [page 620]
Définition d'une règle de validation en fonction du profil de colonne [page 354]
16.2.2 Onglet Profil
Deux affichages sont disponibles sur l'onglet
Profil
:
● Sans le Profileur de données, l'onglet
Profil
affiche les attributs de colonnes suivants : valeurs distinctes, valeurs nulles, valeur minimale et valeur maximale.
● Si vous avez configuré et que vous utilisez le Profileur de données, l'onglet
Profil
affiche les mêmes attributs de colonnes ci-dessus, ainsi que de nombreuses autres statistiques calculées, telles que la valeur moyenne, la longueur minimale de la chaîne et la longueur maximale de la chaîne, le nombre distinct, le pourcentage distinct, la médiane, la longueur médiane de la chaîne, le nombre du modèle et le pourcentage du modèle.
Informations associées
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
351
Affichage des attributs de colonne générés par le profileur de données [page 345]
16.2.3 Onglet Profil de relation ou Profil de colonne
Le troisième onglet affiché dépend de si vous avez configuré et que vous utilisez le Profileur de données ou non.
● Si vous n'utilisez pas le Profileur de données, l'onglet
Profil de colonne
permet de calculer les informations statistiques pour une seule colonne.
● Si vous utilisez le Profileur de données, l'onglet
Relation
affiche les incohérences de données entre les deux colonnes à partir desquelles il est possible de déterminer l'intégrité des données entre les deux sources.
Informations associées
Onglet Profil de colonne [page 627]
Affichage des données de profil de la relation générées par le profileur de données [page 348]
16.3 Utilisation de la transformation Validation
Les fonctionnalités Profileur de données et Afficher les données peuvent identifier les anomalies dans les données entrantes. Il est alors possible d'utiliser une transformation Validation pour définir les règles qui séparent les bonnes données des mauvaises. Il est possible d'écrire les mauvaises données dans une table ou un fichier pour une révision ultérieure.
Pour en savoir plus sur la transformation Validation, notamment sur la manière d'implémenter les fonctions réutilisables de validation, voir le Guide de référence SAP Data Services.
16.3.1 Analyse du profil de colonne
Il est possible d'obtenir des informations sur le profil de colonne en soumettant des tâches du profileur de colonne.
Par exemple, si vous souhaitez analyser les données dans la table Clients dans l'exemple de base de données
Northwinds sur Microsoft SQL Server.
Informations associées
Soumission des tâches du profileur de colonnes [page 338]
352
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
16.3.1.1 Analyse des attributs de profilage de colonne
1. Dans la bibliothèque d'objets, cliquez sur la table profilée Clients et sélectionnez
Afficher les données
.
2. Sélectionnez l'onglet
Profil
dans la fenêtre
Afficher les données
. L'onglet Profil affiche les attributs de profil de colonne indiqués sur l'illustration suivante.
L'attribut Modèles pour la colonne PHONE indique la valeur 20, ce qui signifie qu'il existe 20 modèles différents.
3. Cliquez sur la valeur 20 sur la colonne de l'attribut
Modèles
. Le volet
Données de profilage
affiche les modèles pour la colonne PHONE individuellement et le pourcentage de lignes pour chaque modèle.
4. Supposons que vos règles d'entreprise imposent que tous les numéros de téléphone en France doivent être au format 99.99.99.99. Cependant, les données de profilage indiquent que deux enregistrements sont au format (9) 99.99.99.99. Pour afficher les colonnes pour ces deux enregistrements dans le volet du bas, cliquez soit sur (9) 99.99.99.99 sous Valeur, soit sur 2 sous Enregistrement. Vous pouvez voir que certains numéros de téléphone en France ont le préfixe (1).
Il est possible d'utiliser une transformation Validation pour identifier les lignes contenant le préfixe non souhaité.
Vous pouvez alors corriger les données pour vous conformer à vos règles d'entreprise, puis les recharger.
La section suivante décrit comment configurer la transformation Validation pour identifier les lignes erronée.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
353
Informations associées
Définition d'une règle de validation en fonction du profil de colonne [page 354]
16.3.2 Définition d'une règle de validation en fonction du profil de colonne
Cette section utilise les résultats du Profileur de données et définit la transformation Validation selon l'exemple de règles d'entreprise. A partir de l'exemple précédent du préfixe téléphonique (1) pour les numéros de téléphone en
France, la procédure suivante décrit la manière de définir un flux de données et une règle de validation qui identifient ce modèle. Il est alors possible de réviser les données ayant échoué, d'apporter des modifications et de recharger les données.
16.3.2.1 Définition de la règle de validation identifiant un modèle
Cette procédure décrit la façon de définir un flux de données et une règle de validation qui identifie des lignes contenant le préfixe (1) décrit à la section précédente.
1. Créez un flux de données avec la table de Clients comme source, ajoutez une transformation Validation et une cible et reliez les objets.
2. Ouvrez la transformation Validation en cliquant sur son nom.
3. Dans l'éditeur de transformation, cliquez sur
Ajouter
.
La boîte de dialogue Editeur de règles s'affiche.
4. Saisissez un
Nom
et de manière facultative une
Description
pour la règle.
5. Vérifiez que la case
Actif
est cochée.
6. Pour
Action en cas d'échec
, sélectionnez
Envoi vers échec
.
7. Sélectionnez la case d'option
Validation de colonne
.
a. Sélectionnez la
colonne
CUSTOMERS.PHONE dans la liste déroulante.
b. Pour
Condition
, dans la liste déroulante, sélectionnez
Modèle de correspondance
.
c. Pour la valeur, saisissez l'expression "
99.99.99.99
".
8. Cliquez sur
OK
.
La règle s'affiche dans la liste de règles.
Après l'exécution du job, les lignes mal formatées s'affichent dans la sortie Fail. Vous pouvez à présent vérifier les données ayant échouées, effectuer des corrections le cas échéant et recharger les données.
Informations associées
Analyse du profil de colonne [page 352]
354
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
16.4 Utilisation de l'Audit
L'audit offre la possibilité de s'assurer qu'un flux de données charge les données correctes dans l'entrepôt.
Utilisez l'audit pour effectuer les tâches suivantes :
● Définir les points de vérification pour collecter les statistiques d'exécution sur les données qui sortent des objets. L'audit enregistre ces statistiques dans le référentiel.
● Définir des règles avec ces statistiques d'audit pour s'assurer qu'aux points suivants d'un flux de données, les données correspondent à celles attendues :
○ Extraites des sources
○ Traitées par des transformations
○ Chargées dans les cibles
● Générer une notification d'exécution qui inclut la règle d'audit qui a échoué et les valeurs des statistiques d'audit au moment de l'échec.
● Afficher les statistiques d'audit après l'exécution du job pour aider à identifier les objets dans le flux de données qui peuvent avoir produit les données incorrectes.
Remarque
Si vous ajoutez un point de vérification avant une opération qui est normalement poussée vers le bas vers le serveur de base de données, la performance peut se dégrader car ces opérations ne peuvent avoir lieu après un point de vérification.
16.4.1 Audit d'objets dans un flux de données
Il est possible de collecter les statistiques d'audit sur les données qui sortent d'un objet, tel qu'une source, une transformation ou une cible. Si une transformation a plusieurs sorties distinctes ou différentes (telles que
Validation ou Case), il est possible de réaliser un audit pour chaque sortie indépendamment.
Pour utiliser l'audit, définissez les objets suivant dans la fenêtre
Audit
:
Table 122 :
Nom d'objet
Point de vérification
Description
L'objet dans un flux de données dans lequel vous collectez les statistiques d'audit. Il est possible de réaliser un audit pour une source, une transformation ou une cible. Vous identifiez l'objet à vé rifier lors de la définition d'une fonction d'audit sur celui-ci.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
355
Nom d'objet
Fonction d'audit
Description
Les statistiques d'audit collectées par le logiciel pour une table, un schème de sortie ou une co lonne. La table suivante montre les fonctions d'audit qu'il est possible de définir.
Table 123 :
Objet de données
Table ou schéma de sortie
Colonne
Colonne
Colonne
Fonction d'audit
Nombre
Somme
Moyenne
Total de contrôle
Description
Cette fonction collecte deux statistiques :
● Un nombre correct pour les lignes qui ont
été traitées avec succès.
● Un nombre d'erreur pour les lignes qui ont généré certains types d'erreurs si vous avez activé la gestion des erreurs.
Somme des valeurs numériques dans la co lonne. Les types de données applicables in cluent les nombres décimaux, doubles, entiers et réels. Cette fonction comprend uniquement les lignes correctes.
Moyenne des valeurs numériques dans la co lonne. Les types de données applicables in cluent les nombres décimaux, doubles, entiers et réels. Cette fonction comprend uniquement les lignes correctes.
Total de contrôle des valeurs dans la colonne.
Etiquette d'audit
Règle d'audit
Le seul nom dans le flux de données généré par le logiciel pour les statistiques d'audit collectées pour chaque fonction d'audit définie. Ces étiquettes permettent de définir des règles d'audit pour le flux de données.
Une expression booléenne dans laquelle vous utilisez les étiquettes d'audit pour vérifier le job. Si vous définissez plusieurs règles dans un flux de données, toutes les règles doivent réussir, sinon l'audit échoue.
Actions en cas d'échec de l'audit
Une ou plus des trois façons de générer des notifications d'un échec de la règle (ou des règles) d'audit : adresse électronique, script personnalisé, lever une exception.
16.4.1.1 Fonction d'audit
Cette section décrit les types de données pour les fonctions d'audit et pour les statistiques du nombre d'erreurs.
Types de données
La table suivant montre le type de données par défaut pour chaque fonction d'audit et les types de données autorisés. Il est possible de modifier le type de données dans la fenêtre
Propriétés
pour chaque fonction d'audit de
Designer.
356
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Table 124 :
Fonctions d'audit
Nombre
Somme
Moyenne
Total de contrôle
Type de données par défaut
Entier
Type de colonne audité
Type de colonne auditée
Varchar(128)
Types de données autorisés
Entier
Entier, Décimal, Double, Réel
Entier, Décimal, Double, Réel
Varchar(128)
Statistique du nombre d'erreurs
Lorsque vous activez une fonction d'audit Nombre, le logiciel collecte deux types de statistiques :
● Nombre de lignes
Correctes
pour les lignes traitées sans erreur.
● Nombre de lignes d'
Erreur
pour les lignes que le job n'a pas pu traiter mais a ignorées pour pouvoir poursuivre le traitement. Les lignes d'erreur peuvent se produire lorsque vous spécifiez l'option
Utiliser le fichier de dépassement de capacité
dans l'éditeur source ou l'éditeur cible.
16.4.1.2 Etiquette d'audit
Le logiciel génère un nom unique pour chaque fonction d'audit définie à un point de vérification. Il est possible de modifier les noms d'étiquettes. Vous pouvez souhaiter modifier un nom d'étiquette pour créer un nom significatif plus court ou pour supprimer les tirets, qui sont autorisés dans les noms de colonnes mais pas dans les noms d'étiquettes.
Génération de noms d'étiquette
Si le point de vérification se trouve sur une table ou sur un schéma de sortie, le logiciel génère les deux étiquettes suivantes pour la fonction d'audit Nombre :
$Count <_NomObjet>
$CountError <_NomObjet>
Si le point de vérification se trouve sur une colonne, le logiciel génère une étiquette d'audit sous le format suivant :
$ <FonctionAudit_NomObjet>
Si le point de vérification se trouve dans un flux de données incorporé, les étiquettes sont sous les formats suivants :
$Count <_NomObjet_NomFDIntégré>
$CountError <_NomObjet_NomFDIntégré>
$ <FonctionAudit_NomObjet_NomFDIntégré>
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
357
Modification de noms d'étiquette
Il est possible de modifier le nom de l'étiquette d'audit lors de la création de la fonction d'audit, et avant la création d'une règle d'audit qui utilise l'étiquette.
Si vous modifiez le nom d'étiquette après l'avoir utilisé dans une règle d'audit, la règle d'audit n'utilise pas automatiquement le nouveau nom. Vous devez redéfinir la règle avec le nouveau nom.
16.4.1.3 Règle d'audit
Une règle d'audit est une expression booléenne qui comporte un côté gauche, un opérateur booléen et un côté droit.
● Le côté gauche peut être une seule étiquette d'audit, plusieurs étiquettes d'audit qui forment une expression avec un ou plusieurs opérateur(s) mathématique(s), ou une fonction avec des étiquettes d'audit comme paramètres.
● Le côté droit peut être une seule étiquette d'audit, plusieurs étiquettes d'audit qui forment une expression avec un ou plusieurs opérateur(s) mathématique(s), une fonction avec des étiquettes d'audit comme paramètres, ou une constante.
Les expressions booléennes suivantes sont des exemples de règles d'audit :
$Count_CUSTOMER = $Count_CUSTDW
$Sum_ORDER_US + $Sum_ORDER_EUROPE = $Sum_ORDER_DW round($Avg_ORDER_TOTAL) >= 10000
16.4.1.4 Notification d'audit
Vous pouvez choisir n'importe quelle combinaison parmi les actions suivantes pour la notification d'un échec d'audit. Si vous sélectionnez les trois actions, le logiciel les exécute dans cet ordre :
Table 125 :
Action
Liste d'adresses électroniques
Script
Description
Le logiciel envoie une notification à propos de la règle d'audit qui a échoué aux adresses
électroniques listées dans cette option. Utilisez une virgule pour séparer la liste des adresses électroniques.
Il est possible d'indiquer une variable pour la liste d'adresses électroniques.
Cette option doit utiliser la fonction smtp_to pour envoyer le courrier électronique. Par conséquent, vous devez définir le serveur et l'expéditeur pour le protocole SMTP dans le
Gestionnaire de serveurs.
Le logiciel exécute le script personnalisé que vous avez créé dans cette option.
358
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Action
Lever une exception
Description
Le job échoue si une règle d'audit échoue et le journal des erreurs indique quelle règle d'audit a échoué. Le job s'arrête dès que la première règle d'audit échoue. Cette action est celle par défaut.
Il est possible d'utiliser cette exception d'audit dans un bloc Try/Catch. Il est possible de continuer l'exécution du job dans un bloc Try/Catch.
Si vous annulez cette action et qu'une règle d'audit échoue, le job s'achève avec succès et l'audit n'écrit pas de messages dans le journal des jobs. Vous pouvez visualiser la règle qui a échoué dans le rapport Détails de l'audit de l'outil Rapports de métadonnées.
Informations associées
Affichage des résultats d'audit [page 366]
16.4.2 Accès à la fenêtre Audit
Accédez à la fenêtre
Audit
depuis l'un des emplacements suivants de Designer :
● Depuis l'onglet Flux de données de la bibliothèque d'objets, faites un clic droit sur le nom du flux de données et sélectionnez l'option
Audit
.
● Dans l'espace de travail, faites un clic droit sur l'icône du flux de données et sélectionnez l'option
Audit
.
● Lorsqu'un flux de données est ouvert dans l'espace de travail, cliquez sur l'icône
Audit
dans la barre d'outils.
Lorsque vous accédez pour la première fois à la fenêtre
Audit
, l'onglet Étiquette affiche les sources et les cibles dans le flux de données. Si le flux de données contient plusieurs transformations Query consécutives, la fenêtre
Audit
affiche la première requête.
Cliquez sur les icônes en haut à gauche de l'onglet Etiquette pour modifier l'affichage.
Table 126 :
Icône Astuce
Tout réduire
Afficher tous les objets
Afficher la source, la cible et la requête de premier niveau
Afficher les objets étiquetés
Description
Réduit les extensions des objets source, cible, et de transformation.
Affiche tous les objets du flux de don nées.
Affichage par défaut qui montre les ob jets source, cible et de requête de pre mier niveau dans le flux de données. Si le flux de données contient plusieurs trans formations Query consécutives, seule la requête de premier niveau s'affiche.
Affiche les objets qui ont des étiquettes d'audit définies.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
359
16.4.3 Définition de points de vérification, de règles et des actions en cas d'échec.
1. Accédez à la fenêtre
Audit
.
2. Définissez des points de vérification. Sur l'onglet Etiquette, faites un clic droit sur l'objet que vous souhaitez vérifier et sélectionnez une fonction d'audit ou des propriétés.
Lorsque vous définissez un point de vérification, le logiciel génère les éléments suivants :
○ Une icône d'audit sur l'objet dans le flux de données dans l'espace de travail
○ Une étiquette d'audit utilisée pour définir les règles d'audit.
En plus de choisir une fonction d'audit, la fenêtre Propriétés permet de modifier l'étiquette d'audit et le type de données de la fonction d'audit.
Par exemple, le flux de données Case_DF dispose des objets ci-dessous, et vous souhaitez vérifier que toutes les lignes de source sont traitées par la transformation Case.
○ Table source ODS_CUSTOMER
○ Quatre tables cible :
R1 contient les lignes où ODS_CUSTOMER.REGION_ID = 1
R2 contient les lignes où ODS_CUSTOMER.REGION_ID = 2
R3 contient les lignes où ODS_CUSTOMER.REGION_ID = 3
R123 contient les lignes où ODS_CUSTOMER.REGION_ID IN (1, 2 ou 3) a. Faites un clic droit sur la table source ODS_CUSTOMER et sélectionnez
Nombre
.
Le logiciel crée les étiquettes d'audit $Count_ODS_CUSTOMER et $CountError_ODS_CUSTOMER, et une icône d'audit apparaît sur l'objet source dans l'espace de travail.
b. De la même façon, faites un clic droit sur chaque table cible et sélectionnez
Nombre
. La fenêtre Audit affiche les étiquettes d'audit suivantes :
360
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Table 127 :
Table cible
ODS_CUSTOMER
R1
R2
R3
R123
Fonction d'audit
Nombre
Nombre
Nombre
Nombre
Nombre
Etiquette d'audit
$Count_ODS_CUSTOMER
$Count_ R1
$Count_ R2
$Count_ R3
$Count_ R123 c. Si vous souhaitez supprimer une étiquette d'audit, faites un clic droit sur l'étiquette, et la fonction d'audit précédemment définie s'affiche avec une coche devant. Cliquez sur la fonction pour supprimer la coche et supprimez l'étiquette d'audit associée.
Lorsque vous faites un clic droit sur l'étiquette, vous pouvez également sélectionner Propriétés puis, dans la liste déroulante
Fonction d'audit
, la valeur (Aucun audit).
3. Définissez des règles d'audit. Dans l'onglet Règle de la fenêtre
Audit
, cliquez sur
Ajouter
; cela active l'éditeur d'expressions de la section Règles d'audit.
Si vous souhaitez comparer les statistiques d'audit pour un objet par rapport à un autre, utilisez l'éditeur d'expression, qui comporte trois zones de texte avec des listes déroulantes : a. Sélectionnez l'étiquette du premier point de vérification dans la première liste déroulante.
b. Sélectionnez un opérateur booléen depuis la deuxième liste déroulante. Les options dans l'éditeur fournissent des opérateurs booléens courants. Si vous avez besoin d'un opérateur booléen qui ne se trouve pas dans cette liste, utilisez la zone d'expression personnalisée avec ses fonctions et éditeurs rapides pour saisir l'opérateur.
c. Sélectionnez l'étiquette pour le second point de vérification depuis la troisième liste déroulante. Si vous souhaitez comparer la première valeur d'audit à une constant plutôt qu'à une seconde valeur d'audit, utilisez la zone d'expression personnalisée.
Par exemple, pour vérifier que le nombre de lignes de la table source est égal à celui des lignes dans la table cible, sélectionnez les étiquettes d'audit et l'opération booléenne dans l'éditeur d'expression comme suit :
Si vous souhaitez comparer les statistiques d'audit pour un objet ou plus par rapport aux statistiques pour plusieurs autres objets ou constantes, sélectionnez la zone d'expression personnalisée.
a. Cliquez sur le bouton d'ellipse pour ouvrir la fenêtre d'éditeur rapide en taille réelle.
b. Cliquez sur l'onglet
Variables
sur la gauche et développez le nœud
Etiquettes
.
c. Faites glisser la première étiquette d'audit de l'objet vers le volet de l'éditeur.
d. Saisissez un opérateur booléen e. Faites glisser les étiquettes d'audit des autres objets auxquels vous souhaitez comparer les statistiques d'audit du premier objet, et placez les opérateurs mathématiques appropriés entre eux.
f. Cliquez sur
OK
pour fermer l'éditeur rapide.
g. La règle d'audit s'affiche dans l'éditeur personnalisé. Pour mettre à jour la règle dans la zone supérieure
Règle d'audit, cliquez sur le titre "Règle d'audit" ou sur une autre option.
h. Cliquez sur
Fermer
dans la fenêtre Audit.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
361
Par exemple, pour vérifier que le nombre de lignes de la table source est égal à la somme des lignes dans les trois premières tables cible, faites glisser les étiquettes d'audit et saisissez l'opération booléenne et des signes plus dans l'éditeur rapide comme suit :
Count_ODS_CUSTOMER = $Count_R1 + $Count_R2 + $Count_R3
4. Définissez la mesure à prendre si l'audit échoue.
Il est possible de sélectionner une ou plusieurs mesures suivantes :
Table 128 :
Action
Lever une exception
Liste d'adresses électroniques
Script
Description le job échoue si une règle d'audit échoue, et le journal des erreurs indique quelle rè gle d'audit a échoué. Cette action est celle par défaut.
Si vous désactivez cette option et qu'une règle d'audit échoue, le job s'achève avec succès et l'audit n'écrit pas de message au journal des jobs. Vous pouvez visualiser la règle qui a échoué dans le rapport Détails de l'audit dans l'outil Rapports de mé tadonnées.
le logiciel envoie une notification à propos de la règle d'audit qui a échoué aux adresses électroniques listées dans cette option. Utilisez une virgule pour séparer la liste des adresses électroniques.
Il est possible d'indiquer une variable pour la liste d'adresses électroniques.
le logiciel exécute le script que vous avez créé dans cette option.
5. Exécutez le job.
La fenêtre
Propriétés d'exécution
a l'option
Activer l'audit
cochée par défaut. Décochez cette case si vous ne souhaitez pas collecter les statistiques d'audit pour cette exécution de job spécifique.
6. Regardez les résultats d'audit.
Il est possible de voir les règles d'audit passées et ayant échoué dans les rapports de métadonnées. Si vous activez le suivi d'audit dans l'onglet Suivi de la fenêtre
Propriétés d'exécution
, vous pouvez voir tous les résultats d'audit dans le journal de surveillance des jobs.
Informations associées
Audit d'objets dans un flux de données [page 355]
Affichage des résultats d'audit [page 366]
16.4.4 Indications pour sélectionner les points de vérification
Voici des indications pour sélectionner des points de vérification :
● Lorsque vous vérifiez les données de sortie d'un objet, l'optimiseur ne peut pas pousser vers le bas les opérations après le point de vérification. Par conséquent, si la performance d'une requête poussée vers le serveur de base de données est plus importante que de regrouper les statistiques d'audit de la source, définissez le premier point de vérification sur la requête ou plus tard dans le flux de données.
362
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Par exemple, supposons que le flux de données dispose d'objets source, cible et de requête, et que la requête a une clause WHERE qui est poussée vers le serveur de base de données qui réduit de manière significative le total de données qui sont renvoyées au logiciel. Définissez le premier point de vérification sur la requête, plutôt que sur la source, pour obtenir des statistiques d'audit sur les résultats de la requête.
● Si une fonction pushdown_sql se trouve après le point de vérification, le logiciel ne peut pas l'exécuter.
● Il est uniquement possible de vérifier un chargement par lots qui utilise la méthode API d'Oracle. Pour les autres méthodes de chargements par lots, le logiciel n'a pas accès au nombre de lignes chargées.
● L'audit est désactivé lorsque vous exécutez un job avec le débogueur.
● Il est impossible de vérifier des schèmes MLD ou des jobs en temps réel.
● Il est impossible d'auditer dans un flux de données ABAP, mais il est possible d'auditer la sortie d'un flux de données ABAP.
● Si vous utilisez la fonction d'audit CHECKSUM dans un job qui exécute normalement en parallèle, le logiciel désactive le DOP pour l'ensemble du flux de données. L'ordre des lignes est important pour le résultat du
CHECKSUM, et le DOP traite les lignes dans un ordre différent que dans la source.
16.4.5 Audit du flux de données intégré
Il est possible de définir des étiquettes d'audit et des règles d'audit dans un flux de données intégré. Cette section décrit les considérations suivante lors de l'audit d'un flux de données intégré :
● Activation d'audit dans un flux de données intégré
● Points de vérification non visibles en dehors du flux de données intégré
16.4.5.1 Activation d'audit dans un flux de données intégré
Si vous souhaitez collecter les statistiques d'audit sur un flux de données intégré lors de l'exécution d'un flux de données parent, vous devez activer l'étiquette d'audit du flux de données intégré.
16.4.5.1.1 Activation d'audit dans un flux de données intégré
1. Ouvrez le flux de données parent dans l'espace de travail de Designer
2. Cliquez sur l'icône Audit dans la barre d'outils pour ouvrir la fenêtre Audit.
3. Sur l'onglet Etiquette, développez les objets pour afficher les fonctions d'audit définies dans le flux de données intégré. Si un flux de données est intégré au début ou à la fin du flux de données parent, une fonction d'audit peut exister sur le port de sortie ou sur le port d'entrée.
4. Faites un clic droit sur le nom de la fonction Audit et sélectionnez
Activer
. Vous pouvez également sélectionner
Propriétés
pour modifier le nom de l'étiquette et l'activer.
5. Il est également possible de définir des règles d'audit avec l'étiquette activée.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
363
16.4.5.2 Points de vérification non visibles en dehors du flux de données intégré
Lorsque vous intégrez un flux de données au début d'un autre flux de données, les données sont transmises du flux de données intégré au flux de données parent par une seule source. Lorsque vous intégrez un flux de données
à la fin d'un autre flux de données, les données sont transmises du flux de données parent au flux de données intégré par une seule cible. Dans les deux cas, certains objets ne sont pas visibles dans le flux de données parent.
Parce que certains objets ne sont pas visibles dans le flux de données parent, les points de vérification sur ces objets ne sont pas non plus visibles dans le flux de données parent. Par exemple, le flux de données intégré suivant dispose d'une fonction d'audit définie dans la transformation SQL source et d'une fonction d'audit définie dans la table cible.
La fenêtre Audit ci-dessous affiche ces deux points de vérification.
Lorsque vous intégrez ce flux de données, la sortie cible devient une source pour le flux de données parent et la transformation SQL n'est plus visible.
364
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
Un point de vérification existe toujours pour l'ensemble du flux de données intégré, mais l'étiquette n'est plus applicable. La fenêtre Audit ci-dessous pour le flux de données parent affiche la fonction d'audit définie dans le flux de données intégré, mais n'affiche aucune étiquette d'audit.
Si vous souhaitez vérifier le flux de données intégré, faites un clic droit sur la fonction d'audit dans la fenêtre Audit et sélectionnez
Activer
.
16.4.6 Résolution des étiquettes d'audit non valides
Une étiquette d'audit peut devenir non valide dans les situations suivantes :
● Si vous supprimez l'étiquette d'audit dans un flux de données intégré activé par un flux de données parent.
● Si vous supprimez ou renommez un objet dans lequel un point de vérification était défini.
16.4.6.1 Résolution des étiquettes d'audit non valides
1. Ouvrez la fenêtre
Audit
.
2. Développez le nœud Etiquettes non valides pour afficher les étiquettes.
3. Notez les étiquettes que vous souhaitez définir sur n'importe quel nouvel objet dans le flux de données.
4. Après avoir défini une étiquette d'audit correspondante sur un nouvel objet, faites un clic droit sur l'étiquette non valide et sélectionnez
Supprimer
.
5. Si vous souhaitez supprimer toutes les étiquettes non valides en même temps, faites un clic droit sur le nœud
Etiquettes non valides et cliquez sur
Tout supprimer
.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
365
16.4.7 Affichage des résultats d'audit
Il est possible de voir le statut de l'audit à l'un des endroits suivants :
● Journal de surveillance des jobs
● Si la règle d'audit échoue, les endroits qui affichent l'information d'audit dépendent de l'option
Action en cas d'échec
que vous avez sélectionnée :
Table 129 :
Action en cas d'échec
Lever une exception
Liste d'adresses électroniques
Script
Endroits où il est possible d'afficher les informations d'audit
Journal des erreurs des jobs, rapports de métadonnées
Message électronique, rapports de métadonnées
Tous les endroits où le script personnalisé envoie les mes sages d'audit, rapports de métadonnées
Informations associées
Journal de surveillance des jobs [page 366]
Journal des erreurs des jobs [page 367]
Rapports de métadonnées [page 367]
16.4.7.1 Journal de surveillance des jobs
Si vous définissez
Effectuer le suivi des données d'audit
sur Oui dans l'onglet Suivi de la fenêtre Propriétés d'exécution, des messages d'audit apparaissent dans le journal de surveillance des jobs. Il est possible de voir des messages pour les règles d'audit qui sont passées et ont échoué.
Les exemples de messages de réussite d'audit suivants apparaissent dans le journal de surveillance des jobs lorsque le
Suivi d'audit
est défini sur Oui :
Audit Label $Count_R2 = 4. Data flow <Case_DF>.
Audit Label $CountError_R2 = 0. Data flow <Case_DF>.
Audit Label $Count_R3 = 3. Data flow <Case_DF>.
Audit Label $CountError_R3 = 0. Data flow <Case_DF>.
Audit Label $Count_R123 = 12. Data flow <Case_DF>.
Audit Label $CountError_R123 = 0. Data flow <Case_DF>.
Audit Label $Count_R1 = 5. Data flow <Case_DF>.
Audit Label $CountError_R1 = 0. Data flow <Case_DF>.
Audit Label $Count_ODS_CUSTOMER = 12. Data flow <Case_DF>.
Audit Label $CountError_ODS_CUSTOMER = 0. Data flow <Case_DF>.
Audit Rule passed ($Count_ODS_CUSTOMER = (($CountR1 + $CountR2 + $Count_R3)):
LHS=12, RHS=12. Data flow <Case_DF>.
Audit Rule passed ($Count_ODS_CUSTOMER = $CountR123): LHS=12, RHS=12. Data flow
<Case_DF>.
366
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Évaluation des données
16.4.7.2 Journal des erreurs des jobs
Lorsque vous sélectionnez l'option
Lever une exception
et que la règle d'audit échoue, le journal des erreurs des jobs affiche la règle qui a échoué. Les exemples de messages suivants apparaissent dans le journal des erreurs des jobs :
Audit rule failed <($Count_ODS_CUSTOMER = $CountR1)> for <Data flow Case_DF>.
16.4.7.3 Rapports de métadonnées
Vous pouvez consulter la colonne
Statut de l'audit
dans les rapports Statistiques d'exécution du flux de données de l'outil de rapports de métadonnées. Cette colonne
Statut de l'audit
contient les valeurs suivantes :
Table 130 :
Valeur
Non audité
Réussite
Informations collectées
Échec
Description
Les statistiques n'ont pas été collectées.
Toutes les règles d'audit ont réussi. Cette valeur est un lien avec le rapport Détails de l'audit qui affiche les règles d'audit et les valeurs des étiquettes d'audit.
Ce statut apparait lorsque vous définissez des étiquettes d'audit pour collecter des statistiques, mais que vous ne définissez pas de règles d'audit. Cette valeur est un lien avec le rapport Détails de l'audit qui affiche les valeurs des étiquettes d'audit.
La règle d'audit a échoué. Cette valeur est un lien avec le rapport Détails de l'audit qui affiche la règle d'audit qui a échoué et les valeurs des étiquettes d'audit.
Guide de Designer
Évaluation des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
367
17 Qualité des données
17.1 Présentation de la qualité des données
Qualité des données est un terme qui fait référence à l'ensemble de transformations qui fonctionnent ensemble pour améliorer la qualité des données en nettoyant, améliorant, faisant correspondre et consolidant les éléments de données.
La qualité des données est principalement obtenue dans le progiciel à l'aide de quatre transformations :
Table 131 :
Transformation
Address Cleanse
Data Cleanse
Géocodage
Match
Description
Analyse, standardise, corrige et améliore les données d'adresses.
Analyse, standardise, corrige et améliore les données client et opérationnelles.
Utilise les coordonnées géographiques, les adresses et les données de points d'intérêt (POI) pour ajouter une adresse, une latitude et une longitude, un re censement et d'autres informations aux enregistrements.
Identifie les enregistrements doublons à plusieurs niveaux lors d'un seul trans fert des individus, des membres ou des organisations dans plusieurs tables ou bases de données et les consolide en une source unique.
Informations associées
A propos du nettoyage de données [page 368]
17.2 Data Cleanse
17.2.1 A propos du nettoyage de données
Le nettoyage de données désigne le processus d'analyse et de standardisation des données.
Les règles d'analyse et autres informations qui définissent le mode d'analyse et de standardisation des données sont stockées dans un package de nettoyage des données. Le Générateur de packages de nettoyage des données de SAP Information Steward fournit une interface utilisateur graphique permettant de créer et d'ajuster les packages de nettoyage des données. Pour respecter vos besoins et standards spécifiques en matière de
368
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
nettoyage des données, il est possible de créer un package de nettoyage des données en partant de zéro d'après un exemple de données ou bien d'en adapter un existant ou fourni par SAP.
Remarque
La fonctionnalité Assistant de nettoyage utilise le package de nettoyage des données fourni par SAP
Personne_Société lors du traitement des données. Ne supprimez pas ou ne renommez pas le package de nettoyage des données fourni par SAP. Si vous modifiez le package de nettoyage des données fourni par SAP, les résultats de l'Assistant de nettoyage risquent de s'en trouver altérés.
Remarque
Après la création d'un ou de plusieurs types de contenus personnalisés dans SAP BusinessObjects Data
Insight, un package de nettoyage des données nommé CTID_CUSTOM_TYPE s'affiche dans le Générateur de packages de nettoyage des données. N'ouvrez pas ou ne modifiez pas CTID_CUSTOM_TYPE dans le
Générateur de packages de nettoyage des données car cela affectera les types de contenus personnalisés.
Un package de nettoyage des données est créé et publié dans le Générateur de packages de nettoyage des données puis référencé par la transformation Data Cleanse dans Data Services à des fins de test et de déploiement en production.
Dans un workflow Data Services, la transformation Data Cleanse identifie et isole des éléments spécifiques de données mixtes, puis analyse et met en forme les données en fonction du package de nettoyage des données référencé ainsi que des options définies directement dans la transformation.
Le diagramme suivant montre comment Data Services et Information Steward fonctionnent ensemble pour vous permettre de développer un package de nettoyage des données correspondant à vos exigences en matière de données, puis de l'appliquer lors du nettoyage de vos données.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
369
17.2.2 Cycle de vie du package de nettoyage des données : développement, déploiement et gestion
Le processus de développement, de déploiement et de gestion d'un package de nettoyage des données est le résultat d'actions et de communications entre l'administrateur de Data Services, le testeur de Data Services et l'administrateur de données du Générateur de packages de nettoyage des données. Les rôles, responsabilités et titres exacts varient selon les organisations, mais comprennent souvent ce qui suit :
Table 132 :
Rôle
Administrateur de données du Générateur de packages de nettoyage des données
Responsabilité
Utilise le Générateur de packages de nettoyage des données et possède des connaissances en matière de domaines pour développer et affiner un package de nettoyage des données spécifi que à un domaine de données.
Testeur de Data Services Utilise la transformation Data Services dans un environnement de test Data Services pour net toyer les données. Envoie des résultats à l'administrateur de données du Générateur de packages de nettoyage des données pour la vérification et l'ajustement.
Administrateur Data Services Dans un environnement de production Data Services, utilise la transformation Data Cleanse pour nettoyer les données selon les règles et les standards définis dans le package de net toyage des données sélectionné.
Il existe habituellement trois phases itératives dans un workflow de package de nettoyage des données : création et test (développement), déploiement et gestion.
370
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 133 :Phases du workflow du package de nettoyage des données
Phase
Création et test (développement)
Package de nettoyage des données personnalisé
Package de nettoyage des données personnelles et professionnelles
L'administrateur de données crée un package de nettoyage des données per sonnalisé à l'aide de l'assistant du pac kage de nettoyage des données person nalisé. L'administrateur de données test et ajuste le package de nettoyage des données dans le Générateur de packages de nettoyage des données en fonction des résultats de la standardisa tion et de l'analyse du nettoyage des données qui s'affichent dans le volet in férieur du mode
Conception
.
L'administrateur de données crée un package de nettoyage des données per sonnelles et professionnelles à l'aide d'une copie d'un package de nettoyage des données publié ou en en créant un manuellement (non recommandé). L'ad ministrateur de données test et ajuste le package de nettoyage des données dans le Générateur de packages de nettoyage des données en fonction des résultats de la standardisation et de l'analyse du net toyage des données qui s'affichent dans les exemples de données de l'onglet
Valider
du Générateur du package de nettoyage des données.
Quand l'administrateur de données est satisfait des résultats, il publie le pac kage de nettoyage des données et l'en voie au testeur Data Services pour tes ter le package de nettoyage des don nées dans un jeu de données plus im portant. L'administrateur de données contrôle les résultats non satisfaisants
(le cas échéant) du test Data Cleanse et effectue les modifications dans le pac kage de nettoyage des données. Ce pro cessus se poursuit jusqu'à ce que le package de nettoyage des données pro duise les résultats attendus dans Data
Services.
Quand l'administrateur de données est satisfait des résultats, il publie le pac kage de nettoyage des données et l'en voie au testeur Data Services pour tester le package de nettoyage des données dans un jeu de données plus important.
L'administrateur de données contrôle les résultats non satisfaisants (le cas
échéant) du test Data Cleanse et effec tue les modifications dans le package de nettoyage des données. Ce processus se poursuit jusqu'à ce que le package de nettoyage des données produise les ré sultats attendus dans Data Services.
Remarque
L'onglet
Valider
est disponible uni quement pour des packages de net toyage des données personnelles et professionnelles à plusieurs domai nes.
Pour les packages de nettoyage des données à un domaine, quand l'adminis trateur de données est satisfait des ré sultats, il publie le package de nettoyage des données et l'envoie au testeur Data
Services pour tester le package de net toyage des données dans un jeu de don nées plus important. L'administrateur de données contrôle les résultats non satis faisants (le cas échéant) et effectue les
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
371
Phase
Déploiement
Maintenance
Package de nettoyage des données personnalisé
Package de nettoyage des données personnelles et professionnelles modifications dans le package de net toyage des données. Ce processus se poursuit jusqu'à ce que le package de nettoyage des données produise les ré sultats attendus dans Data Services.
Lorsque tout le monde est satisfait des résultats du test, l'administrateur de données déploie le package de net toyage des données en production à l'aide de l'outil de gestion des promo tions dans la Central Management Con sole (CMC).
Pour en savoir plus sur la gestion des promotions, voir «Gestion du cycle de vie» dans le guide Information platform
services Administrator Guide.
Lorsque tout le monde est satisfait des résultats du test, l'administrateur de données déploie le package de net toyage des données en production à l'aide de l'outil de gestion des promo tions dans la CMC.
Pour en savoir plus sur la gestion des promotions, voir «Gestion du cycle de vie» dans le guide Information platform
services Administrator Guide.
L'administrateur Information Steward déplace le package de nettoyage des données en phase de maintenance et ef fectue des mises à jour uniquement lorsque les résultats des jobs planifiés régulièrement ne respectent pas la plage ou lorsque de nouvelles données sont introduites.
L'administrateur Information Steward déplace le package de nettoyage des données en phase de maintenance et ef fectue des mises à jour uniquement lors que les résultats des jobs planifiés régu lièrement ne respectent pas la plage ou lorsque de nouvelles données sont intro duites.
Un workflow classique est illustré par le diagramme ci-dessous :
372
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
373
Pour en savoir plus sur le processus de déplacement d'un package de nettoyage des données du développement vers la production et vers la maintenance, voir le Guide d'administration SAP BusinessObjects Information
Steward.
Pour en savoir plus sur l'utilisation de l'outil de gestion des promotions de la Central Management Console (CMC) pour déplacer des packages de nettoyage des données (ce qui est désigné sous le terme de promotion d'«objets» ou d'«InfoObjects»), voir le Guide d'administration de la plateforme de Business Intelligence.
17.2.3 Configuration de la transformation Data Cleanse
Les conditions préalables pour la configuration de la transformation Data Cleanse incluent :
● L'accès aux packages de nettoyages des données nécessaires.
● L'accès au fichier ATL transféré à partir du générateur de packages de nettoyage des données.
● Les informations sur le mappage du champ d'entrée et de l'attribut (champ de sortie) pour les règles de correspondance des modèles définis par l'utilisateur définies dans l'onglet
Données de référence
de Cleansing
Package Builder.
Configurer la transformation Data Cleanse :
1. Importez le fichier ATL transféré à partir du générateur de packages de nettoyage des données.
L'importation du fichier ATL apporte les informations requises et définissez automatiquement les options suivantes :
○ Package de nettoyage des données
○ Champ de sortie de filtre
○ Séparateur de mots dans l'entrée
○ Configuration de l'analyseur
Remarque
Il est possible d'installer et d'utiliser le package de nettoyage des données personnelles et professionnelles fourni par SAP sans modification directement dans Data Services. Pour ce faire, sautez l'étape 1 et définissez manuellement les options requises dans la transformation Data Cleanse.
2. Dans le schéma d'entrée, sélectionnez les champs d'entrée que vous souhaitez mapper et faites les glisser vers les champs appropriés dans l'onglet
Entrée
○ Les données de nom et de société peuvent être mappées vers des champs discrets ou des champs multilignes.
○ Les données personnalisées doivent être mappées vers des champs multilignes.
○ Les données de téléphone, date, courrier électronique, numéro de sécurité sociale et de modèle défini par l'utilisateur peuvent être mappées vers des champs discrets ou des champs multilignes. L'analyseur correspondant doit être activé.
3. Dans l'onglet
Options
, sélectionnez les valeurs d'option appropriées pour déterminer la manière dont Data
Cleanse doit traiter les données.
Si vous modifiez la valeur par défaut d'une valeur d'option, un triangle vert apparait à côté du nom de l'option pour indiquer que la valeur a été modifiée.
Le fichier ATL que vous avez importé à l'étape 1 définit certaines options en fonction des informations contenues dans le package de nettoyage des données.
374
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
4. Dans l'onglet
Sortie
, sélectionnez les champs que vous souhaitez sortir de la transformation. Dans le
Cleansing Package Builder, les champs de sortie sont appelés attributs.
Assurez-vous d'avoir mappé tous les attributs (champs de sortie) définis dans les modèles définis par l'utilisateur dans les données de référence de Cleansing Package Builder.
Informations associées
Configurations de transformation [page 184]
Editeurs de transformation Qualité des données [page 191]
Ajout d'une transformation Data Quality à un flux de données [page 189]
17.2.4 Classement et définition de priorité des moteurs d'analyse
Pour les entrées multilignes, il est possible de configurer la transformation Data Cleanse pour utiliser uniquement des analyseurs spécifiques et pour indiquer l'ordre dans lequel ils sont exécutés. Le fait de sélectionner soigneusement les analyseurs à utiliser et dans quel ordre peut être bénéfique. Le fait d'éteindre les analyseurs dont vous n'avez pas besoin améliore significativement la vitesse d'analyse et réduit les chances que les données soient mal analysées.
Il est possible de modifier l'ordre des analyseurs pour une entrée multiligne spécifique en modifiant l'option de séquence d'analyseur correspondante dans le groupe des options Configuration_Analyseur de la transformation
Data Cleanse. Par exemple, pour modifier l'ordre des analyseurs pour le champ d'entrée Multiligne1, modifiez l'option Sequence_analyseur_Multiligne1.
Pour modifier les analyseurs sélectionnés ou l'ordre des analyseurs, sélectionnez une séquence d'analyseur, cliquez sur
OK
sur le message puis utilisez la fenêtre
Options classées
pour effectuer les modifications.
Informations associées
Editeur d'options classées [page 195]
17.2.5 Données d'analyse
La transformation Data Cleanse peut identifier et isoler un large éventail de données. Dans la transformation Data
Cleanse, vous mappez les champs d'entrée des données aux champs d'entrée appropriés dans la transformation.
Les données personnalisées contenant des données opérationnelles ou de produit sont toujours mappées aux champs multilignes. Les données personnelles et professionnelles, les données de téléphone, adresse
électronique, date et numéro de sécurité sociale peuvent être mappées aux champs d'entrée ou aux champs d'entrée multilignes.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
375
L'exemple ci-dessous indique la manière dont Data Cleanse analyse les données de produit à partir d'un champ d'entrée multiligne et les affiche dans les champs de sortie discrets. Les données peuvent également être affichées dans des champs composites, tels que Description standard, qui peuvent être personnalisés dans le
Générateur de packages de nettoyage des données pour répondre à vos besoins.
Table 134 :
Données d'entrée
Gant ultra grip profit 2.3 grand noir cuir synthé tique élastique avec Velcro Mechanix Wear
Données analysées
Catégorie du produit
Taille
Article
Marque déposée
Style de poignet
Type de la paume
Couleur
Fournisseur
Description standard
Gant
Grand
Cuir synthétique
Pro-Fit 2.3 Series
Velcro élastique
Ultra-Grip
Noir
Mechanix Wear
Gant - cuir synthétique, noir, taille : grand, Style de poignet : Velcro élasti que, Ultra-Grip, Mechanix Wear.
L'exemple ci-dessous indique la manière dont Data Cleanse analyse les données de nom et de société, et les affiche dans les champs de sortie discrets. Les données peuvent également être affichées dans des champs composites qui peuvent être personnalisés dans le Générateur de packages de nettoyage des données pour répondre à vos besoins.
Table 135 :
Données d'entrée
Mme Mary Ann Smith Jones, Responsable des comptes, expert-comptable agréé. Jones Inc.
Données analysées
Titre de civilité
Prénom 1
Prénom 2
Nom de famille
Nom de famille 2
Titre honorifique
Fonction
Société
Mme
Mary
Anne
Smith
Jones
Expert-comptable agréé
Responsable des comptes
Jones, Inc.
Données composites
Prénom_Complet
Mary Anne
Nom_Famille_Complet
Smith Jones
Table 136 :
Données d'entrée
James Witt Jr 421-55-2424 jwitt@rdrindustries.com
507-555-3423 20 août, 2003
Données analysées
Prénom 1
Nom de famille 1
Titre de maturité
Sécurité sociale
James
Witt
Jr.
421-55-2424
376
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Données d'entrée Données analysées
Adresse électronique
Téléphone
Date jwitt@rdrindustries.com
507.555.3423
20 août 2003
La transformation Data Cleanse analyse jusqu'à 6 noms par enregistrement, 2 par champ d'entrée. Pour les six noms trouvés, elle analyse les composants tels que le titre de civilité, les prénoms, le nom de famille et le suffixe du nom. Elle envoie ensuite les données vers les champs individuels La transformation Data Cleanse analyse
également jusqu'à 6 titres par enregistrement.
La transformation Data Cleanse analyse jusqu'à 6 noms de société par enregistrement, 2 par champ d'entrée.
17.2.5.1 Analyse des numéros de téléphone
Data Cleanse analyse le plan de numérotation nord-américain (NANP) et les numéros de téléphone internationaux.
Les systèmes de numérotation téléphonique sont différents à travers le monde. Lorsque Data Cleanse analyse un numéro de téléphone, il édite les composants individuels du numéro dans les champs de sortie appropriés.
L'analyse la plus efficace est obtenue lorsqu'un numéro de téléphone a un code pays valide qui apparaît avant le numéro. Si le code pays est absent ou s'il ne figure pas au début de la chaîne, Data Cleanse utilise d'autres ressources pour tenter d'analyser le numéro de téléphone.
Data Cleanse analyse les numéros de téléphone en effectuant d'abord une recherche internationale. Il utilise les codes pays ISO2 lorsqu'ils sont disponibles ainsi que les modèles définis dans le package de nettoyage des données pour chaque pays en vue d'identifier le code correspondant. S'il détecte un pays figurant dans le NANP, il arrête automatiquement son analyse internationale et tente d'analyser le numéro de téléphone comme un numéro nord-américain, en le comparant aux modèles généralement utilisés tels que (234) 567-8901,
234-567-8901 et 2345678901.
Les pays figurant actuellement dans le NANP sont les suivants :
● AS - Samoa américaine
● AI - Anguilla
● AG - Antigua-et-Barbuda
● BS- Bahamas
● BB - Barbade
● BM - Bermudes
● VG - Îles Vierges britanniques
● CA - Canada
● KY - Îles Caïmans
● DM - Dominique
● DO - République dominicaine
● GD - Grenade
● GU - Guam
● JM - Jamaïque
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
377
● MS - Montserrat
● MP - Îles Mariannes du Nord
● PR - Porto Rico
● KN - Saint-Kitts-et-Nevis
● LC - Sainte-Lucie
● VC - Saint-Vincent-et-les-Grenadines
● SX - Saint-Martin
● TT - Trinité-et-Tobago
● TC - Îles Turks et Caicos
● US - États-Unis
● VI - Îles Vierges américaines
Data Cleanse offre la possibilité de mettre en forme les numéros nord-américains à la sortie (choix du séparateur, par exemple). Toutefois, Data Cleanse édite les numéros internationaux tels qu'ils ont été entrés, sans mise en forme. De plus, Data Cleanse n'effectue pas une comparaison croisée avec les adresses pour voir si les indicatifs du pays et de la ville du numéro de téléphone correspondent à l'adresse.
Informations associées
A propos du mappage un par un [page 386]
17.2.5.1.1 Analyse des numéros de téléphone par Data Cleanse
Configuration de l'analyse des numéros de téléphone internationaux dans la transformation Data Cleanse
Vous pouvez configurer l'analyse des numéros de téléphone internationaux dans la transformation Data Cleanse à trois niveaux : Enregistrement, Fichier du job et Global. Data Cleanse tente d'analyser les données de téléphone dans l'ordre, comme le montre la table ci-dessous. Si la transformation ne peux pas analyser les données de téléphone via l'un des trois niveaux, elle tente de les analyser comme des données nord-américaines. Si Data
Cleanse détecte un code pays qui figure dans le plan de numérotation nord-américain (NANP) à n'importe quel niveau, il ignore les niveaux restants et tente automatiquement d'analyser le numéro comme un numéro nordaméricain.
Remarque
Le pays doit être indiqué dans le package de nettoyage des données pour que Data Cleanse puisse lancer son analyse à l'aide des trois niveaux indiqués dans la table ci-dessous.
378
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 137 :
Niveau
Enregistrement
Processus
Facultatif : utilisez le champ d'entrée dynamique Option_Pays.
Configurez votre flux de données pour inclure Global Address
Cleanse avant la transformation Data Cleanse. Vérifiez que la transformation Global Address Cleanse génère le champ
ISO_Country_Code_2Char. Mappez ensuite ISO_Coun try_Code_2Char sur le champ d'entrée dynamique Op tion_Pays dans votre mappage d'entrée.
Avantage : comme Global Address Cleanse détermine le code pays indiqué dans le champ ISO_Country_Code_2Char en fonction des données d'adresse de l'enregistrement, il y a de fortes chances que l'adresse et le numéro de téléphone de l'enregistrement proviennent du même pays.
Data Cleanse tente d'analyser les données de téléphone à l'aide du code pays. Si une correspondance est trouvée, Data
Cleanse analyse les données de téléphone en fonction du pays concerné, puis passe à l'analyse de l'enregistrement suivant.
Si la transformation ne trouve pas de correspondance, l'ana lyse passe au niveau suivant (fichier du job).
Si le code pays figure dans le NANP, Data Cleanse interrompt l'analyse international, ignore les niveaux Fichier du job et Glo bal et tente d'analyser les données de téléphone comme des données nord-américaines.
Pour en savoir plus sur les options de transformation dynami que, voir le Guide de référence.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
379
Niveau
Fichier du job
Processus
Facultatif : utilisez l'option
Séquence de code pays ISO2
, ac cessible sous
Options téléphoniques
dans l'onglet
Options
de
Data Cleanse.
Définissez une séquence de pays via l'option
Séquence de code pays ISO2
pour indiquer l'ordre dans lequel Data Cleanse doit rechercher les données de téléphone. Data Cleanse tente de faire correspondre les données de téléphone au premier pays dans la séquence. Si aucune correspondance n'est trou vée, Data Cleanse passe au pays suivant dans la séquence.
Global est l'option par défaut pour la séquence. Vous devez conserver Global comme dernière entrée dans la séquence ou supprimer cette option.
Avantage : si vous savez que vos données proviennent surtout de certains pays, vous pouvez définir votre séquence avec ces pays et supprimer Global. Dans ce cas, Data Cleanse tente de faire correspondre les données de téléphone à ces pays uni quement et dans l'ordre que vous avez indiqué.
Si le code pays figure dans le NANP, Data Cleanse interrompt l'analyse internationale, ignore le niveau Global et tente d'ana lyser les données de téléphone comme des données nordaméricaines.
Si vous supprimez Global de la séquence et si Data Cleanse n'a pas trouvé de correspondance avec les pays listés dans la séquence, la transformation tente d'analyser les données de téléphone de l'enregistrement comme des données nordaméricaines.
Pour ignorer ce niveau d'analyse, ne définissez pas l'option
Séquence de code pays ISO2
. Data Cleanse tente alors d'ana lyser les données de téléphone comme des données nordaméricaines.
380
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Niveau
Global
Processus
Facultatif.
Global est l'option par défaut de
Séquence de code pays ISO2
.
Vous pouvez exclure Global de la séquence, l'inclure après une séquence de codes pays ou inclure uniquement Global dans la séquence.
Avantage : si vous ne savez pas précisément quels sont les pays représentés dans vos données et/ou si la transformation
Global Address Cleanse n'a pas généré le code pays, la trans formation recherche tous les pays listés dans le package de nettoyage des données (sauf les pays figurant dans le NANP) dans le cadre de la recherche globale.
Remarque
Le niveau Global n'inclut pas les codes pays dans les critè res de recherche.
Si le code pays figure dans le NANP, Data Cleanse interrompt l'analyse globale et tente d'analyser les données de téléphone comme des données nord-américaines.
Si la transformation ne peut pas analyser les données de télé phone en fonction de l'option Global ou si vous avez supprimé
Global de l'option
Séquence de code pays ISO2
, la transforma tion tente d'analyser les données de téléphone comme des données nord-américaines.
La transformation indique les données de téléphone non analysées dans un champ de sortie supplémentaire si vous l'avez inclus dans la configuration des champs de sortie.
Informations associées
Configuration de la transformation Data Cleanse [page 374]
Editeur d'options classées [page 195]
17.2.5.2 Analyse des dates
Data Cleanse reconnait les dates dans de nombreux formats et les décompose en composants.
Data Cleanse peut analyser jusqu'à six dates de l'enregistrement défini. C'est-à-dire que Data Cleanse identifie jusqu'à six dates à l'entrée, les décompose dans des composants, et les rend disponibles en sortie, soit dans le format d'origine, soit dans le format standard sélectionné par l'utilisateur.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
381
Informations associées
A propos du mappage un par un [page 386]
17.2.5.3 Analyse des numéros de sécurité sociale des Etats-
Unis
Data Cleanse analyse les numéros de sécurité sociale des Etats-Unis qui sont seuls ou sur une ligne d'entrée entourés d'un autre texte.
Champs utilisés
Data Cleanse édite chaque composant d'un numéro de sécurité sociale analysé, c'est-à-dire l'ensemble du numéro, la zone, le groupe et la série.
Comment Data Cleanse analyse les numéros de sécurité sociale.
Data Cleanse analyse les numéros de sécurité sociale selon les étapes suivantes :
1. Il identifie un numéro de sécurité sociale potentiel en regardant les modèles suivants :
Table 138 :
Modèle nnnnnnnnn nnn nn nnnn nnn-nn-nnnn
Chiffres par groupe
9 chiffres consécutifs
3, 2 et 4 (pour zone, groupe et série)
3, 2 et 4 (pour zone, groupe et série)
Délimité par non applicable espaces
Tous les séparateurs pris en charge
2. Il effectue un contrôle de validité sur les cinq premiers chiffres uniquement. Les résultats possibles de ce contrôle de validité sont :
Table 139 :
Résultat
Réussite
Echec
Description
Data Cleanse a analysé les données et le numéro de sécurité sociale est édit dans un champ de sortie de numéro de sécurité sociale.
Data Cleanse n'a pas analysé les données parce qu'il ne s'agit pas d'un numéro de sécurité sociale valide tel que défini par le gouvernement américain. Les données sont sorties comme des données supplémentaires, non analysées.
382
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Contrôle de la validité
Lors d'un contrôle de validité, Data Cleanse ne vérifie pas qu'un numéro de sécurité sociale à 9 chiffres particulier soit émis, ou qu'il s'agisse du bon numéro pour la personne nommée. Il valide à la place les 5 premiers chiffres
(zone et groupe). Data Cleanse ne valide pas les 4 derniers chiffres (série), sauf pour confirmer que ce sont des chiffres.
Données des Administrations de sécurité sociale
Data Cleanse valide les cinq premiers chiffres en fonction d'une table de l'Administration de la Sécurité Sociale
( http://www.socialsecurity.gov/employer/ssns/HGJune2411_final.txt
). Les règles et les données qui guident ce contrôle sont disponibles à l'adresse http://www.ssa.gov/history/ssn/geocard.html
. Les informations sur le numéro de sécurité sociale référencées par Data Cleanse sont inclues dans le package de nettoyage des données.
Remarque
L'administration de la sécurité sociale ne met plus la table à jour. La dernière mise à jour date de juillet 2011.
Par conséquent, la validation du numéro de sécurité sociale effectuée dans Data Cleanse se base sur les données de juillet 2011. Pour plus d'informations sur le processus d'affectation de numéro de sécurité sociale de l'administration de la sécurité sociale, voir http://www.ssa.gov/employer/randomizationfaqs.html
.
Sorties de numéros de sécurité sociale valides
Data Cleanse sort uniquement les numéros de sécurité sociale qui ont réussi la validation. Si un numéro de sécurité sociale apparent échoue la validation, Data Cleanse ne transmet pas le numéro comme un numéro de sécurité sociale analysé, mais comme un numéro non valide.
17.2.5.4 Analyse des adresses électroniques
Lorsque Data Cleanse analyse des données d'entrée qu'il détermine être une adresse électronique, il place les composants de ces données dans des champs spécifiques pour la sortie. Ci-dessous se trouve un exemple d'une adresse électronique simple : joex@sap.com
En identifiant les différents composants des données (nom d'utilisateur, hôte, etc.) par leur relation entre eux,
Data Cleanse peut affecter les données à des attributs spécifiques (champs de sortie).
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
383
Champs de sortie utilisés par Data Cleanse
Data Cleanse édite les composants individuels d'une adresse électronique analysée, c'est-à-dire le nom d'utilisateur du courrier électronique, le nom de domaine complet, le domaine principal, le deuxième domaine, le troisième domaine, le quatrième domaine, le cinquième domaine et le nom de l'hôte.
Ce que fait Data Cleanse
Data Cleanse peut exécuter les actions suivantes :
● Analyser une adresse électronique située dans un champ discret ou combinée avec d'autres données dans un champ multiligne.
● Répartir le nom du domaine dans ses sous-éléments.
● Vérifier que l'adresse électronique se trouve dans le bon format.
● Indiquer que l'adresse inclut un fournisseur d'accès à internet (FAI) ou un nom de domaine de courrier
électronique référencé dans le type de courrier électronique des données de référence dans Data Cleanse.
Cet indicateur est affiché dans le champ de sortie Email_is_ISP.
Ce que Data Cleanse ne vérifie pas
Plusieurs aspects d'une adresse électronique ne sont pas vérifiés par Data Cleanse. Data Cleanse ne vérifie pas :
● si le nom du domaine (la partie à droite du signe @) est enregistré.
● si un serveur de courrier électronique est activé à cette adresse.
● si le nom d'utilisateur (la partie à gauche du signe @) est enregistré sur ce serveur de courrier électronique (le cas échéant).
● si le nom personnel dans l'enregistrement peut être atteint à cette adresse électronique.
Composants d'adresse électronique
Le champ de sortie dans lequel Data Cleanse place les données dépend de la position des données dans l'enregistrement. Data Cleanse suit le système de nom de domaine (DNS) pour déterminer le bon champ de sortie.
Par exemple, si expat@london.home.office.city.co.uk correspondait à des données d'entrée, Data
Cleanse éditerait les éléments dans les champs suivants :
Table 140 :
Champs de sortie
Adresse électronique
Utilisateur_Email
Valeur de sortie expat@london.home.office.city.co.uk
expat
384
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Champs de sortie
Domaine_Messagerie_Complet
Domaine_Messagerie_Principal
Domaine_Messagerie_Deuxième
Domaine_Messagerie_Troisième
Domaine_Messagerie_Quatrième
Domaine_Messagerie_Cinquième
Domaine_Messagerie_Hôte
Valeur de sortie london.home.office.city.co.uk
uk co city office home london
Informations associées
A propos du mappage un par un [page 386]
17.2.5.5 Analyse des modèles définis par l'utilisateur
Data Cleanse peut analyser les modèles trouvés dans une grande variété de données telles que :
● numéros de compte
● numéros de référence
● bons de commande
● numéros de facture
● NIV (numéro d'identification du véhicule)
● numéros du permis de conduire
Autrement dit, Data Cleanse peut analyser toutes les séquences alphanumériques pour lesquelles vous pouvez définir un modèle.
L'analyseur UDPM (correspondance des modèles définis par l'utilisateur) recherche le modèle dans chaque champ complet.
Les modèles sont définis à l'aide d'expressions régulières dans l'onglet
Données de référence
du générateur de packages de nettoyage des données. Faîtes un contrôle avec le propriétaire du package de nettoyage des données pour déterminer tout mappage requis pour les champs d'entrée et les champs de sortie (attributs).
17.2.5.6 Analyse des noms et numéros de rue
Data Cleanse n'identifie et n'analyse pas les composants individuels d'adresses. Pour analyser les données qui contiennent des informations d'adresse, traitez-les avec les transformations Global Address Cleanse ou U.S.
Regulatory Address Cleanse avant Data Cleanse. Si les données d'adresse sont traitées par la transformation
Data Cleanse, elles sont généralement éditées dans les champs
Supplément
.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
385
Informations associées
Fonctionnement d'Address Cleanse [page 509]
17.2.5.7 A propos de l'analyse des données de société
Data Cleanse peut analyser des données de société.
Data Cleanse accepte ces noms de société seuls dans un champ ou avec d'autres données.
Une exception sur la manière dont Data Cleanserecombine les parties de mot contigües est faite pour les mots qui se terminent par un S, tels que Applebee's ou Macy's. Une chaîne d'entrée Macy's est divisée en trois jetons :
MACY, ', s. Puisque le dernier jeton est un S, Data Cleanse combine d'abord les jetons et recherche le terme comprenant l'apostrophe (MACY'S). Si le terme n'est pas trouvé, Data Cleanse recherche le terme sans l'apostrophe (MACYS). Si cette opération échoue, Data Cleanse laisse automatiquement les jetons ensemble
(MACY'S) et ajoute la classification FIRM_MISCELLANEOUS au terme. Puisque les mots terminant par S restent automatiquement ensemble, il n'est pas nécessaire d'ajouter au dictionnaire tous les noms de société comportant la marque du possessif.
17.2.5.8 A propos de l'analyse des données de nom et de titre
Data Cleanse peut analyser les données de nom et de titre.
Le nom d'une personne peut comprendre les parties suivantes : titre de civilité, prénoms, noms de famille, suffixes du nom, etc.
Data Cleanse peut accepter jusqu'à deux noms et titres comme composants discrets. Data Cleanse accepte
également les données de nom et de titre avec d'autres données ou seules dans un champ. La ligne du nom ou le champ multiligne peut contenir un ou deux noms par champ.
17.2.5.9 A propos du mappage un par un
Le
mappage un par un
est une option de la transformation Data Cleanse qui contrôle la manière dont plusieurs analyseurs éditent les données.
L'option
Mappage un par un
est disponible pour ces analyseurs :
● Date
● Courrier électronique
● Téléphone
Si l'option est définie sur
Oui
, la transformation Data Cleanse édite les données analysées de certains champs d'entrée discrets vers leurs champs de sortie correspondants. Les champs de sortie sont «réservés» pour les analyses réalisées à partir de certains champs d'entrée discrets. Cette option affiche plus clairement le mappage du champ d'entrée qui contenait les données d'origine d'après les données analysées dans le champ de sortie. Par
386
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
exemple, si les données d'entrée de Téléphone1 à Téléphone5 étaient vides et que le champ Téléphone6 contenait des données, à la sortie, les champs Téléphone1 à Téléphone5 sont toujours vides et Téléphone6 contient les données analysées.
Lorsque l'option
Mappage un par un
est définie sur
Oui
, tous les analyseurs qui utilisent cette option sont définis sur
Oui
. Par exemple, il est impossible d'activer l'option
Mappage un par un
uniquement pour l'analyseur de téléphone.
Si l'option
Mappage un par un
est définie sur
Non
, la transformation Data Cleanse analyse et édite les données dans l'ordre où elles sont entrées dans l'analyseur. Les données ne sont pas nécessairement envoyées vers le même champ que celui auquel elles étaient mappées à la sortie. Les données sont éditées dans le premier champ disponible de la catégorie.
Remarque
Les exemples de cette section illustrent les champs Date. Les mêmes exemples s'appliquent aussi aux champs
Téléphone et Adresse électronique.
Exemple
Table 141 :
Champ Données d'en trée
Date1
Date2
<vide>
01/01/1968
Date3
Date4
Date5
Date6
02/02/1968
<vide>
03/03/1968
04/04/1968
Données de sortie lorsque l'option est
Non
01/01/1968
02/02/1968
03/03/1968
04/04/1968
<vide>
<vide>
Données de sortie lorsque l'option est
Oui
<vide>
01/01/1968
02/02/1968
<vide>
03/03/1968
04/04/1968
Champs multilignes
Les champs discrets Date, Adresse électronique et Téléphone sont analysés avant les champs multilignes afin que tous les champs non réservés puissent contenir des données des champs multilignes.
Exemple
Table 142 :
Champ Données d'entrée Données de sortie lorsque l'option est
Oui
Date1
Date2
Date3
<vide>
01/01/1968
<vide>
Données de sortie lorsque l'option est
Non
01/01/1968
02/02/1968
03/03/1968
<vide>
01/01/1968
<vide>
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
387
Champ Données d'entrée
Date4
Date5
02/02/1968
<vide>
Date6
Multili gne1
<vide>
03/03/1968
04/04/1968
Données de sortie lorsque l'option est
Non
04/04/1968
<vide>
<vide>
<vide>
Données de sortie lorsque l'option est
Oui
02/02/1968
03/03/1968 (non réservé, l'entrée multiligne peut être ajoutée ici)
04/04/1968 (non réservé, l'entrée multiligne peut être ajoutée ici)
<vide>
Champs Supplément
Quand l'option
Mappage un par un
est définie sur
Oui
et que le champ d'entrée contient plusieurs jeux de données, seul le premier jeu de données est placé dans le champ de sortie correspondant. Tous les autres jeux de données sont placés dans le champ Supplément.
Exemple
Table 143 :
Champ Données d'entrée
Date1
Données de sortie lorsque l'option est
Non
01/01/1968
Données de sortie lorsque l'option est
Oui
01/01/1968
Date2
Date3
Date4
Date5
Date6
Supplé ment
01/01/1968
02/02/1968
03/03/1968
04/04/1968
05/05/1968
06/06/1968
07/07/1968
08/08/1968
<vide>
<vide>
<vide>
<vide>
<vide>
<vide>
02/02/1968
03/03/1968
04/04/1968
05/05/1968
06/06/1968
07/07/1968 08/08/1968
<vide>
<vide>
<vide>
<vide>
<vide>
02/02/1968 03/03/1968 04/04/1968
05/05/1968 06/06/1968 07/07/1968
08/08/1968
388
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Informations associées
Analyse des adresses électroniques [page 383]
Analyse des numéros de téléphone [page 377]
17.2.6 A propos de la normalisation des données
Les formes standard des variantes individuelles sont définies dans un package de nettoyage des données à l'aide du générateur de packages de nettoyage des données. De plus, la transformation Data Cleanse peut normaliser les données pour que leur format soit plus cohérent. Les caractéristiques de données pouvant être normalisées par la transformation incluent la case, la ponctuation et les abréviations.
17.2.7 Affectation de descriptions de sexes et de titres de civilité.
Chaque variante dans un package de nettoyage des données a un sexe qui lui ait associée.
Par défaut, le sexe est non affecté. Il est possible d'affecter un sexe à la variante dans le mode Avancé du
Générateur de packages de nettoyage des données. Les descriptions de sexe sont : masculin - fort, féminin - fort, masculin - faible, féminin - faible et ambigu.
Les variantes dans le package de nettoyage des données personnelles et professionnelles fourni par SAP ont été affectées d'un sexe.
Il est possible d'utiliser la transformation Data Cleanse pour sortir le sexe associé à la variante dans le champ de sortie GENDER.
Le champ de sortie Titre de civilité inclut toujours les titres de civilité qui font partie des données d'entrée de nom.
De plus, lorsque l'option
Affecter des titres de civilités
est définie sur
Oui
, Data Cleanse renseigne le champ de sortie PRENAME lorsqu'un sexe de type "Masculin - probabilité élevée" ou "Féminin - probabilité élevée" est affecté à la variante.
Noms doubles
Lorsque les noms doubles sont analysés, Data Cleanse propose quatre descriptions de sexe supplémentaires : multi-nom féminin, multi-nom masculin, multi-nom mixte et multi-nom ambigu. Ces sexes sont générés avec Data
Cleanse en fonction des sexes affectés aux deux noms. Le tableau suivant affiche la manière dont les sexes multinoms sont affectés :
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
389
Table 144 :
Nom double
Bob et Sue Jones
Bob et Tom Jones
Sue et Sara Jones
Bob et Pat Jones
Sexe du premier nom masculin fort masculin fort féminin fort masculin fort
Sexe du deuxième nom féminin fort masculin fort féminin fort
Ambigu
Sexe affecté pour nom double multi-nom mixte
Multi-nom masculins
Multi-nom féminins
Multi-nom ambigu
Prénoms chinois et japonais
Lorsqu'un prénom a été analysé comme le résultat des règles qui combinent intelligemment les caractères du prénom plutôt que d'inclure le nom donné comme une variante dans le package de nettoyage des données, Data
Cleanse génère le sexe en combinant le sexe des caractères individuels qui constituent le prénom à l'aide du tableau suivant.
Table 145 :
Féminin fort
Masculin fort
Féminin faible
Masculin faible
Ambigu
Féminin fort
féminin fort
Ambigu féminin fort
Ambigu féminin fort
Masculin fort
Ambigu masculin fort
Ambigu masculin fort masculin fort
Féminin faible
féminin fort
Ambigu
Féminin faible
Ambigu
Féminin faible
Masculin faible
Ambigu masculin fort
Ambigu
Masculin faible
Masculin faible
Ambigu
féminin fort masculin fort
Féminin faible
Masculin faible
Ambigu
17.2.8 Préparation d'enregistrements pour correspondance
Si vous planifiez un flux de données qui inclut une correspondance, il est recommandé d'utiliser d'abord Data
Cleanse pour normaliser les données afin d'améliorer la précision des correspondances. La transformation Data
Cleanse doit être en amont de la transformation Match.
La transformation Data Cleanse peut générer des standards de correspondance ou d'autres noms pour de nombreux champs de nom et de société, ainsi que pour tous les champs de sortie personnalisée. Par exemple,
Data Cleanse peut affirmer que Patrick et Patricia sont des correspondances potentielles pour le nom Pat. Les standards de correspondance peuvent aider à surmonter deux types de problèmes de correspondance : orthographe différent (Catherine et Katherine) et surnoms (Pat et Patrick).
Cet exemple indique la manière dont Data Cleanse peut préparer des enregistrements pour la correspondance.
Table 146 :Source de données 1
Enregistrement d'entrée
Intl Marketing, Inc.
Pat Smith, directeur de comptabilité
Enregistrement nettoyé
Prénom 1
Standards de correspondance
Pat
Patrick, Patricia
390
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Enregistrement d'entrée Enregistrement nettoyé
Prénom 2
Nom de famille
Fonction
Société
Smith
Directeur de comptabilité
Intl. Mktg, Inc.
Table 147 :Source de données 2
Enregistrement d'entrée
Smith, Patricia R.
International Marketing, Incorp.
Enregistrement nettoyé
Prénom 1
Standards de correspondance
Prénom 2
Nom de famille
Fonction
Société
Patricia
R
Smith
Intl. Mktg, Inc.
Lorsqu'un package de nettoyage des données n'inclut pas un autre nom, le champ de sortie du standard de correspondance pour ce terme est vide. Dans le cas d'une sortie multi-mots telle qu'un nom de société, lorsqu'aucune des variantes dans le nom de société n'a un autre nom, alors la sortie du standard de correspondance est vide. Cependant, si au moins une variante a un autre nom associé, le standard de correspondance est généré à l'aide de l'autre nom de la variante lorsque disponible, et des variantes pour les mots qui n'ont pas un autre nom.
17.2.9 Données propres à une région
17.2.9.1 À propos des domaines
Un domaine décrit un type spécifique de données ou de contenu.
Les domaines étendent les fonctionnalités de Data Cleanse afin de nettoyer correctement les données selon les standards culturels d'une région. Dans un package de nettoyage des données personnelles et professionnelles fourni par SAP, chacun des paramètres régionaux constitue un domaine. Le tableau suivant illustre la manière dont l'analyse des noms peut varier selon la culture :
Table 148 :
Domaine Nom
Espagnol
Portugais
Français
Juan C. Sánchez
João A. Lopes
Jean-Christophe
Rousseau
Prénom1
Juan
João
Jean-Christophe
Prénom2
C.
Sortie analysée
Nom_Famille1
Sánchez
A.
Rousseau
Nom_Famille2
Lopes
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
391
Domaine Nom
Allemand
Anglais (Etats-
Unis et Canada)
Hans Joachim Mül ler
James Andrew
Smith
Prénom1
Hans
James
Prénom2
Joachim
Sortie analysée
Nom_Famille1
Müller
Andrew Smith
Nom_Famille2
Chaque variante est automatiquement affectée au domaine global et peut être affectée à un ou plusieurs autres domaines. Une variante peut avoir une signification différente dans chaque domaine. Autrement dit, les propriétés associées à une variante donnée, comme le format et la classification standard, peuvent être spécifiques à un domaine. Par exemple, la variante AG a des significations différentes en allemand et en anglais des États-Unis. En allemand, AG est une abréviation de «Aktiengesellschaft» (type de société), nettoyée sous la forme "AG", alors qu'en anglais, AG est une abréviation d'Agriculture, nettoyée sous la forme "Ag". Vous pouvez contrôler la manière dont Data Cleanse nettoie vos données en indiquant le ou les domaines que Data Cleanse doit appliquer et dans quel ordre.
Remarque
Plusieurs domaines sont pris en charge uniquement par les packages de nettoyage des données personnelles et professionnelles de la version 4.1 ou supérieure. Les variantes des packages de nettoyage des données personnalisés et de nettoyage des données personnelles et professionnelles créés avant Information
Steward 4.1 sont affectés uniquement au domaine global.
Domaine global
Le domaine global est un domaine de contenu particulier qui contient toutes les variantes et leurs propriétés associées. Si une variante n'est associée à aucune information spécifique au domaine, le domaine global est utilisé comme domaine par défaut.
Lorsque vous ajoutez une nouvelle variante, elle est d'abord ajoutée au domaine global. Si nécessaire, vous pouvez ensuite l'ajouter à d'autres domaines afin d'affecter toute information propre au domaine. L'ajout d'une variante à un domaine autre que le domaine global est nécessaire uniquement si la variante comporte des propriétés comme le sexe, la classification, le format standard, etc., qui diffèrent entre le domaine global et les autres domaines.
Si vous supprimez une variante du domaine global, elle est également supprimée de tous les autres domaines auxquels elle est associée.
Contrôle du nettoyage propre au domaine
L'administrateur ou le testeur de Data Services peut définir la
séquence de domaines de contenu
dans la transformation Data Cleanse afin de contrôler la manière dont Data Cleanse analyse vos données spécifiques au domaine, telles que le nom, le sexe, etc. Dans l'exemple ci-dessous, regardez comment le sexe serait appliqué au nom Jean d'après les informations suivantes :
392
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 149 :
Nom
Jean
Jean
Jean
Domaine
Global
Français
Anglais (États-Unis et Canada)
Sexe
AMBIGU
MASCULIN_PROBABI
LITÉ_ÉLEVÉE
FÉMININ_PROBABILITÉ_FAI
BLE
Si vous ne voulez favoriser aucune propriété propre au domaine, sélectionnez uniquement
GLOBAL
. Sexe ambigu sera affecté au nom Jean car ni les informations spécifiques au domaine français, ni celles propres au domaine anglais ne sont prises en compte.
Lorsque les données proviennent d'une région à domaine unique, indiquez un domaine suivi de Global. Par exemple, lorsque vous indiquez EN_US suivi de GLOBAL (
EN_US|GLOBAL
), le sexe féminin (probabilité faible) sera affecté au nom Jean.
Lorsque les données proviennent d'une région à plusieurs domaines, sélectionnez la séquence préférée des domaines en terminant par Global. Par exemple, le Benelux (Belgique, Pays-Bas, Luxembourg) comprend les domaines néerlandais, français et allemand. Selon vos préférences de nettoyage, vous pouvez classer les domaines selon la séquence voulue. Par exemple, pour favoriser le domaine néerlandais, indiquez
NL|FR|DE|
GLOBAL
. Quand il existe dans les données une variante comportant différentes propriétés dans les domaines de contenu sélectionnés, le processus de nettoyage utilise d'abord les propriétés du néerlandais s'il en trouve. S'il n'existe aucune propriété spécifique au néerlandais, Data Cleanse utilise les propriétés du français, s'il n'existe aucune propriété spécifique ni au néerlandais ni au français, il utilise les propriétés de l'allemand. Si aucun des trois domaines n'a de propriétés spécifiques, Data Cleanse utilise celles indiquées dans le domaine global.
La Suisse est un autre exemple de région à plusieurs domaines. La Suisse comprend les domaines allemand, français et italien. Selon vos préférences de nettoyage, vous pouvez classer les domaines selon la séquence voulue. Par exemple, pour favoriser le domaine allemand, sélectionnez
DE|FR|IT|GLOBAL
. Quand il existe dans les données une variante comportant différentes propriétés dans les domaines de contenu sélectionnés, le processus de nettoyage utilise d'abord les propriétés de l'allemand s'il en trouve. S'il n'existe aucune propriété spécifique à l'allemand, Data Cleanse utilise les propriétés du français, s'il n'existe aucune propriété spécifique ni à l'allemand ni au français, il utilise les propriétés de l'italien. Si aucune des trois n'a de signification particulière, Data Cleanse utilise celle qui existe dans le domaine global.
Spécification de la séquence de domaines de contenu
Vous pouvez définir la séquence de domaines de contenu à trois niveaux différents.
Table 150 :
Niveau
Par défaut
Option
Option de la transformation
Séquence de domaines de contenu
Data Cleanse. Cette option est obliga toire. En cas d'erreurs ou si les options au niveau intermédiaire ou au niveau supérieur ne sont pas spé cifiées, cette option est utilisée.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
393
Niveau
Niveau intermé diaire
Niveau supérieur
Option
Données dans les options d'entrée Option_Pays, Option_Langue, et/ou Option_Région. En cas d'erreurs ou si les options au niveau supérieur ne sont pas spécifiées, cette option est utilisée. Ces champs d'en trée sont renseignés et mappés à partir des champs de sortie Code_pays_ISO_2car, Langue et Région1 de la transformation Global Address Cleanse, respectivement. L'utilisation de ces champs d'entrée est facultative.
Données dans l'option d'entrée Option_séquence_domaines_contenu. Les données de cette option sont affectées via une transformation Query précédente ou par le biais d'une autre étape de pré-traitement.
L'utilisation de ce champ d'entrée est facultative.
Exemple
Au cours du traitement, Data Cleanse affecte la séquence de domaines de contenu en fonction de l'option de niveau supérieur, si l'option est définie et valide.
Table 151 :
Niveau
Niveau supé rieur
Option
Champ d'entrée : Option_séquence_domai nes_contenu=FR|Global
Niveau inter médiaire
Champs d'entrée :
Option_Pays=MX
Option_Langue=<non défini>
Option_Région=<non défini>
Sortie Notes
La séquence de domaines de contenu est le français et toutes les données qui n'ont pas été identifiées comme relevant du français sont dé finies par défaut dans le do maine Global.
Cette option écrase les para mètres intermédiaires et par défaut, à moins que cette op tion ne soit pas valide (par exemple, mal orthographiée) ou non définie.
La séquence de domaines de contenu est l'espagnol
(ES_MX, de l'Espagne au
Mexique) et toutes les don nées qui n'ont pas été identi fiées comme relevant de l'es pagnol sont définies par dé faut dans le domaine Global.
Cette option écrase les para mètres par défaut, à moins que cette option ne con tienne des données non vali des ou non définies.
Dans la plupart des cas, la séquence de domaines de contenu peut être identifiée en fonction du champ d'en trée Option_Pays unique ment. Toutefois, certains pays peuvent utiliser Op tion_Langue ou Option_Ré gion pour les aider à détermi ner la séquence de domaines de contenu.
394
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Niveau
Par défaut
Option
Option de transformation Data Cleanse : Sé quence de domaines de contenu=EN_US|
Global
Sortie Notes
La séquence de domaines de contenu est l'anglais (du
Royaume-Uni aux États-Unis et au Canada) et toutes les données qui n'ont pas été identifiées comme relevant de l'anglais sont définies par défaut dans le domaine Glo bal.
Cette option est obligatoire et est utilisée en cas d'er reurs détectées dans les op tions de niveau intermédiaire et de niveau supérieur.
Lors de l'utilisation du niveau intermédiaire, vous découvrirez que certains pays peuvent utiliser des données d'entrée supplémentaires pour déterminer la séquence de domaines de contenu.
Table 152 :
Champ d'en trée Op tion_Pays
CA (Canada)
BE (Belgique)
CH (Suisse)
Champs d'entrée supplémentai res
Option_Région=QC
Option_Région=BC*
Option_Langue=FR
Option_Langue=NL*
Option_Langue=FR
Option_Langue=IT
Option_Langue=RU*
Séquence de domaines de contenu affectée
Notes
FR|Global
EN_US|Global
FR|Global
NL|Global
FR|Global
IT|Global
DE|Global
La séquence de domaines de con tenu est toujours affectée à FR|Glo bal si Option_Région est défini sur
Québec. Les données acceptables in cluent Québec ou QC, quelle que soit la casse. Toute autre région valide
(telle que BC pour la Colombie-bri tannique) renvoie une séquence de domaines de contenu EN_US|Global.
La séquence de domaines de con tenu est toujours affectée à FR|Glo bal si Option_Langue=FR. Toute au tre langue spécifiée (telle que NL pour le néerlandais ou EN_GB pour l'anglais britannique) ou si cette op tion n'est pas renseignée, renvoie une séquence de domaines de con tenu NL|Global.
La séquence de domaines de con tenu est toujours affectée à FR|Glo bal ou à IT|Global si Option_Lan gue=FR ou IT, respectivement. Toute autre langue spécifiée (telle que RU pour le russe), ou si cette option est vide, renvoie la séquence de domai nes de contenu DE|Global.
Remarque
*La séquence de domaines de contenu est affectée indépendamment du format de sortie.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
395
Informations associées
À propos du format de sortie [page 396]
17.2.9.2 À propos du format de sortie
D'après le domaine indiqué dans le format de sortie, Data Cleanse utilise certains champs de sortie et met en forme les données de ces champs selon les standards régionaux.
Spécifiez le domaine dans la zone
Format de sortie
de la transformation Data Cleanse.
Selon les standards régionaux, dans certains domaines, un prénom composé est combiné et édité dans le champ
Prénom1, alors que dans d'autres domaines, le premier prénom est édité dans le champ Prénom1 et le deuxième prénom dans le champ Prénom2.
De même, dans certains domaines, un nom de famille composé est combiné et édité dans le champ Nom de famille1, alors que dans d'autres domaines, le premier nom de famille est édité dans le champ Nom de famille1 et le deuxième dans le champ Nom de famille2.
Dans certains domaines, le champ de sortie composite Personne comprend le prénom suivi du nom de famille alors que dans d'autres domaines, le champ de sortie composite Personne comprend le nom de famille suivi du prénom.
La transformation Data Cleanse requiert l'indication d'un format de sortie, même si les données sont vraiment globales.
Lorsque vous avez des données d'une région à domaine unique, indiquez le domaine. Par exemple, sélectionnez
DE
pour l'Allemagne et
ZH
pour la Chine.
Si vous avez des données d'une région à plusieurs domaines, vous devez sélectionner le domaine préféré. Vos données peuvent être mises en forme différemment selon le domaine sélectionné.
Par exemple, les données des Philippines peuvent être éditées selon le format anglais ou espagnol. Comme l'illustre le tableau suivant, le nom
Juan Carlos Sanchez Cruz
sera édité dans des champs différents selon le format de sortie sélectionné.
Table 153 :
Champ de sortie
Prénom1
Prénom2
Nom de famille1
Nom de famille2
Personne
Format de sortie
Anglais
Juan
Carlos
Sánchez Cruz
Juan Carlos Sánchez Cruz
Espagnol
Juan
Carlos
Sánchez
Cruz
Juan Carlos Sánchez Cruz
Pour les données du Benelux, vous pouvez choisir d'éditer vos données selon le format hollandais, français ou allemand. Comme l'illustre le tableau suivant, le nom
H. D. BUDJHAWAN
sera édité dans des champs différents selon le format de sortie sélectionné.
396
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 154 :
Champ de sortie
Prénom1
Prénom2
Nom de famille1
Nom de famille2
Personne
Format de sortie
Néerlandais
H.D.
Budjhawan
H.D. Budjhawan
Français
H. D.
Budjhawan
H. D. Budjhawan
Allemand
H.
D.
Budjhawan
H. D. Budjhawan
Vous pouvez modifier le format de sortie existant ou ajouter un format de sortie propre au domaine en modifiant les règles appropriées dans votre package de nettoyage des données.
Spécification du format de sortie
Vous pouvez définir le format de sortie en trois niveaux différents.
Table 155 :
Niveau
Par défaut
Niveau intermé diaire
Niveau supérieur
Option
Option de la transformation Data Cleanse
Format de sortie
. Cette option est obligatoire. En cas d'erreurs ou si les options au niveau intermédiaire ou au niveau supérieur ne sont pas spécifiées, cette option est utilisée.
Données dans les options d'entrée Option_Pays, Option_Langue, et/ou Option_Région. En cas d'erreurs ou si les options au niveau supérieur ne sont pas spécifiées, cette option est utilisée. Ces champs d'en trée sont renseignés et mappés à partir des champs de sortie Code_pays_ISO_2car, Langue et Région1 de la transformation Global Address Cleanse, respectivement. L'utilisation de ces champs d'entrée est facultative.
Données dans l'option d'entrée Option_format_sortie. Les données de cette option sont affectées via une transformation Query précédente ou par le biais d'une autre étape de pré-traitement. L'utilisation de ce champ d'entrée est facultative.
Exemple
Au cours du traitement, Data Cleanse affecte le format de sortie en fonction de l'option de niveau supérieur, si l'option est définie et valide.
Table 156 :
Niveau
Niveau supé rieur
Option
Champ d'entrée : Option_for mat_sortie=FR
Sortie
Le format de sortie est le français.
Notes
Cette option écrase les paramètres intermédiai res et par défaut, à moins que cette option ne soit pas valide (par exemple, mal orthographiée) ou non définie.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
397
Niveau
Niveau inter médiaire
Option
Champs d'entrée :
Option_Pays=MX
Option_Langue=<non défini>
Par défaut
Sortie
Le format de sortie est l'espagnol (de l'Espa gne au Mexique)
Notes
Cette option écrase les paramètres par défaut, à moins que cette option ne contienne des don nées non valides ou non définies.
Option_Région=<non défini>
Dans la plupart des cas, le format de sortie peut
être identifié en fonction du champ d'entrée Op tion_Pays uniquement. Toutefois, certains pays peuvent utiliser Option_Langue ou Option_Ré gion pour aider à déterminer le format de sortie.
Option de transformation Data
Cleanse : Format_sor tie=EN_US
Le format de sortie est l'anglais (du Royaume-
Uni aux Etats-Unis).
Cette option est obligatoire et est utilisée en cas d'erreurs détectées dans les options de niveau intermédiaire et de niveau supérieur.
Lors de l'utilisation du niveau intermédiaire, vous découvrirez que certains pays peuvent utiliser des données d'entrée supplémentaires pour déterminer le format de sortie.
Table 157 :
Champ d'en trée Op tion_Pays
CA (Canada)
Champs d'entrée supplé mentaires
Format de sortie affecté
Notes
BE (Belgique)
CH (Suisse)
Option_Région=QC
Option_Région=BC*
Option_Langue=FR
Option_Langue=NL*
Option_Langue=FR
Option_Langue=IT
Option_Langue=RU*
FR
EN_US
FR
NL
FR
IT
DE
Le format de sortie est toujours affecté à FR si Op tion_Région est défini sur Québec. Les données accepta bles incluent Québec ou QC, quelle que soit la casse.
Toute autre région valide (telle que BC pour la Colombiebritannique) renvoie un format de sortie EN_US.
Le format de sortie est toujours affecté à FR si Op tion_Language=FR. Toute autre langue spécifiée (telle que NL pour le néerlandais ou EN_GB pour l'anglais bri tannique), ou si cette option est vide, renvoie un format de sortie NL.
Le format de sortie est toujours affecté à FR ou IT si Op tion_Langue=FR ou IT, respectivement. Toute autre lan gue spécifiée (telle que RU pour le russe), ou si cette op tion est vide, renvoie un format de sortie DE.
Remarque
*Le format de sortie est affecté indépendamment de la séquence du domaine de contenu.
17.2.9.3 Personnalisation des titres de civilité par pays
Lorsque le nom d'entrée n'inclut pas de titre de civilité, Data Cleanse génère les titres de civilité anglais Mr. et Ms.
Pour modifier ces termes, ajoutez une transformation Query après la transformation Data Cleanse et utilisez la fonction search_replace pour remplacer les termes avec les titres de civilité appropriés pour la région.
398
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.2.9.4 Numéros personnels d'identification
Data Cleanse peut identifier les numéros de sécurité sociale des Etats-Unis et les séparer dans des composants discrets Si vos données incluent des numéros personnels d'identification autres que des numéros de sécurité sociale des Etats-Unis, il est possible de créer des règles de modèle défini par l'utilisateur pour identifier les numéros. Les règles de modèle défini par l'utilisateur font partie des packages de nettoyage des données et sont définies dans l'onglet
Modifier les données de référence
du Générateur de package de nettoyages des données.
Les règles de modèle défini par l'utilisateur sont analysées dans Data Cleanse avec l'analyseur
UDPM
. Les numéros de sécurité sociale des Etats-Unis sont analysés dans Data Cleanse avec l'analyseur
SSN
.
17.2.9.5 Largeur du texte dans les champs de sortie
De nombreux caractères japonais sont représentés à la fois dans des formes pleine chasse et demi-chasse. Les caractères latins peuvent être codés soit dans une forme proportionnelle soit dans une forme pleine chasse. Dans les deux cas, la forme pleine chasse requiert plus d'espace que la forme demi-chasse ou la forme proportionnelle.
Pour normaliser les données, il est possible d'utiliser l'option
Style de largeur de caractère
pour définir la largeur de caractère pour tous les champs de sortie sur pleine chasse ou demi-chasse. La valeur de largeur normale reflète la largeur de caractère normalisée en fonction du type de script. Ainsi, certains champs de sortie contiennent des caractères de demi-chasse et d'autres champs contiennent des caractères de pleine chasse. Par exemple, tous les caractères latins de pleine chasse sont normalisés en fonction de leurs formes demi-chasse, et tous les caractères katakana de demi-chasse sont normalisés en fonction de leurs formes pleine chasse.
NORMAL_WIDTH n'exige aucun traitement spécial, et est donc le paramètre le plus efficace.
Remarque
Puisque la largeur de sortie est basée sur la largeur normalisée pour le type de caractère, les données de sortie peuvent être plus larges que les données d'entrée. Il est possible que vous ayez à augmenter la largeur de la colonne dans la table cible.
Pour les tables de modèle, le fait de sélectionner la case
Utiliser le type NVARCHAR pour les colonnes VARCHAR dans les bases de données prises en charge
remplace le type de colonne VARCHAR par le type NVARCHAR et prend une compte une plus grande taille de données.
17.3 Géocodage
Cette section traite du fonctionnement de la transformation Geocoder, de ses différents modes d'utilisation et de la compréhension de la sortie.
Remarque
La fonctionnalité GeoCensus présente dans la transformation USA Regulatory Address Cleanse sera mise hors service dans une version future de Data Services. Il est recommandé de mettre à niveau tout flux de données utilisant actuellement la fonctionnalité GeoCensus pour utiliser la transformation Geocoder. Pour obtenir des instructions sur la mise à niveau de GeoCensus vers la transformation Geocoder, voir le Guide de mise à niveau.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
399
Fonctionnement de la transformation Geocoder
La transformation Geocoder utilise des coordonnées géographiques exprimées sous forme de données de latitude, longitude, adresses et point de référence (POI). Cette transformation permet d'ajouter des adresses, des données de latitude et de longitude, des données de recensement ainsi que d'autres informations.
En fonction des champs d'entrée mappés, la transformation Geocoder offre trois modes de géocodage :
● Géocodage d'adresse
● Géocodage inversé
● Recherche textuelle de POI
En règle générale, la transformation Geocoder est combinée à la transformation Global Address Cleanse ou USA
Regulatory Address Cleanse
Informations associées
GeoCensus (USA Regulatory Address Cleanse) [page 596]
17.3.1 Géocodage d'adresse
En mode de géocodage des adresses, la transformation Geocoder affecte des données géographiques. En fonction du degré d'intégralité des données d'adresse d'entrée, la transformation Geocoder peut renvoyer plusieurs niveaux de données de latitude et de longitude. Le fait d'ajouter au début les informations de latitude et de longitude à vos données peut aider l'entreprise à cibler certaines tailles de population et d'autres données géographiques régionales.
Préparer des enregistrements pour le géocodage
La transformation Geocoder fonctionne mieux lorsqu'elle a standardisé et corrigé les données d'adresse, donc pour obtenir les informations les plus précises, placez une transformation Address Cleanse avant la transformation Geocoder dans le workflow.
17.3.1.1 Niveaux de latitude et longitude
Niveau numéro principal
Si vos données d'entrée possèdent une adresse complète (y compris le numéro principal), la transformation
Geocoder renvoie les coordonnées de latitude et longitude à l'emplacement exact en fonction du type de répertoire (basé sur l'échelle ou la parcelle de terrain) auquel vous vous inscrivez.
400
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
En règle générale, la transformation Geocoder utilise des répertoires de géocodage pour calculer les valeurs de latitude et de longitude d'une adresse par interpolation du point de départ et du point d'arrivée d'un segment de ligne correspondant à une plage d'adresses. Les valeurs de latitude et de longitude peuvent présenter un léger décalage par rapport à l'emplacement exact de la maison. On nomme cela le niveau d'affectation PRI (primary range interpolated).
Remarque
Si vous souhaitez obtenir une affectation au niveau de l'adresse, le champ d'entrée Numéro_principal doit être mappé et ne peut pas être vide.
La transformation Geocoder prend également en charge les répertoires de parcelle de terrain, qui contiennent les valeurs de latitude et de longitude les plus précises et exactes, en fonction des données de pays disponibles. Les données relatives aux parcelles de terrain sont stockées sous forme de points. Elles ne vous mènent pas à proximité de la maison, mais juste devant la porte. On nomme cela le niveau d'affectation PRE (primary range exact).
Niveau centroïde Code postal
Si une adresse possède un code postal, vous recevez des coordonnées dans la zone de code postal appropriée. La transformation Geocoder possède les niveaux d'affectation Code postal complet (PF), Code postal partiel2 (P2P) et Code postal1 (P1), selon les données de pays disponibles.
Niveau centroïde Localité
Si une adresse possède une localité, vous recevez des coordonnées dans la zone de localité appropriée. La transformation Geocoder possède les niveaux d'affectation Localité1 (L1), Localité2 (L2), Localité3 (L3) et
Localité4 (L4), selon les données de pays disponibles.
17.3.1.2 Mappage du champ Géocodage d'adresse
Les tableaux suivants spécifient les champs d'entrée et de sortie requis, facultatifs ou ceux qui ne peuvent pas
être mappés en mode Géocodage d'adresse. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
401
Mappage du champ d'entrée
Table 158 :
Catégorie du champ d'entrée
Adresse
Adresse POI
Latitude/Longitude
Enregistrements max
Filtre de recherche
Mode Géocodage d'adresse
Au moins un champ est requis
Facultatif n/a n/a n/a
Mappage du champ de sortie
Table 159 :
Catégorie du champ de sortie
Adresse
Adresse POI
Niveau d'affectation
Recensement
Distance
Code d'info
Latitude/Longitude
Population
Résultats
Côté de la rue
Code de statut
Mode Géocodage d'adresse n/a n/a
Facultatif
Facultatif n/a
Facultatif
Facultatif
Facultatif n/a
Facultatif
Facultatif
17.3.1.3 Scénario de géocodage d'adresse
Scénario :
utilisez une adresse ou une adresse et un point d'intérêt pour affecter les informations de latitude et de longitude.
Nombre de résultats de sortie :
un seul enregistrement
Les sections suivantes décrivent les champs d'entrée requis et facultatif, et les champs de sortie disponibles pour obtenir des résultats pour ce scénario. Nous fournissons également un exemple avec un exemple de données.
402
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Champs d'entrée obligatoires
Pour les champs d'entrée requis, le champ Pays doit être mappé. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
Table 160 :
Catégorie
Adresse
Nom du champ d'entrée
Pays (requis)
Localité1-4
Code_postal1-2
Nom_principal1-4
Numéro_principal
Suffixe_principal1
Préfixe_principal1
Type_principal1-4
Région1-2
Champs d'entrée facultatifs
Table 161 :
Catégorie
Adresse POI
Nom du champ d'entrée
Nom_POI
Type_POI
Champs de sortie disponibles
Tous les champs de sortie sont facultatifs
Table 162 :
Catégorie
Niveau d'affectation
Nom du champ de sortie
Niveau_affectation
Niveau_affectation_localité
Niveau_affectation_code_postal
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
403
Catégorie
Recensement
Code d'info
Latitude/Longitude
Population
Côté de la rue
Code de statut
Nom du champ de sortie
Ilot_secteur_recensement
Groupe_îlot_secteur_recensement
Code_comté_gouv
Code_localité1_gouv
Code_région1_gouv
Metro_Stat_Area_Code
Code_division_secondaire
Code_zone_statistique
Code_info
Latitude
Latitude_localité
Latitude_code_postal
Latitude_numéro_principal
Longitude
Longitude_localité
Longitude_code_postal
Longitude_numéro_principal
Localité_classe_population1
Côté_adresse_principale
Code_Statut
Exemple
Entrée :
vous mappez des champs d'entrée contenant les données suivantes :
Table 163 :
Nom du champ d'entrée
Pays
Code postal1
Code postal2
Nom_principal1
Numéro_principal
Type_principal1
Valeur d'entrée
Etats-Unis
54601
4023
Devant
332
Rue
404
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Sortie :
les champs de sortie mappés contiennent les résultats suivants :
Table 164 :
Nom du champ de sortie
Niveau_affectation
Latitude
Longitude
Valeur de sortie
PRE
43.811616
-91.256695
Informations associées
Compréhension de la sortie [page 419]
17.3.2 Géocodage inversé
En mode Géocodage inversé, la transformation Geocoder identifie l'adresse la plus proche ou le point d'intérêt basé sur l'emplacement de référence d'entrée. Basé sur le mappage d'entrée, le géocodage inversé peut s'opérer en quatre modes :
Table 165 :
Mode
Attribuer à une entrée d'adresse une sortie d'enregistrement simple.
Attribuer à une entrée d'adresse une sortie d'enregistrement multiple.
Attribuer à une entrée de latitude/longitude une sortie d'enregistrement simple.
Description
Utilisez l'adresse et les champs de POI d'adresse facultative pour déterminer un point de référence unique pour ne générer que l'enregistrement unique le plus proche qui correspond au filtre de recherche.
Si les champs de filtre de recherche ne sont pas mappés, la transformation Geocoder désigne par défaut le point d'intérêt ou l'adresse la plus proche.
Utilisez l'adresse et les champs de POI d'adresse facultative pour déterminer un point de référence unique pour générer les données du point de référence vers les champs de sortie et les enregistrements les plus proches qui correspondent aux champs de filtre de recherche dans le champ Liste_résultats.
Le nombre d'enregistrements est déterminé par le champ d'entrée Option_enregistrements_max s'il est mappé et ren seigné, ou par l'option Enregistrements max.
Utilisez les champs de latitude et longitude comme point de référence pour ne générer que l'enregistrement unique le plus proche qui correspond aux champs de filtre de recherche fa cultatifs.
Si les champs de filtre de recherche ne sont pas mappés, la transformation Geocoder désigne par défaut le point d'intérêt ou l'adresse la plus proche.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
405
Mode
Attribuer à une entrée de latitude/longitude une sortie d'enregistrement multiple.
Description
Utilisez les champs de latitude et longitude comme point de référence pour générer les enregistrements les plus proches qui correspondent aux champs de filtre de recherche faculta tifs dans le champ Liste_Résultats.
Le nombre d'enregistrements est déterminé par le champ d'entrée Option_enregistrements_max s'il est mappé et ren seigné, ou par l'option Enregistrements max.
Si les champs de filtre de recherche ne sont pas mappés, la transformation Geocoder désigne par défaut le point d'intérêt ou l'adresse la plus proche.
Remarque
● Le mappage du champ d'entrée facultatif Option_Rayon permet de définir la distance par rapport au point de référence spécifié et d'identifier une zone dans laquelle des enregistrements de correspondance se trouvent.
● Pour rechercher un ou plusieurs emplacements de type point d'intérêt et/ou adresse, configurez les champs d'entrée Nom_filtre_recherche ou Type_filtre_recherche. Ce paramétrage limite les correspondances de sortie aux critères de recherche.
● Pour renvoyer une adresse uniquement, saisissez ADDR dans le champ d'entrée Type_filtre_recherche.
● Pour renvoyer un point d'intérêt uniquement, saisissez son nom ou son type.
● Si vous ne définissez aucun filtre de recherche, la transformation renvoie à la fois les adresses et les points d'intérêt.
17.3.2.1 Mappage du champ Géocodage inversé
Les tableaux suivants spécifient les champs d'entrée et de sortie requis, facultatifs ou ceux qui ne peuvent pas
être mappés en mode Géocodage inversé. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
Mappage du champ d'entrée
Table 166 :
Catégorie du champ d'entrée
Adresse
Adresse POI
Entrée d'adresse
Sortie simple
Entrée d'adresse
Sortie multiple
Entrée de latitude/ longitude
Sortie simple
Au moins un champ est requis
Au moins un champ est requis n/a
Facultatif Facultatif n/a
Entrée de latitude/ longitude
Sortie multiple n/a n/a
406
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Catégorie du champ d'entrée
Latitude/Longitude
Enregistrements max
Filtre de recherche
Entrée d'adresse
Sortie simple
Entrée d'adresse
Sortie multiple
Entrée de latitude/ longitude
Sortie simple
Entrée de latitude/ longitude
Sortie multiple n/a n/a
Au moins un champ est requis n/a
Au moins un champ est requis
Au moins un champ est requis
Au moins un champ est requis
Au moins un champ est requis n/a
Facultatif
Au moins un champ est requis
Facultatif
Mappage du champ de sortie
Table 167 :
Catégorie du champ de sortie
Entrée d'adresse
Sortie simple
Adresse
Adresse POI
Niveau d'affectation
Recensement
Distance
Code d'info
Latitude/Longitude
Population
Résultats
Côté de la rue
Facultatif
Facultatif
Facultatif
Facultatif
Facultatif
Facultatif
Facultatif
Facultatif n/a
Facultatif
Entrée d'adresse
Sortie multiple n/a n/a
Facultatif n/a n/a
Facultatif
Facultatif n/a
Facultatif
Facultatif
Entrée de latitude/ longitude
Sortie simple
Facultatif
Facultatif
Facultatif
Facultatif
Facultatif
Facultatif
Facultatif
Facultatif n/a
Facultatif
Entrée de latitude/ longitude
Sortie multiple n/a n/a n/a n/a n/a
Facultatif n/a n/a
Facultatif n/a
17.3.2.2 Géocodage inversé, scénario 1
Utilisez la latitude et de la longitude pour rechercher un ou plusieurs points d'intérêt ou adresses.
Exemple
L'exemple suivant illustre un scénario qui fait appel à la latitude, à la longitude et à un filtre de recherche pour générer le point d'intérêt le plus proche de la latitude et de la longitude d'entrée.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
407
Entrée :
vous mappez des champs d'entrée contenant les données suivantes :
Table 168 :
Nom du champ d'entrée
Latitude
Longitude
Nom_filtre_recherche
Valeur d'entrée
43.811616
-91.256695
BUSINESS OBJECTS
et
Champs d'entrée facultatifs [page 409]
.
Sortie :
les champs de sortie mappés contiennent les résultats suivants :
Table 169 :
Nom du champ de sortie
Ligne_adresse
Niveau_affectation
Code_pays
Distance
Localité1
Code postal
Code postal1
Code postal2
Nom_principal1
Numéro_principal
Type_principal1
Nom_POI
Type_POI
Région1
Valeur de sortie
332 FRONT ST
PRE
Etats-Unis
1.3452
LA CROSSE
54601-4023
54601
4023
FRONT
332
ST
BUSINESS OBJECTS
5800
WI
Pour en savoir plus sur les champs de sortie pour ce scénario, voir les rubriques
.
Informations associées
Compréhension de la sortie [page 419]
408
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.3.2.2.1 Champs d'entrée obligatoires
Scénario 1
Pour un résultat sur un seul enregistrement, les champs d'entrée Latitude et Longitude doivent tous deux être mappés. Pour des résultats sur plusieurs enregistrements, les champs d'entrée Latitude, Longitude et
Option_Enregistrements_Max doivent tous être mappés.
Table 170 :
Catégorie Résultats sur un seul enregistrement
Nom du champ d'entrée
Latitude/Longitude
Enregistrements max
Latitude
Longitude
Sans objet
Résultats sur plusieurs enregistre ments
Nom du champ d'entrée
Latitude
Longitude
Option_enregistrements_max
17.3.2.2.2 Champs d'entrée facultatifs
Scénario 1
Table 171 :
Catégorie
Filtre de recherche
Résultats sur un seul enregistrement
Nom du champ d'entrée
Option Rayon
Nom_filtre_recherche
Type_filtre_recherche
Résultats sur plusieurs enregistre ments
Nom du champ d'entrée
Option_rayon
Nom_filtre_recherche
Type_filtre_recherche
17.3.2.2.3 Champs de sortie disponibles
Scénario 1
Tous les champs de sortie sont facultatifs
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
409
Table 172 :
Catégorie
Adresse
Adresse POI
Niveau d'affectation
Recensement
Distance
Code d'info
Résultats sur un seul enregistrement
Nom du champ de sortie
Résultats sur plusieurs enregistre ments
Nom du champ de sortie
Sans objet Ligne_Adresse
Code_pays
Localité1-4
Code postal
Code_postal1-2
Nom_principal1-4
Numéro_Principal
Suffixe_principal1
Préfixe_principal1
Plage_principale_élevée
Plage_principale_faible
Type_principal1-4
Région1-2
Nom_POI
Type_POI
Sans objet
Sans objet
Niveau_affectation
Niveau_affectation_localité
Niveau_affectation_code_postal
Sans objet
Ilot_secteur_recensement
Groupe_îlot_secteur_recensement
Code_comté_gouv
Code_localité1_gouv
Code_région1_gouv
Code_zone_stat_metro
Code_division_secondaire
Code_zone_stat
Distance
Code_info
Sans objet
Code_info
410
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Catégorie
Latitude/Longitude
Population
Résultats
Côté de la rue
Résultats sur un seul enregistrement
Nom du champ de sortie
Résultats sur plusieurs enregistre ments
Nom du champ de sortie
Sans objet Latitude
Latitude_localité
Latitude_code_postal
Latitude_numéro_principal
Longitude
Longitude_localité
Longitude_code_postal
Longitude_numéro_principal
Localité_classe_population1
Sans objet
Côté_adresse_principale
Sans objet
Liste_résultats
Nombre_liste_résultats
Sans objet
17.3.2.3 Géocodage inversé, scénario 2
Utilisez un point d'intérêt ou une adresse afin de rechercher un ou plusieurs points d'intérêt ou adresses les plus proches.
Par ailleurs, la transformation Geocoder génère les informations de latitude et longitude pour le point de référence d'entrée et les résultats de sortie correspondants.
Exemple
L'exemple suivant illustre un scénario qui fait appel à une adresse et à un filtre de recherche pour générer le point d'intérêt le plus proche de l'adresse d'entrée. La requête se trouve dans la banque (POI de type 6 000) la plus proche de l'emplacement d'entrée. La transformation génère également les informations de latitude et longitude pour le résultat de sortie.
Entrée :
vous mappez des champs d'entrée contenant les données suivantes :
Table 173 :
Nom du champ d'entrée
Pays
Code postal1
Code postal2
Nom_Principal1
Numéro_Principal
Valeur d'entrée
Etats-Unis
55601
4023
Devant
332
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
411
Nom du champ d'entrée
Type_Principal1
Nom_POI
Type_filtre_recherche
Valeur d'entrée
Rue
BUSINESS OBJECTS
6000
et
Champs d'entrée facultatifs [page 413] .
Sortie :
les champs de sortie mappés contiennent les résultats suivants :
Table 174 :
Nom du champ de sortie
Ligne_Adresse
Niveau_affectation
Code_pays
Distance
Localité1
Nom_POI
Type_POI
Code postal1
Nom_Principal1
Numéro_Principal
Type_Principal1
Région1
Valeur de sortie
201 MAIN ST
PRE
Etats-Unis
0.4180
LA CROSSE
US BANK
6000
54601
MAIN
201
ST
WI
Pour en savoir plus sur les champs de sortie pour ce scénario, voir les rubriques
.
17.3.2.3.1 Champs d'entrée obligatoires
Scénario 2
Pour les champs d'entrée obligatoires, au moins un champ d'entrée dans chaque catégorie doit être mappé.
412
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 175 :
Catégorie
Adresse
Enregistrements max
Filtre de recherche
Résultats sur un seul enregistrement
Nom du champ d'entrée
Ligne_Adresse
Pays
Localité1-4
Code postal
Code_postal1-2
Nom_principal1-4
Numéro_Principal
Suffixe_principal1
Préfixe_principal1
Plage_principale_élevée
Plage_principale_faible
Type_principal1-4
Région1-2
Sans objet
Option_rayon
Nom_filtre_recherche
Type_filtre_recherche
Résultats sur plusieurs enregistre ments
Nom du champ d'entrée
Latitude
Longitude
Option_enregistrements_max
Option_rayon
Nom_filtre_recherche
Type_filtre_recherche
17.3.2.3.2 Champs d'entrée facultatifs
Scénario 2
Table 176 :
Catégorie
Adresse POI
Résultats sur un seul enregistrement
Nom du champ d'entrée
Nom_POI
Type_POI
Résultats sur plusieurs enregistre ments
Nom du champ d'entrée
Nom_POI
Type_POI
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
413
17.3.2.3.3 Champs de sortie disponibles
Scénario 2
Tous les champs de sortie sont facultatifs
Pour un résultat sur un seul enregistrement, les champs de sortie sont les résultats de la recherche spatiale.
Pour des résultats sur plusieurs enregistrements, les champs de sortie dans les catégories Niveau d'affectation et
Latitude/Longitude sont les résultats de l'affectation d'adresse de référence. Les champs de sortie dans la catégorie Résultats sont les résultats du géocodage inversé.
Table 177 :
Catégorie
Adresse
Résultats sur un seul enregistrement
Nom du champ de sortie
Résultats sur plusieurs enregistre ments
Nom du champ de sortie
Sans objet
Adresse POI
Niveau d'affectation
Ligne_Adresse
Code_pays
Localité1-4
Code postal
Code_postal1-2
Nom_principal1-4
Numéro_Principal
Suffixe_principal1
Préfixe_principal1
Plage_principale_élevée
Plage_principale_faible
Type_principal1-4
Région1-2
Nom_POI
Type_POI
Niveau_affectation
Niveau_affectation_localité
Niveau_affectation_code_postal
Sans objet
Niveau_affectation
Niveau_affectation_localité
Niveau_affectation_code_postal
414
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Catégorie
Recensement
Distance
Code d'info
Latitude/Longitude
Population
Résultats
Côté de la rue
Résultats sur un seul enregistrement
Nom du champ de sortie
Résultats sur plusieurs enregistre ments
Nom du champ de sortie
Sans objet Ilot_secteur_recensement
Groupe_îlot_secteur_recensement
Code_comté_gouv
Code_localité1_gouv
Code_région1_gouv
Code_zone_stat_metro
Code_division_secondaire
Code_zone_stat
Distance
Code_info
Latitude
Latitude_localité
Latitude_code_postal
Latitude_numéro_principal
Longitude
Longitude_localité
Longitude_code_postal
Longitude_numéro_principal
Localité_classe_population1
Sans objet
Côté_adresse_principale
Sans objet
Code_info
Latitude
Latitude_localité
Latitude_code_postal
Latitude_numéro_principal
Longitude
Longitude_localité
Longitude_code_postal
Longitude_numéro_principal
Sans objet
Liste_résultats
Nombre_liste_résultats
Côté_adresse_principale
17.3.3 Recherche textuelle de POI
En mode Recherche textuelle de POI, la transformation Geocoder utilise des champs d'adresse et un nom de POI ou des champs de type sous forme de critères de recherche pour une mise en correspondance avec des points de référence. Les résultats sont affichés dans le champ de sortie XML Liste_Résultats.
Le nombre d'enregistrements est déterminé par le champ d'entrée Option_enregistrements_max s'il est mappé et renseigné, ou par l'option Enregistrements max.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
415
17.3.3.1 Mappage du champ de recherche textuelle de POI
Les tableaux suivants spécifient les champs d'entrée et de sortie requis, facultatifs ou ceux qui ne peuvent pas
être mappés en mode Recherche textuelle de POI. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
Mappage du champ d'entrée
En mode Recherche textuelle de POI, au moins un champ d'entrée de la catégorie de POI d'adresse doit être mappé, ce qui représente la différence majeure entre les modes Recherche textuelle de POI et Géocodage d'adresse.
Table 178 :
Catégorie du champ d'entrée
Adresse
Adresse POI
Latitude/Longitude
Enregistrements max
Filtre de recherche
Mode Géocodage d'adresse
Au moins un champ est requis
Au moins un champ est requis n/a
Au moins un champ est requis n/a
Mappage du champ de sortie
Table 179 :
Catégorie du champ de sortie
Adresse
Adresse POI
Niveau d'affectation
Recensement
Distance
Code d'info
Latitude/Longitude
Population
Résultats
Côté de la rue
Mode Géocodage d'adresse n/a n/a n/a n/a n/a
Facultatif n/a n/a
Facultatif n/a
416
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.3.3.2 Scénario de recherche textuelle de POI
Scénario :
utilisez des informations d'adresse et de point d'intérêt pour identifier une liste des correspondances de points d'intérêt potentielles.
Nombre de résultats de sortie :
plusieurs enregistrements. Le nombre d'enregistrements est déterminé par le champ d'entrée Option_Enregistrements_Max (si rempli), ou l'option Enregistrements max.
Les sections suivantes décrivent les champs d'entrée requis, et les champs de sortie disponibles pour obtenir des résultats pour ce scénario. Nous fournissons également un exemple avec un exemple de données.
Champs d'entrée obligatoires
Pour les champs d'entrée obligatoires, un champ d'entrée au moins doit être mappé dans chaque catégorie. Le champ Pays doit être mappé. Plus vous pouvez fournir des données d'entrée, meilleurs sont les résultats que vous obtenez.
Table 180 :
Catégorie
Adresse
Adresse POI
Enregistrements max
Nom du champ d'entrée
Pays (requis)
Localité1-4
Code_postal1-2
Nom_principal1-4
Numéro_principal
Suffixe_principal1
Préfixe_principal1
Type_principal1-4
Région1-2
Nom_POI
Type_POI
Option_enregistrements_max
Champs d'entrée facultatifs
Non applicable
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
417
Champs de sortie disponibles
Tous les champs de sortie sont facultatifs
Table 181 :
Catégorie
Code d'info
Résultats
Nom du champ de sortie
Code_info
Liste_résultats
Nombre_liste_résultats
Exemple
L'exemple suivant illustre un scénario utilisant la recherche textuelle de POI pour identifier des correspondances de point de référence potentielles (tous les enregistrements "Business Objects" dans Front Street).
Entrée :
vous mappez des champs d'entrée contenant les données suivantes :
Table 182 :
Nom du champ d'entrée
Pays
Code postal1
Code postal2
Nom_principal1
Type_principal1
Nom_POI
Enregistrements_max_facultatifs
Valeur d'entrée
Etats-Unis
54601
4023
Devant
Rue
BUSINESS OBJECTS
10
Sortie :
les champs de sortie mappés contiennent les résultats suivants avec un enregistrement :
Table 183 :
Nom du champ de sortie
Liste_résultats
Nombre_liste_résultats
Valeur de sortie
Sortie comme XML, exemple ci-dessous
1
Liste_Résultats XML :
le résultat XML pour cet exemple a un seul enregistrement.
<RESULT_LIST>
<RECORD>
<ADDRESS_LINE>332 FRONT ST</ADDRESS_LINE>
<ASSIGNMENT_LEVEL>PRE</ASSIGNMENT_LEVEL>
<COUNTRY_CODE>US</COUNTRY_CODE>
<DISTANCE>0.3340</DISTANCE>
<LATITUDE>43.811616</LATITUDE>
<LOCALITY1>LA CROSSE</LOCALITY1>
<LONGITUDE>-91.256695</LONGITUDE>
<POI_NAME>BUSINESS OBJECTS</POI_NAME>
418
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
<POI_TYPE>5800</POI_TYPE>
<POSTCODE>56001-4023</POSTCODE>
<POSTCODE1>56001</POSTCODE1>
<POSTCODE2>4023</POSTCODE2>
<PRIMARY_NAME1>FRONT</PRIMARY_NAME1>
<PRIMARY_NUMBER>332</PRIMARY_NUMBER>
<PRIMARY_TYPE1>ST</PRIMARY_TYPE1>
<RANKING>1</RANKING>
<REGION1>WI</REGION1>
</RECORD>
</RESULT_LIST>
17.3.4 Compréhension de la sortie
Latitude et longitude
La transformation Geocoder génère des données de latitude et longitude. Au niveau de la sortie, la latitude et la longitude sont signalées par des degrés décimaux, par exemple 12.12345. Pour la latitude (0-90 degrés au nord ou au sud de l'équateur), un signe moins est affiché devant la valeur de sortie lorsque l'emplacement est au sud de l'équateur. Pour la longitude (0 à 180 degrés à l'est ou à l'ouest du méridien de Greenwich à Londres), un signe moins est affiché devant la valeur de sortie lorsque le lieu se situe à 180 degrés à l'ouest de Greenwich.
Niveau d'affectation
Pour comprendre la précision de l'affectation, il vous suffit de vous reporter au champ de sortie
Niveau_Affectation. Le code de retour PRE indique que vous bénéficiez de la profondeur d'affectation la plus fine par rapport au lieu exact. La deuxième profondeur d'affectation la plus fine est le code de retour PRI, qui correspond à la plage d'adresses principale ou au numéro de rue. Le niveau de sortie le plus général peut être P1
(niveau Code postal) ou L1 (niveau Localité) selon la valeur que vous avez choisie pour l'option Meilleur niveau d'affectation.
Résultats multiples
Pour les résultats sur plusieurs enregistrements, le champ de sortie Liste_Résultats est généré au format XML, qui peut contenir la sortie suivante en fonction des données disponibles.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
419
Table 184 :
Catégorie
Adresse
Adresse POI
Niveau d'affectation
Distance
Latitude/Longitude
Classement
Nom du champ de sortie
Ligne_Adresse
Code_pays
Localité1-4
Code postal
Code_postal1-2
Nom_principal1-4
Numéro_Principal
Suffixe_principal1
Préfixe_principal1
Plage_principale_élevée
Plage_principale_faible
Type_principal1-4
Région1-2
Nom_POI
Type_POI
Niveau_Affectation
Distance
Latitude
Longitude
Classement
Standardisation des données d'adresse
Les données de géocodage proposées par les fournisseurs ne sont pas standardisées. Pour standardiser les données d'adresse générées par la transformation Geocoder, vous pouvez insérer une transformation Global
Address Cleanse ou USA Regulatory Address Cleanse dans le flux de données, à la suite de la transformation
Geocoder. Si vous avez paramétré la transformation Geocoder de sorte qu'elle génère plusieurs enregistrements, les données d'adresse présentes dans la chaîne de sortie XML doivent être désimbriquées pour pouvoir être nettoyées.
17.3.5 Utilisation d'autres transformations
En règle générale, la transformation Geocoder est combinée à la transformation Global Address Cleanse ou USA
Regulatory Address Cleanse
420
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Transformation Global Address Cleanse
Pour que la transformation Geocoder puisse fournir les informations les plus précises possible, assurez-vous que les champs de sortie de la transformation Global Address Cleanse sont bien mappés aux champs d'entrée de la transformation Geocoder comme suit :
Table 185 :
Global Address Cleanse (Sortie)
Code_ISO_pays_2Car
Code postal1
Code postal2
Nom_principal1
Numéro_principal
Suffixe_principal1
Préfixe_principal1
Type_principal1
Symbole_région1
Geocoder (champ d'entrée)
Pays
Code postal1
Code postal2
Nom_principal1
Numéro_principal
Suffixe_principal1
Préfixe_principal1
Type_principal1
Localité1
Il est également recommandé de définir les options de standardisation de la transformation Global Address
Cleanse comme suit :
Table 186 :
Global Address Cleanse (option de standardisation)
Affecter localité
Style de direction
Style de type principal
Valeur
Convert
Short
Short
Conseil
Adresse postale/Adresse administrative
: La transformation Global Address Cleanse utilise les adresses postales, tandis que les fournisseurs de la transformation Geocoder, NAVTEQ et TOMTOM, utilisent des adresses administratives. Malgré l'ajustement postal réalisé dans l'adresse postale, des écarts subsistent. Par exemple, pour une adresse canadienne, la localité associée à la transformation Global Address Cleanse peut
être TORONTO, mais le répertoire Geocoder stocke NORTH YORK. Dans ce cas, lorsque le champ Localité1 est mappé au niveau de l'entrée, une erreur de type Adresse introuvable survient. Pour contourner ce problème, il est possible de supprimer le mappage du champ d'entrée Localité1 pour obtenir une meilleure affectation de géocodage.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
421
17.4 Match
17.4.1 Correspondance et consolidation à l'aide de Data
Services et Information Steward
Lorsqu'une vérification manuelle est nécessaire, utilisez SAP Data Services pour implémenter automatiquement le processus global de correspondance et de consolidation. Ce processus organise les groupes de correspondance pour la vérification manuelle dans SAP Information Steward.
Pour implémenter ce processus, tenez compte des facteurs suivants :
● Organisez-vous uniquement les groupes de correspondance suspects (groupes qui ne répondent pas au score ni au seuil de correspondance que vous définissez) pour une vérification manuelle ? Ou est-ce que vous organisez tous les résultats de correspondance, y compris les enregistrements uniques pour la vérification de correspondance, puis laissez les administrateurs de données déplacer manuellement les enregistrements suspects et les enregistrements uniques vers le groupe auquel ils appartiennent ? Notez que le groupe cible dans ce cas doit être un groupe suspect ou un groupe «de fiabilité élevée».
● Voulez-vous autoriser la création des meilleurs enregistrements dans Information Steward ? Ou voulez-vous que la vérification manuelle de Information Steward modifie uniquement les groupes de correspondance suspects si nécessaire et que Data Services traite la création des meilleurs enregistrements une fois la vérification manuelle terminée ?
● Si vous souhaitez activer la création des meilleurs enregistrements dans Information Steward, à quel moment procédez-vous à la création des meilleurs enregistrements pour les groupes de correspondance de fiabilité
élevée ?
○ La création manuelle de meilleurs enregistrements pour tous les groupes de correspondance dans un vaste ensemble de données peut ne pas être pratique.
○ D'autre part, si vous avez déjà consolidé les groupes de correspondance de fiabilité élevée dans Data
Services, et que vous avez déjà modifié le groupe de correspondance d'origine pour inclure les valeurs des meilleurs enregistrements, vous ne pouvez alors pas organiser ces groupes de correspondance modifiés pour la vérification manuelle dans Information Steward.
Tenez compte des approches suivantes pour la vérification manuelle :
● Engagez des administrateurs de données et des experts de domaines dans la vérification manuelle des groupes de correspondance suspects uniquement. Vous pouvez modifier les groupes de correspondance suspects si nécessaire et créer le meilleur enregistrement pour ces groupes de correspondance.
1. Le job Data Services effectue des correspondances automatiques, identifie les groupes de correspondance et renseigne uniquement les groupes de correspondance suspects dans une base de données intermédiaire. Dans ce scénario, les «groupes de correspondance de fiabilité élevée» doivent
être séparés des «groupes de correspondance suspects». Le meilleur enregistrement peut être créé pour les «groupes de correspondance de fiabilité élevée» et ces groupes de correspondance peuvent être consolidés dans Data Services.
Ce processus peut être effectué en routant les «groupes de correspondance de fiabilité élevée» vers une autre transformation Match configurée pour créer les meilleurs enregistrements en dehors des groupes d'enregistrements de correspondance déjà existants.
2. Les administrateurs de données et les experts de domaines vérifient les «groupes de correspondance suspects» dans Information Steward et effectuent les corrections si nécessaire (par exemple, ne pas mettre en correspondance un enregistrement ou déplacer un enregistrement). Ils peuvent créer manuellement le meilleur enregistrement pour ces groupes de correspondance.
422
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Engagez des administrateurs de données et des experts de domaines dans la vérification et la correction manuelles de tous les groupes de correspondance, mais conservez la création des meilleurs enregistrements et la logique de consolidation dans Data Services.
1. Le job Data Services effectue les correspondances automatiques et renseigne tous les résultats de correspondance dans la base de données intermédiaire. Une table de résultats de correspondance dans la base de données intermédiaire contient des groupes de correspondance suspects, des groupes de correspondance «de fiabilité élevée» et des enregistrements uniques.
2. Les administrateurs de données et les experts de domaines vérifient les groupes de correspondance suspects dans Information Steward et effectuent les corrections si nécessaire. Ils peuvent déplacer les enregistrements entre les groupes de correspondance suspects et les groupes de correspondance de
«fiabilité élevée» ou inclure un enregistrement unique dans le groupe de correspondance approprié.
3. Une fois la vérification des correspondances effectuée, tous les groupes de correspondance sont traités dans un autre job Data Services qui crée le meilleur enregistrement et consolide tous les groupes de correspondance.
Ce processus peut être effectué par une transformation Match configurée pour créer les meilleurs enregistrements en dehors des groupes d'enregistrements de correspondance déjà existants.
Remarque
Vous trouverez des exemples de création de meilleurs enregistrements à l'aide de Information Steward ou de
Data Services en téléchargeant les modèles Data Quality Management Match. Vous trouverez de plus amples informations sur les modèles à l'adresse http://scn.sap.com/docs/DOC-8820 .
17.4.2 Stratégies de correspondance
Voici quelques exemples de stratégies qui vous aideront à déterminer comment aborder la configuration de votre flux de données pour la correspondance.
Table 187 :
SAP Strategy Management
Correspondance simple
Membres de la famille
Membres de l'organisation
Correspondance de consom mateur multinational
Identifier une personne de dif férentes manières
Description
Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur un critère de correspondance simple pour identifier des relations dans des données consom mateur, métier ou produit.
Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs niveaux de relations consommateur tels que correspondances d'adresses, corres pondances familiales et correspondances individuelles.
Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs niveaux de relations professionnelles tels que correspondances d'entreprises, cor respondances de filiales et correspondances de contacts.
Utilisez cette stratégie de correspondance si vos données incluent plusieurs pays et que vos règles de gestion en matière de correspondance diffèrent selon les pays.
Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs critères de correspondance pour identifier des relations et que vous souhaitez dé terminer le point de chevauchement de toutes ces définitions.
Avant de sélectionner une stratégie de correspondance, répondez aux questions suivantes :
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
423
● Que contiennent vos données ? (données client, données internationales, etc.)
● Quels champs souhaitez-vous comparer ? (nom de famille, société, etc.)
● Quels sont les avantages et les inconvénients des données dans ces champs ?
Conseil
Vous obtiendrez de meilleurs résultats en nettoyant vos données avant la mise en correspondance. Le profilage des données peut aussi vous aider à répondre à cette question.
● Quel résultat final souhaitez-vous obtenir à la fin du job de correspondance ? (un enregistrement par famille, par société, etc.)
Informations associées
Correspondance par association [page 500]
17.4.3 Composants de la correspondance
Les composants de base de la correspondance sont les suivants :
● Sets de correspondance
● Niveaux de correspondance
● Critères de correspondance
Sets de correspondance
Un set de correspondance est représenté par une transformation Match dans votre espace de travail. Chaque set de correspondance peut être doté de ses propres groupes de décomposition, critères de correspondance et hiérarchisation.
Un set de correspondance a trois objectifs :
● Autoriser uniquement la comparaison de certaines données dans un ensemble de critères de correspondance
(par exemple, exclure les NSS vides, les adresses internationales, etc.).
● Autoriser l'empilement des scénarios de correspondance liés pour créer un set de correspondance multiniveaux.
● Autoriser la prise en compte de plusieurs sets de correspondance pour les associer dans un set de correspondance Associate.
424
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Niveaux de correspondance
Un niveau de correspondance indique le type de correspondance qui sera effectué, par exemple sur l'individu, la famille, la résidence, la société, etc. Un niveau de correspondance ne fait pas référence à un critère spécifique, mais à la catégorie globale de correspondance.
Vous pouvez utiliser autant de niveaux de correspondance que nécessaire. Toutefois, l'assistant Match vous limite à trois niveaux pendant la configuration (vous pouvez en ajouter par la suite). Vous pouvez définir les niveaux de correspondance d'un set de correspondance avec des limites de plus en plus strictes. La correspondance multiniveaux alimente uniquement les enregistrements qui correspondent de niveau de correspondance en niveau de correspondance (par exemple, résident, famille, individu) à des fins de comparaison.
Table 188 :
Composant de corres pondance
Description
Nom de famille
Individu
Résident
Société
Société - Individu
L'objectif du type de correspondance Famille est de déterminer si deux personnes doivent être considérées comme membres de la même famille, comme indiqué dans leurs données d'enregis trement. La transformation Match compare les données de nom de famille et d'adresse. Une cor respondance signifie que les deux enregistrements représentent des membres d'une même fa mille. Le résultat de la correspondance est un enregistrement par famille.
L'objectif du type de correspondance Individu est de déterminer si deux enregistrements repré sentent la même personne, comme indiqué dans les données d'enregistrement. La transforma tion Match compare les données de prénom, de nom de famille et d'adresse. Une correspondance signifie que les deux enregistrements représentent la même personne. Le résultat de la corres pondance est un enregistrement par individu.
L'objectif du type de correspondance Résident est de déterminer si deux enregistrements doivent
être considérés comme membres de la même résidence, comme indiqué dans les données d'en registrement. La transformation Match compare les données d'adresse. Une correspondance si gnifie que les deux enregistrements représentent des membres d'une même résidence. Compa rez ce type de correspondance avec le type de correspondance Famille, qui compare aussi les données de nom de famille. Le résultat de la correspondance est un enregistrement par rési dence.
L'objectif du type de correspondance Société est de déterminer si deux enregistrements repré sentent la même société. Ce type de correspondance implique de comparer les données de so ciété et d'adresse. Une correspondance signifie que les deux enregistrements représentent la même société. Le résultat de la correspondance est un enregistrement par société.
L'objectif du type de correspondance Société - Individu est de déterminer si deux enregistre ments représentent la même personne dans la même société, comme indiqué dans les données d'enregistrement. Ce type de correspondance implique de comparer les données de prénom, nom de famille, nom de société et adresse. Une correspondance signifie que les deux enregistre ments représentent la même personne dans la même société. Le résultat de la correspondance est un enregistrement par individu et par société.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
425
Critères de correspondance
Les critères de correspondance font référence au champ que vous voulez faire correspondre. Vous pouvez utiliser des options de critères pour spécifier des règles de gestion pour la correspondance sur chacun de ces champs.
Ces règles vous permettent de définir à quel niveau d'exactitude les données doivent répondre pour être considérées comme des correspondances.
Vous pouvez, par exemple, définir un niveau de similarité d'au moins 85 % pour les prénoms, mais autoriser aussi l'initiale d'un prénom à correspondre à un prénom complet et autoriser un prénom à correspondre à un deuxième prénom.
● Les critères de correspondance au niveau de la famille peuvent inclure le nom de famille et l'adresse ou le nom de famille et le numéro de téléphone.
● Les critères de correspondance au niveau de l'individu peuvent inclure le nom complet et l'adresse, le nom complet et le NSS ou le nom complet et l'adresse électronique.
● Les critères de correspondance au niveau de la société peuvent inclure le nom de la société et l'adresse, le nom de la société et le code NACE ou le nom de la société et le numéro DUNS (Data Universal Numbering
System).
17.4.4 Assistant Match
17.4.4.1 Assistant de correspondance
L'Assistant Match peut rapidement configurer les flux de données de correspondance sans que vous ayez à créer manuellement chaque transformation individuelle nécessaire pour terminer la tâche.
Opérations prises en charge par l'Assistant de correspondance
L'Assistant Match :
● Génère toutes les transformations requises pour exécuter la stratégie de correspondance choisie.
● Applique des valeurs par défaut à vos critères de correspondance selon la stratégie choisie.
● Place les transformations générées dans l'espace de travail, connectées à la plateforme choisie en amont.
● Détecte les champs appropriés en amont et les mappe automatiquement.
Opérations non prises en charge par l'Assistant de correspondance
L'Assistant Match vous fournit une configuration de correspondance de base, qui requiert parfois une personnalisation en fonction de vos règles de gestion.
L'Assistant Match :
426
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Ne modifie pas les données traitées. Pour corriger des entrées non standard ou des données manquantes, placez l'une des transformations de nettoyage des adresses et une transformation Data Cleanse en amont du processus de correspondance.
● Ne connecte pas les transformations Match générées à une transformation en aval, comme un chargeur.
C'est à vous de connecter ces transformations.
● Ne permet pas de définir des valeurs basées sur des règles ou des valeurs de scoring pondéré à des fins de correspondance. L'Assistant Match intègre des "meilleures pratiques" qui définissent ces valeurs à votre place. Vous pouvez modifier les valeurs d'options en fonction de vos règles de gestion.
Informations associées
Méthode de combinaison [page 469]
17.4.4.2 Avant de commencer
Préparer un flux de données pour l'Assistant Correspondance
Pour optimiser la performance de l'Assistant Match, veillez à inclure les éléments suivants avant de le lancer :
● Incluez un lecteur dans votre flux de données. Imaginons que vous vouliez faire correspondre un champ d'entrée spécifique que nos transformations de nettoyage des données ne prennent pas en charge.
● Incluez l'une des transformations de nettoyage des adresses et la transformation Data Cleanse. L'Assistant
Match est optimisé si les données que vous faites correspondre ont déjà été nettoyées et analysées dans des champs discrets en amont dans le flux de données.
● Pour faire correspondre des champs d'adresses, veillez à les faire passer par la transformation Data Cleanse.
Sinon, ils ne seront pas disponibles pour la transformation Match (et l'Assistant Match). Cette règle s'applique aussi si la transformation Data Cleanse est placée avant une transformation de nettoyage des adresses.
17.4.4.3 Utilisation de l'assistant de correspondance
17.4.4.3.1 Sélection de la stratégie de correspondance
L'Assistant Match commence par vous inviter à sélectionner une stratégie de correspondance en fonction de vos exigences de règles de gestion. Le chemin à suivre dans l'Assistant Match dépend de la stratégie sélectionnée.
Utilisez ces descriptions pour décider de la meilleure stratégie à adopter :
● Correspondance simple. Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur un critère de correspondance simple pour identifier des relations dans des données consommateur, métier ou produit.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
427
● Membres de la famille. Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs niveaux de relations consommateur tels que correspondances d'adresses, correspondances familiales et correspondances individuelles.
● Membres de l'organisation. Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs niveaux de relations professionnelles tels que correspondances d'entreprises, correspondances de filiales et correspondances de contacts.
● Correspondance de consommateur multinational. Utilisez cette stratégie de correspondance si vos données incluent plusieurs pays et que vos règles de gestion en matière de correspondance diffèrent selon les pays.
Remarque
La stratégie Correspondance de consommateur multinational configure un flux de données pour des données Latin1. Pour utiliser la correspondance Unicode, vous devez modifier votre flux de données après sa création.
● Identifier une personne de différentes manières. Utilisez cette stratégie si vos règles de gestion en matière de correspondance reposent sur plusieurs critères de correspondance pour identifier des relations et que vous voulez trouver le chevauchement entre toutes ces définitions.
Statistiques source
Si vous voulez générer des statistiques source pour vos rapports, assurez-vous qu'un champ contenant la valeur source physique existe dans toutes les sources de données.
Pour générer des statistiques source pour vos rapports de correspondance, cochez la case
Générer des statistiques pour vos sources
, puis sélectionnez un champ contenant la valeur source physique.
Informations associées
Correspondance Unicode [page 501]
Correspondance par association [page 500]
17.4.4.3.2 Identification des critères de correspondance
Les critères représentent les données que vous voulez utiliser pour déterminer les correspondances. Dans cette fenêtre, vous devez définir ces critères pour chaque set de correspondance que vous utilisez.
Les sets de correspondance comparent les données pour rechercher des enregistrements similaires, indépendamment dans chaque groupe de décomposition désigné (ultérieurement dans l'Assistant de correspondance). Les enregistrements d'un groupe de décomposition ne sont pas comparés à ceux d'un autre groupe de décomposition.
428
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Pour rechercher les données correspondant à tous les champs, utilisez un set de correspondance unique avec plusieurs champs. Pour rechercher les données correspondant uniquement à une combinaison spécifique de champs, utilisez plusieurs sets de correspondance avec deux champs.
En travaillant sur des données d'étudiant ou de pigeon voyageur, un individu peut utiliser le même nom, mais avoir plusieurs adresses valides.
Sélectionnez une combinaison de champs qui indique au mieux les informations qui se chevauchent, telles que le nom de famille et le NSS.
Table 189 :
Données1 Données2 Données3 Données4
R. Carson 1239 Whistle Lane Columbus, Ohio 555-23-4333
Robert T. Carson 52 Sunbird Suites Tampa, Florida 555-23-4333
1. Entrez le nombre de manières requises pour identifier un individu. Vous obtenez alors le nombre de sets de correspondance correspondant (transformations) dans le flux de données.
2. Le nom du set de correspondance par défaut apparaît dans le champ
Nom
. Sélectionnez un set de correspondance dans la liste
Sets de correspondance
et saisissez un nom plus pertinent, si nécessaire.
3. Pour chaque set de correspondance, sélectionnez le critère à faire correspondre.
Vous affecterez ensuite des champs de transformations en amont à ces critères.
4. Sélectionnez l'option à utiliser pour la comparaison dans la colonne Comparer à l'aide de. Les options varient selon le critère choisi. Les options de comparaison sont les suivantes :
○
Similarité de champs
○
Similarité de mots
○
Différence numérique
○
Différence numérique en pourcentage
○
Proximité géographique
5. Facultatif : Si vous choisissez de faire une correspondance sur Personnalisé, saisissez un nom pour le critère personnalisé dans la colonne Nom personnalisé.
6. Facultatif : Si vous choisissez d'effectuer une correspondance sur Personnalisé, indiquez à quel point les données doivent correspondre pour que le critère en deux enregistrements soit considéré comme une correspondance. Les valeurs qui en résultent déterminent le degré de similarité attendu lors du processus de comparaison pour ce critère uniquement. Après avoir sélectionné une stratégie, vous pouvez modifier les valeurs des options de règles de comparaison en fonction de vos besoins de correspondance spécifiques.
Sélectionnez l'un des éléments suivants dans la liste de la colonne Exactitude personnalisée :
○
Correspondance exacte
: Les données de ce critère doivent être parfaitement identiques. Aucune variation n'est autorisée dans les données.
○
Correspondance élevée
: Les données de ce critère doivent comporter un niveau élevé de similarité. Un faible niveau de variation est autorisé dans les données.
○
Correspondance moyenne
: Les données de ce critère doivent comporter un niveau moyen de similarité.
Un niveau moyen de variation est autorisé dans les données.
○
Correspondance faible
: Les données de ce critère doivent comporter un niveau faible de similarité. Un niveau important de variation est autorisé dans les données.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
429
17.4.4.3.3 Définition des niveaux de correspondance
Les niveaux de correspondance permettent de définir les processus de correspondance à différents niveaux liés de manière logique. Les niveaux de correspondance font référence à la catégorie globale de correspondance et non aux règles spécifiques de correspondance. Par exemple, une correspondance pour le niveau Domicile correspondra uniquement à des éléments d'adresse, une correspondance pour le niveau Famille correspondra uniquement au nom de famille et une correspondance pour le niveau Individu correspondra uniquement au prénom.
La correspondance multiniveaux peut contenir jusqu'à trois niveaux dans un set de correspondance unique défini de façon incrémentielle. La correspondance multiniveaux alimente uniquement les enregistrements qui correspondent de niveau de correspondance en niveau de correspondance (à savoir résident, famille, individu) à des fins de comparaison.
Pour définir des niveaux de correspondance :
1. Cliquez sur la correspondance de niveau supérieur et saisissez un nom pour le niveau (ou conservez le nom par défaut). Les critères par défaut sont déjà sélectionnés. Si vous ne voulez pas les utiliser, décochez la case.
La sélection des critères par défaut est un bon point de départ pour sélectionner des critères. Vous pouvez ajouter des critères pour chaque niveau afin d'obtenir des correspondances plus précises.
2. Sélectionnez des critères complémentaires pour ce niveau.
3. Si vous voulez utiliser des critères autres que ceux proposés, cliquez sur
Personnalisé
, puis sélectionnez les critères souhaités.
4. Poursuivez jusqu'à ce que tous les niveaux requis soient renseignés.
17.4.4.3.4 Sélection de pays
Sélectionnez les pays dont les standards postaux peuvent être requis pour pouvoir comparer les données entrantes. Le panneau de gauche affiche une liste de tous les pays disponibles. Le panneau de droite affiche les pays que vous avez déjà sélectionnés.
1. Sélectionnez le nom du pays dans la liste Tous les pays.
2. Cliquez sur
Ajouter
pour le déplacer dans la liste Pays sélectionnés.
3. Répétez les étapes 1 et 2 pour chaque pays à inclure.
Vous pouvez aussi sélectionner plusieurs pays à la fois et les ajouter tous en cliquant sur le bouton
Ajouter
.
Les pays sélectionnés sont gardés en mémoire pour la prochaine session de l'Assistant Match.
17.4.4.3.5 Regroupement des pays dans des axes
Créez des axes pour regrouper les pays par combinaisons logiques selon vos règles de gestion (par exemple, Asie,
Europe, Amérique du Sud). Chaque axe crée jusqu'à six sets de correspondance (transformations Match).
1. Sélectionnez le nombre d'axes à créer. La lise des
axes
reflète le nombre d'axes sélectionné et leur affecte un numéro d'axe.
430
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
2. Pour créer chaque axe, sélectionnez un titre d'axe tel que Axe1.
3. Sélectionnez les pays à inclure dans cet axe.
4. Cliquez sur
Ajouter
pour déplacer les pays sélectionnés vers l'axe sélectionné.
Utilisez la liste COUNTRY UNKNOWN (__) pour les données dont le pays d'origine n'a pas été identifié.
Utilisez la liste COUNTRY OTHER (--) pour les données dont le pays d'origine a été identifié, mais n'existe pas dans la liste des pays sélectionnés.
5. Dans Moteurs de comparaison, sélectionnez l'un des moteurs suivants pour chaque axe :
Remarque
Toutes les transformations Match générées pour l'axe utiliseront le moteur de comparaison sélectionné.
○
LATIN1
(par défaut)
○
CHINOIS
○
JAPONAIS
○
COREEN
○
TAIWANAIS
○
AUTRE_NON_LATIN1
Le bouton
Suivant
est activé uniquement lorsque tous les axes ont une entrée et tous les pays sont affectés à un axe.
17.4.4.3.6 Sélection de champs de critères
Sélectionnez et désélectionnez des champs de critères pour chaque set de correspondance et niveau de correspondance créés dans votre flux de données. Ces sélections déterminent quels sont les champs comparés pour chaque enregistrement. Certains critères peuvent être sélectionnés par défaut en fonction des données en entrée.
S'il n'existe qu'un seul champ du type de contenu approprié, il n'est pas possible de le modifier pour ces critères dans l'Assistant Match.
Pour activer le bouton
Suivant
, vous devez sélectionner au moins un champ standard de non-correspondance.
1. Pour chaque champ de critères à inclure, sélectionnez un champ disponible dans la liste déroulante, qui contient des champs de sources en amont. Les champs disponibles sont limités aux types de contenu appropriés pour ces critères. Si aucun champ du type approprié n'est disponible, tous les champs en amont s'affichent dans le menu.
2. Facultatif : désélectionnez les champs de critères que vous ne voulez pas inclure.
17.4.4.3.7 Création de clés de décomposition
Utilisez des clés de décomposition pour créer des groupes gérables de données à comparer. Le set de correspondance compare les données des enregistrements au sein de chaque groupe de décomposition uniquement et non à travers les différents groupes. Le fait d'effectuer des sélections correctes permet de réduire le temps de traitement en évitant les comparaisons de données profondément divergentes.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
431
Les clés de décomposition sont particulièrement importantes lorsque vous traitez de gros volumes de données, car la taille des groupes de décomposition peut affecter le temps de traitement. Même si vos données ne sont pas volumineuses, les groupes de décomposition accélèrent le temps de traitement.
Créez des clés de décomposition qui regroupent des données similaires susceptibles de contenir des correspondances. N'oubliez pas que les enregistrements d'un groupe de décomposition ne seront pas comparés aux enregistrements d'un autre groupe de décomposition.
Par exemple, lorsque vous effectuez une correspondance pour rechercher des adresses en double, basez la clé de décomposition sur le code postal, la ville ou l'Etat pour créer les groupes les plus susceptibles de correspondre.
Lorsque vous effectuez une correspondance pour rechercher des individus en double, basez la clé de décomposition sur le code postal et une partie du nom, qui sont les plus susceptibles de correspondre.
Création de clés de décomposition
1. Dans la colonne "Combien de champs ?", sélectionnez le nombre de champs à inclure dans la clé de décomposition.
2. Pour chaque clé de décomposition, sélectionnez les éléments suivants :
○ le ou les champs dans la clé de décomposition
○ le point de départ de chaque champ
○ le nombre d'emplacements à lire dans chaque champ
3. Après avoir défini les clés de décomposition, procédez comme suit :
○ Cliquez sur
Terminer
. La transformation Match se termine.
○ Si vous effectuez une correspondance multinationale, cliquez sur
Suivant
pour accéder à la page Critères de correspondance.
17.4.4.4 Après la configuration
Bien que l'Assistant Match fasse une grande partie du travail, voici quelques étapes à suivre pour exécuter correctement votre job de correspondance. Vous pouvez aussi effectuer d'autres opérations pour affiner votre processus de correspondance.
Se connecter aux transformations en aval
Lorsque l'Assistant Match a terminé, il place les transformations générées dans l'espace de travail, connectées à la transformation en amont que vous avez sélectionnée pour lancer l'Assistant Match. Pour pouvoir exécuter votre job, vous devez connecter chaque port de la dernière transformation à une plateforme en aval. Pour ce faire, cliquez sur un port et faites-le glisser pour le connecter à l'objet souhaité.
Afficher et modifier la nouvelle transformation Match
Pour voir ce que contient la transformation générée par l'Assistant Match, cliquez avec le bouton droit sur la transformation et sélectionnez
Editeur de correspondance
.
432
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Afficher et modifier les transformations Associate
Pour voir ce que contient la transformation Associate générée par l'Assistant Match, cliquez avec le bouton droit sur la transformation et sélectionnez
Editeur associé
.
Correspondance multinationale
Pour la stratégie de correspondance des consommateurs multinationaux, l'assistant crée une transformation
Match pour chaque axe créé.
Attention
Si vous supprimez des axes de l'espace de travail une fois qu'ils ont été générés par l'Assistant, vous devez ouvrir la transformation Case et supprimer les règles inutiles.
Informations associées
Correspondance Unicode [page 501]
17.4.5 Transformations pour flux de données de correspondance
Les transformations Match et Associate sont les principales transformations utilisées dans la configuration d'une correspondance dans un flux de données. Ces transformations exécutent les fonctions de correspondance de base.
D'autres transformations peuvent être utilisées à des fins spécifiques pour optimiser la correspondance.
Table 190 :
Transfor mation
Case
Utilisation
Merge
Route les données vers une transformation Match spécifique (set de correspondance). Cette transformation est couramment utilisée pour envoyer des données américaines et internationales vers différentes transformations.
Vous pouvez aussi l'utiliser pour router des enregistrements vides vers une transformation Match.
Exécute les fonctions suivantes :
● Regroupe les données des transformations Match pour la correspondance Association.
● Regroupe les enregistrements correspondants et les enregistrements vides après fractionnement par une transformation Case.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
433
Transfor mation
Query
Utilisation
Crée des champs, exécute des fonctions pour préparer les données pour la correspondance, classe les données, etc.
Exemple
Lorsque vous devez ignorer des enregistrements d'un processus de correspondance spécifique (généralement dans les flux de données associatives et toutes les fois que vous voulez disposer d'enregistrements avec des données vides pour ignorer un processus de correspondance), vous devez utiliser les transformations Case,
Query et Merge.
● La transformation Case utilise deux routages : l'un envoie tous les enregistrements qui répondent aux critères vers la transformation Match et l'autre envoie tous les autres enregistrements vers le routage de correspondance ignorée.
● La transformation Query ajoute les champs générés par la transformation Match et vos données de sortie
(le schéma de sortie de la transformation Match et celui de la transformation Query doivent être identiques pour que les routes puissent être fusionnées). Le contenu des nouveaux champs de la transformation
Query peut être renseigné avec une chaîne vide.
● La transformation Merge fusionne les deux routages en un seul.
17.4.5.1 Suppression de correspondance dans la transformation Match
Imaginons que vous vouliez disposer d'une transformation qui utilise certaines des fonctionnalités d'une transformation Match dans votre flux de données, mais qui n'inclut pas les fonctionnalités de correspondance.
Par exemple, dans le cas où vous souhaitez effectuer une hiérarchisation ou une sélection de candidats dans un flux de données ou une partie d'un flux de données sans effectuer de correspondance.
1. Cliquez avec le bouton droit de la souris sur la transformation Match dans la bibliothèque d'objets, puis sélectionnez Nouveau.
2. Dans le champ
Nom du format
, saisissez un nom pertinent pour votre transformation. Il est utile d'indiquer le type de fonction que cette transformation doit exécuter.
3. Cliquez sur
OK
.
4. Glissez-déposez votre nouvelle transformation ainsi configurée dans l'espace de travail et connectez-la à votre flux de données.Match
434
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
5. Cliquez avec le bouton droit sur votre nouvelle transformation, puis sélectionnez
Editeur de correspondance
.
6. Décochez l'option
Exécuter la mise en correspondance
dans l'angle supérieur gauche de l'éditeur Match.
Vous pouvez à présent ajouter une opération disponible de votre choix à cette transformation.
17.4.6 Utilisation de l'éditeur de correspondance et de l'éditeur associé
Editeurs
Les éditeurs des transformations Match et Associate permettent de configurer les schémas d'entrée et de sortie.
Vous pouvez y accéder en cliquant deux fois sur l'icône de la transformation appropriée dans votre espace de travail.
Les éditeurs Match et Associate permettent de configurer les options de votre transformation. Vous pouvez y accéder en cliquant avec le bouton droit sur la transformation appropriée et en sélectionnant
Editeur de correspondance
(ou
Editeur associé
).
Ordre de la configuration
Conseil
L'ordre dans lequel vous configurez votre transformation Match est important !
Pour commencer, il est recommandé de mapper les champs d'entrée. Si vous ne le faites pas et que vous ajoutez une opération dans l'éditeur Match, il est possible que vous ne puissiez pas afficher un champ à utiliser pour cette opération.
Vous devez ensuite configurer vos options dans l'éditeur Match avant de mapper vos champs de sortie. Le fait d'ajouter des opérations à la transformation Match (telles que ID unique et Grouper statistiques) peut vous fournir des champs utiles générés par la transformation Match à utiliser ultérieurement dans le flux de données ou à ajouter à votre base de données.
N'oubliez pas
Vérifiez que vous avez effectué les opérations suivante :
1. Mapper les champs d'entrée.
2. Configurer les options de la transformation.
3. Mapper les champs de sortie.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
435
17.4.7 Sources physiques et logiques
Le suivi des sources de données d'entrée et d'autres sources est indispensable pour générer des rapports de correspondance informatifs.
Le suivi des sources de données d'entrée et d'autres sources (qu'elles soient basées sur une source d'entrée ou sur un élément de données) dans les lignes qui sont lues, à travers l'ensemble du flux de données est indispensable pour générer des rapports de correspondance informatifs. Selon les sources que vous suivez, vous devez créer les champs appropriés dans votre flux de données pour vous assurer que le logiciel génère les statistiques requises (si elles ne figurent pas déjà dans votre base de données). Il existe deux types de sources d'entrée, comme le décrit le tableau ci-dessous.
Table 191 :
Source d'entrée
Physique
Logique
Description
Nom de fichier ou valeur attribué(e) à la source des données d'entrée.
Groupe d'enregistrements répartis sur plusieurs sources d'en trée ou ensemble d'enregistrements issus d'une source d'en trée unique.
17.4.7.1 Source d'entrée logique
Effectuer un suivi des diverses sources de données d'entrée pour les rapports les statistiques et les tables de comparaison.
Pour compter le statistiques sources dans la transformation Match (pour le rapport Résumé des statistiques source de correspondance, par exemple), vous devez créer un champ à l'aide d'une transformation Query ou
User-Defined (si vos sources de données d'entrée n'en contiennent pas déjà un).
Ce champ effectue un suivi des différentes sources dans un lecteur à des fins de reporting et est utilisé dans l'opération Grouper statistiques de la transformation Match pour générer les statistiques source. Il est également utilisé dans les tables de comparaison pour spécifier les sources à comparer.
17.4.7.2 Source d'entrée physique
Vous effectuez le suivi de votre source de données d'entrée en attribuant à la source physique une valeur dans un champ.
Vous utilisez ensuite ce champ dans les transformations dans lesquelles les statistiques du rapport sont générées.
Pour attribuer cette valeur, ajoutez une transformation Query après la source et ajoutez une colonne avec une constante contenant le nom à affecter à la source.
436
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Remarque
Si votre source est un fichier plat, vous pouvez utiliser l'option
Inclure la colonne Nom du fichier
pour générer automatiquement une colonne contenant le nom du fichier.
17.4.7.3 Utilisation des sources
Une source est un regroupement d'enregistrements effectué sur la base de caractéristiques de données identifiables. Une source peut correspondre à tous les enregistrements d'un fichier d'entrée ou à tous les enregistrements contenant une valeur donnée dans un champ donné.
Les sources sont abstraites et arbitraires : il n'y a pas de démarcation physique entre elles. L'appartenance source peut recouper des fichiers d'entrée ou des enregistrements de base de données et établir une distinction entre des enregistrements au sein d'un fichier ou d'une base de données selon la manière dont vous définissez la source.
Si vous voulez traiter tous vos enregistrements d'entrée comme des enregistrements éligibles standard de priorité équivalente, il n'est pas nécessaire d'inclure des sources dans votre job.
En règle générale, un utilisateur de correspondances cherche à obtenir une caractéristique ou un ensemble de caractéristiques suffisamment pertinent(e) pour sélectionner le meilleur enregistrement correspondant ou déterminer les enregistrements à inclure ou exclure d'une liste de publipostage, par exemple. Les sources vous permettent d'ajouter ces caractéristiques à un enregistrement du fait de l'appartenance de l'enregistrement dans la source en question.
Avant d'aborder en détails la configuration et l'utilisation des sources, voici certaines des nombreuses raisons pour lesquelles vous pouvez être amené à inclure des sources dans votre job :
● Donner la priorité à un ensemble d'enregistrements par rapport à d'autres. Vous pouvez, par exemple, vouloir donner la priorité aux enregistrements de votre base de données personnelle ou d'une source Suppression au détriment des enregistrements d'un fichier de mise à jour.
● Identifier un ensemble d'enregistrements correspondant à des sources Suppression comme le fichier DMA.
● Configurer un ensemble d'enregistrements qui ne doivent pas être pris en compte dans le statut multi-source.
Par exemple, certains expéditeurs utilisent une source fictive d'acheteurs potentiels qui génèrent des rapports lorsqu'ils reçoivent le courrier pour leur permettre d'évaluer la réception de ce courrier. Il s'agit d'enregistrements d'un type spécial.
● Diminuer le temps de traitement en annulant la comparaison au sein d'un ensemble d'enregistrements pour lesquels vous savez qu'aucune correspondance n'existe. Dans ce cas, vous devez savoir qu'il n'existe pas d'enregistrements correspondants dans la source, mais qu'il peut exister des correspondances parmi les sources. Pour diminuer le temps de traitement, vous pouvez configurer des sources et annuler la comparaison au sein de chaque source.
● Obtenir des statistiques de rapport distinctes pour un ensemble d'enregistrements au sein d'une source ou obtenir des statistiques de rapport pour des groupes de sources.
● Protéger une source contre l'écrasement des données par une opération de meilleur enregistrement ou d'ID unique. Vous pouvez protéger les données sur la base de l'appartenance dans une source.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
437
17.4.7.4 Types de sources
Vous pouvez identifier chaque source comme appartenant à l'un des types suivants : Normal, Suppression ou
Spécial. Le logiciel peut traiter vos enregistrements différemment selon le type de source.
Table 192 :
Source
Normal
Suppression
Spécial
Description
Une source Normal est un groupe d'enregistrements considérés comme éligibles.
Une source Suppression contient des enregistrements qui excluent souvent l'utilisation d'un enregis trement. Par exemple, si vous utilisez Match pour affiner une source de courrier, une source Sup pression peut vous aider à supprimer des enregistrements du courrier. Exemples :
● Fichier de préférence de courrier DMA
● Sources carcérales de l'American Correctional Association
● Sources de personnes n'ayant pas donné leur accord ou non-répondantes
● Sources de suppression de cartes de crédit ou chèques sans provision
Une source Special est traitée comme une source Normal à une exception près. La source Special n'est pas prise en compte pour déterminer si un groupe de correspondance est de source unique ou multi-source. Une source Spécial peut contribuer à des enregistrements, mais elle n'est pas prise en compte dans la détermination d'un statut multi-source.
Par exemple, certaines sociétés utilisent une source de noms de témoins. Il s'agit de noms de per sonnes signalant la réception de courriers publicitaires, afin que l'expéditeur puisse mesurer la diffu sion du courrier. Le contenu de la source fictive n'est pas pris en compte dans le statut multi-source.
L'intérêt d'identifier le type de source est de définir cette identité pour chacun des enregistrements membres de la source. Le type de source joue un rôle important dans le contrôle de la priorité (ordre) des enregistrements dans un groupe de décomposition, dans la manière dont le logiciel traite les enregistrements correspondants (les membres des groupes de correspondance) et dans la manière dont le logiciel génère la sortie (à savoir, s'il inclut ou exclut un enregistrement dans/de sa sortie).
17.4.7.4.1 Définition manuelle de sources d'entrée
Après avoir mappé un champ d'entrée contenant les valeurs source, vous pouvez créer vos sources dans l'éditeur de correspondance.
1. Dans l'éditeur de correspondance, sélectionnez
Options de transformations
dans le volet de l'explorateur situé
à gauche, cliquez sur le bouton
Ajouter
, puis sélectionnez
Sources d'entrée
.
La nouvelle opération Sources d'entrée apparaît sous Options de transformation dans le volet de l'explorateur. Sélectionnez-la pour afficher les options Source d'entrée.
2. Dans la liste déroulante
Champ de valeur
, sélectionnez le champ contenant la valeur de la source d'entrée.
3. Dans la table
Définir sources
, créez un nom de source, saisissez une valeur source existant dans le champ
Valeur pour cette source, puis sélectionnez un type de source.
4. Sélectionnez une valeur dans l'option
Nom de source par défaut
. Ce nom sera utilisé pour tout enregistrement dont la valeur du champ source est vide.
Pensez à cliquer sur le bouton
Appliquer
pour enregistrer vos modifications avant de passer à une autre opération dans l'éditeur de correspondance.
438
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.4.7.4.2 Définition automatique de sources d'entrée
Pour éviter de définir manuellement vos sources d'entrée, vous pouvez sélectionnez l'option
Générer automatiquement des sources
dans l'opération Sources d'entrée.
1. Dans l'éditeur de correspondance, sélectionnez
Options de transformations
dans le volet de l'explorateur situé
à gauche, cliquez sur le bouton
Ajouter
, puis sélectionnez
Sources d'entrée
.
La nouvelle opération Sources d'entrée apparaît sous Options de transformation dans le volet de l'explorateur. Sélectionnez-la pour afficher les options Source d'entrée.
2. Dans la liste déroulante
Champ de valeur
, sélectionnez le champ contenant la valeur de la source d'entrée.
3. Sélectionnez une valeur dans l'option
Nom de source par défaut
. Ce nom sera utilisé pour tout enregistrement dont la valeur du champ source est vide.
4. Sélectionnez l'option
Générer automatiquement des sources
.
5. Sélectionnez une valeur dans l'option
Type par défaut
.
Le type par défaut sera affecté à toute source dont le type n'est pas encore défini dans le champ Type.
6. Sélectionnez un champ dans la liste déroulante dans l'option
Champ type
.
La génération automatique de sources crée une source pour chaque valeur unique dans le champ Valeur. Tout enregistrement dont le champ Valeur n'est pas défini se voit attribuer le nom de source par défaut.
17.4.7.5 Groupes source
La fonctionnalité de groupes source permet de gérer les sources à un niveau supérieur. Imaginons, par exemple, que vous ayez loué plusieurs fichiers auprès de deux gestionnaires. Vous définissez cinq sources à utiliser dans le classement des enregistrements. De plus, vous voulez que les statistiques de votre job soient ventilées par gestionnaire et par fichier. Pour ce faire, vous pouvez définir des groupes de sources pour chaque gestionnaire.
Les groupes source affectent principalement les rapports. Toutefois, vous pouvez aussi utiliser des groupes source pour sélectionner des enregistrements de sources multiples en fonction du nombre de groupes source dans lesquels un nom apparaît.
N'oubliez pas que vous ne pouvez pas utiliser les groupes source comme vous utilisez les sources. Par exemple, vous ne pouvez pas donner à un groupe source la priorité sur un autre.
17.4.7.5.1 Création de groupes source
Des sources d'entrée doivent être définies dans une opération Source d'entrée pour pouvoir ajouter cette opération ou définir vos groupes source.
1. Sélectionnez une transformation Match dans votre flux de données, puis sélectionnez
Outils Editeur de correspondance
.
2. Dans l'éditeur de correspondance, sélectionnez
Options de transformations
dans le volet de l'explorateur situé
à gauche, cliquez sur le bouton
Ajouter
, puis sélectionnez
Groupes source
.
La nouvelle opération Groupes source apparaît sous l'opération Sources d'entrée dans le volet de l'explorateur. Sélectionnez-la pour afficher les options Groupe source.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
439
3. Confirmez que les sources d'entrée requises se trouvent dans la colonne Sources située à droite.
4. Cliquez deux fois sur la première ligne dans la colonne Groupes source située à gauche, puis saisissez un nom pour votre premier groupe source et appuyez sur Entrée.
5. Sélectionnez une source dans la colonne Sources, puis cliquez sur le bouton
Ajouter
.
6. Sélectionnez une valeur pour l'option
Action non définie
.
Cette option spécifie l'action à exécuter si une source d'entrée n'apparaît pas dans un groupe source.
7. Si vous avez sélectionné Par défaut comme action non définie à l'étape précédente, vous devez sélectionner une valeur dans l'option
Groupe source par défaut
.
Cette option est renseignée avec les groupes source que vous avez déjà définis. Si une source d'entrée n'est pas affectée à un groupe source, elle est affectée à ce groupe source par défaut.
8. Si vous le souhaitez, sélectionnez un champ dans la liste déroulante de l'option
Champ du groupe source
contenant la valeur de vos groupes source.
17.4.8 Préparation de correspondance
17.4.8.1 Préparation des données pour la correspondance
Utiliser la table comme type de liste de contrôle pour préparer vos données par correspondance.
Table 193 :Liste de contrôle pour la préparation de données pour la correspondance
Terminé
Tâche Description
Correction et normalisation des données
Filtrage des enregistrements vides
La précision des correspondances dépend de la qualité des données utilisées dans la transforma tion Match. Pour établir une correspondance batch, il est toujours recommandé d'intégrer l'une des transformations de nettoyage d'adresse et une transformation Data Cleanse dans le flux de don nées avant de lancer la mise en correspondance.
Vous devez filtrer les enregistrements vides avant la mise en correspondance. Vous bénéficierez ainsi de meilleures performances. Utilisez une transfor mation Case pour diriger les enregistrements vers un autre chemin ou une transformation Query pour filtrer ou bloquer les enregistrements.
Suppression des mots parasites Vous pouvez exécuter une recherche et remplacer les mots non significatifs pour le processus de cor respondance. Dans le cas d'une correspondance basée sur les données société, des mots tels que
Inc., Corp., et Ltd. peuvent être supprimés. Pour cela, vous pouvez utiliser la fonction de recherche et remplacement dans la transformation Query.
440
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Terminé
Guide de Designer
Qualité des données
Tâche
Supprimer la ponctuation
Groupes de décomposition
Autres noms
Autres noms personnalisés
Description
Pour optimiser votre processus de correspon dance, mappez les champs de sortie de transfor mation Data Cleanse suivants dans votre transfor mation Match. Ces champs génèrent des données standardisées converties en majuscules, dont la ponctuation a été supprimée, etc. Pour en savoir plus, voir la section Champs de sortie Data
Cleanse.
● Nom_famille_correspondance
● Société_correspondance
● Prénom1_correspondance
● Prénom2_correspondance
● Titre_maturité_correspondance
● Personne_correspondance
● Téléphone_correspondance
● Titre_civilité_correspondance
Les groupes de décomposition organisent les enre gistrements dans des collections représentant des correspondances potentielles Match, ce qui réduit le nombre de comparaisons à effectuer par la transformation. Pour de meilleures performances, insérez une opération Groupe de décomposition dans la transformation Match.
Pour obtenir plus facilement une correspondance, vous pouvez inclure des variantes de nom ou de données société dans le processus de correspon dance. La variante de «Bill» correspond, par exem ple, à «William». Pour effectuer des comparaisons, il est possible d'utiliser les données d'origine et une ou plusieurs variantes. Selon le type de données, vous pouvez ajouter un nombre compris entre un et cinq de variantes ou autres noms à l'endroit de votre choix.
Si, par exemple, les prénoms sont comparés mais ne correspondent pas, les variantes sont compa rées. Si les variantes correspondent, les deux ré sultats ont encore une chance de concorder car les prénoms d'origine n'ont pas été considérés comme une correspondance.
Vous pouvez établir la correspondance d'après des champs de sortie Data Cleanse personnalisés et les alias associés. Mappez les champs de sortie per sonnalisés de Data Cleanse et les champs person nalisés s'afficheront dans l'onglet Champs de critè res de l'éditeur de correspondance.
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
441
Informations associées
Configuration des critères d'autre nom [page 465]
17.4.8.1.1 Champs à inclure pour la correspondance
Pour bénéficier des nombreuses fonctionnalités de la transformation Match, vous devez mapper plusieurs champs d'entrée autres que ceux que vous voulez utiliser comme critères de correspondance.
Exemple
Voici certains des champs que vous pouvez inclure : Les noms des champs sont sans importance tant que vous vous souvenez des données qu'ils contiennent.
Table 194 :
Contenu du champ
Source logique
Source physique
Contient...
Valeur qui spécifie de quelle source logique un enregistrement est issu. Ce champ est utilisé dans l'opération Grouper statistiques, dans les tables de comparaison et dans la transformation
Associate.
Valeur qui spécifie de quelle source physique un enregistrement est issu. (Par exemple, un objet source ou un groupe d'enregistrements sélectionnés par le candidat.) Ce champ est utilisé dans les options de la transformation Match, dans l'opération Sélection du candidat et dans la trans formation Associate.
Clés de décomposition Champ qui contient la valeur de clé de décomposition pour la création de groupes de décompo sition. Le fait d'inclure un champ qui contient déjà la valeur de clé de décomposition peut amélio rer la performance dans la création des groupes de décomposition, car, dans ce cas, la transfor mation Match n'a pas à analyser plusieurs champs pour créer la clé de décomposition.
Champs de critères Champs qui contiennent les données à mettre en correspondance.
Indicateurs de nombre Valeur Oui ou Non pour indiquer si une source logique doit être comptée dans une opération
Grouper statistiques.
Priorité d'enregistre ment
Appliquer une pénalité pour champ vide
Valeur ID unique de dé part
Valeur utilisée pour indiquer qu'un enregistrement a la priorité sur un autre lors du classement des enregistrements. Ce champ est utilisé dans les opérations Hiérarchisation du groupe.
Valeur Oui ou Non pour indiquer si Match doit appliquer une pénalité pour champ vide à un enre gistrement. Ce champ est utilisé dans les opérations Hiérarchisation du groupe.
Valeur ID de départ incrémentée de 1 chaque fois qu'un ID unique est affecté. Ce champ est uti lisé dans l'opération ID unique.
Il ne s'agit pas d'une liste complète. Selon les fonctionnalités que vous voulez utiliser, vous pouvez inclure d'autres champs qui seront utilisés dans la transformation Match.
442
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.4.8.2 Contrôle des comparaisons d'enregistrements
Le contrôle du nombre de comparaisons d'enregistrements dans le processus de correspondance est important pour deux raisons :
● Vitesse : En contrôlant le nombre réel de comparaisons, vous pouvez réduire le temps de traitement.
● Qualité de correspondance : En regroupant uniquement les enregistrements susceptibles de correspondre, vous êtes assuré d'obtenir de meilleurs résultats dans votre processus de correspondance.
Le contrôle du nombre de comparaisons s'effectue principalement dans la section Formation du groupe de l'éditeur de correspondance avec les opérations suivantes :
● Groupe de décomposition : décomposez vos enregistrements en petits groupes d'enregistrements plus susceptibles de correspondre.
● Sélection du candidat : sélectionnez uniquement les candidats de correspondance dans une table de base de données. Cette opération est principalement utilisée pour les jobs en temps réel.
Vous pouvez aussi utiliser des tables de comparaison pour inclure ou exclure des enregistrements pour comparaison par une source logique.
Informations associées
Groupes de décomposition [page 443]
Sélection de candidats [page 446]
Tables de comparaison [page 451]
17.4.8.2.1 Groupes de décomposition
Lorsque vous créez des groupes de décomposition, vous placez les enregistrements dans des groupes susceptibles de correspondre. Par exemple, un scénario courant consiste à créer des groupes de décomposition basés sur un code postal. Cela permet de s'assurer que les enregistrements de codes postaux différents ne seront jamais comparés, car les chances de trouver un enregistrement correspondant avec un code postal différent sont très minces.
Clés de décomposition
Vous formez des groupes de décomposition en créant une clé de décomposition, à savoir un champ composé de parties d'autres champs ou un champ unique utilisé pour regrouper les enregistrements en fonction de données similaires.
Voici un exemple de clé de décomposition type créée en combinant les cinq chiffres du champ Postcode1 et les trois premiers caractères du champ Address_Primary_Name.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
443
Table 195 :
Champ (position de départ : longueur)
Postcode1 (1:5)
Address_Primary_Name (1:3)
Données du champ
10101
Main
Clé de décomposition générée
10101Mai
Dans cet exemple, tous les enregistrements correspondant à la clé de décomposition générée sont placés dans le même groupe de décomposition et comparés.
Tri des enregistrements dans le groupe de décomposition
Les enregistrements sont triés dans le champ de la clé de décomposition.
Vous pouvez ajouter une opération Hiérarchisation du groupe après l'opération Groupes de décomposition pour indiquer les enregistrements pilotes.
N'oubliez pas
L'ordre est important ! Si vous créez des groupes de décomposition à l'aide d'enregistrements issus d'une source de type Suppression, assurez-vous que les enregistrements de suppression sont les pilotes dans le groupe de décomposition.
Structure des groupes de décomposition
Les groupes de décomposition sont constitués d'enregistrements pilotes et d'enregistrements passagers.
L'enregistrement pilote est le premier enregistrement dans le groupe de décomposition et tous les autres enregistrements sont des enregistrements passagers.
L'enregistrement pilote est celui qui pilote le processus de comparaison dans la correspondance. Le pilote est d'abord comparé à tous les passagers.
Cet exemple est basé sur une clé de décomposition qui utilise les trois premiers chiffres du code postal.
444
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Clés de décomposition phonétiques
Vous pouvez aussi utiliser les fonctions Soundex et Double Metaphone pour créer des champs contenant des codes phonétiques, qui peuvent ensuite être utilisés pour former des groupes de décomposition pour la correspondance.
Informations associées
Critères de correspondance phonétiques [page 504]
17.4.8.2.1.1 Création de groupes de décomposition
Il est recommandé de standardiser les données avant de créer les clés de décomposition. Les données peuvent
être traitées différemment, par exemple avoir une casse incohérente.
1. Ajoutez une opération Groupes de décomposition au groupe d'options
Formation du groupe
.
2. Ajoutez une ligne dans la
table de clés de décomposition
en cliquant sur le bouton Ajouter.
3. Sélectionnez un champ dans la colonne
Champ
que vous voulez utiliser comme clé de décomposition.
Le code postal est une clé de décomposition courante.
4. Sélectionnez la position de début et la longueur (nombre de caractères) à utiliser dans votre clé de décomposition.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
445
Vous pouvez utiliser des nombres entiers négatifs pour indiquer que vous voulez débuter à la fin de la longueur réelle de la chaîne et non de la longueur spécifiée du champ. Par exemple, Champ(-3,3) prend les 3 derniers caractères de la chaîne, qu'elle ait une longueur de 10 ou de 5.
5. Ajoutez des lignes et des champs, si nécessaire.
6. Classez vos lignes en sélectionnant une ligne, puis en cliquant sur les boutons
Déplacer vers le haut
et
Déplacer vers le bas
.
Le classement des lignes permet de s'assurer que les champs sont utilisés dans le bon ordre dans la clé de classification.
Votre clé de classification est créée.
17.4.8.2.2 Sélection de candidats
Pour accélérer le traitement dans un job de correspondance, utilisez l'opération Sélection du candidat (groupe d'options Formation du groupe) dans la transformation Match pour ajouter des rapports d'une base de données relationnelle à une collection de données existante avant la mise en correspondance. Lors de leur ajout, les enregistrements ne sont pas regroupés de façon logique. Ils sont simplement ajoutés à la fin de la collection de données, enregistrement par enregistrement, jusqu'à ce que la collection atteigne la taille définie.
Supposons que vous disposiez d'une nouvelle source d'enregistrements que vous voulez comparer à votre entrepôt de données dans un job batch. Vous pouvez sélectionner les enregistrements correspondant aux clés de décomposition de la nouvelle source à partir de cet entrepôt. Cette méthode contribue à limiter le nombre de comparaisons à effectuer par la transformation Match.
En voici une illustration simplifiée : supposons que votre job compare une nouvelle base de données source - un petit fichier régional - à une importante base de données nationale comprenant 15 enregistrements de 43 000 codes postaux. Supposons ensuite que vous vouliez former des groupes de décomposition en fonction du code postal seulement.
446
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 196 :
Notes Régional
Sans la sélection du candidat, la transformation Match lit tous les enregistrements des deux bases de données.
1 500
Avec la sélection du candidat, seuls les enregistrements qui se raient inclus dans un groupe de décomposition sont lus.
1 500
National
750 000
Environ 600 (40 x 15)
Total
751 500
2 100
17.4.8.2.2.1 Banques de données et sélection de candidats
Pour utiliser la sélection de candidats, vous devez vous connecter à une banque de données valide. Vous pouvez vous connecter à une banque de données basée sur SQL ou utilisant un cache persistant. Les deux présentent des avantages selon que votre source secondaire est statique (rarement mise à jour) ou dynamique (souvent mise à jour).
Banque de données utilisant un cache persistant
Similaire à toute autre banque de données permettant de charger votre ensemble de candidats. Si la source secondaire que vous utilisez pour votre sélection de candidats est statique (rarement modifiée), vous pouvez envisager de créer un cache persistant à utiliser comme table secondaire plutôt que d'utiliser votre source secondaire directement. Vous pouvez améliorer la performance.
Vous pouvez aussi l'améliorer en utilisant un fichier plat (format de recherche plus simple que SGBDR) pour votre cache persistant. Si la source secondaire n'est pas SGBDR, par exemple un fichier plat, vous ne pouvez pas l'utiliser comme "banque de données". Dans ce cas, vous pouvez créer un cache persistant à partir de cette source de fichier plat, puis l'utiliser pour la sélection de candidats.
Remarque
Un cache persistant utilisé pour la sélection de candidats doit être créé par un flux de données sur deux octets.
Pour ce faire, vous devez modifier l'option Paramètres régionaux dans le Sélecteur de paramètres régionaux
Data Services (définissez la page de code sur utf-8). Exécutez le job pour générer le cache persistant. Vous pouvez ensuite redéfinir la page de code sur sa définition initiale, si vous le souhaitez.
Taille du cache
L'amélioration des performances à l'aide du cache persistant dépend aussi de la taille des données de la source secondaire. Plus la taille des données chargées dans le cache persistant augmente, plus les performances risquent de diminuer. Notez aussi que si la table de la source secondaire initiale est correctement indexée et que sa vitesse est optimisée, la création d'un cache persistant (ou même d'un cache pré-chargé) ne présente pas forcément d'intérêt.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
447
Informations associées
Banques de données de cache persistant [page 83]
17.4.8.2.2.2 SQL généré automatiquement ou personnalisé
Dans certains cas, la transformation Match peut générer le SQL. Sinon, vous devez le créer. Cela dépend des options que vous avez définies et de la configuration de votre table secondaire (la table dans laquelle vous sélectionnez des candidats de correspondance).
Servez-vous de cette table pour déterminer si vous pouvez utiliser un SQL généré automatiquement ou si vous devez créer votre propre SQL.
Remarque
Dans les scénarios suivants, les «données d'entrée» font référence à des champs de clé de décomposition issus d'une transformation en amont de la transformation Match (une transformation Query par exemple) ou à des champs de clé de décomposition issus de l'opération Groupe de décomposition au sein de la transformation Match.
Table 197 :
Scénario Générer automatiquement ou personna liser ?
Générer automatiquement Vous disposez d'un seul champ de clé de décomposition dans vos données d'en trée et du même champ dans votre table secondaire.
Vous disposez de plusieurs champs de clé de décomposition dans vos données d'entrée et des mêmes champs dans votre table secondaire.
Générer automatiquement
Vous disposez de plusieurs champs de clé de décomposition dans vos données d'entrée et d'un seul champ de clé de décomposition dans votre table secondaire.
Générer automatiquement
Vous disposez d'un seul champ de clé de décomposition dans vos données d'en trée et de plusieurs champs de clé de décomposition dans votre table secondaire.
Personnaliser
Vous disposez de plusieurs champs de clé de décomposition dans vos données d'entrée, mais d'un format ou d'un nombre de champs différents dans votre table secondaire.
Personnaliser
Vous voulez effectuer votre sélection dans plusieurs sources d'entrée.
Personnaliser
17.4.8.2.2.3 Clés de décomposition et sélection de candidats
Il est recommandé de créer une colonne de clé de décomposition dans la table secondaire (celle qui contient les enregistrements à comparer aux données d'entrée dans le flux de données) correspondant à la clé de décomposition utilisée pour créer les groupes de décomposition dans la transformation Match. Cela simplifie la configuration de l'opération Sélection de candidats. En outre, chaque colonne doit être indexée.
448
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Il est également recommandé de créer et renseigner la base de données utilisée avec un champ de clé de décomposition unique plutôt que d'extraire des sous-chaînes de champs de base de données pour créer votre clé de décomposition. Cela peut améliorer la performance de la sélection de candidats.
Remarque
Les enregistrements extraits par la sélection de candidats sont ajoutés à la fin d'un groupe de décomposition existant (le cas échéant). Par conséquent, si vous ne reclassez pas les enregistrements à l'aide d'une opération
Hiérarchisation du groupe après l'opération Sélection de candidats, les enregistrements de la source d'origine seront toujours les enregistrements pilotes dans les groupes de décomposition. Si vous utilisez la sélection de candidats sur une source Suppression, vous devez reclasser les enregistrements pour que les enregistrements de la source Suppression soient les enregistrements pilotes.
17.4.8.2.2.4 Configuration de la sélection de candidats
Si vous utilisez la Sélection du candidat pour un job en temps réel, veillez à décocher l'option
Fractionner les enregistrements en groupes de décomposition
dans l'opération Groupe de décomposition de la transformation
Match.
Pour accélérer le temps de traitement dans un job de correspondance en temps réel, utilisez l'opération Sélection du candidat (groupe d'options Formation du groupe) dans la transformation Match pour ajouter des enregistrements d'une base de données relationnelle à une collection de données existante avant la correspondance. Lors de leur ajout, les enregistrements ne sont pas regroupés de façon logique. Ils sont simplement ajoutés à la fin de la collection de données, enregistrement par enregistrement, jusqu'à ce que la collection atteigne la taille définie.
1. Dans l'opération Sélection du candidat, sélectionnez une banque de données valide dans la liste déroulante
Banque de données
.
2. Dans la liste déroulante
Type de cache
, sélectionnez l'une des valeurs suivantes :
Option
Aucun_Cache
Description
Capture les données à un moment précis. Les données ne sont pas modifiées tant que le job n'a pas été relancé.
Cache_de_préchargement Utilisez cette option pour les données statiques.
3. Selon la manière dont vos données d'entrée et votre table secondaire sont structurées, procédez comme suit :
○ Sélectionnez
Générer automatiquement le SQL
. Sélectionnez ensuite l'option
Utiliser une colonne de décomposition à partir de la base de données
(si vous en avez une), puis sélectionnez une colonne dans la liste déroulante
Champ de clé de décomposition
.
Remarque
Si vous sélectionnez l'option
Générer automatiquement le SQL
, il est recommandé de disposer d'une colonne de clé de décomposition dans la table secondaire, puis de sélectionner l'option
Utiliser une colonne de décomposition &à partir de la base de données
. Dans le cas contraire, le SQL créé pourrait
être incorrect.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
449
○ Sélectionnez
Créer SQL personnalisé
, puis cliquez sur le bouton
Lancer l'éditeur SQL
ou saisissez votre
SQL
dans la zone d'édition SQL.
4. Pour effectuer un suivi de vos enregistrements depuis la source d'entrée, sélectionnez
Utiliser une valeur source constante
.
5. Saisissez une valeur qui représente votre source dans l'option
Valeur source physique
, puis sélectionnez un champ contenant cette valeur dans la liste déroulante
Champ source physique
.
6. Dans la table
Mappage des colonnes
, ajoutez autant de lignes que nécessaire. Chaque ligne représente un champ qui sera ajouté à la collection.
a. Sélectionnez un champ dans la colonne
Nom mappé
.
b. Sélectionnez une colonne dans votre table secondaire (ou dans une requête personnalisée) dans l'option
Nom de la colonne
, qui contienne le même type de données que celles spécifiées dans la colonne
Nom mappé
.
Si vous avez déjà défini vos clés de décomposition dans le groupe d'options Groupe de décomposition, les champs utilisés pour créer la clé de décomposition sont publiés ici, avec la colonne Groupe de décomposition définie sur OUI.
17.4.8.2.2.5 Ecriture d'un SQL personnalisé
Utilisation de caractères génériques
Pour éviter les instructions SQL compliquées, vous devez utiliser des caractères génériques (qui sont remplacés par des données d'entrée réelles) dans votre clause WHERE.
Imaginons, par exemple, que la base de données client contienne un champ appelé MatchKey et que l'enregistrement soumis au processus de nettoyage soit doté d'un champ généré appelé MATCH_KEY. Le champ possède un caractère générique [MATCHKEY]. Les enregistrements sélectionnés dans la base de données client et ajoutés à la collection de données existante sont ceux qui contiennent la même valeur dans le champ MatchKey et dans le champ MATCH_KEY de la transaction. Imaginons ici que la valeur réelle soit un numéro de téléphone à
10 chiffres.
Voici un exemple de SQL avec un numéro de téléphone réel à la place du caractère générique [MATCHKEY].
SELECT ContactGivenName1, ContactGivenName2, ContactFamilyName, Address1, Address2,
City, Region, Postcode, Country, AddrStreet, AddrStreetNumber, AddrUnitNumber
FROM TblCustomer
WHERE MatchKey =
'123-555-9876'
;
Attention
Vous devez vous assurer que la performance de l'instruction SQL est optimisée et génèrera des résultats valides. L'opération Sélection de candidats ne le fait pas à votre place.
450
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Remplacez le caractère générique par les valeurs réelles.
Après avoir testé le SQL avec les valeurs réelles, vous devez remplacer ces valeurs par des caractères génériques
([MATCHKEY], par exemple).
Voici à quoi votre SQL devrait ressembler à présent :
SELECT ContactGivenName1, ContactGivenName2, ContactFamilyName, Address1, Address2,
City, Region, Postcode, Country, AddrStreet, AddrStreetNumber, AddrUnitNumber
FROM TblCustomer
WHERE MatchKey =
[MATCHKEY]
;
Remarque
Les caractères génériques ne peuvent pas être utilisés pour des valeurs de liste, par exemple dans une clause
IN :
WHERE status IN ([status])
Si [status] est une liste de valeurs, l'instruction SQL échoue.
17.4.8.2.3 Tables de comparaison
Les tables de comparaison sont des ensembles de règles qui définissent les enregistrements à comparer, un moyen supplémentaire de créer des groupes de décomposition. Vous utilisez les valeurs de votre source logique pour déterminer les enregistrements à comparer.
En utilisant des tables de comparaison, vous pouvez comparer des enregistrements au sein de sources spécifiques ou comparer des enregistrements à travers différentes sources ou une combinaison des deux.
17.4.8.2.3.1 Configuration d'une table de comparaison
Veillez à inclure un champ contenant une valeur de source logique avant d'ajouter une opération Table de comparaison à la transformation Match (dans le groupe d'options de niveau Match).
Voici un exemple illustrant la configuration d'une table de comparaison. Imaginons que vous disposiez de deux ID
(A et B) et que vous vouliez uniquement effectuer des comparaisons entre les différentes sources et non pas au sein des sources.
1. Si la section Correspondance ne contient pas de table de comparaison, cliquez avec le bouton droit de la souris sur
Correspondance
<Nom du niveau>
, puis sélectionnez
Ajouter Comparer
.
2. Définissez l'option
Action par défaut
sur
Aucune_Correspondance
, puis saisissez
Aucune
dans l'option
Valeur source logique par défaut
.
Ainsi, la transformation Match ne comparera pas tout, mais suivra les règles de comparaison définies par les entrées de la table.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
451
Remarque
Choisissiez avec soin les noms des sources logiques. L'entrée «Aucune» dans l'option
Valeur source logique par défaut
ne fonctionnera pas si vous disposez d'un ID source appelé «Aucune».
3. Dans la table
Actions de comparaison
, ajoutez une ligne, puis définissez la
Valeur pilote
sur
A
et la
Valeur passager
sur
B
.
4. Définissez
Action
sur
Comparer
.
Remarque
Tenez compte de toutes les valeurs de sources logiques. Les exemples de valeurs saisies ci-dessus supposent que A sera toujours l'ID pilote. Si vous pensez disposer d'un enregistrement pilote avec une valeur autre que A, configurez une entrée de table pour tenir compte de cette valeur et de la valeur ID passager. N'oubliez pas que l'enregistrement pilote est le premier enregistrement lu dans une collection.
Si vous ne renseignez pas les options
Valeur pilote
ou
Valeur passager
dans la table de comparaison, cela signifie que vous voulez comparer toutes les sources. Ainsi, dans le cas d'une valeur pilote A et d'un enregistrement passager vide avec une action Comparer, un enregistrement A sera comparé à tous les autres enregistrements passager.
Il arrive que les données dans les collections soient classées différemment de ce que peut attendre votre table de comparaison ou qu'elles ne soient pas classées du tout. Dans ce cas, le processus de correspondance peut manquer des doublons.
Dans cet exemple, la manière dont vous configurez la ligne de votre table Actions de comparaison signifie que vous vous attendez à ce que l'enregistrement pilote porte la valeur pilote A ; or, s'il porte la valeur B et que l'enregistrement passager porte la valeur A, ils ne seront pas comparés.
Pour prendre en compte les cas où un enregistrement pilote porte la valeur B et l'enregistrement passager la valeur A, par exemple, ajoutez une autre ligne dans la table, qui exécute l'opération inverse. Ainsi, tout enregistrement portant la valeur A ou B sera comparé, indépendamment du pilote ou du passager.
Remarque
En règle générale, si vous utilisez une source Suppression, vous devez effectuer une comparaison dans les autres sources. Cela permet de s'assurer que toutes les correspondances de ces sources sont supprimées lorsqu'elles dupliquent un enregistrement dans la source Suppression, indépendamment de l'enregistrement pilote.
17.4.8.3 Classement et hiérarchisation des enregistrements
Vous disposez peut-être de sources de données, telles que votre propre entrepôt de données, plus fiables que les enregistrements issus d'autres sources (source louée, par exemple). Vous préférez peut-être aussi les enregistrements récents aux enregistrements plus anciens ou les enregistrements complets à ceux contenant des champs vides. Quelles que soient vos préférences, vous pouvez les exprimer dans le processus de correspondance en utilisant des priorités.
Vous pouvez aussi souhaiter que vos enregistrements au sein d'une opération spécifique (par exemple, correspondance ou meilleur enregistrement) soient exécutés dans un ordre donné. Par exemple, vous pouvez
452
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
souhaiter que vos groupes de correspondance soient classés de telle sorte que le premier enregistrement entré soit l'enregistrement le plus récent du groupe. Dans ce cas, vous devez classer vos enregistrements en fonction d'un champ de date.
Il existe deux manières de classer les enregistrements, avant ou après le processus de comparaison :
● Tri des enregistrements en groupes de décomposition groupes de correspondance à l'aide d'une valeur dans un champ.
● Utilisation de scores de pénalité. Ces scores peuvent être définis par champ, par enregistrement ou en fonction de l'appartenance dans une source d'entrée.
Editeur de correspondance
Vous pouvez définir vos priorités et classer vos enregistrements dans l'opération Hiérarchisation du groupe, disponible dans l'opération Formation du groupe et les opérations de traitement post-comparaison de chaque niveau de correspondance dans l'éditeur de correspondance.
Types de priorités
Différents types de priorités sont à prendre en compte :
Table 198 :
Priorité Brève description
Priorité d'enregistrement Privilégie les enregistrements d'une source d'entrée par rapport à une autre.
Pénalité pour champ vide Affecte une priorité faible dans les enregistrements contenant un champ spécifique vide.
Classement pré-correspondance
Lorsque vous créez des groupes de décomposition, vous pouvez configurer votre opération
Formation du groupe Hiérarchisation du groupe
pour effectuer un classement (ou un tri) sur un champ en plus du classement sur la clé de décomposition. Cela permet de garantir que l'enregistrement ayant la priorité la plus
élevée est le premier enregistrement (pilote) dans le groupe de décomposition.
Il est également important que les sources d'entrée de type Suppression soient les enregistrements pilotes dans un groupe de décomposition.
Classement post-correspondance
Une fois que la transformation Match a créé tous les groupes de correspondance et si le classement est important, vous pouvez utiliser une opération Hiérarchisation du groupe avant une opération Statistiques de
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
453
groupe, Meilleur enregistrement ou ID unique pour vous assurer que l'enregistrement principal soit le premier dans le groupe de correspondance.
Conseil
Si vous n'utilisez pas de pénalité pour champ vide, le classement n'est peut-être pas aussi important pour vous et vous pouvez dans ce cas décider de ne pas utiliser d'opération Hiérarchisation du groupe avant vos opérations post-correspondance. Toutefois, l'opération Meilleur enregistrement peut s'avérer plus performante si vous hiérarchisez les enregistrements et définissez l'option
Publier une seule fois par destination
sur Oui.
Pénalité pour champ vide
Sur deux enregistrements, vous préférerez certainement conserver celui qui contient les données les plus complètes. Vous pouvez utiliser la pénalité pour champ vide pour pénaliser les enregistrements contenant des champs vides.
L'utilisation d'une pénalité pour champ vide est appropriée si vous estimez qu'un champ vide ne doit pas exclure un enregistrement d'une correspondance et que vous souhaitez conserver l'enregistrement le plus complet.
Imaginons, par exemple, que vous vouliez accepter un enregistrement comme correspondance même si les champs Titre_de_civilité, Prénom1, Prénom2, Suffixe_principal et/ou Numéro secondaire sont vides. Bien que vous acceptiez ces enregistrements dans vos groupes de correspondance, vous pouvez leur affecter une priorité faible pour chaque champ vide.
17.4.8.3.1 Classement des enregistrements par tri sur un champ
Assurez-vous d'avoir mappé les champs d'entrée dans la transformation Match sur laquelle vous souhaitez effectuer le classement ; sinon, ils n'apparaîtront pas dans la liste déroulante des champs.
Utilisez cette méthode de classement des enregistrements si l'intégralité des données n'est pas un critère important pour vous.
1. Saisissez un nom de hiérarchisation, puis sélectionnez l'onglet Ordre de priorité.
2. Dans la table
Champs prioritaires
, sélectionnez un champ dans la liste déroulante dans la colonne
Champs d'entrée
.
3. Dans la colonne
Ordre des champs
, sélectionnez
Croissant
ou
Décroissant
pour spécifier le type d'ordre.
Par exemple, si vous comparez une source Normal à une source Suppression et que vous utilisez un champ
ID source pour classer vos enregistrements, vous devez vous assurer que les enregistrements de la source
Suppression apparaissent en premier dans le groupe de décomposition.
4. Répétez l'étape 2 pour chaque ligne ajoutée.
5. Classez vos lignes dans la table
Champs prioritaires
à l'aide des boutons
Déplacer vers le haut
et
Déplacer vers le bas
.
La première ligne correspond au classement principal et les autres aux classements secondaires.
454
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.4.8.3.2 Système de scoring de pénalité
La pénalité pour champ vide est un système de scoring de pénalité. Pour chaque champ vide, vous pouvez attribuer une pénalité en indiquant un nombre entier non négatif.
Vous pouvez attribuer la même pénalité pour chaque champ vide ou une pénalité plus élevée pour les champs que vous considérez plus importants. Par exemple, si vous préparez un courrier à l'intention d'étudiants qui vivent dans des appartements ou des dortoirs, vous pouvez attribuer une pénalité plus élevée pour un champ vide
Prénom1 ou un numéro d'appartement.
Table 199 :
Champ Pénalité pour champ vide
Titre de civilité
Prénom1
Prénom2
Suffixe principal
Numéro secondaire
5
5
5
20
20
Dans ce cas, les enregistrements ci-après seraient classés dans l'ordre indiqué (en partant du principe qu'ils proviennent de la même source et que la priorité d'enregistrement n'est donc pas un facteur). Même si le premier enregistrement contient des champs vides (Titre_de_civilité, Prénom2 et Suffixe d'adresse), il doit être généré comme enregistrement principal, car il contient les données considérées comme les plus importantes : Prénom1 et Numéro secondaire.
Table 200 :
Titre de civilité
(5)
Prénom1
(20)
Prénom2
(5)
Nom de fa mille
Intervalle principal
Nom principal
Suffixe principal
(5)
Numéro secon daire (20)
Pénalité pour champ vide
6
Ms.
Ms.
Maria
Maria A
Ramirez
Ramirez
Ramirez
100
100
100
Main
Main
Main
St
St 6
5 + 5 + 5 = 15
20
20 + 5 = 25
17.4.8.3.3 Interaction de la pénalité pour champ vide avec la priorité d'enregistrement
Les scores de pénalité pour champ vide et priorité d'enregistrement sont regroupés et considérés comme un seul score.
Supposons, par exemple, que vous souhaitiez attribuer une priorité élevée à certains enregistrements de votre base de données personnelle, mais aussi une priorité faible aux enregistrements contenant des champs vides.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
455
L'appartenance source est-elle plus importante, même si certains champs sont vides ? Ou est-il plus important de disposer d'un enregistrement aussi complet que possible, même s'il ne provient pas de la base de données personnelle ?
La plupart des utilisateurs mettent la priorité sur leurs enregistrements personnels et ne souhaitent pas que les champs vides suppriment cette priorité. Pour ce faire, définissez une pénalité élevée pour l'appartenance dans une source louée et des priorités faibles pour les champs vides :
Table 201 :
Source
Priorité d'enregistrement
(points de pénalité)
Champ Pénalité pour champ vide
Source personnelle 100
Prénom1
20
Source louée A 200
Prénom2
5
Source louée B 300
Suffixe principal
5
Source louée C 400
Numéro secondaire
20
Avec ce système de scoring, un enregistrement de source personnelle a toujours priorité sur un enregistrement de source louée, même si l'enregistrement personnel contient des champs vides. Supposons, par exemple, que les enregistrements ci-dessous figurent dans le même groupe de correspondance.
Même si l'enregistrement personnel contient cinq champs vides, il reçoit uniquement 155 points de pénalité (100
+ 5 + 20 + 5 + 5 + 20), alors que l'enregistrement de la source A reçoit 200 points de pénalité. Par conséquent, l'enregistrement personnel a la pénalité la plus faible et la priorité la plus élevée.
Table 202 :
Source Prénom1 Prénom2 Famille Intervalle principal
Nom principal
No se condaire
Code_postal Priorité d'enregis trement
Pénalité pour champ vide
Total
Personnel
Source A Rita
Source B Rita
A
Smith 100
Smith 100
Smith 100
Bren
Bren
Bren
12A
12
55343
55343
55343
100
200
300
55
0
10
155
200
310
Vous pouvez manipuler les scores pour définir la priorité telle que vous la voulez. Dans l'exemple ci-dessus, supposons que vous préfériez un enregistrement loué contenant des données de prénom à un enregistrement personnel sans données de prénom. Vous pouvez définir le score de pénalité pour champ vide Prénom sur 500 de sorte qu'un champ vide Prénom ait plus de poids qu'une appartenance source quelle qu'elle soit.
17.4.8.3.4 Définition de priorités et pénalités à l'aide des valeurs de champ
Assurez-vous de mapper les champs d'entrée comportant des valeurs de priorité ou de pénalité pour champ vide.
456
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Cette tâche indique à Match les champs qui comportent des valeurs de priorité d'enregistrement et de pénalité pour champ vide pour vos enregistrements et s'il faut les appliquer par enregistrement.
1. Ajoutez une opération Hiérarchisation du groupe à la section Formation du groupe ou Traitement postcorrespondance dans l'éditeur de correspondance.
2. Saisissez un nom de hiérarchisation (si nécessaire) et sélectionnez l'onglet
Intégralité de l'enregistrement
.
3. Sélectionnez l'option
Classer les enregistrements selon l'intégralité des données
.
4. Sélectionnez l'option
Définir les champs de pénalité et de priorité
.
○
Définir les pénalités de champ uniquement :
Cette option vous permet de sélectionner une priorité d'enregistrement par défaut et des pénalités pour champ vide par champ pour générer votre score de priorité.
○
Définir les pénalités et priorités en fonction de la source d'entrée :
Cette option vous permet de définir une priorité et une pénalité pour champ vide en fonction de l'appartenance dans une source d'entrée.
5. Sélectionnez un champ contenant la valeur de priorité d'enregistrement dans l'option
Champ de priorité d'enregistrement
.
6. Dans l'option
Champ Appliquer une pénalité pour champ vide
, sélectionnez un champ contenant l'indicateur O ou N pour appliquer ou non une pénalité pour champ vide à un enregistrement.
7. Dans l'option
Priorité d'enregistrement par défaut
, entrez une priorité d'enregistrement par défaut à utiliser si un champ de priorité d'enregistrement est vide ou si vous ne spécifiez pas de champ de priorité d'enregistrement.
8. Sélectionnez une valeur
Pénalité pour champ vide appliquée par défaut
(Oui ou Non). Cette sélection détermine si la transformation Match appliquera une pénalité pour champ vide à un enregistrement si vous n'avez pas sélectionné l'option Champ Appliquer une pénalité pour champ vide ou si le champ est vide pour un enregistrement spécifique.
9. Dans la table
Score de pénalité pour champ vide
, sélectionnez un champ dans la colonne
Champ d'entrée
auquel vous voulez affecter des valeurs de pénalité pour champ vide.
10. Dans la colonne
Pénalité pour champ vide
, saisissez une valeur de pénalité pour champ vide à affecter à un enregistrement quelconque contenant un espace vide dans le champ que vous avez sélectionné dans la colonne
Champ d'entrée
.
17.4.8.3.5 Définition de valeurs de pénalité par champ
Cette tâche vous permet de définir votre score de priorité par défaut pour chaque enregistrement et pénalité pour champ vide par champ pour générer votre score de pénalité.
1. Ajoutez une opération Hiérarchisation du groupe à la section Formation du groupe ou Traitement postcorrespondance dans l'éditeur de correspondance.
2. Saisissez un nom de hiérarchisation (si nécessaire) et sélectionnez l'onglet
Intégralité de l'enregistrement
.
3. Sélectionnez l'option
Classer les enregistrements selon l'intégralité des données
.
4. Sélectionnez l'option
Définir les pénalités de champ uniquement
.
5. Dans l'option
Priorité d'enregistrement par défaut
, entrez une priorité d'enregistrement par défaut qui sera utilisée dans le score de pénalité pour chaque enregistrement.
6. Sélectionnez une valeur
Pénalité pour champ vide appliquée par défaut
(Oui ou Non). Cette sélection détermine si la transformation Match appliquera une pénalité pour champ vide à un enregistrement si vous n'avez pas sélectionné l'option Champ Appliquer une pénalité pour champ vide ou si le champ est vide pour un enregistrement spécifique.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
457
7. Dans la table
Score de pénalité pour champ vide
, sélectionnez un champ dans la colonne
Champ d'entrée
auquel vous voulez affecter des valeurs de pénalité pour champ vide.
8. Dans la colonne
Pénalité pour champ vide
, saisissez une valeur de pénalité pour champ vide à affecter à un enregistrement quelconque contenant un espace vide dans le champ que vous avez sélectionné dans la colonne
Champ d'entrée
.
17.4.8.4 Hiérarchisation des enregistrements sur la base de l'appartenance source
Indépendamment de la manière dont vous voulez hiérarchiser vos sources (en triant un groupe de décomposition ou en utilisant des scores de pénalité), vous devez vous assurer que les enregistrements de la source de type
Suppression sont les enregistrements pilotes dans le groupe de décomposition et le processus de comparaison.
Imaginons, par exemple, que vous soyez une institution de bienfaisance et que vous envoyiez un courrier de sollicitation à vos donateurs actuels ainsi qu'à des noms de deux sources louées. Si un nom apparaît à la fois dans votre source personnelle et votre source louée, vous préférez utiliser celui de votre source personnelle.
Pour l'une des deux sources louées, la source B, supposons aussi que vous puissiez négocier une remise pour les enregistrements non utilisés. Vous voulez utiliser le moins d'enregistrements possibles de la source B afin d'obtenir une remise importante. Par conséquent, vous voulez que les enregistrements de la source B aient la préférence ou priorité la plus faible parmi les trois sources.
Table 203 :
Source
Source personnelle
Source louée A
Source louée B
Priorité
Elevée
Moyenne
Faible
Sources de type Suppression et intégralité de l'enregistrement
Si vous voulez utiliser des scores de pénalité, vos sources de type Suppression doivent avoir un score de priorité faible. Ainsi, les enregistrements standard correspondant à un enregistrement de suppression seront probablement des correspondances subordonnées dans un groupe de correspondance et, par conséquent, seront également supprimés. Dans chaque groupe de correspondance, tout enregistrement ayant une priorité plus faible qu'un enregistrement de source Suppression est considéré comme une correspondance de suppression.
Imaginons, par exemple, que vous exécutiez vos fichiers par rapport au fichier de préférence de courrier DMA
(liste de personnes ne souhaitant pas recevoir de publipostage). Vous identifiez la source DMA comme source
Suppression et vous lui attribuez une priorité de zéro.
Table 204 :
Source
Source Suppression DMA
Priorité
0
458
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Source
Source personnelle
Source louée A
Source louée B
Priorité
100
200
300
Supposons que Match trouve quatre enregistrements correspondants parmi les enregistrements d'entrée.
Table 205 :
Enregistrement correspondant (champs Nom uniquement) Source
Maria Ramirez Personnel
Ms.
Mme
Mme
Maria
Maria
A
A
Ramirez
Ramirez
Ramirez
Source B
Source A
DMA
Priorité
100
300
200
0
Le groupe de correspondance suivant serait défini. En fonction de leur priorité, Match classerait les enregistrements comme indiqué. Par conséquent, l'enregistrement du fichier de suppression (la source DMA) serait l'enregistrement principal et les autres seraient des correspondances de suppression subordonnées et donc également supprimées.
Table 206 :
Source
DMA
Personnel
Source A
Source B
Priorité
0 (enregistrement principal)
100
200
300
17.4.8.4.1 Définition de pénalités en fonction de l'appartenance source
Cette tâche vous permet d'attribuer des scores de priorité et des pénalités pour champ vide à une source d'entrée et d'appliquer ces scores à tout enregistrement appartenant à cette source. Avant d'effectuer cette tâche, assurez-vous que vos sources d'entrée sont définies.
1. Ajoutez une opération Hiérarchisation du groupe à la section Formation du groupe ou Traitement postcorrespondance dans l'éditeur de correspondance.
2. Saisissez un nom de hiérarchisation (si nécessaire) et sélectionnez l'onglet
Intégralité de l'enregistrement
.
3. Sélectionnez l'option
Classer les enregistrements selon l'intégralité des données
.
4. Sélectionnez l'option
Définir les pénalités et priorités en fonction de la source d'entrée
.
5. Dans la table
Attributs source
, sélectionnez une source dans la liste déroulante.
6. Saisissez une valeur dans la colonne
Priorité
pour affecter une priorité d'enregistrement à cette source.
N'oubliez pas que plus le score est faible, plus la priorité est élevée. Imaginons, par exemple, que vous vouliez affecter un score très faible (tel que 0) à une source Suppression.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
459
7. Dans la colonne
Appliquer une pénalité pour champ vide
, sélectionnez une valeur Oui ou Non pour déterminer si une pénalité pour champ vide doit être utilisée sur les enregistrements de cette source.
8. Dans l'option
Priorité d'enregistrement par défaut
, entrez une priorité d'enregistrement par défaut qui sera utilisée dans le score de pénalité pour chaque enregistrement qui n'est pas membre d'une source.
9. Sélectionnez une valeur
Pénalité pour champ vide appliquée par défaut
(Oui ou Non). Cette valeur détermine si des pénalités pour champ vide doivent être appliquées à un enregistrement qui n'est pas membre d'une source.
10. Dans la table
Score de pénalité pour champ vide
, sélectionnez un champ dans la colonne
Champ d'entrée
auquel vous voulez affecter des valeurs de pénalité pour champ vide.
11. Dans la colonne
Pénalité pour champ vide
, saisissez une valeur de pénalité pour champ vide à affecter à un enregistrement quelconque contenant un espace vide dans le champ que vous avez sélectionné dans la colonne
Champ d'entrée
.
17.4.8.5 Récupération des données
La récupération des données copie temporairement les données d'un enregistrement passager dans un enregistrement pilote après avoir comparé les deux enregistrements. Les données copiées sont des données trouvées dans l'enregistrement passager, mais manquantes ou incomplètes dans l'enregistrement pilote. La récupération des données empêche la correspondance vide ou la correspondance d'initiales de faire correspondre des enregistrements que vous ne voulez pas faire correspondre.
Prenons, par exemple, le groupe de correspondance suivant. Si vous n'avez pas activé la récupération des données, les enregistrements de la première table appartiennent tous au même groupe de correspondance, car l'enregistrement pilote, qui contient un champ Nom vide, correspond aux deux autres enregistrements.
Table 207 :
Enregistrement
1 (pilote)
2
3
Nom
John Smith
Jack Hill
Adresse
123 Main St.
123 Main St.
123 Main St.
Code_postal
54601
54601
54601
2
3
Si vous avez activé la récupération des données, le logiciel copie temporairement John Smith du second enregistrement vers l'enregistrement pilote. Résultat : L'enregistrement 1 correspond à l'enregistrement 2, mais l'enregistrement 1 ne correspond pas à l'enregistrement 3 (car John Smith ne correspond pas à Jack Hill).
Table 208 :
Enregistre ment
1 (pilote)
Nom Adresse Code_postal
54601 John Smith (copié depuis l'enregistrement cidessous)
John Smith
Jack Hill
123 Main St.
123 Main St.
123 Main St.
54601
54601
L'exemple suivant illustre l'utilisation de cette fonction pour une source Suppression. Imaginons que la source
Suppression soit une liste d'adresses de personnes n'ayant pas donné leur accord. Dans ce cas, vous définissez la source Suppression de sorte à ce qu'elle ait la priorité la plus élevée et vous n'activez pas la récupération des
460
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
données. Le logiciel supprime alors tous les enregistrements correspondant aux enregistrements de la source
Suppression.
Par exemple, dans le cas d'un enregistrement de type suppression 123 Main St correspondant à 123 Main St n°2 et 123 Main St Apt C, les deux derniers enregistrements sont supprimés.
17.4.8.5.1 Récupération des données et initiales
Lorsque le champ Nom d'un enregistrement pilote contient une initiale à la place d'un nom complet, le logiciel peut emprunter temporairement le nom complet s'il le trouve dans le champ correspondant d'un enregistrement correspondant. C'est une forme de récupération des données.
Imaginons, par exemple, que les trois enregistrements suivants représentent des enregistrements potentiellement correspondants (le logiciel les a regroupé, par exemple, en tant que membres d'un groupe de décomposition en fonction des données d'adresse et de code postal).
Remarque
La récupération des initiales a lieu uniquement avec les champs Prénom et Nom de famille.
Enregistrement
357
391
839
Prénom
J
Juanita
Joanne
Nom de famille
L
Lopez
London
Adresse
123 Main
123 Main
123 Main
Notes
Driver
Enregistrement du classement le plus bas
La première comparaison se fait entre l'enregistrement pilote (357) et l'enregistrement suivant le plus élevé (391).
Ces deux enregistrements forment une correspondance. Juanita et Lopez sont temporairement copiés dans les champs Nom de l'enregistrement 357.
La comparaison suivante se fait entre l'enregistrement 357 et l'enregistrement du classement suivant le plus bas
(839). Avec la récupération des données, les données de nom de l'enregistrement pilote sont à présent Juanita
Lopez ("empruntées" de la première comparaison). Par conséquent, l'enregistrement 839 sera probablement considéré comme ne correspondant pas à l'enregistrement 357.
En conservant plus d'informations pour l'enregistrement pilote, la récupération des données permet d'améliorer la qualité des résultats de correspondance.
Initiales et enregistrements de type suppression
Cependant, si l'enregistrement pilote est un enregistrement de type suppression, il peut être préférable de désactiver la récupération des données pour avoir le plus de chances possibles d'identifier tous les enregistrements correspondant aux données de suppression initialisées. Par exemple, pour supprimer les noms comportant les initiales JL, comme dans le cas ci-dessus, vous rechercherez toutes les correspondances avec JL, indépendamment de l'ordre dans lequel les enregistrements apparaissent dans le groupe de décomposition.
Si vous avez désactivé la récupération des données pour les enregistrements de la source Suppression, vous obtenez le résultat suivant au cours de ces deux comparaisons :
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
461
Enregistrement
357
391
839
Prénom
J
Juanita
Joanne
Nom de famille
L
Lopez
London
Adresse
123 Main
123 Main
123 Main
Notes
Driver
Enregistrement du classement le plus bas
La première comparaison se fait entre l'enregistrement pilote (357) et l'enregistrement suivant le plus élevé (391).
Ces deux enregistrements forment une correspondance, car dans l'enregistrement pilote, JL et Juanita Lopez forment une correspondance.
La comparaison suivante se fait entre l'enregistrement pilote (357) et l'enregistrement du classement suivant le plus bas (839). Ici, ces deux enregistrements forment également une correspondance, car dans l'enregistrement pilote, JL correspond à Joanne London.
Comme les deux enregistrements 391 et 839 correspondent à l'enregistrement pilote de type suppression, ils sont tous deux considérés comme correspondances de suppression et, par conséquent, aucun ne figure dans votre sortie.
17.4.8.5.2 Contrôle de la récupération des données à l'aide d'un champ
Vous pouvez utiliser un champ pour contrôler l'activation de la récupération des données. Si la valeur du champ affiche O pour un enregistrement, cela signifie que la récupération des données est activée. Assurez-vous d'avoir mappé au préalable le champ dans la transformation Match que vous voulez utiliser.
1. Ouvrez l'Matchéditeur pour une Matchtransformation.
2. Dans la fenêtre Options de transformation, cliquez dans l'onglet
Récupération des données
.
3. Sélectionnez l'option Activer la récupération des données, puis sélectionnez une valeur par défaut pour ces enregistrements.
La valeur par défaut sera utilisée si le champ que vous sélectionnez n'est pas renseigné pour un enregistrement donné.
4. Sélectionnez l'option
Spécifier la récupération des données par champ
, puis sélectionnez un champ dans le menu déroulant.
17.4.8.5.3 Contrôle de la récupération des données par source
Vous pouvez utiliser l'appartenance dans une source d'entrée pour contrôler si la récupération des données est activée ou désactivée pour un enregistrement spécifique. Assurez-vous au préalable de créer vos sources d'entrée.
1. Ouvrez l'Matchéditeur pour une Matchtransformation.
2. Dans la fenêtre Options de transformation, cliquez dans l'onglet
Récupération des données
.
3. Sélectionnez l'option
Activer la récupération des données
, puis sélectionnez une valeur par défaut pour ces enregistrements.
462
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
La valeur par défaut sera utilisée si la source d'entrée d'un enregistrement n'est pas spécifiée dans les étapes suivantes.
4. Sélectionnez l'option
Spécifier la récupération des données par source
.
5. Dans la table, sélectionnez une valeur Source, puis Exécuter la récupération des données pour chaque source que vous voulez utiliser.
17.4.9 Critères de correspondance
17.4.9.1 Vue d'ensemble des critères de correspondance
Utilisez des critères de correspondance à chaque niveau de correspondance pour déterminer les scores de seuil pour la correspondance et définir le traitement des différents types de données, telles que données numériques, données de nom, etc. (vos règles de gestion).
Pour ce faire, accédez au groupe d'options Critère dans l'éditeur de correspondance.
Critère de correspondance
Dans la transformation Match, les critères de correspondance représentent les champs à comparer. Imaginons, par exemple, que vous vouliez faire correspondre les 10 premiers caractères d'un prénom et les 15 premiers caractères d'un nom de famille. Vous devez dans ce cas créer deux critères pour spécifier ces exigences.
Les critères permettent à la transformation Match d'identifier le type de données figurant dans le champ d'entrée et par conséquent, les types d'opérations à exécuter sur ces données.
Critères prédéfinis et personnalisés
Il existe deux types de critères :
● Les critères prédéfinis sont disponibles pour les champs généralement utilisés pour la correspondance, tels que les données de nom, d'adresse et autres données. En affectant un critère à un champ, la transformation
Match peut identifier le type de données figurant dans le champ et exécuter des opérations internes pour optimiser les données pour la correspondance sans altérer les données d'entrée réelles.
● Des champs de sortie personnalisés Data Cleanse (définis par l'utilisateur, données non tierces) sont disponibles comme critères prédéfinis. Mappez les champs de sortie personnalisés de Data Cleanse. Les champs personnalisés apparaissent dans l'onglet Champs de critères de l'éditeur de correspondance.
Tout autre type de données (tel que numéros de référence ou autres données propriétaires) pour lequel il n'existe pas de critère prédéfini doit être désigné comme critère personnalisé. Certaines fonctions peuvent
être exécutées sur des clés personnalisées, telles que la correspondance d'abréviations, de sous-chaînes ou la correspondance numérique, mais la transformation Match ne peut pas effectuer toutes les comparaisons de champs croisés, par exemple certaines fonctions de correspondance de noms.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
463
Options de pré-comparaison de critères de correspondance
La standardisation des données doit se faire en grande partie dans le nettoyage des adresses et dans les transformations Data Cleanse. Toutefois, la transformation Match peut effectuer un pré-traitement par critère (à des fins de correspondance uniquement, sans affecter les données) pour fournir des correspondances plus exactes. Les options permettant de contrôler cette standardisation figurent dans les onglets Options et
Comparaisons de champs multiples de l'éditeur Match. Elles incluent les fonctions suivantes :
● Convertir les caractères diacritiques
● Convertir le texte en chiffres
● Convertir en majuscules
● Supprimer la ponctuation
● Paramètres régionaux
Pour plus d'informations sur ces options, voir la section relative à la transformation Match du Guide de référence.
17.4.9.1.1 Ajout et classement d'un critère de correspondance
Vous pouvez ajouter autant de critères que vous le voulez à chaque niveau de correspondance dans votre transformation Match.
1. Sélectionnez le niveau de correspondance approprié ou le groupe d'options Critères de correspondance dans l'explorateur d'options de l'éditeur de correspondance, puis cliquez avec le bouton droit de la souris.
2. Sélectionnez
Critère
.
3. Saisissez un nom pour votre critère dans la case
Nom du critère
.
Vous pouvez conserver le nom par défaut du critère prédéfini, mais vous devez saisir un nom de critère pertinent si vous avez choisi un critère personnalisé.
4. Dans l'onglet
Champs de critères
, dans la liste
Critère disponible
, sélectionnez le critère qui représente le mieux les données à faire correspondre. Si aucun critère ne convient, choisissez le critère personnalisé.
5. Dans la table
Mappage des champs de critères
, sélectionnez le nom mappé d'un champ d'entrée contenant les données que vous voulez faire correspondre pour ce critère.
6. Cliquez dans l'onglet
Options
.
7. Configurez les
Options de pré-comparaison
et les
Règles de comparaison
.
Assurez-vous de définir le score de Match et le score de non-correspondance, tous deux requis.
8. Pour activer la comparaison de champs multiples (champs croisés), cliquez dans l'onglet
Comparaisons de champs multiples
et sélectionnez l'option
Comparer plusieurs champs
.
a. Sélectionnez le type de comparaison de champs multiples à effectuer :
○
Tous les champs sélectionnés dans d'autres enregistrements
: Pour comparer chaque champ à tous les champs sélectionnés dans la table dans tous les enregistrements.
○
Le même champ dans d'autres enregistrements
: Pour comparer chaque champ uniquement au même champ dans tous les enregistrements.
b. Dans la table
Champs supplémentaires à comparer
, sélectionnez des champs d'entrée contenant les données à inclure dans la comparaison de champs multiples pour ce critère.
464
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Conseil
Vous pouvez utiliser des noms de champs de critères de correspondance personnalisés pour la comparaison de champs multiples en les saisissant dans la colonne
Nom personnalisé
.
Remarque
Si vous activez la comparaison de champs multiples, les champs de standards de correspondance appropriés sont supprimés de la table
Mappage des champs de critères
dans l'onglet
Champs de critères
.
Si vous voulez les inclure dans le processus de correspondance, ajoutez-les à la table
Champs supplémentaires à comparer
.
9. Configurez les options de
pré-comparaison
pour la comparaison de champs multiples.
10. Pour classer vos critères dans l'explorateur d'options de l'éditeur Match (ou de la table Match), sélectionnez un critère, puis cliquez sur les boutons
Déplacer vers le haut
ou
Déplacer vers le bas
.
17.4.9.1.2 Configuration des critères d'autre nom
Assurez-vous que vous avez créé des champs d'autre nom et y avez mappé des données depuis la transformation
Data Cleanse.
1. Dans la transformation Match, ajoutez un critère de correspondance Person1_Given_Name1 en le sélectionnant dans la catégorie Person.
L'éditeur ajoute automatiquement ces critères et les critères d'autre nom à la table
Mappage des champs de critères
.
2. Sélectionnez un champ dans la colonne
Nom mappé du champ d'entrée
qui représente le mieux possible les données à comparer.
Pour les données Given_Name2 (deuxième prénom), suivez la procédure décrite ci-dessus en utilisant le critère suivant :
● Person1_Given_Name2
● Person1_Given_Name2_Match_Std1
● Person1_Given_Name2_Match_Std2
● Person1_Given_Name2_Match_Std3
Vous pouvez également utiliser les autres noms pour les champs Prename, Maturity Postname, Honorary
Postname, Firm et Firm Location.
17.4.9.2 Méthodes de correspondance
Il existe plusieurs manières de configurer et de classer les critères pour obtenir les résultats de correspondance souhaités. Chacune présente des avantages et des inconvénients. Par conséquent, examinez-les soigneusement au préalable.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
465
Table 209 :
Méthode de cor respondance
Basée sur des rè gles
Scoring pondéré
Description
Permet de contrôler les critères qui déterminent une correspondance. Cette méthode est simple à confi gurer.
Permet d'attribuer de l'importance ou une pondération à un critère. Toutefois, le scoring pondéré évalue chaque règle avant de déterminer une correspondance, ce qui peut augmenter le temps de traitement.
Méthode de combi naison
Présente les mêmes avantages et inconvénients relatifs que les deux autres méthodes.
17.4.9.2.1 Score de similarité
Le score de similarité représente le pourcentage de similarité de vos données.
Ce score est calculé en interne par l'application lorsque les enregistrements sont comparés. L'application considère les enregistrements comme des correspondances selon ce que vous avez défini pour Score de correspondance et Aucun score de correspondance dans le groupe d'options Critère (et selon d'autres facteurs, abordés ultérieurement).
Exemple
Cet exemple illustre comment les scores de similarité sont déterminés. Veuillez noter ce qui suit :
● La table de comparaison ci-dessous est indiquée à titre d'exemple. Le processus de correspondance ne fonctionne pas ainsi dans la méthode de scoring pondéré, par exemple.
● Seule la première comparaison est considérée comme une correspondance, car le score de similarité est
égale à ou supérieur au score de correspondance. La dernière comparaison est considérée comme une non-correspondance, car le score de similarité est inférieur au score de non-correspondance.
● Lorsqu'un critère unique ne peut pas déterminer une correspondance, comme dans le cas de la seconde comparaison dans la table ci-dessous, le processus passe au critère suivant, si possible.
Table 210 :
Comparaison No match Match Score de similarité Correspondance ?
Smith > Smith
Smith > Smitt
Smith > Smythe
Smith > Jones
72
72
72
72
95
95
95
95
100%
80%
72%
20%
Oui
Dépend d'autres critères
Non
Non
466
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.4.9.2.2 Méthode basée sur des règles
Avec la correspondance basée sur des règles, vous vous fiez uniquement à vos scores de correspondance et noncorrespondance pour déterminer des correspondances dans un critère.
Exemple
Cet exemple vous montre comment configurer cette méthode dans la transformation Match.
Table 211 :
Critère Enregistrement A Enregistrement B
Prénom1 Mary
Nom de famille Smith
Adresse élec tronique msmith@sap.com
Mary
Smitt mary.smith@sap.com
Aucune correspon dance
Corres pondance
82
74
79
101
101
80
Score de si milarité
100
80
91
En saisissant la valeur 101 dans le score de correspondance pour chaque critère à l'exception du dernier, les critères Prénom1 et Nom de famille ne déterminent jamais une correspondance, bien qu'ils puissent déterminer une non-correspondance.
En définissant les options
Score de correspondance
et
Aucun score de correspondance
pour le critère Adresse
électronique sans intervalle, toute comparaison qui atteint le dernier critère doit être une correspondance ou une non-correspondance.
Un score de correspondance de 101 permet de s'assurer que le critère n'entraîne pas la correspondance des enregistrements, car deux champs peuvent être similaires à plus de 100 %.
N'oubliez pas
L'ordre est important ! Pour des raisons de performance, vous devez disposer du critère le plus susceptible de générer en premier la décision de correspondance ou non-correspondance dans l'ordre des critères. Cela permet de réduire le nombre de comparaisons de critères.
17.4.9.2.3 Méthode du scoring pondéré
Dans une méthode de mise en correspondance basée sur des règles, l'application donne la même importance (ou la même pondération) à tous les critères. En d'autres termes, si un critère n'atteint pas le score de correspondance spécifié, l'application détermine que les enregistrements ne correspondent pas.
Lorsque vous utilisez la méthode de scoring pondéré, vous vous basez sur le score de contribution total pour déterminer les correspondances au lieu d'utiliser des scores de correspondance et non-correspondance.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
467
Valeurs de contribution
Les valeurs de contribution correspondent à votre manière d'affecter une pondération à des critères individuels.
Plus la valeur est élevée, plus le critère a une pondération élevée pour déterminer les correspondances. En règle générale, les critères susceptibles d'avoir une pondération plus élevée que les autres sont les numéros de compte, les numéros de sécurité sociale, les numéros client, le code postal1 et les adresses.
Remarque
Toutes les valeurs de contribution pour tous les critères concernés doivent être égales à 100. Il n'est pas nécessaire d'avoir une valeur de contribution pour tous les critères.
Vous pouvez définir la valeur de contribution d'un critère dans l'option Contribution aux scores pondérés du groupe d'options Critère.
Score de contribution et score de contribution total
La transformation Match génère le score de contribution pour chaque critère en multipliant la valeur de contribution affectée par le score de similarité (pourcentage). Ces scores de contribution individuels sont ensuite ajoutés au score de contribution total.
Score de correspondance pondéré
Dans la méthode de scoring pondéré, les correspondances sont déterminées uniquement en comparant le score de contribution total au score de correspondance pondéré. Si le score de contribution total est égal ou supérieur au score de correspondance pondéré, les enregistrements sont considérés comme une correspondance. Si le score de contribution total est inférieur au score de correspondance pondéré, les enregistrements sont considérés comme une non-correspondance.
Vous pouvez définir le score de correspondance pondéré dans l'option
Score de correspondance pondéré
du groupe d'options Niveau.
Exemple
La table suivante illustre la configuration du scoring pondéré. Notez les différents types de scores qui ont été abordés dans ce chapitre. Notez aussi ce qui suit :
● Lors de la configuration du scoring pondéré, l'option
Aucun score de correspondance
doit être définie sur -1 et l'option
Score de correspondance
doit être définie sur 101. Ces valeurs permettent de s'assurer que ni une correspondance ni une non-correspondance ne peuvent être trouvées à l'aide de ces scores.
● Une valeur de contribution a été affectée au critère Adresse électronique lui attribuant l'importance la plus
élevée.
468
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 212 :
Critère
Prénom
Nom
Adresse
électroni que
Enregis trement A
Enregistre ment B
Mary
Smith ms@ sap.com
Mary
Smitt msmith@ sap.com
-1
-1
Aucune corres pondance
-1
Corres pondance
101
101
101
Score de similarité
100
80
84
Valeur de contribu tion
25
25
50
Score de contribution
(similarité x valeur de contribution)
25
20
42
Score de contribution to tal : 87
Si le score de correspondance pondéré est égal à 87, toute comparaison dont le score de contribution total est
égal ou supérieur à 87 est considérée comme une correspondance. Dans cet exemple, la comparaison est une correspondance, car le score de contribution total est égal à 87.
17.4.9.2.4 Méthode de combinaison
Cette méthode associe la correspondance basée sur une règle et par scoring pondéré.
Table 213 :
Critère
Prénom
Nom
Enregistre ment A
Enregistre ment B
Mary
Smith ms@ sap.com
Mary
Hope msmith@ sap.com
Aucune correspon dance
Correspon dance
Score de si milarité
Valeur de contribu tion
59
59
49
101
101
101
100
22
N/A
25
N/A (au cune cor respondance)
N/A
Score de contribution (si milarité réelle X valeur de contribution)
25
N/A
N/A
Score de contribu tion total
N/A
17.4.9.3 Règles de gestion relatives à la correspondance
Dans le cadre du processus de correspondance, il est essentiel de déterminer comment traiter les diverses formes de données et les différences qui existent entre elles. Si, par exemple, chaque champ d'un enregistrement correspond aux champs d'un autre enregistrement, mais qu'un champ est renseigné dans un enregistrement et non renseigné dans l'autre, voulez-vous que ces enregistrements soient considérés comme des correspondances ? Anticiper votre façon d'agir dans ces situations fait partie de la définition des règles de gestion. Les règles de gestion se définissent pour la plupart dans les critères de correspondance et certaines options basées sur le nom se définissent dans le groupe d'options Niveau de correspondance.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
469
17.4.9.3.1 Correspondance sur des chaînes, des abréviations et des initiales
Une partie de la définition de vos règles de gestion consiste à définir des paramètres pour la correspondance de chaînes, d'abréviations et d'initiales.
Pour en savoir plus sur la définition de scores pour les trois options suivantes, voir les sections Critères de correspondance du Guide de référence.
Table 214 :
Option
Score d'ajustement des initiales
Score d'ajustement des abréviations
Score d'ajustement des sous-chaînes
Description
Permet de mettre en correspondance des initiales et des mots entiers. Par exemple, «Prestataires internationaux de soins» peut être mis en correspondance avec «PIS».
Permet de mettre en correspondance des mots entiers et des abréviations. Par exemple, «Prestataires internationaux de soins» peut être mis en correspondance avec «Prestataires in ternat. de soins».
Permet de mettre en correspondance des chaînes dévelop pées et des chaînes abrégées. Par exemple, la chaîne «Pein ture et décapage Mayfield » peut être mise en correspon dance avec «Peinture Mayfield».
17.4.9.3.2 Correspondance d'abréviation étendue
La correspondance d'abréviation étendue offre des fonctionnalités permettant de gérer des situations non couvertes par les options
Score d'ajustement des initiales
,
Score d'ajustement des sous-chaînes
et
Score d'ajustement des abréviations
. Vous pouvez, par exemple, vous trouvez dans l'un des cas suivants :
● Imaginons que vos données contiennent des localités comme La Crosse et New York. Vous disposez aussi de ces mêmes localités indiquées sous la forme LaCrosse et NewYork (sans espaces). Dans le cadre d'une correspondance standard, vous ne pourriez pas désigner ces localités (La Crosse/LaCrosse et New York/
NewYork) comme des correspondances à 100 % en raison des espaces. (Il s'agirait normalement d'une correspondance à 94 et 93 %.)
● Imaginons que vos données contiennent Metropolitan Life et MetLife (une abréviation et une combinaison de
Metropolitan Life). L'option
Score d'ajustement des abréviations
ne peut pas détecter la combinaison des deux mots.
Si vous êtes dans l'un de ces cas, vous devez utiliser l'option
Score d'ajustement des abréviations ext
.
Fonctionnement du score d'ajustement
Le score que vous définissez dans l'option
Score d'ajustement des abréviations ext
ajuste votre score de similarité pour prendre en compte ces types d'abréviations et de combinaisons dans vos données.
470
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Le score d'ajustement ajoute une pénalité pour la partie non correspondante des mots. Plus le nombre est élevé, plus la pénalité est faible. Un score de 100 signifie aucune pénalité et un score de 0 une pénalité maximum.
Exemple
Table 215 :
Chaîne 1 Chaîne 2
MetLife
MetLife
MetLife
Metropolitan Life
Met Life
MetropolitanLife
58
93
60
Score de si mil. lorsque le score d'ajust. est de 0
Score de si mil. lorsque le score d'ajust. est de 50
79
96
60
Score de si mil. lorsque le score d'ajust. est de 100
Notes
100
100
60 Ce score est dû à la comparaison des chaî nes. Le scoring d'abréviation étendue n'a pas été nécessaire ou utilisé, car les deux chaînes comparées comptent chacune un mot.
17.4.9.3.3 Correspondance de noms
Lorsque vous créez vos règles de gestion, vous devez notamment définir comment les noms doivent être traités dans le processus de correspondance. La transformation Match vous fournit plusieurs moyens de vous assurer que les variations de noms ou noms multiples, par exemple, sont prises en compte.
Remarque
Contrairement à d'autres règles de gestion, ces options sont configurées dans le groupe d'options Niveau de correspondance, car elles affectent tous les critères de correspondance appropriés basés sur le nom.
Deux noms, deux personnes
L'option
Nombre de noms devant correspondre
vous permet de contrôler comment la correspondance est effectuée sur les clés de correspondance comportant plusieurs noms (par exemple, comparaison de "John et
Mary Smith" et de "Dave et Mary Smith"). Déterminez si un seul nom doit correspondre pour que les enregistrements soient identifiés comme correspondance ou si la transformation Match doit ignorer les personnes autres que le premier nom analysé.
Avec cette méthode, vous pouvez demander à ce qu'une personne ou les deux correspondent pour que l'enregistrement corresponde.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
471
Deux noms, une personne
L'option
Comparer Prénom1 avec Prénom2
vous permet aussi de comparer les données Prénom1 (prénom) d'un enregistrement avec les données Prénom2 (deuxième prénom) du deuxième enregistrement. Avec cette option, la transformation Match peut correctement identifier les enregistrements correspondants, comme les deux partiellement indiqués ci-dessous : En règle générale, ces paires d'enregistrement représentent des enfants portant le nom de leurs parents, mais connus sous leur deuxième prénom.
Table 216 :
Enregistrement n° Prénom Deuxième prénom Nom de famille Adresse
170 Leo Thomas Smith 225 Pushbutton Dr
198 Tom Smith 225 Pushbutton Dr
Noms de famille avec trait d'union
L'option
Correspondance sur le nom de famille avec trait d'union
vous permet de contrôler comment la correspondance est effectuée si un champ Family_Name (nom de famille) contient un nom de famille avec trait d'union (par exemple, comparaison de "Smith-Jones" et "Jones"). Déterminez si pour les deux critères, les deux noms doivent correspondre ou juste un nom pour que les enregistrements soient désignés comme correspondance.
17.4.9.3.3.1 Correspondance des noms de famille composés
Le score des sous-chaînes approximatives aide à paramétrer la comparaison des noms de famille composés. Le score des sous-chaînes approximatives est affecté aux mots qui n'ont pas de correspondance dans une chaîne comparée. Cette option assouplit certaines des exigences de l'option Score d'ajustement des sous-chaînes comme suit :
● Il n'est pas nécessaire que les premiers mots correspondent exactement.
● Les mots qui ne correspondent pas peuvent utiliser des ajustements d'initiales et d'abréviations (par exemple, Rodriguez et RDZ).
● Les mots correspondants doivent être dans le même ordre, mais des mots non correspondants peuvent être placés avant ou après les mots correspondants.
● Le score des sous-chaînes approximatives est affecté aux mots et aux espaces sans correspondance dans la chaîne comparée.
L'option Score d'ajustement des sous-chaînes approximatives améliore le score pour certaines correspondances trouvées à l'aide du score d'ajustement des sous-chaînes.
Exemple
Dans une comparaison de CRUZ RODRIGUEZ et GARCIA CRUZ DE RDZ, les scores de similarité sont les suivants :
472
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Sans définir aucun ajustement, le score de similarité est de 48.
● Si vous définissez le score d'ajustement des sous-chaînes sur 80 et le score d'abréviations sur 80, le score de similarité est de 66.
● Si vous définissez le score d'ajustement des sous-chaînes approximatives sur 80 et le score d'abréviations sur 80, le score de similarité est de 91.
17.4.9.3.4 Correspondance des données numériques
Utilisez l'option
Les mots numériques correspondent parfaitement
pour déterminer si les données comportant une combinaison de chiffres et de lettres doivent correspondre parfaitement. Vous pouvez également spécifier
comment ces données doivent correspondre. Cette option s'applique le plus souvent aux données d'adresse et aux données personnalisées, comme les numéros de référence.
Le processus de correspondance numérique est le suivant :
1. La chaîne est d'abord décomposée en mots. La décomposition de mots est effectuée sur toutes les ponctuations et les espaces, puis les mots se voient affecter un attribut numérique. Un mot numérique est un mot qui contient au moins un chiffre compris entre 0 et 9. Par exemple, 4L est considéré comme un mot numérique, contrairement à QuatreL.
2. La correspondance numérique est effectuée en fonction des options qui ont été définies (comme indiqué ciaprès).
Valeurs d'options et fonctionnement
Table 217 :
Valeur d'option
Any_Position
Same_Position
Description
Avec cette valeur, les mots numériques doivent correspondre parfaitement. Toutefois, l'empla cement du mot n'est pas important. Exemple :
● Comparaison de numéros et noms de rue : "4932 Main St # 101" et "# 101 4932 Main St" sont considérés comme une correspondance.
● Comparaison de numéros et noms de rue : "4932 Main St # 101" et "# 102 4932 Main St" ne
sont pas considérés comme une correspondance.
● Description de pièces : "ACCU 1.4L 29BAR" et "ACCU 29BAR 1.4L" sont considérés comme une correspondance.
Cette valeur indique que les mots numériques doivent correspondre parfaitement. Toutefois, elle diffère de l'option Any_Position, car l'emplacement du mot est important. Par exemple,
608-782-5000 correspond à 608-782-5000, mais ne correspond pas à 782-608-5000.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
473
Valeur d'option
Any_Position_Consi der_Punctuation
Description
Cette valeur effectue la décomposition de mots sur toutes les ponctuations et les espaces, sauf sur le séparateur de décimales (point ou virgule) de sorte à ce que les nombres décimaux ne soient pas fragmentés. Par exemple, la chaîne 123.456 est considérée comme un mot numérique unique, contrairement à deux mots numériques.
L'emplacement du mot numérique n'est pas important. Toutefois, les séparateurs de décimales ont un impact sur le processus de correspondance. Exemple :
● Description de pièces : "ACCU 29BAR 1.4L" et "ACCU 1.4L 29BAR" sont considérés comme une correspondance.
● Description de pièces : "ACCU 1,4L 29BAR" et "ACCU 29BAR 1.4L" ne sont pas considérés comme une correspondance en raison du séparateur de décimales entre le 1 et le 4 dans les deux cas.
● Données financières : "25,435" et "25.435" ne sont pas considérés comme une correspon dance.
Any_Position_Ignore_Punc tuation
Cette valeur est similaire à la valeur Any_Position_Consider_Punctuation, à la différence près que les séparateurs de décimales n'ont pas d'impact sur le processus de correspondance. Exem ple :
● Description de pièces : "ACCU 29BAR 1.4L" et "ACCU 1.4L 29BAR" sont considérés comme une correspondance.
● Description de pièces : "ACCU 1,4L 29BAR" et "ACCU 29BAR 1.4L" sont également considé rés comme une correspondance malgré la présence d'un séparateur de décimales entre le 1 et le 4.
● Description de pièces : "ACCU 29BAR 1.4L" et "ACCU 1.5L 29BAR" ne sont pas considérés comme une correspondance.
17.4.9.3.5 Correspondance de champs vides
Vous pouvez spécifier dans vos règles de gestion comment la transformation Match traite les comparaisons de champs lorsqu'un ou deux des champs comparés sont vides.
Par exemple, le champ Prénom est vide dans le second enregistrement ci-dessous. Voulez-vous que la transformation Match considère ces enregistrements comme des correspondances ? Que faire si le champ
Prénom est vide dans les deux enregistrements ?
Enregistrement n°1
John Doe
204 Main St
La Crosse WI
54601
Enregistrement n°2
_____ Doe
204 Main St
La Crosse WI
54601
La transformation Match contient des options qui permettent de contrôler la manière dont les champs sont comparés. Il s'agit des options suivantes :
474
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Opération pour deux champs vides
● Score pour deux champs vides
● Opération pour un champ vide
● Score pour un champ vide
Opérations pour champs vides
Les options "Opération" sont dotées des valeurs possibles suivantes :
Table 218 :
Option Description
Eval
Ignorer
Si vous sélectionnez Eval, la transformation Match évalue la comparaison à l'aide du score saisi dans l'op tion
Score pour un champ vide
ou
Score pour deux champs vides
.
Si vous sélectionnez Ignorer, le score de cette règle de champ ne contribue pas au score pondéré global pour la comparaison des enregistrements. En d'autres termes, les deux enregistrements ci-dessus pour raient être considérés comme des doublons malgré le champ vide.
Scores pour champs vides
Les options "Score" contrôlent comme la transformation Match évalue les comparaisons de champs lorsque le champ est vide dans un enregistrement ou dans les deux. Vous pouvez saisir des valeurs comprises entre 0 et
100.
Pour savoir quel score saisir, déterminez si vous voulez que la transformation Match considère un champ vide comme étant similaire à 0 % à un champ renseigné ou un autre champ vide comme étant similaire à 100 % ou une valeur intermédiaire.
Votre réponse dépend certainement du champ que vous comparez. Il peut être approprié d'attribuer un score
élevé à un champ vide si vous effectuez la correspondance sur un prénom, un deuxième prénom ou un nom de société, par exemple.
Exemple
Voici quelques exemples qui vous permettront de mieux comprendre comment les définitions de ces options de correspondances vides peuvent affecter le scoring global des enregistrements.
Opération pour un champ vide pour le champ Prénom1 défini sur Ignorer
Notez que lorsque vous définissez les options de champs vides sur Ignorer, la transformation Match redistribue la contribution attribuée à ce champ aux autres critères et recalcule les contributions des autres champs.
Table 219 :
Champs comparés Enregistrement A Enregistrement B % de similitude Contribution Score (par champ)
Code postal 54601 54601 100 20 (ou 22) 22
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
475
Champs comparés Enregistrement A Enregistrement B % de similitude Contribution Score (par champ)
Adresse 100 Water St 100 Water St 100 40 (ou 44) 44
Nom_de_famille
Prénom1
Hamilton
Mary
Hammilton 94
—
30 (ou 33)
10 (ou 0)
31
—
Score pondéré : 97
Opération pour un champ vide pour le champ Prénom1 défini sur Eval ; score pour un champ vide défini sur 0
Table 220 :
Champs comparés Enregistrement A Enregistrement B % de similitude Contribution Score (par champ)
Code postal
Adresse
Nom_de_famille
Prénom1
54601
100 Water St
Hamilton
Mary
54601
100 Water St
Hammilton
100
100
94
0
20
40
30
10
20
40
28
0
Score pondéré : 88
Opération pour un champ vide pour le champ Prénom1 défini sur Eval ; score pour un champ vide défini sur 100
Table 221 :
Champs comparés Enregistrement A Enregistrement B % de similitude Contribution Score (par champ)
Code postal
Adresse
54601
100 Water St
54601
100 Water St
100
100
20
40
20
40
Nom_de_famille
Prénom1
Hamilton
Mary
Hammilton 94
100
30
10
28
10
Score pondéré : 98
17.4.9.3.6 Comparaison de champs multiples (champs croisés)
Dans la plupart des cas, vous utilisez un champ unique pour la comparaison. Par exemple, le Champ1 du premier enregistrement est comparé au Champ1 du deuxième enregistrement.
Toutefois, il peut être utile dans certains cas de comparer des champs multiples. Supposons, par exemple, que vous souhaitiez faire correspondre des numéros de téléphone du champ Téléphone à des numéros issus de champs utilisés pour Télécopieur, Portable et Domicile. Vous pouvez le faire grâce à la comparaison de champs multiples.
Lorsque vous activez la comparaison de champs multiples dans l'onglet Comparaison de champs multiples d'un critère de correspondance dans l'éditeur de correspondance, vous pouvez faire correspondre des champs sélectionnés à tous les champs sélectionnés dans chaque enregistrement ou uniquement au même champ dans chaque enregistrement.
476
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Remarque
Par défaut, Match effectue une comparaison de champs multiples sur les champs où des standards de correspondance sont utilisés. Par exemple, Personne1_Prénom1 est automatiquement comparé à
Personne1_Prénom_Std_de_correspondance1-6. La comparaison de champs multiples n'a pas à être explicitement activée et aucune configuration supplémentaire n'est requise pour effectuer ce type de comparaison sur les champs contenant des standards de correspondance.
17.4.9.3.6.1 Comparaison de champs sélectionnés avec tous les champs sélectionnés dans d'autres enregistrements
Lorsque vous comparez chaque champ sélectionné à tous les champs sélectionnés dans d'autres enregistrements, tous les champs définis dans ce critère de correspondance sont comparés.
N'oubliez pas
Les champs «sélectionnés» incluent le champ de critères et tous les autres champs définis dans la table
Champs supplémentaires à comparer
.
● Si une ou plusieurs comparaisons de champs répondent aux définitions du score Match, les deux lignes comparées sont considérées comme des correspondances.
● Si une ou plusieurs comparaisons de champs dépassent le score Aucune correspondance, la règle est considérée comme approuvée et tous les autres critères définis/scoring pondéré sont évalués pour déterminer si les deux lignes sont considérées comme des correspondances.
Exemple
Exemple de comparaison de champs sélectionnés avec tous les champs sélectionnés dans d'autres enregistrements
Vos données d'entrée contiennent deux champs Société.
ID de ligne
1
2
Société1
Firstlogic
SAP BusinessObjects
Société2
Postalsoft
Firstlogic
Avec le score Match défini sur 100 et le score Aucune correspondance défini sur 99, ces deux enregistrements sont considérés comme des correspondances. Voici un résumé du processus de comparaison et des résultats.
● Tout d'abord, la ligne 1 Firm1 (Firstlogic) est comparée à la ligne 2 Firm1 (SAP).
Normalement, la comparaison de ces lignes devrait échouer, mais avec la comparaison de champs multiples activée, la décision Aucune correspondance n'est pas prise à ce stade.
● Ensuite, la ligne 1 Société2 est comparée à la ligne 2 Société2 et ainsi de suite jusqu'à ce que toutes les autres comparaisons soient effectuées entre tous les champs sur toutes les lignes. Comme la ligne 1
Société1 (Firstlogic) et la ligne 2 Société2 (Firstlogic) sont identiques à 100 %, les deux enregistrements sont considérés comme des correspondances.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
477
17.4.9.3.6.2 Comparaison de champs sélectionnés avec des champs identiques dans d'autres enregistrements
Lorsque vous comparez chaque champ sélectionné au même champ dans d'autres enregistrements, chaque champ défini dans l'onglet Comparaison de champs multiples d'un critère de correspondance est comparé uniquement au même champ dans d'autres enregistrements. Cela permet de configurer, au sein du critère, une condition OR pour répondre au critère. Chaque champ est utilisé pour déterminer une correspondance : Si
Champ_1, Champ_2 ou Champ_3 répond aux critères de correspondance, considérez les enregistrements comme une correspondance. Le score Aucune correspondance d'un champ peut éventuellement répondre aux critères lorsque vous utilisez la comparaison de champs multiples.
N'oubliez pas
Les champs «sélectionnés» incluent le champ de critères et tous les autres champs définis dans la table
Champs supplémentaires à comparer
.
Exemple
Exemple de comparaison de champs sélectionnés avec le même champ dans d'autres enregistrements
Vos données d'entrée contiennent un champ Téléphone, Télécopieur et Téléphone portable. Si des données de ces champs d'entrée sont identiques entre les lignes, les enregistrements sont considérés comme des correspondances.
ID de ligne
1
2
Téléphone
608-555-1234
608-555-4321
Télécopieur
608-555-0000
608-555-0000
Portable
608-555-4321
608-555-1111
Avec un score Match de 100 et un score Aucune correspondance de 99, les numéros de téléphone et de portable ne répondraient pas aux critères de correspondance s'ils étaient définis individuellement. Toutefois, comme les trois champs sont définis dans un seul critère et que les enregistrements sélectionnés sont comparés à des enregistrements identiques, ces enregistrements sont considérés comme une correspondance du fait que le numéro de télécopie est identique à 100 %.
Remarque
Dans l'exemple ci-dessus, le téléphone portable de la ligne 1 et le téléphone de la ligne 2 ne seraient pas considérés comme correspondance avec l'option
le même champ dans d'autres enregistrements
sélectionnée, car dans ce cas, la comparaison se fait uniquement dans le même champ. Si cette comparaison croisée est requise, sélectionnez à la place l'option
tous les champs sélectionnés dans d'autres enregistrements
.
478
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.4.9.3.7 Correspondance de proximité
La correspondance de proximité vous permet de faire correspondre des enregistrements en fonction de leur proximité au lieu de comparer la représentation des données sous forme de chaîne. Vous pouvez effectuer une correspondance sur la proximité géographique, numérique et la proximité de date.
Informations associées
Correspondance sur la proximité géographique [page 479]
Correspondance sur la proximité numérique ou la proximité de date [page 480]
17.4.9.3.7.1 Correspondance sur la proximité géographique
L'option Proximité géographique recherche des enregistrements en double basés sur la proximité géographique à l'aide d'informations de latitude et de longitude. Il ne s'agit pas de distance parcourue par la route, mais de distance géographique. Cette option utilise les coordonnées WGS 84 (GPS).
L'option Proximité géographique peut exécuter les fonctions suivantes :
● Rechercher des objets dans une plage radiale. Cette fonction peut être utile à une société qui souhaite envoyer un courrier à ses clients situés à une certaine distance de son site.
● Rechercher l'emplacement le plus proche. Cette fonction peut aider un consommateur à trouver le point de vente le plus proche de son domicile.
17.4.9.3.7.2 Configuration de la correspondance de proximité géographique - Champs de critères
Pour sélectionner des champs pour la correspondance de proximité géographique, procédez comme suit :
1. Accédez à l'éditeur de correspondance et ajoutez un nouveau critère.
2. Dans Critère disponible, développez
Géographique
.
3. Sélectionnez
LATITUDE_LONGITUDE
.
Les deux champs de critères peuvent alors être mappés.
4. Mappez les champs Latitude et Longitude appropriés. Vous devez mapper les deux champs.
17.4.9.3.7.3 Configuration de la correspondance de proximité géographique - Options critères
Pour pouvoir utiliser cette option, vous devez mapper les champs Latitude et Longitude.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
479
Pour effectuer une correspondance de proximité géographique, procédez comme suit :
1. Dans Comparaison des données à l'aide de, sélectionnez
Proximité géographique
.
Cela permet de filtrer les options sous Règles de comparaison pour afficher uniquement les options pertinentes.
2. Définissez l'option Unité de distance sur l'une des valeurs suivantes :
○
Miles
○
Feet
○
Kilomètres
○
Mètres
3. Entrez la
Distance max.
à prendre en compte pour la plage.
4. Définissez le
score de distance max.
Remarque
Une distance égale à la distance max. se voit attribuer un score de distance max. Toute distance inférieure à la distance max. se voit attribuer un score proportionnel compris entre le score de distance max. et 100. Par exemple, une proximité de 10 miles se voit attribuer un score supérieur à une proximité de 40 miles.
Remarque
Si les données de la distance max. sont susceptibles de varier d'une ligne à l'autre, vous devez entrer dynamiquement les données à l'aide du champ Option_Field_Algorithm_Geo_Proximity_
<logical_name>
_Max_Distance.
17.4.9.3.7.4 Correspondance sur la proximité numérique ou la proximité de date
Les options de proximité numérique de la transformation Match recherchent les doublons en fonction de la proximité numérique des données. Vous pouvez rechercher des doublons en fonction de valeurs numériques et de valeurs de date. Les options suivantes sont disponibles dans l'onglet Options de l'éditeur de critères de correspondance pour la correspondance numérique et de date :
Différence numérique
Recherche les doublons en fonction de la différence numérique pour les valeurs numériques ou les valeurs de date. Par exemple, vous pouvez utiliser cette option pour rechercher des doublons en fonction de valeurs de date dans une plage spécifique (plus ou moins 35 jours, par exemple), indépendamment de la similarité des caractères.
480
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Différence numérique en pourcentage
Recherche les doublons en fonction du pourcentage de différence numérique pour les valeurs numériques. Voici deux exemples dans lesquels cette option peut être utile :
● Domaine des données financières : vous pouvez effectuer une recherche dans les données financières pour trouver tous les paiements hypothécaires mensuels correspondant à 5 % d'une valeur donnée.
● Domaine des données produit : vous pouvez effectuer une recherche dans les données produit pour trouver toutes les tiges d'acier dont la tolérance correspond à 10 % d'une valeur donnée.
17.4.10 Traitement post-correspondance
17.4.10.1 Meilleur enregistrement
L'une des opérations clés des tâches de consolidation de données consiste à récupérer les données des enregistrements concordants (autrement dit, les membres des groupes de correspondance) et à transférer ces données dans un "meilleur enregistrement" ou dans tous les enregistrements concordants.
Pour exécuter ces fonctions, vous pouvez ajouter une opération de post-correspondance Meilleur enregistrement.
Opérations dans les groupes de correspondance
1
2
3
Les fonctions que vous exécutez à l'aide de l'opération Meilleur enregistrement impliquent la manipulation ou le transfert des données figurant dans les enregistrements principaux et subordonnés des groupes de correspondance. Les groupes de correspondance regroupent les enregistrements que la transformation Match a identifiés comme concordants en fonction du ou des critères que vous avez créés.
L'enregistrement principal est le premier enregistrement du groupe de correspondance. Vous pouvez déterminer l'enregistrement dont il s'agit en utilisant une opération Hiérarchisation du groupe avant l'opération Meilleur enregistrement.
Les enregistrements subordonnés sont tous les enregistrements restants d'un groupe de correspondance.
Le groupe de correspondance suivant illustre cette utilisation des enregistrements principaux et subordonnés :
Table 222 :
Enregistrement Nom Téléphone Date Classement dans le groupe
John Smith 11 avr 2001 Principal
John Smyth 788-8700 12 oct 1999 Subordonné
John E. Smith 788-1234 22 fév 1997 Subordonné
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
481
Enregistrement Nom
4 J. Smith
Téléphone Date
788-3271
Classement dans le groupe
Subordonné
Dans la mesure où il s'agit d'un groupe de correspondance, tous les enregistrements sont considérés comme concordants. Comme vous pouvez le constater, chaque enregistrement présente de légères différences. Certains enregistrements comportent des champs vides, d'autres présentent une date plus récente et tous ont des numéros de téléphone différents.
Dans ce groupe de correspondance, vous pouvez effectuer une opération courante consistant à transférer les données mises à jour à tous les enregistrements du groupe de correspondance. Vous pouvez choisir de transférer les données à l'enregistrement principal, à tous les membres subordonnés du groupe de correspondance ou à tous les membres du groupe de correspondance. Le numéro de téléphone le plus récent en constitue un bon exemple.
Autre exemple : la récupération des données utiles dans les enregistrements concordants avant de les ignorer.
Lorsque vous exécutez un fichier de permis de conduire par rapport à votre fichier interne, par exemple, vous pouvez récupérer les données de sexe et de date de naissance à ajouter à votre enregistrement interne.
Enregistrements avec la priorité la plus élevée en premier
Les opérations que vous configurez dans le groupe d'options Meilleur enregistrement doivent toujours commencer par le membre avec la priorité la plus élevée du groupe de correspondance (le principal) et se terminer par le dernier subordonné. Ainsi, les données sont récupérées de l'enregistrement avec la priorité la plus
élevée à l'enregistrement avec la priorité la plus basse.
Vous devez donc veiller à hiérarchiser les enregistrements correctement en ajoutant une opération de postcorrespondance Hiérarchisation du groupe avant l'opération Meilleur enregistrement.
17.4.10.1.1 Stratégies du meilleur enregistrement
Les stratégies fournies permettent de configurer facilement et rapidement des opérations courantes de meilleur enregistrement. Si aucune de ces stratégies ne répond à vos besoins, vous pouvez créer une stratégie du meilleur enregistrement personnalisée en utilisant votre propre code Python.
Les stratégies du meilleur enregistrement servent de critères pour exécuter des actions dans d'autres champs. Si les critères ne sont pas remplis, aucune action n'est exécutée.
Exemple
Dans l'exemple de mise à jour d'un champ Téléphone avec les données les plus récentes, la stratégie de date peut être utilisée avec la priorité la plus récente pour mettre à jour l'enregistrement principal avec le dernier numéro de téléphone dans le groupe de correspondance. Cette partie (mise à jour de l'enregistrement principal avec le dernier numéro de téléphone) correspond à l'action. Vous pouvez aussi mettre à jour tous les enregistrements dans le groupe de correspondance (l'enregistrement principal et tous les enregistrements subordonnés) ou uniquement les enregistrements subordonnés.
482
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Restriction
La stratégie de date n'analyse pas la date, car elle ignore comment les données sont formatées. Assurezvous que les données sont prédéfinies au format AAAAMMJJ afin que les comparaisons de chaînes fonctionnent correctement. Pour ce faire, vous pouvez aussi définir une stratégie personnalisée en utilisant le code Python pour analyser la date et utiliser une comparaison de dates.
17.4.10.1.1.1 Stratégies personnalisées du meilleur enregistrement et Python
Dans les stratégies du meilleur enregistrement prédéfinies, la transformation Match génère automatiquement le code Python qu'elle utilise pour le traitement. Ce code contient des variables requises pour la gestion du traitement.
Variables courantes
Les variables courantes contenues dans le code Python généré sont les suivantes :
Variable
SRC
DST
RET
Description
Désigne le champ source.
Désigne le champ de destination.
Désigne la valeur renvoyée, qui indique si la stratégie a réussi
(T) ou échoué (F).
Variables NEWDST et NEWGRP
Utilisez les variables NEWDST et NEWGRP pour que la publication des données dans votre action du meilleur enregistrement soit indépendante des champs de stratégie. Si vous n'incluez pas ces variables, les données du champ de stratégie doivent également être mises à jour.
Variable
NEWDST
Description
Indicateur de nouvelle destination Cette variable de chaîne porte la valeur "T" lorsque l'enregistrement de destination est nouveau ou qu'il a été modifié depuis la dernière évaluation de la stratégie et la valeur "F" lorsqu'il n'a pas été modifié depuis la dernière évaluation.
La variable NEWDST est utile uniquement si vous publiez vers plusieurs destinations telles que ALL ou SUBS dans l'option
Destination de publication
.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
483
Variable
NEWGRP
Description
Indicateur de nouveau groupe Cette variable de chaîne porte la valeur "T" lorsque le groupe de correspondance a été modifié depuis la dernière évaluation de la stratégie et la valeur "F" lorsqu'il n'a pas été modifié depuis la dernière
évaluation.
Exemple de NEWDST
Le code Python suivant a été généré à partir d'une stratégie NON_BLANK avec les options définies comme suit :
Définition
Stratégie du meilleur enregistrement
Priorité de la stratégie
Champ de stratégie
Destination de publication
Publier une seule fois par destination
des options
NON_BLANK
L'option de priorité n'est pas disponible pour la stratégie
NON_BLANK.
NORTH_AMERICAN_PHONE1_NORTH_AMERICAN_PHONE_
STANDARDIZED.
TOUS
OUI
Voici à quoi ressemble le code Python.
# Setup local temp variable to store updated compare condition dct = locals()
# Store source and destination values to temporary variables
# Reset the temporary variable when the destination changes if (dct.has_key('BEST_RECORD_TEMP') and NEWDST.GetBuffer() == u'F'):
DESTINATION = dct['BEST_RECORD_TEMP'] else:
DESTINATION =
DST.GetField(u'NORTH_AMERICAN_PHONE1_NORTH_AMERICAN_PHONE_STANDARDIZED')
SOURCE = SRC.GetField(u'NORTH_AMERICAN_PHONE1_NORTH_AMERICAN_PHONE_STANDARDIZED') if len(SOURCE.strip()) > 0 and len(DESTINATION.strip()) == 0:
RET.SetBuffer(u'T')
dct['BEST_RECORD_TEMP'] = SOURCE else:
RET.SetBuffer(u'F')
dct['BEST_RECORD_TEMP'] = DESTINATION
# Delete temporary variables del SOURCE del DESTINATION
Exemple
NEWDST et NEWGRP
Supposons que vous disposiez de deux groupes de correspondance, chacun contenant trois enregistrements.
Enregistrements
Groupe de correspondance 1 de groupe de correspondance
Enregistrement A
484
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Enregistrements
Groupe de correspondance 2 de groupe de correspondance
Enregistrement B
Enregistrement C
Enregistrement D
Enregistrement E
Enregistrement F
Table 223 :
Chaque nouvelle destination ou nouveau groupe de correspondance est marqué(e) d'un "T".
Comparaison NEWGRP
(T ou F)
F
F
F
F
F
F
F
F
F
T (nouveau groupe de cor respondance)
F
T (nouveau groupe de cor respondance)
NEWDST
(T ou F)
T (nouvelle destination "A")
F
T (nouvelle destination "B")
F
T (nouvelle destination "C")
F
T (nouvelle destination "D")
F
T (nouvelle destination "E")
F
T (nouvelle destination "F")
F
Enregistrement A > Enregistrement B
A > C
B > A
B > C
C > A
C > B
D > E
D > F
E > D
E > F
F > D
F > E
17.4.10.1.1.2 Création d'une stratégie prédéfinie du meilleur enregistrement
Assurez-vous d'ajouter une opération post-comparaison Meilleur enregistrement au niveau de correspondance approprié dans l'éditeur de correspondance. De plus, pensez à mapper les champs d'entrée pertinents pour qu'ils soient disponibles pour cette opération.
Cette procédure vous permet de générer rapidement les critères requis pour votre action du meilleur enregistrement. Les stratégies disponibles représentent des cas d'utilisation courants.
1. Saisissez un nom pour cette opération de meilleur enregistrement.
2. Sélectionnez une stratégie dans l'option
Stratégie du meilleur enregistrement
.
3. Sélectionnez une priorité dans l'option
Priorité de la stratégie
.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
485
La sélection des valeurs dépend de la stratégie que vous avez sélectionnée à l'étape précédente.
4. Sélectionnez un champ dans le menu déroulant
Champ de stratégie
.
Le champ que vous sélectionnez ici sert de critère pour déterminer si une action du meilleur enregistrement est exécutée.
Exemple
Le champ de stratégie sélectionné doit contenir des données correspondant à la stratégie que vous créez. Par exemple, si vous utilisez une stratégie de date la plus récente, assurez-vous que le champ sélectionné contient des données de date.
17.4.10.1.1.3 Création d'une stratégie personnalisée du meilleur enregistrement
1. Ajoutez une opération de meilleur enregistrement à votre transformation Match.
2. Saisissez un nom pour cette opération.
3. Dans l'option
Stratégie du meilleur enregistrement
, sélectionnez Personnalisé.
4. Sélectionnez un champ dans la liste déroulante
Champ de stratégie
.
5. Cliquez sur le bouton
Afficher/Modifier Python
pour créer votre code Python personnalisé et représenter votre stratégie personnalisée.
La fenêtre Editeur Python apparaît.
17.4.10.1.2 Actions du meilleur enregistrement
Les actions du meilleur enregistrement sont les fonctions que vous exécutez sur les données si le critère d'une stratégie est rempli.
Exemple
Supposons que vous souhaitiez mettre à jour les numéros de téléphone de l'enregistrement principal. Cela implique qu'un enregistrement subordonné dans le groupe de correspondance comporte une date plus récente et, par conséquent, qu'il existe certainement un nouveau numéro de téléphone pour la personne concernée.
Dans ce cas, vous devez paramétrer une action qui commande à la transformation Match de mettre à jour le champ des numéros de téléphone dans l'enregistrement principal (action) si une date plus récente existe dans le champ de date (stratégie).
17.4.10.1.2.1 Sources et destinations
Il est important de connaître les différences entre sources et destinations dans une action de meilleur enregistrement.
486
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
La source est le champ d'où vous extrayez des données et la destination est l'endroit où vous publiez les données.
Une source ou destination peut être un enregistrement principal ou subordonné dans un groupe de correspondance.
Exemple
Dans l'exemple du numéro de téléphone, l'enregistrement subordonné porte la date la plus récente ; ainsi, les données du champ Téléphone (la source) sont utilisées et publiées dans l'enregistrement principal ( la destination).
17.4.10.1.2.2 Publication une seule fois ou plusieurs fois par destination
Dans les options de meilleur enregistrement, vous pouvez choisir de publier vers une destination une seule fois ou plusieurs fois par action en définissant l'option
Publier une seule fois par destination
.
Vous pouvez stipuler que votre action de meilleur enregistrement s'arrête après sa première publication de données dans l'enregistrement de destination ou qu'elle poursuive avec les autres enregistrements de groupe de correspondance. Votre décision dépend de la nature des données que vous publiez et des enregistrements dans lesquels vous publiez. Les deux exemples ci-après illustrent les deux cas de figure.
Si vous publiez une seule fois dans chaque enregistrement de destination, une fois les données publiées pour un enregistrement spécifique, la transformation Match passe à l'exécution de l'action de meilleur enregistrement suivante (si plusieurs sont définies) ou à l'enregistrement suivant.
Si vous ne limitez pas l'action de cette manière, toutes les actions sont exécutées à chaque fois que la stratégie renvoie Vrai.
Indépendamment de cette définition, la transformation Match fonctionne toujours par ordre de priorité dans les membres du groupe de correspondance. En publiant dans l'enregistrement n°1 dans le graphique ci-dessous sans limiter la publication à une seule fois, on obtient le résultat suivant :
Table 224 :
Groupe de corres pondance
Enregistrement n°1
(principal)
Enregistrement n°2
(subordonné)
Enregistrement n°3
(subordonné)
Enregistrement n°4
(subordonné)
Action
Tout d'abord, l'action est tentée en utilisant comme source l'enregistrement ayant la priorité la plus
élevée (enregistrement n°2) parmi les autres enregistrements de groupe de correspondance.
Ensuite, l'action est tentée en utilisant comme source l'enregistrement suivant ayant la priorité la plus
élevée (enregistrement n°3).
Enfin, l'action est tentée en utilisant comme source l'enregistrement ayant la priorité la plus faible (en registrement n°4).
Dans cette dernière tentative, l'enregistrement n°4 était la dernière source utilisée pour l'action et peut donc être une source de données pour l'enregistrement de sortie. Cependant, si vous définissez votre action de meilleur enregistrement de sorte à publier une seule fois par enregistrement de destination, vous obtenez le résultat suivant :
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
487
Table 225 :
Groupe de correspon dance
Enregistrement n°1
(principal)
Enregistrement n°2
(subordonné)
Action
Tout d'abord, l'action est tentée en utilisant comme source l'enregistrement ayant la priorité la plus
élevée (enregistrement n°2) parmi les autres enregistrements de groupe de correspondance.
Si cette tentative réussit, la transformation Match considère que cette action de meilleur enregistre ment est terminée et passe à l'action suivante (le cas échéant) ou à l'enregistrement de sortie sui vant.
Si cette tentative échoue, la transformation Match passe au membre du groupe de correspondance ayant la priorité suivante la plus élevée et tente l'opération de publication.
Enregistrement n°3
(subordonné)
Enregistrement n°4
(subordonné)
Dans ce cas, l'enregistrement n°2 était la dernière source utilisée pour l'action de meilleur enregistrement ; par conséquent, il est la source des données publiées dans l'enregistrement de sortie.
17.4.10.1.2.3 Création d'une action du meilleur enregistrement
L'action du meilleur enregistrement correspond à la publication des données d'un enregistrement source vers un enregistrement de destination, basée sur les critères de votre stratégie du meilleur enregistrement.
1. Créez une stratégie prédéfinie ou personnalisée.
2. Sélectionnez le ou les enregistrements à publier dans l'option
Destination de publication
.
3. Définissez si vous voulez publier une seule fois ou plusieurs fois vers un enregistrement de destination dans l'option
Publier une seule fois par destination
.
4. Dans la table
Champs d'action du meilleur enregistrement
, sélectionnez votre champ source et votre champ de destination.
Lorsque vous sélectionnez un champ source, la colonne
Champ de destination
est automatiquement renseignée avec les données du même champ. Vous devez modifier le champ de destination s'il ne s'agit pas du champ dans lequel vous voulez publier vos données.
5. Pour créer une action du meilleur enregistrement personnalisée, sélectionnez Oui dans la colonne
Personnalisé
.
Vous pouvez à présent accéder à l'éditeur Python pour créer un code Python personnalisé pour votre action personnalisée.
17.4.10.1.3 Protection de destination
Les opérations Meilleur enregistrement et ID unique de la transformation Match vous permettent de modifier des enregistrements existants dans vos données. Vous pouvez être amené à devoir protéger des données
488
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
d'enregistrements spécifiques ou des données d'enregistrements de sources d'entrée spécifiques contre tout risque d'écrasement.
L'onglet Protection de destination des opérations de la transformation Match vous permet de protéger vos données contre d'éventuelles modifications.
17.4.10.1.3.1 Protection des enregistrements de destination via des champs
1. Dans l'onglet Protection de destination, sélectionnez
Activer la protection de la destination
.
2. Sélectionnez une valeur dans la liste déroulante de l'option
Protection de destination par défaut
.
Cette valeur détermine si une destination est protégée dans le cas où le champ de protection de destination ne comporte pas de valeur valide.
3. Sélectionnez l'option
Spécifier la protection de destination par champ
, puis sélectionnez un champ dans la liste déroulante
Champ de protection de destination
(ou le
Champ ID unique protégé
).
Le champ sélectionné doit comporter une valeur O ou N pour spécifier l'action.
Tout enregistrement portant la valeur O dans le champ de protection de destination est protégé contre toute modification.
17.4.10.1.3.2 Protection des enregistrements de destination basée sur l'appartenance dans une source d'entrée
Pour pouvoir exécuter cette tâche, vous devez au préalable ajouter une opération Source d'entrée et définir des sources d'entrée.
1. Dans l'onglet Protection de destination, sélectionnez
Activer la protection de la destination
.
2. Sélectionnez une valeur dans la liste déroulante de l'option
Protection de destination par défaut
.
Cette valeur détermine si une destination (source d'entrée) est protégée dans le cas où vous ne définissez pas spécifiquement la source dans la table.
3. Sélectionnez l'option
Spécifier la protection destinataire par source
.
4. Sélectionnez une source d'entrée dans la première ligne de la colonne
Nom de source
, puis sélectionnez une valeur dans la colonne
Destination protégée
(ou
ID unique protégé
).
Répétez cette opération pour chaque source d'entrée pour laquelle vous voulez définir une protection.
N'oubliez pas que si vous ne spécifiez pas de protection pour chaque source, la valeur par défaut est utilisée.
17.4.10.2 ID unique
Un ID unique correspond à un champ dans vos données qui contient une valeur unique associée à un enregistrement ou groupe d'enregistrements. Vous pouvez, par exemple, utiliser un ID unique dans la base de
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
489
données interne de votre société pour recevoir les mises à jour à un intervalle prédéfini (chaque semaine, chaque mois ou chaque trimestre). L'ID unique s'applique à un enregistrement de données de la même façon qu'un numéro d'identification national peut s'appliquer à une personne, comme dans le cas du numéro de sécurité sociale aux Etats-Unis et du numéro d'assurance national au Royaume-Uni. Il crée et suit les relations entre les données d'une exécution à l'autre. L'opération ID unique permet de définir votre propre ID de départ pour la génération de nouvelles clés ou de paramétrer une affectation dynamique sur la base des données existantes.
L'opération de traitement post-correspondance ID unique permet également de commencer à l'endroit où l'ID unique le plus élevé de l'exécution précédente s'est terminé.
Rôle des ID uniques dans les groupes de correspondance
L'ID unique n'affecte pas nécessairement un ID à chaque enregistrement. Vous pouvez affecter le même ID à chaque enregistrement d'un groupe de correspondance (groupes d'enregistrements identifiés comme des correspondances).
Si vous affectez des ID directement à un groupe de décomposition, utilisez l'option
Champ Numéro de groupe
pour indiquer les enregistrements à regrouper. Par ailleurs, veillez à ce que les enregistrements soient triés par numéro de groupe afin que les enregistrements portant le même numéro de groupe apparaissent conjointement.
Si vous affectez des ID à des enregistrements faisant partie d'un groupe de correspondance obtenu à partir du processus de correspondance, vous n'avez pas à utiliser le
champ Numéro de groupe
.
Remarque
Si vous affectez des ID directement à un groupe de décomposition et que le
champ Numéro de groupe
n'est pas défini, le processus de correspondance considère la collection de données complète comme un seul groupe de correspondance.
17.4.10.2.1 Options de traitement des ID uniques
L'opération de traitement post-comparaison ID unique combine les informations de mise à jour de la source et les informations de la base de données principale pour former une seule source d'informations de groupe de correspondance. L'opération peut ensuite affecter, combiner, fractionner et supprimer des ID uniques si nécessaire. Pour ce faire, utilisez l'option
Traitement de l'opération en cours
.
490
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 226 :
Opération
Affecter
Description
Affecter un nouvel ID à des enregistrements uniques dépourvus d'ID ou à tous les membres d'un groupe dépourvus d'ID. De plus, l'opération Affecter copie un ID existant si un membre d'un groupe de correspon dance est déjà doté d'un ID.
Une valeur est affectée à chaque enregistrement.
● Les enregistrements d'un groupe de correspondance dans lequel un enregistrement avait un ID uni que d'entrée partagent cette valeur avec d'autres enregistrements du groupe de correspondance dé pourvu de valeur d'entrée. La première valeur trouvée est partagée. L'ordre est important : si un champ prioritaire peut être séquencé dans l'ordre croissant, placez une opération post-comparaison
Hiérarchisation avant l'opération ID unique.
● Les enregistrements d'un groupe de correspondance dans lequel deux enregistrement ou plus avaient différentes valeurs d'entrée ID unique conservent chacun leur valeur d'entrée.
● Si tous les enregistrements d'un groupe de correspondance ne sont pas dotés d'une valeur d'entrée
ID unique, le prochain ID disponible sera affecté à chaque enregistrement du groupe.
Si le champ d'entrée GROUP_NUMBER est utilisé, les enregistrements dotés du même numéro de groupe doivent apparaître de manière consécutive dans la collection de données.
Remarque
Utilisez le champ d'entrée GROUP_NUMBER uniquement pour traiter un groupe de décomposition sus ceptible de contenir des groupes de correspondance plus petits. Si le champ GROUP_NUMBER n'est pas spécifié, l'opération ID unique suppose que la collection entière forme un seul groupe.
AffecterCombiner Exécute à la fois une opération Affecter et Combiner.
Une valeur est affectée à chaque enregistrement.
● Les enregistrements qui étaient dépourvus d'une valeur ID unique d'entrée et qui ne correspondent pas à d'autres enregistrements contenant une valeur ID unique d'entrée sont affectés au prochain ID disponible. Il s'agit d'enregistrements d'"ajout" qui pourraient être des enregistrements uniques ou des correspondances, mais pas avec un autre enregistrement préalablement affecté à une valeur ID unique.
● Les enregistrements d'un groupe de correspondance dans lequel un ou plusieurs enregistrements avaient un ID unique d'entrée avec la même valeur ou des valeurs différentes partagent la première valeur trouvée avec tous les autres enregistrements du groupe de correspondance. L'ordre est im portant : si un champ prioritaire peut être séquencé dans l'ordre croissant, placez une opération postcomparaison Hiérarchisation avant l'opération ID unique.
Si le champ d'entrée GROUP_NUMBER est utilisé, les enregistrements dotés du même numéro de groupe doivent apparaître de manière consécutive dans la collection de données.
Remarque
Utilisez le champ d'entrée GROUP_NUMBER uniquement pour traiter un groupe de décomposition sus ceptible de contenir des groupes de correspondance plus petits. Si le champ GROUP_NUMBER n'est pas spécifié, l'opération ID unique suppose que la collection entière forme un seul groupe.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
491
Opération
Combiner
Supprimer
Description
Garantit que les enregistrements d'un même groupe de correspondance sont dotés du même ID unique.
Par exemple, cette opération peut être utilisée pour affecter à tous les membres d'un foyer le même ID unique. Plus précisément, si un foyer compte deux personnes qui partagent le même ID unique et qu'une troisième personne les rejoint avec un ID unique différent, l'opération Combiner peut être utilisée pour af fecter le même ID aux trois personnes du foyer.
Le premier enregistrement d'un groupe de correspondance portant un ID unique est celui doté de la prio rité la plus élevée. Les autres enregistrements du groupe se voient affecter l'ID de cet enregistrement (en supposant que l'enregistrement en question ne soit pas protégé). L'opération Combiner n'affecte pas d'ID unique à un enregistrement qui n'a pas déjà un ID unique. Elle combine simplement l'ID unique des enre gistrements d'un groupe de correspondance déjà dotés d'un ID unique.
Si le champ d'entrée GROUP_NUMBER est utilisé, les enregistrements dotés du même numéro de groupe doivent apparaître de manière consécutive dans la collection de données.
Remarque
Utilisez le champ d'entrée GROUP_NUMBER uniquement pour traiter un groupe de décomposition sus ceptible de contenir des groupes de correspondance plus petits. Si le champ GROUP_NUMBER n'est pas spécifié, l'opération ID unique suppose que la collection entière forme un seul groupe.
Supprime les ID uniques des enregistrements qui n'en ont plus besoin, à condition qu'ils ne soient pas pro tégés contre la suppression. Si vous utilisez un fichier et que vous recyclez des ID, ces ID sont ajoutés au fichier. Lors d'une suppression, les enregistrements dotés du même ID unique doivent être regroupés.
Lorsque Match détecte qu'un groupe d'enregistrements doté du même ID unique est sur le point d'être supprimé :
● Si des enregistrements sont protégés, tous les enregistrements du groupe sont considérés comme
étant protégés.
● Si le recyclage est activé, l'ID unique est recyclé une fois seulement, même si un groupe d'enregistre ments portaient le même ID.
492
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Opération
Fractionner
Description
Modifie les enregistrements uniques d'un groupe fractionné de sorte que les enregistrements n'apparte nant pas au même groupe de correspondance porte un ID différent. L'enregistrement avec la priorité la plus élevée au sein du groupe conserve son ID unique. Les autres se voient affecter de nouveaux ID uni ques.
Pour cette opération, vous devez regrouper vos enregistrements par ID unique plutôt que par numéro de groupe de correspondance.
Exemple :
● Les enregistrements d'un groupe de correspondance dans lequel deux enregistrements ou plus por taient des valeurs d'entrée ID unique différentes ou des valeurs vides conservent chacun leur valeur d'entrée, renseignée ou vide selon l'enregistrement en question.
● Les enregistrements qui étaient dépourvus d'une valeur ID unique d'entrée et qui ne correspondaient pas à d'autres enregistrements contenant une valeur ID unique d'entrée se voient affecter un ID uni que vide de sortie.
● Pour les enregistrements qui étaient pourvus de la même valeur ID unique d'entrée et qui ne sont plus considérés comme des correspondances, le premier enregistrement porte la valeur d'entrée. Les au tres enregistrements se voient affecter de nouvelles valeurs ID unique.
17.4.10.2.2 Protection des ID uniques
La sortie de l'ID unique dépend du fait que le champ d'entrée dans l'enregistrement concerné est doté ou non d'une valeur qui indique que l'ID est protégé.
● Si le champ ID unique protégé n'est pas mappé comme champ d'entrée, Match suppose qu'aucun des enregistrements n'est protégé.
● Deux valeurs sont autorisées dans ce champ : O et N. Tout autre valeur est convertie en O.
La valeur N signifie que l'ID unique n'est pas protégé et que l'ID publié à la sortie peut être différent de l'ID d'entrée.
La valeur O signifie que l'ID unique est protégé et que l'ID publié à la sortie sera identique à l'ID d'entrée.
● Si le champ ID unique protégé est mappé comme champ d'entrée, une valeur autre que N signifie que les données d'entrée de l'enregistrement seront conservées dans le champ ID unique de sortie.
Ces règles de champs protégés s'appliquent à toutes les opérations de traitement ID unique.
17.4.10.2.3 Limitations des ID uniques
Le fait que certaines options dans l'opération ID unique soient basées sur la lecture d'un fichier ou la référence à une valeur de champ peut avoir des conséquences lorsque vous exécutez un environnement de serveur multiple ou serveur en temps réel et que vous partagez un fichier ID unique.
● Si vous lisez un fichier ou écrivez dans un fichier, le fichier ID unique doit figurer dans un système de fichiers partagés.
● Les ID recyclés sont utilisés dans l'ordre premier entré, premier sorti. Lorsque la transformation Match recycle un ID, elle ne vérifie pas s'il est déjà présent dans le fichier. Vous devez vous assurer qu'une valeur ID unique donnée n'est pas recyclée plus d'une fois.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
493
17.4.10.2.4 Affectation d'ID uniques à l'aide d'un champ
1. Dans le groupe d'options ID unique, sélectionnez l'option
Valeur à partir du fichier
.
2. Définissez le nom du fichier et son chemin d'accès dans l'option
Fichier
.
Le fichier doit être au format XML et respecter la structure suivante :
<UniqueIdSession>
<CurrentUniqueId>477</CurrentUniqueId>
</UniqueIdSession>
Remarque
La valeur 477 est un exemple de valeur de départ. Toutefois, la valeur doit être au moins égale à 1.
17.4.10.2.5 Affectation d'ID uniques à l'aide d'une constante
De même qu'avec un fichier, vous pouvez affecter un ID unique de départ en définissant cette valeur.
1. Sélectionnez l'option
Valeur constante
.
2. Définissez l'option
Valeur de départ
sur la valeur d'ID souhaitée.
17.4.10.2.6 Affectation d'ID uniques à l'aide d'un champ
L'option de champ permet d'envoyer l'ID unique de départ via un champ dans votre source de données ou à partir d'une transformation User-Defined, par exemple.
L'ID unique de départ est transmis à la transformation Match avant que le premier nouvel ID unique ne soit demandé. Si aucun ID unique n'est reçu, le numéro de départ par défaut est le 1.
Attention
Attention lorsque vous utilisez l'option de champ ! Le champ que vous utilisez doit contenir la valeur d'ID unique par laquelle vous voulez que débute la numérotation séquentielle. Cela signifie que chaque enregistrement traité doit contenir ce champ et que chaque enregistrement doit avoir la même valeur dans ce champ.
Par exemple, supposons que vous utilisez la valeur 100 000. Lors du traitement, le premier enregistrement ou groupe de correspondance aura un ID de 100 001. Le second enregistrement ou groupe de correspondance aura un ID de 100 002, etc.
La valeur du premier enregistrement transmise à la transformation Match contient la valeur de début de l'incrémentation.
Il est impossible de savoir à l'avance quel enregistrement sera transmis à la transformation Match en premier
(en raison du tri, par exemple) ; par conséquent, il est impossible de savoir par quelle valeur débutera l'incrémentation.
494
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
1. Sélectionnez l'option
Champ
.
2. Dans l'option
Champ ID unique de départ
, sélectionnez le champ contenant la valeur de l'ID unique de départ.
17.4.10.2.7 Affectation d'ID uniques à l'aide d'un GUID
Vous pouvez utiliser un identificateur global unique (GUID) comme ID unique.
Sélectionnez l'option
GUID
.
Le GUID est également appelé identificateur unique universel (UUID). La variante de l'UUID utilisée pour l'ID unique est une chaîne temporelle de 36 caractères au format : TimeLow-TimeMid-TimeHighAndVersion-
ClockSeqAndReservedClockSeqLow-Node
Pour en savoir plus sur l'UUID, voir le document RFC (Request for Comments) sur http://www.ietf.org/rfc/ rfc4122.txt
.
17.4.10.2.8 Recyclage des ID uniques
Si des ID uniques sont supprimés avec l'option de traitement Supprimer, vous pouvez les réécrire dans un fichier pour les utiliser ultérieurement.
1. Dans le groupe d'options ID unique, définissez l'option
Traitement de l'opération en cours
sur
Supprimer
.
2. Sélectionnez l'option
Valeur à partir du fichier
.
3. Définissez le nom du fichier et son chemin d'accès dans l'option
Fichier
.
4. Définissez l'option
Recycler les ID uniques
sur
Oui
. Ce fichier est le même que celui qui peut être utilisé pour affecter un numéro ID de départ.
17.4.10.2.8.1 Utilisation de vos propres ID uniques recyclés
Si vous disposez d'ID que vous voulez recycler et utiliser dans un flux de données, vous pouvez les saisir dans un fichier à utiliser pour le recyclage des ID et la publication d'une valeur de départ pour les ID. Saisissez ces ID dans une balise XML <R></R>. Par exemple :
<UniqueIdSession>
<CurrentUniqueId>477</CurrentUniqueId>
<R>214</R>
<R>378</R>
</UniqueIdSession>
17.4.10.2.9 Protection de destination
Les opérations Meilleur enregistrement et ID unique de la transformation Match vous permettent de modifier des enregistrements existants dans vos données. Vous pouvez être amené à devoir protéger des données
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
495
d'enregistrements spécifiques ou des données d'enregistrements de sources d'entrée spécifiques contre tout risque d'écrasement.
L'onglet Protection de destination des opérations de la transformation Match vous permet de protéger vos données contre d'éventuelles modifications.
17.4.10.2.9.1 Protection des enregistrements de destination via des champs
1. Dans l'onglet Protection de destination, sélectionnez
Activer la protection de la destination
.
2. Sélectionnez une valeur dans la liste déroulante de l'option
Protection de destination par défaut
.
Cette valeur détermine si une destination est protégée dans le cas où le champ de protection de destination ne comporte pas de valeur valide.
3. Sélectionnez l'option
Spécifier la protection de destination par champ
, puis sélectionnez un champ dans la liste déroulante
Champ de protection de destination
(ou le
Champ ID unique protégé
).
Le champ sélectionné doit comporter une valeur O ou N pour spécifier l'action.
Tout enregistrement portant la valeur O dans le champ de protection de destination est protégé contre toute modification.
17.4.10.2.9.2 Protection des enregistrements de destination basée sur l'appartenance dans une source d'entrée
Pour pouvoir exécuter cette tâche, vous devez au préalable ajouter une opération Source d'entrée et définir des sources d'entrée.
1. Dans l'onglet Protection de destination, sélectionnez
Activer la protection de la destination
.
2. Sélectionnez une valeur dans la liste déroulante de l'option
Protection de destination par défaut
.
Cette valeur détermine si une destination (source d'entrée) est protégée dans le cas où vous ne définissez pas spécifiquement la source dans la table.
3. Sélectionnez l'option
Spécifier la protection destinataire par source
.
4. Sélectionnez une source d'entrée dans la première ligne de la colonne
Nom de source
, puis sélectionnez une valeur dans la colonne
Destination protégée
(ou
ID unique protégé
).
Répétez cette opération pour chaque source d'entrée pour laquelle vous voulez définir une protection.
N'oubliez pas que si vous ne spécifiez pas de protection pour chaque source, la valeur par défaut est utilisée.
17.4.10.3 Grouper statistiques
L'opération post-comparaison Grouper statistiques doit être ajoutée à tout niveau de correspondance et toute opération post-comparaison pour lesquels vous avez besoin de statistiques sur vos groupes de correspondance ou vos sources d'entrée.
496
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Cette opération peut aussi compter les statistiques de sources d'entrée logiques que vous avez déjà identifiées avec des valeurs dans un champ (prédéfini) ou de sources logiques que vous spécifiez dans l'opération Sources d'entrée.
Cette opération vous permet aussi d'exclure certaines sources logiques en fonction de vos critères.
Remarque
Si vous choisissez de compter les statistiques de sources d'entrée dans l'opération Grouper statistiques,
Match comptera aussi les statistiques de base sur vos groupes de correspondance.
Grouper champs de statistiques
Lorsque vous incluez une opération Grouper statistiques dans votre transformation Match, les champs suivants sont générés par défaut :
● GROUP_COUNT
● GROUP_ORDER
● GROUP_RANK
● GROUP_TYPE
De plus, si vous choisissez de générer des statistiques source, les champs suivants sont également générés et disponibles pour la sortie :
● SOURCE_COUNT
● SOURCE_ID
● SOURCE_ID_COUNT
● SOURCE_TYPE_ID
17.4.10.3.1 Génération de statistiques de base uniquement
Cette tâche permet de générer des statistiques sur vos groupes de correspondance, telles que le nombre d'enregistrements dans chaque groupe, les enregistrements principaux ou subordonnés, etc.
1. Ajoutez une opération Grouper statistiques à chaque niveau de correspondance souhaité en sélectionnant
Traitement post-correspondance
dans un niveau de correspondance, en cliquant sur le bouton
Ajouter
, puis en sélectionnant
Grouper statistiques
.
2. Sélectionnez
Générer uniquement les statistiques de base
.
3. Cliquez sur le bouton
Appliquer
pour sauvegarder vos modifications.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
497
17.4.10.3.2 Génération de statistiques pour toutes les sources d'entrée
Avant de démarrer cette tâche, assurez-vous d'avoir défini vos sources d'entrée dans l'opération Sources d'entrée.
Utilisez cette procédure pour générer des statistiques pour toutes vos sources au sein du job.
1. Ajoutez une opération Statistiques de groupe au niveau de correspondance approprié.
2. Sélectionnez l'option
Générer des statistiques source à partir des sources d'entrée
.
Des statistiques sont alors générées pour toutes les sources d'entrée que vous avez définies dans l'opération
Sources d'entrée.
17.4.10.3.3 Comptage des statistiques pour les sources d'entrée générées par des valeurs dans un champ
Pour cette tâche, il n'est pas nécessaire de définir des sources d'entrée avec l'opération Sources d'entrée. Vous pouvez spécifier des sources d'entrée pour Match en utilisant des valeurs dans un champ.
Cette tâche vous permet de générer des statistiques pour toutes les sources d'entrée identifiées par des valeurs dans un champ ou de générer des statistiques pour un sous-ensemble de sources d'entrée.
1. Ajoutez une opération Statistiques de groupe au niveau de correspondance approprié.
2. Sélectionnez l'option
Générer des statistiques source à partir des valeurs source
.
3. Sélectionnez un champ dans la liste déroulante
Champ de source logique
contenant les valeurs pour vos sources logiques.
4. Entrez une valeur dans le champ
Valeur source logique par défaut
.
Cette valeur est utilisée si le champ de source logique est vide.
5. Sélectionnez l'une des options suivantes :
Option
Compter toutes les sources
Sélectionner les sources
à compter
Description
Permet de compter toutes les sources. Si vous sélectionnez cette option, cliquez sur le bouton
Appliquer pour sauvegarder vos modifications. Cette tâche est terminée.
Permet de définir un sous-ensemble de sources d'entrée à compter. Si vous sélectionnez cette option, vous pouvez passer à l'étape 6 de la tâche.
6. Sélectionnez la valeur appropriée dans l'option
Indicateur de nombre par défaut
.
Sélectionnez Oui pour compter toute source non spécifiée dans la
table Définir manuellement des indicateurs de nombre de sources logiques
. Si vous ne spécifiez pas de source dans la table, vous comptez toutes les sources.
7. Sélectionnez
Générer automatiquement les sources
pour compter les sources en fonction d'une valeur dans un champ spécifié dans l'option
Champ de l'indicateur de nombre prédéfini
.
Si vous ne spécifiez pas de source dans la
table Définir manuellement des indicateurs de nombre de sources logiques
, vous indiquez à la transformation Match de compter toutes les sources en fonction de la valeur (Oui ou Non) de ce champ.
8. Dans la
table Définir manuellement des indicateurs de nombre de sources logiques
, ajoutez autant de lignes que nécessaire afin d'inclure toutes les sources à compter.
498
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Remarque
C'est le premier critère sur lequel se base la transformation Match pour déterminer s'il faut compter des sources.
9. Ajoutez une valeur source et un indicateur de nombre à chaque ligne pour indiquer à la transformation Match les sources à compter.
Conseil
Si vous disposez d'un grand nombre de sources, mais que vous voulez en compter deux uniquement, vous pouvez accélérer le temps de configuration en définissant l'option
Indicateur de nombre par défaut
sur Non et en configurant la
table Définir manuellement des indicateurs de nombre de sources logiques
pour compter ces deux sources. En utilisant la même méthode, vous pouvez configurer Statistiques de groupe de sorte à compter toutes les sources et non pas deux sources uniquement.
17.4.10.4 Sélection de l'indicateur de sortie
En ajoutant une opération Sélection de l'indicateur de sortie à chaque niveau de correspondance souhaité
(Traitement post-correspondance), vous pouvez marquer des types d'enregistrement spécifiques pour
évaluation ou routage en aval dans votre flux de données.
L'ajout de cette opération génère le champ de sortie Select_Record à inclure dans votre schéma de sortie. Ce champ de sortie est renseigné par un O ou un N selon le type d'enregistrement sélectionné dans l'opération.
Vos résultats apparaîtront dans le rapport Faire correspondre la sélection de sortie à la source d'entrée. Ce rapport vous permet de déterminer de quelle source ou groupe source proviennent les enregistrements et combien de chacun des types d'enregistrements ont été générés par source ou groupe source.
Table 227 :
Type d'enregistrement
Unique
Enregistrements principaux de source unique
Enregistrements subordonnés de source unique
Enregistrements principaux de sources multiples
Enregistrements subordonnés de sources multiples
Correspondances
Suppression
Description
Enregistrements n'appartenant à aucun groupe de correspondance. Aucun enregistrement cor respondant n'a été trouvé. Peuvent être issus de sources contenant une source Normal ou Spe cial.
Membre le plus haut placé d'un groupe de correspondance dont les membres sont tous issus de la même source. Peut être issu d'une source Normal ou Special.
Enregistrement issu d'une source Normal ou Special et membre subordonné d'un groupe de correspondance.
Membre le plus haut placé d'un groupe de correspondance dont les membres sont issus de deux sources ou plus. Peut être issu d'une source Normal ou Special.
Enregistrement subordonné d'un groupe de correspondance issu d'une source Normal ou Spe cial dont les membres sont issus de deux sources ou plus.
Membre subordonné d'un groupe de correspondance incluant un enregistrement de priorité su périeure issu d'une source de type Suppression. Peut être issu d'une source Normal ou Special.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
499
Type d'enregistrement
Enregistrements uniques
Suppression
Enregistrements principaux
Suppression
Enregistrements subordonnés Suppression
Description
Enregistrement issu d'une source Suppression pour lequel aucun enregistrement correspon dant n'a été trouvé.
Enregistrement issu d'une source Suppression et membre le plus haut placé d'un groupe de correspondance.
Enregistrement provenant d'une source de type Suppression et membre subordonné d'un groupe de correspondance.
17.4.10.4.1 Marquage des types d'enregistrements sources pour la sortie possible
1. Dans l'éditeur de correspondance, ajoutez une opération Sélection de l'indicateur de sortie pour chaque niveau de correspondance souhaité.
2. Sélectionnez les types d'enregistrements pour lesquels vous voulez renseigner le champ Select_Record par
O.
Le champ de sortie Select_Record peut être généré à partir de la transformation Match pour être utilisé en aval dans le flux de données. Cela peut s'avérer très utile si vous voulez ensuite séparer les correspondances de suppression ou les enregistrements principaux Suppression de vos données (à l'aide d'une transformation
Case, par exemple).
17.4.11 Correspondance par association
La correspondance par association combine les résultats de correspondance de deux sets de correspondance
(transformations) ou plus pour rechercher des correspondances qui n'ont pas été trouvées dans un set de correspondance unique.
Vous pouvez configurer la correspondance par association dans la transformation Associate. Cette transformation se comporte comme un autre set de correspondance dans votre flux de données, dont vous pouvez dériver des statistiques.
Ce set de correspondance a deux objectifs : Tout d'abord, il fournit un accès à toutes les données générées, à tous les niveaux de correspondance de tous les sets de correspondance. Ensuite, il fournit les résultats chevauchés de plusieurs critères, comme le nom et l'adresse avec le nom et le NSS sous forme d'ID unique. C'est ce que l'on appelle généralement la correspondance par association.
Numéros de groupe
La transformation Associate accepte un champ Numéro de groupe, généré par les transformations Match pour chaque résultat de correspondance qui doit être combiné. La transformation peut ensuite générer un nouveau numéro de groupe associé.
500
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
La transformation Associate peut s'exécuter sur tous les enregistrements d'entrée ou sur une collection de données à la fois. La collection de données est requise pour le support en temps réel.
Exemple
Exemple d'association
Imaginons que vous travailliez dans un collège technique et que vous souhaitiez envoyer des informations à tous les élèves avant la rentrée. Vous savez que beaucoup d'entre eux ont une adresse locale temporaire et une adresse permanente.
Dans cet exemple, vous pouvez effectuer une correspondance sur le nom, l'adresse et le code postal dans un set de correspondance et sur le nom et le numéro de sécurité sociale (NSS), disponible pour chaque étudiant, dans un autre set de correspondance.
La transformation Associate combine ensuite les deux sets de correspondance pour générer des groupes de correspondance associés. Cela vous permet d'identifier les personnes susceptibles d'avoir plusieurs adresses et donc d'optimiser vos efforts en termes de marketing et de courrier.
17.4.12 Correspondance Unicode
La correspondance Unicode vous permet de mettre en correspondance des données Unicode. Vous pouvez traiter toutes les données Unicode non Latin1, avec un traitement spécifique pour les données chinoises, japonais, coréennes et taïwanaises (ou CJKT).
Correspondance des données chinoises, japonais, coréennes et taïwanaises
Indépendamment de la langue propre à chaque pays, le processus de correspondance des données CJKT est identique. Par exemple, la transformation Match :
● Considère les caractères demi-largeur et pleine largeur de la même manière.
● Considère les chiffres de script natif et les chiffres arabes de la même manière. Elle peut interpréter des chiffres écrits dans un script natif. Cette fonction peut être contrôlée dans l'option Convertir le texte en chiffres du groupe d'options Critère.
● Inclut des variations pour les caractères des noms de personnes et de sociétés dans les données référentielles.
● Considère les termes d'entreprise tels que Société de la même manière que leur variante (Sté) lors du processus de comparaison. Pour trouver les abréviations, la transformation utilise des variations de script natif de l'alphabet anglais lors de la mise en correspondance des noms de société.
● Ignore les marqueurs facultatifs couramment utilisés pour la ville, le département, etc. dans la comparaison des données d'adresse.
● Traite intelligemment les variations dans un marqueur de bâtiment.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
501
Fonctionnalités de correspondance spécifiques au japonais
Avec les données japonaises, la transformation Match :
● Considère les marqueurs d'îlots (bâtiments) tels que chome et banchi de la même manière que ceux utilisés avec des données avec trait d'union.
● Considère les mots avec ou sans Okurigana de la même manière dans les données d'adresse.
● Considère les variations des marqueurs no, ga, etc. de la même manière.
● Considère les variations de trait d'union ou ligne en pointillé de la même manière.
Limitations de la correspondance Unicode
La fonction de correspondance Unicode ne prend pas en charge les opérations suivantes :
● Effectuer des conversions de données en chinois simplifié et traditionnel.
● Faire correspondre des scripts non phonétiques tels que le kanji, le chinois simplifié, etc.
Router des enregistrements en fonction de l'ID pays avant la mise en correspondance.
Avant d'envoyer les données Unicode dans le processus de correspondance, vous devez regrouper les données par pays pour séparer les transformations Match. Pour ce faire, vous devez utiliser une transformation Case qui permet de router les données propres au pays en fonction de l'ID pays.
Conseil
L'Assistant de correspondance peut exécuter cette tâche si vous utilisez la stratégie multinationale.
Mise en correspondance multi-scripts
La mise en correspondance multi-scripts vous permet de traiter des données susceptibles de contenir plusieurs scripts en convertissant les scripts en Latin1. Imaginons, par exemple, qu'un enregistrement contienne du Latin1 et l'autre du katakana ou l'un du latin et l'autre du cyrillique. Sélectionnez
Oui
pour activer la mise en correspondance multi-scripts. Si vous préférez traiter les données sans les convertir en Latin1, ne modifiez pas l'option Mise en correspondance multi-scripts définie sur
Non
. Voici deux exemples de noms pour lesquels une correspondance a été trouvée à l'aide de la mise en correspondance multi-scripts :
Table 228 :
Nom
Viktor Ivanov
Peut être mis en correspondance avec...
Виктор Иванов
502
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Nom
Takeda Noburu
Peut être mis en correspondance avec...
スッセ フレ
Paramètres régionaux
Cette option permet de définir les paramètres régionaux pour le champ Critère. La définition des paramètres régionaux est recommandée si vous avez l'intention d'utiliser la fonction Convertir le texte en chiffres pour spécifier les paramètres régionaux des données en vue de la conversion à des fins de correspondance. Voici quatre exemples de conversion de texte en chiffres :
Table 229 :
Langue
Français
Allemand
Italien
Espagnol
Texte quatre mille cinq cents soixante-sept dreitausendzwei cento ciento veintisiete
Chiffres
4567
3002
100
127
Pour plus d'informations sur ces options de correspondance, voir la section relative à la transformation Match du
Guide de référence.
17.4.12.1 Configuration de la correspondance Unicode
1. Utilisez une transformation Case pour router vos données vers une transformation Match qui traite ce type de données.
2. Ouvrez la configuration de la transformation
AddressJapan_MatchBatch
Match et enregistrez-la sous un nouveau nom.
3. Définissez l'option
Moteur de correspondance
dans les options de la transformation Match sur une valeur qui reflète le type de données traitées.
4. Configurez vos critères et autres opérations. Pour plus d'informations sur les options Critères Match, voir la section relative à la transformation Match du Guide de référence.
Exemple
● Dans la mesure du possible, utilisez des critères de composants analysés pour les données d'adresse, de société et de nom tels que Primary_Name ou Person1_Family_Name1.
● Si vous avez analysé des données d'adresse, de société et de nom qui n'ont pas de critère correspondant, utilisez les critères Address_Data1-5, Firm_Data1-3 et Name_Data1-3.
● Pour toutes les autres données sans critère correspondant, utilisez le critère Personnalisé.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
503
17.4.13 Critères de correspondance phonétiques
Dans certains cas, l'utilisation de données phonétiques comme critère peut produire un plus grand nombre de correspondances qu'une comparaison par rapport à d'autres critères comme le nom ou des données société.
Les fonctions Double Metaphone ou Soundex permettent de renseigner un champ et de l'utiliser pour créer des groupes de décomposition ou comme critère dans une correspondance.
Table 230 :
Fonction
Double metaphone
Soundex
Description
Encode la chaîne d'entrée à l'aide de l'algorithme Double Me taphone et renvoie une chaîne.
Encode la chaîne d'entrée à l'aide de l'algorithme Soundex et renvoie une chaîne. Utilisez cette fonction pour pousser la fonction vers le niveau de la base de données.
La correspondance par rapport aux données du champ Nom donne des résultats différents de la correspondance basée sur des données phonétiques.
Exemple
Table 231 :
Nom
Smith
Smythe
Table 232 :
Nom
Smith
Smythe
Score de comparaison
Similaire à 72%
Clé phonétique (primaire)
SMO
SMO
Score de comparaison
Similaire à 100 %
17.4.13.1 Options de critères de correspondance phonétiques
Si vous voulez établir la correspondance d'après des données phonétiques, configurez les options des critères comme suit.
Table 233 :
Option
Comparer les données à l'aide de
Valeur
Similarité de champs compare l'intégralité des données de champ sous forme de chaîne unique.
504
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Option
Rechercher des lettres transposées
Score d'ajustement des initiales
Score d'ajustement des sous-chaînes
Score d'ajustement des abréviations
Valeur
Définir sur n° de logiciel gère les caractères transposés de la même manière qu'elle gère les caractères ne présentant pas de correspondance.
Définir sur 0 (zéro) (par défaut) pour désactiver le score des initiales.
Définir sur 0 (zéro) pour désactiver le score des sous-chaînes
(par défaut).
Définir sur 0 (zéro) pour désactiver l'option de score des abré viations.
17.4.13.2 Scores de correspondance phonétique
Si vous établissez la correspondance d'après les critères phonétiques seulement, définissez les options de scores de correspondance comme suit.
Table 234 :
Option
Score de correspondance
Aucun score de correspondance
Valeur
Définir sur 100 le score de similarité minimal requis pour que les enregistrements soient considérés comme une correspon dance.
Définir sur 99 le score de similarité maximal requis pour que les enregistrements soient considérés comme une non-cor respondance.
Si vous établissez la correspondance d'après plusieurs critères, dont un critère phonétique, placez le critère phonétique en premier dans l'ordre des critères et définissez vos options de scores de correspondance comme suit :
Table 235 :
Option
Score de correspondance
Aucun score de correspondance
Valeur
Définir sur 101 pour garantir que ce critère ne suffit pas pour le logiciel, à considérer deux enregistrements comme une cor respondance et que vous souhaitez envisager d'autres critè res dans le cadre du processus de comparaison.
Définir sur 99 le score de similarité maximal requis pour que les enregistrements soient considérés comme une non-cor respondance.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
505
17.4.13.3 Champs vides de correspondance phonétique
Lorsque vous utilisez des groupes de décomposition, les enregistrements qui ne comportent aucune valeur ne se trouvent pas dans le même groupe que ceux qui comportent une valeur (sauf si vous configurez la correspondance par rapport aux champs vides).
Exemple
Prenons les deux enregistrements d'entrée suivants :
Table 236 :
Mr Johnson 100 Main St La Crosse
Scott Johnson 100 Main St La Crosse
WI
WI
54601
54601
Une fois ces enregistrements traités par la transformation Data Cleanse, le premier enregistrement comporte un champ de prénom vide et, de ce fait, un champ phonétique vide. Dans ces conditions, vous ne pouvez obtenir aucune correspondance en créant des groupes de décomposition. Si vous ne créez pas de groupes de décomposition, vous ne pouvez obtenir un résultat qu'en utilisant la correspondance des vides.
17.4.13.4 Longueur des données de correspondance phonétique
La longueur que vous affectez à une sortie de fonction phonétique revêt une certaine importance, comme le montre cet exemple.
Exemple
Table 237 :
Prénom (nom)
S (Johnson)
Scott (Johnson)
Sortie
S
SKT
Supposez que ces deux enregistrements représentent la même personne. Dans cet exemple, si vous effectuez la décomposition d'après plusieurs caractères, ces enregistrements se trouveront dans des groupes de décomposition différents et ne seront donc pas comparés.
506
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.4.14 Configuration des rapports de correspondance
Générer des rapports de correspondance visant à faciliter l'analyse des résultats.
Vous disposez de nombreux rapports de correspondance visant à faciliter l'analyse des résultats du processus de correspondance :
● Rapport Contribution de correspondance
● Résumé des critères de correspondance
● Rapport Exemple de correspondance en double
● Rapport Faire correspondre la sélection de sortie à la source d'entrée
● Rapport Fréquence multi-source de correspondance
● Rapport Résumé des statistiques source de correspondance
17.4.14.1 Ajout de Statistiques de groupe dans une transformation Match
Pour générer le rapport Résumé des statistiques source de correspondance, incluez une opération Statistiques de groupe dans vos transformations Match et Associate.
Si vous voulez effectuez un suivi de vos statistiques source d'entrée, vous pouvez ajouter une opération Sources d'entrée dans la transformation Match afin de définir vos sources et choisir de générer des statistiques pour les sources d'entrée dans une opération Statistiques de groupe.
Remarque
Pour générer des statistiques source d'entrée dans l'opération Statistiques de groupe, vous pouvez également définir des sources d'entrée à l'aide de valeurs de champ. Vous ne devez pas nécessairement intégrer une opération Sources d'entrée dans la transformation Match.
17.4.14.2 Générer des statistiques de rapport
Pour générer les données que vous voulez obtenir dans les rapports de correspondance( autres que le rapport
Résumé des statistiques source de correspondance), vous devez définir l'option
Générer les données de rapport
sur Oui dans les transformations Match et Associate.
En activant la génération de données de rapport, vous pouvez obtenir des informations sur les groupes de décomposition, les critères ayant contribué à la création d'une correspondance, etc.
Remarque
Néanmoins, l'activation de l'option de rapport peut avoir une incidence sur les performances du traitement.
Une fois que vous avez testé le flux de données de façon approfondie, il est préférable d'activer la génération de données.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
507
17.4.14.3 Utilisation de noms pour les sets de correspondance, les niveaux et les opérations
Utiliser des noms uniques dans les transformations Match et Associate pour les sets de correspondance, les niveaux et chacune de vos opérations préalables ou postérieures à la correspondance.
Utilisez des noms uniques dans les transformations Match et Associate pour les sets de correspondance, les niveaux et chacune de vos opérations préalables ou postérieures à la correspondance. L'utilisation de noms uniques permet d'obtenir des données plus précises dans vos rapports (Hiérarchisation du groupe et Statistiques de groupe, par exemple) et d'identifier les éléments qui produisent les données que vous recherchez.
17.4.14.4 Insertion des champs de sortie appropriés
Inclure ces trois champs de sortie dans la transformation Match pour publier des données dans le rapport
Exemple de correspondance en double
Table 238 :
Champ
Type_correspondance
Numéro_groupe
Score_correspondance
Description
Indique quel type de correspondance a intégré l'enregistre ment à un groupe de correspondance :
● vide
● D = pilote
● R = règle
● W = pondéré
Spécifie les enregistrements appartenant au même groupe de correspondance, qui partagent le même numéro de groupe.
Fournit les informations suivantes :
● Score de similarité des critères ou modèles
● Score total pondéré
● Espaces vides
17.5 Address Cleanse
Informations sur la préparation des données, la configuration du logiciel et description des éléments de sortie pour le nettoyage des adresses.
Address Cleanse fournit une forme corrigée, complète et standardisée de vos données d'adresse d'origine. Avec la transformation USA Regulatory Address Cleanse et pour certains pays la transformation Global Address
Cleanse, Address Cleanse peut également corriger ou ajouter des codes postaux. Avec la transformation DSF2
Walk Sequencer, vous pouvez ajouter à vos données des informations de tournée.
508
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Informations associées
Préparation des données d'entrée [page 512]
Configuration des fichiers de référence [page 518]
Pays pris en charge (Global Address Cleanse) [page 535]
17.5.1 Fonctionnement d'Address Cleanse
Les transformations USA Regulatory Address Cleanse et Global Address Cleanse nettoient vos données de la manière suivante :
Table 239 :
Processus
Vérification de la cohérence des codes
Standardisation de l'apparence des lignes d'adresse
Identification des adresses non livrables
Affectation de codes de diagnostic
Description
Elles vérifient que la localité, la région et les codes postaux concordent les uns avec les autres. Par exemple, Address
Cleanse peut ajouter (ou vérifier) un code postal en utilisant les informations de localité et de région dans les données d'origine (selon le pays).
Utilise les options de standardisation des adresses définies dans la transformation pour obtenir des adresses qui incluent ou excluent la ponctuation, utilise des textes en majuscules ou minuscules, ou abrège ou écrit en toute lettes les types d'adresses, par exemple.
Pour les enregistrements des États-Unis uniquement, identifie une adresse non livrable, telle qu'une parcelle vide ou un bâti ment condamné.
Affecte des codes de diagnostic qui indique le motif des adresses non affectées, ou de la méthode de correction des adresses par exemple.
Informations associées
Définition des options de standardisation [page 520]
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
509
17.5.1.1 Transformations Address Cleanse
Tableau qui répertorie les transformations Address Cleanse et leur objectif.
Table 240 :
Transformation Description
DSF2 Walk Sequencer Ajoute des informations de séquence de distribution aux données lors de l'exécution du séquence ment de tournée DSF2 qu'il est possible d'utiliser avec un logiciel de tri préalable pour remplir les conditions pour des remises de séquence de tour.
Remarque
Le logiciel ne place pas les données dans l'ordre de la tournée.
Global Address Cleanse et moteurs
Nettoie vos données d'adresses de tous les pays pris en charge (hors certification des États-Unis).
Vous devez configurer la transformation Global Address Cleanse conjointement à un ou plusieurs moteurs Global Address Cleanse (Canada, Global Address ou USA). Avec cette transformation, vous pouvez créer le Software Evaluation and Recognition Program (SERP) de la poste canadienne
(Statement of Address Accuracy Report), le rapport AMAS (Australia Post's Address Matching Pro cessing Summary) de la poste australienne et le rapport SOA (Statement of Accuracy) de Nouvelle-
Zélande.
USA Regulatory Address
Cleanse
Identifie, analyse, valide et corrige les données d'adresses des États-Unis (dans la page de code La tin 1) conformément au CASS (Coding Accuracy Support System) américain. Peut créer le Formu laire 3553 USPS et éditer plusieurs codes utiles dans vos enregistrements. Vous pouvez également exécuter l'application en mode non-certification et générer des listes de propositions.
Certaines options comprennent : DPV, DSF2 (augmentation), eLOT, EWS, GeoCensus, LACSLink,
NCOALink, RDI, SuiteLink, listes de propositions (pas pour la certification) et Z4Change.
Global Suggestion Lists Effectue des propositions pour les correspondances d'adresses possibles dans les données des
États-Unis, du Canada, et des adresses globales. Cette transformation est habituellement utilisée pour le traitement en temps réel et ne standardise pas les adresses. Utilisez une transformation
Country ID avant cette transformation dans le flux de données. Si vous désirez également standar diser vos données d'adresses, utilisez la transformation Global Address Cleanse après la transfor mation Global Suggestion Lists dans le flux de données.
Country ID Identifie le pays de destination pour l'enregistrement et édite un code ISO. Utilisez cette transfor mation avant la transformation Global Suggestion Lists dans votre flux de données. (Il n'est pas né cessaire de placer la transformation Country ID avant les transformations Global Address Cleanse ou USA Regulatory Address Cleanse.)
510
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.5.1.2 Classes des données et champs d'entrée et de sortie
Utilisez les champs d'entrée et de sortie multilignes ou discrets, ou une combinaison des deux. Désignez
également le type d'information de sortie à l'aide des classes de champs.
Les transformations Address Cleanse acceptent et éditent les formats de ligne d'adresse discret, multiligne et hybride.
Table 241 :
Formats de la ligne d'adresse
Multiligne
Discret
Description
Conserver les données d'adresse de sortie dans la même dis position que celle des données d'entrée. Le logiciel applique une abréviation intelligente lorsque les données dépassent les longueurs de champ maximales, et utilise des majuscules et standardise les données de sortie en fonction des options de standardisation définies dans la transformation.
Divise les données d'adresse d'entrée en des éléments d'adresse plus petits pour la sortie. Édite également des champs supplémentaires créés par le logiciel, par exemple les codes de statut ou d'erreur. Le style de certains composants est contrôlé par les options de standardisation, et le logiciel n'applique pas d'abréviation intelligente pour que les compo sants s'adaptent aux champs de sortie.
Lorsque vous définissez la transformation USA Regulatory Address Cleanse ou Global Address Cleanse transform, vous pouvez inclure des champs de sortie qui contiennent des informations spécifiques en sélectionnant une classe d'adresse Champ et une classe Champ générées.
Table 242 :
Classe d'adresse Champ généré
Distribution
Double
Officiel
Classe Champ généré
Analysé
: contient l'entrée analysée avec application d'une certaine standardisation. Les champs soumis à la standardi sation sont la localité, la région et le code postal.
Meilleur
: contient les données analysées si l'adresse n'est pas affectée ou les données corrigées d'une adresse affectée.
Corrigé
: contient les données affectées après les recherches de répertoire et reste vide si l'adresse n'est pas affectée.
Analysé
,
Meilleur
et
Corrigé
: contient les détails d'adresse
DOUBLE disponibles à l'entrée.
Analysé
: contient l'entrée analysée avec application d'une certaine standardisation.
Meilleur
: contient les informations des répertoires définis par le service postal lorsque l'adresse est affectée. Contient l'en trée analysée lorsqu'une adresse n'est pas affectée.
Corrigé
: contient les informations des répertoires définis par le service postal lorsque l'adresse est affectée et reste vide si l'adresse n'est pas affectée.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
511
17.5.2 Rapports Address cleanse
Le logiciel génère des rapports postaux pour USA et Global Address Cleanse.
De nombreux rapports générés par le logiciel incluent des rapports qui sont requis par les autorités postales mondiales ou le service postal américain.
La transformation USA Regulatory Address Cleanse crée l'USPS Form 3553 (requis pour CASS) et le rapport résumé de NCOALink. La transformation Global Address Cleanse crée des rapports sur vos données, y compris le
SERP (Statement of Address Accuracy Report) canadien, le rapport AMAS de la poste australienne et le rapport
SOA Nouvelle-Zélande.
La plupart des rapports postaux et de régulation nécessitent que le logiciel soit certifié périodiquement par l'autorité postale correspondante.
17.5.3 Préparation des données d'entrée
Avant de commencer le nettoyage d'adresses, vous devez décider du type de format de ligne d'adresse en entrée.
Les transformations USA Regulatory Address Cleanse et Global Address Cleanse acceptent les données d'entrée de la même manière.
Attention
La transformation USA Regulatory Address Cleanse n'accepte pas les données Unicode. Si un enregistrement d'entrée comporte des caractères extérieurs à la page de code Latin1 (valeur de caractère supérieure à 255), la transformation USA Regulatory Address Cleanse ne traite pas les données. A la place, l'enregistrement d'entrée est envoyé au champ de sortie standardisé correspondant sans aucun traitement. Aucun autre champ de sortie (composant par exemple) n'est renseigné pour cet enregistrement. Si votre base de données Unicode comporte des adresses des Etats-Unis valides en jeu de caractères Latin1, la transformation USA Regulatory
Address Cleanse les traite comme d'habitude.
Formats de ligne d'adresse acceptés
Les tableaux suivants répertorient les formats de ligne d'adresse : multiligne, hybride et discret.
Remarque
Pour tous les formats multiligne et hybride répertoriés, vous n'êtes pas obligés d'utiliser tous les champs multilignes d'un format sélectionné (par exemple, Multiligne1-12). Cependant, vous devez commencer par
Multiligne1 et continuer dans l'ordre. Vous ne pouvez pas sauter de numéros, par exemple de Multiligne1 à
Multiligne3.
512
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 243 :
Formats multiligne et multiligne hybride
Exemple 1 Exemple 2 Exemple 3
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Multiligne5
Multiligne6
Multiligne5
Multiligne6
Localité3
Localité2
Multiligne7
Multiligne8
Multiligne7 Localité1
Dernière ligne adresse Région1
Pays (facultatif) Pays (facultatif) Code postal (global) ou
Code postal1 (région
Etats-Unis)
Pays (facultatif)
Table 244 :
Formats de lignes discrets
Exemple 1 Exemple 2
Ligne_Adresse Ligne_Adresse
Dernière ligne adresse Localité3 (global)
Pays (facultatif) Localité2
Localité1
Exemple 3
Ligne_Adresse
Localité2
Localité1
Région1
Exemple 4
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Multiligne5
Localité2
Localité1
Région1
Code postal (global) ou
Code postal1 (région
Etats-Unis)
Pays (facultatif)
Exemple 5
Multiligne1
Multiligne2
Multiligne3
Multiligne4
Multiligne5
Multiligne6
Localité1
Région1
Code postal (global) ou
Code postal1 (région Etats-
Unis)
Pays (facultatif)
Exemple 4
Ligne_Adresse
Localité1
Région1
Code postal (global) ou Code postal1 (région Etats-Unis)
Pays (facultatif) Région1
Code postal (global) ou Code pos tal1 (région Etats-Unis)
Pays (facultatif)
Code postal (global) ou Code postal1 (région Etats-Unis)
Pays (facultatif)
17.5.4 Détermination des transformations à utiliser
Vous pouvez choisir entre plusieurs transformations Address Cleanse selon ce que vous désirez faire avec vos données. Il existe des transformations pour le nettoyage des données d'adresses globales et/ou des Etats-Unis, le nettoyage basé sur les réglementations USPS, utilisant des règles de gestion pour nettoyer les données et le nettoyage transactionnel des données d'adresses globales.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
513
Informations associées
Nettoyage des données d'adresses globales [page 514]
Nettoyage des données des Etats-Unis uniquement [page 515]
Nettoyage des données des Etats-Unis et des données globales [page 515]
Nettoyage des données d'adresses à l'aide de plusieurs règles de gestion [page 516]
Nettoyage transactionnel des données d'adresse [page 516]
17.5.4.1 Nettoyage des données d'adresses globales
Pour nettoyer les données d'adresses de l'un des pays pris en charge par le progiciel, (y compris le Canada pour la certification SERP (Software Evaluation and Recognition Program) et l'Australie pour la certification AMAS
(Address Matching Approval System)), utilisez la transformation Global Address Cleanse dans votre projet avec un ou plusieurs des moteurs suivants :
● Canada
● Adresse globale
● États-Unis
Conseil
Le nettoyage des données des États-Unis avec la transformation USA Regulatory Address Cleanse est habituellement plus rapide qu'avec la transformation Global Address Cleanse et le moteur États-Unis. Ce scénario est également vrai même si vous finissez par avoir besoin des deux transformations.
Vous pouvez également utiliser la transformation Global Address Cleanse avec les moteurs Canada, États-Unis et
Adresse globale dans un flux de données en temps réel afin de créer des listes de propositions pour ces pays.
Commencer par un exemple de configuration de transformation
Le progiciel comprend plusieurs configurations du modèle de la transformation Global Address Cleanse (qui comprend au moins un moteur), vous pouvez les copier afin de les utiliser pour un projet.
Informations associées
Pays pris en charge (Global Address Cleanse) [page 535]
Nettoyage des données des Etats-Unis et des données globales [page 515]
514
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.5.4.2 Nettoyage des données des Etats-Unis uniquement
Pour nettoyer les données des États-Unis, utilisez la transformation USA Regulatory Address Cleanse afin d'obtenir de meilleurs résultats. Avec cette transformation, et lorsque DPV, LACSLink et SuiteLink sont activées, vous pouvez produire un publipostage certifié CASS et un USPS Form 3553. Si vous ne prévoyez pas de traiter des listes certifiées CASS, vous devriez quand même utiliser la transformation USA Regulatory Address Cleanse pour traiter vos données des États-Unis. L'utilisation de la transformation USA Regulatory Address Cleanse sur les données des États-Unis est plus efficace que l'utilisation de la transformation Global Address Cleanse.
Avec la transformation USA Regulatory Address Cleanse, vous pouvez ajouter des informations supplémentaires
à vos données, par exemple DSF2, EWS, eLOT, NCOALink et RDI. Vous pouvez aussi traiter des enregistrements individuellement en utilisant des listes de propositions.
Commencer par un exemple de configuration de transformation
Le logiciel comprend plusieurs configurations du modèle de la transformation USA Regulatory Address Cleanse pouvant vous aider à configurer vos projets.
Informations associées
Introduction aux listes de propositions [page 602]
17.5.4.3 Nettoyage des données des Etats-Unis et des données globales
Que devez-vous faire lorsque vous avez dans une base de données des adresses des Etats-Unis devant être certifiées et des adresses d'autres pays ? Dans ce cas, utilisez les deux transformations Global Address Cleanse et USA Regulatory Address Cleanse dans votre flux de données.
Conseil
Même si vous ne traitez pas les données américaines pour la certification USPS, vous constaterez que leur nettoyage avec la transformation USA Regulatory Address Cleanse est plus rapide qu'avec la transformation
Global Address Cleanse et le moteur Etats-Unis.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
515
17.5.4.4 Nettoyage des données d'adresses à l'aide de plusieurs règles de gestion
Lorsque deux adresses ont une utilisation différente (par exemple, adresse de facturation et adresse d'expédition), utilisez deux transformations Address Cleanse identiques dans un flux de données.
Un ou deux moteurs ?
Lorsque vous utilisez deux transformations Global Address Cleanse pour les données du même pays, elles peuvent partager un moteur. Vous n'avez pas besoin d'avoir deux moteurs du même genre. Que vous utilisiez un ou deux moteurs, cela n'affecte pas le temps de traitement global du flux de données.
Cependant, dans ce cas, vous pouvez éventuellement utiliser deux moteurs distincts (même si les données sont du même pays). Selon vos règles de gestion, vous pouvez avoir à définir les paramètres du moteur différemment pour une adresse de facturation et une adresse d'expédition. Par exemple, dans le groupe Options de standardisation, l'option Langue de pays de sortie peut convertir les données utilisées dans chaque enregistrement en langue officielle du pays ou conserver la langue utilisée dans chaque enregistrement. Par exemple, vous pouvez convertir les données de l'adresse d'expédition mais conserver celles de l'adresse de facturation.
17.5.4.5 Nettoyage transactionnel des données d'adresse
La transformation Global Suggestion Lists, davantage utilisée dans les projets transactionnels, est une manière de remplir les adresses avec un minimum de données. Elle peut aussi faire des propositions pour les correspondances possibles. Par exemple, les Iles Marshall et les Etats fédérés de Micronésie ont été récemment supprimés du répertoire des adresses des Etats-Unis. Par conséquent, si vous utilisiez auparavant le moteur
Etats-Unis, vous devrez maintenant utiliser le moteur Adresse globale. La transformation Global Suggestion Lists permet d'indiquer que ces pays ne figurent plus dans le répertoire des adresses des Etats-Unis.
Ce système de saisie d'adresses facile est idéal dans les environnements de centres d'appels ou dans tout environnement transactionnel où un nettoyage est nécessaire au point d'entrée. C'est également un outil de recherche avantageux lorsque vous devez gérer les mauvaises adresses d'un précédent traitement par lots.
Placez la transformation Global Suggestion Lists après la transformation Country ID et avant une transformation
Global Address Cleanse qui utilise un moteur Adresse globale, Canada et/ou Etats-Unis.
Intégration de fonctionnalité
La fonctionnalité Global Suggestion Lists est conçue pour être intégrée à vos applications personnalisées via le service Web. Si vous êtes programmeur à la recherche d'informations sur la manière d'intégrer cette fonctionnalité, voir "Intégrer Global Suggestion Lists" dans le Guide d'intégration
516
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Commencer par un exemple de configuration de transformation
Data Quality comprend un modèle de transformation Global Suggestion Lists qui peut vous aider lors de la configuration d'un projet.
Informations associées
Introduction aux listes de propositions [page 602]
17.5.5 Identification du pays de destination
La transformation Global Address Cleanse inclut le traitement Country ID. Par conséquent, vous n'avez pas besoin de placer une transformation Country ID avant la transformation Global Address Cleanse dans votre flux de données.
Dans le groupe d'options Options Country ID de la transformation Global Address Cleanse, vous pouvez définir le pays de destination ou définir si vous désirez exécuter le traitement Country ID.
Pays constant
Si l'ensemble des données provient d'un seul pays, l'Australie par exemple, vous n'avez pas besoin d'exécuter le traitement Country ID ou d'entrer un champ de pays discret. Vous pouvez indiquer le pays à la transformation
Global Address Cleanse et elle supposera que tous les enregistrements viennent de ce pays, ce qui peut
économiser du temps de traitement.
Affectation par défaut
Vous pouvez exécuter le traitement Country ID si vous utilisez deux moteurs ou plus et que les adresses d'entrée contiennent des données de pays (comme le code ISO à deux caractères ou un nom de pays) ou si vous utilisez un seul moteur et que la source d'entrée contient plusieurs adresses ne pouvant pas être traitées par ce moteur. Les adresses ne pouvant pas être traitées ne sont pas envoyées au moteur. La transformation utilisera par défaut le pays indiqué dans ce groupe d'options.
Informations associées
Définition d'une constante Pays [page 536]
Définition d'un pays par défaut [page 536]
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
517
17.5.6 Configuration des fichiers de référence
La transformation USA Regulatory Address Cleanse, la transformation Global Address Cleanse et les moteurs s'appuient sur plusieurs répertoires (fichiers de référence) pour nettoyer les données.
Lorsque vous utilisez des répertoires pour standardiser des adresses et affecter des codes postaux, vous devez utiliser les répertoires les plus à jour. Vous devez par conséquent mettre à jour périodiquement vos fichiers avec de nouveaux répertoires. SAP vous indique les dates actuelles des répertoires et vous informe lorsque vous devez télécharger des répertoires plus récents.
Informations associées
Au-delà du nettoyage d'adresse de base [page 542]
Pays pris en charge (Global Address Cleanse) [page 535]
Traitement des adresses japonaises [page 521]
Traitement des adresses chinoises [page 530]
Certification Nouvelle-Zélande [page 537]
17.5.6.1 Répertoires
Pour corriger les adresses et affecter les codes, les transformations Address Cleanse se basent sur les répertoires d'adresses.
Ces répertoires contiennent des types d'informations spécifiques concernant les traitements que vous voulez effectuer sur vos adresses. Par exemple, le service postal américain dispose de répertoires contenant les informations postales de toutes les adresses situées aux États-Unis et leurs territoires. Le logiciel utilise
également de nombreux autres répertoires émis par d'autres autorités postales telles que celles du Canada, de la
Nouvelle-Zélande et du Japon.
Remarque
Les transformations Address cleanse prennent en charge de nombreux pays. Toutefois, lorsque vous utilisez la transformation Global Address Cleanse, il est possible que certains pays ne soient pas pris en charge par les répertoires officiels.
En plus des répertoires d'adresses de base, il existe de nombreux répertoires spécialisés. Par exemple, la transformation USA Regulatory Address Cleanse utilise les répertoires spécialisés suivants :
● DPV®
● DSF2®
● Early Warning System (EWS)
● eLOT®
● GeoCensus
● LACSLink®
518
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● NCOALink®
● RDI™
● SuiteLink™
● Z4Change
Ces répertoires spécialisés aident à étendre le nettoyage d'adresses américaines au-delà de l'analyse de base et de la standardisation.
17.5.6.2 Emplacement des fichiers de répertoire
Définissez les emplacements des fichiers de répertoire dans le groupe d'options
Fichiers de référence
de la transformation.
Votre administrateur système doit déjà avoir installé les fichiers nécessaires aux emplacements appropriés selon les besoins de votre société.
Attention
Les répertoires incompatibles ou obsolètes peuvent rendre le logiciel inutilisable. L'administrateur système doit installer des mises à jour hebdomadaires, mensuelles ou bimensuelles de répertoire pour la transformation USA Regulatory Address Cleanse ; des mises à jour mensuelles de répertoire pour les moteurs de l'Australie et du Canada ; des mises à jour trimestrielles de répertoire pour le moteur d'Adresse globale afin de garantir qu'ils soient compatibles avec le progiciel actuel.
17.5.6.3 Valeurs de substitution des fichiers de répertoire
Utilisez les valeurs de substitution pour définir une valeur constante pour vos emplacements de répertoire.
Si vous commencez avec un modèle de transformation, les options
Fichiers de référence
sont déjà remplies par défaut avec une variable de substitution. Par exemple, la variables $$RefFilesAddressCleanse dirige vers le dossier des données de référence du répertoire par défaut du logiciel.
Remarque
Vous pouvez changer cet emplacement en modifiant le fichier de substitution associé au flux de données. Cette modification est appliquée pour chaque flux de données qui utilise ce fichier de substitution.
Informations associées
Présentation des paramètres de substitution [page 307]
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
519
17.5.6.4 Affichage de dates d'expiration de répertoire dans le journal de suivi
Étapes à suivre pour définir le journal de suivi avec des dates d'expiration de répertoire.
Pour inclure des informations relatives à l'expiration d'un répertoire dans le journal de suivi, exécutez les étapes suivantes.
1. Cliquez avec le bouton droit sur l'icône du job applicable dans Designer et sélectionnez
Exécuter
.
2. Dans la fenêtre
Propriétés d'exécution
, ouvrez l'onglet
Options d'exécution
(il doit être déjà ouvert par défaut).
3. Sélectionnez
Imprimer tous les messages de suivi
.
Informations associées
Utilisation des journaux [page 324]
17.5.7 Définition des options de standardisation
La standardisation modifie la manière dont sont présentées les données après une affectation. Le type de modification dépend des options définies dans la transformation. Ces options comprennent entre autres la casse, la ponctuation, la séquence et les abréviations. Cela aide à garantir l'intégrité de vos bases de données, facilite la remise du courrier et donne à vos communications avec les clients une apparence plus professionnelle.
Par exemple, l'adresse suivante a été standardisée au niveau des majuscules, de la ponctuation et de la phrase postale (itinéraire vers la route rurale).
Table 245 :
Entrée Sortie
Multiligne1 = route 1 box 44a
Multiligne2 = stodard wisc
Ligne_adresse = RR 1 BOX 44A
Localité1 = STODDARD
Région1 = WI
Code postal1 = 54658
Transformation Global Address Cleanse
Dans la transformation Global Address Cleanse, vous définissez les options de standardisation dans le groupe d'options Options de standardisation.
Vous pouvez standardiser les adresses pour tous les pays et/ou pour des pays individuels (selon vos données).
Par exemple, vous pouvez avoir un ensemble d'options de standardisation françaises qui standardise uniquement
520
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
les adresses en France et un autre ensemble d'options de standardisation globales qui standardise toutes les autres adresses.
Transformation USA Regulatory Address Cleanse
Si vous utilisez la transformation USA Regulatory Address Cleanse, vous définissez les options de standardisation options dans l'onglet
Options
de la section Options de standardisation.
17.5.8 Traitement des adresses japonaises
Le moteur d'Adresse globale de la transformation Global Address Cleanse analyse les adresses japonaises. Le premier objectif de cette transformation et de ce moteur est d'analyser et standardiser les adresses japonaises pour les applications de comparaison et nettoyage des données.
Remarque
Le moteur Japon prend uniquement en charge les données kanji et katakana. Le moteur ne prend pas en charge les données en caractères latins.
Une partie importante de la fonctionnalité d'analyse des adresses repose sur la base de données d'adresses japonaises. Le progiciel renferme des données du Ministère de la gestion publique, des affaires intérieures, des postes et télécommunications (MPT) et d'autres sources de données. La base de données d'adresses avancée comprend une base de données gouvernementale régulièrement mise à jour, qui inclut les codes postaux régionaux mappés aux localités.
Informations associées
Format d'adresse japonaise standard [page 521]
Formats spéciaux de la région Hokkaido [page 527]
Modèle d'adresse japonaise [page 529]
17.5.8.1 Format d'adresse japonaise standard
Tableau comportant les composants d'adresse standard.
Une adresse japonaise habituelle comprend les composants suivants.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
521
Table 246 :
Composant d'adresse
Code postal
Préfecture
Ville
Quartier
District
Numéro d'îlot
Numéro de sous-îlot
Numéro de rue
Japonais
〒 654-0153
兵庫県
神戸市
須磨区
南落合
1
丁目
25
番地
2
号
Anglais
654-0153
Hyogo-ken
Kobe-shi
Suma-ku
Minami Ochiai
1 chome
25 banchi
2 go
Champ(s) de sortie
Code_postal_complet
Région1_complète
Localité1_complète
Localité2_complète
Localité3_complète
Nom_principal_complet1
Nom_principal_complet2
Numéro_principal_complet
Une adresse peut également comporter un nom de bâtiment, un numéro d'étage et un numéro de chambre.
Informations associées
Composants d'adresse japonaise [page 522]
17.5.8.1.1 Composants d'adresse japonaise
Descriptions de chaque composant d'adresse dans une adresse japonaise.
Table 247 :
Composants d'adresse japonaise
Code postal
Préfecture
Description
Les codes postaux japonais sont au format nnn-nnnn. Les trois premiers chiffres représentent la zone. Les quatre der niers chiffres représentent une localisation dans la zone. Les localisations possibles sont district, sous-district, îlot, sous-
îlot, bâtiment, étage et société. Les codes postaux doivent
être écrits en chiffres arabes. Le symbole du bureau de poste
〒 est facultatif.
Avant 1998, le code postal comprenait 3 ou 5 chiffres. Certai nes anciennes bases de données peuvent encore refléter l'an cien système.
Les préfectures sont les régions. Le Japon comprend qua rante-sept préfectures. Vous pouvez omettre la préfecture pour certaines villes bien connues.
522
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Composants d'adresse japonaise
Ville
Quartier
District
Sous-district
Description
Les noms des villes japonaises comportent le suffixe
市 (-shi).
Dans certaines parties des régions de Tokyo et Osaka, les gens omettent le nom de la ville. Dans certains villages insulai res, ils utilisent le nom de l'île avec un suffixe
島 (-shima) à la place du nom de la ville. Dans certaines zones rurales, ils utili sent le nom du comté avec le suffixe
郡 (-gun) à la place du nom de la ville.
Une ville est divisée en quartiers. Le nom du quartier com porte le suffixe
区(-ku). Le composant quartier est omis pour les petites villes, les villages insulaires et les zones rurales qui n'ont pas de quartiers.
Un quartier est divisé en districts. Lorsqu'il n'existe pas de quartiers, la petite ville, le village insulaire ou la zone rurale est divisée en districts. Le nom du district peut comporter le suf fixe
町(-cho/-machi), mais il est souvent omis. 町 a deux pro nonciations possibles, mais une seule est correcte pour un district particulier.
Dans les très petits villages, les gens utilisent le nom du village avec le suffixe
村 (-mura) à la place du district.
Lorsqu'un village ou un district est sur une île ayant le même nom, le nom de l'île est souvent omis.
Principalement dans les zones rurales, un district peut être di visé en sous-districts, marqués par le préfixe
字(aza-). De plus, un sous-district peut être divisé en sous-districts mar qués par le préfixe
小字(koaza-), signifiant petit aza. koaza peut être abrégé en aza. Un sous-district peut aussi être mar qué du préfixe
大字 (oaza-), qui signifie grand aza. Oaza peut
également être abrégé en aza.
Voilà les combinaisons possibles :
● oaza
● aza
● oaza et aza
● aza et koaza
● oaza et koaza
Remarque
Les caractères
大字(oaza-), 字(aza-) et 小字 (koaza-) sont souvent omis.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
523
Composants d'adresse japonaise
Parcelle de sous-districts
Sous-division
Numéro d'îlot
Numéro de sous-îlot
Numéro de rue
Variations des numéros d'îlot, de sous-îlot et de maison
Description
Un sous-district aza peut être divisé en parcelles de sous-dis trict numérotées qui sont identifiées par le suffixe
部 (-bu), si gnifiant pièce. Le caractère
部 est souvent omis.
Les parcelles peuvent être numérotées de plusieurs maniè res :
● Chiffres arabes (1, 2, 3, 4, etc.)
石川県七尾市松百町 8 部 3 番地 1 号
● Lettres katakana dans l'ordre iroha (イ, ロ, ハ, ニ, etc.)
● 石川県小松市里川町ナ部 23 番地
● Chiffres kanji, ce qui est très rare (甲, 乙, 丙, 丁, etc.)
愛媛県北条市上難波甲部 311 番地
Un district ou sous-district rural (oaza/aza/koaza) est parfois divisé en sous-divisions, marquées par le suffixe
地割 (-chi wari), qui signifie division de terrain. Le préfixe facultatif est
第
(dai-).
Les exemples d'adresses suivants illustrent les sous-divi sions :
岩手県久慈市旭町 10 地割 1 番地
岩手県久慈市旭町第 10 地割 1 番地
Un district est divisé en îlots. Le numéro d'îlot comprend le suffixe
丁目 (-chome). Les districts comprennent en général de 1 à 5 îlots, mais ils peuvent en contenir davantage. Le nu méro d'îlot peut être écrit avec un chiffre kanji. Les adresses japonaises ne comprennent pas de nom de rue.
東京都渋谷区道玄坂2丁目25番地12号
東京都渋谷区道玄坂二丁目25番地12号
Un îlot est divisé en sous-îlots. Le nom de sous-îlot inclut le suffixe
番地 (-banchi), qui signifie "terrain numéroté". Le suf fixe
番地 (-banchi) peut être abrégé en 番 (-ban).
Chaque maison possède un numéro unique. Le numéro de rue comprend le suffixe
号 (-go), qui signifie numéro.
Les données des numéros d'îlot, de sous-îlot et de maison peuvent varier.
524
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Composants d'adresse japonaise
Tirets
Aucun numéro d'îlot
Noms de bâtiment
Numéros de bâtiment
Informations associées
Format d'adresse japonaise standard [page 521]
Description
Les marqueurs de suffixe
丁目(chome), 番地 (banchi) et 号
(go) peuvent être remplacés par des tirets.
東京都文京区湯島 2 丁目 18 番地 12 号
東京都文京区湯島 2-18-12
Parfois, les numéros d'îlot, de sous-îlot et de maison sont combinés ou omis.
東京都文京区湯島 2 丁目 18 番 12 号
東京都文京区湯島 2 丁目 18 番地 12
東京都文京区湯島 2 丁目 18-12
Parfois, le numéro d'îlot est omis. Par exemple, ce quartier de
Tokyo a des districts numérotés et aucun numéro d'îlot n'est inclus.
二番町 signifie district numéro 2.
東京都 千代田区 二番町 9 番地 6 号
Les noms des appartements ou des bâtiments sont souvent inclus après le numéro de maison. Lorsqu'un nom de bâti ment comprend le nom du district, ce dernier est souvent omis. Lorsqu'un bâtiment est bien connu, les numéros d'îlot, de sous-îlot et de maison sont souvent omis. Lorsqu'un nom de bâtiment est long, il peut être abrégé ou écrit à l'aide de son acronyme en lettres anglaises. Pour une description des attributs, voir
Suffixes de noms de bâtiment communs [page
.
Les numéros de chambre, d'appartement, etc. suivent le nom du bâtiment. Les numéros de bâtiment peuvent comprendre le suffixe
号室 (-goshitsu). Les numéros d'étage au-dessus du niveau du sol peuvent comprendre le suffixe
階 (-kai) ou la let tre F. Les numéros d'étage en dessous du niveau du sol peu vent comprendre le suffixe
地下
<n >
階 (chika
<n>
kai) ou les lettres B
<n>
F (où
<n>
représente le numéro d'étage). Une ré sidence peut comprendre plusieurs bâtiments nommés Bâti ment A, Bâtiment B, etc., marqués par le suffixe
棟 (-tou).
Pour voir des exemples d'adresse avec des numéros de bâti
ment, voir Exemples de numéros de bâtiment japonais [page
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
525
17.5.8.1.2 Suffixes de noms de bâtiment communs
Tableau qui contient les suffixes de noms de bâtiment japonais communs.
Dans les adresses japonaises, les noms des appartements ou des bâtiments sont souvent inclus après le numéro de maison. Lorsqu'un nom de bâtiment comprend le nom du district, ce dernier est souvent omis. Lorsqu'un bâtiment est bien connu, les numéros d'îlot, de sous-îlot et de maison sont souvent omis. Lorsqu'un nom de bâtiment est long, il peut être abrégé ou écrit à l'aide de son acronyme en lettres anglaises.
Table 248 :
Suffixe Ecriture latine Traduction
ビルディング birudingu
ビルヂング birudingu
ビル biru
センター
プラザ
パーク
タワー sentapuraza pa-ku tawa-
会館
棟 kaikan tou
庁舎 chousha
マンション manshon
団地
アパート
荘
住宅
社宅
官舎 danchi apa-to sou juutaku shataku kansha bâtiment bâtiment bâtiment centre place parc tour entrée bâtiment (unité) bâtiment de bureau gouvernemental condominium résidence appartement villa logement logement de fonction domicile officiel
526
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.5.8.1.3 Exemples de numéros de bâtiment japonais
Tableau qui contient des exemples d'adresses japonaises comprenant des numéros de bâtiment.
Table 249 :
Zone du bâtiment
Premier étage au-dessus du sol.
Deuxième étage en sous-sol.
Bâtiment A Chambre 301
Bâtiment A Chambre 301
Exemple
東京都千代田区二番町9番地6号 バウエプタ3 F
東京都渋谷区道玄坂 2-25-12 シティバンク地下 2 階
兵庫県神戸市須磨区南落合 1-25-10 須磨パークヒルズ A 棟 301
号室
兵庫県神戸市須磨区南落合 1-25-10 須磨パークヒルズ A-301
Informations associées
Composants d'adresse japonaise [page 522]
17.5.8.2 Formats spéciaux de la région Hokkaido
La région d'Hokkaido a deux formats d'adresse spéciaux.
Table 250 :Format régional d'Hokkaido
Format
Super-îlot
Sous-districts numérotés
Description
Un format spécial de super-îlot existe uniquement dans la pré fecture d'Hokkaido. Un super-îlot, marqué du suffixe
条 (-joh), est d'un niveau plus important que l'îlot. Le numéro de super-
îlot ou d'îlot peut contenir une direction
北 (Nord), 南 (Sud), 東
(Est) ou
西 (Ouest).
L'exemple d'adresse suivant illustre un super-îlot 4 Joh.
北海道札幌市西区二十四軒 4 条4丁目13番地7号
Un autre format régional d'Hokkaido est le sous-district nu méroté. Un nom de sous-district peut être marqué du suffixe
線 (-sen) signifiant numéro au lieu du suffixe 字 (-aza). Lors qu'un sous-district comporte un suffixe
線, l'îlot peut avoir le suffixe
号 (-go) et le numéro de maison ne comporte pas de suffixe.
L'adresse ci-dessous contient le sous-district 4 sen, puis un
îlot numéroté 5 go.
北海道旭川市西神楽4線5号3番地11
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
527
17.5.8.3 Autres formats spéciaux d'adresse japonaise
Tableau qui contient les autres formats spéciaux d'adresse pour les adresses japonaises.
Table 251 :
Format
Orthographe acceptée
Numérotation acceptée
Adresses de boîte postale
Description
Les noms de villes, districts, etc., peuvent avoir plusieurs or thographes acceptés parce que plusieurs manières d'écrire certains sons en Japonais sont acceptées.
Lorsque l'îlot, le sous-îlot, la maison ou le district comporte un numéro, celui-ci peut être écrit en chiffres arabes ou kanji. Par exemple,
二番町 signifie numéro de district 2 et dans l'exem ple suivant, il correspond à Niban-cho.
東京都千代田区二番町九番地六号
Les adresses de boîte postale contiennent le code postal, Lo calité1, la préfecture, le nom du bureau de poste, le marqueur de boîte et le numéro de boîte.
Remarque
La transformation Global Address Cleanse reconnait les adresses de boîte postale se trouvant uniquement dans la base de données LOPC (Large Organization Postal Code).
Format LOPC (Large Organization Postal Code)
L'adresse peut avoir l'un des formats suivants :
● Préfecture, Localité1, nom de bureau de poste, marqueur de boîte (
私書箱) et numéro de boîte postale.
● Code postal, préfecture, Localité1, nom de bureau de poste, marqueur de boîte (
私書箱) et numéro de boîte postale.
L'exemple d'adresse suivant illustre une adresse de boîte pos tale :
Bureau de poste d'Osaka marqueur de boîte n°1
大阪府大阪市大阪支店私書箱 1 号
Le service postal peut affecter un code postal unique à une or ganisation importante, par exemple le service client d'une en treprise majeure. Une organisation peut avoir jusqu'à deux co des postaux uniques selon le volume de courrier qu'elle reçoit.
L'adresse peut avoir l'un des formats suivants :
● Adresse, nom de société
● Code postal, adresse, nom de société
L'exemple suivant est une adresse au format LOPC.
100-8798
東京都千代田区霞が関1丁目 3 - 2 日本郵政 株式会社
528
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.5.8.4 Modèle d'adresse japonaise
Cette adresse a été traitée par la transformation Global Address Cleanse et le moteur Global Address.
Table 252 :
Entrée
0018521
北海道札幌市北区北十条西 1 丁目 12 番地 3 号創生ビル 1 階 101 号室札幌私書箱センター
Table 253 :
Champs de ligne d'adresse
Nom_principal1
Type_principal1
Nom_principal2
Type_principal2
Numéro_principal
Description_numéro_principal
Nom_immeuble1
Numéro_étage
Description_étage
Numéro_unité
Description_unité
Adresse_principale
Adresse_secondaire
Adresse_principale_secondaire
Table 254 :
Champs de la dernière ligne
Pays
Code_ISO_pays_3Chiffres
Code_ISO_pays_2Car
Code postal1
日本
392
JP
001
1
丁目
12
番地
1
階
3
号
創生ビル
101
号室
1
丁目 12 番地 3 号
創生ビル 1 階 101 号室
1
丁目 12 番地 3 号 創生ビル 1 階 101 号室
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
529
Champs de la dernière ligne
Code postal2
CodePostal_Complet
Région1
Description_région1
Nom_localité1
Description_localité1
Nom_localité2
Description_localité2
Nom_localité3
Dernière ligne
Table 255 :
Société
Société
Table 256 :
Champs non analysés
Code_Statut
Type_Affectation
Type_Adresse
8521
001-8521
北海
道
札幌
市
北
区
北十条西
001-8521
北海道 札幌市 北区 北十条西
S0000
F
S
札幌私書箱センター
17.5.9 Traitement des adresses chinoises
Le moteur d'adresses globales de la transformation Global Address Cleanse analyse les adresses chinoises. Le premier objectif de cette transformation et de ce moteur est d'analyser et de normaliser les adresses pour la correspondances des données et les applications de nettoyage.
530
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.5.9.1 Format d'adresse chinoise
Les adresses chinoises commencent par le code postal, suivi par la région administrative la plus grande (par exemple, la province) et continuent jusqu'à la plus petite unité (par exemple, le numéro de la chambre et le destinataire).
Lorsque les personnes envoient des courriers entre deux préfectures chinoises, elles incluent souvent la région administrative la plus grande dans l'adresse. Les adresses contiennent des informations détaillées sur l'endroit où le courrier sera livré. Les bâtiments le long des rues sont numérotés de façon séquentielle, parfois avec des nombres pairs d'un côté, et des nombres impairs de l'autre. Quelquefois, les nombres pairs et impairs se trouvent du même côté de la rue.
Le tableau suivant décrit les formats d'adresse chinoise.
Table 257 :
Format
Code Postal
Pays
Province
Préfecture
District
Description
Un numéro à 6 chiffres qui identifie le point de livraison cible de l'adresse. Il comporte souvent le préfixe
邮编.
Le nom complet de la Chine est
中华人民共和国 (République populaire de Chine, ou RPC). Pour le courrier livré en Chine, les adresses domestiques omettent souvent le nom de pays de l'adresse cible.
Équivalent d'un État aux États-Unis. La Chine a 34 divisions de niveau provincial, dont :
● Des provinces (省 shěng)
● Des régions autonomes (自治区 zìzhìqū)
● Des municipalités (直辖市 zhíxiáshì)
● Des régions administratives spéciales (特别行政区 tèbié xíngzhèngqū)
Les divisions de niveau préfectoral sont le deuxième niveau de la structure administrative, et incluent :
● Les préfectures (地区 dìqū)
● Les préfectures autonomes (自治州 zìzhìzhōu)
● Les villes-préfectures (地级市 dìjíshì)
● Les ligues (盟 méng)
Une sous-division de Préfecture qui comprend :
● Les districts (县 xiàn)
● Les districts autonomes (自治县 zìzhìxiàn)
● Les villes-districts (县级市 xiànjíshì)
● Les districts urbains (市辖区 shìxiáqū)
● Les bannières (旗 qí)
● Les bannières autonomes (自治旗 zìzhìqí)
● Les zones forestières (林区 línqū)
● Les districts spéciaux (特区 tèqū)
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
531
Format
Canton
Village
Informations de rue
Communauté résidentielle
Nom de bâtiment
Adresse métropolitaine commune
Adresse rurale
532
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Description
La division de niveau cantonal qui inclut :
● Les cantons (乡 xiāng)
● Les cantons ethniques (民族乡 mínzúxiāng)
● Les bourgs ((镇 zhèn)
● Les sous-districts (街道办事处 jiēdàobànshìchù)
● Les offices publics de district (区公所 qūgōngsuǒ)
● Les sumu (苏木 sūmù)
● Les sumu ethniques (民族苏木 mínzúsūmù)
Les villages incluent :
● Les communautés résidentielles (社区居民委员会 jūmín wěiyuánhùi)
● Les quartiers ou communautés (社区)
● Les villages (村民委员会 cūnmínwěiyuánhùi) ou
Les groupes de village
(
村民小组 cūnmínxiǎozǔ)
● Les villages administratifs (行政村 xíngzhèngcūn)
Spécifient le point de livraison où le destinataire peut être trouvé. En Chine, les informations sur la rue ont souvent la forme Nom de rue > Numéro de rue. Par exemple,
上海市浦东
新区晨晖路 1001 号
● Nom de rue : le nom de rue est généralement suivi par l'un de ces suffixes
路, 大道, 街, 大街,, etc.
● Numéro de rue : Le numéro de rue est suivi par le suffixe
号. Le numéro de rue est un numéro unique dans une rue.
Peut être utilisé pour la livraison de courrier, particulièrement pour certaines communautés résidentielles connues dans les grandes villes. Le nom de rue et le numéro de rue peuvent être omis. La communauté résidentielle n'a pas un standard d'ap pellation et ne doit pas forcément être suivie d'un marqueur typique. Cependant, elle est souvent suivie par les suffixes ty piques tels que
新村, 小区,, etc.
Le bâtiment est souvent suivi par le marqueur de bâtiment, tel que
大厦, 大楼, bien qu'il ne soit pas strictement exigé (par exemple
中华大厦). Le nom du bâtiment dans les communau tés résidentielles est souvent représenté par un nombre avec un suffixe
号,幢. Exemple : 上海市浦东新区晨晖路 100 弄 10
号 101 室.
Inclut le nom du district, qui est commun pour les zones mé tropolitaines dans les grandes villes. Pour une description des
Inclut le nom du village, qui est commun pour les adresses ru rales. Pour une description des composants d'adresse rurale
chinoise, voir Composants d'adresse rurale chinoise [page
.
Guide de Designer
Qualité des données
17.5.9.1.1 Composants d'adresses métropolitaines communes
Tableau des composants d'adresses métropolitaines communes.
Table 258 :
Composant d'adresse
Code postal
Chinois
510030
Anglais
510030
Pays
中国
Chine
Province
Nom de la ville
广东省
广州市
Province du Guang dong
Guangzhou
Nom du district
越秀区
Yuexiu
Nom de la rue
西湖路
Xihu Road
Numéro de rue 99
号
No. 99
Champ de sortie
Code_postal_complet
Pays
Région1_complet
Localité1_complet
Localité2_complet
Nom_principal_complet1
Numéro_principal_complet
17.5.9.1.2 Composants d'adresse rurale chinoise
Tableau des composants d'adresse rurale chinoise
Table 259 :
Composant d'adresse
Code postal
Chinois
5111316
Pays
Province
中国
广东省
Nom de la ville
Ville du niveau du district
Nom de la ville
Nom du village
Nom de la rue
Numéro de rue
广州市
增城市
荔城镇
联益村
光大路
99
号
Anglais
5111316
Champ de sortie
Code_postal_complet
Chine Pays
Province du Guang dong
Guangzhou
Région1_complet
Localité1_complet
Zengcheng
Licheng Town
Lianyi
Localité2_complet
Localité3_complet
Localité4_complet
Guangda Road
No. 99
Nom_principal_complet1
Numéro_principal_complet
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
533
17.5.9.2 Exemple d'adresse chinoise
Cette adresse a été traitée par la transformation Global Address Cleanse et le moteur Global Address.
Table 260 :
Entrée
510830
广东省广州市花都区赤坭镇广源路 1 号星辰大厦 8 层 809 室
Table 261 :
Champs de la ligne d'adresse
Nom_principal1
Type_principal1
Numéro_Principal
Description_numéro_principal
Bâtiment_nom1
Numéro_étage
Description_étage
Numéro_unité
Description_unité
Adresse_principale
Adresse_Secondaire
Adresse_secondaire_principale
广源
路
1
号
星辰大厦
8
层
809
室
广源路 1 号
星辰大厦 8 层 809 室
广源路 1 号星辰大厦 8 层 809 室
Table 262 :
Champs de la dernière ligne d'adresse
Pays
Code_postal_complet
Région1
Description_région1
Nom_localité1
Description_localité1
Nom_localité2
Description_localité2
Nom_Localité3
Description_localité3
Dernière ligne adresse
中国
510168
广东
省
广州
市
花都
区
赤坭
镇
510830
广东省广州市花都区赤坭镇
534
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Table 263 :
Champs non analysés
Code_Statut
Type_affectation
Type_adresse
S0000
S
S
17.5.10 Pays pris en charge (Global Address Cleanse)
Plusieurs pays sont pris en charge par la transformation Global Address Cleanse. Le niveau de correction varie selon le pays et le moteur utilisé. La couverture complète de toutes les adresses d'un pays n'est pas garantie.
Pour le moteur d'Adresse globale, la prise en charge des pays dépend des ensembles de répertoires postaux achetés.
Pour le Japon, le niveau d'affectation dépend des données fournies par le Ministère de la gestion publique, des affaires intérieures, des postes et télécommunications (MPT)
Lors du traitement Country ID, la transformation peut identifier plusieurs pays. Toutefois, les moteurs de la transformation Global Address Cleanse peuvent ne pas fournir la correction d'adresses pour l'ensemble de ces pays.
Informations associées
Modification du nom par défaut de pays de sortie [page 535]
17.5.10.1 Modification du nom par défaut de pays de sortie
Lorsque vous utilisez le moteur des Etats-Unis pour traiter des adresses des Samoa Américaines, de Guam, des
îles Mariannes du Nord, de Palau, de Porto Rico et des Iles vierges américaines, la région de sortie est AS, GU, MP,
PW, PR ou VI, respectivement. Les Etats-Unis (EU) constituent cependant le pays de sortie.
Si vous ne souhaitez pas les Etats-Unis comme pays de sortie lors du traitement des adresses avec le moteur des
Etats-Unis, définissez l'option
Utiliser le nom de pays postal
sur
Non
.
Ces étapes indiquent comment activer l'option Utiliser le nom de pays postal, dans la transformation Global
Address Cleanse.
1. Ouvrez la transformation
Global Address Cleanse
.
2. Dans l'onglet
Options
, développez
Options de standardisation Pays Options
.
3. Pour l'option
Utiliser le nom de pays postal
, sélectionnez
Non
.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
535
Informations associées
Pays pris en charge (Global Address Cleanse) [page 535]
17.5.10.2 Définition d'un pays par défaut
Remarque
Exécutez un traitement d'ID de pays uniquement dans les cas suivants :
● Vous utilisez deux ou plusieurs moteurs et vos adresses d'entrée contiennent des données de pays (par exemple, le code ISO à deux caractères ou une désignation du pays).
● Vous utilisez un moteur mais vos données d'entrée contiennent des adresses de plusieurs pays.
1. Ouvrez la transformation
Global Address Cleanse
.
2. Dans l'onglet
Options
, développez
Options d'ID de pays
puis l'option de
Mode d'ID de pays
, sélectionnez
Affecter
.
Cette valeur indique à la transformation d'utiliser l'
ID de pays
pour affecter le pays. Si l'
ID de pays
ne peut pas affecter le pays, il utilisera la valeur figurant dans
Désignation du pays
.
3. Pour l'option
Désignation du pays
, sélectionnez le pays que vous souhaitez utiliser comme pays par défaut.
La transformation utilisera ce pays uniquement si l'
ID de pays
ne peut pas affecter un pays. Si vous ne souhaitez pas utiliser de pays par défaut, sélectionnez
Aucun
.
4. Pour l'option
Code de script
, sélectionnez le type de code de script qui représente vos données.
L'option
LATN
indique un code de script pour la plupart des types de données. Cependant, si vous traitez les données relatives au Japon, sélectionnez
KANA
.
Informations associées
Identification du pays de destination [page 517]
Définition d'une constante Pays [page 536]
17.5.10.3 Définition d'une constante Pays
1. Ouvrez la transformation
Global Address Cleanse
.
2. Dans l'onglet
Options
, développez
Options d'ID pays
puis pour l'option
Mode d'ID de pays
, sélectionnez
Constante
.
Cette valeur indique à la transformation de prendre les informations relatives au pays à partir des options
Désignation du pays
et
Code de script
(au lieu d'exécuter le traitement ID de pays).
3. Pour l'option
Désignation du pays
, sélectionnez le pays qui représente toutes vos données d'entrée.
536
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
4. Pour l'option
Code de script
, sélectionnez le type de code de script qui représente vos données.
L'option
LATN
indique un code de script pour la plupart des types de données. Cependant, si vous traitez les données relatives au Japon, sélectionnez
KANA
.
Informations associées
Identification du pays de destination [page 517]
Définition d'un pays par défaut [page 536]
17.5.11 Certification Nouvelle-Zélande
La certification Nouvelle-Zélande permet de traiter les adresses de Nouvelle-Zélande et de les qualifier pour les remises sur les publipostages de la poste néo-zélandaise.
17.5.11.1 Activer la certification Nouvelle-Zélande
Vous devez acheter les données du répertoire de Nouvelle-Zélande et demander un numéro de client à la poste néo-zélandaise pour pouvoir utiliser l'option de certification Nouvelle-Zélande.
Pour traiter les adresses de Nouvelle-Zélande qui qualifient pour les remises sur les publipostages :
1. Dans la transformation Global Address Cleanse, activez
Rapport et analyse Générer les données du rapport
.
2. Dans la transformation Global Address Cleanse, définissez
Options de pays Désactiver la certification
sur
Non
.
Remarque
Le progiciel ne produit pas le rapport SOA (Statement of Accuracy) de Nouvelle-Zélande quand cette option est définie sur
Oui
.
3. Dans la transformation Global Address, renseignez toutes les options applicables du sous-groupe
Adresse globale Options de rapport Nouvelle-Zélande
.
4. Dans la transformation Global Address Cleanse, définissez
Moteurs Adresse globale
sur
Oui
.
Après avoir exécuté le job et produit le rapport SOA (Statement of Accuracy) de Nouvelle-Zélande, vous devez renommer ce dernier ainsi que le journal de production SOA de Nouvelle-Zélande avant d'envoyer votre
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
537
17.5.11.2 Rapport Statement of Accuracy de Nouvelle-Zélande
Le rapport SOA (Statement of Accuracy) de Nouvelle-Zélande comprend des informations statistiques sur le nettoyage d'adresses de Nouvelle-Zélande.
17.5.11.3 Journal de production SOA de Nouvelle-Zélande
Le journal de production est un fichier texte ASCII délimité par des barres verticales (avec un enregistrement d'en-tête).
Le journal de production est identique au rapport SOA (Statement of Accuracy) de Nouvelle-Zélande sauf qu'il se trouve dans un fichier texte ASCII délimité par des barres verticales (avec un enregistrement d'en-tête). Le logiciel crée le journal de production SOA en extrayant des données de la table Sendrightaddraccuracy dans le référentiel.
Le logiciel ajoute un nouvel enregistrement à la table Sendrightaddraccuracy chaque fois qu'un fichier est traité avec l'option DÉSACTIVER_CERTIFICATION définie sur
Non
. Si l'option DÉSACTIVER_CERTIFICATION est définie sur
Oui
, le logiciel ne produit pas le rapport SOA et aucune entrée n'est ajoutée à la table Sendrightaddraccuracy.
Les expéditeurs de publipostage doivent conserver le fichier journal de production pendant au moins 2 ans.
L'emplacement par défaut du journal de production SOA est
<REP_INSTALL> \Data Services\DataQuality
\certifications\CertificationLogs.
17.5.11.4 Exigences concernant le publipostage
Le rapport et le journal de production SOA ne sont requis que si vous envoyez les données traitées pour un publipostage et désirez bénéficier de remises d'affranchissement.
● Envoyez le journal de production SOA au moins une fois par mois.
● Envoyez un rapport SOA pour chaque fichier traité pour les remises sur publipostages.
Informations associées
Certification Nouvelle-Zélande [page 537]
Rapport Statement of Accuracy de Nouvelle-Zélande [page 538]
Journal de production SOA de Nouvelle-Zélande [page 538]
17.5.11.5 Modification du modèle de certification de Nouvelle-
Zélande
Suivez les étapes indiquées ci-dessous pour modifier le modèle de certification de Nouvelle-Zélande.
538
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
1. Importez le fichier nz_sendright_certification.atl situé dans le dossier DataQuality
\certifications dans lequel vous avez installé le logiciel.
L'emplacement par défaut est
<REP_INSTALL> \Data Services\DataQuality\certifications.
L'importation ajoute les objets suivants au référentiel.
○ Le projet DataQualityCertifications
○ Le job Job_DqBatchNewZealand_SOAProductionLog
○ Le flux de données DF_DqBatchNewZealand_SOAProductionLog
○ La banque de données DataQualityCertifications
○ Le format de fichier DqNewZealandSOAProductionLog
2. Modifiez l'objet de la banque de données DataQualityCertifications en suivant les étapes indiquées dans
Modification de la banque de données [page 539]
.
3. Conservez l'emplacement par défaut pour le journal de production SOA ou utilisez un autre emplacement en modifiant la configuration du paramètre de substitution : a. Dans Designer, sélectionnez
Outils Configurations des paramètres de substitution
.
b. Remplacez le chemin d'accès dans Configuration1 pour le paramètre de substitution $
$CertificationLogPath par l'emplacement de votre choix.
L'emplacement par défaut du journal de production SOA est
<REP_INSTALL> \Data Services
\DataQuality\certifications\CertificationLogs.
4. Exécutez le job Job_DqBatchNewZealand_SOAProductionLog.
Le job crée un journal de production SOA nommé SOAPerc_SOAExpDate_SOAId.txt à l'emplacement par défaut ou à celui indiqué dans la configuration du paramètre de substitution.
5. Renommez le fichier SOAPerc_SOAExpDate_SOAId.txt en utilisant les données du dernier enregistrement dans le fichier journal et le format de nommage de fichier décrit dans la section
Accuracy de Nouvelle-Zélande [page 538]
.
Informations associées
Rapport Statement of Accuracy de Nouvelle-Zélande [page 538]
17.5.11.6 Modification de la banque de données
Après avoir téléchargé le fichier modèle .zip vers le dossier approprié, l'avoir décompressé et avoir importé le fichier .atl dans le logiciel, vous devez modifier la banque de données DataQualityCertifications.
Pour modifier la banque de données :
1. Sélectionnez l'onglet
Banques de données
de la bibliothèque d'objets locale, faites un clic droit sur
DataQualityCertifications et sélectionnez
Modifier
.
2. Cliquez sur
Avancé
pour développer la fenêtre Modifier la banque de données DataQualityCertifications.
Remarque
Passez l'étape 3 si vous avez Microsoft SQL Server 2000 or 2005 comme type de base de données de la banque de données.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
539
3. Cliquez sur
Modifier
.
4. Trouvez la colonne pour votre type de base de données, modifiez la
Configuration par défaut
par
Oui
, et cliquez sur
OK
.
Remarque
Si vous utilisez une version d'Oracle autre que Oracle 9i; effectuez les sous-étapes suivantes : a. Dans la barre d'outils, cliquez sur
Créer une configuration
.
b. Saisissez vos informations, dont la version de la base de données Oracle que vous utilisez, puis cliquez sur
OK
.
c. Cliquez sur
Fermer
sur la fenêtre Nouvelles valeurs ajoutées - Objets modifiés.
d. Dans la nouvelle colonne qui apparait à droite des colonnes précédentes, sélectionnez
Oui
pour la
Configuration par défaut
.
e. Saisissez les informations pour les options
Nom de la connexion à la base de données
,
Nom de l'utilisateur
et
Mot de passe
.
f. Dans
DBO
, saisissez le nom du schéma.
g. Dans
Code Page
, sélectionnez
cp1252
puis cliquez sur
OK
.
5. Sur la fenêtre Modifier la banque de données DataQualityCertifications, saisissez vos informations de connexion au référentiel à la place des valeurs CHANGE_THIS. (Il est possible que vous deviez modifier trois ou quatre options, en fonction du type de référentiel).
6. Développez le groupe
Alias
et saisissez votre nom de propriétaire à la place de la valeur CHANGE_THIS. Si vous utilisez Microsoft SQL Server, définissez cette valeur sur
DBO
.
7. Cliquez sur
OK
.
Si la fenêtre se ferme sans aucun message d'erreur, alors la base de données est correctement connectée.
17.5.12 Option de la liste de propositions de Global Address
Cleanse
L'option de traitement de la liste de propositions de la transformation Global Address Cleanse est utilisée dans les projets opérationnels pour compléter et remplir les adresses qui ont des données minimales. Les listes de propositions peuvent fournir des propositions pour les correspondances possibles si aucune correspondance exacte n'est trouvée.
Cette option est avantageuse dans les situations où vous souhaitez extraire les adresses pas entièrement affectées par un processus automatisé et effectuer dans le système une recherche de liste des correspondances possibles. En fonction de l'adresse d'entrée donnée, la transformation Global Address Cleanse effectue une recherche tolérante aux erreurs dans le répertoire d'adresses et renvoie une liste des correspondances possibles.
A partir de la liste de propositions renvoyée, vous pouvez sélectionner la proposition correcte et mettre à jour la base de données en conséquence.
Remarque
Aucune certification avec les listes de propositions : Si vous utilisez le moteur Canada ou le moteur d'adresse globale pour l'Australie et la Nouvelle-Zélande, il est impossible de certifier votre publipostage pour la certification SERP, AMAS ou de Nouvelle-Zélande.
540
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Commencer par un modèle de transformation
Si vous souhaitez utiliser la fonctionnalité des listes de propositions, le mieux est de commencer avec les exemples de transformations qui sont configurés à cette fin. Le modèle de transformation
GlobalSuggestions_AddressCleanse est configuré pour nettoyer les données d'adresses de type Latin-1 dans tous les pays pris en charge à l'aide de la fonctionnalité de liste de propositions.
Informations associées
Extraction de chaînes XML de qualité des données à l'aide de la fonction extract_from_xml [page 252]
17.5.13 Transformation Global Suggestion List
La transformation Global Suggestion List vous permet d'effectuer des requêtes sur les adresses avec un minimum de données (utilisation de caractères génériques) et peut fournir une liste de propositions pour les correspondances possibles.
C'est un outil précieux dans un environnement de centre d'appels où les opérateurs doivent effectuer un minimum de saisie (nombre de frappes de touches) pour rechercher l'adresse de livraison de l'appelant. Par exemple, si l'opérateur est en ligne avec un appelant du Royaume-Uni, l'application propose le code postal et la plage d'adresses. Global Suggestion List est utilisée pour rechercher l'adresse avec une saisie rapide.
La transformation Global Suggestion List requiert l'entrée du code pays ISO à deux caractères. Par conséquent, vous pouvez éventuellement souhaiter placer une transformation comme Country ID qui sort le champ
Code_Pays_ISO_2Car avant la transformation Global Suggestion Lists. La transformation Global Suggestion List est disponible pour les moteurs Canada, Adresse globale et Etats-Unis.
Remarque
Aucune certification avec les listes de propositions : Si vous utilisez les moteurs Canada, Adresse globale ou
Etats-Unis pour l'Australie et la Nouvelle-Zélande, vous ne pouvez pas certifier votre publipostage pour la certification SERP, CASS, AMAS ou Nouvelle-Zélande.
Remarque
Cette option ne prend pas en charge le traitement des données d'adresses japonaises ou chinoises.
Commencer par un modèle de transformation
Pour utiliser la transformation Global Suggestion List, il vaut mieux commencer par l'un des modèles de transformation configuré spécifiquement. Les modèles de transformation suivants sont disponibles.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
541
Table 264 :
Modèle de transformation
GlobalSuggestions
UKSuggestions
Description
Modèle de transformation configuré pour générer une liste de propositions pour les don nées d'adresses Latin-1 dans tous les pays pris en charge.
Modèle de transformation configuré pour générer une liste de propositions pour les don nées d'adresses partielles au Royaume-Uni.
17.6 Au-delà du nettoyage d'adresse de base
La transformation USA Regulatory Address Cleanse propose des fonctionnalités de nettoyage d'adresse supplémentaires pour les adresses américaines. Ces fonctionnalités étendent le nettoyage d'adresse au-delà de l'analyse et le retraitement de base. Pour en savoir plus sur la transformation USA Regulatory Address Cleanse et ses options, voir le Guide de référence.
17.6.1 USPS DPV®
Delivery Point Validation® est un produit USPS conçu pour aider les utilisateurs à valider l'exactitude de leurs informations d'adresse. DPV compare les informations de code postal2 aux répertoires DPV afin d'identifier les adresses connues et les problèmes potentiels au niveau de l'adresse susceptibles de la rendre non livrable.
DPV est disponible pour les données des États-Unis, uniquement dans la transformation USA Regulatory Address
Cleanse.
Remarque
Le traitement DPV est requis pour la certification CASS. Si vous n'effectuez pas le traitement pour la certification CASS, vous pouvez choisir d'exécuter vos jobs en mode non certifié et toujours activer DPV
Attention
Si vous choisissez de désactiver le traitement DPV, le progiciel ne générera pas la documentation requise par
CASS et votre publipostage ne sera pas éligible pour les remises sur les affranchissements.
Informations associées
542
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.1.1 Avantages de DPV
DPV peut être bénéfique dans les domaines suivants :
● Publipostage : DPV aide à écarter les plis non distribuables (UAA) et aide à réduire les coûts du publipostage.
● Qualité d'informations : DPV augmente le niveau de précision des données en permettant de vérifier la maison, la suite ou l'appartement individuel d'une adresse, au lieu de vérifier uniquement l'immeuble.
● Taux d'affectation amélioré : DPVpeut augmenter le taux d'affectation à l'aide d'un bris d'égalité DPV pour résoudre une égalité lorsque les autres méthodes de bris d'égalité ne sont pas concluantes.
● Prévention de la fraude par vente par correspondance : DPVpeut éliminer les transports de marchandises aux personnes qui réalisent des commandes frauduleuses en vérifiant les adresses de livraison valides et les agences de boîte postale (CMRA).
17.6.1.2 Sécurité DPV
L'USPS a instauré des processus qui surveillent l'utilisation de DPV. Chaque société qui achète la fonctionnalité
DPV doit signer un accord juridique qui affirme qu'elle n'essayera pas de faire mauvais usage du produit DPV. Si un utilisateur abuse du produit DPV, l'USPS a le droit d'interdire à l'utilisateur d'utiliser DPV à l'avenir.
17.6.1.2.1 fausses adresses DPV positives
L'USPS a inclus des fausses adresses positives dans les répertoires DPV comme une sécurité supplémentaire pour prévenir des abus de DPV. Selon votre type d'utilisateur et vos codes de clé de licence, le logiciel adopte un comportement différent lorsqu'il rencontre une adresse avec faux positif. Le tableau suivant décrit les comportements pour chaque type d'utilisateur :
Table 265 :
Type d'utilisateur
Utilisateurs finaux
Utilisateurs finaux avec un contrat pour le Stop pro cessing alternative
Fournisseurs de services
Comportement du progiciel
Le traitement DPV s'inter rompt.
A consulter
Obtention d'un code de déblocage DPV auprès du Support SAP.
Le traitement DPV se poursuit. Envoi des journaux de faux positifs à
USPS
Le traitement DPV se poursuit. Envoi des journaux de faux positifs à
USPS
Informations associées
Stop Processing Alternative [page 544]
Obtention d'un code de déblocage DPV auprès de SAP [page 546]
Envoi de journaux de faux positifs DPV à l'USPS [page 547]
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
543
17.6.1.2.2 Stop Processing Alternative
Les utilisateurs finaux peuvent établir un contrat Stop Processing Alternative avec l'USPS et SAP.
Le fait d'établir un contrat Stop processing permet d'ignorer les verrouillages de répertoires futurs. Stop
Processing Alternative n'est pas une option dans le logiciel, il s'agit d'un code de clé que vous obtenez auprès du
Support SAP.
Vous devez d'abord obtenir les autorisations nécessaires auprès de l'USPS, puis fournir les preuves d'autorisation au Support SAP. Le support fournit ensuite un code de clé qui désactive la fonction de verrouillage de répertoire dans le logiciel.
N'oubliez pas
Lorsque vous avez obtenu le code de clé Stop Processing Alternative de la part du Support SAP, saisissez-le dans le Gestionnaire de licences SAP. Une fois le code de clé Stop Processing Alternative placé, le logiciel prend les mesures suivantes lorsqu'un faux positif est rencontré :
● Marque l'enregistrement comme un faux positif.
● Génère un fichier journal qui contient la fausse adresse positive.
● Note les chemins d'accès aux fichiers journaux dans le journal des erreurs.
● Génère un rapport US Regulatory Locking Report qui contient le chemin d'accès au fichier journal.
● Continue de traiter les jobs.
Bien que le job continue le traitement, vous devez envoyer le fichier journal de faux positifs à l'USPS pour les informer qu'une fausse adresse positive a été détectée. L'USPS doit libérer la liste avant que vous puissiez l'utiliser pour le traitement.
Informations associées
Envoi de journaux de faux positifs DPV à l'USPS [page 547]
17.6.1.2.3 journaux DPV de faux positifs
Le logiciel génère un fichier journal de faux positif à chaque fois qu'il rencontre un enregistrement de faux positif, sans tenir compte de la configuration du job. Le logiciel crée un fichier journal distinct pour chaque liste de diffusion qui contient un faux positif. Si plusieurs faux positifs existent dans une liste de diffusion, le logiciel les
écrit tous dans le même fichier journal.
17.6.1.2.3.1 Emplacement et nom du fichier journal DPV
Le logiciel enregistre les fichiers journaux DPV dans le répertoire indiqué dans l'option
Chemin d'accès du journal
USPS
dans le groupe Fichiers de référence.
544
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Remarque
Le chemin d'accès aux journaux USPS que vous saisissez doit être accessible en écriture. Une erreur est générée si vous saisissez un chemin non accessible en écriture.
Convention d'appellation des fichiers journaux
Le logiciel nomme automatiquement les journaux de faux positifs DPV avec le format suivant : dpvl####.log
Le partie #### du format du nom est un nombre compris en 0001 et 9999. Par exemple, le premier fichier journal généré est dpvl0001.log, le suivant est dvpl0002.log, etc.
Remarque
Lorsque vous avez défini le degré de parallélisme du flux de données supérieur à 1, ou que vous avez activé l'exécution comme une option de processus séparée, le logiciel génère un journal par thread ou processus. Si le progiciel rencontre un enregistrement avec faux positif lors de l'exécution d'un job, un journal est généré.
Cependant, s'il rencontre plus d'un enregistrement de faux positif et que les enregistrements sont traités dans des processus ou des threads différents, alors le logiciel génère un journal pour chaque thread qui traite un enregistrement de faux positif.
17.6.1.2.4 Verrouillage DPV pour utilisateurs finaux
Ce comportement de verrouillage s'applique aux utilisateurs finaux ou aux utilisateurs qui sont des clients DSF2 et qui ont désactivé DSF2 dans le job
Lorsque le logiciel trouve une fausse adresse positive, le traitement DPV est interrompu pour le reste du flux de données. Le logiciel prend également les mesures suivantes :
● Marque l'enregistrement comme adresse avec faux positif.
● Émet un message dans le journal des erreurs affirmant qu'une fausse adresse DPV positive a été rencontrée.
● Écrit l'adresse avec faux positif et le code de blocage dans le journal des erreurs.
● Continue de traiter les flux de données sans le traitement DPV.
● Génère un code de blocage.
● Génère un journal de faux positifs.
● Génère un rapport US Regulatory Locking Report qui contient la fausse adresse positive et le code de verrouillage. (La génération de rapport doit être activée dans la transformation USA Regulatory Address
Cleanse.)
Pour restaurer la fonctionnalité DPV, l'utilisateur doit obtenir un code de déblocage DPV auprès du Support SAP.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
545
Informations associées
Obtention d'un code de déblocage DPV auprès de SAP [page 546]
17.6.1.2.5 Obtention d'un code de déblocage DPV auprès de
SAP
Ces étapes peuvent être appliquées pour des utilisateurs finaux ne disposant pas d'accord Stop Processing
Alternative avec l'USPS. Lorsque vous recevez un message de traitement indiquant que des adresses avec faux positifs DPV figurent sur votre liste d'adresses, utilisez l'utilitaire de déblocage SAP USPS pour obtenir un code de déblocage.
1. Naviguez jusqu'à https://websmp205.sap-ag.de/bosap-unlock pour ouvrir la page de l'utilitaire de déblocage SAPService Market Place (SMP).
2. Cliquez sur
Retrieve USPS Unlock Code
.
3. Cliquez sur
Rechercher
et sélectionnez un système Data Services applicable dans la liste.
4. Saisissez le code de blocage trouvé dans le fichier dpvx.txt (l'emplacement est indiqué dans l'option
Chemin d'accès DPV
dans le groupe de fichiers de référence).
5. Sélectionnez DPV comme type de blocage.
6. Sélectionnez BOJ-EIM-DS comme composant.
7. Saisissez l'adresse de blocage listée dans le fichier dpvx.txt.
8. Joignez le fichier dpvl####.log (l'emplacement est indiqué dans l'option
Chemin d'accès du journal USPS
dans le groupe de fichiers de référence).
9. Cliquez sur
Soumettre
.
Le code de déblocage s'affiche.
10. Copiez le code de déblocage et collez-le dans le fichier dpvw.txt, en remplaçant tous les contenus du fichier par le code de déblocage (l'emplacement est indiqué dans l'option
Chemin d'accès de DPV
du groupe de fichiers de référence).
11. Supprimez l'enregistrement ayant causé le blocage de la base de données et supprimez le fichier dpvl####.log avant de traiter à nouveau la liste.
Conseil
N'oubliez pas que vous pouvez utiliser le code de déblocage une seule fois. Si le logiciel détecte un autre faux positif (même s'il s'agit du même enregistrement), vous devrez récupérer un nouveau code de déblocage LACSLink.
Si un code de déblocage n'a pas pu être généré, un message est de nouveau créé, il est traité par un ingénieur d'étude de l'Assurance client technique (pendant les heures d'ouverture normales).
Remarque
Si vous êtes un utilisateur final disposant d'un accord Stop Processing Alternative, suivant les étapes relatives
à l'envoi du journal de faux positifs au USPS.
546
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.1.2.6 Envoi de journaux de faux positifs DPV à l'USPS
Les prestataires de service doivent suivre ces étapes une fois qu'ils ont reçu un message de traitement indiquant que de fausses adresses positives DPV figurent dans leur liste d'adresses. Les utilisateurs finaux disposant d'un accord Stop Processing Alternative doivent suivre ces étapes une fois qu'ils ont reçu un traitement du message indiquant que de fausses adresses positives DPV figurent dans leur liste d'adresses.
1. Envoyez un e-mail à USPS NCSC à l'adresse Dsf2stop@usps.gov et incluez les informations suivantes :
○ Saisissez «DPV False Positive» sur la ligne Objet.
○ Joignez le fichier dpvl####.log ou les fichiers précédemment générés par le logiciel (l'emplacement est indiqué dans l'option de répertoire
Chemin d'accès du journal USPS
dans l'option de répertoire du groupe de fichiers de référence)
L'USPS NCSC utilise les informations pour déterminer si la liste peut être renvoyée à l'expéditeur.
2. Une fois que l'USPS NCSC a validé la liste contenant l'enregistrement bloqué ou de faux positifs :
○ Supprimez le fichier journal ou les fichiers correspondants.
○ Supprimez l'enregistrement qui a causé le blocage de la liste et retraitez le fichier.
Si vous êtes un utilisateur final qui ne dispose pas d'un accord Stop Processing Alternative, suivez les étapes permettant de récupérer le code de déblocage DPV auprès du Support SAP.
Informations associées
Obtention d'un code de déblocage DPV auprès de SAP [page 546]
17.6.1.3 Répertoires DPV mensuels
Les répertoires DPV sont livrés mensuellement avec les répertoires USPS conformément aux indications USPS.
Les répertoires expirent en 105 jours. La date sur les répertoires DPV doit être identique à celle du répertoire
Adresse.
Ne renommez aucun fichier. DPV n'exécute pas si les noms de fichier ont été modifés. Ci-dessous se trouve une liste des répertoires DPV :
● dpva.dir
● dpvb.dir
● dpvc.dir
● dpvd.dir
● dpv_vacant.dir
● dpv_no_stats.dir
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
547
17.6.1.4 Informations requises pour la configuration des jobs
Lorsque vous configurez le traitement DPV, les options suivantes dans le groupe d'informations de licence USPS sont requises :
●
Nom de la société du client
●
Adresse de la société du client
●
Localité de la société du client
●
Région de la société du client
●
Code postal de la société du client1
●
Code postal de la société du client2
17.6.1.5 Activer DPV
Remarque
DPV est requis pour CASS.
Outre les informations requises relatives à la société client que vous saisissez dans le groupe USPSLicense
Information, activez les options suivantes pour exécuter le traitement DPV :
1. Ouvrez la transformation USA Regulatory Address Cleanse.
2. Ouvrez l'onglet
Options
, développez le groupe Options d'affectation et sélectionnez Oui pour l'option
Activer
DPV
.
3. Dans le groupe de fichiers de référence, saisissez le chemin de vos répertoires DPV dans l'option
Chemin d'accès de DPV
.
Remarque
DPV peut être exécuté uniquement lorsque l'emplacement pour tous les répertoires DPV a été saisi et aucun des fichiers de répertoire DPV n'a été renommé.
4. Définissez un référentiel pour le fichier journal DPV dans l'option
Chemin d'accès du journal USPS
. Utilisez la variable de substitution $$CertificationLogPath si vous l'avez configurée.
5. Dans le groupe Rapport et analyse, sélectionnez Oui pour l'option
Générer données de rapport
.
17.6.1.6 Champs de sortie DPV
Plusieurs champs de sortie sont disponibles pour signaler les résultats du traitement DPV :
● DPV_CMRA
● Note_Bas_Page_DPV
● DPV_No_Stat
● Statut_DPV
548
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● DPV_Vacant
Pour accéder à une description complète de ces champs de sortie, consultez le Guide de référence ou les informations de l'Aide Data Services qui apparaissent lorsque vous ouvrez l'onglet Sortie de la transformation
USA Regulatory Address Cleanse.
17.6.1.7 Mode non certifié
Il est possible de configurer les jobs en ayant DPV désactivé si vous n'êtes pas un client CASS mais que vous souhaitez ajouter un code postal2 aux adresses. L'option de non CASS,
Affecter code postal2 non validé DPV
, permet au logiciel d'affecter un code postal2 lorsqu'une adresse ne confirme pas un DPV.
Attention
Si vous choisissez de désactiver le traitement DPV, le logiciel ne génère pas la documentation requise pour
CASS et le publipostage n'est pas éligible pour les remises postales.
17.6.1.7.1 Activer le mode non certifié
Pour exécuter un job en mode non certifié, suivez les étapes de configuration suivantes
1. Dans le groupe Opérations d'affectation, activez l'option
Activer DPV
sur Non.
2. Dans le groupe d'options Non certifié, activez l'option
Désactiver la certification
sur Oui.
3. Dans le groupe d'options Non certifié, activez l'option
Affecter code postal2 non validé DPV
sur Oui.
Attention
Le logiciel efface toutes les informations relatives au code postal2 de vos données si vous désactivez le traitement DPV et l'option
Affecter code postal2 non validé DPV
. Ceci comprend les informations relatives au code postal2 fournies dans votre fichier d'entrée.
17.6.1.8 Performances de DPV
En raison du temps supplémentaire requis pour exécuter le traitement DPV, vous pouvez constater une modification du temps de traitement. Le temps de traitement peut varier avec la fonctionnalité DPV selon le système d'exploitation, la configuration système et d'autres variables pouvant être uniques à votre environnement opérationnel.
Vous pouvez réduire le temps requis pour le traitement DPV en chargeant les répertoires DPV dans la mémoire système avant le traitement.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
549
17.6.1.8.1 Utilisation de la mémoire
Vous devrez peut être installer de la mémoire supplémentaire sur votre système d'exploitation pour le traitement
DPV. Un minimum de 768 Mo est recommandé pour le traitement avec DPV activé.
Pour déterminer la quantité de mémoire requise pour une exécution avec DPV activé, contrôlez la taille des répertoires DPV (récemment environ 600 Mo
1
) et ajoutez-la à la quantité de mémoire requise pour exécuter le logiciel.
La taille des répertoires DPV varie en fonction de la quantité de nouvelles données dans chaque version de répertoire.
Assurez-vous que votre ordinateur dispose de suffisamment de mémoire disponible avant d'effectuer le traitement DPV.
Pour connaître l'espace disque requis pour la mise en cache des répertoires, voir le document Supported
Platforms (Plateformes prises en charge) sur SAP Support Portal. Vous trouverez des informations sur les liens dans le tableau des ressources d'informations SAP (voir le lien ci-dessous).
17.6.1.8.2 Mise en cache des répertoires DPV
Pour mieux gérer l'utilisation de la mémoire lorsque vous avez activé le traitement DPV, choisissez de cacher les répertoires DPV.
Pour configurer votre job pour la mise en mémoire cache DPV, suivez ces étapes :
1. Dans le groupe Transform Performance, activez l'option
Mettre en mémoire cache répertoires DPV
sur oui.
2. Dans le même groupe, activez l'option
Action de mémoire cache insuffisante
sur l'une des valeurs suivantes :
Table 266 :
Option
Erreur
Continuer
Description
Le logiciel génère une erreur et interrompt la transformation.
Le logiciel tente de poursuivre l'initialisation sans mise en mémoire cache.
17.6.1.8.3 Exécution de plusieurs jobs avec DPV
Lors de l'exécution de plusieurs jobs DPV et du chargement de répertoires dans la mémoire, il est recommandé d'ajouter une pause de 10 secondes entre les jobs pour laisser du temps à la mémoire pour se libérer. Pour plus d'informations pour effectuer correctement ce paramétrage, consultez le manuel de votre système d'exploitation.
Si vous n'ajoutez pas une pause de 10 secondes entre les jobs, il est possible que votre système n'ait pas assez de temps pour libérer la mémoire utilisée pour la mise en cache des répertoires à partir du premier job. Le prochain job en attente de traitement peut créer une erreur ou accéder aux répertoires à partir du disque s'il n'y a pas assez de mémoire pour cacher les répertoires. Cela peut aboutir à une dégradation de la performance.
1
; la taille des répertoires est susceptible de changer à chaque fois que de nouveaux répertoires DPV sont installés
550
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.1.9 Informations DPV dans le document US Addressing
Report
Le document US Addressing Report est généré automatiquement lorsque le reporting est activé dans le job. Les sections suivantes du rapport US Addressing Report contiennent les informations DPV :
● Codes de retour DPV
● Résumé Delivery Point Validation (DPV)
Pour plus d'informations sur le rapport US Addressing Report, ou sur d'autres rapports Data Quality, consultez le guide Management Console Guide.
17.6.1.10 Indicateurs Aucune statistiques DPV
L'USPS utilise les indicateurs Aucune statistique pour marquer les adresses qui rentrent dans la catégorie Aucune statistique. Le logiciel utilise la table No Stats lorsque DPV ou DSF2 sont allumés dans le job. L'USPS place les adresses sans statistique dans trois catégories :
● Les adresses qui n'ont pas encore de livraison établie.
● Les adresses qui reçoivent le courrier dans le cadre d'un dépôt.
● Les adresses qui ont été vacantes pendant une certaine durée.
17.6.1.10.1 Table No Stats
Vous devez installer la table No Statsdpv_no_stats.dir avant que le logiciel effectue le traitement DPV ou
DSF2. La table No Stats est fournie par SAP BusinessObjects avec l'installation du répertoire DPV.
Le logiciel contrôle automatiquement la table No Stats dans le dossier du répertoire que vous avez indiqué dans la configuration du job. Le logiciel effectue le traitement DPV ou DSF2 en fonction du statut d'installation du répertoire.
Table 267 : dpv_no_stats.dir
Résultats
Installé Le logiciel sort automatiquement les indicateurs Aucune statistique lorsque vous incluez le champ de sortie DPV_NoStats dans le job.
Non installé Le logiciel ignore automatiquement le traitement Aucune statistique et n'émet pas un message d'erreur. Le logiciel effectue le traitement DPV mais ne renseigne pas le champ de sortie DPV_NoStats.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
551
17.6.1.10.2 Champ de sortie Aucune statistique
Utilisez le champ de sortie DPV_NoStats pour enregistrer les informations de l'indicateur Aucune statistique dans un fichier de sortie.
Aucune statistique signifie que l'adresse est une propriété vacante, qu'elle reçoit du courrier dans le cadre d'un dépôt, ou qu'elle n'a pas encore de livraison établie.
Informations associées
Champs de sortie DPV [page 548]
17.6.1.11 Indicateurs Vacants DPV
Le logiciel fournit des informations sur les vacants dans les champs de sortie et des rapports à l'aide des nombres de vacants DPV. La table de recherche des vacants USPS DPV est fournie par SAP BusinessObjects avec l'installation du répertoire DPV.
L'USPS utilise des indicateurs vacants DPV pour marquer les adresses qui rentrent dans la catégorie vacante. Le logiciel utilise les indicateurs vacants DPV lorsque vous avez activé DPV ou DSF2 dans le job.
Conseil
L'USPS définit comme vacant tous les points de livraison qui étaient actifs dans le passé mais qui sont actuellement non occupés (généralement au-delà de 90 jours) et qui ne reçoivent actuellement aucune livraison de courrier. L'adresse pourrait recevoir une livraison à nouveau dans le futur. "Vacant" ne s'applique pas aux adresses saisonnières.
17.6.1.11.1 Champ de sortie de l'attribut d'adresse DPV
Les indicateurs vacants pour les adresses affectées sont disponibles dans le champ de sortie DPV_Vacant.
Remarque
Le rapport US Addressing Report contient des nombres de Vacant DPV dans la section Summary DPV.
Informations associées
Champs de sortie DPV [page 548]
552
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.2 LACSLink®
LACSLinkest un produit USPSdisponible pour les enregistrements des Etats-Unis, uniquement avec la transformation USA Regulatory Address Cleanse. Le traitement LACSLink est requis pour la certification CASS.
LACSLink met à jour les adresses lorsque l'adresse physique ne change pas, mais que l'adresse postale a été modifiée. Par exemple, lorsque la municipalité change les adresses de routes rurales en adresses de nom de rue.
Les conversions de routes rurales facilitent la localisation des adresses rurales pour la police, les pompiers, les ambulances et la poste. LACSLink convertit également les adresses lorsque les rues sont renommées ou lorsque les boîtes postales renumérotées.
La technologie LACSLink garantit que les données restent privées et sécurisées tout en vous permettant un accès facile à celles-ci. LACSLink est une partie intégrante du traitement des adresses, ce n'est pas une étape supplémentaire. Pour obtenir les nouvelles adresses, vous devez déjà avoir les anciennes données d'adresses.
Informations associées
Fonctionnement de LACSLink [page 557]
Contrôle de l'utilisation de mémoire pour le traitement LACSLink [page 561]
Désactivation de LACSLink [page 559]
17.6.2.1 Avantages de LACSLink
Le traitement LACSLink est nécessaire pour tous les clients CASS.
Si vous traitez les données sans activer LACSLink, vous n'obtiendrez pas les rapports ou remises postales CASS souhaités.
17.6.2.2 Sécurité LACSLink
USPS a institué des processus qui surveillent l'utilisation de LACSLink. Chaque société qui achète la fonctionnalité
LACSLink doit signer un accord juridique qui affirme qu'elle n'essayera pas de faire mauvais usage du produit
LACSLink. Si un utilisateur abuse du produit LACSLink, l'USPS a le droit d'interdire à l'utilisateur d'utiliser
LACSLink à l'avenir.
17.6.2.2.1 Adresses avec faux positif LACSLink
USPS a inclus des adresses avec faux positif dans les répertoires LACSLink, mettant ainsi en place une sécurité supplémentaire pour éviter le détournement de LACSLink. Selon votre type d'utilisateur et vos codes de clé de
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
553
licence, le progiciel adopte un comportement différent lorsqu'il rencontre une adresse avec faux positif. Le tableau suivant décrit les comportements pour chaque type d'utilisateur :
Table 268 :
Type d'utilisateur
Utilisateurs finaux
Comportement du progiciel
Le traitement LACSLink s'interrompt.
Utilisateurs finaux disposant d'un accord
Stop Processing Alternative
Le traitement LACSLink se poursuit.
Fournisseurs de services Le traitement LACSLink se poursuit.
A consulter
Obtention du code de déblocage LACS
Link auprès du Support SAP
Envoi des journaux de faux positifs à
USPS
Envoi des journaux de faux positifs à
USPS
Informations associées
Stop Processing Alternative [page 544]
Obtention d'un code de déblocage LACSLink auprès de SAP [page 555]
Envoi de journaux de faux positifs LACSLink au USPS [page 556]
17.6.2.2.2 Journaux de faux positifs LACSLink
Le progiciel génère un fichier journal de faux positif chaque fois qu'il rencontre un enregistrement avec faux positif, quelle que soit la configuration de votre job. Un fichier journal distinct est créé pour chaque liste de diffusion contenant un faux positif. Si plusieurs faux positifs existent dans une liste de diffusion, le logiciel les écrit tous dans le même fichier journal.
17.6.2.2.2.1 Emplacement des fichiers journaux LACSLink
Le progiciel sauvegarde les fichiers journaux LACSLink dans le répertoire indiqué pour l'option
Chemin d'accès du journal USPS
au niveau du groupe Fichiers de référence.
Remarque
Le chemin d'accès aux journaux USPS que vous saisissez doit être accessible en écriture. Une erreur est générée si vous saisissez un chemin non accessible en écriture.
Dans le progiciel, les journaux de faux positifs LACSLink sont nommés lacsl
<###> .log, <###>
correspondant à un nombre entre 001 et 999. Le premier fichier journal généré est, par exemple, lacsl001.log, le suivant lacsl002.log, etc.
Remarque
Si vous avez défini un degré de parallélisme supérieur à 1 pour le flux de données, le progiciel génère un journal par thread. Si le progiciel rencontre un enregistrement avec faux positif lors de l'exécution d'un job, un journal
554
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
est généré. En revanche, s'il rencontre plusieurs enregistrements avec faux positif et que les enregistrements sont traités au niveau de plusieurs threads, le progiciel génère un journal pour chaque thread traitant un enregistrement avec faux positif.
17.6.2.2.3 Blocage de LACSLink pour les utilisateurs finaux
Un tel blocage est pertinent pour les utilisateurs finaux ou les utilisateurs qui disposent d'une licence DSF2 lorsque DSF2 est désactivé dans le job.
Lorsque le progiciel identifie une adresse avec faux positif, le traitement LACSLink est abandonné pour le reste du traitement du job. Le progiciel effectue les opérations suivantes :
● Il marque l'enregistrement comme adresse avec faux positif.
● Dans le journal des erreurs, il génère un message indiquant qu'une adresse avec faux positif LACSLink a été identifiée.
● Il indique l'adresse avec faux positif et le code de blocage dans le journal des erreurs.
● Continue de traiter les flux de données sans le traitement LACSLink.
● Il génère un code de blocage.
● Il génère un journal des erreurs de faux positifs.
● Il génère un rapport US Regulatory Locking Report contenant l'adresse avec faux positif et le code de blocage
(la création du rapport doit être activée dans la transformation USA Regulatory Address Cleanse).
Pour restaurer la fonctionnalité LACSLink, l'utilisateur doit obtenir un code de déblocage LACSLink auprès du
Support SAP.
17.6.2.2.4 Obtention d'un code de déblocage LACSLink auprès de SAP
Ces étapes peuvent être appliquées pour des utilisateurs finaux ne disposant pas d'accord Stop Processing
Alternative avec l'USPS. Lorsque vous recevez un message de traitement indiquant que des adresses avec faux positifs LACSLink figurent sur votre liste d'adresses, utilisez l'utilitaire de déblocage SAP USPS pour obtenir un code de déblocage.
1. Naviguez jusqu'à https://websmp205.sap-ag.de/bosap-unlock pour ouvrir la page de l'utilitaire de déblocage SAPService Market Place (SMP).
2. Cliquez sur
Retrieve USPS Unlock Code
.
3. Cliquez sur
Rechercher
et sélectionnez un système Data Services applicable dans la liste.
4. Saisissez le code de blocage trouvé dans le fichier lacsx.txt (l'emplacement est indiqué dans l'option
Chemin d'accès LACSLink
dans le groupe de fichiers de référence).
5. Sélectionnez LACSLink comme type de blocage.
6. Sélectionnez BOJ-EIM-DS comme composant.
7. Saisissez l'adresse de blocage listée dans le fichier lacsx.txt.
8. Joignez le fichier lacsl####.log (l'emplacement est indiqué dans l'option
Chemin d'accès du journal USPS
dans le groupe de fichiers de référence).
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
555
9. Cliquez sur
Soumettre
.
Le code de déblocage s'affiche.
10. Copiez le code de déblocage et collez-le dans le fichier lacsw.txt, en remplaçant tous le contenu du fichier par le code de déblocage (l'emplacement est indiqué dans l'option
Chemin d'accès LACSLink
dans le groupe de fichiers de référence).
11. Supprimez l'enregistrement ayant causé le blocage de la base de données et le fichier lacsl####.log avant de traiter à nouveau la liste.
Conseil
N'oubliez pas que vous pouvez utiliser le code de déblocage une seule fois. Si le logiciel détecte un autre faux positif (même s'il s'agit du même enregistrement), vous devrez récupérer un nouveau code de déblocage LACSLink.
Si un code de déblocage n'a pas pu être généré, un message est de nouveau créé, il est traité par un ingénieur d'étude de l'Assurance client technique (pendant les heures d'ouverture normales).
Remarque
Si vous êtes un utilisateur final disposant d'un accord Stop Processing Alternative, suivant les étapes relatives
à l'envoi du journal de faux positifs au USPS.
17.6.2.2.5 Envoi de journaux de faux positifs LACSLink au
USPS
Les prestataires de service doivent suivre ces étapes une fois qu'ils ont reçu un message de traitement indiquant que de fausses adresses positives LACSLink figurent dans leur liste d'adresses. Les utilisateurs finaux disposant d'un accord Stop Processing Alternative doivent suivre ces étapes une fois qu'ils ont reçu un traitement du message indiquant que de fausses adresses positives LACSLink figurent dans leur liste d'adresses.
1. Envoyez un e-mail au USPS à l'adresse Dsf2stop@usps.gov. Incluez les éléments suivants :
○ Saisissez «LACSLinkFaux positif» sur la ligne Objet
○ Joignez le fichier lacsl###.log ou les fichiers générés par le logiciel (l'emplacement est indiqué dans l'option
Fichiers journal UPS
dans le groupe de fichiers de référence).
Le USPS NCSC utilise les informations pour déterminer si la liste peut être renvoyée à l'expéditeur ou pas.
2. Une fois que USPS NCSC a validé la liste contenant l'enregistrement bloqué ou de faux positif :
○ Supprimez le fichier journal ou les fichiers correspondants.
○ Supprimez l'enregistrement qui a causé le blocage de la liste et retraitez le fichier.
Si vous êtes un utilisateur final qui ne dispose pas d'un accord Stop Processing Alternative, suivez les étapes permettant de récupérer le code de déblocage LACSLink auprès du Support SAP.
Informations associées
Obtention d'un code de déblocage LACSLink auprès de SAP [page 555]
556
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.2.3 Fonctionnement de LACSLink
LACSLink fournit une nouvelle adresse si elle existe. LACSLink suit ces étapes lors du traitement d'une adresse :
1. La transformation USA Regulatory Address Cleanse standardise l'adresse d'entrée.
2. La transformation recherche une adresse correspondante dans les données LACSLink.
3. Si une correspondance est trouvée, la transformation édite l'adresse convertie en LACSLink et les autres informations LACSLink.
Informations associées
Contrôle de l'utilisation de mémoire pour le traitement LACSLink [page 561]
17.6.2.4 Conditions relatives au traitement des adresses
La transformation ne traite pas toutes les adresses à l'aide de LACSLink lorsque ce service est activé. Voici les conditions en fonction desquelles vos données sont transmises au traitement LACSLink :
● L'adresse est disponible dans le répertoire d'adresses et elle est marquée en tant qu'enregistrement convertible LACS dans le répertoire d'adresses.
● L'adresse est disponible dans le répertoire d'adresses et bien qu'une affectation par défaut à un contrat d'itinéraire rural ou d'autoroute ait été effectuée, l'enregistrement n'a pas été marqué comme convertible
LACS.
● L'adresse n'est pas disponible dans le répertoire d'adresses mais l'enregistrement contient suffisamment d'informations pour être envoyé à LACSLink.
Le tableau suivant affiche, par exemple, une adresse qui a été trouvée dans le répertoire d'adresses en tant qu'adresse convertible LACS.
Table 269 :
Adresse d'origine Après conversion LACSLink
RR2 BOX 204
DU BOIS PA 15801
463 SHOWERS RD
DU BOIS PA 15801-66675
17.6.2.5 Modèle de configuration de transformation
Le traitement LACSLink est activé par défaut dans le modèle de configuration de transformation car il est nécessaire dans le cadre de la certification CASS. Le modèle de configuration de transformation se nomme
USARegulatory_AddressCleanse ; il est disponible sous le groupe USA_Regulatory_Address_Cleanse dans la bibliothèque d'objets.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
557
17.6.2.6 Fichiers de répertoire LACSLink
SAP fournit les fichiers de répertoire LACSLink avec la mise à jour du répertoire national des Etats-Unis. Les fichiers du répertoire LACSLink nécessitent environ 600 Mo d'espace supplémentaire sur le disque dur. Les répertoires LACSLink comprennent les éléments suivants :
● lacsw.txt
● lacsx.txt
● lacsy.ll
● lacsz.ll
Attention
Les répertoires LACSLink doivent résider sur le disque dur, dans le même répertoire que les fichiers de prise en charge LACSLink. Ne renommez aucun fichier. LACSLink ne s'exécutera pas si les noms de fichier ont été modifiés.
17.6.2.6.1 Expiration et mises à jour des répertoires
Les répertoires LACSLink expirent en 105 jours. Les répertoires LACSLink présentent la même date que les autres répertoires que vous utilisez à partir des répertoires U.S. National Directories.
17.6.2.7 Activation de LACSLink
Le service LACSLink est activé par défaut dans la transformation USA Regulatory Address Cleanse. Si vous devez réactiver l'option, procédez comme suit :
1. Ouvrez la transformation USA Regulatory Address Cleanse et sélectionnez l'onglet
Options
.
2. Développez le groupe Options de traitement.
3. Sélectionnez Oui pour l'option
Enable LACSLink
.
4. Saisissez le chemin d'accès LACSLink pour l'option
LACSLink Path
dans le groupe Fichiers de référence. Vous pouvez utiliser la variable de substitution $$RefFilesAddressCleanse si elle est configurée.
5. Renseignez les champs requis dans le groupe Informations de licence USPS.
17.6.2.7.1 Informations à indiquer dans la configuration du job
Tous les utilisateurs qui se servent de LACSLink doivent indiquer les informations requises dans le groupe
Informations de licence USPS. Les options suivantes doivent être traitées :
● Nom de la société du client
● Adresse de la société du client
● Localité de la société du client
558
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Région de la société du client
● Code postal de la société du client1
● Code postal de la société du client2
● Téléphone de la société du client
17.6.2.7.2 Désactivation de LACSLink
Le service LACSLink est activé par défaut dans la configuration de la transformation USA Regulatory Address
Cleanse car il intervient dans le traitement CASS. Vous devez donc désactiver la certification CASS afin de désactiver LACSLink.
1. Dans la configuration de la transformation USA Regulatory Address Cleanse, ouvrez l'onglet
Options
.
2. Ouvrez le groupe Options non certifiées.
3. Sélectionnez Oui pour l'option
Désactiver la certification
.
4. Ouvrez le groupe Opération d'affectation.
5. Sélectionnez Non pour l'option
Enable LACSLink
.
Informations associées
17.6.2.7.3 Motifs d'erreurs
Si certaines informations du groupe Informations de licence USPS sont absentes de votre job et que DPV et/ou
LACSLink est/sont activé(s) dans ce job, vous obtenez des messages d'erreur dans les cas suivants :
Table 270 :
Motif de l'erreur
Répertoire de fichiers jour naux non accessible en écri ture
Description
Options requises manquantes Lorsque la configuration de votre job ne comprend pas les paramètres obligatoires du groupe
Informations de licence USPS et que DPV et/ou LACSLink est/sont activé(s) dans ce job, le progiciel génère une erreur de vérification.
Si le chemin d'accès que vous avez indiqué pour l'option
Chemin d'accès au journal USPS
dans le groupe Fichiers de référence n'est pas accessible en écriture, le progiciel génère une erreur.
17.6.2.8 Champs de sortie LACSLink
Plusieurs champs de sortie sont disponibles pour signaler les résultats du traitement LACSLink.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
559
Vous devez activer LACSLink et ajouter ces champs de sortie dans la configuration de votre job pour que le progiciel enregistre des informations dans ces champs.
Table 271 :
Nom du champ
LACSLINK_QUERY
Longueur
50
Description
Retourne l'adresse avant conversion, uniquement complétée lorsque LACS
Link est activé et qu'une recherche
LACSLink a été tentée.
Cette adresse se présente au format
USPS standard (conformément à l'USPS
Publication 28). Cependant, lorsqu'une adresse possède à la fois un indicateur d'unité et une unité secondaire, l'indica teur est remplacé par le caractère «#».
Non renseigné : aucune recherche
LACSLink n'a été entreprise.
LACSLINK_RETURN_CODE 2
Renvoie le statut de correspondance pour le traitement LACSLink :
A = correspondance de l'enregistrement
LACSLink. Une adresse convertie est fournie dans les champs de données d'adresse.
00 = aucune correspondance et aucune adresse convertie.
09 = LACSLink a rapproché une adresse d'entrée d'une ancienne adresse corres pondant à une adresse "high-rise de fault". Aucune nouvelle adresse n'est fournie.
14 = un enregistrement LACSLink a été identifié mais les données n'ont pas pu
être converties en adresse livrable.
92 = une correspondance avec l'enregis trement LACSLink a été établie après suppression du numéro secondaire de l'adresse d'entrée.
Non renseigné = aucune recherche
LACSLink n'a été entreprise.
560
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Nom du champ
LACSLINKINDICATOR
Longueur
1
Description
Retourne le statut de conversion des adresses traitées par LACSLink.
Y = adresse convertie par LACSLink
(LACSLink_Return_Code a la valeur A).
N = adresse recherchée via LACSLink mais non convertie.
F = adresse correspondant à un faux po sitif.
S = la conversion LACSLink a été effec tuée mais les informations secondaires ont dû être supprimées.
vide : aucune recherche LACSLink n'a
été entreprise.
17.6.2.9 Contrôle de l'utilisation de mémoire pour le traitement LACSLink
Les performances de la transformation s'améliorent considérablement si vous mettez en cache les répertoires
LACSLink. Pour connaître l'espace disque requis en vue de la mise en cache des répertoires, consultez le document Plateformes prises en charge disponible dans la section
Support SAP Documentation Supported
Platforms/PARs
sur SAP Service Marketplace : http://service.sap.com/bosap-support .
Si vous ne disposez pas de la mémoire système adéquate pour charger les répertoires LACSLink et que le paramètre
Action de mémoire cache insuffisante
a la valeur Erreur, un message d'erreur de vérification est affiché lors de l'exécution et la transformation s'interrompt. Si vous sélectionnez l'option Continuer, la transformation tente de poursuivre le traitement LACSLink sans mise en cache.
Ouvrez l'onglet
Options
de la configuration de la transformation USA Regulatory Address Cleanse dans votre flux de données. Pour charger les répertoires LACSLink dans la mémoire système, procédez comme suit :
1. Ouvrez le groupe d'options Performance de la transformation.
2. Sélectionnez Oui pour l'option
Mise en cache des répertoires LACSLink
.
Informations associées
LACSLink (USA Regulatory Address Cleanse) [page 553]
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
561
17.6.2.10 Informations LACSLink dans le document US
Addressing Report
Le document US Addressing Report est généré automatiquement lorsque le reporting est activé dans le job. Le tableau suivant énumère les sections LACSLink du document US Addressing Report :
Table 272 :
Section
Locatable Address Conversion (LACS
Link) Summary
Codes de retour LACSLink
Informations
Enregistre le nombre et le pourcentage pour les informations suivantes :
● Adresses converties LACSLink
● Adresses non converties LACSLink
Enregistre le nombre et le pourcentage pour les informations suivantes :
● Converted
● Secondary dropped
● No match
● Can't convert
● High-rise default
17.6.2.11 USPS Form 3553
Le formulaire USPS Form 3553 indique le comptage LACSLink. Le champ LACS/LACSLink affiche le nombre d'enregistrements qui possèdent un indicateur LACSLink Y ou S si le traitement LACSLink est activé. Si le traitement LACSLink n'est pas activé, ce champ affiche la valeur du comptage des codes LACS.
17.6.3 SuiteLink™
SuiteLink est une option de la transformation USA Regulatory Address Cleanse.
SuiteLink utilise un répertoire USPS contenant plusieurs fichiers d'informations sur des adresses indexées, par exemple les numéros secondaires et les désignations d'unité pour des emplacements identifiés comme bâtiments par défaut.
SuiteLink vous permet de créer des adresses actualisées et complètes en ajoutant des numéros de suite aux adresses commerciales de bâtiment. Avec les informations secondaires relatives à l'adresse ajoutée à vos adresses, la majorité de vos pièces sont triées par séquence de livraison et livrées rapidement avec précision.
SuiteLink est requis pour CASS
SuiteLink est requis pour un traitement en mode CASS (et la valeur Non est attribuée à l'option
Désactiver la certification
). Si vous avez désactivé SuiteLink dans votre configuration de job mais que vous êtes en mode CASS, un message d'erreur est émis et le traitement est interrompu.
562
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.3.1 Avantages deSuiteLink
Pour les entreprises qui dépendent d'un site Web, d'e-mail ou de commandes au point de vente, SuiteLink est un remarquable outil permettant de faire des économies. Il en est de même pour les entreprises dont les clients habitent dans des bâtiments avec activités multiples qui apprécieront d'avoir leurs documents marketing, leurs extraits de compte et leurs commandes livrés à proximité.
Les informations relatives au numéro secondaire de vos adresses permettent un séquencement de la livraison plus performant et à moindre coût ainsi que des remises sur le port.
Remarque
SuiteLink permet de préparer des listes de mailing conformes à CASS.
17.6.3.2 Comment fonctionne SuiteLink
Le logiciel utilise les données des répertoires SuiteLink pour ajouter des numéros de suite aux adresses applicables. Le logiciel fait correspondre le nom d'une société, l'adresse d'un bâtiment et le code postal2 certifié
CASS de votre base de données aux données du SuiteLink. Lorsqu'il y a une correspondance, le logiciel crée une adresse professionnelle complète contenant le numéro de suite.
Exemple
Affectez un numéro de suite
Cet exemple présente un enregistrement traité via SuiteLink et l'enregistrement de sortie avec le numéro de suite affecté.
L'enregistrement d'entrée contient les éléments suivants :
● Nom de la société (dans le champ d'entrée SOCIETE)
● Adresse de bâtiment connue
● Code postal2 certifié CASS
Le répertoire SuiteLink contient les éléments suivants :
● les numéros de l'adresse secondaire
● les désignations de l'unité
L'enregistrement de sortie contient les éléments suivants :
● le numéro de suite correct
Table 273 : l'enregistrement d'entrée l'enregistrement de sortie
Telera
910 E Hamilton Ave Fl2
Campbell CA 95008 0610
TELERA
910 E HAMILTON AVE STE 200
CAMPBELL CA 95008 0625
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
563
17.6.3.3 Répertoire SuiteLink
Le répertoire SuiteLink est distribué mensuellement.
Vous devez utiliser des répertoires SuiteLink avec un répertoire zip4us.dir pour le même mois. (Saisissez le chemin zip4us.dir dans l'option
Répertoire d'adresses1
du groupe de fichiers de référence dans la transformation USA Regulatory Address Cleanse .) Par exemple, le répertoire SuiteLink Décembre 2011 peut être utilisé avec uniquement le répertoire zip4us.dir Décembre 2011.
Vous ne pouvez pas utiliser un répertoire SuiteLink datant de plus de 60 jours à partir de sa date de validation. Le logiciel vous prévient 15 jours avant l'expiration du répertoire. Comme dans le cas de tous les répertoires, le logiciel ne traite pas vos enregistrements avec un répertoire SuiteLink qui a expiré.
17.6.3.4 Activer SuiteLink
SuiteLink est activé par défaut dans toute configuration d'exemple de transformation définie conformément à
CASS (et l'option Désactiver la certification est activée sur Non). Par exemple, SuiteLink est activé si vous utilisez la configuration d'exemple de transformation USA Regulatory_AddressCleanse.
1. Ouvrez la transformation USA Regulatory Address Cleanse dans votre flux de données.
2. Ouvrez l'onglet
Options
.
3. Développez le groupe Opération d'affectation et activez l'option
Enable SuiteLink
sur Oui.
4. Dans le groupe de fichiers de référence, saisissez le chemin d'accès au répertoire SuiteLink dans l'option
SuiteLink Path
. Vous pouvez utiliser la variable de substitution $$RefFilesAddressCleanse si vous l'avez configurée avec l'emplacement de répertoire contenant vos répertoires SuiteLink.
5. Facultatif : dans le groupe d'option Transform Performance, activez l'option
Cache SuiteLink Directories
sur
Oui de telle sorte que les répertoires SuiteLink soient mis en mémoire cache dans la mémoire.
Remarque
Vérifiez que vous avez une mémoire RAM suffisante pour pouvoir mettre en mémoire cache les répertoires
SuiteLink avant d'activer cette option.
17.6.3.5 Amélioration de la vitesse de traitement de SuiteLink
Vous pouvez augmenter la vitesse de traitement de SuiteLink en chargeant les répertoires SuiteLink dans la mémoire. Pour activer cette option, accédez au groupe Performance de transformation et activez les
Cache
SuiteLink Directories
sur Oui.
564
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.3.6 SuiteLink Codes de retour dans l'US Addressing
Report
Les informations relatives au code de retour SuiteLink sont disponibles dans la section Codes retour SuiteLink du
US Addressing Report.
L'US Addressing Report indique le nombre d'enregistrements et le pourcentage pour les codes retour suivants :
A = Des données secondaires existent et une affectation est effectuée
00 = Une recherche a été tentée mais aucune affectation
17.6.4 USPS DSF2®
DSF2 est un produit avec une licence USPS que vous pouvez utiliser pour valider les adresses, ajouter des informations de séquence de livraison et ajouter des attributs d'adresse DSF2 aux adresses.
Les deux fonctionnalités DSF2 suivantes sont prises en charge dans Data Services :
● DSF2 Augment dans la transformation USA Regulatory Address Cleanse
● Walk Sequence de DSF2 dans la transformation DSF2 Walk Sequencer
Remarque
Les données USPS DSF2 sont disponibles uniquement pour les licenciés USPS certifiés par DSF2.
Informations associées
Séquencement de tournée de DSF2 [page 570]
17.6.4.1 Validation des adresses
DSF2 permet de réduire la quantité de plis non distribuables (PND) et garde des prix de publipostage bas. DSF2 utilise DPV® pour valider les adresses et identifier les adresses non précises ou incomplètes.
Informations associées
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
565
17.6.4.2 Ajout d'attributs d'adresse
DSF2 ajoute des attributs d'adresse (informations sur les adresses) à vos données. Utilisez les informations des attributs pour créer des publipostages plus ciblés.
17.6.4.3 Ajout d'informations de séquence de livraison
DSF2 ajoute des informations de séquence de livraison aux données. Vous pouvez les utiliser pour remplir les conditions des remises de tournée. Ces informations sont parfois appelées "walk sequencing" (séquencement de tournée) ou "pseudo sequencing" (pseudo séquencement).
Informations associées
Séquencement de tournée [page 570]
Pseudo séquencement [page 570]
17.6.4.4 Avantages de DSF2
Tous ceux qui souhaitent cibler leur courrier vers des types spécifiques d'adresses, et ceux qui souhaitent gagner des remises postales supplémentaires apprécieront ce que DSF2 peut effectuer.
Les données d'attributs d'adresses DSF2 dotent les expéditeurs de la connaissance sur les adresses supérieure et inférieure à ce qui est nécessaire pour mettre précisément en forme les adresses. Les données d'attributs d'adresse permettent aux expéditeurs de produire plus de publipostage ciblé.
Par exemple, si vous prévoyez d'envoyer un bon pour votre entreprise de services d'entretien de pelouse, vous ne souhaitez pas l'envoyer aux personnes habitant dans un appartement (elles n'ont sûrement pas de pelouse). Vous souhaitez que votre bon soit envoyé à des adresses résidentielles ne se situant pas dans des immeubles d'habitation.
Avec les informations DSF2, il est possible de faire une tournée de vos publipostages pour obtenir les meilleures remises postales possibles grâce à l'utilisation de la transformation DSF2 Walk Sequencer.
17.6.4.5 Devenir un licencié DSF2
Avant de pouvoir effectuer le traitement DSF2 dans le logiciel, vous devez exécuter les procédures de certification
USPS DSF2 et obtenir la licence d'USPS.
Une partie de la certification consiste à traiter les jobs test dans Data Services pour prouver que le logiciel est conforme au contrat de licence. Lorsque vous êtes prêt à effectuer ces tests, contactez l'assistance des utilisateurs professionnels SAP BusinessObjects pour obtenir l'accès aux fonctionnalités DSF2 dans Data
Services.
566
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Pour en savoir plus, voir la rubrique «Certification DSF2» dans le Guide de référence (section «Certifications
USPS»).
17.6.4.6 Répertoires DSF2
Le traitement DSF2 nécessite les données suivantes :
Table 274 :
Données Notes
Répertoires DPV Le logiciel utilise les répertoires DPV pour vérifier les adresses et pour identifier les adresses inexactes. SAP fournit les répertoires DPV avec la livraison du répertoire na tional des Etats-Unis.
Remarque
Les répertoires DPV sont inclus avec les tables DSF2. N'utilisez pas les répertoires
DPV inclus dans les tables DSF2. Utilisez les répertoires DPV de SAP avec la livrai son du répertoire national des Etats-Unis.
Répertoires eLOT
Tables DSF2
Le logiciel utilise les répertoires eLOT pour affecter des numéros de tournée. SAP fournit les répertoires eLOT avec la livraison du répertoire national des Etats-Unis.
Remarque
Les répertoires eLOT sont inclus avec les tables DSF2. N'utilisez pas les répertoi res eLOT inclus avec les tables DSF2. Utilisez les répertoires eLOT de SAP avec la livraison du répertoire national des Etats-Unis.
Le logiciel utilise les tables DSF2 pour affecter des attributs d'adresse.
Remarque
Les tables DSF2 sont fournies par USPS et non pas par SAP. De plus, les tables
DSF2 incluent les répertoires DPV et eLOT. N'utilisez pas les répertoires DPV et eLOT inclus avec les tables DSF2. Utilisez les répertoires DPV et eLOT de SAP avec la livraison du répertoire national des Etats-Unis.
Fichier de statistiques de livraisons Le logiciel utilise le fichier de statistiques de livraison pour fournir des nombres d'adresses commerciales et résidentielles par ZIP Code (Code postal1), par itinéraire du transporteur (code de tri). SAP fournit le fichier de statistiques de livraison avec la livraison du répertoire national des Etats-Unis.
Vous devez indiquer l'emplacement de ces fichiers de répertoires dans la transformation USA Regulatory Address
Cleanse, excepté pour le fichier de statistiques de livraison. Définissez l'emplacement du fichier de statistiques de livraison (dsf.dir) dans la transformation DSF2 Walk Sequencer. Pour remplir les conditions DSF2, vous devez
également installer tous les mois des répertoires mis à jour.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
567
17.6.4.7 Traitement DSF2 Augment
Configurez le traitement DSF2 Augment dans la transformation USA Regulatory Address Cleanse.
Le traitement DSF2 exige des informations DPV ; par conséquent, activez le DPV dans la configuration du job.
Si vous prévoyez d'utiliser les informations de sortie du traitement Augment de DSF2 pour le traitement de tournée, vous devez également activer eLOT.
Remarque
DSF2 Augment est disponible uniquement en mode batch. Il est impossible d'ajouter des informations
Augment à vos données en temps réel.
17.6.4.7.1 Expiration des répertoires DSF2 Augment
Les répertoires DSF2 sont distribués tous les mois. Vous devez utiliser les répertoires DSF2 avec les répertoires nationaux des Etats-Unis qui sont étiquetés pour le même mois. Par exemple, les répertoires DSF2 Mai 2011 peuvent uniquement être utilisés avec les répertoires nationaux Mai 2011.
Les données DSF2 Augment expirent en 60 jours au lieu de l'expiration en 105 jours pour les répertoires nationaux des Etats-Unis. Du fait que tous les répertoires doivent avoir la même date de base (MM/AAAA), les utilisateurs
DSF2 pour lesquels l'option Activer DSF2 Augment est définie sur Oui doivent mettre à jour tous les répertoires nationaux des Etats-Unis et les autres répertoires qu'ils utilisent (LACSLink ou DPV, par exemple) en même temps que les répertoires DSF2 Augment. Le logiciel rappelle aux utilisateurs de mettre à jour les répertoires par un message d'avertissement qui apparait 15 jours avant que le répertoire expire.
N'oubliez pas
Comme avec tous les répertoires, le logiciel ne traite pas les enregistrements avec des répertoires DSF2 expirés.
17.6.4.7.2 Identification du licencié DSF2
Lorsque vous effectuez un traitement DSF2, vous devez fournir les informations suivantes : la société avec la licence DSF2 et le client pour lequel la société traite le job.
Vous devez compléter les options suivantes dans le groupe Informations de licence USPS pour le traitement
DSF2 :
● ID du licencié DSF2
● Nom du licencié
● List Owner NAICS Code
● ID de liste
● Nom de la société du client
568
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Adresse de la société du client
● Localité de la société du client
● Région de la société du client
● Code postal de la société du client1
● Code postal de la société du client2
● Date de réception de la liste
● Date de retour de la liste
Remarque
Si vous effectuez des traitements DSF2 et NCOALink dans la même instance de la transformation USA
Regulatory Address Cleanse, alors les informations que vous saisissez dans le groupe Informations de la licence USPS doivent s'appliquer aux traitements DSF2 et NCOALink. Si, par exemple, l'
ID de liste
est différent pour le DSF2 et le NCOALink, vous devez inclure deux transformations USA Regulatory Address Cleanse : l'une pour NCOALink et l'autre pour DSF2.
17.6.4.7.3 Activer DSF2 Augment
Avant de pouvoir traiter avec DSF2, vous devez d'abord devenir un licencié certifié.
En plus des informations requises sur la société du client que vous avez saisies dans le groupe Informations de licence USPS, définissez les options suivantes pour effectuer un traitement DSF2 Augment :
1. Dans la transformation USA Regulatory Address Cleanse, ouvrez l'onglet
Options
.
2. Développez le groupe Rapport et analyses et définissez l'option
Générer les données de rapport
sur Oui.
3. Développez le groupe Fichiers de référence et saisissez le chemin pour les options
Chemin d'accès de
Augment de DSF2
,
Chemin d'accès de DPV
, et
Répertoire eLOT
, ou utilisez la variable de substitution $
$RefFilesAddressCleanse si vous l'avez configurée.
4. Dans le groupe Fichiers de référence également, saisissez un chemin pour l'option
Chemin d'accès du journal
USPS
, ou utilisez la variable de substitution $$CertificationLogPath si vous l'avez configurée.
5. Facultatif. Développez le groupe Performance de la transformation et définissez les options
Cache DPV
Directories
et
Cache DSF2 Augment Directories
sur Oui.
6. Développez le groupe Opérations d'affectation et définissez les options
Enable DSF2 Augment
,
Enable DPV
, et
Enable eLOT
sur Oui.
7. Incluez les champs de sortie des attributs d'adresse DSF2 dans la configuration du fichier de sortie
17.6.4.7.4 Champs de sortie DSF2
Lorsque vous effectuez un traitement DSF2 Augment dans le logiciel, les attributs d'adresse sont disponibles dans les champs de sortie suivants pour chaque adresse qui a été affectée. Assurez-vous d'inclure les champs qui contiennent les informations nécessaires pour la configuration du fichier de sortie :
● Indicateur_Gestion_DSF2
● Type_Livraison_DSF2
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
569
● Nombre_Dépôts_DSF2
● Indicateur_Dépôts_DSF2
● Ind_Enseignement_DSF2
● Indicateur_Conversion_LCAS_DSF2
● Type_Enregistrement_DSF2
● Indicateur_Saisonnier_DSF2
● Indicateur_Renvoi_DSF2
Remarque
Une sortie vide dans l'un de ces champs signifie que l'adresse n'a pas été recherchée dans les répertoires
DSF2.
17.6.4.7.5 Amélioration de la vitesse de traitement DSF2
Il est possible de cacher les données DSF2 pour améliorer la vitesse du traitement DSF2.
Pour cacher les données DSF2, définissez l'option
Mise en cache des répertoires DFS2 Augment
dans le groupe
Performance de la transformation sur Oui. Le logiciel cache uniquement les répertoires nécessaires pour l'ajout d'attributs d'adresse.
17.6.4.8 Walk sequencing de DSF2
Lorsque vous exécutez le Walk sequencing de DSF2 dans le progiciel, celui-ci ajoute à vos données des informations de tournée de distribution que vous pouvez utiliser avec le logiciel de tri préalable pour bénéficier de remises sur les tournées.
N'oubliez pas
Le logiciel ne place pas les données dans un ordre de tournée.
Incluez la transformation DSF2 Walk Sequencer pour permettre le séquencement de tournée.
17.6.4.8.1 Pseudo séquencement
Le séquencement de tournée DSF2 est souvent appelé pseudo séquencement car il imite le séquencement de tournée d'USPS. Là où les numéros de tournée d'USPS couvrent toutes les adresses, le traitement DSF2 fournit des numéros de pseudo séquencement uniquement pour les adresses dans ce fichier particulier.
570
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Le progiciel utilise les données DSF2 pour affecter des numéros de tournée pour toutes les adresses qui sont des points de livraison confirmés par DPV (Statut_DPV = Y). Les autres adresses présentes dans le fichier de sortie qui ne sont pas des points de livraisons valides confirmés par DPV (Statut_DPV =S, N ou D) reçoivent le numéro de séquence "0000". Toutes les autres adresses ont un numéro de séquence vide.
Remarque
Lorsque vous réalisez une tournée pour le courrier avec le logiciel, souvenez-vous des points suivants :
● (Batch uniquement) Le séquencement de tournée DSF2 est disponible uniquement en mode batch. Il est impossible d'affecter des numéros de séquence en temps réel.
● Retraiter si vous avez effectué des modifications de fichier. Si les données sont modifiées de quelque façon que ce soit, vous devez réaffecter des numéros de séquence. Les numéros de séquence sont uniquement valides pour le fichier de données au moment où vous le traitez.
17.6.4.9 Création de clé de décomposition
Les clés de décomposition créent des groupes gérables de données. Elles sont créées lorsqu'il y a deux champs ou plus à comparer.
La transformation DSF2 Walk Sequencer forme automatiquement des groupes de décomposition avant d'ajouter des informations de tournée aux données. Le logiciel crée des groupes de décomposition en fonction des champs
Code postal1 et Itinéraire_par_code_de_tri.
Définissez les options pour que le logiciel configure comme vous le souhaitez les champs dans le groupe
Configuration de collection de données. Le fait de conserver les paramètres par défaut optimise le flux de données et permet au logiciel de rendre les clés de décomposition cohérentes dans toutes les données.
Table 275 :
Option
Remplacer les valeurs nulles par un espace
Remplir la chaîne à droite par un espace
Valeur par défaut
Oui
Oui
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
571
17.6.4.10 Activer Walk sequencing de DSF2
Pour activer la tournée DSF2, incluez la transformation DSF2 Walk Sequencer dans le flux de données.
Le fichier d'entrée pour la transformation DSF2 Walk Sequencer doit avoir été pré-traité avec le logiciel certifié par
CASS (tel que la transformation USA Regulatory Address Cleanse). Pour obtenir une remise postale supplémentaire, incluez les informations du champs de sortie Indicateur_Commercial_DSF2 à partir du logiciel certifié par CASS.
Lorsque vous configurez le traitement de tournée DSF2, les options suivantes dans le groupe Informations de licence USPS sont requises :
● Nom du licencié
● ID du licencié DSF2
● ID de liste
En plus des champs Information de licence USPS requis, effectuez les paramétrages suivants dans la transformation DSF2 Walk Sequencer :
1. Facultatif. Sélectionnez Oui ou Non dans l'option
Exécuter en tant que processus distinct
dans le groupe
Commun. Sélectionnez Non si vous regroupez des statistiques DSF2. Sélectionnez Oui pour enregistrer le temps de traitement (si vous n'avez pas besoin des statistiques DSF2).
2. Saisissez le chemin du fichier et le nom du fichier (dsf.dir) dans le répertoire Statistiques de livraison dans l'option
Répertoire Delstats
dans le groupe Fichiers de référence. Vous pouvez utiliser le paramètre de substitution $$RefFilesAddressCleanse si vous l'avez configuré.
3. Saisissez l'emplacement du site de traitement dans l'option
Emplacement du site
du groupe Options de traitement. Cette option s'applique uniquement si vous disposez de plus d'un emplacement de site pour le traitement DSF2.
4. Effectuez les paramétrages suivants dans le groupe Configuration de la collection de données :
○ Sélectionnez Oui ou Non dans l'option
Remplacer les valeurs nulles par un espace
selon vos préférences.
○ Sélectionnez Oui ou Non dans l'option
Remplir la chaîne à droite par un espace
selon vos préférences.
○ Sélectionnez Oui ou Non dans l'option
Données pré-triées
(facultatif). Nous recommandons de conserver le paramètre par défaut Non pour que Data Services trie les données en fonction des champs de la clé de décomposition (au lieu d'utiliser un autre programme logiciel).
17.6.4.11 Champs d'entrée de tournée DSF2
Ci-dessous se trouve une liste des champs d'entrée de la tournée DSF2.
Remarque
Ces champs doivent avoir été sortis du traitement du logiciel certifié par CASS avant de pouvoir être utilisés comme entrées pour la transformation DSF2 Walk Sequencer :
● Code postal1
● Code postal 2
● Itinéraire_par_code_tri
● LOT
572
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Ordre_LOT
● Point_livraison
● Statut_DPV
● Indicateur_gestion_DSF2 (facultatif)
Le logiciel utilise les informations de ces champs pour déterminer la façon dont les enregistrements doivent être organisés (classés en fonction de la tournée) s'ils ont été utilisés dans une liste de diffusion. Le logiciel ne modifie pas physiquement l'ordre de la base de données. Le logiciel affecte des numéros de tournée à chaque enregistrement en fonction des informations qu'il a regroupées à partir de ces champs d'entrée.
Remarque
Tous les champs sont requis excepté le champ Indicateur_Gestion_DSF2.
Le champ facultatif Indicateur_Gestion_DSF2 aide le logiciel à déterminer si l'enregistrement remplit les conditions pour les remises de saturation. Les remises de saturation sont déterminées par le pourcentage d'adresses résidentielles dans chaque itinéraire de transporteur. Consultez le USPS Domestic Mail Manual pour plus de détails sur tous les aspects du publipostage commercial et des remises de tri.
17.6.4.12 Champs de sortie de tournée DSF2
Le logiciel sort les informations sur les numéros de tournée vers les champs suivants :
● Remise_Livr_Active
● Remise_sat_résidentielle
● Remise_itinéraire_par_code_tri
● Remise_tournée
● Numéro_tournée
17.6.4.13 Reporting DSF2
Il existe des rapports et des fichiers journaux générés par le logiciel pour Augment et Walk sequencing de DSF2.
Trouvez les informations complètes sur ces rapports et fichiers journaux dans le guide Management Console
Guide.
Rapport Delivery Sequence Invoice
USPS exige que vous soumettiez le rapport Delivery Sequence Invoice si vous demandez des remises de tournée
DSF2 pour ce job.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
573
US Addressing Report
● Le rapport US Addressing Report est généré par la transformation USA Regulatory Address Cleanse.
● Les sections Second Generation Delivery Sequence File Summary et Address Delivery Types du US
Addressing Report affichent les nombres et pourcentages des adresses dans le fichier qui correspondent aux différentes catégories DSF2 (si NCOALink est activé). Les informations sont listées pour les pré-traitement et post-traitement NCOALink.
Fichier journal de statistiques DSF2 Augment
USPS exige que les licenciés DSF2 enregistrent les informations sur leurs traitements dans le fichier journal DSF2.
USPS détermine les contenus du fichier journal DSF2 et exige que vous les lui soumettiez une fois par mois.
Les fichiers journaux sont à la disposition des utilisateurs avec les autorisations de l'administrateur et de l'opérateur.
17.6.4.13.1 Fichier journal de statistiques DSF2 Augment
Le fichier journal de statistiques DSF2 Augment est stocké dans le référentiel. Le logiciel génère le fichier journal dans le référentiel dans lequel il est possible de les exporter à l'aide de Data Services Management Console (pour administrateurs et opérateurs uniquement).
Le format du nom pour le fichier journal est le suivant :
[DSF2_licensee_ID][mm][yy].dat
USPS détermine les contenus du fichier journal DSF2 et exige que vous les lui soumettiez une fois par mois. Pour en savoir plus, voir le document DSF2 Licensee Performance Requirements (Conditions requises en matière de performances des licenciés DSF2) disponible sur le site Web USPS RIBBS ( http://ribbs.usps.gov/dsf2/ documents/tech_guides ).
Vous devez soumettre le fichier journal DSF2 à USPS par courrier électronique le troisième jour ouvrable de chaque mois.
Rétention de fichier journal et suppression automatique
Vous devez soumettre tous les mois le fichier journal de statistiques Augment à l'USPS. Le logiciel supprime les fichiers journaux sur une base périodique (30 jours par défaut), qui peut être contrôlée par les paramètres d'application de Data Services dans la Central Management Console. Pour éviter de perdre les informations du journal mensuellement, définissez la
Période de rétention de l'historique
à plus de 31 jours (nous recommandons un paramètre de 50 jours).
En plus d'envoyer tous les mois les fichiers journaux à l'USPS, vos données doivent être disponibles durant quelques années après le traitement du job pour que l'USPS les examine. (Assurez-vous d'être informé des règles d'USPS actuelles pour la rétention des données en contrôlant le contrat de licence USPS). Pour vous assurer de
574
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
conserver tous les rapports et les journaux requis avant la suppression des données du référentiel, il est recommandé d'exporter mensuellement les rapports et journaux concernés vers un dossier local. Cela permet
également d'éviter que le contenu du référentiel ne devienne trop volumineux et ne génère l'«expiration» du processus d'exportation en raison du volume des statistiques conservées.
17.6.5 Présentation de NCOALink®
Le standard Move Update de l'USPS permet aux utilisateurs et à l'USPS de réduire le nombre d'enregistrements renvoyés en raison d'une adresse obsolète. NCOALink s'inscrit dans cette optique. La mise à jour de déplacements représente le processus de contrôle des adresses dans la base de données NCOA (National
Change of Address) permettant de garantir la mise à jour des données avec les adresses actuelles.
Lors du traitement des données avec NCOALink, vous mettez à jour les enregistrements de particuliers ou de sociétés ayant déménagé et rempli un formulaire COA (Change of Address) avec l'USPS. Les autres programmes inclus dans Move Update et pris en charge dans la transformation USA Regulatory Address Cleanse comprennent notamment ANKLink® et SuiteLink®.
L'USPS exige la conformité de vos listes avec les standards Move Update afin de qualifier des tarifs postaux préférentiels pour les courriers prioritaires pré-triés. Vous pouvez répondre à cette exigence grâce au processus
NCOALink.
Remarque
Mover ID est le nom sous lequel SAP Data Services est certifié pour NCOALink.
Informations associées
17.6.5.1 Importance de la mise à jour des déplacements
L'USPS exige la mise à jour des déplacements pour tous les courriers prioritaires pré-triés. Pour aider les expéditeurs à répondre à cette exigence, l'USPS propose certaines options, notamment NCOALink.
La rétention d'informations d'adresse précises de vos contacts implique l'utilisation d'une méthode de l'USPS afin de recevoir les nouvelles adresses de vos contacts. La mise à jour des déplacements s'avère non seulement une pratique commerciale avisée, mais elle est également requise pour tous les expéditeurs prioritaires souhaitant des taux de prétriage ou d'automatisation. L'USPS développant ses exigences en matière de mise à jour des déplacements et renforçant les réglementations existantes, la mise à jour des déplacements deviendra de plus en plus importante.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
575
Informations associées
17.6.5.2 Avantages de NCOALink
L'utilisation de NCOALink dans la transformation USA Regulatory Address Cleanse permet de mettre à jour les adresses de vos listes avec les dernières données de déplacement. NCOALink permet de :
● Améliorer la remise du courrier.
● Réduire le coût et le temps nécessaires au transfert du courrier.
● Répondre aux exigences de l'USPS en matière de mise à jour de déplacements pour le courrier prioritaire prétrié.
● Se préparer à une possible extension des exigences en matière de mise à jour de déplacement.
17.6.5.3 Fonctionnement de NCOALink
Lorsque le traitement des adresses avec NCOALink est activé, le progiciel suit les étapes suivantes :
1. La transformation USA Regulatory Address Cleanse standardise les adresses d'entrée. NCOALink nécessite des données d'adresses standardisées et analysées en tant qu'entrées.
2. Le progiciel recherche dans la base de données NCOALink les enregistrements correspondant à vos enregistrements standardisés et analysés.
3. Si une correspondance est trouvée, le progiciel reçoit les informations de déplacement, notamment la nouvelle adresse, le cas échéant.
4. Le progiciel recherche les enregistrements de déplacement renvoyés de la base de données NCOALink afin d'affecter des codes postaux et autres codes.
5. Selon la sélection de classe de champ, le fichier de sortie contient :
○ L'adresse d'entrée originale. Il s'agit des valeurs complètes et correctes présentes dans les répertoires, standardisées selon toute définition configurée dans le groupe Options de standardisation dans l'onglet
Options. (CORRECT)
○ Il s'agit des composants d'adresse mis à jour avec les données d'adresses contenant les mises à jour de déplacement. (DEMENAGEMENT MIS A JOUR)
Remarque
La transformation recherche les informations d'adresses contenant des déplacements mis à jour dans les Répertoires d'adresses nationaux américains. Lorsque l'adresse de déplacement mis à jour est introuvable dans les répertoires d'adresses nationaux américains, le progiciel remplit les champs
Déplacement mis à jour avec les informations trouvées dans les répertoires Move Update uniquement.
Les champs Déplacement mis à jour remplis suite à la standardisation des répertoires d'adresses nationaux américains ne seront pas mis à jour.
○ Il s'agit des données d'adresses avec déplacement mis à jour si elles existent et correspondent aux répertoires d'adresses nationaux américains. Le champ peut aussi contenir les données d'adresses
576
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
originales si aucun déplacement n'existe ou s'il ne correspond pas aux répertoires d'adresses nationaux américains. (MEILLEUR)
Selon la définition de l'option
Appliquer déplacement aux champs standardisés
dans le groupe NCOALink, les composants standardisés peuvent contenir des adresses originales ou avec les déplacements mis à jour.
6. Le progiciel génère les rapports et fichiers journaux requis pour la conformité USPS.
Exemple
1. NCOALink nécessite des données d'adresses standardisés et analysées en tant qu'entrées. Ainsi, avant d'effectuer le traitement de NCOALink, le progiciel exécute son traitement normal des données d'adresses.
2. Le progiciel recherche dans la base de données NCOALink un enregistrement correspondant à votre enregistrement standardisé et analysé.
3. Le progiciel reçoit les informations de déplacement, notamment la nouvelle adresse, le cas échéant.
4. Le progiciel recherche l'enregistrement de déplacement renvoyé de la base de données NCOALink afin d'affecter des codes postaux et autres codes.
5. Selon votre choix, le progiciel peut conserver l'ancienne adresse et ajouter la nouvelle ou bien remplacer l'ancienne adresse par la nouvelle.
6. Le progiciel génère les rapports et fichiers journaux requis pour la conformité USPS.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
577
17.6.5.4 Niveaux des fournisseurs NCOALink
Les utilisateurs de NCOALink appartiennent à l'une des trois catégories de fournisseurs suivantes. Spécifiez le fournisseur de services dans le groupe d'options Informations de licence USPS sous
Provider Level
.
Remarque
Seuls les niveaux de fournisseurs pris en charge dans vos codes clés enregistrés s'affichent dans la liste de sélection.
Niveau du fournisseur
Full Service Provider (FSP)
Limited Service Provider (LSP)
End User Mailer (EUM)
Description
Fournit le traitement de NCOALink à des tiers.
Fournit le traitement de NCOALink à des tiers et en interne.
Fournit le traitement de NCOALink à des listes en interne uniquement.
17.6.5.5 Gestionnaires et administrateurs de listes NCOALink
Un gestionnaire ou un administrateur de listes peuvent être propriétaires des listes de l'utilisateur de NCOALink traitées. Lorsqu'un gestionnaire ou un administrateur de listes est impliqué, ajoutez les informations de contact dans le groupe NCOALink sous
Liste de détails du contact Détails du contact
.
Gestionnaire
Transmet l'activité à un fournisseur de services NCOALink.
Administrateur de listes
L'administrateur de listes stocke et gère les listes. Les administrateurs de listes et les gestionnaires présentent deux différences majeures :
● Les administrateurs de listes n'envoient pas de fichiers des mises à jour de déplacements au propriétaire de la liste.
● Les administrateurs de listes peuvent disposer d'une licence NCOALink.
Si un administrateur de listes, un gestionnaire, ou les deux, sont impliqués dans un job, vous devez remplir une liste de détails du contact distincte pour chacun. Vous pouvez dupliquer un groupe d'options en cliquant avec le bouton droit de la souris sur le nom du groupe et en sélectionnant
Dupliquer l'option
.
578
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.5.6 ANKLink (Address not known, adresse inconnue)
Chaque année, les courriers UAA (Undeliverable-as-addressed, adresse destinataire incorrecte) engendrent de nombreux frais pour l'USPS et l'industrie du traitement du courrier. Le progiciel fournit l'option NCOALink en tant que solution complémentaire pour les courriers UAA. NCOALink vous donne également accès aux données
USPS's ANKLink .
17.6.5.6.1 A propos d'ANKLink
Les fournisseurs de services restreints (limited service providers) NCOALink et les utilisateurs finaux (end users) reçoivent les données de changement d'adresse des 18 mois précédents. L'option ANKLink optimise ces informations en fournissant des données supplémentaires sur les déménagements survenus dans les 19 à 48 mois précédents.
Conseil
Si vous êtes un fournisseur de services complets NCOALink, vous avez déjà accès à l'ensemble des données des déménagements survenus dans les 48 derniers mois (dont les nouvelles adresses).
Remarque
Les 30 mois supplémentaires de données fournies grâce à ANKLink indiquent seulement la survenance et la date d'un déménagement et non la nouvelle adresse.
Les données ANKLink permettent de prendre des décisions avisées par rapport à un contact. Si les données indiquent que le contact a déménagé, vous pouvez choisir de supprimer ce contact de la liste ou tenter d'obtenir sa nouvelle adresse grâce à un fournisseur de services complets NCOALINK.
Si vous optez pour l'acquisition d'ANKLink pour étendre les informations NCOALink, le DVD que vous recevrez de l'USPS contiendra les informations NCOALink de tous les changements d'adresse survenus dans les 18 derniers mois ainsi que les informations supplémentaires ANKLink des 30 derniers mois indiquant la survenance d'un déménagement.
S'il existe une correspondance ANKLink, celle-ci est notée dans le champ de sortie ANKLINK_RETURN_CODE et dans le rapport Résumé du traitement de NCOALink.
17.6.5.6.2 Données ANKLink
ANKLink est un sous-ensemble de NCOALink. Vous pouvez demander des données ANKLink au NCSC (National
Customer Support Center, centre national de support client) de l'USPS en composant le 1-800-589-5766 ou par e-mail à l'adresse ncoalink@usps.gov. ANKLinkSAP ne fournit pas les données .
Le progiciel détecte toute utilisation de données ANKLink. Ainsi, vous ne devez pas spécifier l'utilisation d'ANKLink lors de la configuration d'un job.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
579
17.6.5.6.3 Prise en charge d'ANKLink pour les niveaux de fournisseurs NCOALink
Le progiciel prend en charge trois niveaux de fournisseurs NCOALink définis par l'USPS. Les options du progiciel varient selon le niveau du fournisseur et sont activées suivant le package progiciel acquis. Le tableau suivant indique les niveaux de fournisseurs et la prise en charge :
Niveau du fournisseur Fournit des services à des tiers
Données de COA (en mois)
Données reçues de l'USPS
Prise en charge d'ANKLink
Full Service Provider
(FSP)
Oui
Les services tiers doivent représenter au moins 51 % de l'ensemble du traitement.
48 Hebdomadaires Non (aucun avantage)
Limited Service
Provider (LSP)
Oui
Les LSP peuvent fournir des services à des tiers et utiliser le produit en interne.
18 Hebdomadaires Oui
End User Mailer (EUM) Non 18 Mensuelles Oui
Conseil
Si vous êtes un EUM NCOALink, vous pouvez demander un contrat Stop Processing Alternative de l'USPS. Une fois approuvé par l'USPS, vous pouvez acquérir la fonctionnalité Stop processing alternative du progiciel qui permet la continuité du traitement DPV et LACSLink après la détection d'un enregistrement d'adresse faux positif.
Informations associées
Stop Processing Alternative [page 544]
17.6.5.7 Performances du progiciel
Lors de nos tests, le progiciel s'exécutait plus lentement lorsque NCOALink était activé. La vitesse de traitement dépend de l'ordinateur exécutant le progiciel et du pourcentage d'enregistrements d'entrées affectés par un déplacement (un nombre plus élevé de déplacements équivaut à un ralentissement des performances).
580
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Informations associées
Optimisation des performances de traitement de NCOALink [page 585]
17.6.5.8 Démarrage de NCOALink
Avant de démarrer le traitement de NCOALink, il convient d'effectuer les tâches suivantes :
● Terminer le processus de certification d'USPS pour devenir un utilisateur final ou un fournisseur de services
NCOALink. Pour en savoir plus sur la certification, voir la section Certification NCOALink via le lien ci-dessous.
● Comprendre les stratégies de sortie disponibles et les options d'optimisation des performances.
● Configurer le job.
17.6.5.9 Solutions proposées par le USPS et SAP
NCOALink et les conditions requises pour les licences associées ont créé une nouvelle dimension dans la relation entre les expéditeurs (vous), l'USPS et les fournisseurs. Il est important de clarifier les solutions proposées par chacun.
17.6.5.9.1 Mise à jour des déplacements : une décision commerciale qui vous appartient
NCOALink permet de remplacer l'ancienne adresse d'une personne par sa nouvelle adresse. En tant que fournisseur de services, vous devez décider si vous acceptez les mises à jour de déplacements liées aux déménagements de familles ou d'une seule personne uniquement. L'USPS recommande de ne prendre cette décision qu'après une mûre réflexion sur vos relations client. Etudiez les exemples suivants :
● Si vous envoyez des chèques, des relevés de compte ou toute autre correspondance pour laquelle vous avez une responsabilité fiduciaire, la mise à jour des déplacements représente une garantie sérieuse. L'USPS préconise de vérifier chaque déplacement par l'envoi d'une carte postale double ou toute autre correspondance à réponse facile avant de modifier tout enregistrement financier sur la nouvelle adresse.
● Si vos relations commerciales concernent l'un des époux uniquement, la mise à jour des déplacements doit
être gérée avec prudence, en respectant tout divorce ou séparation. Encore une fois, il peut être censé de consacrer davantage de temps et d'argent à la confirmation de chaque déplacement avant de mettre à jour un enregistrement de manière permanente.
17.6.5.9.2 Exigences de sécurité de NCOALink
En raison de la sensibilité et de la confidentialité des données de changement d'adresse, l'USPS impose de strictes procédures de sécurité aux fournisseurs de logiciels utilisant et fournissant le traitement de NCOALink.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
581
L'une des responsabilités incombant au fournisseur du logiciel consiste à contrôler que chaque entrée de liste pour la transformation USA Regulatory Address Cleanse contient au moins 100 enregistrements uniques. Ainsi, la transformation USA Regulatory Address Cleanse contrôle la présence de 100 enregistrements uniques dans le fichier de sortie. Ces contrôles augmentent le délai de vérification, mais sont requis par l'USPS et doivent être effectués.
Si le logiciel ne détecte pas 100 enregistrements uniques dans vos données, il signale une erreur et interrompt le traitement.
Le processus de contrôle de la présence de 100 enregistrements uniques représente une étape de pré-traitement.
Ainsi, si le logiciel ne détecte pas ces 100 enregistrements uniques, le fichier d'entrée ne comprendra aucune sortie de statistique et aucun traitement ne sera effectué.
Informations associées
Démarrage de NCOALink [page 581]
17.6.5.9.2.1 Méthode de contrôle des 100 enregistrements uniques par le progiciel
Lorsque NCOALink est activé dans le job, le progiciel contrôle la présence de 100 enregistrements uniques avant d'effectuer tout traitement sur les données. Le progiciel contrôle l'ensemble de la base de données pour détecter les 100 enregistrements uniques. Si ces derniers sont détectés, le job est traité normalement. Toutefois, si le progiciel ne détecte pas ces enregistrements, il envoie une erreur indiquant que les données d'entrées ne contiennent pas 100 enregistrements uniques ou que les enregistrements ne sont pas suffisants pour déterminer une unicité.
Pour la recherche des 100 enregistrements uniques, un enregistrement représente tous les champs d'entrées mappés concaténés dans le même ordre que celui de leur mappage dans la transformation. Chaque enregistrement doit être identique à un autre enregistrement pour pouvoir être considéré comme semblable (non unique).
Exemple
Comparaison d'enregistrements
L'exemple ci-dessous illustre la manière dont le progiciel concatène les champs dans chaque enregistrement et détermine les enregistrements non uniques. La première et la dernière ligne de cet exemple ne sont pas uniques.
Table 276 :
332
332
331
332
FRONT
FRONT
FRONT
FRONT
STREET
STREET
STREET
STREET
NORTH
SOUTH
SOUTH
NORTH
LACROSSE
LACROSSE
LACROSSE
LACROSSE
WI
WI
WI
WI
54601
54601
54601
54601
582
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.5.9.2.2 Recherche d'enregistrements uniques dans plusieurs threads
Parfois, la liste d'entrée comprend 100 enregistrements uniques mais l'utilisateur reçoit toujours un message d'erreur indiquant que la liste n'inclut pas ces 100 enregistrements uniques. Cela peut se produire lorsque la liste contient un faible volume de données. Pour contourner ce problème, les utilisateurs peuvent ajuster la définition du degré de parallélisme (DOP) dans le job.
Faible volume de données et degré de parallélisme > 1
Lorsqu'un job NCOALink est configuré avec un degré de parallélisme supérieur à 1, chaque thread vérifie les enregistrements uniques présents dans la première collection traitée, puis partage avec les autres threads les connaissances acquises sur les enregistrements uniques détectés. Le premier thread ayant terminé le traitement de sa collection compte les enregistrements uniques trouvés par tous les threads jusqu'à ce point et décide si le contrôle des 100 enregistrements minimums est satisfaisant. Ce thread n'est pas nécessairement le thread 1. Par exemple, votre liste comporte 3 050 enregistrements et le degré de parallélisme est défini sur 4. Si le nombre d'enregistrements par collection est de 1 000, chaque thread aura une collection de 1 000 enregistrements, à l'exception du dernier thread qui n'en comportera que 50. Le thread traitant les 50 enregistrements terminera probablement sa collection en premier et prendra la décision d'échec ou de réussite avant de détecter les
100 enregistrements uniques. Vous pouvez terminer l'exécution de ce job en diminuant le degré de parallélisme défini. Dans cet exemple, vous pouvez le diminuer pour le définir sur 3.
17.6.5.10 A propos du fichier quotidien de suppression
NCOALink
Si vous êtes un fournisseur de services, vous devez télécharger le fichier de suppression quotidien et l'installer dans le même dossier que les répertoires NCOALink avant d'exécuter quotidiennement le traitement de
NCOALink.
Le fichier quotidien de suppression contient des enregistrements en attente de suppression à partir des données
NCOALink. Par exemple, si Martine Dupond remplit un formulaire de changement d'adresse auprès de l'USPS puis ne déménage pas, son enregistrement se trouvera dans le fichier quotidien de suppression. Le changement d'adresse étant stocké dans les répertoires NCOALink et mis à jour toutes les semaines ou tous les mois, le fichier quotidien de suppression est nécessaire pendant la période intermédiaire, jusqu'à la nouvelle mise à jour des répertoires NCOALink.
Téléchargez le fichier quotidien de suppression à partir du site Web de gestion du produit électronique de l'USPS
à l'adresse https://epf.usps.gov/ . Avant de pouvoir accéder au fichier, vous devez remplir et soumettre le formulaire Electronic Product Fulfillment Web Access Request Form (Form 5116) à l'USPS. Ce formulaire est disponible à partir du même site Web.
Remarque
Si vous êtes un utilisateur final, seul le fichier quotidien de suppression est nécessaire pour traiter les fichiers
Etape I ou Etape II. Il n'est pas requis pour le traitement normal de NCOALink.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
583
Voici quelques points importants à connaître à propos du fichier quotidien de suppression :
● La vérification du progiciel échouera si NCOALink est activé, si un test d'étape est effectué et le si fichier quotidien de suppression n'est pas installé.
● La transformation USA Regulatory Address Cleanse prend uniquement en charge la version ASCII du fichier quotidien de suppression.
● Ne renommez pas le fichier quotidien de suppression. Il doit être nommé dailydel.dat.
● Le progiciel produira un avertissement de vérification si le fichier quotidien de suppression date de plus de trois jours.
17.6.5.10.1 Installation du fichier quotidien de suppression
NCOALink
Pour télécharger et installer le fichier quotidien de suppression NCOALink, suivez les étapes suivantes :
1. Accédez au site USPS Electronic Product Fulfillment à l'adresse https://epf.usps.gov/ .
2. Avant le premier téléchargement du fichier quotidien de suppression, vous devez remplir et envoyer par télécopie le formulaire PS Form 5116 (Electronic Product Fulfillment Web Access Request Form) au Service de licence de l'USPS (USPS Licensing Department).
Lors du remplissage du formulaire, assurez-vous de sélectionner l'une des options NCOALink ou NCOALink with ANKLink selon vos besoins. Vous pouvez alors accéder au fichier quotidien de suppression.
3. Connectez-vous au site USPS Electronic Product Fulfillment et téléchargez le fichier quotidien de suppression
NCOALink [TEXTE] vers un emplacement à partir duquel le fichier .tar peut être extrait. Si les bloqueurs de fenêtres publicitaires sont activés sur le navigateur de l'ordinateur, vous devez les remplacer.
4. Extrayez le fichier dailyDeletes_txt.tar.
5. Copiez le fichier dailydel.dat vers l'emplacement de stockage de vos répertoires NCOALink.
6. Répétez les étapes 3 à 5 quotidiennement avant d'effectuer le traitement de NCOALink.
17.6.5.11 Stratégies de fichiers de sortie
Vous pouvez configurer le fichier de sortie pour répondre à vos besoins. Selon la Sélection de classe de champ définie, les composants de votre fichier de sortie contiennent les informations de type Correct, Déplacement mis
à jour ou Meilleur :
● CORRECT : produit l'adresse d'entrée originale. Il s'agit des valeurs complètes et correctes présentes dans les répertoires, standardisées selon toute définition configurée dans le groupe Options de standardisation dans l'onglet Options. (CORRECT)
● DEPLACEMENT MIS A JOUR : produit les composants d'adresse mis à jour avec les données d'adresses contenant les mises à jour de déplacement.
Remarque
La transformation recherche les informations d'adresses contenant des déplacements mis à jour dans les
Répertoires d'adresses nationaux américains. Lorsque l'adresse de déplacement mis à jour est introuvable dans les répertoires d'adresses nationaux américains, le progiciel remplit les champs Déplacement mis à
584
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
jour avec les informations trouvées dans les répertoires Move Update uniquement. Les champs
Déplacement mis à jour remplis suite à la standardisation des répertoires d'adresses nationaux américains ne seront pas mis à jour.
● MEILLEUR : produit les données d'adresses avec déplacement mis à jour si elles existent et correspondent aux répertoires d'adresses nationaux américains. Le champ peut aussi contenir les données d'adresses originales si aucun déplacement n'existe ou s'il ne correspond pas aux répertoires d'adresses nationaux américains.
Selon la définition de l'option
Appliquer déplacement aux champs standardisés
dans le groupe d'options NCOA, les composants standardisés peuvent contenir des adresses originales ou avec les déplacements mis à jour.
Par défaut, l'option de sortie
Appliquer déplacement aux champs standardisés
est définie sur Oui et le progiciel met à jour les champs standardisés pour inclure les détails relatifs à l'adresse mise à jour disponible grâce à
NCOALink.
Pour conserver les anciennes adresses dans les composants standardisés et ajouter les nouvelles adresses au fichier de sortie, vous devez définir l'option
Appliquer déplacement aux champs standardisés
sur Non. Vous pouvez ensuite utiliser les champs de sortie tels que NCOALINK_RETURN_CODE pour déterminer la survenance d'un déplacement. L'une des manières de configurer le fichier de sortie consiste à répliquer le format de fichier d'entrée, puis d'ajouter des champs supplémentaires pour les données de déplacement. Dans les enregistrements de sortie non affectés par un déplacement, la plupart des champs ajoutés seront vides. Il est
également possible de créer un second fichier de sortie spécifique pour les enregistrements de déplacement.
Deux méthodes sont applicables :
● Produire chaque enregistrement une seule fois, placer les enregistrements de déplacement dans le second fichier de sortie puis l'ensemble des autres enregistrements dans le fichier de sortie principal.
● Produire les enregistrements de sortie deux fois : la première fois dans le fichier de sortie principal et la seconde fois dans le second fichier de sortie.
Ces deux méthodes nécessitent l'utilisation d'un filtre de sortie déterminant si un enregistrement est un déplacement.
17.6.5.12 Optimisation des performances de traitement de
NCOALink
Plusieurs facteurs affectent les performances lors du traitement de données NCOALink. Le facteur le plus critique est en général le volume d'accès au disque qui se produit. La plus efficace manière de réduire l'accès au disque consiste souvent à disposer d'une mémoire disponible suffisante pour les données de cache. D'autres facteurs critiques, tels que la vitesse du disque dur, le temps d'accès et le taux élevé de transfert, peuvent affecter les performances. Lorsque le délai d'accès au disque est réduit, les performances de l'UC deviennent significatives.
Informations associées
Recherche d'enregistrements uniques dans plusieurs threads [page 583]
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
585
17.6.5.12.1 Systèmes d'exploitation et processeurs
Les calculs impliqués dans la majeure partie du traitement du progiciel et de NCOALink sont parfaitement adaptés aux microprocesseurs intégrés dans la majorité des ordinateurs, tels que ceux fabriqués par Intel et AMD.
Les processeurs RISC tels que ceux intégrés dans la plupart des systèmes UNIX sont en général considérablement plus lents pour ce type de calculs. En effet, un PC commun peut souvent exécuter un job unique via le progiciel et NCOALink environ deux fois plus rapidement qu'un système UNIX commun. Si vous recherchez une méthode rentable pour traiter des jobs uniques, un serveur Windows ou un poste de travail rapide peuvent produire d'excellents résultats. La majorité des systèmes UNIX intègrent plusieurs processeurs et peuvent au mieux traiter plusieurs jobs simultanément.
Vous devez pouvoir augmenter le degré de parallélisme (DOP) dans les propriétés du flux de données pour optimiser l'utilisation du cœur ou du processeur de votre système. L'augmentation du degré de parallélisme dépend de la complexité du flux de données.
17.6.5.12.2 Mémoire
Le traitement de NCOALink exploite un grand volume de données, exprimé en gigaoctets. Le volume exact dépend du niveau de votre fournisseur de services, du format de données et de la version spécifique des données de l'USPS.
En général, si les performances s'avèrent critiques et notamment si vous êtes un fournisseur de services complets NCOALink exécutant fréquemment de nombreux jobs volumineux avec des millions d'enregistrements, vous devez obtenir autant de mémoire que possible. Vous souhaiterez mettre l'ensemble du jeu de données
NCOALink en cache. Vous devriez pouvoir mettre l'ensemble du jeu de données NCOALink en cache en utilisant
20 Go de mémoire RAM, avec une mémoire restante suffisante pour le système d'exploitation.
17.6.5.12.3 Stockage de données
Dans la mesure du possible, le disque dur utilisé pour les données NCOALink doit être entièrement dédié à ce processus, au moins lorsque le job est en cours d'exécution. D'autres processus tentant d'utiliser ce même lecteur de disque physique peuvent largement réduire les performances de NCOALink.
Pour obtenir des taux de transfert encore plus élevés, vous pouvez opter pour l'utilisation d'un système RAID
(redundant array of independent disks).
Lorsque le progiciel accède directement aux données NCOALink, et non par l'intermédiaire d'un cache, la fonctionnalité la plus significative du disque dur est son temps moyen d'accès.
17.6.5.12.4 Format de données
Le progiciel prend en charge les versions de fichiers plats et de hachage des données NCOALink. Si vous disposez d'une mémoire cache suffisante pour l'ensemble du jeu de données du fichier de hachage, ce format peut fournir les meilleures performances. Les données du fichier plat étant considérablement moins importantes, une part
586
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
plus importante d'entre elles peut ainsi être mise en cache dans un volume donné de mémoire RAM. Toutefois, accéder aux données du fichier plat implique des recherches binaires nettement plus longues que l'accès direct utilisé avec le format de fichier de hachage.
17.6.5.12.5 Utilisation de la mémoire
La quantité de mémoire optimale dépend de nombreux facteurs différents. L'option "Automatique" s'avère en général utile pour décider de la quantité de mémoire à utiliser, mais un ajustement manuel de cette quantité peut
être nécessaire dans de nombreux cas.
17.6.5.12.6 Astuces sur les performances
Plusieurs facteurs peuvent augmenter ou diminuer la vitesse de traitement de NCOALink. Il est possible d'en contrôler certains, mais d'autres peuvent être liés à votre activité. Prenez en considération les facteurs suivants :
● Taille de la mémoire cache : l'utilisation d'un volume insuffisant de mémoire pour la mise en cache NCOALink peut engendrer un accès au fichier aléatoire non nécessaire et des recherches de disque dur fastidieuses.
L'utilisation d'un trop grand volume de mémoire peut engendrer la lecture de fichiers volumineux à partir du disque dans la mémoire cache même si une fraction infime de données seulement sera utilisée. Le volume de mémoire cache le plus adapté à votre environnement peut nécessiter certains tests afin de déterminer la meilleure option pour votre configuration et la taille de job classique.
● Emplacement du répertoire : il est préférable que les répertoires NCOALink se situent sur un disque SSD local ou sur un lecteur RAM virtuel. L'utilisation d'un disque SSD local ou d'un lecteur RAM virtuel élimine toutes les
E/S pour NCOALink lors du traitement du job. Si les répertoires se trouvent sur un disque dur, il est préférable d'utiliser un disque dur local défragmenté. Le disque dur doit être uniquement utilisé pour les données
NCOALink lors de l'exécution du job.
● Taux de correspondance : plus vous possédez d'enregistrements avec des déplacements transférables, plus le traitement sera lent. L'extraction et le décodage de nouvelles adresses prennent du temps, ainsi la mise à jour régulière d'une liste de diffusion optimisera la vitesse de traitement de cette liste.
● Format d'entrée : idéalement, vous devez fournir à la transformation USA Regulatory Address Cleanse des champs discrets pour le prénom, le deuxième prénom et le nom du destinataire, ainsi que le titre de civilité et la désignation. Si votre entrée ne présente qu'une seule ligne de nom, la transformation devra tout d'abord prendre le temps de l'analyser avant de contrôler les données NCOALink.
● Taille du fichier : les fichiers les plus volumineux se traitent relativement plus rapidement que les fichiers plus petits. Il existe une surcharge lors du traitement de tout job, mais si un job inclut des millions d'enregistrements, quelques secondes de surcharge deviennent insignifiantes.
17.6.5.13 Activation du traitement NCOALink
Vous devez avoir accès aux fichiers suivants :
● Répertoires NCOALink
● Version actuelle du fichier quotidien de suppression USPS
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
587
● Fichiers de données DPV
● Fichiers de données LACSLink
Si vous utilisez une copie de l'exemple de configuration de transformation,
USARegulatoryNCOALink_AddressCleanse, NCOALink, DPV et LACSLink sont déjà activés.
1. Ouvrez la transformation
USA Regulatory Address Cleanse
, puis l'onglet
Options
.
2. Définissez les valeurs des options selon votre configuration.
Pour en savoir plus sur les champs de transformation USA Regulatory Address Cleanse, voir le Guide de
référence. La table ci-dessous indique les champs obligatoires pour certains niveaux de fournisseurs.
Table 277 :
Groupe d'options
Informations de li cence USPS
NCOALink
Nom ou sous-groupe de l'op tion
Nom du licencié
Code NAICS du propriétaire de la liste
oui
Utilisateur final sans contrat pour le Stop Pro cessing Alterna tive
Utilisateur final avec un contrat pour le Stop Pro cessing Alterna tive
Fournisseur de services complets ou restreints
(Full/Limited service provider oui oui oui oui oui
ID de liste
Nom de la société du client
non non
Adresse de la société du client
non
Localité de la société du client
non non non non oui oui oui oui oui oui oui oui oui oui oui
Région de la société du client
Code postal de la société du client1
Code postal de la société du client2
Téléphone de la société du client
non non oui non oui non
Fréquence de traitement de liste
Date de réception de la liste
Date de retour de la liste
Niveau du fournisseur
Sous-groupe Détails PAF
oui non non oui non oui non non oui non oui oui oui oui
Toutes les options sont obligatoires, à l'excep tion des options Nom de la société mère du client et Autre nom de la so ciété du client.
588
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Groupe d'options Nom ou sous-groupe de l'op tion
Sous-groupe Options du fournisseur de services
Utilisateur final sans contrat pour le Stop Pro cessing Alterna tive
Utilisateur final avec un contrat pour le Stop Pro cessing Alterna tive
Fournisseur de services complets ou restreints
(Full/Limited service provider non non Toutes les options sont obligatoires, à l'excep tion des options Nom de la société de l'acheteur et Code postal du cour rier.
Conseil
Si vous êtes un fournisseur de services et si vous devez fournir des détails de contact à plusieurs gestionnaires, développez le groupe NCOALink, cliquez avec le bouton droit de la souris sur
Détails du contact
, puis cliquez sur
Dupliquer l'option
. Un groupe supplémentaire de champs de détails de contact sera ajouté en-dessous du groupe original.
Informations associées
A propos du fichier quotidien de suppression NCOALink [page 583]
Stratégies de fichiers de sortie [page 584]
Stop Processing Alternative [page 544]
17.6.5.14 Fichiers journaux NCOALink
Le logiciel génère automatiquement les fichiers journaux requis par USPS et les nomme selon les exigences
USPS. Il génère ces fichiers journaux dans le référentiel d'où vous pouvez les exporter en utilisant la Console de gestion.
Il crée un seul fichier journal par ID de licence. Au début de chaque mois, le logiciel lance de nouveaux fichiers journaux. Chaque fichier journal est ensuite ajouté avec les informations sur chaque job NCOALink traité lors de ce mois pour cet ID de licence spécifique.
Le logiciel produit les fichiers journaux suivants associés aux déplacements :
● Journal CSL (Customer Service log, journal de service client)
● Journal PAF d'informations clients (Processing Acknowledgement Form, formulaire de confirmation de traitement)
● Journal BALA (Broker/Agent/List Administrator, Gestionnaire/Agent/Administrateur de liste)
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
589
Les fichiers journaux PAF d'informations clients et BALA ne sont pas requis pour les utilisateurs finaux. Le tableau suivant indique les fichiers journaux requis pour les fournisseurs de services restreints ou complets :
Table 278 :
Fichier journal
CSL
Description
Ce fichier journal contient un enregistrement par liste traitée. Chaque enregistrement détaille les résultats du traitement de changement d'adresse.
Journal PAF d'informations clients
Ce fichier journal contient les informations fournies pour le PAF.
Le fichier journal répertorie chaque entrée PAF unique. Si une liste est traitée avec les mêmes informations PAF, celles-ci ne s'affichent qu'une seule fois dans le fichier journal.
Lorsque les informations de contact pour l'administrateur de listes ont changé, les informations pour l'administrateur de listes ainsi que pour le gestionnaire correspondant sont écrites dans le fichier journal PAF.
BALA
Ce fichier journal contient toutes les informations de contact saisies pour le gestionnaire ou l'administrateur de listes.
Le fichier journal répertorie une fois seulement les informations pour chaque gestionnaire ou administrateur de listes.
USPS exige des fournisseurs de services le fichier journal Gestionnaire/Agent/Administrateur de listes, y compris dans les jobs n'impliquant pas de gestionnaire ou d'administrateur de listes.
Le logiciel génère ce fichier journal pour chaque job si vous êtes un fournisseur de services cer tifié.
Rétention de fichier journal et suppression automatique
Vous devez soumettre les fichiers journaux NCOALink à l'USPS mensuellement. Le logiciel supprime les fichiers journaux sur une base périodique (30 jours par défaut), qui peut être contrôlée par les paramètres d'application de Data Services dans la Central Management Console. Pour éviter de perdre les informations du journal mensuellement, définissez la
Période de rétention de l'historique
à plus de 31 jours (nous recommandons un paramètre de 50 jours).
En plus d'envoyer tous les mois les fichiers journaux à l'USPS, vos données doivent être disponibles durant quelques années après le traitement du job pour que l'USPS les examine. (Assurez-vous d'être informé des règles d'USPS actuelles pour la rétention des données en contrôlant le contrat de licence USPS). Pour garantir que vous conservez tous les rapports et les journaux requis avant la suppression des données dans le référentiel, il est recommandé d'exporter les rapports et les journaux requis du référentiel vers un dossier local sur une base mensuelle. Cela permet également d'éviter que le contenu du référentiel ne devienne trop volumineux et ne génère l'«expiration» du processus d'exportation en raison du volume des statistiques conservées.
17.6.5.14.1 Noms des fichiers journaux
Le logiciel respecte le modèle d'attribution de noms de fichiers d'USPS pour les fichiers journaux suivants :
590
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Journal de services clients
● Journal PAF d'informations clients
● Journaux de l'administrateur de listes, de l'agent et du gestionnaire
Le tableau ci-dessous décrit le modèle d'attribution de noms des fichiers journaux NCOALink. Par exemple,
P1234C10.DAT est un fichier journal PAF généré en décembre 2010 pour un licencié avec l'ID 1234.
Table 279 :
Caractère 1 Caractères 7 à 8 Extension
Type de journal
B
C
P
Journal du ges tionnaire
Caractères 2
à 5
Caractère 6
ID de plate forme
Mois
Contient exactement quatre carac tères
1 janvier
2 février Journal de ser vices clients
Journal PAF
6
7
8
9
3
4
5
A
B
C mars avril mai juin juillet août septembre octobre novembre décembre
Année
Deux caractères, par exemple 10 pour l'an née 2010
.DAT
Par exemple, P1234C10.DAT est un fichier journal PAF généré en décembre 2010 pour un licencié avec l'ID 1234.
17.6.6 USPS eLOT®
eLOT est disponible pour les enregistrements des États-Unis, uniquement dans la transformation USA Regulatory
Address Cleanse.
eLOT donne une étape d'avance à Line of Travel. Le LOT d'origine a affiné l'itinéraire de distribution du facteur au niveau de l'immeuble (niveau Code postal2) en distinguant si une adresse est du côté pair ou impair d'une rue ou d'une route.
eLOT affine l'itinéraire de la tournée de distribution du facteur au niveau de la maison (point de distribution). Cela permet de trier vos publipostages jusqu'à un niveau plus précis.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
591
Informations associées
Configuration des fichiers de référence [page 518]
17.6.6.1 Activer eLOT
1. Ouvrez la transformation USA Regulatory Address Cleanse.
2. Ouvrez l'onglet
Options
, développez le groupe Options d'affectation et sélectionnez Oui pour l'option
Activer eLOT
.
3. Dans le groupe
Fichiers de référence
, définissez le chemin de votre répertoire eLOT.
Vous pouvez utiliser la variable de substitution $$RefFilesAddressCleanse pour cette option si vous l'avez configurée.
17.6.7 Early Warning System (EWS)
EWS aide à réduire le courrier mal adressé lorsque des points de livraison valides sont créés entre les mises à jour de répertoires nationaux. EWS est disponible pour les données des Etats-Unis, uniquement dans la transformation USA Regulatory Address Cleanse.
17.6.7.1 Présentation de EWS
La fonctionnalité EWS est la solution au problème du courrier mal dirigé causé par des points de livraison valides qui apparaissent entre les mises à jour du répertoire national. Par exemple, supposons que 300 Main Street est une adresse valide et que 300 Main Avenue n'existe pas. Un courrier adressé à 300 Main Avenue est affecté à 300
Main Street sur l'hypothèse que l'expéditeur s'est trompé sur le suffixe.
Supposons maintenant qu'une maison est terminée au 300 Main Avenue. Le nouveau propriétaire s'inscrit aux utilitaires et au courrier, mais cela peut prendre plusieurs mois avant que le point de livraison soit listé dans le répertoire national. Tout le courrier destiné à la nouvelle maison au 300 Main Avenue sera mal envoyé au 300
Main Street jusqu'à ce que le point de livraison soit ajouté au répertoire national.
La fonctionnalité EWS résout ce problème en utilisant un répertoire supplémentaire qui informe les utilisateurs
CASS de l'existence du 300 Main Avenue bien longtemps avant qu'il apparaisse dans le répertoire national.
Lorsque vous utilisez le traitement EWS, l'adresse anciennement mal dirigée reçoit par défaut une affectation à 5 chiffres.
592
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.7.2 Commencer par un exemple de configuration de transformation
Si vous souhaitez utiliser la transformation USA Regulatory Address Cleanse avec l'option EWS activée, le mieux est de commencer par l'exemple de configuration de transformation pour le traitement EWS appelé :
USARegulatoryEWS_AddressCleanse.
17.6.7.3 Répertoire EWS
Le répertoire EWS contient quatre mois de données continues. Chaque semaine, l'USPS ajoute de nouvelles données et fait glisser une semaine d'anciennes données. L'USPS publie ensuite les dernières données EWS.
Chaque vendredi, SAP convertit les données dans notre format EWaammjj.zip et les publie sur le site Support
SAP destiné aux utilisateurs professionnels à l'adresse https://service.sap.com/bosap-downloads-usps .
17.6.7.4 Activer EWS
EWS est déjà activé lorsque vous utilisez l'exemple de transformation EWS du logiciel
USARegulatoryEWS_AddressCleanse. Ces étapes indiquent comment activer manuellement EWS.
1. Ouvrez la transformation USA Regulatory Address Cleanse .
2. Ouvrez l'onglet
Options
et développez le groupe Assignment Options.
3. Sélectionnez Activer pour l'option
Activer EWS
.
4. Développez le groupe de fichiers de référence et saisissez un chemin pour l'option
Répertoire EWS
ou utilisez la variable de substitution $$RefFilesAddressCleanse si vous l'avez configurée.
Informations associées
Early Warning System (EWS) [page 592]
17.6.8 USPS RDI®
L'option RDI (Residential Delivery Indicator) est disponible dans la transformation USA Regulatory Address
Cleanse . RDI détermine si une adresse donnée correspond ou non à un domicile.
Les expéditeurs de colis peuvent trouver des informations RDI très précieuses parce que certains services de distribution facturent des taux supérieurs pour distribuer aux adresses résidentielles. D'autre part, USPS n'ajoute pas de suppléments pour les distributions résidentielles. Lorsque vous pouvez reconnaître une adresse comme
étant un domicile, vous augmentez la motivation à expédier le colis avec USPS plutôt qu'avec un concurrent qui applique un supplément résidentiel.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
593
Selon USPS, 91 % des adresses des Etats-Unis sont résidentielles. USPS incite à encourager l'utilisation de RDI par les expéditeurs de colis.
Vous pouvez utiliser RDI si vous traitez les données pour la certification CASS ou si vous effectuez un traitement en mode non certifié. En outre, RDI ne nécessite pas l'utilisation du traitement DPV.
17.6.8.1 Commencez par un exemple de transformation
Pour utiliser la fonctionnalité RDI avec la transformation USA Regulatory Address Cleanse, il est préférable de commencer par l'exemple de configuration de transformation USARegulatoryRDI_AddressCleanse.
Les exemples de transformations sont situés dans l'onglet Transformations de la bibliothèque d'objets. Cet exemple est situé sous transformations USA_Regulatory_Address_Cleanse.
17.6.8.2 Fonctionnement de RDI
Une fois que vous avez installé les répertoires RDI et que vous avez activé le traitement RDI, le logiciel détermine si l'adresse représentée par un code postal à 11 chiffres (code postal1, code postal2 et le DPBC) est une adresse résidentielle. (Le logiciel peut parfois procéder de la même façon avec un code postal2).
Le progiciel indique si une adresse correspond ou non à un domicile dans le composant de sortie RDI_INDICATOR.
L'utilisation de la fonctionnalité RDI implique quelques étapes seulement :
1. Installez les répertoires RDI.
2. Indiquez l'emplacement des répertoires.
3. Activez le traitement RDI dans le logiciel.
4. Exécutez le job.
Informations associées
17.6.8.2.1 Compatibilité
RDI dispose de la compatibilité suivante avec d'autres options dans le logiciel :
● RDI est autorisé en modes de traitement CASS et non CASS.
● RDI est autorisé avec ou sans traitement DPV.
594
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.8.3 Fichiers de répertoire RDI
SAP fournit les fichiers de répertoire RDI avec la mise à jour du répertoire national des Etats-Unis.
RDI nécessite les répertoires suivants :
Table 280 :
Fichier Description rts.hs11 rts.hs9
Pour des recherches de code postal à 11 chiffres (code postal2 plus DPBC). Ce fichier est utilisé lorsqu'une adresse contient un code postal à 11 chiffres. La détermination est basée sur le
Delivery Point.
Pour des recherches de code postal à 9 chiffres (code pos tal2). Ce fichier est un fichier ZIP+4. Ceci est possible unique ment lorsque les adresses de ce fichier ZIP+4 sont destinées à tous les domiciles ou à aucun domicile.
17.6.8.3.1 Spécification du chemin d'accès aux répertoires RDI
Dans le groupe de fichiers de référence, indiquez l'emplacement de vos répertoires RDI dans l'option
RDI Path
. Si le traitement RDI est désactivé, le logiciel ignore le paramétrage
RDI Path
.
17.6.8.4 Activer RDI
Si vous utilisez une copie de l'exemple de transformation USARegulatoryRDI_AddressCleanse dans votre flux de données, RDI est déjà activé. Cependant si vous commencez par une transformation USA Regulatory Address
Cleanse, vérifiez que vous activez RDI et définissez l'emplacement pour les répertoires RDI suivants : rts.hs11 et rts.hs9.
1. Ouvrez la transformation
USA Regulatory Address Cleanse
.
2. Dans l'onglet
Options
, développez le groupe de fichiers de référence et saisissez l'emplacement des répertoires RDI dans l'option
Chemin d'accès RDI
ou utilisez la variable de substitution $
$RefFilesAddressCleanse si vous l'avez configurée.
3. Développez le groupe d'options d'affectation et sélectionnez
Oui
pour l'option
Activer RDI
.
17.6.8.5 Champ de sortie RDI
Pour RDI, le logiciel utilise toujours un composant sortant contenant toujours un seul caractère. Le composant
RDI est renseigné uniquement lorsque la valeur Oui est attribuée à l'option
Activer RDI
dans le groupe d'options d'affectation.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
595
Champ Job/Vues
RDI_INDICATOR
Longueur
1
Description
Ce champ contient la valeur RDI composée d'une des valeurs suivantes :
O = L'adresse est une adresse de domicile.
N = L'adresse n'est pas une adresse de domicile.
17.6.8.6 RDI dans rapports
Quelques rapports du logiciel disposent d'informations supplémentaires en raison de la fonctionnalité RDI.
17.6.8.6.1 CASS Instruction, USPS Form 3553
USPS Form 3553 contient une entrée pour le nombre de résidences. (L'enregistrement d'en-tête CASS contient
également ces informations).
17.6.8.6.2 Fichiers de statistiques
Les fichiers de statistiques contiennent des comptages et des pourcentages.RDI
17.6.9 GeoCensus (USA Regulatory Address Cleanse)
L'option GeoCensus de la transformation USA Regulatory Address Cleanse fournit un codage géographique et de recensement permettant une analyse avancée des ventes et du marketing. Elle est disponible uniquement pour les enregistrements des Etats-Unis.
Remarque
La fonctionnalité GeoCensus de la transformation USA Regulatory Address Cleanse sera obsolète dans une prochaine version. Il est recommandé de mettre à niveau tout flux de données utilisant actuellement la fonctionnalité GeoCensus pour utiliser la transformation Geocoder. Pour obtenir des instructions concernant la mise à niveau de GeoCensus vers la transformation Geocoder, voir le Guide de mise à niveau.
596
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Informations associées
Comment fonctionne GeoCensus [page 597]
Répertoires GeoCensus [page 598]
Activer le codage GeoCensus [page 600]
17.6.9.1 Comment fonctionne GeoCensus
Avec l'utilisation de GeoCensus, la transformation USA Regulatory Address Cleanse peut ajouter la latitude, la longitude et les codes de recensement tels que le secteur de recensement ou la zone statistique métropolitaine
(MSA) aux enregistrements, en fonctions des codes ZIP+4. MSA est une agrégation des comtés des Etats-Unis dans les zones statistiques métropolitaines affectées par le US Office of Management and Budget. Il est possible d'appliquer les codes GeoCensus lors de la normalisation d'adresses et l'affectation du code postal2 pour un traitement simple, «en une seule passe».
La transformation ne peut pas, par elle-même, ajouter des données démographiques aux enregistrements. La transformation établit les bases en donnant les coordonnées du recensement via des champs de sortie. Pour ajouter des informations démographiques, vous avez besoin d'une base de données démographique d'un autre fournisseur. Lorsque vous en obtenez une, nous vous recommandons d'utiliser le processus de correspondance pour faire correspondre les enregistrements avec la base de données démographique, et de transférer les informations démographiques dans les enregistrements (Vous utiliseriez les informations MSA et de secteur de recensement comme des critères de correspondance, puis la transformation Best Record pour enregistrer les revenus et d'autres informations.)
De la même façon, la transformation ne dessine aucune carte. Cependant, il est possible d'utiliser la latitude et la longitude affectées par la transformation comme une entrée pour les applications de mappage tiers. Ces applications permettent de tracer les emplacements des clients et de filtrer la base de données pour couvrir une zone géographique en particulier.
17.6.9.2 Le logiciel fournit les coordonnées de recensement
Le logiciel ne peut pas, par lui-même, ajouter des données démographiques aux enregistrements. Le logiciel
établit seulement les bases en donnant les coordonnées du recensement via des champs de sortie. Pour ajouter des informations démographiques, vous avez besoin d'une base de données démographique d'un autre fournisseur. Lorsque vous en obtenez une, nous vous recommandons d'utiliser la transformation Match pour faire correspondre vos enregistrements avec la base de données démographique, et de transférer les informations démographiques dans vos enregistrements (en termes techniques, vous utilisez les informations MSA et de secteur/îlot de recensement comme des critères de correspondance, puis vous utilisez l'opération de postcomparaison du meilleur enregistrement dans la transformation Match pour transférer les revenus et d'autres informations.
De la même façon, le logiciel ne dessine aucune carte. Cependant, il est possible d'utiliser la latitude et la longitude affectées par le logiciel comme une entrée pour le logiciel de mappage tiers. Ces programmes permettent de tracer les emplacements des clients et de filtrer la base de données pour couvrir une zone géographique en particulier.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
597
Informations associées
Meilleur enregistrement [page 481]
17.6.9.3 Obtenir le meilleur des données GeoCensus
Il est possible de combiner le GeoCensus avec la fonctionnalité du logiciel de mappage pour afficher les informations géoaméliorées. GeoCensus aide une entreprise à construire ses stratégies de vente et de marketing.
Ci-dessous se trouvent quelques manières d'utiliser les données GeoCensus, avec ou sans produit de mappage.
Table 281 :
Type d'informations
Etudes de marché
Modélisation prédictive et marketing ciblé
Planification des médias
Gestion du territoire
Ventes directes
Comment GeoCensus peut aider
Il est possible d'utiliser les applications de mappage pour analyser la pénétration de marché, par exemple. Les sociétés qui s'efforcent d'obtenir une meilleure compréhension de leurs marchés utilisent des études de marché. De cette façon, elles peuvent voir les données de vente, de marketing et démographiques sur des cartes, tableaux et graphiques. Le résultat est un programme marketing mieux ciblé. Vous comprenez où se trouvent vos clients et la péné tration que vous avez acquise dans les marchés choisis.
Il est possible de cibler avec plus de précision les clients pour les campagnes de réponse di rectes à l'aide de sélections géographiques. La modélisation prédictive ou d'autres techniques d'analyses permettent d'identifier les caractéristiques du client idéal. Cette méthode incor pore les informations démographiques utilisées pour enrichir votre base de données client. A partir de cette analyse, il est possible d'identifier les meilleurs clients potentiels pour les pro grammes de publipostage ou de télémarketing.
Pour mieux appuyer vos décisions publicitaires, il est possible que vous souhaitiez utiliser la planification des médias. Le fait d'associer un affichage visuel des marchés clés avec une vue des médias peut aider une société à utiliser de façon plus stratégique le budget publicitaire.
Les données GeoCensus offrent une image du marché plus précise pour la société. Elles peu vent aider à distribuer les territoires et les quotas de vente plus équitablement.
L'utilisation des données GeoCensus avec les outils d'étude de marché et le logiciel de map page permet de suivre les clients potentiels regroupés à partir des activités marketing.
17.6.9.4 Répertoires GeoCensus
Les chemins et les noms de fichier pour les répertoires suivants doivent être définis dans le groupe d'options
Fichiers de référence de la transformation USA Regulatory Address Cleanse avant de pouvoir commencer le traitement GeoCensus. Il est possible d'utiliser la variable de substitution $$RefFilesDataCleanse.
Table 282 :
Nom de répertoire ageo1-10
Description
Les répertoires GeoCensus de niveau d'adresse sont exigés si vous sélectionnez
Adresse
pour l'option
Mode Geo
sous le groupe Opérations d'affectation.
598
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Nom de répertoire cgeo2.dir
Description
Les répertoires GeoCensus de niveau centroide sont exigés si vous sélectionnez
Adresse
pour l'option
Mode Geo
sous le groupe Opérations d'affectation.
i o d t r e n e u s d x u n u c e s d r s e
17.6.9.5 Options du mode GeoCensus
o d e
Pour activer le GeoCensus dans la transformation, vous devez choisir un mode dans l'option
Mode Geo
dans le groupe Opérations d'affectation.
Table 283 :
17.6.9.6 Champs de sortie GeoCensus
Vous devez inclure au moins l'un des champs de sortie générés suivants dans la transformation USA Regulatory
Address Cleanse si vous prévoyez d'utiliser l'option GeoCensus :
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
599
● Code_Comté_AGeo
● AGeo_Latitude
● AGeo_Longitude
● AGeo_CodeMCD
● AGeo_Code_Emplacement
● AGeo_Code_Section
● Code_Stat_AGeo
● CGeo_CodeBSA
● CGeo_Latitude
● CGeo_Longitude
● CGeo_Code_Metro
● CGeo_Code_Section
Trouvez des descriptions de ces champs dans le Guide de référence.
17.6.9.7 Exemple de configuration de transformation
Pour traiter avec la fonctionnalité GeoCensus dans la transformation USA Regulatory Address Cleanse, le mieux est de commencer avec l'exemple de configuration de la transformation créé avec GeoCensus. Trouvez l'exemple de configuration, USARegulatoryGeo_AddressCleanse sous USA_Regulatory_Address_Cleanse dans la bibliothèque d'objets.
17.6.9.8 Activer le codage GeoCensus
Si vous utilisez une copie de l'exemple de fichier de transformation USARegulatoryGeo_AddressCleanse dans votre flux de données, GeoCensus est déjà activé. Cependant, si vous commencez par une transformation USA
Regulatory Address Cleanse, vérifiez que vous définissez l'emplacement du répertoire et l'option
Mode Geo
.
1. Ouvrez la transformation
USA Regulatory Address Cleanse
.
2. Dans l'onglet
Options
, développez le groupe
Fichiers de référence
.
3. Définissez les emplacements pour les répertoires cgeo.dir et ageo1-10.dir en fonction du Mode Geo que vous sélectionnez.
4. Développez le groupe Opération d'affectation et sélectionnez
Adresse
,
Centroid
ou
Les deux
pour l'option
Mode Geo
.
Si vous sélectionnez
Aucun
, la transformation n'exécutera pas le traitement GeoCensus.
Informations associées
GeoCensus (USA Regulatory Address Cleanse) [page 596]
600
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.10 Z4Change (USA Regulatory Address Cleanse)
L'option Z4Change est basée sur un répertoire USPS du même nom. L'option Z4Change est disponible uniquement dans la transformation USA Regulatory Address Cleanse.
17.6.10.1 Utilisation de Z4Change pour gagner du temps
L'utilisation de l'optionZ4Change permet un gain de temps considérable en matière de traitement, par rapport à l'exécution de tous les enregistrements via le processus d'affectation classique ZIP+4.
Z4Change est plus rentable pour les bases de données importantes et stables, par exemple les bases de données de clients, abonnés réguliers etc. Dans nos tests, en fonction des fichiers où 5 % des enregistrements ont été concernés par une modification ZIP+4, la durée totale de traitement batch était du tiers du temps de traitement normal.
Lorsque vous utilisez la transformation de manière interactive, c'est-à-dire traitement d'une adresse à la fois, l'utilisation de Z4Change présente un moindre intérêt.
17.6.10.2 règles USPS
Z4Change doit être utilisé uniquement pour mettre à jour une base de données qui a subi précédemment un processus de validation complet. USPS nécessite que la liste de diffusion passe par un processus d'affectation complet tous les trois ans.
17.6.10.3 Répertoire Z4Change
Le répertoire Z4Changez4change.dir est mis à jour mensuellement, il est disponible uniquement si vous avez acheté l'option Z4Change pour la transformation USA Regulatory Address Cleanse .
Le répertoire Z4Change contient une liste de tous les codes ZIP et ZIP+4 dans le pays.
17.6.10.4 Initialisation par un exemple de transformation
Pour utiliser la fonctionnalité Z4Change dans la transformation USA Regulatory Address Cleanse, il est préférable de commencer par l'exemple de transformation USARegulatoryZ4Change_AddressCleanse.
17.6.10.5 Activer Z4Change
Si vous utilisez une copie du modèle de fichier de configuration de transformation Z4Change
(USARegulatoryZ4Change_AddressCleanse) dans votre flux de données, Z4Change est déjà activé. Cependant si
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
601
vous commencez à partir d'une transformation USA Regulatory Address Cleanse, vérifiez que vous définissez l'emplacement du répertoire et l'option
Mode Z4Change
.
1. Ouvrez la transformation
USA Regulatory Address Cleanse
.
2. Dans l'onglet
Options
, développez le groupe de fichiers de référence.
3. Activez l'emplacement du répertoire z4change.dir dans l'option
Répertoire Z4Change
.
4. Développez le groupe d'options Z4Change et sélectionnez
Oui
pour l'option
Activer Z4Change
.
5. Dans le groupe d'options Z4Change, saisissez le mois et l'année de la mise à jour la plus récente des enregistrements d'entrée ZIP+4 dans l'option
Dernière date d'affectation ZIP+4
.
17.6.11 Présentation des listes de propositions
Le traitement de liste de propositions est utilisé dans des projets opérationnels avec les transformations USA
Regulatory Address Cleanse, Global Address Cleanse et Global Suggestion List Utilisez des listes de propositions pour compléter et renseigner des adresses contenant un minimum de données. Les listes de propositions peuvent fournir des propositions pour les correspondances possibles si aucune correspondance exacte n'est trouvée. Cette section aborde uniquement les listes de propositions dans la transformation USA Regulatory
Address Cleanse.
Remarque
Le traitement de liste de propositions n'est pas disponible pour le traitement batch. En outre, si vous avez activé des listes de propositions, vous ne pouvez pas bénéficier de remises CASS et le logiciel ne créera pas la documentation CASS requise.
Informations associées
Extraction de chaînes XML de qualité des données à l'aide de la fonction extract_from_xml [page 252]
Transformation Global Suggestion List [page 541]
17.6.11.1 Introduction aux listes de propositions
Dans l'idéal, lorsque la transformation USA Regulatory Address Cleanse recherche une adresse dans les fichiers de référence USPS (Ville/ ZIP City File), elle recherche un seul enregistrement correspondant avec la combinaison correspondante localité/région/code postal. Puis lors de la recherche dans le répertoire national ZIP
+4 USPS, le logiciel doit trouver un seul enregistrement correspondant à l'adresse.
602
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
Liens de séparation
Il est parfois impossible de relier une adresse d'entrée à un enregistrement correspondant dans le répertoire.
Parfois, le logiciel peut trouver plusieurs enregistrements de répertoire correspondant à peu près aux données d'entrée.
Lorsque le logiciel ne trouve pas une correspondance parfaite, il constitue une liste des correspondances proches et les présente comme propositions. Lorsque vous choisissez une proposition, le logiciel essaie à nouveau d'affecter l'adresse.
Exemple
Dernière ligne incomplète
La dernière ligne ci-dessous étant incomplète, le logiciel n'a pas pu sélectionner de façon fiable l'une des quatre localités. Mais si vous en sélectionnez une, le logiciel peut poursuivre le processus d'affectation.
Enregistrement d'entrée
Ligne1=1000 vine
Ligne2lacr wi
Correspondances possibles dans les répertoires Ville/ ZIP City
File
La Crosse, WI 54603
Lancaster, WI 53813
La Crosse, WI 54601
Larson, WI 54947
Exemple
Direction manquante
Le même processus peut se produire avec les lignes d'adresse. Une direction manquante constitue un problème commun. Dans l'exemple ci-dessous, la direction peut être aussi bien le Nord que le Sud. Le logiciel ne dispose d'aucune base pour choisir une direction plutôt qu'une autre.
Enregistrement d'entrée
Ligne1 = 615 losey blvd
Ligne2 = 54603
Correspondances possibles dans le répertoire ZI+4
600-699 Losey Blvd N
600-698 Losey Blvd S
Exemple
Suffixe manquant
Un suffixe manquant pourrait se traduire par un comportement similaire à celui de l'exemple ci-dessus.
Enregistrement d'entrée
Ligne1 = 121 dorn
Ligne2 = 54601
Correspondances possibles dans le répertoire ZI+4
100-199 Dorn Pl
101-199 Dorn St
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
603
Exemple
Noms de rue mal orthographiés
Un nom de rue mal orthographié ou incomplet pourrait également se traduire par une proposition d'adresses.
Enregistrement d'entrée
Ligne1 = 4100 marl
Ligne2 = minneapolis mn
Correspondances possibles dans le répertoire ZI+4
4100-4199 Marshall 55421
4100-4199 Maryland 55427
17.6.11.1.1 Informations supplémentaires requises
Lorsque le logiciel crée une liste de propositions, vous devez disposez d'une certaine base pour sélectionner l'une des correspondances possibles. Parfois, vous avez besoin de plus d'informations avant de choisir une proposition.
Exemple
● Les opérateurs qui prennent des informations par téléphone peuvent demander des informations supplémentaires au client pour choisir la liste de propositions.
● Les opérateurs qui saisissent des données à partir d'un bon de réduction un peu taché peuvent choisir une proposition en fonction des informations apparaissant sur la partie non tachée.
17.6.11.1.2 Règle CASS
USPS n'autorise pas SAP Data Services à générer un USPS Form 3553 lorsque les listes de propositions sont utilisées dans l'affectation des adresses. USPS suppose que les utilisateurs peuvent être tentés de faire des estimations, ce qui peut provoquer un mauvais acheminement du courrier, dont la gestion est coûteuse pour
USPS.
Donc, quand vous utilisez la fonctionnalité de liste de propositions, vous ne pouvez pas obtenir de USPS Form
3553 couvrant les adresses que vous affectez. Le formulaire est disponible uniquement quand vous exécutez un traitement par lots avec l'option
Désactiver la certification
définie sur Non.
Vous devez effectuer un traitement par lots des adresses des processus en temps réel afin d'être en conformité avec CASS. Le progiciel génère ensuite un USPS Form 3553 qui couvre la totalité de la base de données de publipostage et votre liste peut être éligible aux remises d'affranchissement.
604
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.11.1.3 Intégration de fonctionnalité
La fonctionnalité Listes de propositions est conçue pour être intégrée à vos propres applications personnalisées via le service Web. Pour plus d'informations sur l'intégration de Data Services aux applications Web, reportezvous au Guide d'intégration.
17.6.11.1.4 Exemple de modèle de listes de propositions
Pour utiliser la fonction de listes de propositions, il est préférable de commencer par l'un des modèles de transformations configurés spécifiquement. Le modèle de transformation est appelé
USARegulatorySuggestions_Address_Cleanse. Il est disponible pour la transformation USA Regulatory Address
Cleanse .
17.6.12 Rapport de statistiques de sources de données multiples
Statistiques basées sur des groupes logiques
Pour la transformation USA Regulatory Address Cleanse, une base de données d'entrée peut être une compilation de listes, chaque liste contenant un champ avec un identifiant unique. Cet identifiant unique peut être un nom, un nombre mais il doit se situer dans le même champ dans toutes les listes.
Le logiciel recueille des statistiques pour chaque liste à l'aide du champ d'entrée Data_Source_ID. Vous mappez le champ contenant l'identifiant unique dans votre liste, dans le champ d'entrée Data_Source_ID du logiciel. Lorsque le logiciel génère des rapports, certains de ces rapports contiendront un résumé pour toute la liste et un résumé distinct par liste en fonction de la valeur mappée dans le champ Data_Source_ID.
Restriction
Afin de se conformer aux restrictions en matière de rapport NCOALink, la transformation USA Regulatory
Address Cleanse ne prend pas en charge le traitement de plusieurs listes de publipostage associées aux différents PAF. Par conséquent, pour le traitement de NCOALink, tous les enregistrements du fichier d'entrée sont considérés comme une liste de publipostage unique et sont signalés comme tel dans le fichier Customer
Service Log (CSL).
Restriction
La fonctionnalité Regrouper les statistiques par source de données n'est pas prise en charge lorsque l'option
Activer uniquement l'analyse
ou
Activer uniquement Geo
dans le groupe des options non certifiées est activée sur Oui.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
605
Informations associées
Regroupement de statistiques par liste [page 607]
17.6.12.1 Champ ID_Source_Données
Le logiciel effectue le suivi des statistiques pour chaque liste en fonction du champ d'entrée ID_Source_Données.
Exemple
Dans cet exemple, cinq listes de publipostage sont combinées en une liste comme entrée dans la transformation USA Regulatory Address Cleanse. Chaque liste a un champ commun nommé ID_Liste et un identifiant unique dans le champ ID_Liste : N, S, E, W, C. Le mappage d'entrée est le suivant :
Table 284 :
Nom du champ d'entrée de la transformation Nom de la colonne du schéma d'entrée
ID_SOURCE_DONNÉES ID_LISTE
Type varchar(80)
Pour obtenir des statistiques DPV pour chaque ID_Liste, traitez le job puis ouvrez le rapport US Addressing.
La première section de résumé DPV du rapport US Addressing liste le Résumé cumulé, qui indique les totaux pour l'ensemble d'entrées complet. Les sections suivantes du résumé DPV listent les résumés par
Data_Source_ID. L'exemple du tableau ci-dessous indique les comptages et les pourcentages de l'ensemble de la base de données (résumé cumulatif) et pour Data_Source_ID «N».
Table 285 :
Statistique %
Adresses validées DPV
Adresses DPV non valides
Adresses validées CMRA
Adresses vacantes DPV
Adresses NoStats DPV
Comptage de résumé cu mulé DPV
1 968
3 032
3
109
162
% Résumé DPV pour
ID_Source_Données «N»
3,94 214
6,06
0,01
0,22
0,32
286
0
10
17
4,28
5,72
0,00
0,20
0,34
Informations associées
Grouper les rapports de statistiques [page 609]
606
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.12.2 Regroupement de statistiques par liste
Avant de configurer la transformation USA Regulatory Address Cleanse, pour regrouper des statistiques par liste, déterminez le champ qui identifie uniquement chaque liste. Par exemple, une liste de diffusion constituée de plusieurs sources doit contenir des listes avec un champ nommé LIST_ID qui identifie de manière unique chaque liste.
1. Ouvrez la transformation USA Regulatory Address Cleanse dans le flux de données puis cliquez sur l'onglet
Options
.
2. Développez le groupe Rapport et Analyse et sélectionnez Oui pour les options
Générer les données du rapport
et
Regrouper les statistiques par source de données
.
3. Cliquez sur l'onglet
Entrée
puis sur le champ
Nom de la colonne du schéma d'entrée
en regard du champ
Data_Source_ID pour identifier une liste de manière unique.
Un menu déroulant s'affiche.
4. Cliquez sur ce menu déroulant et sélectionnez le champ d'entrée à partir de la base de données que vous avez sélectionnée comme champ commun pour identifier une liste de manière unique. Dans le scénario ci-dessus, ce serait le champ LIST_ID.
5. Poursuivez avec les tâches de configuration de job restantes et exécutez votre job.
17.6.12.3 Champ source physique et Résumé cumulé
Certains rapports incluent un rapport par liste en fonction du champ ID_Source_Données (identifié dans le pied de page du rapport par «Champ source physique») et un résumé de la liste entière (identifié dans le pied de page du rapport par «Résumé cumulé»). Cependant, les rapports Address Standardization, Address Information Code et
USA Regulatory Locking n'incluent pas un résumé cumulé. Les enregistrements de ces rapports sont triés par la valeur ID Data Source.
Remarque
Lorsque vous activez NCOALink, le logiciel indique un résumé par liste uniquement pour les sections suivantes du rapport COALink Processing Summary :
● NCOALink Move Type Summary
● NCOALink Return Code Summary
● ANKLink Return Code Summary
Cas particuliers
Dans certains cas, les termes «Résumé cumulé» et «Champ source physique» ne s'afficheront pas dans les sections de pied de page du rapport.
● Lorsque l'option
Regrouper les statistiques par source de données
est définie sur Non.
● Lorsque l'option
Regrouper les statistiques par source de données
est définie sur Oui et qu'une seule valeur d'ID de source de données figure dans la liste mais qu'elle est nulle.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
607
17.6.12.3.1 Formulaire 3553 USPS et reporting de groupe
Le formulaire 3553 USPS comprend un résumé de la liste entière et un rapport par liste basé sur le champ
ID_Source_Données.
Exemple
Cumulative Summary
Le formulaire 3553 USPS désigne le résumé de la liste entière par les mots «Cumulative Summary». Ils figurent dans le pied de page comme le montre le surlignage dans le modèle de rapport Cumulative Summary cidessous. En outre, le Cumulative Summary du formulaire 3553 USPS contient le nombre total de listes du job dans la section B, champ numéro 5,
Nombre de listes
(surligné ci-dessous).
Exemple
Physical Source Field
Le formulaire 3553 USPS désigne le résumé de chaque liste par les mots
Physical Source Field
suivis de la valeur de l'ID de la source de données. Ils figurent dans le pied de page comme le montre le surlignage dans le modèle ci-dessous. Les données du rapport concernent uniquement cette liste.
608
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
17.6.12.3.2 Grouper les rapports de statistiques
Les rapports indiquant deux statistiques cumulées (résumés pour la liste de diffusion entière) et regroupant des statistiques (en fonction du champ source physique) incluent les rapports suivants :
● Résumé de validation d'adresse
● Résumé de type d'adresse
● US Addressing
Les rapports n'incluant aucun résumé cumulé comprennent les éléments suivants :
● Résumé du code d'information de l'adresse
● Normalisation de l'adresse
● US Regulatory Locking
Informations associées
Champ ID_Source_Données [page 606]
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
609
17.7 Tables de référentiel pour les statistiques de qualité de données
Il est possible de générer des statistiques de qualité de données pour les transformations Data Cleanse,
Geocoder, et Global Address Cleanse.
Lorsque vous activez les définitions des statistiques de qualité de données dans la transformation et exécutez votre job, le logiciel envoie les statistiques aux tables dans le référentiel. En fonction de la table que vous choisissez de générer, les statistiques contiennent des informations résumées et non résumées concernant les processus de nettoyage et d'affectation.
Deux raisons principales dans la génération et l'utilisation de statistiques de qualité de données :
● Afficher les résultats agrégés et les informations résumées concernant la qualité de vos données.
● Explorer des enregistrements spécifiques que le logiciel a identifié comme de mauvaise qualité.
Activez les tables de statistiques de qualité de données dans la transformation applicable en effectuant les paramétrages dans le groupe
Paramètres des statistiques Data Quality
sous
Rapport et analyse
.
Informations associées
A propos du nettoyage de données [page 368]
Nettoyage des données d'adresses globales [page 514]
17.8 Prise en charge de Data Quality pour les types de données natives
En général, les transformations Data Quality traitent les types de données entrantes en tant que données de caractères. Ainsi, si un type de données non-caractères est mappé en tant qu'entrée, le progiciel convertit les données en chaîne de caractères avant de les transmettre par l'intermédiaire des transformations Data Quality.
Certains types de données Data Quality sont reconnus et traités en tant que types de données similaires à des entrées. Par exemple, si un champ de type de données est mappé vers un champ d'entrée de type de données
Data Quality, le logiciel présente les avantages suivants :
● Tri : la transformation reconnaît et trie les données entrantes comme le type de données spécifié.
● Efficacité : la quantité de données converties en données caractères est réduite, optimisant le traitement.
17.8.1 Définitions du type de données Qualité des données
Les transformations Data Quality disposent de quatre attributs pour définir le champ :
610
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Qualité des données
● Nom
● Type
● Longueur
● Echelle
Ces attributs sont listés dans les onglets Entrée et Sortie de l'éditeur de transformation.
Dans l'onglet Entrée, l'attribut Nom est listé dans la colonne
Nom du champ d'entrée de la transformation
. Les attributs Type, Longueur et Echelle sont listés dans la colonne
Type
au format <type>(<longueur>, <échelle>).
L'onglet Sortie contient également les quatre attributs de champ listés ci-dessus. L'attribut Nom est listé dans la colonne
Nom_Champ
. Les attributs Type, Longueur et Echelle sont listés dans la colonne
Type
au format
<type>(<longueur>, <échelle>).
17.9 Data Quality support pour valeurs nulles
Les transformations Data Quality traitent des valeurs nulles comme telles.
Une zone de VALEUR NULLE est transférée au traitement avec le marqueur VALEUR NULLE conservé sauf si des données sont définies pour renseigner la zone à la sortie. Lorsque des données sont définies, la zone est renseignée avec ces dernières au lieu de la VALEUR NULLE. L'avantage de ce processus est que les transformations Data Quality traitent un marqueur VALEUR NULLE comme étant inconnu au lieu de vide.
Remarque
Si toutes les zones d'un enregistrement contiennent la VALEUR NULLE, la transformation ne traitera pas l'enregistrement et ce dernier ne fera pas partie des statistiques et des rapports.
Guide de Designer
Qualité des données
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
611
18 Conception et débogage
Cette section traite des fonctionnalités suivantes de Designer pouvant être utilisées pour concevoir et déboguer les jobs :
● Utilisez la fonctionnalité Afficher les cas d'emploi pour déterminer l'impact de la modification d'un objet de métadonnées (par exemple, sur une table). Voyez quels flux de données utilisent le même objet.
● Utilisez la fonctionnalité Afficher les données pour visualiser des échantillons de données source, de transformation et cible dans un flux de données après exécution d'un job.
● Utilisez la fonctionnalité Affichage des données lors de la conception pour visualiser et analyser l'entrée et la sortie d'un jeu de données en temps réel lors de la conception d'une transformation.
● Utilisez le Débogueur interactif pour définir des points de contrôle et des filtres entre les transformations dans un flux de données et afficher les données de job ligne par ligne durant l'exécution d'un job.
● Utilisez l'Affichage des différences pour comparer les métadonnées d'objets similaires et leurs propriétés.
● Utilisez la fonctionnalité Audit du flux de données pour vérifier que les bonnes données sont traitées par un objet source, de transformation ou cible.
Informations associées
Utilisation de Afficher les cas d'emploi [page 612]
Utilisation de l'affichage des données [page 617]
Utilisation de l'affichage des données lors de la conception [page 628]
Utilisation du débogueur interactif [page 630]
Comparaison d'objets [page 644]
Utilisation de l'Audit [page 355]
18.1 Utilisation de Afficher les cas d'emploi
Lorsque vous enregistrez un job, un workflow ou un flux de données, le logiciel enregistre une liste des objets liés dans votre référentiel.
Le logiciel préserve les données de la relation parent-enfant. Vous pouvez consulter les relations à l'aide du menu
Outils
(
Outils Afficher utilisation
). Il est également possible d'accéder aux informations en cliquant sur l'icône
Afficher utilisation
dans la barre d'outils.
Par exemple, lorsque le flux de données parent suivant est enregistré, le logiciel enregistre également les connexions entre celui-ci et ses trois enfants :
● une table source
● une transformation Query
612
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
● un fichier cible
Vous pouvez utiliser ces données de relation parent/enfant pour déterminer par exemple l'impact d'une modification éventuelle sur les autres flux de données qui utilisent la même objet.
Par exemple, lors de la gestion d'un flux de données, vous pouvez avoir besoin de supprimer une définition de table source et de réimporter la table (ou de modifier son schéma). Avant de le faire, recherchez tous les flux de données utilisant la même table et mettez-les à jour si nécessaire.
Designer compte l'utilisation d'un objet comme le nombre de fois qu'il est utilisé dans un but unique.
Par exemple, dans un flux de données intitulé DF1, si la table DEPT est utilisée deux fois comme source et une fois comme cible, le nombre dans la colonne
Utilisation
de la bibliothèque d'objets est 2. Ce cas doit être rare. Par exemple, une table n'est pas souvent jointe à elle-même dans la conception d'un job.
Informations associées
18.1.1 Accès à Afficher utilisation depuis la bibliothèque d'objets
Le Designer de la bibliothèque d'objets contient une colonne
Utilisation
qui affiche le nombre de relations parentenfant dans un objet.
Affichage des relations parent-enfant pour les types d'objets suivants :
● Jobs
● Workflows
● Flux de données
● Transformations (Data Quality, Traitement des données de texte et ABAP dans le dossier plateforme)
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
613
● Banques de données
● Format
Lorsque la valeur d'utilisation est supérieure à zéro, vous pouvez afficher des informations de relations.
1. Cliquez avec le bouton droit sur le nom d'objet dans la bibliothèque d'objets et sélectionnez
Afficher utilisation
dans le menu déroulant.
La boîte de dialogue
Sortie
s'ouvre dans la partie inférieure de l'espace de travail.
○ L'onglet
Informations
contient des lignes pour chaque parent de l'objet sélectionné.
○ Les colonnes affichent le type d'objet et son nom.
○ La colonne
En tant
indique comment l'objet sélectionné est utilisé par le parent.
2. Double-cliquez sur un objet parent pour l'afficher dans l'espace de travail.
L'espace de travail affiche le diagramme d'objet avec l'objet enfant mis en surbrillance.
Une fois qu'un parent est ouvert dans l'espace de travail, vous pouvez double-cliquer à nouveau sur une ligne de la fenêtre Sortie afin d'afficher les informations d'utilisation pour un autre objet.
Table 286 :
Objet L'espace de travail affiche
Parent
Enfant
Diagramme de l'objet parent
S'il s'agit d'un objet enfant du même parent, l'objet mis en surbrillance passe à l'enfant dans le diagramme.
Conseil
C'est une option importante, parce qu'un objet enfant de la boîte de dialogue
Sortie
peut ne pas correspondre au nom utilisé dans son parent. Vous pouvez personnaliser les noms d'objets de l'espace de travail pour les sources et les cibles. Le progiciel enregistre le nom utilisé dans chaque parent et le nom utilisé dans la bibliothèque d'objets. L'onglet Informations de la fenêtre
Sortie
affi che le nom utilisé dans la bibliothèque d'objets. Les noms des objets utilisés dans les parents sont visibles uniquement en ouvrant le parent dans l'espace de tra vail.
3. Sélectionnez un objet sur une autre ligne dans la boîte de dialogue
Sortie
. L'espace de travail se modifie afin d'afficher le diagramme de l'objet sélectionné.
Informations associées
À propos de la boîte de dialogue Sortie [page 615]
Accès à Afficher utilisation depuis la fenêtre Variables et paramètres [page 293]
614
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
18.1.1.1 À propos de la boîte de dialogue Sortie
Lorsque vous décidez d'apporter des modifications à un objet spécifique, les informations contenues dans la boîte de dialogue
Sortie
d'
Afficher utilisation
peuvent être particulièrement utiles.
Cliquez avec le bouton droit sur un nom d'objet ayant un chiffre supérieur à zéro (0) dans la colonne
Utilisation
de la bibliothèque d'objets du Designer afin d'ouvrir la boîte de dialogue
Sortie
.
L'onglet
Informations
de la boîte de dialogue
Sortie
affiche les informations d'utilisation. Il contient une ligne pour chaque parent de l'objet sélectionné. La boîte de dialogue affiche le type et le nom de l'objet sélectionné dans l'entête de la première colonne. La colonne
En tant que
fournit davantage de contexte sur la façon dont l'objet sélectionné est utilisé par le parent, le cas échéant. Par exemple, les fichiers XML et messages, tables, fichiers plats, etc., peuvent avoir une valeur de «Source» ou «Cible» dans la colonne
En tant que
, ce qui signifie que l'objet est utilisé en tant que source ou cible.
Les tables suivantes affichent d'autres valeurs possibles dans la colonne
En tant que
.
Table 287 :Fichiers plats et tables uniquement
En tant que Description
Lookup()
Lookup_ext()
Lookup_seq()
Table/fichier de recherche utilisé dans une fonction lookup
Table/fichier de recherche utilisé dans une fonction lookup_ext
Table/fichier de recherche utilisé dans une fonction lookup_seq
Table 288 :Tables uniquement
En tant que
Comparaison
Génération de clé
Description
Table utilisée dans la transformation Table Comparison
Table utilisée dans la transformation Key Generation
18.1.2 Accès à Afficher les cas d'emploi depuis l'espace de travail
Depuis le diagramme ouvert d'un objet de l'espace de travail (un flux de données par exemple), vous pouvez voir si un objet parent ou enfant est utilisé.
Table 289 :
La fenêtre Sortie répertorie la façon d'accéder à Afficher utilisation
Jobs utilisant un flux de données spécifique Ouvrez un flux de données dans l'espace de travail. Sélection nez
Afficher Utilisation
de la barre de menus ou sélec tionnez le bouton
Afficher utilisation
dans la barre d'outils.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
615
La fenêtre Sortie répertorie
Liste d'objets parents utilisant un objet sélectionné dans un flux de données.
la façon d'accéder à Afficher utilisation
Ouvrez un flux de données dans l'espace de travail et sélec tionnez l'objet de flux de données applicable. Sélectionnez
Afficher Utilisation
de la barre de menus ou sélection nez le bouton
Afficher utilisation
dans la barre d'outils.
Informations associées
Accès à Afficher utilisation depuis la fenêtre Variables et paramètres [page 293]
18.1.3 Limitations
Points importants à savoir lors de l'utilisation d'
Afficher utilisation
.
● Le logiciel ne prend pas en charge
Afficher utilisation
dans les référentiels centraux.
● L'onglet
Informations
de la fenêtre
Sortie
affiche uniquement les paires parents/enfants.
Exemple
Par exemple, pour une table, un flux de données est le parent. Si la table est également utilisée par un grand-parent (un workflow, par exemple), le workflow n'est pas répertorié dans l'affichage de la fenêtre
Sortie
pour une table. Pour voir la relation entre un flux de données et un workflow, ouvrez le workflow dans l'espace de travail, puis cliquez avec le bouton droit sur un flux de données et sélectionnez l'option
Afficher utilisation
.
● Le progiciel n'enregistre pas les relations parent/enfant entre les fonctions. Exemple :
○
Exemple
Si la fonction A appelle la fonction B et que la fonction A n'est dans aucun flux de données ou script, la zone
Utilisation
de la bibliothèque d'objets affichera zéro pour les deux fonctions. Le fait que la fonction
B soit utilisée une fois dans la fonction A n'est pas pris en compte.
○
Exemple
Si la fonction A est enregistrée dans un flux de données, la colonne
Utilisation
de la bibliothèque d'objets affiche 1 pour les deux fonctions.
616
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
18.2 Utilisation de l'affichage des données
L'affichage des données fournit un moyen d'analyser et capturer un échantillon des donnés produites par chaque
étape d'un job, même si son exécution échoue. Affichez les données source importées, les données modifiées des transformations et les données finales des cibles. Après l'importation d'une source de données, vous pouvez contrôler à tout moment le statut de ces données, avant et après traitement des flux de données.
Utilisez l'affichage des données pour contrôler les données lors des jobs de conception et de test afin de vous assurer que votre conception renvoie les résultats attendus. A l'aide d'un ou plusieurs volets d'affichage des données, vous pouvez afficher et comparer les échantillons de données de différentes étapes. Les informations d'affichage des données sont affichées dans des panneaux intégrés pour faciliter la navigation entre les flux et les données.
Utilisez l'affichage des données pour examiner :
● Les sources et les cibles
L'affichage des données permet de voir les données avant d'exécuter un job. Fort des détails des données, vous pouvez concevoir des jobs de qualité supérieure. Vous pouvez parcourir et analyser les données des tables et fichiers de la bibliothèque d'objets et aussi voir les données de ces mêmes objets dans des jobs existants. Après exécution du job, vous pouvez à nouveau vous reporter aux données source.
● Les transformations
● Les lignes d'un diagramme
Remarque
● L'affichage des données affiche les données BLOB comme <blob>.
● L'affichage des données n'est pas pris en charge pour les IDocs de SAP. Pour SAP et PeopleSoft, les options de l'onglet Profil de table et Profil de colonne ne sont pas prises en charge pour les hiérarchies.
Informations associées
Affichage des données passées par les transformations [page 643]
Utilisation du débogueur interactif [page 630]
18.2.1 Accès à l'affichage des données
18.2.1.1 Affichage des données des sources et cibles
Vous pouvez afficher les données des sources et cibles depuis deux emplacements différents :
1.
Le bouton Afficher les données
Le bouton Afficher les données apparaît sur les objets source et cible lorsque vous les faites glisser dans l'espace de travail. Cliquez sur le bouton Afficher les données (icône loupe) pour ouvrir un volet d'affichage des données pour cet objet source ou cible.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
617
2.
La bibliothèque d'objets
Affichez les données des objets source ou cible potentiels des onglets Banques de données ou Formats.
Ouvrez un volet d'affichage des données depuis la bibliothèque d'objets à l'aide d'une des méthodes suivantes :
○ Cliquez avec le bouton droit sur un objet de table et sélectionnez
Afficher les données
.
○ Cliquez avec le bouton droit sur une table et sélectionnez
Ouvrir
ou
Propriétés
.
La fenêtre Métadonnées de table, Editeur de format XML ou Propriétés s'ouvre. Vous pouvez sélectionner l'onglet Afficher les données depuis l'une de ces fenêtres.
Pour afficher les données d'un fichier, celui-ci doit exister physiquement et être disponible depuis le système d'exploitation de votre ordinateur. Pour afficher les données d'une table, elle doit provenir d'une base de données prise en charge.
Informations associées
Affichage des données dans l'espace de travail [page 618]
18.2.2 Affichage des données dans l'espace de travail
L'affichage des données est accessible dans l'espace de travail quand les boutons loupe apparaissent sur les objets qualifiés d'un flux de données. Cela signifie :
Pour les sources et cibles, les fichiers doivent exister physiquement et être accessibles depuis Designer, les tables doivent provenir d'une base de données prise en charge.
Pour ouvrir un volet d'affichage des données dans l'espace de travail de Designer, cliquez sur le bouton loupe d'un objet de flux de données.
Un grand volet d'affichage des données s'ouvre sous la zone de l'espace de travail. Cliquez sur le bouton loupe d'un autre objet et un autre volet s'affiche en-dessous de la zone d'espace de travail (notez que la première zone de volet se réduit, afin de permettre l'affichage du second volet).
618
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Vous pouvez ouvrir deux volets d'affichage des données pour un affichage simultané. Lorsque les deux volets sont remplis et que vous cliquez sur un autre bouton d'affichage des données, un petit menu s'affiche, il contient les icônes de placement des fenêtres. La zone noire de chaque icône indique le volet que vous désirez remplacer par un nouveau jeu de données. Cliquez sur une option du menu et les données du dernier objet sélectionné remplacent celles du volet correspondant.
La description ou le chemin correspondant au bouton d'affichage des données sélectionné s'affiche en haut du volet.
● Pour les sources et les cibles, la description est le nom complet de l'objet :
○
<NomObjet>
(
<BanqueDeDonnées.Propriétaire>
) pour les tables ;
○
<NomFichier>
(
<NomFormatFichier>
) pour les fichiers.
● Pour les boutons d'affichage des données placés sur une ligne, le chemin comprend le nom de l'objet de gauche, une flèche et le nom de l'objet de droite.
Par exemple, si vous sélectionnez un bouton d'affichage des données placé sur la ligne entre la requête nommée Query et la cible nommée ALVW_JOBINFO(joes.DI_REPO), le chemin sera le suivant :
Query -> ALVW_JOBINFO(Joes.DI_REPO)
Vous pouvez aussi rechercher le volet d'affichage des données associé à un objet ou une ligne en :
● Faisant passer le curseur sur un bouton d'affichage des données d'un objet ou d'une ligne. Designer met en surbrillance le volet d'affichage des données de l'objet.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
619
● Recherchant les boutons d'affichage des données gris sur les objets et les lignes. Designer affiche les boutons d'affichage des données des objets ouverts avec un arrière-plan gris plutôt que blanc.
Informations associées
Affichage des données passées par les transformations [page 643]
18.2.3 Propriétés de l'affichage des données
Vous pouvez accéder aux propriétés de l'affichage des données à l'aide des boutons de la barre d'outils ou du menu contextuel (par clic droit).
L'affichage des données se fait dans les lignes et les colonnes d'une grille de données. Le nombre de lignes affichées est déterminé par une combinaison de plusieurs conditions :
● Taille d'échantillon : nombre de lignes échantillonnées dans la mémoire. La taille d'échantillon par défaut est de 1 000 lignes pour les objets source et cible importés. La taille d'échantillon maximale est de 5 000 lignes.
La taille d'échantillon pour les objets source est définie depuis
Outils Options Designer Général
Taille d'échantillon de l'affichage des données
.
Lorsqu'il utilise le débogueur interactif, le progiciel emploie l'option Fréquence d'échantillonnage des données au lieu de la taille d'échantillon.
● Filtrage
● Tri
Si le jeu de données d'origine est plus petit ou si vous utilisez des filtres, le nombre de lignes retournées peut être inférieur à la valeur par défaut.
Vous pouvez voir quelles conditions ont été appliquées dans la
barre de navigation
.
Informations associées
Démarrage et arrêt du débogueur interactif [page 634]
18.2.3.1 Filtrage
Vous pouvez mettre l'accent sur différents ensembles de lignes d'un échantillon de données local ou nouveau en plaçant des conditions d'extraction sur les colonnes.
620
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
18.2.3.1.1 Afficher et ajouter des filtres
1. Dans la barre d'outils de l'affichage des données, cliquez sur le bouton Filtres ou cliquez avec le bouton droit sur la grille et sélectionnez
Filtres
.
La fenêtre Filtres s'ouvre.
2. Création de filtres
La fenêtre Filtres comporte trois colonnes : a. Colonne : sélectionnez un nom dans la première colonne. Sélectionnez
{supprimer le filtre}
pour supprimer le filtre.
b. Opérateur : sélectionnez un opérateur dans la deuxième colonne.
c. Valeur : saisissez dans la troisième colonne une valeur qui utilise un des trois formats de type de données suivants.
Table 290 :
Type de données Format
Entier, double, réel date time standard aaaa.mm.jj
hh24:mm:ss datetime varchar aaaa.mm.jj hh24:mm.ss
'abc'
3. Dans la zone de liste déroulante
Concaténer tous les filtres à l'aide de
, sélectionnez un opérateur (
ET
,
OU
) pour que le moteur l'utilise dans la concaténation des filtres.
Chaque ligne de cette fenêtre est considérée comme un filtre.
4. Pour voir de quelle manière le filtre affecte l'ensemble actuel de lignes renvoyées, cliquez sur
Appliquer
.
5. Pour enregistrer les filtres et fermer la fenêtre Filtres, cliquez sur
OK
.
Vos filtres sont enregistrés pour l'objet en cours et l'échantillon local est mis à jour pour afficher les données filtrées comme indiqué dans la boîte de dialogue Filtres. Pour utiliser les filtres avec un nouvel échantillon, voir
Utilisation de l'actualisation.
Informations associées
Utilisation de l'actualisation [page 622]
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
621
18.2.3.1.2 Ajouter un filtre à la cellule sélectionnée.
1. Sélectionnez une cellule dans la grille de l'échantillon de données.
2. dans la barre d'outils de l'affichage des données, cliquez sur le bouton Ajouter un filtre ou cliquez sur la cellule avec le bouton droit et sélectionnez
Ajouter un filtre
.
L'option Ajouter un filtre ajoute la nouvelle condition de filtrage, <colonne> = <valeur de la cellule>, puis ouvre la fenêtre Filtres pour que vous puissiez afficher ou modifier le nouveau filtre.
3. Quand vous avez terminé, cliquez sur
OK
.
Pour supprimer les filtres d'un objet, accédez à la barre d'outils d'affichage des données et cliquez sur le bouton
Supprimer les filtres ou cliquez sur la grille avec le bouton droit et sélectionnez
Supprimer les filtres
. Tous les filtres sont supprimés de l'objet en cours.
18.2.3.2 Tri
Vous pouvez cliquer sur un ou plusieurs en-têtes de colonne de la grille de données pour trier les données. Une flèche apparaît sur l'en-tête pour indiquer l'ordre de tri : croissant (flèche vers le haut) ou décroissant (flèche vers le bas).
Pour modifier l'ordre de tri, cliquez à nouveau sur l'en-tête de colonne. La priorité d'un tri se fait de gauche à droite dans la grille.
Pour supprimer le tri d'un objet, dans la barre d'outils, cliquez sur le bouton Supprimer le tri ou cliquez sur la grille avec le bouton droit et sélectionnez
Supprimer le tri
.
Informations associées
Utilisation de l'actualisation [page 622]
18.2.3.3 Utilisation de l'actualisation
Pour charger un autre échantillon de données de la base de données à l'aide de nouveaux paramètres de filtre et de tri, utilisez la commande
Actualiser
. Après avoir modifié le filtrage et le tri, cliquez sur le bouton Actualiser de la barre d'outils ou cliquez sur la grille de données avec le bouton droit et sélectionnez
Actualiser
.
622
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Pour interrompre une opération d'actualisation, cliquez sur le bouton Arrêter. Pendant que le progiciel actualise les données, toutes les commandes d'affichage des données sont désactivées, sauf le bouton
Arrêter
.
18.2.3.4 Utilisation de l'option Afficher/masquer les colonnes
Vous pouvez restreindre le nombre de colonnes affichées dans l'affichage des données en utilisant l'option
Afficher/masquer les colonnes
depuis :
● La barre d'outils.
● Le menu contextuel (clic droit).
● Le menu contextuel fléché, situé à droite du bouton
Afficher/masquer les colonnes
de la barre d'outils. Cette option est disponible uniquement si le nombre total de colonnes de la table est au maximum de dix.
Sélectionnez une colonne pour l'afficher.
Vous pouvez également "masquer rapidement" une colonne en cliquant avec le bouton droit sur son en-tête et en sélectionnant
Masquer
dans le menu.
18.2.3.4.1 Afficher ou masquer les colonnes
1.
Cliquez sur le bouton Afficher/masquer les colonnes de la barre d'outils ou cliquez avec le bouton droit sur la grille de données et sélectionnez
Afficher/masquer les colonnes
.
La fenêtre Paramètres de colonne s'ouvre.
2. Sélectionnez les colonnes à afficher ou cliquez sur l'un des boutons suivants :
Afficher
,
Afficher tout
,
Masquer
ou
Masquer tout
.
3. Cliquez sur
OK
.
18.2.3.5 Ouverture d'une nouvelle fenêtre.
Pour voir davantage de l'échantillon de données que vous visualisez dans un volet d'affichage des données, ouvrez une fenêtre d'affichage des données de taille normale. Depuis un volet d'affichage des données, cliquez sur le bouton Ouvrir une fenêtre de la barre d'outils pour activer une fenêtre distincte d'affichage des données de taille normale. Autrement, vous pouvez cliquer avec le bouton droit et sélectionner dans le menu la commande
Ouvrir dans une nouvelle fenêtre
.
18.2.4 Options de la barre d'outils d'affichage des données
Les options suivantes sont disponibles sur les volets d'affichage des données
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
623
Table 291 :
Icône
Option
Ouvrir dans une nouvelle fenêtre
Enregistrer sous
Description
Ouvre le volet d'affichage des données dans une fenêtre plus grande.
Enregistre les données du volet d'affichage des données.
Imprimer
Copier la cellule
Imprime les données du volet d'affichage des données.
Copie les données d'une cellule du volet d'affichage des données.
Actualiser les données
Ouvrir la fenêtre Filtres
Ajouter un filtre
Supprimer le filtre
Supprimer le tri
Afficher/masquer la navigation
Extrait un autre échantillon des données existantes dans le volet d'affichage des données à l'aide de nouveaux paramètres de filtre et de tri.
Ouvre la fenêtre Filtres.
Ajoute un filtre à la cellule sélectionnée.
Supprime tous les filtres d'un volet d'affichage des données.
Supprime les paramètres de tri de l'objet sélectionné.
Affiche ou masque la barre de navigation qui s'affiche sous la table de données.
Afficher/masquer les colonnes
Informations associées
Ouverture d'une nouvelle fenêtre. [page 623]
Utilisation de l'actualisation [page 622]
Ajouter un filtre à la cellule sélectionnée. [page 622]
Utilisation de l'option Afficher/masquer les colonnes [page 623]
18.2.5 Onglets d'affichage des données
Le panneau d'affichage des données des objets comporte trois onglets :
● Onglet Données
624
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
● Onglet Profil
● Onglet Profil de colonne
Utilisez les options des onglets pour obtenir un profil complet d'un objet source ou cible. L'onglet Données est toujours disponible. Les onglets Profil et Relation sont pris en charge par le profileur de données. Sans le profileur de données, les onglets Profil et Profil de colonne sont pris en charge pour certaines sources ou cibles.
Informations associées
Affichage des résultats du profileur [page 344]
18.2.5.1 Onglet Données
L'onglet Données permet d'utiliser les propriétés d'
affichage des données
. Il indique également les schémas imbriqués tels que ceux utilisés dans les fichiers et messages XML. Lorsqu'une colonne fait référence à des schémas imbriqués, elle est ombrée en jaune et une petite icône de table s'affiche dans l'en-tête de colonne.
Informations associées
Propriétés de l'affichage des données [page 620]
18.2.5.1.1 Affichage d'un schéma imbriqué
1. Double-cliquez sur une cellule.
La grille de données se met à jour afin d'afficher les données dans la cellule sélectionnée ou la table imbriquée.
Dans la zone Schéma, la valeur de la cellule sélectionnée est marquée d'une icône spéciale. En outre, les tables et colonnes du chemin sélectionné sont affichées en bleu alors que les références du schéma imbriqué sont affichées en gris.
Dans la zone Données, les données sont affichées pour les colonnes. Les références du schéma imbriqué sont affichées entre chevrons, par exemple
<NomSociété>
.
2. Continuez à utiliser le côté grille de données du panneau pour naviguer. Exemple :
○ Sélectionnez une colonne imbriquée de niveau inférieur et double-cliquez sur une cellule pour mettre à jour la grille de données.
○ Cliquez sur la flèche en haut de la grille de données pour monter dans la hiérarchie.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
625
○ Voyez le chemin complet vers la colonne ou la table sélectionnée qui est affiché à droite du bouton
Explorer en arrière. Utilisez le chemin et la grille de données pour naviguer dans les schémas imbriqués.
18.2.5.2 Onglet Profil
Si vous utilisez le profileur de données, l'onglet Profil affiche les attributs de profil que vous avez sélectionnés dans l'option
Soumettre la demande de profil de colonne
.
L'onglet Profil permet de calculer les informations statistiques de tout ensemble de colonnes sélectionné. Cette fonctionnalité facultative n'est pas disponible pour les colonnes avec schémas imbriqués ou pour le type de données LONG.
Informations associées
Exécution d'une tâche du profileur [page 338]
18.2.5.2.1 Utilisation de l'onglet Profil sans le profileur de données
1. Sélectionnez une ou plusieurs colonnes.
Comme les calculs de mise à jour ont un impact sur les performances, sélectionnez uniquement les noms des colonnes dont vous avez besoin pour cette opération de profilage.
Vous pouvez également cliquer avec le bouton droit pour utiliser les options du menu Sélectionner tout ou
Désélectionner tout.
2. Cliquez sur
Mettre à jour
.
3. Les statistiques s'affichent dans la grille Profil.
La grille comporte six colonnes.
Table 292 :
Colonne
Colonne
Valeurs distinctes
Valeurs NULL
Min.
Max.
Description
Noms des colonnes de la table actuelle. Sélectionnez les noms dans cette colonne, puis cliquez sur
Mettre à jour
pour remplir la grille de profil.
Nombre total de valeurs distinctes dans cette colonne.
Nombre total de valeurs NULL dans cette colonne.
Valeur minimale de toutes les valeurs de cette colonne.
Valeur maximale de toutes les valeurs de cette colonne.
626
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Colonne
Dernière mise à jour
Description
Heure à laquelle cette statistique a été calculée.
Triez les valeurs de cette grille en cliquant sur les en-têtes des colonnes. Notez que les colonnes Min. et Max. ne peuvent pas être triées.
Outre la mise à jour des statistiques, vous pouvez cliquer sur le bouton
Enregistrements
de l'onglet Profil pour compter le nombre total d'enregistrements physiques dans l'objet que vous profilez.
Le progiciel enregistre les valeurs calculées auparavant dans le référentiel et les affiche jusqu'à la prochaine mise
à jour.
18.2.5.3 Onglet Profil de colonne
L'onglet Profil de colonne permet de calculer des informations statistiques pour une seule colonne. Si vous utilisez le profileur de données, l'onglet Relation s'affiche à la place de Profil de colonne.
Remarque
Cette fonctionnalité facultative n'est pas disponible pour les colonnes avec schémas imbriqués ou pour le type de données LONG.
Informations associées
Affichage des données de profil de la relation générées par le profileur de données [page 348]
18.2.5.3.1 Calcul des statistiques d'utilisation d'une valeur pour une colonne
1. Saisissez un nombre dans la zone
Premières
.
Ce nombre est utilisé pour rechercher les valeurs les plus souvent utilisées dans la colonne. La valeur par défaut est 10, c'est-à-dire que le progiciel renvoie les 10 valeurs les plus souvent utilisées.
2. Sélectionnez un nom de colonne dans la zone de liste déroulante.
3. Cliquez sur
Mettre à jour
.
La grille Profil de colonne affiche les statistiques de la colonne indiquée. La grille comporte trois colonnes :
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
627
Table 293 :
Colonne
Valeur
Total
Pourcentage
Description
Une valeur première (plus souvent utilisée) trouvée dans la colonne indiquée ou
Autre
(valeurs restantes utilisées moins fréquemment).
Nombre total de lignes dans la colonne indiquée qui contient cette valeur.
Pourcentage de lignes dans la colonne indiquée comportant cette valeur par rapport au nom bre total de valeurs de la colonne.
Le logiciel renvoie un nombre de valeurs correspondant au maximum au nombre indiqué dans la zone
Premières
, plus une valeur supplémentaire appelée
Autre
.
Donc, si vous saisissez 4 dans la zone Premières, vous obtiendrez jusqu'à cinq valeurs renvoyées (les quatre valeurs les plus utilisées dans la colonne indiquée, plus la catégorie Autre). Les résultats sont enregistrés dans le référentiel et affichés jusqu'à l'exécution d'une nouvelle mise à jour.
Par exemple, les résultats statistiques de la table précédente indiquent que parmi les quatre valeurs les plus souvent utilisées dans la colonne NET_ORDR_VALUE, 9,52 % utilisent la valeur 12.40, 4,76 % utilisent la valeur 25.00, etc. Vous pouvez également voir que les quatre valeurs les plus souvent utilisées (les "quatre premières") le sont dans approximativement 24 % des cas, puisque seulement 76 % sont affichés dans la catégorie Autre. Pour cet exemple, le nombre total de lignes comptées pendant le calcul pour chacune des premières valeurs est de 21.
18.3 Utilisation de l'affichage des données lors de la conception
L'affichage des données lors de la conception permet d'afficher et d'analyser en temps réel l'entrée et la sortie pour un jeu de données lors de la conception d'une transformation. Le flux de données ne doit pas nécessairement être complet ni valide bien qu'il doive utiliser une source accessible et valide contenant les données.
L'affichage des données lors de la conception permet de visualiser les données lorsque vous concevez une transformation pour être sûr d'obtenir les résultats escomptés. L'affichage des données lors de la conception est disponible sous forme de volets d'entrée et de sortie dans l'éditeur de transformation ; vous pouvez ainsi comparer les données avant et après leur traitement via la transformation.
628
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Pour utiliser l'affichage des données lors de la conception pour les transformations Global Address Cleanse,
Geocoder et USA Regulatory Address Cleanse, vous devez avoir accès aux données de référence de Data Quality
(répertoires).
Informations associées
Affichage des données lors de la conception [page 629]
Configuration de l'affichage des données lors de la conception [page 629]
18.3.1 Affichage des données lors de la conception
1. Pour afficher les données d'entrée et de sortie des transformations dans l'éditeur de transformation, sélectionnez
Déboguer Afficher les données au moment de la conception
.
Les volets de données d'entrée et de sortie s'ouvrent dans l'éditeur de transformation. Chaque volet peut contenir plusieurs vues avec des onglets selon le nombre d'entrées et de sorties de la transformation sélectionnée. Bien que la plupart des transformations comportent une seule sortie, la transformation
Validation en comporte trois, par exemple.
2. Pour afficher les données relatives à une entrée ou sortie différente, cliquez sur l'onglet pertinent dans le volet
Afficher les données.
3. Pour afficher les données d'entrée et de sortie automatiquement après avoir modifié une transformation, sélectionnez
Déboguer Affichage automatique
.
4. Pour filtrer le nombre de lignes de données affichées dans les volets, sélectionnez
Déboguer Filtrer le jeu de données d'entrée
. La définition du filtre peut contribuer à améliorer les performances lorsque la fonction
Design-Time Data Viewer est paramétrée en vue d'une mise à jour automatique au moment de la conception de la transformation.
Par défaut, le filtre affiche les 50 premières lignes. Vous pouvez configurer le nombre de lignes affichées dans la fenêtre
Options
.
5. Pour fermer les volets Design-Time Data Viewer, cliquez sur x en haut à droite du volet.
Informations associées
Configuration de l'affichage des données lors de la conception [page 629]
18.3.2 Configuration de l'affichage des données lors de la conception
Vous pouvez configurer le nombre de lignes de données affichées dans les volets d'affichage des données lors de la conception ainsi que la durée autorisée pour les mises à jour avant l'expiration du délai.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
629
1. Pour configurer les options d'affichage des données lors de la conception, sélectionnez
Déboguer
Options
.
Une fenêtre s'affiche avec les options disponibles.
2. Modifiez les options voulues.
Table 294 :
Option
Nombre de lignes à lire depuis une source filtrée
Intervalle de temporisation pour le mode automatique
Intervalle de temporisation pour le mode manuel
Description
Indique le nombre de lignes lues depuis la source si le point de menu Filtrer le jeu de données d'entrée est sélectionné. Par défaut, le filtre lit les 50 premières li gnes de données depuis la source.
Indique la durée (en secondes) autorisée pour mettre à jour les données si le point de menu Affichage automatique est sélectionné avant l'expiration du délai et le renvoi d'une erreur.
Indique la durée (en secondes) autorisée pour mettre à jour les données si le point de menu Affichage automatique est désélectionné avant l'expiration du dé lai et le renvoi d'une erreur.
3. Pour fermer la fenêtre, cliquez sur
OK
.
18.3.3 Définition de variables pour les expressions
Vous pouvez définir des variables à utiliser dans les expressions de transformations. La valeur de la variable est utilisée dans les calculs de données lors de la conception. Vous pouvez également définir des valeurs pour les variables globales, uniquement utilisées dans le cadre des calculs lors de la conception.
1. Pour configurer les options d'affichage des données lors de la conception, sélectionnez
Déboguer
Options
.
Une fenêtre s'affiche avec les options disponibles.
2. Dans la section Variables, saisissez le nom, le type de données et la valeur de la variable.
3. Pour importer une variable globale, cliquez sur le bouton
Importer
. Toutes les variables globales de chaque job du référentiel alimentent la table.
4. Saisissez la valeur de chaque variable globale importée.
Les valeurs de variables définies dans les options d'affichage des données lors de la conception sont seulement utilisées pour les calculs de données lors de la conception.
5. Pour supprimer une variable de la table, sélectionnez-la et cliquez sur le bouton
Supprimer
.
6. Pour fermer la fenêtre, cliquez sur
OK
.
18.4 Utilisation du débogueur interactif
Designer comprend un débogueur interactif qui permet d'examiner et modifier les données ligne par ligne
(pendant l'exécution d'un job en mode débogage) en plaçant des filtres et des points d'arrêt sur les lignes d'un diagramme de flux de données. Le débogueur interactif fournit des options puissantes pour déboguer un job.
630
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Remarque
Une mise à niveau du référentiel est nécessaire pour utiliser cette fonctionnalité.
18.4.1 Avant de lancer le débogueur interactif
Comme pour l'exécution d'un job, vous pouvez lancer le débogueur interactif depuis le menu
Débogage
lorsqu'un job est actif dans l'espace de travail. Sélectionnez
Démarrer le débogage
, définissez les propriétés pour l'exécution, puis cliquez sur
OK
. Le mode de débogage commence. Le mode débogage propose les fenêtres, les menus et les boutons de barre d'outils du débogueur interactif que vous pouvez utiliser pour contrôler le rythme du job et afficher les données en mettant en pause l'exécution du job à l'aide de filtres et de points d'arrêt.
En mode débogage, toutes les autres fonctionnalités de Designer sont placées en lecture seule. Pour quitter le mode débogage et repasser les autres fonctionnalités de Designer en lecture/écriture, cliquez sur le bouton
Arrêter le débogage
dans la barre d'outils du débogueur interactif.
Toutes les commandes du débogueur interactif sont listées dans le menu Débogage de
Designer
. Designer active les commandes appropriées au fur et à mesure de l'avancement d'une session de débogage interactif.
Cependant, avant de lancer une session de débogage, définissez éventuellement les éléments suivants :
● Filtres et points d'arrêt
● Port du débogueur interactif entre Designer et un moteur.
18.4.1.1 Définition des filtres et points d'arrêt
Vous pouvez définir n'importe quelle combinaison de filtres et points d'arrêt dans un flux de données avant de lancer le débogueur interactif. Le débogueur utilise les filtres et fait une pause aux points d'arrêt définis.
Si vous ne configurez pas de filtres ou points d'arrêt prédéfinis :
● Designer optimisera l'exécution du job de débogage. Cela signifie souvent que la première transformation de chaque flux de données d'un job est poussée vers la base de données source. Par conséquent, vous ne pouvez pas afficher les données d'un job entre la source et la première transformation, sauf en plaçant un point d'arrêt prédéfini sur cette ligne.
● Vous pouvez mettre manuellement un job en pause en utilisant une option de débogage nommée
Suspendre le débogage
(le job est mis en pause avant qu'il ne rencontre la prochaine transformation).
Informations associées
Optimiseur de poussée vers le bas [page 643]
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
631
18.4.1.1.1 Définir un filtre ou un point d'arrêt
1. Dans l'espace de travail, ouvrez le job à déboguer.
2. Ouvrez un de ses flux de données.
3. Cliquez avec le bouton droit sur la ligne que vous voulez examiner et sélectionnez
Définir le filtre/point d'arrêt
.
Une ligne est une ligne entre deux objets d'un diagramme d'espace de travail.
La fenêtre Point d'arrêt s'ouvre. Sa barre de titre affiche les objets auxquels la ligne est connectée.
4. Définissez et activez un filtre ou un point d'arrêt à l'aide des options de cette fenêtre.
Un filtre de débogage fonctionne comme une simple transformation Query avec une clause WHERE. Utilisez un filtre pour réduire un jeu de données lors de l'exécution d'un job de débogage. Notez que les expressions complexes ne sont pas prises en charge dans un filtre de débogage.
Placez un filtre de débogage sur une ligne entre une source et une transformation ou entre deux transformations. Si vous placez un filtre et un point d'arrêt sur la même ligne, le progiciel applique d'abord le filtre. Le point d'arrêt peut voir uniquement les lignes filtrées.
Comme pour les filtres, vous pouvez placer un point d'arrêt entre une source et une transformation ou entre deux transformations. Un point d'arrêt est l'emplacement où l'exécution d'un job de débogage est mise en pause et vous rend le contrôle.
Choisissez d'utiliser un point d'arrêt avec ou sans conditions.
○ Si vous utilisez un point d'arrêt sans condition, l'exécution du job est suspendue pour la première ligne transmise à un point d'arrêt.
○ Si vous utilisez un point d'arrêt avec condition, l'exécution du job est suspendue pour la première ligne transmise au point d'arrêt respectant la condition.
Une condition de point d'arrêt s'applique à la post-image pour les types de ligne UPDATE, NORMAL et INSERT et à la pré-image pour un type de ligne DELETE.
Au lieu de sélectionner un point d'arrêt conditionnel ou non conditionnel, vous pouvez également utiliser l'option Arrêt après n lignes. Dans ce cas, l'exécution est suspendue lorsque le nombre de lignes indiqué passe par le point d'arrêt.
5. Cliquez sur
OK
.
L'icône Point d'arrêt activé s'affiche sur la ligne sélectionnée.
Le progiciel fournit les conditions suivantes de filtre et de point d'arrêt :
Table 295 :
Icône Description
Point d'arrêt désactivé
Point d'arrêt activé
Filtre désactivé
632
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Icône Description
Filtre activé
Filtre et point d'arrêt désactivés
Filtre et point d'arrêt activés
Filtre activé et point d'arrêt désactivé
Filtre désactivé et point d'arrêt activé
Outre les icônes de filtre et de point d'arrêt qui peuvent apparaître sur une ligne, le débogueur met une ligne en surbrillance lorsqu'il s'y met en pause. Une case rouge de localisation indique également l'emplacement actuel dans le flux de données. Par exemple, lorsque vous lancez le débogueur interactif, le job est suspendu au niveau de votre point d'arrêt. La case de localisation s'affiche au-dessus de l'icône du point d'arrêt, comme l'illustre le diagramme suivant :
Un bouton d'affichage des données s'affiche également au-dessus du point d'arrêt. Vous pouvez utiliser ce bouton pour ouvrir et fermer les volets d'affichage des données.
Au fur et à mesure de l'avancement du débogueur dans les calculs du flux de données, les lignes suivantes sont mises en surbrillance et la case de localisation s'affiche sur votre position actuelle.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
633
Informations associées
18.4.1.2 Modification du port du débogueur interactif
Designer utilise un port vers un moteur pour démarrer et arrêter le débogueur interactif. Le port du débogueur interactif est 5001 par défaut.
18.4.1.2.1 Modification du port du débogueur interactif
1. Sélectionnez
Outils Options Designer Environnement
.
2. Saisissez une valeur dans la zone
Débogueur interactif
.
3. Cliquez sur
OK
.
18.4.2 Démarrage et arrêt du débogueur interactif
Un job doit être actif dans l'espace de travail pour pouvoir démarrer le débogueur interactif. Vous pouvez sélectionner un job dans la bibliothèque d'objets ou dans la zone de projet pour l'activer dans l'espace de travail.
Quand un job est actif, Designer active l'option
Démarrer le débogage
dans le menu et la barre d'outils
Débogage
.
18.4.2.1 Démarrage du débogueur interactif
1. Dans la zone de projet, cliquez avec le bouton droit sur un job et sélectionnez
Démarrer le débogage
.
Autrement, vous pouvez cliquer sur un job dans la zone de projet, puis :
○ Appuyez sur
Ctrl
+
F8
.
○ Dans le menu
Déboguer
, cliquez sur
Démarrer le débogage
.
○ Cliquez sur le bouton
Démarrer le débogage
dans la barre d'outils.
Vous trouverez également davantage d'informations sur les options de Suivi et variable globale. La fenêtre
Propriétés de débogage s'ouvre. La fenêtre Propriétés de débogage comprend trois paramètres similaires à la fenêtre Propriétés d'exécution (utilisée lorsque vous désirez simplement exécuter un job).
634
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Les options propres à la fenêtre Propriétés de débogage sont :
○
Modèle de débit de données
- nombre de lignes mises en cache pour chaque ligne lorsqu'un job est exécuté à l'aide du débogueur interactif. Par exemple, dans le diagramme de flux de données suivant, si la table source comporte 1 000 lignes et que vous définissez le
Modèle de débit de données
sur 500,
Designer affiche jusqu'à 500 des dernières lignes qui passent par une ligne sélectionnée. Le débogueur affiche la dernière ligne traitée lorsqu'il atteint un point d'arrêt.
○
Quitter le débogueur lorsque le job est terminé
- cliquez pour arrêter le débogueur et revenir au mode normal après exécution du job. Option non sélectionnée par défaut.
2. Entrez les propriétés de débogage à utiliser ou employez celles par défaut.
3. Cliquez sur
OK
.
Le job sélectionné dans la zone de projet commence à s'exécuter en mode débogage. Designer :
○ Affiche les fenêtres du débogueur interactif.
○ Ajoute Débogage du job
<NomJob>
à sa barre de titre.
○ Activez le menu
Déboguer
approprié et les options de la barre d'outils. La fenêtre Propriétés de débogage s'ouvre.
○ Affiche l'icône de débogage dans la barre de statut.
○ Place l'interface utilisateur en lecture seule.
Remarque
Vous ne pouvez pas effectuer d'opérations qui affectent votre référentiel (comme supprimer des objets d'un flux de données) lors de l'exécution d'un job en mode débogage.
Quand le débogueur rencontre un point d'arrêt, il suspend l'exécution du job. Vous contrôlez alors l'exécution du job. Les fenêtres du débogueur interactif affichent des informations sur l'exécution du job jusqu'à ce point.
Elles se mettent également à jour lorsque vous poursuivez manuellement les étapes du job ou permettez au débogueur de continuer l'exécution.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
635
18.4.2.2 Arrêter un job en mode débogage et quitter le débogueur interactif
Cliquez sur le bouton
Arrêter le débogage
dans la barre d'outils, appuyez sur
Maj
+
F8
, ou bien dans le menu
Déboguer
, cliquez sur
Arrêter le débogage
.
18.4.3 Volets
Lorsque vous démarrez un job dans le débogueur interactif, Designer affiche trois volets supplémentaires ainsi que les volets d'affichage des données sous l'espace de travail. Le diagramme suivant illustre les emplacements par défaut de ces volets.
1. Volets d'affichage des données
2. Volet Pile d'appels
3. Volet Suivi
4. Volet Variables de débogage
636
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Chaque volet est ancré dans la fenêtre de Designer. Pour déplacer un volet du débogueur, double-cliquez sur sa barre de commande pour le libérer, puis cliquez et faites glisser sa barre de titre pour l'ancrer à nouveau.
Designer enregistre la mise en forme créée lorsque vous arrêtez le débogueur interactif. La mise en forme est conservée pour votre prochaine session de Designer.
Vous pouvez redimensionner ou masquer un volet du débogueur à l'aide de ses boutons de commande. Pour afficher ou masquer manuellement un volet du débogueur, utilisez le menu ou la barre d'outils
Débogage
.
Informations associées
Options et barre d'outils du menu Débogage [page 640]
18.4.3.1 Fenêtre Pile d'appels
La fenêtre Pile d'appels liste les objets rencontrés jusqu'à présent sur le chemin (avant la fin du job, la rencontre d'un point d'arrêt ou la mise en pause).
Par exemple, pour le job JOB_CustDim qui inclut un workflow et un flux de données, il est possible que la fenêtre
Pile d'appels s'affiche :
JOB_CustDim
WF_CustDim
DF_CustDim
Vous pouvez double-cliquer sur un objet de la fenêtre Pile d'appels pour l'ouvrir dans l'espace de travail. De même, si vous cliquez sur un objet d'un diagramme, la fenêtre Pile d'appels le met en surbrillance.
18.4.3.2 Fenêtre Suivi
La fenêtre Suivi affiche le statut de sortie du débogueur et les erreurs. Exemple :
11:22:06 AM> Job <GO> has been launched in debug mode.
11:22:07 AM> Breakpoint fired. Flow <aaa>: from <Query> to <"NewFile_773"(Simple)>
Lorsque le job se termine, cette fenêtre affiche :
Job
<NomJob>
terminé. Arrêter le débogueur.
Lorsque le job se termine, le débogueur vous donne une dernière possibilité d'examiner les données. Pour quitter le débogueur, sélectionnez le bouton
Arrêter le débogage
dans la barre d'outils, appuyez sur
Shift
+
F8
ou sélectionnez
Déboguer Arrêter le débogage
.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
637
18.4.3.3 Fenêtre Variables de débogage
La fenêtre Variables de débogage affiche les variables globales utilisées par le job à chaque point d'arrêt.
18.4.3.4 Volet d'affichage des données
Le volet d'affichage des données des lignes utilise les mêmes options de barre d'outils et de navigation que celles décrites pour la fonctionnalité Afficher les données.
Les options suivantes du volet d'affichage des données sont propres au débogueur interactif :
● Permet d'afficher les données qui passent par les lignes.
● Affiche (au-dessus de la barre d'outils d'affichage des données) les noms des objets auxquels une ligne se connecte en utilisant le format :
<NomTable>
(
<NomBanqueDonnées>
.
<NomPropriétaireTable>
) ->
<NomRequête>
.
● Affiche par défaut les données une ligne à la fois.
● Fournit la case à cocher
Tout
qui permet de voir plusieurs lignes de données traitées.
● Permet de modifier les données d'une cellule.
Par exemple, vous pouvez éventuellement corriger une erreur temporairement pour poursuivre une exécution du débogueur. Vous pouvez corriger la conception du job ultérieurement pour éliminer l'erreur définitivement.
Pour modifier les données d'une cellule :
○ Décochez la case
Tout
pour qu'une seule ligne soit affichée.
○ Double-cliquez sur une cellule ou cliquez dessus avec le bouton droit et sélectionnez
Modifier la cellule
.
● Utilise une propriété nommée
Fréquence d'échantillonnage des données
.
● Permet de marquer une ligne qui ne doit pas être traitée par la prochaine transformation.
Pour ignorer une ligne dans l'étape suivante du traitement d'un flux de données, sélectionnez-la et cliquez sur
Ignorer la ligne
.
Les données d'une ligne ignorée apparaissent dans le volet d'affichage des données au format "barré" (par exemple, 100345).
Si vous ignorez une ligne accidentellement, vous pouvez annuler immédiatement cette action. Sélectionnez la ligne ignorée et cliquez sur
Annuler Ignorer la ligne
.
638
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Autrement, cliquez avec le bouton droit de la souris sur la ligne et sélectionnez Ignorer la ligne ou
Annuler
Ignorer la ligne
dans le menu contextuel.
Par exemple, si une source d'un flux de données comporte quatre lignes et que vous définissez la fréquence d'échantillonnage des données sur 2 en démarrant le débogueur, il affiche la première ligne traitée à un point d'arrêt prédéfini.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
639
Si vous utilisez l'option
Ligne suivante
, la ligne suivante au même point d'arrêt est affichée.
Pour voir les deux lignes, cochez la case
Tout
dans le coin supérieur droit de ce volet. La ligne affichée en bas
.
de la table est la dernière ligne traitée.
A ce niveau, vous avez affiché deux lignes étant passées par une ligne.
Si vous cliquez à nouveau sur
Ligne suivante
, seules les deux dernières lignes traitées s'affichent car vous avez défini la taille d'échantillon sur 2.
Informations associées
Utilisation de l'affichage des données [page 617]
18.4.3.5 Fenêtre Filtres et points d'arrêt
Vous pouvez gérer les filtres et les points d'arrêt du débogueur de manière interactive grâce à la fenêtre
Filtres/Points d'arrêt. Cette fenêtre s'ouvre depuis le menu ou la barre d'outils Débogage.
Les lignes comportant des filtres ou des points d'arrêt sont listées tout à gauche de la fenêtre Filtres/Points d'arrêt. Pour les gérer, sélectionnez la ou les lignes à modifier, sélectionnez une commande dans la liste et cliquez sur Exécuter. Vous pouvez également sélectionner une seule ligne sur la gauche et afficher/modifier ses filtres et points d'arrêt du côté droit de cette fenêtre. Lorsque vous avez fini d'utiliser la fenêtre Filtres/Points d'arrêt, cliquez sur OK.
18.4.4 Options et barre d'outils du menu Débogage
Après avoir démarré le débogueur interactif, vous pouvez accéder aux options appropriées depuis le menu et la barre d'outils
Déboguer
de Designer.
640
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Table 296 :
Image
Guide de Designer
Conception et débogage
Option
Exécuter
Lancer le débogage
Arrêter le débogage
Suspendre le débogage
Étape suivante
Ligne suivante
Description
Ouvre la fenêtre Propriétés d'exécution, dans laquelle vous pouvez sélectionner les propriétés d'un job puis l'exé cuter en dehors du mode dé bogage. Disponible quand un job est actif dans l'espace de travail.
Commandes par touches
F8
Ouvre la fenêtre Propriétés de débogage, dans laquelle vous pouvez sélectionner les pro priétés d'un job puis l'exécu ter en mode débogage (dé marrer le débogueur). Les au tres opérations de Designer sont en lecture seule jusqu'à l'arrêt du débogueur. Disponi ble quand un job est actif dans l'espace de travail.
Ctrl+F8
Arrête une exécution en mode débogage et quitte le débo gueur. Toutes les opérations de Designer sont rétablies en lecture/écriture.
Shift+F8
Permet de mettre manuelle ment le débogueur en pause.
Vous pouvez utiliser cette ac tion à la place d'un point d'ar rêt.
Aucune
Permet de passer manuelle ment à la ligne suivante d'un flux de données en franchis sant une transformation dans l'espace de travail. Utilisez cette option pour voir la pre mière ligne d'un jeu de don nées après sa transformation.
L'espace de travail affiche un carré rouge sur la ligne pour indiquer le chemin utilisé. Si la transformation de l'étape sui vante comporte plusieurs sor ties, Designer fournit un menu contextuel où vous pouvez sé lectionner la branche de cal cul à emprunter.
F10
Permet de rester au point d'arrêt actuel et d'afficher la ligne de données suivante du jeu de données.
F11
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
641
Image Option
Continuer
Description Commandes par touches
Permet de rendre le contrôle du job à Designer.
● vous utilisiez l'option
Suspendre le débogage ;
● un autre point d'arrêt soit rencontré ;
● le job soit terminé.
Ctrl+F10. Le débogueur conti nue jusqu'à ce que :
Afficher les filtres/points d'ar rêt
Affiche tous les filtres et points d'arrêt existant dans un job. Si l'option n'est pas sé lectionnée, tous les filtres et points d'arrêt sont masqués dans la vue. Cette option est toujours disponible dans
Designer.
Aucune
Définir les filtres/points d'ar rêt...
Filtres/Points d'arrêt...
Pile d'appels
Ouvre une boîte de dialogue où vous pouvez définir, sup primer, modifier, activer ou désactiver les filtres et les points d'arrêt. Vous pouvez aussi définir des conditions pour les points d'arrêt. Dans l'espace de travail, vous pou vez cliquer avec le bouton droit sur une ligne et sélec tionner la même option dans un menu contextuel. Disponi ble quand un flux de données est actif dans l'espace de tra vail.
F9
Ouvre une boîte de dialogue où vous pouvez gérer plu sieurs filtres et points d'arrêt dans un flux de données. Pro pose aussi la même fonction nalité que la fenêtre Définir les filtres/points d'arrêt. Cette option est toujours disponible dans Designer.
Alt+F9
Affiche ou masque la fenêtre
Pile d'appels.
Aucune
Variables
Suivi
Affiche ou masque la fenêtre
Déboguer les variables.
Affiche ou masque la fenêtre
Suivi.
Aucune
642
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
18.4.5 Affichage des données passées par les transformations
Pour afficher les données passées par les transformations, exécutez le job en mode débogage.
18.4.5.1 Affichage des données passées par les transformations
1. Dans la zone de projet, cliquez avec le bouton droit sur un job et cliquez sur
Démarrer le débogage
.
La fenêtre Propriétés de débogage s'ouvre.
2. Décochez la case
Quitter l'outil de débogage lorsque le job est terminé
.
3. Vous pouvez saisir une valeur dans la zone de texte
Fréquence d'échantillonnage des données
ou laisser la valeur 500 par défaut.
4. Cliquez sur
OK
.
18.4.5.2 Affichage des exemples de données en mode débogage
1. En restant en mode débogage à la fin du job, dans la zone de projet, cliquez sur le nom du flux de données à afficher.
2. Cliquez sur le bouton Afficher les données figurant sur une ligne du flux de données.
3. Parcourez les données pour les examiner. Quand c'est fait, cliquez sur le bouton
Arrêter le débogage
de la barre d'outils.
18.4.6 Optimiseur de poussée vers le bas
Quand le logiciel exécute un job, il pousse normalement vers le bas autant d'opérations que possible, vers la base de données source, afin de maximiser les performances. Comme le débogueur interactif requiert l'exécution d'un job, les règles suivantes de poussée vers le bas s'appliquent :
● Transformations Query
La première transformation suivant un objet source dans un flux de données est optimisée dans le débogueur interactif et poussée vers le bas, vers la base de données source, si les deux objets répondent aux critères de poussée vers le bas et si vous n'avez pas placé de point d'arrêt sur la ligne avant la première transformation.
● Points d'arrêt
Le progiciel ne pousse vers le bas aucune opération si vous placez un point d'arrêt prédéfini. Les points d'arrêt prédéfinis sont des points d'arrêt définis avant le démarrage du débogueur interactif.
Après le démarrage du débogueur interactif, si la première transformation est poussée vers le bas, la ligne est désactivée durant la session de débogage. Vous ne pouvez pas placer de point d'arrêt sur cette ligne ni utiliser le volet d'affichage des données.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
643
● Filtres
Si l'entrée d'un filtre prédéfini est une source de base de données, elle est poussée vers le bas. Les filtres prédéfinis sont des filtres du débogueur interactif définis avant son démarrage.
18.4.7 Restrictions
● Le débogueur interactif peut être utilisé pour examiner les flux de données. Les options de débogage ne sont pas disponibles au niveau du workflow.
● Une mise à niveau du référentiel est nécessaire pour utiliser cette fonctionnalité.
● Le débogueur ne peut pas être utilisé avec les flux de données ABAP.
● Tous les objets d'un flux de données doivent avoir un nom unique. Par exemple, si une transformation comporte plusieurs sorties, vous pouvez choisir le chemin à utiliser. Si certains de ces objets ont le même nom, le résultat de votre sélection est imprévisible.
18.5 Comparaison d'objets
Le progiciel permet de comparer deux objets quelconques et leurs propriétés à l'aide de l'utilitaire Affichage des différences. Vous pouvez comparer :
● deux objets différents
● différentes versions du même objet
● un objet de la bibliothèque d'objets locale à son homologue de la bibliothèque d'objets centrale
Vous pouvez comparer seulement les objets de niveau supérieur ou inclure les dépendants de l'objet dans la comparaison.
Les objets doivent être de même type. Par exemple, vous pouvez comparer un job à un autre job ou une fonction personnalisée à une autre, mais vous ne pouvez pas comparer un job à un flux de données.
644
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
18.5.1 Comparer deux objets différents
1. Dans la bibliothèque d'objets locale ou centrale, cliquez avec le bouton droit sur le nom d'un objet.
2. Dans le menu contextuel, mettez en surbrillance
Comparer
et dans le sous-menu, cliquez sur l'une des options suivantes (leur disponibilité dépend de l'objet sélectionné) :
Table 297 :
Option
Objet à référentiel central
Objet et dépendants à référentiel central
Objet à...
Objet et dépendants à...
Description
Compare l'objet sélectionné à son homologue dans la bibliothèque d'objets centrale.
Compare l'objet sélectionné et ses dépendants à son homologue dans la bibliothèque d'objets centrale.
Compare l'objet sélectionné à un autre objet de type similaire.
Compare l'objet sélectionné et ses dépendants à un autre objet de type similaire.
Le curseur se change en icône de cible.
3. Lorsque vous déplacez le curseur sur un objet éligible pour la comparaison, le curseur cible change de couleur. Cliquez sur l'objet voulu.
La fenêtre
Affichage des différences
s'ouvre dans l'espace de travail.
La fenêtre identifie les éléments modifiés par une combinaison d'icônes, de couleurs et d'ombrage d'arrièreplan. Certaines de ces propriétés sont configurables.
Selon le type d'objet, les volets montrent des éléments tels que les propriétés de l'objet et celles des connexions (liens) entre ses objets enfants.
18.5.2 Comparaison de deux versions du même objet
Si vous travaillez dans un environnement multi-utilisateurs et utilisez une bibliothèque d'objets centrale, vous pouvez comparer deux objets ayant des versions ou des étiquettes différentes.
1. Dans la bibliothèque d'objets centrale, cliquez avec le bouton droit sur le nom d'un objet et dans le menu contextuel, cliquez sur
Afficher l'historique
.
2. Dans la fenêtre
Historique
, appuyez sur la touche Ctrl en cliquant sur les deux versions ou étiquettes à comparer.
3. Cliquez sur
Afficher les différences
ou
Afficher les différences avec dépendants
.
La fenêtre
Affichage des différences
s'ouvre dans l'espace de travail.
4. Fermez la fenêtre
Historique
.
Informations associées
Affichage de l'historique d'un objet [page 766]
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
645
18.5.3 Présentation de la fenêtre Affichage des différences
Le premier objet sélectionné s'affiche dans le volet gauche de la fenêtre et le deuxième dans le volet droit.
L'emplacement de chaque objet figure après son nom.
La fenêtre Affichage des différences comprend les fonctionnalités suivantes :
● barre d'outils
● barre de navigation
● barre d'état
● menu contextuel
Lorsqu'une fenêtre Affichage des différences est active, la fenêtre principale de Designer comporte également un menu nommé Affichage des différences. La section suivante décrit ces fonctionnalités.
Plusieurs fenêtres Affichage des différences peuvent être ouvertes en même temps dans l'espace de travail. Pour actualiser une fenêtre Affichage des différences, appuyez sur la touche F5.
Le développement ou la réduction de tout ensemble de propriétés développe ou réduit également l'ensemble de propriétés correspondant de l'objet comparé.
18.5.3.1 Barre d'outils
La barre d'outils comprend les boutons suivants.
Boutons de navigation
● Première différence (Alt+Orig)
● Différence précédente (Alt+flèche gauche)
● Différence actuelle
● Différence suivante (Alt+flèche droite)
● Dernière différence (Alt+Fin)
Boutons de filtres
● Activer les filtres - cliquez pour ouvrir la boîte de dialogue Filtres.
○
Masquer les éléments non exécutables
- sélectionnez cette option pour supprimer de la vue les éléments qui n'affectent pas l'exécution du job.
○
Masquer les éléments identiques
- sélectionnez cette option pour supprimer de la vue les éléments qui ne comportent pas de différences.
● Désactiver les filtres - supprime tous les filtres appliqués à la comparaison
646
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
Afficher les niveaux
Afficher le niveau 1 affiche uniquement les objets sélectionnés pour la comparaison ; Afficher le niveau 2 développe le niveau suivant, etc. Afficher tous les niveaux développe tous les niveaux des deux arbres.
Rechercher (Ctrl+F)
Cliquez sur
Rechercher
pour ouvrir une boîte de dialogue de recherche de texte.
Ouvrir dans une nouvelle fenêtre
Cliquez pour ouvrir l'Affichage des différences actif dans une fenêtre distincte. Vous devez fermer cette fenêtre avant de continuer.
18.5.3.2 Barre de navigation
La barre de navigation verticale contient des barres de couleur qui représentent chacune des différences de la comparaison. Les couleurs correspondent à celles de la barre d'état pour chaque différence. Une flèche dans la barre de navigation indique la différence actuellement en surbrillance dans les volets. Vous pouvez cliquer sur la barre de navigation pour sélectionner une différence (la pointe du curseur comportera une étoile sur elle). Les parenthèses violettes dans la barre indiquent la portion de la comparaison actuellement affichée dans les volets.
Informations associées
Navigation dans les différences [page 649]
18.5.3.3 Barre d'état
La barre d'état en bas de la fenêtre comporte une clé qui illustre le schéma de couleur et les icônes qui identifient les différences entre les deux objets.
Table 298 :
Icône Différence Description
Supprimé L'élément n'apparaît pas dans l'objet du volet droit.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
647
Icône Différence
Modifié
Inséré
Consolidé
Description
Les différences entre les éléments sont mises en évidence par un texte bleu (par défaut)
L'élément a été ajouté à l'objet du volet droit.
Cette icône apparaît près d'un élément si les éléments qu'il renferme comportent des différences. Développez l'élément en cliquant sur son signe plus pour afficher les différences.
Vous pouvez modifier la couleur de ces icônes en cliquant avec le bouton droit dans la fenêtre Affichage des différences et en cliquant sur Configuration.
La barre d'état comprend aussi une référence pour la différence actuellement sélectionnées dans la comparaison
(par exemple, la différence actuellement en surbrillance est la 9ème sur un total de 24 différences dans la comparaison.
La barre d'état indique également qu'au moins un filtre est appliqué à cette comparaison.
Informations associées
18.5.3.4 Menu contextuel
Un clic droit sur le corps de la fenêtre Affichage des différences permet d'afficher un menu contextuel qui contient toutes les commandes de la barre d'outils, plus :
● Afficher — Bascule pour afficher ou masquer la barre d'état, la barre de navigation ou la barre d'outils secondaire (barre d'outils supplémentaire qui s'affiche en haut de la fenêtre, elle peut être utile si l'Affichage des différences est ouvert dans une fenêtre distincte).
● Mise en forme — Utilisez cette commande pour repositionner la barre de navigation.
● Configuration — Cliquez pour modifier les options d'affichage des éléments comportant des différences.
Informations associées
Modification du schéma de couleurs [page 649]
648
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
18.5.3.4.1 Modification du schéma de couleurs
La barre d'état située en bas de la fenêtre Affichage des différences montre le schéma de couleurs actuellement utilisé pour identifier les éléments supprimés, modifiés, insérés ou consolidés dans les volets de comparaison.
Vous pouvez personnaliser ce schéma de couleurs de la manière suivante.
1. Cliquez avec le bouton droit sur le corps de la fenêtre Affichage des différences pour afficher la barre d'outils contextuelle.
2. Cliquez sur Configuration pour ouvrir la fenêtre Configuration.
3. Cliquez sur un marqueur (Inséré, Supprimé, Modifié ou Consolidé) pour le modifier.
4. Cliquez sur l'échantillon de couleurs pour ouvrir la palette de couleurs
5. Cliquez sur une couleur de base ou créez une couleur personnalisée.
6. Cliquez sur
OK
.
7. Cliquez sur un autre marqueur pour le modifier ou sur
OK
pour fermer la fenêtre Configuration.
18.5.3.4.2 Modification de l'ombrage d'arrière-plan
Les éléments comportant des différences s'affichent avec une couleur d'arrière-plan grise par défaut. Vous pouvez personnaliser cet arrière-plan.
1. Cliquez avec le bouton droit sur le corps de la fenêtre Affichage des différences pour afficher la barre d'outils contextuelle.
2. Cliquez sur Configuration pour ouvrir la fenêtre Configuration.
3. Cliquez sur un marqueur pour le modifier ou cochez la case
Appliquer à tous les marqueurs
.
4. Cliquez sur l'échantillon d'arrière-plans pour ouvrir la palette de couleurs
5. Cliquez sur une couleur de base ou créez une couleur personnalisée.
6. Cliquez sur
OK
.
7. Pour appliquer des couleurs d'arrière-plan différentes aux divers marqueurs, cliquez sur le marqueur pour le modifier et répétez les étapes 4 à 6.
8. Cliquez sur
OK
pour fermer la fenêtre Configuration.
18.5.3.5 Menu Affichage des différences
Lorsqu'une fenêtre Affichage des différences est active dans l'espace de travail, la fenêtre principale de Designer comporte un menu nommé Affichage des différences. Le menu contient les mêmes commandes que la barre d'outils.
18.5.4 Navigation dans les différences
La fenêtre Affichage des différences propose plusieurs options de navigation dans les différences.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
649
Vous pouvez naviguer dans les différences entre les objets à l'aide des boutons de navigation de la barre d'outils.
Par exemple, un clic sur le bouton Différence suivante met en surbrillance l'élément suivant qui diffère de l'objet comparé d'une manière quelconque. L'élément est marqué avec l'icône appropriée et seul le texte différent est mis en surbrillance avec la couleur affectée à ce type de différence.
Vous pouvez également utiliser la barre de navigation. Sélectionnez un élément dans un des deux volets comportant une différence. Notez qu'une flèche apparaît près de la barre colorée qui correspond à cet élément.
Vous pouvez cliquer sur ces barres pour passer à différents endroits de la comparaison, par exemple pour afficher uniquement les éléments insérés (de couleur verte par défaut). Les parenthèses violettes dans la barre indiquent la portion de la comparaison actuellement affichée dans les volets. Utilisez la barre de défilement d'un des volets pour ajuster la vue entre parenthèses
Pour les éléments de texte comme les scripts, cliquez sur la loupe pour afficher le texte dans un ensemble de nouveaux volets qui s'affichent sous les volets principaux de l'objet. Utilisez les barres de défilement de ces volets pour les parcourir. Cliquez sur la loupe (ou tout autre élément) pour fermer les volets de texte.
18.6 Calcul des mappages de colonnes
SAP Data Services peut calculer des informations sur les tables et colonnes cible ainsi que les sources utilisées pour les remplir, par exemple pour l'impact et le lignage ou les rapports de documentation automatique.
Le calcul des mappages de colonnes remplit la vue interne ALVW_MAPPING et la table AL_COLMAP_NAMES. La vue ALVW_MAPPING fournit des données actuelles aux applications de reporting sur les métadonnées comme
Analyse d'impact et de lignage. Si vous devez générer un rapport sur un flux de données qui traite des données imbriquées (NRDM), effectuez une requête sur la table AL_COLMAP_NAMES à l'aide d'un rapport personnalisé.
Dès qu'un calcul de mappage de colonnes est en cours, Designer affiche une icône de statut en bas à droite de la fenêtre. Vous pouvez double-cliquer sur cette icône pour annuler le processus.
Pour calculer les mappages de colonnes, vous pouvez :
● Activer l'option dans Designer pour calculer automatiquement les mappages de colonnes.
● Exécuter manuellement le processus de mappage de colonnes depuis Designer ou l'application Analyse d'impact et de lignage dans la Console de gestion.
18.6.1 Calculer automatiquement les mappages de colonnes
Pour activer l'option permettant de calculer automatiquement les informations de mappage des colonnes, dans
Designer, sélectionnez
Outils Options Designer Général Calculer automatiquement les mappages de colonnes
. Cette option est sélectionnée par défaut.
Notez que si l'option de Designer
Calculer automatiquement les mappages de colonnes
est désélectionnée, toutes les modifications ultérieures apportées au flux de données impliquent de recalculer manuellement les mappages de colonnes pour garantir que la vue ALVW_MAPPING et la table AL_COLMAP_NAMES comportent les informations les plus récentes.
650
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
18.6.2 Calculer automatiquement les mappages de colonnes
Si l'option de Designer
Calculer automatiquement les mappages de colonnes
est désélectionnée et que vous désirez générer des rapports, vous pouvez calculer manuellement les mappages. Vous pouvez calculer manuellement les mappages de colonnes à tout moment dans Designer ou dans la Console de gestion.
Dans Designer, cliquez avec le bouton droit de la souris sur la bibliothèque d'objets et sélectionnez
Répertoire
Calculer les mappages de colonnes
.
Dans la Console de gestion :
1. Sélectionnez
Analyse d'impact et de lignage
.
2. Ouvrez le panneau de configuration
Paramètres
.
3. Cliquez sur l'onglet
Actualiser les données d'utilisation
.
4. Sélectionnez le Job Server associé au répertoire que vous désirez utiliser.
5. Cliquez sur
Calculer les mappages de colonnes
.
Dans l'onglet
Présentation
de l'Analyse d'impact et de lignage, vous pouvez développer l'option
Calcul du mappage de colonnes du flux de données
pour afficher une liste des flux de données et le statut de calcul de chacun d'eux. Si le calcul de mappage est terminé, l'indicateur
Statut
est coché.
18.7 Contournement de workflows et flux de données spécifiques
Vous pouvez contourner l'exécution d'un workflow ou d'un flux de données au moment de la conception.
L'attribut de contournement peut accélérer le processus de test lors de la conception des jobs en vous permettant d'exécuter certains workflows ou flux de données plutôt que de les exécuter tous. Notez que tous les objets figurant dans un workflow ou flux de données contourné (des scripts, par exemple) sont également contournés.
Remarque
Vous devez créer des paramètres de substitution à utiliser avec l'option
Contournement
. Par exemple, dans la fenêtre
Editeur de paramètres de substitution
, vous pouvez créer $$BYPASSEnable avec la valeur Oui et $
$BYPASSDisable avec la valeur Non (ou toute autre valeur différente de Oui).
Les limitations suivantes s'appliquent :
● Les workflows et flux de données contournés sont ignorés en mode de débogage. Le contournement fonctionne uniquement en mode de conception.
● Les flux de données et flux de données intégrés ABAP ne sont pas pris en charge.
● Les attributs de contournement ne sont pas pris en charge lors de l'exportation et sont alors supprimés.
Il existe plusieurs moyens de vérifier si un objet a été contourné :
● Après la validation, un message s'affiche dans l'onglet
Avertissement
de la fenêtre de
sortie
(par exemple, Le workflow <nom du workflow> est contourné). Vous pouvez cliquer sur le message pour accéder directement à l'objet contourné.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
651
● Un message s'affiche dans le journal de suivi.
● Une icône (cercle rouge avec une ligne en travers) apparaît dans l'angle inférieur gauche de l'objet de workflow ou de flux de données dans l'espace de travail Designer.
Remarque
Cette icône reste affichée tant que l'attribut de contournement (activé ou désactivé) est appliqué à l'objet.
Informations associées
Modification des propriétés d'un flux de données [page 160]
Ordre d'exécution dans les workflows [page 208]
Création d'un paramètre de substitution [page 312]
18.7.1 Contournement d'un flux de données simple ou d'un workflow unique
Vous pouvez activer l'attribut de contournement pour un flux de données simple ou un workflow unique.
1. Cliquez avec le bouton droit de la souris sur un flux de données ou un workflow dans l'espace de travail
Designer ou la zone de projet et sélectionnez
Propriétés
.
2. Dans l'onglet
Général
, sélectionnez une variable de substitution dans la liste déroulante
Contournement
.
3. Cliquez sur
Appliquer
.
18.7.2 Contournement de flux de données ou workflows multiples
Vous pouvez activer l'attribut de contournement pour des flux de données ou des workflows multiples.
1. Sélectionnez des flux de données et des workflows dans l'espace de travail Designer.
2. Cliquez avec le bouton droit de la souris et sélectionnez
Contournement
.
La fenêtre
Définir le contournement
s'affiche.
3. Sélectionnez une variable de substitution dans la liste déroulante
Contournement
.
4. Cliquez sur
OK
.
652
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Conception et débogage
18.7.3 Désactivation du contournement
Après avoir créé et testé votre job, vous devez désactiver l'attribut de contournement avant de passer le job en mode de production.
Pour désactiver l'attribut de contournement au niveau du job, cliquez avec le bouton droit de la souris sur un flux de données ou un workflow dans la zone de projet Designer et sélectionnez
Supprimer le contournement
.
Pour désactiver l'attribut de contournement au niveau de l'appel pour des flux de données ou des workflows multiples, effectuez les opérations suivantes :
1. Sélectionnez des flux de données et des workflows dans l'espace de travail Designer.
2. Cliquez avec le bouton droit de la souris et sélectionnez
Contournement
.
La fenêtre
Définir le contournement
s'affiche.
3. Sélectionnez
{Pas de contournement}
dans la liste déroulante
Contournement
.
4. Cliquez sur
OK
.
Guide de Designer
Conception et débogage
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
653
19 Mécanismes de récupération
Des mécanismes de récupération sont disponibles dans SAP Data Services pour des jobs batch uniquement.
Informations associées
Récupération suite à un échec d'exécution de job [page 654]
Récupération automatique de jobs [page 655]
Récupération manuelle de jobs à l'aide de tables de statuts [page 662]
Traitement de données avec problèmes [page 663]
19.1 Récupération suite à un échec d'exécution de job
Si un job SAP Data Services n'est pas correctement exécuté, vous devez régler les problèmes qui ont empêché l'exécution correcte du job et exécuter le job à nouveau.
Cependant, au cours de l'échec de l'exécution du job, certains flux de données du job peuvent être exécutés, certaines tables peuvent avoir été chargées, partiellement chargées ou altérées. Vous devez donc créer vos jobs de mouvement de données de telle sorte que vous puissiez restaurer le job, en d'autres termes exécuter à nouveau le job et récupérer toutes les données sans données dupliquées ou manquantes.
Vous pouvez utiliser diverses techniques pour récupérer des données d'échec d'exécutions de job. Cette section présente deux techniques :
● Récupération automatique de jobs Fonctionnalité logicielle permettant d'exécuter des jobs qui ont échoué en mode de récupération.
● Récupération manuelle de jobs à l'aide de tables de statuts — Technique de conception permettant d'exécuter à nouveau des jobs sans tenir compte des résultats partiels d'une exécution précédente.
Vous pouvez être amené à utiliser une combinaison de ces techniques en fonction des relations entre des flux de données dans votre application.
Si vous n'utilisez pas ces techniques, vous serez peut-être amené à rejeter les modifications manuellement à partir de tables cible en cas d'interruptions au cours de l'exécution de job.
Informations associées
Récupération automatique de jobs [page 655]
Récupération manuelle de jobs à l'aide de tables de statuts [page 662]
654
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
19.2 Récupération automatique de jobs
La récupération automatique permet au logiciel d'enregistrer le résultat de chaque étape correctement exécutée dans un job. Si un job échoue, vous pouvez décider d'exécuter à nouveau le job en mode de récupération. En mode de récupération, le logiciel récupère les résultats pour des étapes correctement exécutées et exécute à nouveau les étapes non exécutées ou qui ont échoué sous les mêmes conditions que le job d'origine. A des fins de récupération, le logiciel considère les étapes déclenchant des exceptions comme des étapes ayant échoué même si l'étape est interceptée dans un bloc Try/Catch.
19.2.1 Activation de la récupération automatique
Pour utiliser la fonctionnalité de récupération automatique, vous devez l'activer au cours de l'exécution initiale d'un job. Le logiciel sauvegarde les résultats d'étapes correctement exécutées lorsque la fonction de récupération automatique est activée.
19.2.1.1 Exécuter un job à partir de Designer avec la récupération activée
1. Dans la zone de projet, sélectionnez le nom du job.
2. Cliquez avec le bouton droit et sélectionnez
Exécuter
.
Le logiciel vous invite à sauvegarder toutes les modifications.
3. Vérifiez que l'option
Activer la récupération
est sélectionnée dans la fenêtre
Propriétés d'exécution
.
Si cette case n'est pas cochée, le logiciel n'enregistre pas les résultats des étapes au cours du job et ne peut pas récupérer le job en cas d'échec. Dans ce cas, vous devez exécuter les opérations de récupération manuellement.
19.2.1.2 Exécuter un job avec récupération activée depuis l'Administrateur
Lorsque vous planifiez ou exécutez un job à partir de l'Administrateur, cochez la case
Activer la récupération
.
19.2.2 Marquage des unités de récupération
Dans certains cas, les étapes d'un workflow dépendent les unes des autres et doivent être exécutées ensemble.
En raison de la dépendance, vous devez désigner le workflow comme "unité de récupération". Lorsqu'un workflow correspond à une unité de récupération, l'ensemble du workflow doit être correctement exécuté. Si le workflow
Guide de Designer
Mécanismes de récupération
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
655
n'est pas exécuté correctement, le logiciel exécute l'intégralité du workflow au cours de la récupération, même les
étapes exécutées correctement auparavant.
Cependant il existe des exceptions au traitement de l'unité de récupération. Par exemple, lorsque vous indiquez qu'un workflow ou un flux de données doit être exécuté une fois, un job n'exécutera jamais à nouveau ce workflow ou ce flux de données une fois qu'il a été correctement exécuté, sauf si ce workflow ou ce flux de données figure dans un workflow d'unité de récupération à nouveau exécuté et qui n'a pas été correctement exécuté ailleurs en dehors de l'unité de récupération.
Il est recommandé de ne pas marquer un workflow ou un flux de données comme
Exécuter une fois
lorsque le workflow ou un workflow parent est une unité de récupération.
19.2.2.1 Indiquer un workflow comme unité de récupération
1. Dans la zone de projet, sélectionnez le workflow.
2. Cliquez avec le bouton droit et sélectionnez
Propriétés
.
3. Cochez la case
Restaurer en tant qu'unité
puis cliquez sur
OK
.
Au cours de la récupération, le logiciel considère ce workflow comme une unité. Si l'ensemble du workflow est correctement exécuté, c'est-à-dire sans erreur, au cours d'une exécution précédente, le logiciel récupère les résultats de l'exécution précédente. Si une étape du workflow n'a pas été correctement exécutée, l'ensemble du workflow est ré-exécuté au cours de la récupération.
Dans le diagramme Espace de travail, la croix noire et la flèche verte indiquent qu'un workflow est une unité de récupération.
19.2.3 Exécution en mode de récupération
Si l'exécution d'un job avec récupération automatique activée échoue, vous pouvez ré-exécuter ce job en mode de récupération.
Comme dans le cas de tout échec d'exécution de job, vous devez déterminer et supprimer la cause de la défaillance et ré-exécuter le job en mode de récupération. Si vous devez apporter des modifications au job luimême pour corriger la défaillance, vous ne pouvez pas utiliser la récupération automatique mais vous devez exécuter le job comme une première exécution.
En mode de récupération, le logiciel exécute les étapes ou les unités de récupération qui n'ont pas été correctement exécutées précédemment, cela comprend les étapes qui ont échoué et les étapes qui ont déclenché une exception mais qui ont été correctement exécutées, par exemple, celles d'un bloc Try/Catch. Comme lors d'une exécution classique de job, le logiciel exécute les étapes en parallèle si elles ne sont pas connectées dans les diagrammes de workflow et en série si elles sont connectées.
656
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
19.2.3.1 Exécuter un job en mode de récupération à partir de
Designer
1. Dans la zone de projet, sélectionnez le nom du job (qui a échoué).
2. Cliquez avec le bouton droit et sélectionnez
Exécuter
.
Le logiciel vous invite à sauvegarder tous les objets ayant des modifications non sauvegardées.
3. Vérifiez que la case
Récupération à partir de l'échec d'exécution
est cochée.
Cette option n'est pas disponible lorsqu'un job n'a pas encore été exécuté, lorsque l'exécution précédente a
été correctement effectuée ou lorsque le mode de récupération a été désactivé au cours de l'étape précédente.
Lorsque vous sélectionnez Récupérer à partir du dernier échec d'exécution, le logiciel récupère les résultats de toutes les étapes correctement exécutées précédemment et exécute ou exécute à nouveau toutes les autres étapes.
Si vous désactivez cette option, le logiciel exécute ce job de nouveau en exécutant toutes les étapes.
Lorsque vous planifiez ou exécutez un job (qui a échoué) à partir de l'Administrateur, cochez la case
Récupérer à partir de la dernière exécution qui a échoué
.
19.2.4 Garantie d'un chemin d'exécution correct
Le système de récupération automatique nécessite qu'un job en mode de récupération soit à nouveau exécuté exactement comme précédemment.
Il est important que le job de récupération soit exécuté exactement comme précédemment. Si l'exécution du job a
été autorisée à des conditions modifiées, supposez qu'une fonction
<sysdate>
retourne une nouvelle date de contrôle des données extraites, puis que les nouvelles données chargées dans les cibles ne correspondent plus aux données correctement chargées dans la cible au cours de la première exécution du job.
Par exemple, supposez que l'exécution d'un job de mise à jour quotidienne de nuit charge correctement des tables de dimension dans un magasin. Cependant, alors que le job est en cours d'exécution, le journal de base de données dépasse et arrête le chargement à partir de tables de faits. Le jour suivant, l'Administrateur tronque le fichier journal et exécute à nouveau le job en mode de récupération. Le job de récupération ne recharge pas les tables de dimension car elles ont été correctement chargées lors de l'exécution précédente.
Pour garantir que les tables de faits sont chargées avec les données qui correspondent aux données déjà chargées dans les tables de dimension, le job de récupération doit utiliser les mêmes critères d'extraction que ceux utilisés par le job d'origine lors du chargement des tables de dimension. Si le job de récupération a utilisé de nouveaux critères d'extraction, par exemple l'extraction de données de base à la date système actuelle, les données des tables de faits ne correspondront pas aux données précédemment extraites dans les tables de dimension.
En outre, si le job de récupération utilise de nouvelles valeurs, l'exécution de job peut suivre un chemin complètement différent via des étapes conditionnelles ou des blocs Try/Catch.
Si une valeur de variable globale est modifiée lors d'une récupération en tant que workflow d'unité, il n'est pas certain qu'une référence de variable globale en aval comporte la valeur mise à jour lors de l'exécution en mode de
Guide de Designer
Mécanismes de récupération
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
657
récupération. Tel est le cas lors de l'exécution en mode de récupération, si l'échec de l'exécution précédente ne figure pas dans le workflow contenant la modification de variable.
Lorsque la récupération est activée, le logiciel enregistre les résultats à partir des types suivants d'étapes :
● Workflows
● Flux de données batch
● Instructions de script
● Fonctions personnalisées (type sans état uniquement)
● Fonction SQL
● fonction exec
● fonction get_env
● fonction rand
● fonction sysdate
● fonction systime
19.2.5 Utilisation de blocs Try/Catch avec récupération automatique
SAP Data Services ne sauvegarde pas le résultat d'un bloc Try/Catch pour le réutiliser au cours de la récupération. Si une exception a été générée dans un bloc Try/Catch, au cours de la récupération, le logiciel exécute l'étape qui a généré l'exception et les étapes suivantes.
Le chemin d'exécution via le bloc Try/Catch devant être différent dans le job récupéré, l'utilisation d'un ensemble de variables dans le bloc Try/Cath pourrait modifier les résultats au cours de la récupération automatique.
Supposez, par exemple que vous créiez un job qui définit une variable $i, que vous avez déterminée dans un bloc
Try/Catch. Si une exception survient, vous pouvez définir une variable $i. Les étapes suivantes sont basées sur la valeur de $i.
Logique d'exécution de job
658
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
Au cours de la première exécution de job, le premier workflow contient une erreur qui génère une exception détectée. Cependant, le job échoue dans le workflow suivant.
Vous corrigez l'erreur et exécutez le job en mode de récupération. Au cours de la récupération, le premier workflow ne génère plus l'exception. Par conséquent, la valeur de la variable
<$i>
est différente et le job sélectionne un workflow suivant différent avec différents résultats.
Pour garantir des résultats corrects, lorsqu'un job contient un bloc Try/Catch, n'utilisez pas d'ensemble de valeurs dans le bloc Try/Catch et dans toutes les étapes suivantes.
Guide de Designer
Mécanismes de récupération
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
659
19.2.6 Garantie que les données ne sont pas dupliquées dans des cibles
Définissez des workflows permettant une récupération correcte de jobs. Un flux de données peut être partiellement complété lors d'une exécution incomplète. Parmi les lignes requises certaines seulement ont pu alors être insérées dans une table. Vous ne souhaitez pas insérer des lignes dupliquées au cours de la récupération lorsque le flux de données est à nouveau exécuté.
Vous pouvez utiliser plusieurs méthodes pour garantir que vous n'insérez pas de lignes dupliquées :
● Créez le flux de données pour remplacer entièrement la table cible au cours de chaque exécution.
Cette technique peut être optimisée lorsque de nombreuses modifications sont apportées à la table cible, par rapport à la taille de la table. Vous pouvez utiliser des techniques d'optimisation, par exemple les options de chargement par lots pour améliorer la performance globale.
● Activez l'option de chargement de correction automatique pour la table cible.
Cette option vérifie qu'il existe des lignes dans la table cible avant d'en ajouter de nouvelles. L'utilisation de l'option de chargement par lots peut cependant ralentir les jobs exécutés en mode de non-récupération lorsque ce n'est pas nécessaire.
Utilisez cette technique lorsque la table cible est grande et peu de modifications y sont apportées.
● Incluez une commande SQL à exécuter avant le chargement de la table.
Les commandes SQL de préchargement peuvent supprimer des mises à jour de base de données partielles apparues au cours de l'exécution incomplète d'une étape dans un job. En règle générale, la commande SQL de préchargement supprime des lignes en fonction d'une variable, c'est-à-dire avant le début de l'étape d'insertion.
19.2.7 Utilisation de SQL de préchargement pour autoriser des flux de données ré-exécutables
Pour utiliser des commandes SQL de préchargement pour supprimer des mises à jour de base de données partielles, les tables doivent contenir un champ qui permet de déterminer quand une ligne a été insérée. Créez une commande SQL de préchargement qui supprime des lignes en fonction de la valeur de ce champ.
Par exemple, supposez qu'une table contienne une colonne qui enregistre l'horodatage d'une insertion de ligne.
Vous pouvez créer un script avec une variable qui enregistre l'horodatage actuel avant l'insertion de nouvelles lignes. Dans les options de la table cible, ajoutez une commande SQL de préchargement qui supprime toutes les lignes avec un horodatage supérieur à celui enregistré par la variable.
Au cours de l'exécution initiale, aucune ligne ne correspond aux critères de suppression. Au cours de la récupération, la valeur de la variable n'est pas réinitialisée. (La valeur de la variable est définie dans un script exécuté correctement au cours de l'exécution initiale.) Les lignes insérées au cours du chargement partiel précédent de base de données doivent correspondre à ces critères et la commande SQL de préchargement doit les supprimer.
660
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
Pour utiliser correctement des commandes SQL de préchargement, vous devez définir des variables et les transférer correctement aux flux de données.
19.2.7.1 Utilisation de commandes SQL de préchargement pour garantir une récupération correcte
1. Déterminez les valeurs appropriées que vous pouvez utiliser pour suivre des enregistrements insérés dans vos tables.
Par exemple, si chaque ligne dans une table est marquée d'un horodatage d'insertion, vous pouvez utiliser la valeur de la fonction sysdate() pour déterminer quand une ligne a été ajoutée à cette table.
2. Créez des variables pouvant archiver les valeurs de "suivi".
Les variables sont spécifiques au job ou au workflow. Si un workflow est une unité de récupération, créez les variables de "suivi" pour ce workflow au niveau du job , sinon, créez vos variables de suivi au niveau du workflow. Généralement, vous ne souhaitez pas réinitialiser des variables de suivi au cours de la récupération car lorsque les variables sont réinitialisées, la commande SQL de préchargement ne fonctionnera pas correctement.
3. Créez des scripts qui définissent les variables sur les valeurs appropriées.
Les scripts sont des étapes uniques de jobs ou de workflows. Vous devez créer un script distinct qui définit les variables requises avant que chaque flux de données ou workflow ne charge une table. Si un workflow correspond à une unité de récupération, créez les scripts pour ce workflow au niveau du job ; sinon créez les scripts au niveau du workflow.
4. Connectez les scripts aux flux de données ou aux workflows correspondants.
5. Créez des paramètres pour transférer les informations relatives à la variable du job ou du workflow où vous avez créé la variable aux flux de données, qui utilise la variable de suivi dans la commande SQL de préchargement.
Guide de Designer
Mécanismes de récupération
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
661
6. Insérez les commandes SQL de préchargement appropriées qui suppriment tous les enregistrements insérés au cours des exécutions précédentes qui ont échoué.
Les commandes SQL de préchargement référencent les paramètres contenant la variable de suivi en supprimant les lignes insérées après l'activation de la variable.
Par exemple, supposez que la table
<PO_ITEM>
enregistre l'horodatage vers date dans la colonne
<TIMESTMP>
. Vous avez créé une variable
<$load_time>
qui enregistre la valeur de la fonction sysdate() avant le début du chargement et vous avez transféré cette variable au flux de données qui charge la table
<PO_ITEM>
dans un paramètre nommé
<$load_time>
. Puis votre commande SQL de préchargement doit supprimer tous les enregistrements de la table si la valeur dans
<TIMESTMP>
est supérieure à la valeur dans
<
$load_time>
.
Supprimez de
<PO_ITEM>
si
<TIMESTMP> > [$ <load_time> ]
Informations associées
Définir une variable locale [page 295]
Définition de paramètres [page 296]
19.3 Récupération manuelle de jobs à l'aide de tables de statuts
Vous pouvez créer vos jobs et workflows pour pouvoir les récupérer manuellement en cas d'échec d'une exécution. Un job conçu pour une récupération manuelle doit avoir certaines caractéristiques :
● Vous pouvez exécuter le job de façon répétitive.
● Le job implémente des étapes spécifiques pour récupérer des données lorsqu'une étape n'a pas été correctement exécutée précédemment.
Vous pouvez utiliser une table des statuts d'exécution pour créer des jobs pouvant être exécutés plusieurs fois sans duplication des lignes cibles. La table enregistre un statut d'exécution de job. Une valeur "Echec" indique à
SAP Data Services un chemin d'accès de récupération.
Pour implémenter un workflow avec un chemin d'exécution de récupération :
● Définissez un indicateur indiquant lorsque le workflow est en en cours d'exécution en mode de récupération.
● Archivez la valeur de l'indicateur dans une table de statuts.
● Vérifiez la valeur de l'indicateur dans la table de statuts avant d'exécuter un workflow pour déterminer le chemin à exécuter dans le workflow.
● Mettez à jour la valeur de l'indicateur lorsque le workflow est correctement exécuté.
Par exemple, vous pourriez créer un workflow qui utilise l'option de chargement de correction automatique lorsqu'une précédente exécution n'est pas correcte. Ce workflow aurait cinq étapes comme l'illustre la figure :
1. Récupérez la valeur de code qui indique si l'exécution précédente est correcte ou si elle a échoué, à partir de la table de statuts. Archivez cette valeur dans une variable, par exemple
<$recovery_needed>
.
662
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
2. Dans une structure conditionnelle, évaluez la variable
<$recovery_needed>
.
3. Si une récupération est requise, exécutez le flux de données de récupération recover_customer. Ce flux de données charge les données à l'aide de l'option de correction automatique de chargement.
4. Si aucune récupération n'est requise, exécutez le flux de données de non-récupération load_customer. Ce flux de données charge les données sans option de correction automatique de chargement.
5. Mettez à jour la valeur de l'indicateur dans la table de statuts pour indiquer que l'exécution est correcte.
19.4 Traitement de données avec problèmes
Les jobs peuvent ne pas donner les résultats que vous attendez en raison de problèmes avec les données. Dans certains cas, le logiciel est incapable d'insérer une ligne. Dans d'autres cas, le logiciel peut insérer des lignes avec des informations manquantes. Vous pouvez concevoir vos flux de données pour anticiper et traiter ces types de problèmes. Par exemple, vous pouvez avoir un flux de données qui écrit des lignes avec des informations manquantes dans un fichier spécifique que vous pouvez vérifier ultérieurement.
Cette section décrit des mécanismes que vous pouvez utiliser pour anticiper et traiter des problèmes de données.
Cette section aborde notamment trois techniques :
● Utilisation de fichiers de dépassement
● Filtrage pour valeurs manquantes ou erronées
● Traitement de faits avec dimensions manquantes
19.4.1 Utilisation de fichiers de dépassement
Une ligne qui ne peut pas être insérée constitue un problème de données général. Utilisez le fichier de dépassement pour traiter ce type de problème de données. Lorsque vous indiquez un fichier de dépassement et que SAP Data Services ne peut pas charger une ligne dans une table, le logiciel écrit la ligne sur le fichier de dépassement à la place. Le journal de suivi indique le flux de données où le chargement a échoué et l'emplacement du fichier.
Pour toute table utilisée comme cible, vous pouvez activer l'option d'utilisation d'un fichier de dépassement dans l'onglet
Options
. Lorsque vous indiquez un fichier de dépassement, donnez un nom de chemin complet pour garantir que le logiciel crée un fichier unique lorsque plusieurs fichiers sont créés dans le même job. Par défaut, le nom du fichier de dépassement est le nom de la table cible.
Lorsque vous sélectionnez l'option de fichier de dépassement, vous sélectionnez les données que le logiciel écrit dans le fichier, concernant les lignes pour lesquelles le chargement a échoué : soit les données de la ligne, soit les commandes SQL requises pour charger la ligne. Si vous sélectionnez des données, vous pouvez utiliser le logiciel pour lire les données à partir du fichier de dépassement, les nettoyer et les charger dans la table cible. Si vous sélectionnez des commandes SQL, vous pouvez les utiliser pour charger la cible manuellement lorsqu'elle est accessible.
Plusieurs raisons peuvent être à l'origine de l'échec d'un chargement, par exemple :
● Capacité de mémoire saturée
● Paramètres de colonne de dépassement
Guide de Designer
Mécanismes de récupération
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
663
● Valeurs clés doubles
Vous pouvez utiliser les informations de dépassement pour identifier des données non valides dans votre source ou les problèmes du mouvement de données. Toute nouvelle exécution écrasera le fichier de dépassement existant.
Remarque
Vous ne pouvez pas utiliser des fichiers de dépassement lors d'un chargement dans une structure de transfert
BW.
19.4.2 Filtrage pour valeurs manquantes ou erronées
Une valeur manquante ou non valide dans les données source constitue un autre problème de données commun.
Les requêtes dans les flux de données vous permettent d'identifier des valeurs manquantes ou non valides dans des données sources. Vous pouvez également décider d'inclure ces données dans la cible ou de les ignorer.
Par exemple, supposez que vous extrayiez des données d'une source et que vous sachiez que certains numéros de téléphone et noms de client manquent. Vous pouvez utiliser un flux de données pour extraire des données de la source, charger ces données dans une cible et filtrer les valeurs nulles dans un fichier pour votre contrôle.
Le flux de données comporte les cinq étapes suivantes :
1. Il extrait les données de la source.
2. Il sélectionne le jeu de données à charger dans la source et applique de nouvelles clés. (Cette étape est exécutée à l'aide de la fonction Key_Generation.)
3. Il charge le jeu de données dans la cible, à l'aide de l'option Chargement par lots pour une meilleure performance.
4. Il utilise le jeu de données pour lequel de nouvelles clés ont été générées dans l'étape 2 et sélectionne des lignes avec noms de client et numéros de téléphone manquants.
5. Il écrit les ID client pour les lignes avec données manquantes dans un fichier.
Maintenant, supposez que vous souhaitiez charger des lignes avec des noms de client manquants dans votre cible. Vous pouvez insérer une autre requête dans le flux de données pour garantir que SAP Data Services n'insère pas de lignes incomplètes dans la cible. La nouvelle requête filtre les lignes avec noms de client manquants avant de charger des lignes dans la cible. La requête de données manquantes continue à collecter ces lignes avec les lignes avec numéros de téléphone manquants. Dans cette version de l'exemple, la transformation
Key_Generation ajoute des clés pour les nouvelles lignes avant d'insérer le jeu de données filtrées dans la cible.
Maintenant le flux de données comporte six étapes.
1. Il extrait les données de la source.
2. Il sélectionne le jeu de données à charger dans la cible en filtrant les lignes sans nom de client.
3. Il génère des clés pour les lignes avec noms de client.
4. Il charge le jeu de données valide (lignes avec noms de client) dans la cible à l'aide de l'option Chargement par lots pour une meilleure performance.
5. Il utilise une transformation Query distincte pour sélectionner les lignes de la source qui ne comportent ni noms ni numéros de téléphone.
Notez que le logiciel ne charge pas de lignes avec noms de client manquants dans la cible ; cependant le logiciel charge les lignes avec numéros de téléphone manquants.
664
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
6. Il écrit les ID client pour les lignes avec données manquantes dans un fichier.
Vous pourriez ajouter plus de requêtes dans le flux de données pour sélectionner des valeurs manquantes ou non valides pour un contrôle ultérieur.
19.4.3 Traitement de faits avec dimensions manquantes
Un autre problème de données se produit lorsque SAP Data Services recherche une table de dimensions et ne peut pas trouver les valeurs requises pour compléter une table de faits.
Vous pouvez traiter ce problème de plusieurs façons :
● Sortir la ligne posant problème de la table de faits.
En règle générale, ce n'est pas une bonne idée car l'analyse effectuée sur les faits ne tiendra pas compte de cette ligne.
● Noter la ligne ayant généré l'erreur mais la charger quand-même dans la table cible.
Vous pouvez marquer la ligne comme étant erronée ou transférer les informations relatives à la ligne dans un fichier d'erreurs comme dans les exemples de
Filtrage pour valeurs manquantes ou erronées [page 664]
.
● Régler le problème via un programme.
Selon les données manquantes, vous pouvez insérer une nouvelle ligne dans la table de dimensions, ajouter des informations d'une source secondaire ou utiliser une autre méthode fournissant des données en dehors du chemin de haute performance normal.
19.5 Echange de métadonnées
SAP Data Services vous permet d'exporter des métadonnées dans un fichier XML. Après avoir créé le fichier, vous devez l'importer manuellement dans un autre outil.
Informations associées
Echange de métadonnées [page 665]
19.5.1 Echange de métadonnées
Vous pouvez échanger des métadonnées entre le logiciel et des outils tiers à l'aide de fichiers XML et de l'option
Echange de métadonnées
.
Le logiciel prend en charge deux formats d'échange de données intégrés :
● CWM 1.0 XML/XMI 1.1
Guide de Designer
Mécanismes de récupération
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
665
CWM (le Common Warehouse Metamodel)— est une spécification qui permet l'échange des métadonnées de l'entrepôt de données entre outils, plateformes et référentiels dans des environnements hétérogènes distribués.
● ERwin 4.x XML
Le logiciel peut aussi utiliser :
● MIMB (le Meta Integration® Model Bridge)
MIMB est un utilitaire autonome Windows qui convertit les modèles de métadonnées. En utilisant MIMB avec le logiciel, vous pouvez échanger des métadonnées avec tous les formats pris en charge par MIMB. Si MIMB est installé, les formats supplémentaires qu'il prend en charge sont indiqués dans la fenêtre Echange de métadonnées.
19.5.1.1 Importation de fichiers de métadonnées dans le logiciel
Vous pouvez importer des métadonnées ERwin Data Modeler 4.x XML dans une banque de données.
19.5.1.1.1 Importer des métadonnées à l'aide de l'option
Echange de métadonnées
1. Dans le menu
Outils
, sélectionnez
Echange de métadonnées
.
2. Dans la fenêtre Echange de métadonnées, sélectionnez
Importer les métadonnées depuis le fichier.
3. Dans la case
Format de métadonnées
, sélectionnez ERwin 4.x XML dans la liste des formats disponibles.
4. Spécifiez le
Nom du fichier source
(saisissez-le directement ou cliquez sur
Parcourir
pour le rechercher).
5. Sélectionnez le
Nom de la banque de données cible
dans la liste des banques de données.
6. Cliquez sur
OK
pour terminer l'importation.
19.5.1.2 Exportation de fichiers de métadonnées du logiciel
Vous pouvez exporter des métadonnées dans un fichier lisible par d'autres outils.
19.5.1.2.1 Exporter des métadonnées à l'aide de l'option
Echange de métadonnées
1. Dans le menu
Outils
, sélectionnez
Echange de métadonnées
.
2. Dans la fenêtre Echange de métadonnées, sélectionnez
Exporter des métadonnées Data Services vers un fichier
.
666
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
3. Sélectionnez un
format de métadonnées
pour la cible dans la liste des formats disponibles.
Si MIMB est installé et que vous sélectionnez un format pris en charge par MIMB, cochez la case Visuel pour ouvrir l'application MIMB à la fin du processus d'exportation.
Si vous ne cochez pas la case Visuel, les métadonnées sont exportées sans ouvrir l'application MIMB.
L'utilisation de l'application MIMB offre des options de configuration supplémentaires permettant de structurer les métadonnées dans le fichier exporté.
4. Spécifiez le nom du fichier source (saisissez-le directement ou cliquez sur
Parcourir
pour le rechercher).
Lorsque vous recherchez le fichier, vous ouvrez une fenêtre de navigateur type.
Recherchez l'un des formats/types de fichiers suivants :
Table 299 :
Format
DI CWM 1.0 XML/XMI 1.1
DI ERwin 4.x XML
Format MIMB (uniquement si installé)
Type de fichier
XML
XML
Tout
Après avoir sélectionné un fichier, cliquez sur
Ouvrir
.
5. Sélectionnez le
Nom de la banque de données source
dans la liste des banques de données.
6. Cliquez sur
OK
pour terminer l'exportation.
19.6 Chargement du fichier de données volumineux avec option de récupération
Le chargement du fichier de données volumineux avec option de récupération est une extension du mécanisme de récupération existant dans Data Services. Les versions précédentes de Data Services prenaient en charge le mécanisme de récupération uniquement jusqu'à la couche de flux de données. Par conséquent, si le moteur s'est bloqué pour un flux de données, tout le flux de données a dû être redémarré depuis le début en mode de récupération.
Cependant, s'il existe des données volumineuses dans le flux de données échoué, le redémarrage du processus engendrera la duplication du travail de nettoyage et de redémarrage. La situation de redémarrage empire si le job doit être interrompu périodiquement (par exemple à cause d'une déconnexion du réseau, d'une expiration de la base de données ou d'un redémarrage de la machine).
Pour éviter cette situation, vous pouvez activer la fonctionnalité de récupération du chargement des données volumineuses lors de la lecture d'un fichier plat source volumineux dans les tables de bases de données. Par exemple, lorsque vous chargez un fichier d'entrée volumineux dans une base de données, il se peut que le job dure plusieurs jours. Si le moteur se bloque ou échoue au cours d'un job, ce dernier peut être repris à partir du dernier point de contrôle échoué. Ce point de contrôle inclut le nom de fichier échoué et le décalage du fichier qui a été traité jusqu'à présent. La fonctionnalité de récupération évite le redémarrage du flux de données et garantit la progression du chargement à partir du point d'échec.
Guide de Designer
Mécanismes de récupération
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
667
19.6.1 Activation de l'option de récupération pour le chargement de données volumineuses
Pour utiliser la fonctionnalité de récupération automatique pour le chargement de données volumineuses, vous devez l'activer lors de l'exécution initiale d'un job. Ainsi, en cas d'échec d'un job, celui-ci peut reprendre à partir du dernier point contrôlé et poursuivre, au lieu de reprendre depuis le début.
Pour exécuter un job de chargement de données volumineuses à partir de Designer avec la récupération activée :
1. Dans la zone de projet, sélectionnez le nom du job.
2. Cliquez avec le bouton droit et sélectionnez
Exécuter
. Le logiciel vous invite à sauvegarder toutes les modifications.
3. Vérifiez que l'option
Activer la récupération
est sélectionnée dans la fenêtre
Propriétés d'exécution
.
Remarque
La case
Activer la récupération
doit être cochée pour que le logiciel enregistre les étapes au cours du job. Si vous ne cochez pas la case et que le job échoue, vous ne pourrez pas le récupérer. Dans ce cas, vous devrez exécuter les opérations de récupération manuellement et relancer le job.
4. Dans la table cible du flux de données qui contient la source du fichier de données volumineuses, contrôlez l'existence d'une clé primaire. S'il n'existe aucune clé, vous pouvez soit ajouter la colonne de clé primaire dans la table cible, soit générer la colonne ID de ligne en tant que colonne de clé primaire dans le fichier source, puis la transmettre aux tables cible.
a. Pour ajouter la clé primaire à la table cible : si le schéma d'origine de la table cible ne comporte pas de clé primaire, activez
Utiliser des clés d'entrée
dans les options de la table cible et assurez-vous que l'entrée dans la table cible a une clé primaire. Par exemple, la colonne ID de ligne que vous avez saisie dans le fichier source peut être transmise à la table cible en tant que clé primaire.
b. Pour générer la colonne ID de ligne pour le fichier source : saisissez un nom de colonne valide dans le champ d'entrée ID DE LIGNE, situé sous
Lecteur de fichiers Général
.
Remarque
Le système ajoute automatiquement un ID de ligne au schéma en tant que première colonne en haut.
Le nom de colonne est le nom que vous avez saisi et la colonne Type de données est double.
Une colonne de clé primaire est requise pour une récupération rapide, car le moteur utilise la correction automatique du chargement pour le dernier job échoué. Si vous ne sélectionnez pas la colonne de clé primaire, la correction automatique du chargement est fortement ralentie. Pour remplacer cette correction lente, vous pouvez ajouter la colonne ID DE LIGNE manuellement si la table cible ne comporte pas de clé primaire.
Data Services active automatiquement la correction automatique du chargement pour le batch de récupération, indépendamment du paramètre cible. De plus, pour HANA, Netezza et Sybase IQ, la correction automatique du chargement du batch de récupération utilise le chargement par lots pour une meilleure performance.
19.6.2 Limitations
Certaines limitations doivent être respectées pour qu'un fichier puisse être chargé en mode de récupération. Le fichier ainsi que le flux de données et le job qu'il contient doit répondre aux critères suivants :
668
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
● Le fichier plat est délimité ou de largeur fixe.
● Le fichier a un séparateur de lignes.
● Le job est exécuté avec
Activer la récupération
.
● Le job n'est pas un job en temps réel.
● Le job est n'est pas exécuté dans le débogueur.
● Le flux de données n'est pas dans un workflow continu.
● Le flux de données n'est pas audité.
● Le flux de données n'est pas un flux de données ABAP.
● Le flux de données ne s'exécute pas en mode de flux de données secondaire.
● Le flux de données ne contient aucun chargeur qui ne se connecte pas au lecteur de fichier.
● Le flux de données ne comporte pas les transformations et fonctions suivantes :
○ Row_Generation
○ Date_Generation
○ gen_row_num
○ gen_row_num_by_group
○ Source CDM
○ Cible incluse dans la transaction.
● L'aval de la source du fichier ne comporte pas les informations suivantes :
○ Transformation Query qui a un ordre par clause
○ Transformation Query qui a un groupe par clause
○ Transformation Query qui sélectionne des lignes distinctes
○ Transformation Query qui a une fonction d'agrégat
○ Transformation Query qui a une jointure dans laquelle le fichier est une source interne
Remarque
Vous pouvez utiliser le classement de jointure pour contrôler le classement de la source liée à d'autres tables et fichiers dans un flux de données. Le système joint les sources ayant des classements supérieurs avant les sources possédant des classements inférieurs.
○ Transformation Hierarchy_Flattening
○ Transformation Table_Comparison
○ Transformation Reverse_Pivot
Remarque
La transformation Reverse_Pivot en aval du gros fichier est autorisée uniquement si l'option "Les données d'entrée sont regroupées" est cochée.
○ Validation
○ Merge
Remarque
La transformation Merge en aval du gros fichier est autorisée uniquement si toutes les entrées de cette transformation proviennent directement ou indirectement du fichier.
○ Transformation Data Quality qui utilise une clé de décomposition, telle que la transformation Match.
○ Soit la table cible a une clé primaire, soit l'entrée dans la table cible a une clé primaire et l'option "Utiliser la clé d'entrée" de la cible est définie sur Oui.
Guide de Designer
Mécanismes de récupération
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
669
Si l'une des conditions ci-dessus n'est pas remplie, le système n'autorise pas la récupération du fichier.
Cependant, cela n'a aucun effet sur les autres fichiers source ou flux de données.
Si le flux de données contient plusieurs sources de fichier, le système sélectionne une seule source à exécuter en mode de récupération.
670
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Mécanismes de récupération
20 Capture de données modifiées
Lorsque vous avez une grande quantité de données à mettre à jour régulièrement et peu de temps d'arrêt système pour la maintenance planifiée d'un entrepôt de données, mettez à jour les données au fil du temps ou effectuez un chargement de delta. L'actualisation complète et la capture des données modifiées (CDM) sont deux méthodes de chargement de delta couramment utilisées.
20.1 Actualisation complète
L'actualisation complète est facile à implémenter et à gérer. Cette méthode garantit qu'aucune donnée ne sera négligée ou perdue en raison d'erreurs techniques ou de programmation. Pour un environnement comportant une quantité de données source gérable, l'actualisation complète est une méthode simple à utiliser pour effectuer un chargement de delta vers un système cible.
20.2 Capture des modifications uniquement
A la fin d'un chargement initial, vous pouvez choisir d'extraire uniquement les données nouvelles ou modifiées et de mettre à jour le système cible.
L'identification et le chargement des seules données modifiées est appelé capture des données modifiées (CDM)
Sont comprises uniquement les données incrémentielles ayant été modifiées depuis le dernier cycle d'actualisation. SAP Data Services agit sous forme de mécanisme pour localiser et extraire uniquement les données incrémentielles ayant été modifiées depuis la dernière actualisation.
L'amélioration des performances et la conservation d'un historique sont les deux motifs les plus importants justifiant l'utilisation de la capture des données modifiées.
● Les performances sont améliorées parce qu'il y a moins de données à extraire, transformer et charger, le job dure habituellement moins longtemps.
● Si le système cible doit suivre l'historique des modifications afin que ces données puissent être correctement analysées au fil du temps, la méthode de capture des données modifiées peut fournir un enregistrement de ces modifications.
Exemple
Si un client déménage d'une région de vente dans une autre, la simple mise à jour de la fiche client pour tenir compte de la nouvelle région affecte toute analyse par région dans le temps, parce que les achats effectués par ce client avant son déménagement sont attribués à la nouvelle région.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
671
20.3 CDM basée sur la source et basée sur la cible
La capture des données modifiées peut être basée sur la source ou la cible.
20.3.1 CDM basée sur la source
La capture des données modifiées basée sur la source extrait uniquement les lignes modifiées de la source. Elle est parfois appelée extraction incrémentielle. Cette méthode est privilégiée parce qu'elle améliore les performances en extrayant le dernier nombre de lignes.
SAP Data Services offre un accès aux données modifiées basées sur la source proposées par divers fournisseurs de logiciels. Le tableau suivant répertorie les sources de données prises en charge ainsi que les produits et techniques de capture des données modifiées.
Table 300 :
Source de données
Oracle 9i et versions ultérieures
Sources de données d'ordinateur central (Adabas, DB2 UDB pour z/OS, IMS, SQL/MP, VSAM, fichiers plats) avec accès via Attunity Connect
Bases de données Microsoft SQL Server
Autres sources
Sources SAP ODP
Produits ou techniques
Utilisez les packages CDM d'Oracle pour gérer les tables CDM.
Ces packages utilisent un modèle de publication et d'abonne ment. Vous pouvez créer une banque de données CDM pour les sources Oracle à l'aide de Designer. Vous pouvez égale ment utiliser Designer pour créer des tables CDM dans Oracle, puis les importer pour les utiliser dans des jobs.
Pour les sources de données d'ordinateur central qui utilisent
Attunity pour se connecter au progiciel, vous pouvez utiliser
Attunity Streams 4.6.
Utilisez le serveur de réplication Microsoft SQL pour capturer les données modifiées des bases de données SQL Server.
Utilisez les champs de date et heure pour comparer les exécu tions de jobs de capture des données modifiées basés sur la source. Cette technique utilise un horodatage de création et/ou modification sur chaque ligne. Vous pouvez comparer les lignes en utilisant comme référence l'heure de la dernière mise à jour. Cette méthode s'appelle CDM basée sur l'horoda tage.
Définissez les critères de filtre CDM lors de l'importation d'une source ODP.
Remarque
L'interface d'extracteurs SAP a été étendue et remplacée par des sources OPD. Consultez le guide Nouveautés pour les sources Operational Data Provisioning [ODP].
SAP Sybase Replication Server Utilisez SAP Sybase Replication Server pour capturer les don nées modifiées.
672
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Informations associées
Utilisation de CDC avec des sources Oracle [page 673]
Utilisation de la CDM avec les sources d'un ordinateur central Attunity [page 687]
Utilisation de la CDM avec les bases de données Microsoft SQL Server [page 710]
Utilisation de la CDM avec des sources basées sur l'horodatage [page 724]
Utilisation de la CDM avec SAP Replication Server [page 694]
20.3.2 CDM basée sur la cible
La capture des données modifiées basée sur la cible extrait toutes les données de la source, mais charge uniquement les lignes modifiées dans la cible.
La capture des données modifiées basée sur la cible est utile quand vous désirez capturer l'historique, mais que vous n'avez pas la possibilité d'utiliser la capture des données modifiées basée sur la source. Le progiciel propose la comparaison de tables pour prendre en charge cette méthode.
20.4 Utilisation de CDC avec des sources Oracle
Utiliser CDC Oracle pour limiter le nombre de lignes lues régulièrement.
Si votre environnement doit garder à jour de grandes quantités de données, la fonctionnalité de CDM (Capture des données modifiées) d'Oracle est une solution simple pour limiter le nombre de lignes devant être lues régulièrement par le progiciel. Une source qui lit uniquement les opérations les plus récentes (INSERT, UPDATE,
DELETE) permet de concevoir des chargements de delta plus légers et plus rapides.
20.4.1 Présentation de la CDM pour les bases de données
Oracle
Avec Oracle 9i ou supérieur, SAP Data Services gère l'environnement CDM en accédant aux packages de publication et d'abonnement d'Oracle. Oracle publie les données modifiées de la table d'origine dans sa table
CDM.
Designer permet de créer ou importer les tables CDM et de créer des abonnements pour accéder aux données de la table CDM. Des abonnements distincts permettent à chaque utilisateur de garder une trace de la dernière ligne modifiée à laquelle il a accédé.
Vous pouvez également activer des points de contrôle pour les abonnements afin que le progiciel lise uniquement les dernières modifications dans la table CDM.
Oracle utilise les termes suivants pour la Capture des données modifiées :
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
673
Table 301 :
Terme
Table des modifications
(CDM)
Set de modifications
Source de modification
Editeur
Mode de publication
Base de données source
Base de données intermé diaire
Abonné
Abonnement
Vue d'abonné
Description
Table relationnelle contenant les données modifiées résultant des opérations DML effectuées sur une table source.
Groupe de tables CDM transactionnellement cohérentes. Par exemple, les tables Commande
Client et PosteVente doivent être dans un set de modifications pour garantir que les modifica tions d'une commande et de ses postes individuels soient capturées ensemble.
Base de données qui contient un ou plusieurs sets de modifications
Personne qui capture et publie les données modifiées. L'éditeur est habituellement un admi nistrateur de base de données qui crée et gère les objets de schéma qui constituent la base de données source et la base de données intermédiaire.
Indique quand et comment capturer les données modifiées. Pour en savoir plus, voir le ta bleau suivant sur les modes de publication.
Base de données de production qui contient les données que vous avez extraites pour votre chargement initial. La base de données source contient les tables source.
Base de données où sont publiées les données modifiées. Selon le mode de publication, la base de données intermédiaire peut être identique ou différente de la base de données source.
Utilisateur pouvant accéder aux données publiées dans les tables CDM.
Contrôle l'accès aux données modifiées d'une ou plusieurs tables source dans un seul set de modifications. Un abonnement contient une ou plusieurs vues d'abonné.
Données modifiées pour lesquelles l'éditeur a accordé le droit d'accès à l'abonné afin de les utiliser.
Oracle prend en charge les modes de publication suivants :
Synchrone
● Les données sont capturées à l'aide de déclencheurs internes dans les tables source afin de stocker les modifications dans les tables CDM.
● Les données capturées sont disponibles en temps réel.
● Les tables CDM doivent se trouver dans la base de données source.
Commentaires :
● Ajoute des données inutiles à la base de données source au moment de la capture.
● Disponible dans Oracle 9i et 10G.
HotLog asynchrone
● Les données sont capturées à l'aide des fichiers redo log ou des journaux d'archives de la base de données source.
● Les données capturées sont disponibles pratiquement en temps réel.
● Un set de modifications contient plusieurs tables CDM et doit se trouver localement dans la base de données.
Commentaires :
● Améliore les performances parce que les données sont capturées hors connexion.
● Disponible uniquement dans Oracle 10G.
674
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
AutoLog asynchrone
● Les données sont capturées à l'aide des fichiers redo log gérés par les services de transport de journal qui automatisent le transfert de la base de données source à la base de données intermédiaire.
● La disponibilité des données capturées dépend de la fréquence des modifications des fichiers redo log dans la base de données source.
● Un set de modifications contient plusieurs tables CDM et peut être distant ou local par rapport à la base de données.
Commentaires :
● Améliore les performances parce que les données sont capturées hors connexion.
● Disponible uniquement dans Oracle 10G.
20.4.1.1 CDM Oracle en mode synchrone
Le diagramme suivant illustre la manière dont les données modifiées sont transférées des tables CDM Oracle vers
SAP Data Services en mode synchrone.
Lorsqu'une transaction modifie une table source, des déclencheurs internes capturent les données modifiées et les stockent dans la table CDM correspondante.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
675
20.4.1.2 CDM Oracle en mode HotLog asynchrone
Le diagramme suivant illustre la manière dont les données modifiées sont transférées des tables CDM Oracle vers
SAP Data Services en mode HotLog asynchrone.
Lorsqu'une transaction modifie une table source, Logwriter enregistre les modifications dans les fichiers log redo en ligne. Les processus des flux Oracle remplissent automatiquement les tables CDM lors de la validation des transactions.
20.4.1.3 CDM Oracle en mode AutoLog asynchrone
Le diagramme suivant illustre la manière dont les données modifiées sont transférées des tables CDM Oracle vers
SAP Data Services en mode AutoLog asynchrone.
676
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Lorsque le journal active la base de données source, Oracle archive le fichier redo log et copie les fichiers redo log en ligne dans la base de données intermédiaire. Les processus des flux Oracle remplissent les tables CDM à partir des fichiers journaux copiés.
Remarque
Le processus d'archivage Oracle requiert une connectivité ininterrompue via Oracle Net pour envoyer les fichiers redo log au serveur de fichiers distant.
20.4.2 Configuration de la CDM Oracle
Configuration système requise pour que le serveur de base de données source Oracle puisse suivre les modifications.
La table suivante répertorie les configurations système requises sur votre serveur de base de données source
Oracle pour le suivi des modifications.
Table 302 :
Conditions requises
Installez les packages CDM d'Oracle.
Notes
Ces packages sont installés par défaut. Toutefois, si un pac kage CDM doit être réinstallé, ouvrez le répertoire Admin d'Oracle, puis recherchez et exécutez le script SQL d'Oracle initcdc.sql
.
● La CDM synchrone est disponible avec Oracle Standard
Edition et Enterprise Edition.
● La CDM asynchrone est disponible avec Oracle Enter prise Edition uniquement.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
677
Conditions requises
Activez Java.
Définissez les droits du propriétaire de la table source
Notes
Activez les droits pour les propriétaires de la banque de don nées
Pour que les tables CDM puissent être créées, purgées et sup primées si nécessaire.
Les droits comprennent les éléments suivants :
● Droits SELECT pour tables CDM
● SELECT_CATALOG_ROLE
● EXECUTE_CATALOG_ROLE
G
Activez les déclencheurs système d'Oracle pour la CDM syn chrone
Pour la CDM AutoLog asynchrone
● L'administrateur de la base de données source doit créer un dictionnaire de données LogMiner pour permettre aux services de transport de journal d'envoyer ce dictionnaire de données à la base de données intermédiaire. Oracle met à jour automatiquement le dictionnaire de données avec toutes les opérations DDL des tables source qui se produisent durant la CDM pour conserver la cohérence entre les tables intermédiaires et les tables source.
● L'administrateur de la base de données source doit éga lement obtenir la valeur du SCN de la version du diction naire de données. Si vous souhaitez utiliser Designer pour créer des tables CDM, vous devez indiquer le SCN dans l'assistant.
● L'éditeur (habituellement l'administrateur de la base de données source) doit configurer les services de transport de journal pour copier les fichiers redo log du système de la base de données source vers le système de la base de données intermédiaire et enregistrer automatiquement les fichiers redo log.
Informations associées
Création de tables CDM Oracle dans le logiciel [page 679]
20.4.3 Création d'une banque de données CDM pour Oracle
Pour accéder aux tables CDM, créez une banque de données CDM à l'aide de Designer. Une banque de données
CDM est une banque de données en lecture seule qui peut uniquement accéder aux tables. Comme pour les autres banques de données, vous pouvez créer, modifier une banque de données CDM et y accéder depuis l'onglet
Banques de données
de la bibliothèque d'objets.
678
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
1. Créez une banque de données de base de données avec l'option
Type de base de données
définie sur Oracle.
2. Cochez la case
CDM
.
3. Sélectionnez une
version Oracle
.
Designer permet uniquement de sélectionner les versions d'Oracle qui prennent en charge les packages CDM.
4. Indiquez le nom de votre base de données intermédiaire (la base de données source des modifications où sont publiées les données modifiées) dans
Nom de la connexion
.
5. Saisissez l'
Utilisateur
et le
Mot de passe
de la base de données intermédiaire, puis cliquez sur
OK
.
Vous pouvez utiliser cette banque de données pour parcourir et importer les tables CDM.
20.4.4 Importation de données CDC dans des tables
Créez d'abord une table CDC dans Oracle pour chaque table source que vous souhaitez lire. Vous pouvez ensuite importer cette table CDC à l'aide de SAP Data Services. Créez des tables CDC de l'une des façons suivantes :
● Utilisez un utilitaire Oracle
● Utilisez Designer Data Services
20.4.4.1 Utilisation des tables CDM existantes
1. Importez une table CDM Oracle en cliquant avec le bouton droit sur le nom de la banque de données CDM dans la bibliothèque d'objets, puis en sélectionnant
Ouvrir
,
Importer par nom
ou
Rechercher
.
Si vous sélectionnez Ouvrir, vous pouvez parcourir la banque de données pour rechercher les tables CDM existantes à l'aide de l'Explorateur de banque de données.
2. Quand vous avez trouvé la table à importer, cliquez dessus avec le bouton droit et sélectionnez
Importer
.
20.4.4.2 Création de tables CDM Oracle dans le logiciel
Le progiciel donne la possibilité de créer des tables CDM Oracle pour tous les modes de publication :
● CDM synchrone
● CDM HotLog asynchrone
● CDM AutoLog asynchrone
1. Dans la bibliothèque d'objets, cliquez avec le bouton droit sur une banque de données CDM et sélectionnez
Ouvrir
.
2. Dans l'Explorateur de banque de données, cliquez avec le bouton droit sur l'espace blanc dans la section
Métadonnées externes
, puis sélectionnez
Nouvelle
.
L'assistant Nouvelle table CDM s'ouvre. L'assistant permet d'ajouter une table CDM.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
679
Remarque
Si l'Explorateur de banque de données s'ouvre et qu'il n'existe aucune table CDM dans votre banque de données, cet assistant s'ouvre automatiquement.
3. Sélectionnez le mode de publication dans la première page de l'assistant.
Si votre base de données source est Oracle 9i, vous ne pouvez sélectionner que le mode synchrone. Les modes asynchrones sont désactivés.
Si votre base de données source est Oracle 10G, l'assistant sélectionne par défaut le mode HotLog asynchrone.
Si votre base de données source utilise le mode de publication AutoLog asynchrone, sélectionnez AutoLog asynchrone et fournissez les informations de connexion à la base de données source suivantes :
Table 303 :
Champ
Nom de la connexion
Nom d'utilisateur
Mot de passe
Description
Nom de la base de données où se trouve la source des modifications. Utilisez le nom du service de la configuration du service Oracle Net.
Nom d'utilisateur de l'administrateur de la base de données source.
Mot de passe de l'utilisateur de la source des modifications.
4. Cliquez sur
Suivant
. La deuxième page de l'assistant s'affiche.
5. Indiquez les informations de la table source sur la deuxième page de l'assistant.
a. Cliquez sur le bouton
Rechercher
pour voir une liste de tables externes non CDM disponibles dans cette banque de données. Pour filtrer une recherche, saisissez les valeurs d'un propriétaire et/ou un nom de table. Vous pouvez utiliser un caractère générique (%) pour effectuer une correspondance de modèle pour les valeurs Nom ou Propriétaire.
b. (Facultatif) Sélectionnez
Obtenir les pré-images
si vous désirez suivre les pré et post-images dans la nouvelle table CDM.
c. Cliquez sur un nom dans la liste des tables renvoyées et cliquez sur
Suivant
pour créer une table CDM en utilisant la table sélectionnée comme table source.
6. Indiquez le
Propriétaire de la table CDM
pour la nouvelle table CDM.
Par défaut, le nom du propriétaire de la nouvelle table CDM est le nom du propriétaire de la banque de données. Le nom du propriétaire de la table source est également affiché dans la zone de liste déroulante des propriétaires de table CDM. Si le nom que vous désirez utiliser n'est pas dans la liste, saisissez un autre nom de propriétaire.
7. Indiquez le
Nom de la table CDM
pour la nouvelle table CDM.
Par défaut, le progiciel génère un nom de table selon la convention suivante : CDM__NomTableSource.
8. Toutes les colonnes sont sélectionnées par défaut. Indiquez les colonnes à inclure ou exclure de la table CDM selon une des méthodes suivantes : supprimez la coche de la case près du nom de chaque colonne à exclure ou bien cliquez sur
Désélectionner tout
et placez une coche près du nom de chaque colonne à inclure.
9. Pour le mode de publication synchrone : a. Cliquez sur
Terminer
. Designer se connecte à l'instance Oracle, crée la table CDM sur le serveur Oracle et importe les métadonnées de la table dans le référentiel. Toutes les tables que le progiciel importe via une banque de données CDM contiennent une colonne qui indique quelle opération effectuer pour chaque
680
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
ligne. Pour une table CDM Oracle, cette colonne s'appelle Operation$. Outre cette colonne, Oracle en ajoute d'autres en créant une table CDM. Ces colonnes ont toutes un signe dollar ($) comme suffixe.
b. Cliquez sur
OK
dans la boîte de dialogue d'information. Celle-ci confirme qu'Oracle a créé une table CDM, puis l'a importée dans le progiciel.
10. Pour le mode de publication asynchrone (HotLog ou AutoLog), cliquez sur
Suivant
.
11. Pour le mode de publication HotLog asynchrone, indiquez les informations du set de modifications dans la quatrième page de l'assistant.
a. Si vous désirez ajouter cette table de modifications à un set de modifications existant afin de conserver la cohérence transactionnelle des modifications avec les tables du set de modifications, sélectionnez un nom dans la liste déroulante de
Modifier le nom du set
. Sinon, vous pouvez créer un set de modifications en saisissant son nom.
b. Sélectionnez
Arrêter la capture sur DDL
si une erreur DDL se produit et que vous ne voulez pas capturer les données.
c. Sélectionnez
Définir la période de rétention
pour activer les zones de texte
Date de début
et
Date de fin
.
d. Cliquez sur
Terminer
.
Designer se connecte à l'instance Oracle, crée la table CDM sur le serveur Oracle et importe les métadonnées de la table dans le référentiel du logiciel. Toutes les tables que le progiciel importe via une banque de données CDM contiennent une colonne qui indique quelle opération effectuer pour chaque ligne. Pour une table CDM Oracle, cette colonne s'appelle Operation$. Outre cette colonne, Oracle en ajoute d'autres en créant une table CDM. Ces colonnes ont toutes un signe dollar ($) comme suffixe.
12. Pour le mode de publication AutoLog asynchrone, indiquez les informations du set de modifications et de la source de modification dans la quatrième page de l'assistant.
a. Si vous désirez ajouter cette table de modifications à un set de modifications existant afin de conserver la cohérence transactionnelle des modifications avec les tables du set de modifications, sélectionnez un nom dans la liste déroulante de
Modifier le nom du set
. Sinon, vous pouvez créer un set de modifications en saisissant son nom.
b. Si vous désirez ajouter cette table de modifications à une source de modification existante, sélectionnez un nom dans la liste déroulante de
Modifier le nom de source
.
c. Pour créer une source de modification, saisissez le nom de la source de modification CDM et le nom de la base de données source. Vous pouvez obtenir ce nom dans la table Global_Name de la base de données source, valeur du SCN de la version du dictionnaire de données.
d. Sélectionnez
Arrêter la capture sur DDL
si une erreur DDL se produit pendant la capture des données et que vous ne voulez pas la poursuivre.
e. Sélectionnez
Définir la période de rétention
pour activer les zones de texte
Date de début
et
Date de fin
.
f. Cliquez sur
Terminer
.
Designer se connecte à la base de données intermédiaire Oracle, crée la table CDM dans la source de modification et importe les métadonnées de la table dans le référentiel du logiciel. Toutes les tables que le progiciel importe via une banque de données CDM contiennent une colonne qui indique quelle opération effectuer pour chaque ligne. Pour une table CDM Oracle, cette colonne s'appelle Operation$. Outre cette colonne, Oracle en ajoute d'autres en créant une table CDM. Ces colonnes ont toutes un signe dollar ($) comme suffixe.
Informations associées
Utilisation des pré-images [page 684]
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
681
20.4.5 Affichage d'une table CDM importée
Pour afficher une table CDM importée :
1. Recherchez votre banque de données CDM dans la bibliothèque d'objets.
2. Développez le dossier
Tables
.
3. Double-cliquez sur un nom de table ou cliquez avec le bouton droit et sélectionnez
Ouvrir
.
Lorsque le progiciel importe une table CDM, il ajoute également deux colonnes au schéma de la table :
DI_SEQUENCE_NUMBER avec le type de données integer et DI_OPERATION_TYPE avec le type de données varchar(1).
Un schéma de table CDM Oracle importée ressemble au suivant :
Cet exemple comporte huit colonnes de contrôle ajoutées à la table d'origine.
● Deux sont générées par le progiciel :
○ DI_SEQUENCE_NUMBER - Contient un entier pour le séquencement.
○ DI_OPERATION_TYPE - Contient le type d'opération de la ligne.
● Six colonnes de contrôle Oracle : OPERATION$, CSCN$, COMMIT_TIMESTAMP$, RSID$, USERNAME$,
TIMESTAMP$
Remarque
Les colonnes de contrôle Oracle varient selon les options ayant été sélectionnées à la création de la table
CDM. Toutes les colonnes de contrôle Oracle se terminant par un signe dollar ($).
Informations associées
682
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Colonne DI_SEQUENCE_NUMBER [page 683]
Colonne DI_OPERATION_TYPE [page 683]
20.4.5.1 Colonne DI_SEQUENCE_NUMBER
La colonne DI_SEQUENCE_NUMBER commence par zéro au début de chaque extraction. Ce champ est incrémenté d'un chaque fois que le progiciel lit une ligne, sauf s'il rencontre une paire de pré et post-images pour une opération UPDATE. La pré-image et la post-image reçoivent le même numéro de séquence. Cette colonne de séquencement fournit un moyen de rassembler les paires d'images si elles sont séparées en raison de la conception du flux de données.
Informations associées
Utilisation des pré-images [page 684]
20.4.5.2 Colonne DI_OPERATION_TYPE
Les valeurs possibles de la colonne DI_OPERATION_TYPE sont :
● I pour INSERT
● D pour DELETE
● B pour une pré-image d'une opération UPDATE
● U pour une post-image d'une opération UPDATE
Lorsque le progiciel lit une ligne d'Oracle, il contrôle les valeurs de la colonne Operation$ et les traduit en ses propres valeurs dans la colonne DI_OPERATION_TYPE.
Table 304 :
Operation$
I
D
UO, UU
UN
D
B
U
I
DI_OPERATION_TYPE
20.4.6 Configuration d'une table source CDM Oracle
Quand vous faites glisser une table de banque de données CDM dans un flux de données, elle devient automatiquement un objet source.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
683
1. Faites glisser une table de banque de données CDM dans un flux de données.
2. Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3. Cliquez sur l'onglet Options CDM.
4. Indiquez une valeur pour le
nom d'abonnement CDM
Pour en savoir plus, consultez le Guide de référence.
20.4.6.1 Utilisation des points de contrôle
Lorsqu'un job de SAP Data Services s'exécute avec les points de contrôle activés, le progiciel utilise le nom d'abonnement de la table source pour lire le plus récent ensemble de lignes ajoutées. Si vous n'activez pas les points de contrôle, le job lit toutes les lignes de la table, ce qui augmente le temps de traitement.
Pour utiliser les points de contrôle, saisissez un nom dans la zone
Nom d'abonnement CDM
de l'Editeur de table source et sélectionnez l'option
Activer le point de contrôle
.
Remarque
Pour éviter les problèmes de corruption de données, ne réutilisez pas les flux de données qui utilisent les banques de données CDM parce que chaque fois qu'une table source extrait des données, elle utilise le même nom d'abonnement. C'est-à-dire que des jobs identiques, selon le moment où ils sont exécutés, peuvent obtenir des résultats différents et laisser des points de contrôle à différents endroits de la table. Par exemple, lorsque vous migrez des jobs CDM de test en production, un scénario de meilleure pratique consisterait à modifier le nom d'abonnement pour le job de production afin que le job de test, s'il est à nouveau exécuté, n'affecte pas les résultats du job de production.
20.4.6.2 Utilisation des pré-images
Si vous voulez récupérer les pré-images des lignes UPDATE avant que l'opération de mise à jour soit appliquée à la source, le progiciel peut développer la ligne UPDATE en deux lignes : une pour la pré-image de la mise à jour et une pour la post-image de la mise à jour. La pré-image d'une ligne de mise à jour est l'image de la ligne avant qu'elle ne soit modifiée et la post-image d'une ligne de mise à jour fait référence à l'image de la ligne après application de la modification.
Comportement par défaut : un lecteur CDM récupère uniquement les post-images. En ne récupérant pas les préimages, moins de lignes passent par le moteur, ce qui permet de diminuer le temps d'exécution du job.
Vous pouvez utiliser les pré-images pour :
● Mettre à jour les clés primaires
Remarque
Dans la plupart cas, lorsque les tables source sont mises à jour, leurs clés primaires n'ont pas besoin d'être actualisées.
● Effectuer les calculs des modifications entre les données des colonnes
684
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Par exemple, vous pouvez calculer la différence entre le nouveau et l'ancien salaire d'un employé en examinant la différence entre les valeurs des champs de salaire.
20.4.6.2.1 Capturer les pré-images des lignes de mise à jour
1. Au moment de la création d'une table CDM, vérifiez que la table CDM Oracle est également configurée pour récupérer les pré-images complètes.
Si vous créez une table CDM Oracle à l'aide de Designer, vous pouvez sélectionner
Obtenir les pré-images
dans ce but.
2. Sélectionnez
Obtenir les pré-images pour chaque ligne de mise à jour
dans l'éditeur source de la table CDM.
Si la table CDM sous-jacente n'est pas correctement configurée, l'activation de l'option Obtenir les préimages pour chaque ligne de mise à jour n'a aucun effet.
Après avoir sélectionné l'option
Obtenir les pré-images pour chaque ligne de mise à jour
, le progiciel traite deux lignes lors de chaque mise à jour. Outre l'impact sur les performances de cette augmentation du volume de données, les paires de pré et post-images peuvent être séparées ou perdues selon la conception de votre flux de données. Cela provoque des problèmes d'intégrité des données.
La transformation Map_CDC_Operation peut résoudre les problèmes, mais des résultats indésirables peuvent toujours se produire en raison d'erreurs de programmation. Lors de l'utilisation de fonctions et transformations qui réordonnent, redirigent, éliminent et multiplient le nombre de lignes dans un flux de données (par exemple, en raison de l'utilisation des clauses GROUP BY ou ORDER BY dans une requête) soyez conscients de l'impact possible sur les cibles.
20.4.7 Création d'un flux de données avec une source CDM
Oracle
Pour utiliser une source CDM Oracle, vous utilisez une transformation Query pour supprimer les colonnes de contrôle Oracle et la transformation Map_CDC_Operation pour interpréter les colonnes de contrôle et appliquer les actions appropriées.
1. Dans le volet
Bibliothèque d'objets Designer
, faites glisser la table CDM Oracle, ainsi que les transformations
Query et Map_CDC_Operation vers la zone de l'espace de travail du flux de données.
Remarque
Un flux de données ne peut contenir qu'une seule source CDM.
2. Configurez la table CDM.
3. Ajoutez la table cible appropriée et connectez les objets.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
685
4. Dans le volet
Zone de projet
, double-cliquez sur une transformation.
L'
Editeur de requêtes
s'ouvre et affiche la transformation.
5. Mappez les colonnes de contrôle
Data Services
et les colonnes de la table source que vous voulez dans la table cible.
La transformation Map_CDC_Operation utilise les valeurs de la colonne de la zone
Colonne d'opération sur ligne
pour exécuter l'opération appropriée sur la ligne source pour la table cible. Pour une table source CDM
Oracle, la colonne DI_OPERATION_TYPE est automatiquement sélectionnée comme Colonne de l'opération sur la ligne.
Les opérations peuvent être INSERT, DELETE ou UPDATE. Par exemple, si l'opération est DELETE, la ligne correspondante est supprimée de la table cible.
Informations associées
Configuration d'une table source CDM Oracle [page 683]
20.4.8 Gestion des tables et abonnements CDM
20.4.8.1 Purge des tables CDM
Purgez régulièrement les tables CDM pour qu'elles ne grossissent pas indéfiniment.
Remarque
Le progiciel ne propose pas cette fonctionnalité. Consultez la documentation Oracle pour savoir comment purger les données qui ne sont plus utilisées par aucun abonné.
20.4.8.2 Suppression des abonnements ou tables CDM Oracle
La fonction de purge d'Oracle ne purge aucune donnée n'ayant pas été lue par tous les abonnements. En conséquence, une bonne pratique consiste à supprimer tous les abonnements qui ne sont plus nécessaires. Vous pouvez supprimer les tables CDM Oracle et leurs abonnements depuis la fenêtre
Explorateur de banque de données
de Designer.
686
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
1. Dans le volet
Bibliothèque d'objets locale
, cliquez avec le bouton droit de la souris sur une banque de données
CDM, puis sur
Ouvrir
.
2. Dans la fenêtre
Explorateur de banque de données
, cliquez sur
Métadonnées du référentiel
.
3. Cliquez avec le bouton droit sur une table, pointez sur
Maintenance CDM
et suivez une de ces méthodes :
○ Pointez sur
Annuler l'abonnement
.
○
Annuler l'abonnement
ouvre la liste des abonnements créés dans le logiciel pour la table sélectionnée.
Les abonnements Oracle sont associés à ces noms d'abonnement. Sélectionnez chaque nom d'abonnement pour le supprimer d'Oracle et du référentiel.
○ Cliquez sur
Supprimer la table
.
○ Cette option supprime la table CDM dans Oracle et dans le référentiel.
20.4.9 Restrictions
Les restrictions suivantes s'appliquent à l'utilisation de la CDM avec les sources Oracle :
● Il est impossible d'utiliser les transformations et fonctions suivantes pour une table source importée avec une banque de données CDM en raison de l'existence des colonnes générées par SAP Data Services pour les tables CDM. Le progiciel ne peut pas comparer ces colonnes ou rechercher leur contenu.
○ Transformations Table_Comparison, Key_Generation et SQL
○ Toutes les fonctions de base de données comme lookup, lookup_ext, key_generation, sql et total_rows
● Une seule source CDM peut être créée dans un flux de données.
● La CDM Oracle capture les instructions DML, y compris INSERT, DELETE et UPDATE. Cependant, la CDM
Oracle ne prend pas en charge les opérations suivantes parce qu'elles désactivent tous les déclencheurs de base de données :
○ Les instructions INSERT en chemin direct
○ L'instruction multi_table_insert en mode DML parallèle
● Si vous utilisez les points de contrôle et exécutez votre job en mode de récupération, le job récupéré commencera à examiner le job au début de la table CDM. Les points de contrôle sont ignorés.
20.5 Utilisation de la CDM avec les sources d'un ordinateur central Attunity
Si votre environnement doit garder à jour de grandes quantités de données, la fonctionnalité CDM d'ordinateur central est une solution simple pour limiter le nombre de lignes devant être lues régulièrement.
Si votre environnement doit garder à jour de grandes quantités de données, la fonctionnalité CDM d'ordinateur central est une solution simple pour limiter le nombre de lignes devant être lues régulièrement. Une source qui lit uniquement les opérations les plus récentes (INSERT, UPDATE, DELETE) permet de concevoir des chargements de delta plus légers et plus rapides.
SAP Data Services capture les données modifiées sur les sources de données d'un ordinateur central Attunity et les applique à un système cible. Le diagramme suivant illustre le chemin emprunté par les données, de la CDM
Attunity à SAP Data Services.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
687
● L'agent CDM d'Attunity surveille dans le journal de la base de données les modifications de certaines tables.
Après la première demande de capture des modifications, l'agent CDM stocke un contexte qu'il utilise comme marqueur pour ne pas capturer à nouveau les modifications antérieures à ce dernier.
● L'agent CDM envoie les données modifiées à une zone intermédiaire facultative. Les avantages d'une zone intermédiaire sont :
○ Une seule analyse de journal peut extraire les modifications de plusieurs tables. Sans zone intermédiaire, plusieurs analyses de journal, une pour chaque table modifiée, sont nécessaires pour extraire les modifications.
○ Extrait uniquement les modifications validées, ce qui représente un traitement moindre que d'extraire chaque modification. Le traitement est également moindre lors de la récupération d'un job échoué parce que le processus de récupération ne nécessite pas de renvoyer les modifications non validées.
Toutefois, une zone intermédiaire implique le stockage et le traitement supplémentaires de données inutiles.
Consultez la documentation CDM Attunity pour en savoir plus.
● La CDM Attunity Connect envoie les modifications aux sources de données CDM via lesquelles le progiciel peut accéder aux modifications à l'aide de connexions standard ODBC ou JDBC.
20.5.1 Configuration de la CDM Attunity
Si vous utilisez actuellement Attunity comme connexion à SAP Data Services pour extraire les données des sources de l'ordinateur central, créez une source de données CDM Attunity dans Attunity Studio. Les étapes suivantes résument la procédure d'utilisation de l'assistant d'Attunity Studio pour créer une source de données
CDM.
● Indiquez votre source de données.
● Selon votre source de données, choisissez une des méthodes suivantes pour capturer les modifications et indiquer l'emplacement du journal :
○ VSAM sous CICS – Par flux de journal CICS
○ DB2 sur les plate-formes OS/390 et z/OS – Par journal DB2
○ DB2 sous OS/400 – Par journal DB400
688
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
○ DISAM sous Windows – Par journal
Pour obtenir une liste complète des sources de données prises en charge, consultez le document CDM
Attunity Connect.
● Sélectionnez un nom pour votre agent CDM.
● Indiquez si vous voulez capturer les pré-images des opérations de mise à jour. Si vous n'indiquez pas cette option dans Attunity Studio, vous ne capturerez pas les pré-images, même si vous sélectionnez l'option
Obtenir une pré-image pour chaque ligne de mise à jour
.
● Sélectionnez les tables pour lesquelles il faut surveiller les modifications.
L'assistant d'Attunity Studio génère les composants suivants que vous devez indiquer dans l'Editeur de banque de données lorsque vous définissez une banque de données CDM Attunity :
● Un nom de source de données CDM que vous indiquez dans l'option
Source de données
. Attunity génère par défaut la source de données CDM sur le même ordinateur que l'agent CDM. Vous avez la possibilité de placer la source de données CDM sur le client (même ordinateur que SAP Data Services). Obtenez le nom de cet ordinateur pour l'indiquer dans l'option
Emplacement de l'hôte
.
● Un espace de travail pour que l'agent CDM gère la file d'attente des événements de capture des modifications.
Vous indiquez le nom de l'espace de travail dans l'option
Espace de travail Attunity
.
Pour en savoir plus, voir la section Configuration de la CDM dans Attunity Connect : la solution de capture des
données modifiées.
20.5.2 Configuration du progiciel pour la CDM sur les sources d'ordinateur central
Pour utiliser SAP Data Services afin de lire et de charger les données modifiées depuis des sources d'ordinateur central en utilisant Attunity, appliquez les procédures suivantes dans Designer :
● Créez une banque de données CDM pour Attunity
● Importez les métadonnées pour les tables d'Attunity
● Configurez une source CDM d'ordinateur central
● Créez des jobs en temps réel utilisant des métadonnées
20.5.2.1 Création des banques de données CDM
L'option de banque de données CDM est disponible pour toutes les interfaces d'ordinateur central pour SAP Data
Services.
Informations associées
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
689
20.5.2.1.1 Création d'une banque de données CDM pour
Attunity
1. Ouvrez l'Editeur de banque de données.
2. Saisissez un nom pour la banque de données.
3. Dans la zone
Type de banque de données
, sélectionnez Base de données.
4. Dans la zone
Type de base de données
, sélectionnez Attunity_Connector.
5. Cochez la case
Activer la CDM
pour activer la fonctionnalité de CDM. Vous pouvez activer la CDM pour les sources de données suivantes : Pour obtenir la liste actuelle des sources de données, consultez le site Web d'Attunity.
○ VSAM sous CICS
○ DB2 UDB pour z/OS
○ DB2 UDB pour OS/400
6. Dans la zone
Source de données
, indiquez le nom de la source de données CDM Attunity. Vous pouvez indiquer plusieurs sources de données pour une banque de données, mais vous ne pouvez pas joindre deux tables CDM. Vous pouvez éventuellement indiquer plusieurs sources de données dans une banque de données Attunity pour faciliter la gestion. Si vous pouvez accéder à l'ensemble des tables CDM via une banque de données Attunity, il est plus facile de créer une banque de données, de saisir les informations de connexion une seule fois et d'importer les tables.
Si vous faites une liste de plusieurs noms de source de données pour une banque de données du connecteur
Attunity, assurez-vous de respecter les conditions suivantes :
○ N'indiquez pas des sources de données standard avec des sources de données CDM dans la même banque de données. Le progiciel importe les données des sources de données Attunity standard différemment des sources de données CDM.
○ Toutes les sources de données Attunity doivent être accessibles avec le même nom d'utilisateur et mot de passe.
○ Toutes les sources de données Attunity doivent utiliser le même espace de travail. Lorsque vous configurez l'accès aux sources de données dans Attunity Studio, utilisez le même nom d'espace de travail pour chaque source de données.
7. Dans la zone
Emplacement de l'hôte
, indiquez le nom de l'hôte qui héberge le démon de la source de données
Attunity.
8. Dans la zone
Port
, indiquez le numéro de port du démon Attunity. La valeur par défaut est 2551.
9. Indiquez le nom de l'espace de travail du serveur Attunity utilisé par l'agent CDM pour gérer la file d'attente des événements de capture des modifications pour la source de données CDM.
10. Renseignez le reste de la boîte de dialogue et cliquez sur
OK
.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les tables de métadonnées dans le référentiel actuel.
Une fois enregistrée, cette banque de données devient une banque de données CDM.
20.5.3 Importation des données CDM de l'ordinateur central.
Après avoir créé une banque de données CDM, vous pouvez l'utiliser pour importer les métadonnées des tables
CDM. Dans la bibliothèque d'objets, cliquez avec le bouton droit sur le nom de la banque de données et
690
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
sélectionnez
Ouvrir
,
Importer par nom
ou
Rechercher
. Pour la CDM de l'ordinateur principal, seules les tables CDM
parcourez les métadonnées externes. Les fonctions et modèles ne sont pas disponibles parce que la banque de données CDM d'Attunity est en lecture seule.
L'opération d'importation de SAP Data Services ajoute les colonnes suivantes à la table d'origine :
Table 305 :
Nom de colonne Type de données Source de la colonne
DI_SEQUENCE_NUMBER
DI_OPERATION_TYPE integer varchar(1)
Généré par SAP Data Services
Généré par SAP Data Services
Contexte
Timestamp
TransactionID
Operation tableName varchar(128) varchar(26) varchar(4) varchar(12) varchar(256)
Fourni par Attunity Streams
Fourni par Attunity Streams
Fourni par Attunity Streams
Fourni par Attunity Streams
Fourni par Attunity Streams
20.5.3.1 Colonne DI_SEQUENCE_NUMBER
La colonne DI_SEQUENCE_NUMBER commence par zéro au début de chaque extraction. Ce champ est incrémenté d'un chaque fois que le progiciel lit une ligne, sauf s'il rencontre une paire de pré et post-images. La pré-image et la post-image reçoivent le même numéro de séquence. Cette colonne de séquencement fournit un moyen de rassembler les paires d'images si elles sont séparées en raison de la conception du flux de données.
Vous pouvez configurer Attunity Streams pour récupérer les pré-images des lignes UPDATE avant que le progiciel n'applique l'opération UPDATE à la cible. Notez que si vous ne configurez pas Attunity Streams pour capturer les pré-images dans la base de données, le progiciel éliminera les lignes. Pour en savoir plus sur les cas où il faut envisager l'utilisation des pré-images, voir
Utilisation des pré-images [page 684]
.
Lors du déroulement du flux de données, si les pré et post-images sont séparées ou réparties en plusieurs lignes
(par exemple, en utilisant des clauses GROUP BY ou ORDER BY dans une requête), vous pouvez perdre l'ordre des lignes.
La transformation Map_CDC_Operation permet de restaurer l'ordre d'origine des paires d'images en utilisant la colonne DI_SEQUENCE_NUMBER comme
Colonne de séquencement
.
20.5.3.2 Colonne DI_OPERATION_TYPE
SAP Data Services génère des valeurs dans la colonne DI_OPERATION_TYPE. Les valeurs valides pour cette colonne sont :
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
691
● I pour INSERT
● D pour DELETE
● B pour une pré-image d'une opération UPDATE
● U pour une post-image d'une opération UPDATE
20.5.4 Configuration d'une source CDM d'ordinateur central
Quand vous faites glisser une table de banque de données CDM dans un flux de données, elle devient automatiquement un objet source.
20.5.4.1 Configuration d'une table CDM d'ordinateur central
1. Faites glisser une table de banque de données CDM dans un flux de données.
La table devient automatiquement un objet source.
2. Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3. Cliquez sur l'onglet Options CDM.
4. Indiquez une valeur pour le
nom d'abonnement CDM
Pour en savoir plus, consultez le Guide de référence.
Informations associées
Utilisation des points de contrôle de l'ordinateur central [page 692]
Utilisation des pré-images [page 684]
20.5.5 Utilisation des points de contrôle de l'ordinateur central
Les agents CDM d'Attunity lisent les sources de l'ordinateur central et chargent les données modifiées dans une zone intermédiaire ou directement dans la source de données CDM. Les lignes de données modifiées s'ajoutent au précédent chargement dans la source de données CDM.
Lorsque vous activez des points de contrôle, un job CDM de SAP Data Services utilise le nom d'abonnement pour lire le plus récent set de lignes ajoutées et pour marquer la fin de la lecture. Si les points de contrôle ne sont pas activés, le job CDM lit toutes les lignes de la source de données CDM d'Attunity et le temps de traitement augmente.
Pour utiliser les points de contrôle, dans l'Editeur de table source, saisissez le
Nom de l'abonnement CDM
et sélectionnez l'option
Activer le point de contrôle
.
Si vous activez les points de contrôle et exécutez votre job CDM en mode de récupération, le job récupéré commence à examiner la source de données CDM au dernier point de contrôle.
692
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Remarque
Pour éviter les problèmes de corruption de données, ne réutilisez pas les flux de données qui utilisent les banques de données CDM parce que chaque fois qu'une table source extrait des données, elle utilise le même nom d'abonnement. C'est-à-dire que des jobs identiques, selon le moment où ils sont exécutés, peuvent obtenir des résultats différents et laisser des points de contrôle à différents endroits du fichier. Lorsque vous migrez des jobs CDM de test en production, un scénario de meilleures pratiques consiste à modifier le nom d'abonnement pour le job de production. Si le job de test est de nouveau exécuté, cela n'affecte donc pas les résultats du job de production.
20.5.5.1 Utilisation des pré-images de sources d'ordinateur principal
Si vous devez capturer des pré-images de lignes de mise à jour.
1. Vérifiez qu'Attunity Streams est configuré pour récupérer des pré-images complètes.
2. Sélectionnez l'option
Obtenir les pré-images pour chaque ligne de mise à jour
dans l'éditeur source de la table
CDM.
Le progiciel sous-jacent de capture CDM basée sur les journaux doit être configuré correctement, sinon, l'activation de l'option Obtenir les pré-images pour chaque ligne de mise à jour dans le progiciel n'a aucun effet.
Après avoir coché l'option
Obtenir les pré-images pour chaque ligne de mise à jour
, le progiciel traite deux lignes pour chaque mise à jour. Outre l'impact sur les performances de cette augmentation du volume de données, les paires de pré et post-images pourraient être séparées ou perdues selon la conception de votre flux de données, ce qui provoquerait des problèmes d'intégrité des données.
La transformation Map_CDC_Operation peut résoudre les problèmes, mais des résultats indésirables peuvent toujours se produire en raison d'erreurs de programmation. Lors de l'utilisation de fonctions et transformations qui réordonnent, redirigent, éliminent et multiplient le nombre de lignes dans un flux de données, soyez conscients de l'impact possible sur les cibles.
Informations associées
Utilisation des pré-images [page 684]
20.5.6 Restrictions
Les restrictions suivantes s'appliquent à cette fonctionnalité :
● Il est impossible d'utiliser les transformations et fonctions suivantes pour une table source importée avec une banque de données CDM en raison de l'existence des colonnes générées par SAP Data Services pour les tables CDM. Le progiciel ne peut pas comparer ces colonnes ou rechercher leur contenu.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
693
○ Transformations Table_Comparison, Key_Generation et SQL
○ Toutes les fonctions de base de données comme lookup, lookup_ext, key_generation, sql et total_rows
● Une seule source CDM peut être créée dans un flux de données.
20.6 Utilisation de la CDM avec SAP Replication Server
Data Services, combiné avec la fonctionnalité de réplication de SAP Replication Server, offre deux mécanismes qui permettent de capturer, transformer et propager des données volumineuses vers un entrepôt de données en temps réel.
L'utilisation combinée de la CDM et de SAP Replication Server est idéale si votre environnement doit maintenir à jour de gros volumes de données avec un minimum d'impact sur les systèmes opérationnels. Les sources CDM
SAP Replication Server dans les flux de données lisent uniquement les opérations les plus récentes (INSERT,
UPDATE, DELETE), ce qui permet de concevoir des chargements delta plus légers et plus rapides.
Les deux méthodes d'utilisation de SAP Replication Server sont les suivantes :
Table 306 :
Méthode
Modélisation SAP PowerAMC
Fonctions intégrées et workflow con tinu
Avantages
Permet une exécution en mode batch pendant les heures creuses pour appliquer les modifications à la base de données cible.
Cette méthode permet d'exploiter les fonctionnalités suivantes :
● Configuration automatique pour la capture des données en temps réel.
● Récupération automatique en cas d'échec d'un job à l'aide de l'option de correc tion automatique du lecteur CDM.
● Fonctionnalités de restauration spécifiques de la file d'attente delta du serveur de réplication. Cette fonctionnalité peut s'avérer utile si la base de données cible est corrompue et que la base de données doit être activée sur le statut actuel après une restauration à partir de la sauvegarde de la base de données cible.
● Transition automatique du chargement initial au chargement delta.
● Fonctionnalité de correction automatique du lecteur permettant au chargeur de charger les données dans la base de données cible à l'aide de l'option de charge ment par lots.
20.6.1 Aperçu de l'utilisation d'un workflow continu et de fonctions
Vous pouvez utiliser SAP Replication Server pour la capture des données modifiées à l'aide d'un workflow continu et de fonctions permettant de capturer les données en temps réel. Cette méthode est une alternative plus simple
à l'utilisation de la modélisation SAP PowerAMC.
Le processus est le suivant :
● Data Services se connecte directement à la base de données source à l'aide de son connecteur natif (la bibliothèque OCI pour Oracle, par exemple) pour :
694
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
○ Importer les métadonnées des tables source dans son référentiel
○ Effectuer le chargement initial de la base de données cible
● Data Services communique avec l'agent de réplication à l'aide de ct_lib pour :
○ Valider les configurations globales requises
○ Marquer les tables source pour réplication
○ Obtenir le mappage des types de données du serveur de réplication sur la base de données source
● Data Services communique avec le serveur de réplication à l'aide de ct_lib pour :
○ Configurer la file d'attente cible
○ Configurer les définitions et abonnements de la réplication pour la base de données source
○ Lire les données CDM de la file d'attente
Le processus d'activation de l'environnement est le suivant :
1. Contrôle de l'installation du logiciel requis.
2. Configuration du serveur et de l'agent de réplication pour fonctionner avec Data Services.
3. Dans Data Services, configuration des connexions à la banque de données et importation des tables à surveiller.
4. Dans Data Services, conception du job CDM à l'aide d'un workflow continu et des fonctions intégrées fournies.
20.6.1.1 Configuration requise
Pour permettre la capture des données modifiées à l'aide des fonctions intégrées de SAP Replication Server et
Data Services avec un workflow continu, assurez-vous d'avoir installé les composants suivants :
Table 307 :
Composant
SAP Replication Server
Fonction
Capture les données modifiées de la base de don nées source et les stocke dans des files d'attente sur le serveur de réplication où elles peuvent en suite être récupérées par un job Data Services.
Référence
Voir la documentation en ligne
SAP Sybase à l'adresse sui vante : http://infocen ter.sybase.com/help/index.jsp
Agent de réplication
Data Services Designer
Communique entre la base de données source et le serveur de réplication.
Pour en savoir plus sur la base de données source, voir le
Guide de la base de données principale de l'agent de réplica
tion (documentation en ligne
SAP Sybase).
Sert à concevoir le workflow continu pour capturer les données modifiées.
20.6.1.2 Configuration du serveur et de l'agent de réplication
Lorsque vous utilisez le serveur de réplication et l'agent de réplication pour CDM, suivez la procédure ci-dessous :
En règle général, il est recommandé d'utiliser une instance dédiée du serveur de réplication/de l'agent de réplication hétérogène pour capturer les données modifiées, car les jobs Data Services gèrent leurs propres
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
695
configurations. Pour exécuter une configuration automatique, les jobs suspendent/reprennent l'agent de réplication hétérogène et les connections de rétention de l'opération.
Serveur de réplication
● Définissez le jeu de caractères du serveur de réplication sur UTF8.
● Data Services doit pouvoir se connecter directement au serveur de réplication principal pour gérer les configurations de la file d'attente des connections de rétention de l'opération, la définition et l'abonnement de la réplication et pour utiliser les données modifiées de la file d'attente.
● L'utilisateur Data Services qui se connecte au serveur de réplication doit disposer des autorisations suivantes :
○ connecter la cible
○ créer un objet
○ souscrire à un abonnement primaire
● Il est recommandé que le fichier journal du serveur de réplication ne soit pas placé dans le même système de fichiers que le fichier de partition, car de gros volumes de données répliquées dans la partition pourraient interférer avec la taille du fichier journal. Vous pouvez modifier l'emplacement du fichier journal comme suit :
○ rs_init : modifiez le paramètre rs.rs_rs_errorlog. Par exemple : rs.rs_rs_errorlog : /home/user/ sample_repserver/sample_rs.log
○ Si vous utilisez le fichier RUN pour lancer le serveur de réplication, modifiez-le pour changer l'emplacement du journal. Par exemple : -E/home/user/sample_repserver/sample_rs.log
● Sur le serveur de réplication, vous pouvez configurer une partition qui s'étend automatiquement. Par exemple : create auto partition path partition2 on '/home/.../partition2' with auto expand size = 1024 max size = 10240
La partition logique partition2 est créée dans un répertoire appelé partition2. Si besoin, un fichier de partition de 1 024 Mo est créé sous partition2 jusqu'à ce que la limite soit atteinte. Pour contrôler une partition automatique sur le serveur de réplication : admin auto_part_path
Pour en savoir plus sur l'utilisation de cette fonctionnalité, voir le Manuel de référence du serveur de
réplication.
● Pour accéder à des instructions générales sur le dimensionnement, consultez le dernier guide relatif au dimensionnement du serveur de réplication.
Agent de réplication
● Data Services requiert l'utilisateur et le mot de passe d'administrateur pour se connecter à l'agent de réplication hétérogène.
● L'utilisateur de l'agent de réplication SAP ASE doit être affecté au rôle rs_replication.
696
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Remarque
Data Services modifie la configuration globale et les configurations au niveau des tables requises pour capturer et traiter les données modifiées.
Dépannage
Si la réplication ne se déroule pas comme prévu, vérifiez les points suivants :
● Vérifiez le journal de l'agent de réplication pour déterminer si l'agent est en cours d'exécution et quelle en est la raison s'il ne l'est pas.
● La partition sur le serveur de réplication est pleine. Dans le journal du serveur de réplication, recherchez les messages tels que :
SQM_ADD_SEGMENT ('102:1'): Going to wait for a segment to be freed.
Administrative action is needed
Pour résoudre ce problème, exécutez la commande suivante sur le serveur de réplication : alter partition <partition name> expand size = <number of segments>
Pour vérifier l'espace disque actuel : admin disk_space
● La mémoire est insuffisante sur le serveur de réplication. Dans le journal du serveur de réplication, recherchez les messages tels que :
Replication Agent for rao21.orcl1 is sleeping due to memory controls (EXEC threshold '90 percent') being triggered.
Pour résoudre ce problème, exécutez la commande suivante sur le serveur de réplication : configure replication server set memory_limit to '<N megabytes>' :
Pour vérifier l'utilisation de la mémoire actuelle : admin stats, mem_in_use
● Si vous utilisez la base de données système du serveur de réplication intégré (ERSSD) comme source et que vous vous apercevez qu'elle consomme une quantité importante de mémoire physique, vous pouvez limiter la taille de la mémoire cache à l'aide du commutateur –ch SQL Anywhere.
1. Fermez l'instance du serveur de réplication.
2. Ouvrez le fichier <rs_instance_name>.cfg de l'instance du serveur de réplication (SAMPLE_RS.cfg, par exemple) et ajoutez le paramètre erssd_start_cmd pour indiquer la commande à utiliser pour lancer la base de données ERSSD (le paramètre erssd_start_cmd vous permet de spécifier une commande différente pour lancer ERSSD). L'exemple suivant montre comment modifier la configuration par défaut de la base de données ERSSD SQL Anywhere pour limiter la taille de la mémoire cache à 1 Go pour la base de données ERSSD existante.
erssd_start_cmd=$SYBASE/$SYBASE_REP/ASA16/bin/dbspawn -f -q dbsrv16 -s none ti 0 -x
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
697
"tcpip(PORT=11751;DOBROAD=NO;BLISTENER=NO)" -ch 1g -o $SYBASE/$SYBASE_REP
/samp_repserver/errorlog/SAMPLE_RS_ERSSD.out $SYBASE/$SYBASE_REP/ samp_repserver/dbfile/SAMPLE_RS_ERSSD.db
3. Redémarrez l'instance du serveur de réplication.
Pour en savoir plus sur le paramètre erssd_start_cmd, voir le Guide de configuration du serveur de réplication.
20.6.1.3 Création de la banque de données CDM
Cette procédure décrit comment créer une banque de données pour utiliser le serveur de réplication en vue de capturer les données modifiées dans les bases de données source (principales) prises en charge.
Vous devez ajouter une connexion de la banque de données source vers la base de données source (principale) et importer les tables source concernées.
1. Dans l'onglet
Banques de données
de la bibliothèque d'objets, ouvrez l'éditeur de banque de données (cliquez avec le bouton droit de la souris et sélectionnez
Nouveau
).
2. Saisissez un nom pour la banque de données.
3. Pour le
Type de banque de données
, sélectionnez
Base de données
.
4. Pour le
Type de base de données
, sélectionnez la base de données source.
5. Dans la zone de liste déroulante en regard du type de base de données, sélectionnez
Serveur de réplication
CDM
.
6. Sélectionnez la
Version de la base de données
.
7. Saisissez le
Nom du serveur de la base de données
.
8. Saisissez un
Nom d'utilisateur
et un
Mot de passe
de base de données.
9. Cliquez sur
Avancé
et saisissez les valeurs CDM suivantes :
Option
Nom du serveur de réplication
Description
Le nom du serveur de réplication doit correspondre à celui défini dans le fichier d'interface sql.ini
.
De plus, le nom doit correspondre au nom du serveur de réplication auquel l'agent de réplication est connecté.
Nom d'utilisateur du serveur de répli cation
L'utilisateur du serveur de réplication doit être autorisé à créer un objet, sou scrire à un abonnement primaire et connecter la cible.
Mot de passe du serveur de réplication Le mot de passe pour accéder au système.
Période de rétention Définissez la valeur correspondant à la propriété save_interval de connexion au serveur de réplication en minutes.
Par exemple, si l'intervalle de sauvegarde de votre base de données cible est de
24 heures, définissez la période de rétention sur 24 x 60 = 1 440 pour définir le nombre équivalent de minutes pendant lesquelles conserver les données modi fiées au cours des dernières 24 heures.
Nom de l'agent de réplication Le nom de l'agent de réplication doit correspondre à celui défini dans le fichier d'interface sql.ini
.
698
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Option Description
Nom d'utilisateur de l'agent de réplica tion
L'utilisateur de l'agent de réplication doit être un utilisateur de type "sa". S'il uti lise la base de données source SAP ASE, l'utilisateur de l'agent de réplication doit être affecté au rôle "replication_role".
Mot de passe de l'agent de réplication Le mot de passe pour accéder au système.
10. Cliquez sur
Appliquer
ou sur
OK
pour enregistrer la banque de données.
20.6.1.4 Création du flux de données
Cette procédure décrit comment créer un flux de données en vue de capturer les données modifiées à l'aide des fonctions intégrées et d'un workflow continu.
● Vous devez ajouter une connexion de la banque de données source vers la base de données source
(principale) et importer les tables source concernées.
● Vous devez ajouter une banque de données CDM et importer la ou les tables correspondantes.
1. Ajoutez un nouveau job.
2. Ajoutez une variable globale intitulée, par exemple, $initialload avec une valeur par défaut de 0.
3. Ajoutez une expression conditionnelle (intitulée initial_load, par exemple) avec les paramètres suivants : a. If $initialload = 1 b. Ajoutez un script intitulé, par exemple, initialloadCCDmarker.
c. Dans le script, ajoutez un appel à la fonction prédéfinie begin_initial_load().
d. Ajoutez un flux de données intitulé, par exemple, initial_load.
e. Ouvrez le flux de données et ajoutez la table source initiale comme source.
f. Complétez le flux de données en ajoutant une cible (les transformations supplémentaires sont facultatives).
g. Ouvrez les options du chargeur et sélectionnez
Supprimer les données de la table avant le chargement
.
4. Retournez dans le job et ajoutez un workflow continu.
5. Ouvrez le workflow continu.
a. Ajoutez un script intitulé, par exemple, MarkBeginCDCLoad.
b. Dans le script, ajoutez un appel à la fonction prédéfinie begin_delta_load().
6. Ajoutez un flux de données CDM : a. Ajoutez une table CDM de la banque de données CDM correspondant à la table source utilisée dans le flux de données initial_load.
Dans l'éditeur source, vous pouvez sélectionner
Activer la correction automatique
. Cette option peut être utile lorsque le chargeur peut identifier des enregistrements de la table source dans la base de données cible à l'aide de clés dans la table source pour exécuter des opérations de correction automatique générées par le lecteur.
a. Ajoutez une transformation Map_CDC_Operation.
b. Ajoutez une cible et connectez les objets.
7. Lorsque vous exécutez le job pour la première fois, accédez à l'onglet
Variable globale
et définissez la variable
$initialload sur 1 pour initialiser (ou réinitialiser) la banque de données cible.
Les données modifiées sont répliquées dans la cible.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
699
Si la base de données cible est corrompue en raison d'une erreur, vous pouvez restaurer les enregistrements modifiées des transactions en souffrance du serveur de réplication. Utilisez la fonction intégrée de Data Services restore_repserver_cdb_backlogged_transactions.
20.6.2 Présentation de la méthode de modélisation SAP
PowerAMC
Vous pouvez utiliser SAP Replication Server pour la capture des données modifiées à l'aide de la modélisation
SAP PowerAMC. Cette méthode constitue une alternative à l'utilisation des fonctions intégrées avec un workflow continu.
À l'aide du modèle de mouvements de données de SAP PowerAMC, Data Services gère l'environnement CDM en créant une base de données intermédiaire CDM ainsi que des définitions et abonnements de réplication SAP
Replication Server. Lors du déploiement des définitions et abonnements de réplication ainsi que des définitions de la base de données intermédiaire CDM, SAP Replication Server publie les données modifiées de la table source dans sa table CDM correspondante figurant dans la base de données intermédiaire CDM. La source de la table
CDM dans le flux de données Data Services lit les données modifiées les plus récemment à partir du dernier point de contrôle depuis la table CDM et les applique à la cible. Le diagramme suivant illustre le flux des données modifiées du serveur de réplication vers Data Services.
700
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
20.6.2.1 Configuration requise
Pour activer la capture des données modifiées à l'aide de SAP Replication Server et de la modélisation SAP
PowerAMC, assurez-vous d'avoir installé les composants suivants.
Table 308 :
Composant de conception
SAP PowerAMC
Data Services Designer
Fonction
Outil de modélisation pour la création des défini tions de réplication, des abonnements pour SAP
Replication Server et des définitions de la base de données intermédiaire CDM Data Services. Vous avez besoin de cet outil ainsi que de Data Services
Designer pour modéliser le système source con formément au flux de données CDM du système cible.
Référence http://infocenter.sybase.com/ help/index.jsp?topic=/ com.sybase.infocenter.help.pd.
16.5/doc/html/title.html
Permet de concevoir le flux de données pour la transformation des données modifiées avant l'ap plication au système cible.
Table 309 :
Composants d'exécution
SAP Replication Server
Fonction
Capture les données modifiées dans la base de données source et les publie dans la base de don nées intermédiaire CDM Data Services.
Référence http://infocenter.sybase.com/ help/topic/com.sybase.info center.help.rs.15.7.1/title.htm
outil isql
SAP ASE
SAP ASEPlanificateur des jobs
Job Server de Data Services
Déploie les définitions de réplication et les abonne ments sur le serveur de réplication en activant les tables source des bases de données source pour la réplication et crée les définitions de base de données CDM Data Services dans la base de don nées intermédiaire.
Guide de l'utilitaire SAP Sybase
Adaptive Server Enterprise
Fractionne les données modifiées CDM Data
Services.
http://infocenter.sybase.com/ help/index.jsp?topic=/ com.sybase.infocen ter.help.ase.15.7/title.htm
Purge les anciennes données modifiées dans la base de données intermédiaire CDM (partie de la gestion de l'environnement CDM).
Remarque
Installez l'agent de planifica tion des jobs dans le cadre de SAP ASE 15.7.1.
Transforme les données modifiées et les charge dans la cible.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
701
20.6.2.2 Modélisation du processus de réplication pour la base de données intermédiaire CDM Data Services
PowerAMC automatise le processus de configuration du serveur de réplication SAP Sybase qui inclut le marquage de la table source comme répliquée, la création des définitions et abonnements de réplication et la définition de la base de données intermédiaire CDM Data Services.
Remarque
La table de la base de données source à répliquer doit comporter une clé primaire.
Les étapes suivantes résument la procédure de modélisation du processus de réplication pour la base de données intermédiaire CDM Data services dans PowerAMC :
1. Supprimez le fichier SybaseRepServerDataServicesCDC100.xem de l'emplacement d'installation Data
Services %
<DS_COMMON_DIR> %/ext/cdc dans le dossier de PowerAMC
Fichiers de ressources
Définitions de modèle étendues
.
Remarque
L'extension PowerAMC Data Services fait partie du package Data Services.
2. Créez un modèle de mouvement de données dans PowerAMC en sélectionnant
Modèle Nouveau
Modèle de mouvement de données
. Saisissez le
Nom du modèle
et, sous
Extensions
, sélectionnez
Serveur de réplication 15.5
dans la liste déroulante.
3. Liez-y l'
extension SAP Data Services CDC 14.2.0
. Pour ce faire, accédez à
Modèle Extensions Liste des extensions
. Cliquez sur l'icône de lien d'une extension et sélectionnez l'
extension SAP Data Services
CDC 14.2.0
.
Remarque
Cette extension fonctionne uniquement avec la modélisation de mouvements de données de serveur de réplication 15.7.
4. Exécutez l'
Assistant de réplication
de PowerAMC en sélectionnant
Outils Assistant de réplication
. Le processus du serveur de réplication, le modèle de données physique source et le modèle de données physique sont créés.
Remarque
L'Assistant de réplication exécute une rétroconception des bases de données source pour importer les objets de base de données dans le modèle de mouvements de données. Ne choisissez que des tables et les propriétés de table suivantes : Clés primaires, Clés étrangères, Clés alternatives et index pour créer le modèle de base de données physique répliquée.
5. Dans la fenêtre
Sélection de publication
, dans la boîte de dialogue
Assistant de réplication
, sélectionnez
Créer ou sélectionner une publication individuelle pour regrouper les tables répliquées
puis sélectionnez le type de réplication
Définitions de réplication
.
702
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Remarque
Lorsque l'assistant de réplication se termine, PowerAMC crée les définitions de réplication par défaut
(appelées Articles) et le modèle de données physiques pour la base de données distante avec toutes les tables sélectionnées dans le modèle de données physiques source et les colonnes et propriétés de table correspondantes.
6. Dans l'
Assistant de réplication
, dans l'écran
Sélection à distance du modèle de données physiques
, sélectionnez le
SGBD Sybase AS Enterprise 15.7
.
7. Enregistrez le modèle de mouvements de données et le modèle de données physiques.
8. Sélectionnez l'icône de processus de réplication dans le diagramme du modèle de mouvement de données et sélectionnez
Ajouter des définitions CDM Data Services
dans le menu contextuel pour exécuter l'extension
Data Services et créer ce qui suit : a. les définitions de réplication CDM b. les tables intermédiaires CDM c. les tables système CDM (DS_CDC_TABLES_MAP, DS_CHANGE_RETENTION et
DS_PURGE_TIMESTAMP) d. l'utilisateur SAPDS
Remarque
La sélection automatique de l'option
Ajouter des définitions CDM Data Services
modifie le propriétaire des tables répliquées, la procédure stockée de purge, la table intermédiaire CDM et les tables système CDM par SAPDS. Cela définit le nom de la table intermédiaire CDM comme étant le même que le celui de la table distante de l'article avec le suffixe "_SAPCDC". Cela crée ou remplace les chaînes de fonction : rs_delete, rs_insert, rs_update et rs_get_textptr pour les colonnes Blob. La table intermédiaire CDM définit les colonnes supplémentaires s'ajoutant aux colonnes RemoteTable pour stocker les variables système du serveur de réplication :
Table 310 :
Chaîne de fonction
DS_SRCDB
DS_SRCDB_SRV
DS_SRCDB_ID
Son rôle stocke la variable système «rs_origin_db» stocke la variable système «rs_origin_ds» stocke la variable système «rs_origin»
DS_SRCDB_COMMIT_TIME stocke la variable système «rs_origin_commit_time»
DS_SRCDB_ORIGIN_QID stocke «rs_origin_qid»
DS_SRCDB_OP_TYPE stocke les types d'opération de modification«I» : insérer, «B» : pré-image de mise à jour, «U» : post-image de mise à jour, «D» : supprimer.
DS_CDCDB_PUBLISH_TIME stocke la date et l'heure de publication de la base de données CDM lorsque l'enregis trement est inséré par le serveur de réplication.
La commande
Ajouter des définitions CDM Data Services
définit également les attributs de la «Table intermédiaire CDM» avec le nom de la table intermédiaire CDM pour chaque article.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
703
De plus, l'extension
SAP Data Services CDC 14.2.0
ajoute deux attributs étendus, "Période de rétention" et
"Table intermédiaire CDM", à l'objet Article. La valeur par défaut des attributs étendus "Période de rétention" est de 14 jours. Cette valeur peut être modifiée.
20.6.2.3 Configuration de l'environnement
Le processus suivant décrit comment configurer Data Services et le serveur de réplication pour capturer les données modifiées à l'aide de la méthode de modélisation SAP PowerAMC.
1. Créez la base de données intermédiaire CDM Data Services sur le serveur SAP ASE.
2. Configurez le serveur de réplication pour ajouter les bases de données source et la base de données intermédiaire CDM.
3. Configurez l'environnement d'exécution de la base de données intermédiaire CDM Data Services sur le serveur SAP ASE.
4. Déployez les définitions et abonnements de réplication sur le serveur de réplication.
5. Configurez l'environnement d'exécution des bases de données principales.
20.6.2.3.1 Création de la base de données intermédiaire CDM
Data Services sur le serveur SAP ASE
La procédure suivante décrit comment créer une base de données intermédiaire CDM Data Services sur le serveur SAP ASE.
1. Connectez-vous en tant qu'administrateur de base de données et créez une base de données correspondant au nom de la base de données intermédiaire CDM Data Services, conformément au modèle de mouvements de données de PowerAMC.
2. Créez un utilisateur de connexion SAPDS. Verrouillez cet utilisateur pour empêcher la connexion.
Remarque
Cet utilisateur est destiné à la CDM Data Services et ne doit être utilisé à aucune autre fin. Tous les objets de la base de données intermédiaire Data Services sont la propriété de l'utilisateur SAPDS.
3. Sélectionnez le modèle de données physiques de la base de données intermédiaire Data Services dans le modèle de mouvements de données de PowerAMC et cliquez avec le bouton droit de la souris sur le contexte pour sélectionner
Générer une base de données
et générer le script DLL de la base de données CDM.
Remarque
Cette opération génère automatiquement les DLL de tous les objets de la base de données nécessaires à la base de données intermédiaire CDM Data Services.
4. Vérifiez le script de base de données CDM généré sous forme de fichier.
704
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
5. Déployez le script DDL à l'aide de l'outil isql. Saisissez le code : isql-Usa-Ppwd -Spds -Dpdb -i DS_CDC_staging_DDL_script.sqloDS_CDC_staging_DDL_script.out
où :
○
<sa>
est le nom de connexion de l'administrateur système sur le serveur de données intermédiaire CDM
Data Services.
○
<pwd>
est le mot de passe correspondant au nom de connexion de l'administrateur système.
○
<pds>
est le nom du serveur de données intermédiaire CDM Data Services.
○
<pdb>
est le nom de la base de données intermédiaire CDM Data Services.
20.6.2.3.2 Configuration du serveur de réplication pour ajouter les bases de données source et la base de données intermédiaire CDM
La procédure suivante décrit comment configurer le serveur de réplication pour ajouter une base de données source et une base de données intermédiaire CDM.
1. Ajoutez la base de données source et la base de données intermédiaire CDM au fichier d'interface de l'hôte du serveur de réplication.
2. Exécutez rs_init pour ajouter la base de données source et la base de données intermédiaire CDM.
20.6.2.3.3 Configuration de la base de données intermédiaire
CDM Data Services sur le serveur SAP ASE
La procédure suivante décrit comment configurer la base de données intermédiaire CDM Data Services sur le serveur SAP ASE.
1. Sélectionnez le modèle de données physiques de la base de données intermédiaire Data Services dans le modèle de mouvements de données de PowerAMC et cliquez avec le bouton droit de la souris sur le contexte pour sélectionner
Générer un script
.
2. Sélectionnez l'extension
SAP Data Services CDC 14.2.0
dans la boîte de dialogue. Un fichier de script est généré avec le suffixe _DataServices_CDC_DB_Runtime_Script.sql. Ce fichier crée l'environnement d'exécution de la base de données intermédiaire CDM Data Services et fournit les fonctionnalités suivantes : a. Vérification de l'ajout de la base de données intermédiaire au serveur de réplication via l'utilitaire rs_init.
b. Vérification de l'exécution du script de création de la base de données intermédiaire CDM Data Services.
c. Création de l'utilisateur de maintenance du serveur de réplication défini dans le modèle de mouvements de données (si cet utilisateur n'a pas encore été créé). Vous pouvez changer de mot de passe après la création à des fins de protection contre l'accès non autorisé.
d. Ajout de l'utilisateur de maintenance à la base de données.
e. Ajout du nom de la table cible et du nom de la table intermédiaire CDM à la table DS_CDC_TABLES_MAP pour chaque définition de réplication.
f. Ajout du nom de la table intermédiaire CDM et de la période de rétention à la table
DS_CHANGE_RETENTION pour chaque définition de réplication.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
705
g. Octroi de droits de sélection, d'insertion, de mise à jour et de suppression sur les tables intermédiaires
CDM.
h. Octroi de droit d'exécution sur la procédure stockée PURGE_OLD_CHANGE_DATA.
i. Octroi à l'utilisateur de maintenance du serveur de réplication du droit d'exécution du job planifié
PURGE_OLD_CHANGE_DATA dans la base de données du planificateur des jobs SAP ASE.
j. Création d'un job planifié PURGE_OLD_CHANGE_DATA dans la base de données du planificateur des jobs
SAP ASE. Le nom du job est le suivant : SAPDS_
<nom de la base de données intermédiaire
CDM>
_PURGE_CHANGE_OLD_DATA.
3. Déployez le script DDL à l'aide de l'outil isql.
L'utilisateur de la base de données qui se connecte doit être un superutilisateur. Saisissez le code : isql –Usa -Ppwd -Spds -Dpdb -i DS_CDC_staging_Runtime script.sql -o
DS_CDC_staging_Runtime_script.out
où :
○
<sa>
est le nom de connexion de l'administrateur système sur le serveur de données intermédiaire CDM
Data Services.
○
<pwd>
est le mot de passe correspondant au nom de connexion de l'administrateur système.
○
<pds>
est le nom du serveur de données intermédiaire CDM Data Services.
○
<pdb>
est le nom de la base de données intermédiaire CDM Data Services.
20.6.2.3.4 Déploiement des définitions et abonnements de réplication sur le serveur de réplication
La procédure suivante décrit comme déployer des définitions et abonnements de réplication sur le serveur de réplication.
1. Sélectionnez le processus de réplication dans le modèle de mouvements de données de PowerAMC et cliquez avec le bouton droit de la souris sur le contexte pour sélectionner
Générer un script
.
2. Définissez la valeur
Créer une connexion
sur
false
dans la boîte de dialogue et cliquez sur
OK
pour générer les définitions de réplication, les abonnements des définitions des chaînes de fonction CDM et le fichier de script
RCL du serveur de réplication.
Remarque
Il est recommandé de créer une connexion à la base de données à l'aide de l'outil rs_init.
3. Déployez le script RCL à l'aide de l'outil isql sur le serveur de réplication que vous avez configuré pour la base de données intermédiaire CDM et les bases de données source.
L'utilisateur du serveur de réplication qui se connecte doit être un superutilisateur. Saisissez le code :
isql –Usa -Ppwd -Spds -Dpbd -i RCL_script.sql -o RCL_script.out
où :
○
<sa>
est le nom de connexion de l'administrateur système sur le serveur de données intermédiaire CDM
Data Services.
○
<pwd>
est le mot de passe correspondant au nom de connexion de l'administrateur système.
706
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
○
<pds>
est le nom du serveur de données intermédiaire CDM Data Services.
○
<pdb>
est le nom de la base de données intermédiaire CDM Data Services.
20.6.2.3.5 Configuration de l'environnement de la base de données principale
La procédure suivante décrit comment configurer l'environnement de la base de données principale.
1. Sélectionnez la base de données principale dans le modèle de mouvements de données de PowerAMC, cliquez avec le bouton droit de la souris sur le contexte pour sélectionner
Générer un script
et sélectionnez
Serveur de réplication 15.7
. Trois fichiers de script sont générés.
2. Sélectionnez le fichier de script contenant la commande de procédure stockée sp_setreptable.
3. Vérifiez le script pour vous assurer que le paramètre owner_on est défini pour les éléments dont le nom de table principale est qualifié par le propriétaire.
L'extension SAP Data Services CDC 14.2.0 active l'attribut de propriétaires multiples pour toutes les tables principales qualifiées par le propriétaire.
4. Déployez ces scripts à l'aide de l'outil isql et de l'outil de base de données source correspondant pour créer des droits et les octroyer aux utilisateurs.
L'utilisateur de la base de données qui déploie les scripts doit être un superutilisateur. Saisissez le code : isql –Usa -Ppwd -Spdb -Dpdb -i Primary_database_Runtime script.sql -o
Primary_database_Runtime script.out où :
○
<sa>
est le nom de connexion de l'administrateur système sur le serveur de données intermédiaire CDM
Data Services.
○
<pwd>
est le mot de passe correspondant au nom de connexion de l'administrateur système.
○
<pds>
est le nom du serveur de données intermédiaire CDM Data Services.
○
<pdb>
est le nom de la base de données intermédiaire CDM Data Services.
Les tables principales sont marquées comme réplicables et les données modifiées peuvent être capturées par l'agent de réplication et propagées par le serveur de réplication.
20.6.2.4 Configuration de SAP BusinessObjects Data Services
Pour utiliser Data Services en vue de lire et charger les données modifiées à partir du serveur de réplication SAP
Sybase à l'aide de la modélisation PowerAMC, appliquez les procédures suivantes dans Designer.
● Créez une banque de données CDM.
● Importez les métadonnées pour les tables de SAP Replication Server.
● Créez et définissez un flux de données.
● Configurez une source CDM.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
707
20.6.2.4.1 Création d'une banque de données CDM et importation des métadonnées de table
Cette procédure décrit comment créer une banque de données CDM à l'aide de SAP Replication Server. Pour accéder à la source, créez une banque de données CDM à l'aide de Designer. Une banque de données CDM est une banque de données en lecture seule qui peut uniquement accéder aux tables. Après avoir créé la banque de données CDM, vous l'utilisez pour importer les métadonnées de table CDM.
1. Dans l'onglet
Banques de données
de la bibliothèque d'objets, ouvrez l'éditeur de banque de données.
2. Saisissez un nom pour la banque de données.
3. Pour le
Type de banque de données
, sélectionnez
CDM RepServer
.
4. Pour le
Type de base de données
, sélectionnez
SAP ASE
.
5. Sélectionnez la
Version de la base de données
.
6. Saisissez le
Nom du serveur de la base de données
.
7. Saisissez un
Nom de base de données
.
8. Saisissez un
Nom d'utilisateur
et un
Mot de passe
de base de données.
9. Pour créer plusieurs configurations pour cette banque de données, cliquez sur
Appliquer
, puis sur
Modifier
et entrez les détails de configuration.
Remarque
Il est impossible de modifier le type de base de données, la version ou la méthode CDM.
10. Cliquez sur
OK
.
11. Pour importer les tables, cliquez avec le bouton droit de la souris sur le nom de la banque de données dans la bibliothèque d'objets et sélectionnez
Ouvrir
,
Importer par nom
ou
Rechercher
.
Seules les tables CDM sélectionnées lors de la configuration de SAP Replication Server pour le CDM sont visibles lorsque vous parcourez les métadonnées externes. Vous devez créer une table CDM dans SAP ASE pour chaque table que vous voulez lire afin de pouvoir importer cette table CDM à l'aide de SAP Data Services.
Informations associées
Définition d'une banque de données d'une base de données [page 69]
Comment importer des métadonnées [page 76]
20.6.2.4.2 Création et définition du flux de données
Cette procédure décrit comment créer un flux de données pour lire les données modifiées à l'aide de SAP
Replication Server et de la modélisation SAP PowerAMC.
1. Dans la bibliothèque d'objets, faites glisser la table CDM, une transformation Query et une transformation
Map_CDC_Operation vers l'espace de travail.
708
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Remarque
○ Les tables CDM multiples du serveur de réplication sont autorisées dans le même flux de données.
○ La table CDM du serveur de réplication stocke les enregistrements de données extraits du journal de la base de données source. Cependant, ces enregistrements de données stockés ne sont pas équivalents aux enregistrements disponibles dans la table source correspondante. De plus, les enregistrements de données modifiées capturés antérieurs à la période de rétention sont également supprimés de la table
CDM du serveur de réplication. De ce fait, joindre deux ou plusieurs tables CDM de ce type risque de ne pas produire le même résultat que de joindre leurs tables de base de données source correspondantes.
2. Configurez la table CDM comme indiqué dans la section suivante.
3. Ajoutez la table cible appropriée et reliez les objets.
4. Ouvrez l'Editeur de requêtes.
5. Mappez les colonnes de contrôle Data Services et les colonnes de la table source que vous voulez dans la cible.
La transformation Map_CDC_Operation utilise les valeurs de la colonne dans la zone
Colonne de l'opération sur la ligne
pour exécuter l'opération appropriée sur la ligne source pour la table cible. Pour la table source CDM, la colonne DI_OPERATION_TYPE est automatiquement sélectionnée comme
Colonne de l'opération sur la ligne
.
Les opérations peuvent être INSERT, DELETE ou UPDATE. Par exemple, si l'opération est DELETE, la ligne correspondante est supprimée de la table cible.
Informations associées
Configuration d'une table source CDM [page 709]
20.6.2.4.3 Configuration d'une table source CDM
Cette procédure décrit comment configurer une table source CDM. Data Services peut appliquer des points de contrôle sur toutes les tables (dans une configuration de banque de données particulière) pour tous les flux de données d'un job afin d'assurer la cohérence des données.
1. Faites glisser une table de banque de données CDM dans un flux de données.
2. Cliquez sur le nom de cet objet source pour ouvrir son éditeur.
3. Cliquez sur l'onglet
Options CDM
.
4. Vous pouvez sélectionner l'option facultative
Activer le point de contrôle
.
Une fois qu'un point de contrôle est placé, à la prochaine exécution du job CDM, celui-ci lit uniquement les lignes insérées dans la table CDM depuis le dernier point de contrôle.
Si les points de contrôle ne sont pas activés, le job CDM lit toutes les lignes de la source de données CDM (avec un temps de traitement augmenté).
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
709
20.7 Utilisation de la CDM avec les bases de données
Microsoft SQL Server
Capture de données modifiées sur des bases de données Microsoft SQL Server
SAP Data Services peut capturer les données modifiées dans les bases de données Microsoft SQL Server et les appliquer aux systèmes cible à l'aide des méthodes suivantes :
● Capture des données modifiées
● Suivi des modifications
● Serveur de réplication
Les trois méthodes utilisent le concept de points de contrôle pour lire le set de modifications le plus récent et marquer la fin de la lecture. Si les points de contrôle ne sont pas activés, SAP BusinessObjects Data Services lit l'ensemble des modifications. En outre, si vous activez les points de contrôle et exécutez votre job CDM en mode de récupération, le job récupéré commence à examiner la source de données CDM au dernier point de contrôle.
Pour capturer les données modifiées :
● Activez la CDM sur la base de données Microsoft SQL Server
● Activez la CDM sur les tables source
● Configurez les banques de données, les jobs et les sources de SAP BusinessObjects Data Services
Consultez la documentation Microsoft pour obtenir des détails sur toutes les méthodes. Le tableau suivant compare ces méthodes.
Table 311 :
Fonctionnalité Serveur de réplication Capture des données modifi
ées
Suivi des modifications
2008 et ultérieure 2008 et ultérieure 2000, 2005, 2008 Version de Microsoft SQL
Server prise en charge
Synchrone (immédiate ; la tence si asynchrone)
Requiert un agent SQL
Processus automatique de nettoyage
Non, les modifications sont capturées par le job CDM de
SQL Server.
Oui, suit les modifications en ligne avec les opérations IN
SERT, UPDATE et DELETE, les modifications sont donc disponibles immédiatement.
Oui, un job de capture remplit les tables CDM.
Non, le moteur de base de données renseigne les clés primaires dans les tables de modifications durant les opé rations DML.
Oui, périodiquement Oui, périodiquement
Non, les modifications sont disponibles après transfert des opérations par l'agent lec teur de journal dans la base de données de distribution.
Oui, un agent lecteur du jour nal de réplication gère la répli cation.
Oui, périodiquement
710
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Fonctionnalité Capture des données modifi
ées
Suivi des modifications
Requiert des tables distinctes pour stocker les données de suivi
Oui, stocké dans un table de captures
Le stockage dépend du nom bre de colonnes capturées pour la CDM.
Oui. Utilise une tables de suivi des modifications interne par table source. Utilise une table de transactions par base de données.
Le stockage dépend du nom bre de colonnes de clés pri maires de la table source.
Serveur de réplication
Oui, stocké dans une base de données de distribution.
Données historiques disponi bles
Requiert une clé primaire
Oui Non Oui
Non
Pré-image disponible pour l'opération UPDATE dans SAP
BusinessObjects Data Servi ces
Oui. SAP BusinessObjects
Data Services lit automati quement la pré-image et la met à disposition pour utilisa tion ultérieure dans le flux de données.
Recommandation Utiliser si les données histori ques ou la cohérence entre plusieurs tables sont requi ses.
Oui
Non
Oui
Oui (facultatif)
Utiliser pour une synchronisa tion rapide.
Pris en charge, mais obsolète.
20.7.1 Restrictions
Les restrictions suivantes s'appliquent à toutes les méthodes de capture des données modifiées dans Microsoft
SQL Server :
● Il est impossible d'utiliser les transformations et fonctions suivantes pour une table source importée avec une banque de données CDM en raison de l'existence des colonnes générées par SAP BusinessObjects Data
Services pour les tables CDM. Le progiciel ne peut pas comparer ou rechercher ces colonnes.
○ Transformations Table_Comparison, Key_Generation, SQL, et Data_Transfer. La transformation
History_Preserving n'est pas prise en charge par la méthode de suivi des modifications.
○ Toutes les fonctions de base de données, y compris lookup, lookup_ext, lookup_seq, search_replace, pushdown_sql, truncate_table, key_generation, sql et total_rows.
● Une seule table de source CDM peut être créée dans un flux de données.
● Les tables CDM ne sont pas autorisées dans les jobs en temps réel.
● Le profilage n'est pas disponible pour les tables CDM.
● L'affichage du SQL optimisé n'est pas disponible pour les flux de données qui lisent les tables CDM.
● L'exportation ou l'importation de jobs avec les tables CDM ne retient pas les informations des points de contrôle enregistrés dans le référentiel de SAP BusinessObjects Data Services.
Pour les méthodes du suivi des modifications et du serveur de réplication, n'utilisez pas le même nom d'abonnement pour lire la même table CDM dans des flux de données parallèles, parce que le point de contrôle est identifié par une combinaison du nom d'abonnement et du nom de table. Autrement dit, pour éviter les problèmes de corruption de données, ne réutilisez pas les flux de données qui utilisent les banques de données CDM parce
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
711
que chaque fois qu'une table source extrait des données, elle utilise le même nom d'abonnement. C'est-à-dire que des jobs identiques, selon le moment où ils sont exécutés, peuvent obtenir des résultats différents et laisser des points de contrôle à différents endroits du fichier.
Pour la méthode de suivi des modifications, comme Microsoft SQL Server ne peut pas suivre l'opération
TRUNCATE sur une table source, SAP BusinessObjects Data Services ne peut pas propager ces résultats vers la cible.
20.7.2 Colonnes de SAP BusinessObjects Data Services
Lorsque vous importez des métadonnées dans une banque de données CDM à l'aide d'une des méthodes, SAP
BusinessObjects Data Services ajoute les colonnes suivantes à la table d'origine :
● DI_SEQUENCE_NUMBER
● DI_OPERATION_TYPE
20.7.2.1 Colonne DI_SEQUENCE_NUMBER
La colonne DI_SEQUENCE_NUMBER commence par zéro au début de chaque extraction. Ce champ est incrémenté d'un chaque fois que le progiciel lit une ligne, sauf s'il rencontre une paire de pré et post-images. La pré-image et la post-image reçoivent le même numéro de séquence. Cette colonne de séquencement fournit un moyen de rassembler les paires d'images si elles sont séparées en raison de la conception du flux de données.
Lors du déroulement du flux de données, si les pré et post-images sont séparées ou réparties en plusieurs lignes
(par exemple, en utilisant des clauses GROUP BY ou ORDER BY dans une requête), vous pouvez perdre l'ordre des lignes.
La transformation Map_CDC_Operation permet de restaurer l'ordre d'origine des paires d'images en utilisant la colonne DI_SEQUENCE_NUMBER comme
Colonne de séquencement
.
Pour la méthode du serveur de réplication, vous pouvez configurer le serveur afin de récupérer les pré-images des lignes UPDATE avant que SAP BusinessObjects Data Services n'applique l'opération UPDATE à la cible. Notez que si vous ne configurez pas le serveur de réplication pour capturer les pré-images dans la base de données, seules les post-images sont capturées par défaut. Pour en savoir plus sur les cas où il faut envisager l'utilisation des préimages, voir
Utilisation des pré-images [page 684]
.
20.7.2.2 Colonne DI_OPERATION_TYPE
SAP BusinessObjects Data Services génère des valeurs dans la colonne DI_OPERATION_TYPE. Les valeurs valides pour cette colonne sont :
● I pour INSERT
● D pour DELETE
● B pour pré-image d'une opération UPDATE (sauf pour la méthode de suivi des modifications, qui n'utilise pas de pré-image)
712
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
● U pour une post-image d'une opération UPDATE
20.7.3 Méthode de capture des données modifiées (CDM)
Avec la méthode de capture des données modifiées (CDM), SAP BusinessObjects Data Services applique des points de contrôle sur toutes les tables (dans une configuration de banque de données particulière) pour tous les flux de données d'un job afin d'assurer la cohérence des données. Activez d'abord la CDM dans l'Editeur de la banque de données, puis sélectionnez l'option
Activer le point de contrôle
dans l'éditeur de tables source du flux de données. Si l'option
Activer le point de contrôle
n'est pas sélectionnée, SAP BusinessObjects Data Services récupère toutes les données disponibles à ce moment pour cette table. Cette méthode de CDM n'est pas disponible avec les versions antérieures à Microsoft SQL Server 2008.
20.7.3.1 Ajout d'une banque de données CDM
Cette procédure décrit comment créer une connexion de banque de données pour Microsoft SQL Server et activer la méthode de capture des données modifiées (CDM).
1. Ouvrez l'éditeur de banque de données.
2. Saisissez un nom pour la banque de données.
3. Dans la zone
Type de banque de données
, sélectionnez
Base de données
.
4. Dans la zone
Type de base de données
, sélectionnez
Microsoft SQL Server
.
5. Cochez la case
Activer la CDM
.
6. Pour
Version de la base de données
, sélectionnez
Microsoft SQL Server 2008
ou une version ultérieure.
7. Dans la zone déroulante sous l'option
Activer la CDM
, sélectionnez la méthode
CDM
.
8. Saisissez un
Nom de serveur de base de données
.
9. Saisissez un
Nom de base de données
.
10. Saisissez un
Nom d'utilisateur
et un
Mot de passe
de base de données.
11. Pour créer plusieurs configurations pour cette banque de données, cliquez sur
Appliquer
, puis sur
Modifier
et entrez les détails de configuration. Notez que vous ne pouvez pas modifier le type de base de données, la version ou la méthode CDM.
12. Cliquez sur
OK
.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les métadonnées d'une instance de capture dans le référentiel actuel.
Informations associées
Définition d'une banque de données d'une base de données [page 69]
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
713
20.7.3.2 Importation de métadonnées CDM
Après avoir créé une banque de données CDM, vous pouvez l'utiliser pour importer des métadonnées d'instance de capture.
Si la CDM est activée sur une table, Microsoft SQL Server crée une instance de capture. Une table peut avoir jusqu'à deux instances de capture avec des noms différents. Dans la bibliothèque d'objets, cliquez avec le bouton droit sur le nom de la banque de données et sélectionnez
Ouvrir
,
Importer par nom
ou
Rechercher
. SAP
BusinessObjects Data Services affiche le nom de l'instance de capture (au lieu du nom de la table sous-jacente).
Par conséquent, si vous effectuez une importation par nom, ce dernier doit être le nom de l'instance de capture
(et non celui de la table).
L'opération d'importation ajoute les colonnes suivantes à la table d'origine :
Table 312 :
Nom de colonne
DI_SEQUENCE_NUMBER
DI_OPERATION_TYPE
MSSQL_TRAN_SEQNO
MSSQL_TRAN_TIMESTAMP
MSSQL_COLUMN_UPDATE_MASK
Type de données integer varchar(1) varchar(256) timestamp varchar(258)
Source de la colonne
Généré par SAP BusinessObjects Data Services
Généré par SAP BusinessObjects Data Services
Fourni par Microsoft SQL Server
Fourni par Microsoft SQL Server
Fourni par Microsoft SQL Server
20.7.3.3 Configuration d'une table source utilisant la CDM
Cette procédure décrit comment configurer une table source CDM en employant la méthode CDM (Capture des
Données Modifiées). Pour en savoir plus, consultez le Guide de référence.
1. Faites glisser une table de banque de données CDM dans un flux de données.
La table devient automatiquement un objet source.
2. Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3. Cliquez sur l'onglet
Options CDM
.
4. Facultativement, sélectionnez
Activer le point de contrôle
.
Une fois qu'un point de contrôle est placé, à la prochaine exécution du job CDM, celui-ci lit uniquement les lignes insérées dans la table CDM depuis le dernier point de contrôle.
5. Facultativement, sélectionnez
Supprimer automatiquement les lignes après la lecture
.
20.7.3.4 Utilisation de CDM pour les flux de données dans une boucle WHILE
Pour la méthode CDM, les points de contrôle s'appliquent au niveau du job. Si vous avez des flux de données s'exécutant dans une boucle WHILE pour récupérer les modifications, utilisez la fonction set_cdc_checkpoint() pour chaque itération de la boucle. Cette fonction donne au lecteur source l'instruction de définir des points de
714
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
contrôle afin que la prochaine itération prélève les dernières modifications. Appelez cette fonction pour toutes les banques de données utilisées dans l'ensemble des flux de données du job. Pour en savoir plus, consultez le Guide
de référence.
set_cdc_checkpoint( <Banque de données> )
La fonction renvoie 1 si le point de contrôle a été correctement défini, sinon elle renvoie 0. La valeur
<banque de données>
est le nom de la banque de données contenant les tables CDM.
Exemple set_cdc_checkpoint('MyCdcSource');
20.7.4 Méthode de suivi des modifications
La méthode de suivi des modifications identifie les lignes d'une table ayant été modifiées, mais ignore le nombre de fois où la ligne a été modifiée ou les valeurs de toute modification intermédiaire. SAP BusinessObjects Data
Services extrait uniquement les dernières données disponibles. Le suivi des modifications est donc limité dans les réponses aux questions d'historique par rapport à la méthode CDM (Capture des données modifiées). Toutefois, il y a nettement moins de données inutiles à stocker parce que les données modifiées ne sont pas capturées. En outre, un mécanisme de suivi synchrone utilisé pour suivre les modifications implique un minimum de données inutiles dans les opérations.
Le suivi des modifications doit d'abord être activé pour la base de données Microsoft SQL Server, puis pour les tables à suivre dans cette base de données. Les informations de suivi des modifications sont enregistrées pour les lignes modifiées. Les valeurs de la colonne de clé primaire de la table suivie sont enregistrées avec les informations de modification afin d'identifier les lignes ayant été modifiées. Pour obtenir les dernières données de ces lignes, SAP BusinessObjects Data Services utilise les valeurs de la colonne de clé primaire pour relier la table source et la table suivie. Les information sur les modifications peuvent inclure le type d'opération ayant entraîné la modification (INSERT, UPDATE ou DELETE) ou les colonnes ayant été modifiées dans le cadres d'une opération
UPDATE, par exemple.
Cette méthode n'est pas disponible avec les versions antérieures à Microsoft SQL Server 2008.
20.7.4.1 Ajout d'une banque de données de suivi des modifications
Cette procédure décrit comment créer une connexion de banque de données à Microsoft SQL Server et activer la méthode de suivi des modifications.
1. Ouvrez l'éditeur de banque de données.
2. Saisissez un nom pour la banque de données.
3. Dans la zone
Type de banque de données
, sélectionnez
Base de données
.
4. Dans la zone
Type de base de données
, sélectionnez
Microsoft SQL Server
.
5. Cochez la case
Activer la CDM
.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
715
6. Pour
Version de la base de données
, sélectionnez
Microsoft SQL Server 2008
ou une version ultérieure.
7. Dans la zone déroulante sous l'option
Activer la CDM
, sélectionnez la méthode
Suivi des modifications
.
8. Saisissez un nom de
serveur de base de données
.
9. Saisissez un
Nom de base de données
.
10. Saisissez un
Nom d'utilisateur
et un
Mot de passe
de base de données.
11. Pour créer plusieurs configurations pour cette banque de données, cliquez sur
Appliquer
, puis sur
Modifier
et entrez les détails de configuration. Notez que vous ne pouvez pas modifier le type de base de données, la version ou la méthode CDM.
12. Cliquez sur
OK
.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les métadonnées de table dans le référentiel actuel.
Informations associées
Définition d'une banque de données d'une base de données [page 69]
20.7.4.2 Importation des métadonnées de suivi des modifications
Après avoir créé une banque de données de suivi des modifications, vous pouvez l'utiliser pour importer les métadonnées des tables.
Dans la bibliothèque d'objets, cliquez avec le bouton droit sur le nom de la banque de données et sélectionnez
Ouvrir
,
Importer par nom
ou
Rechercher
. Seules les tables CDM que vous sélectionnez en configurant Microsoft
SQL Server pour le suivi des modifications sont visibles lorsque vous parcourez les métadonnées externes.
L'opération d'importation ajoute les colonnes suivantes à la table d'origine :
Table 313 :
Nom de colonne
DI_SEQUENCE_NUMBER
DI_OPERATION_TYPE
MSSQL_SYS_CHANGE_VERSION
MSSQL_SYS_CHANGE_CREATION_VERSION
MSSQL_SYS_CHANGE_CONTEXT _MASK
Type de données Source de la colonne integer Généré par SAP BusinessObjects Data Services varchar(1) decimal(19,0) decimal(19,0) varchar(256)
Généré par SAP BusinessObjects Data Services
Fourni par Microsoft SQL Server
Fourni par Microsoft SQL Server
Fourni par Microsoft SQL Server
20.7.4.3 Configuration d'une table source pour utiliser le suivi des modifications
Cette procédure décrit comment configurer une table source CDM pour activer le suivi des modifications.
716
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
1. Faites glisser une table de banque de données CDM dans un flux de données.
La table devient automatiquement un objet source.
2. Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3. Cliquez sur l'onglet
Options CDM
.
4. Indiquez une valeur pour le
nom d'abonnement CDM
SAP BusinessObjects Data Services utilise ce nom pour suivre le dernier point de contrôle en interne dans le référentiel.
5. Sélectionnez
Activer le point de contrôle
.
Une fois qu'un point de contrôle est placé, à la prochaine exécution du job CDM, celui-ci lit uniquement les lignes insérées dans la table CDM depuis le dernier point de contrôle.
20.7.5 Méthode du serveur de réplication
Microsoft utilise les termes suivants pour le serveur de réplication Microsoft SQL :
● Article : un article est une table, une partition ou un objet de base de données que l'administrateur de base de données indique pour la réplication. Un article peut être un des éléments suivants :
○ Une table entière
○ Certaines colonnes (à l'aide d'un filtre vertical)
○ Certaines lignes (à l'aide d'un filtre horizontal)
○ Une procédure stockée ou une définition de vue
○ L'exécution d'une procédure stockée
○ Une vue
○ Une vue indexée
○ Une fonction définie par l'utilisateur
● Distributeur : le distributeur est un serveur qui stocke des métadonnées, des données historiques et des transactions dans la base de données de distribution. Le progiciel lit la base de données de distribution pour obtenir les données modifiées.
● Publication : une publication est une collection d'un ou plusieurs articles d'une base de données. Une publication facilite la spécification d'un jeux de données et d'objets de base de données liés logiquement, que vous désirez répliquer ensemble.
● Editeur : l'Editeur est un serveur qui met les données à disposition pour la réplication sur les autres serveurs.
● Abonné : un Abonné est un serveur qui reçoit les données répliquées. Les Abonnés s'abonnent aux publications et non aux articles individuels d'une publication. Ils s'abonnent uniquement aux publications dont ils ont besoin et non à l'ensemble des publications disponibles sur un Editeur.
Le progiciel obtient les données modifiées de la base de données de distribution dans le serveur de réplication
Microsoft SQL. Le diagramme suivant illustre le flux des données modifiées du serveur de réplication vers SAP
BusinessObjects Data Services.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
717
● Une application apporte des modifications à une base de données et L'Editeur hébergé dans le serveur de réplication capture ces modifications dans un journal de transactions.
● L'agent lecteur de journaux du distributeur lit le journal de transactions de l'Editeur et enregistre les données modifiées dans la base de données de distribution.
● Le progiciel lit les données de la table de commandes dans la base de données de distribution, applique les filtres adéquats et crée des lignes d'entrée pour une table de l'entrepôt de données cible.
Le progiciel accède aux tables suivantes dans la base de données de distribution :
● MSarticles : contient une ligne pour chaque article répliqué par un Editeur.
● MSpublications : contient une ligne pour chaque publication répliquée par un Editeur.
● MSpublisher_databases : contient une ligne pour chaque paire Editeur et base de données d'Editeur desservie par le distributeur local.
● MSrepl_commands : contient les lignes des commandes répliquées (modifications des données).
Lorsque vous activez une base de données pour la réplication, le serveur de réplication crée des tables dans la base de données source. Une de ces tables est Sysarticles, qui contient une ligne pour chaque article défini dans cette base de données spécifique. Une des colonnes de la table Sysarticles indique quelles colonnes d'une table source sont publiées.
20.7.5.1 Configuration de la base de données de distribution
Si le progiciel se connecte à Microsoft SQL Server pour extraire des données, vous devez configurer la base de données de distribution dans le serveur de réplication pour capturer les modifications de ces tables.
718
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
20.7.5.1.1 Microsoft SQL Server 2000
Les étapes suivantes décrivent la procédure de configuration du serveur de réplication pour les bases de données
Microsoft SQL Server 2000.
1. Sur le nœud de réplication de Microsoft SQL Enterprise Manager, sélectionnez l'option
Configurer la publication, les abonnés et la distribution
. Suivez les étapes de l'assistant pour créer les bases de données de distribution et du serveur de distribution.
Les étapes suivantes décrivent la procédure de configuration du serveur de réplication SQL pour les bases de données Microsoft SQL Server 2000.
L'assistant génère les composants suivants que vous devez spécifier dans l'Editeur de banque de données lors de la définition d'une banque de données CDM Microsoft SQL Server :
○ Nom du serveur de distribution MSSQL
○ Nom de la base de données de distribution MSSQL
○ Nom d'utilisateur de distribution MSSQL
○ Mot de passe de distribution MSSQL
2. Sélectionnez l'option
Nouvelles publications
sur le nœud de réplication de Microsoft SQL Enterprise Manager pour créer de nouvelles publications indiquant les tables que vous souhaitez publier. Le progiciel nécessite les paramètres suivants dans les Options avancées :
○ Sélectionnez l'option
Publication transactionnelle
dans la fenêtre Sélectionner le type de publication. Ce type de publication met à jour les données de l'Editeur et envoie les modifications de manière incrémentielle à l'Abonné.
○ Dans l'onglet Commandes de la fenêtre Propriétés de l'article de table :
○ Si vous souhaitez des pré-images pour les commandes UPDATE et DELETE, sélectionnez XCALL.
Autrement, sélectionnez CALL.
○ Effacez les options
Créer les procédures stockées lors de la synchronisation initiale des abonnements
et
Envoyer les paramètres au format binaire
car le progiciel n'utilise pas de procédure de stockage et dispose de son propre format interne.
○ Dans l'onglet Instantané de la fenêtre Propriétés de l'article de table :
○ Sélectionnez
Conserver la table existante inchangée
car le progiciel traite la table en tant que journal.
○ Effacez l'option
Index cluster
car le progiciel traite la table en tant que journal et lit dans celle-ci de manière séquentielle.
○ Spécifiez un nom et une description pour la publication. Vous indiquez le nom de cette publication dans l'Editeur de banque de données lors de la définition d'une banque de données CDM MSSQL.
○ Sélectionnez l'option
Oui, autoriser les abonnements anonymes
pour enregistrer toutes les transactions dans la base de données de distribution.
Pour en savoir plus, voir l'aide en ligne de Microsoft SQL Enterprise Manager.
20.7.5.1.2 Microsoft SQL Server 2005 et 2008
La procédure suivante décrit la configuration de publications pour les bases de données
Microsoft SQL Server 2005 et 2008 pour CDM.
1. Démarrez Microsoft SQL Server Management Studio.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
719
2. Connectez-vous et accédez au nœud
Réplication
dans l'Explorateur d'objets.
3. Si vous configurez la distribution de ce serveur pour la première fois, cliquez avec le bouton droit de la souris sur le nœud
Réplication
et sélectionnez
Configurer la distribution
dans le menu de contexte. Vous pouvez configurer le serveur de distribution, le dossier d'instantanés, la base de données de distribution et les utilisateurs de ce serveur de distribution.
4. Cliquez de nouveau avec le bouton droit de la souris sur le nœud
Réplication
et sélectionnez
Nouveau
Publication
. L'Assistant Nouvelle publication s'ouvre.
5. Dans l'Assistant Nouvelle publication, cliquez sur
Suivant
.
6. Sélectionnez la base de données que vous souhaitez publier, puis cliquez sur
Suivant
.
7. Sous Type de publication, sélectionnez
Publication transactionnelle
, puis cliquez sur
Suivant
.
8. Cliquez pour sélectionner les tables et colonnes à publier en tant qu'articles. Ouvrez ensuite la fenêtre
Propriétés de l'article
. Pour chaque table sélectionnée, cliquez sur
Définir les propriétés de l'article de table en surbrillance
. La fenêtre Propriétés de l'article s'ouvre : a. Définissez
Copier l'index cluster
,
Copier les procédures stockées INSERT, UPDATE et DELETE
et
Créer des schémas sur l'Abonné
sur FALSE.
b. Définissez
Action si le nom est déjà utilisé
sur
Conserver la table existante inchangée
.
c. Définissez
Format de remise UPDATE
et
Format de remise DELETE
sur
XCALL <procédure stockée>
.
d. Cliquez sur
OK
pour enregistrer les propriétés de l'article.
9. Cliquez sur
Suivant
. Vous pouvez cliquer sur
Ajouter
pour ajouter des filtres de lignes. Cliquez sur
Suivant
si le filtrage de données n'est pas nécessaire dans la publication.
10. Configurez la Sécurité de l'agent et spécifiez le paramètre de connexion du compte.
a. Pour l'Agent d'instantané, cliquez sur
Paramètres de sécurité
. Spécifiez le compte d'exécution de l'agent d'instantané. Configurez le compte avec des droits d'administration système. Spécifiez le compte se connectant à l'Editeur et cliquez sur
OK
.
b. Pour l'Agent de lecture du journal, l'option
Utiliser les paramètres de sécurité de l'Agent de capture instantanée
est sélectionnée par défaut. Pour utiliser des paramètres différents, effacez cette option et cliquez sur
Paramètres de sécurité
. Notez qu'un identifiant octroyant des droits d'administration système est nécessaire.
11. Dans la fenêtre Actions de l'assistant, sélectionnez
Créer la publication
puis cliquez sur
Suivant
.
12. Pour terminer l'assistant, saisissez un nom de publication et cliquez sur
Terminer
.
Pour en savoir plus, voir la documentation relative à Microsoft SQL Enterprise Manager.
20.7.5.2 Configuration de SAP BusinessObjects Data Services
Pour utiliser SAP BusinessObjects Data Services afin de lire et charger les données modifiées à partir de bases de données SQL Server à l'aide du serveur de réplication, appliquez les procédures suivantes dans Designer :
● Création d'une banque de données CDM
● Importation de métadonnées pour les tables Microsoft SQL Server
● Configuration d'une source CDM
720
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
20.7.5.2.1 Ajout de la banque de données CDM
Cette procédure décrit comment créer une banque de données CDM à l'aide de la méthode de réplication.
1. Ouvrez l'Editeur de banque de données.
2. Saisissez un nom pour la banque de données.
3. Dans la zone
Type de banque de données
, sélectionnez
Base de données
.
4. Dans la zone
Type de base de données
, sélectionnez
Microsoft SQL Server
.
5. Cochez la case
Activer la CDM
pour activer la fonctionnalité de CDM.
6. Sélectionnez une
Version de base de données
.
7. Saisissez un
Nom de base de données
(utilisez le nom du serveur de réplication).
8. Saisissez un
Nom d'utilisateur
et un
Mot de passe
de base de données.
9. Dans la section CDM, entrez les noms que vous avez créés pour cette banque de données lorsque vous avez configuré le Distributeur et l'Editeur dans le serveur de réplication :
○ Nom du serveur de distribution MSSQL
○ Nom de la base de données de distribution MSSQL
○ Nom de publication MSSQL
○ Nom d'utilisateur de distribution MSSQL
○ Mot de passe de distribution MSSQL
10. Pour créer plusieurs configurations pour cette banque de données, cliquez sur
Appliquer
, puis sur
Modifier
et suivez à nouveau l'étape 9 pour toute configuration supplémentaire.
11. Cliquez sur
OK
.
Vous pouvez maintenant utiliser la nouvelle connexion de banque de données pour importer les métadonnées de table dans le référentiel actuel.
Informations associées
Définition d'une banque de données d'une base de données [page 69]
20.7.5.2.2 Importation de métadonnées CDM
Après avoir créé une banque de données CDM, vous pouvez l'utiliser pour importer les métadonnées des tables
CDM. Dans la bibliothèque d'objets, cliquez avec le bouton droit sur le nom de la banque de données et sélectionnez
Ouvrir
,
Importer par nom
ou
Rechercher
. Seules les tables CDM que vous sélectionnez en configurant
Microsoft SQL Server pour le CDM sont visibles lorsque vous parcourez les métadonnées externes. SAP
BusinessObjects Data Services utilise les tables MSpublications et MSarticles dans la base de données de distribution du serveur de réplication SQL pour créer une liste de tables publiées.
Lorsque vous importez chaque table CDM, le progiciel utilise la table Sysarticles de la base de données de l'Editeur du serveur de réplication SQL pour afficher uniquement les colonnes publiées.
L'opération d'importation ajoute les colonnes suivantes à la table d'origine :
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
721
Table 314 :
Nom de colonne
DI_SEQUENCE_NUMBER
DI_OPERATION_TYPE
MSSQL_TRAN_SEQNO
MSSQL_TRAN_TIMESTAMP
Type de données integer varchar(1) varchar(256) timestamp
Source de la colonne
Généré par SAP BusinessObjects Data
Services
Généré par SAP BusinessObjects Data
Services
Fourni par le serveur de réplication
Fourni par le serveur de réplication
Informations associées
Configuration de la base de données de distribution [page 718]
20.7.5.2.3 Configuration d'une table source utilisant la réplication
Cette procédure décrit comment configurer une table source CDM à l'aide de la méthode de réplication. Pour en savoir plus, consultez le Guide de référence.
1. Faites glisser une table de banque de données CDM dans un flux de données.
La table devient automatiquement un objet source.
2. Cliquez sur le nom de cet objet source pour ouvrir son éditeur de table source.
3. Cliquez sur l'onglet
Options CDM
.
4. Indiquez une valeur pour le
nom d'abonnement CDM
SAP BusinessObjects Data Services utilise ce nom pour suivre le dernier point de contrôle en interne dans le référentiel.
Informations associées
Utilisation des points de contrôle de l'ordinateur central [page 692]
20.7.5.2.3.1 Utilisation des points de contrôle avec les serveurs de réplication
Un agent lecteur de journaux du serveur de réplication Microsoft SQL lit le journal de transactions de l'Editeur et enregistre les données modifiées dans la base de données de distribution, que SAP BusinessObjects Data
722
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Services utilise comme source de données CDM. Les lignes de données modifiées s'ajoutent au précédent chargement dans la source de données CDM.
Lorsque vous activez des points de contrôle, un job CDM utilise le nom d'abonnement pour lire le plus récent ensemble de lignes ajoutées et pour marquer la fin de la lecture. Si les points de contrôle ne sont pas activés, le job CDM lit toutes les lignes de la source de données CDM (avec un temps de traitement augmenté).
Pour utiliser les points de contrôle, dans l'Editeur de table source, saisissez le
Nom de l'abonnement CDM
et sélectionnez l'option
Activer le point de contrôle
.
20.7.5.2.3.2 Utilisation des pré-images des sources Microsoft
SQL Server
Si vous devez capturer des pré-images de lignes UPDATE :
1. Vérifiez que le serveur de réplication est configuré pour récupérer des pré-images complètes.
2. Lorsque vous créez une publication dans le serveur de réplication, indiquez XCALL pour les commandes
UPDATE et DELETE afin d'obtenir les pré-images.
3. Sélectionnez l'option
Obtenir les pré-images pour chaque ligne de mise à jour
dans l'éditeur source de la table
CDM.
Après avoir coché l'option
Obtenir les pré-images pour chaque ligne de mise à jour
, le progiciel traite deux lignes pour chaque mise à jour. Outre l'impact sur les performances de cette augmentation du volume de données, les paires de pré et post-images pourraient être séparées ou perdues selon la conception de votre flux de données, ce qui provoquerait des problèmes d'intégrité des données.
Remarque
La transformation Map_CDC_Operation peut résoudre les problèmes, mais des résultats indésirables peuvent toujours se produire en raison d'erreurs de programmation. Lors de l'utilisation de fonctions et transformations qui réordonnent, redirigent, éliminent et multiplient le nombre de lignes dans un flux de données, soyez conscients de l'impact possible sur les cibles.
Informations associées
Utilisation des pré-images [page 684]
20.7.5.2.3.3 Configuration d'une table source CDM
Cette procédure décrit comment configurer une table source CDM. Data Services peut appliquer des points de contrôle sur toutes les tables (dans une configuration de banque de données particulière) pour tous les flux de données d'un job afin d'assurer la cohérence des données.
1. Faites glisser une table de banque de données CDM dans un flux de données.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
723
2. Cliquez sur le nom de cet objet source pour ouvrir son éditeur.
3. Cliquez sur l'onglet
Options CDM
.
4. Vous pouvez sélectionner l'option facultative
Activer le point de contrôle
.
Une fois qu'un point de contrôle est placé, à la prochaine exécution du job CDM, celui-ci lit uniquement les lignes insérées dans la table CDM depuis le dernier point de contrôle.
Si les points de contrôle ne sont pas activés, le job CDM lit toutes les lignes de la source de données CDM (avec un temps de traitement augmenté).
20.8 Utilisation de la CDM avec des sources basées sur l'horodatage
Utilisez la CDM basée sur l'horodatage pour suivre les modifications si vous utilisez des sources autres que
Oracle 9i, DB2 8.2, des ordinateurs centraux avec accès via IBM II Classic Federation ou via Attunity et si les conditions suivantes sont respectées.
● Il existe des champs date et heure dans les tables mises à jour
● Vous mettez à jour une table de grande taille ayant un faible pourcentage de modifications entre les extractions et un index sur les champs date et heure.
● Vous n'êtes pas concerné par la capture des résultats intermédiaires de chaque transaction entre les extractions (par exemple, si un client change de région deux fois dans la même journée).
Vous ne devez pas utiliser la CDM basée sur l'horodatage dans les cas suivants :
● Vous avez une table de grande taille, un pourcentage important de modifications entre les extractions et aucun index sur les horodatages.
● Vous avez besoin de capturer les suppressions physiques de lignes.
● Vous avez besoin de capturer plusieurs événements se produisant sur la même ligne entre les extractions.
Généralement, le terme horodatage fait référence aux valeurs de date, heure ou date et heure. Dans le cas de table CDM basée sur l'horodatage, la table source comporte des horodatages de CREATION ou MISE À JOUR pour chaque ligne.
Les horodatages peuvent indiquer si une ligne a été créée ou mise à jour. Certaines tables ont à la fois des horodatages de création et de mise à jour, certaines tables n'en ont qu'un. Dans le cas de CDM basée sur l'horodatage, les tables contiennent au moins un horodatage de mise à jour.
Certains systèmes ont des horodatages avec dates et heures, certains ont seulement la date et certains des nombres croissants générés de manière monotonique. Dans le cas de CDM basée sur l'horodatage, les dates et les nombres générés sont traités de la même façon.
Remarque
Pour les horodatages basés sur le temps réel, les fuseaux horaires peuvent devenir importants. Si vous effectuez le suivi des horodatages utilisant la nomenclature du système source (c'est-à-dire utilisant l'heure de la source ou le nombre généré par la source), vous pouvez traiter de la même manière les horodatages temporels (heure spécifique) et logiques (heure relative par rapport à une autre heure ou un événement).
724
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Informations associées
Traitement des horodatages [page 725]
Types d'horodatages [page 732]
20.8.1 Traitement des horodatages
2
3
La technique de base pour utiliser les horodatages afin de déterminer les modifications consiste à enregistrer l'horodatage ayant la valeur la plus élevée chargé dans un job donné et lancer le job suivant avec cet horodatage.
Pour ce faire, créez une table de statut qui suit les horodatages des lignes chargées dans un job. A la fin d'un job,
METTEZ A JOUR cette table avec le dernier horodatage chargé. Le job suivant lit alors l'horodatage dans la table de statut et sélectionne uniquement les lignes de la source pour lesquelles l'horodatage est ultérieur à celui de la table de statut.
L'exemple suivant illustre cette technique. Supposons que le dernier chargement s'est produit à 14 h 00 le 1er janvier 1998. A cette heure, la table source comportait une seule ligne (clé=1) ayant un horodatage antérieur au chargement précédent. SAP Data Services charge cette ligne dans la table cible et met à jour la table de statut avec l'horodatage le plus élevé chargé : 13 h 10 le 1er janvier 1998. Après 14 h 00, le progiciel ajoute des lignes à la table source :
Table source
Table 315 :
Clé Données Update_Timestamp
1 Alvarez 01/01/98 13:10
Tanaka
Lani
01/01/98 14:12
01/01/98 14:39
Table cible
Table 316 :
Clé
1
Table de statut
Table 317 :
Last_Timestamp
01/01/98 13:10
Données
Alvarez
Update_Timestamp
01/01/98 13:10
Le 1er janvier 1998 à 15 h 00, le job s'exécute à nouveau. Cette fois, le job effectue les actions suivantes :
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
725
1
2
1. Il lit le champ Last_Timestamp de la table de statut (01/01/98 13:10).
2. Il sélectionne les lignes de la table source dont les horodatages sont ultérieurs à la valeur du champ
Last_Timestamp. La commande SQL pour sélectionner ces lignes est :
SELECT * FROM Source
WHERE 'Update_Timestamp' > '01/01/98 01:10 pm'
Cette opération renvoie les deuxième et troisième lignes (clé=2 et clé=3).
3. Il charge les nouvelles lignes dans la table cible.
4. Il met à jour la table de statut avec le dernier horodatage de la table cible (01/01/98 14:39) grâce à l'instruction SQL suivante :
UPDATE STATUS SET 'Last_Timestamp' = SELECT MAX('Update_Timestamp') FROM target_table
La cible affiche les nouvelles données :
Table 318 :Table source
Clé Données
Alvarez
Tanaka
Update_Timestamp
01/01/98 13:10
01/01/98 14:12
3 Lani 01/01/98 14:39
2
3
Table 319 :Table cible
Clé
1
Table 320 :Table de statut
Dernier_horodatage
01/01/98 14:39
Données
Tanaka
Lani
Alvarez
Update_Timestamp
01/01/98 14:12
01/01/98 14:39
01/01/98 13:10
Pour indiquer ces opérations, un flux de données a besoin des objets suivants (et suppose que toutes les métadonnées requises pour les tables source et cible ont été importées) :
● Un flux de données pour extraire les données modifiées de la table source et les charger dans la table cible, par exemple Source > Requête > Cible.
La requête sélectionne les lignes de SOURCE_TABLE à charger dans TARGET_TABLE.
Par exemple :
SOURCE.UPDATE_TIMESTAMP > $Last_Update
La requête comprend une clause WHERE pour filtrer les lignes entre les horodatages.
● Un workflow pour effectuer les actions suivantes :
726
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
1. Lire la table de statut
2. Définir la valeur d'une variable pour le dernier horodatage
3. Appeler le flux de données avec la variable qui lui est passée comme paramètre
4. Mettre à jour la table de statut avec le nouvel horodatage
● Un job pour exécuter le workflow
20.8.2 Chevauchements
Sauf si les données source sont rigoureusement isolées durant le processus d'extraction (ce qui n'est habituellement pas réalisable), il existe une fenêtre de temps où les modifications peuvent être perdues entre deux cycles d'extraction. Cette période de chevauchement affecte la capture des données modifiées basée sur l'horodatage parce que ce type de capture de données repose sur un horodatage statique pour déterminer les données modifiées.
Supposons par exemple qu'une table comporte 1 000 lignes (classées de 1 à 1 000). Le job commence avec l'horodatage 3:00 et extrait chaque ligne. Pendant que le job s'exécute, il met à jour deux lignes (1 et 1 000) ayant respectivement les horodatages 3:01 et 3:02. Le job extrait la ligne 200 pendant que quelqu'un met à jour la ligne 1. Lorsque le job extrait la ligne 300, il met à jour la ligne 1 000. Lorsqu'il est terminé, le job extrait le dernier horodatage (3:02) de la ligne 1 000, mais omet la mise à jour de la ligne 1.
Voila les données de la table :
3
...
200
...
1
2
Table 321 :
Numéro de ligne
600
...
1 000
...
...
...
...
...
...
...
Colonne A
...
...
Il existe trois techniques pour gérer cette situation :
● Evitement des chevauchements
● Rapprochement des chevauchements
● Pré-échantillonnage
Les sections suivantes décrivent ces techniques et leur implémentation dans SAP Data Services. Cette section se poursuit avec l'hypothèse qu'il y a au moins un horodatage de mise à jour.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
727
Informations associées
Evitement des chevauchements [page 728]
Rapprochement des chevauchements [page 728]
Pré-échantillonnage [page 729]
Types d'horodatages [page 732]
20.8.2.1 Evitement des chevauchements
Dans certains cas, il est possible de configurer un système où il n'existe pas de possibilité de chevauchement.
Vous pouvez éviter les chevauchements s'il existe un intervalle de traitement où aucune mise à jour ne se produit dans le système cible.
Par exemple, si vous pouvez garantir que l'extraction de données du système source ne dure pas plus d'une heure, vous pouvez exécuter à 1 h 00 chaque nuit un job qui sélectionne uniquement les données mises à jour avant minuit le jour précédent. Comme ce job régulier ne donne pas de mises à jour minute par minute, il garantit de ne jamais avoir de chevauchement et simplifie nettement la gestion de l'horodatage.
20.8.2.2 Rapprochement des chevauchements
Le rapprochement des chevauchements requiert un processus d'extraction spécial qui réapplique les modifications pouvant s'être produites pendant la période de chevauchement. Cette extraction peut être exécutée séparément de l'extraction normale. Par exemple, si l'horodatage le plus élevé chargé par le job précédent était 01/01/98 22:30 et que la période de chevauchement dure une heure, le rapprochement des chevauchements réapplique les données mises à jour entre 21 h 30 et 22 h 30 le 1er janvier 1998.
La période de chevauchement est habituellement égale à la plus longue durée possible de l'extraction. Si l'extraction des données du système source peut durer jusqu'à
<n>
heures, une période de chevauchement de
<n>
heures (ou
<n>
plus un petit incrément) est conseillée. Par exemple, si l'exécution du job dure au plus deux heures, une période de chevauchement d'au moins deux heures est recommandée.
La création d'un flux de données de chevauchement distinct présente un avantage. Un flux de données "normal" peut supposer que toutes les modifications sont nouvelles et faire des hypothèses pour simplifier les calculs et améliorer les performances. Par exemple, les lignes marquées comme INSEREES sont souvent chargées dans une tables de faits, mais les lignes marquées comme MISES A JOUR le sont rarement. Donc, le flux de données normal sélectionne les nouvelles lignes de la source, génère de nouvelles clés pour elles et utilise le chargeur de base de données pour ajouter les nouveaux faits à la base de données cible. Comme le flux de données de chevauchement est susceptible d'appliquer à nouveau les mêmes lignes, il ne peut pas les charger par lots aveuglément, sinon il crée des doublons. Par conséquent, le flux de données de chevauchement doit contrôler si les lignes existent dans la cible et insérer uniquement celles qui manquent. Cette recherche affecte les performances, donc exécutez-la pour le plus petit nombre de lignes possible.
Si le volume de données est assez faible, vous pouvez charger l'ensemble du nouveau jeu de données à l'aide de cette technique de contrôle avant chargement, ce qui évite d'avoir à créer deux flux de données distincts.
728
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
20.8.2.3 Pré-échantillonnage
1
2
3
Le pré-échantillonnage élimine le chevauchement en identifiant d'abord l'horodatage le plus récent du système, en l'enregistrant, puis en extrayant les lignes jusqu'à cet horodatage.
Cette technique est une extension du traitement d'horodatage simple. Principale différence : la table de statut contient désormais un horodatage de début et de fin. L'horodatage de début est le dernier extrait par le job précédent. L'horodatage de fin est celui sélectionné par le job en cours.
Revenons à l'exemple : le dernier job d'extraction a chargé des données de la table source dans la table cible et mis à jour la table de statut avec le dernier horodatage chargé :
Table source
Table 322 :
Clé Données Update_Timestamp
Alvarez
Tanaka
Lani
01/01/98 13:10
01/01/98 14:12
01/01/98 14:39
Table cible
Table 323 :
Clé
1
Données
Alvarez
Update_Timestamp
01/01/98 13:10
Table de statut
Table 324 :
Start_Timestamp
01/01/98 13:10
End_Timestamp
NULL
Il est maintenant 15 h 00 le 1er janvier 1998 et le job suivant s'exécute, il effectue les actions suivantes :
1. Il sélectionne l'horodatage le plus récent de la table source et l'insère dans la table de statut comme horodatage de fin.
La commande SQL pour sélectionner une ligne est :
SELECT MAX(Update_Timestamp) FROM source table
La table de statut devient :
Table de statut
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
729
Table 325 :
Start_Timestamp
01/01/98 13:10
End_Timestamp
01/01/98 14:39
1
2
3
1. Il sélectionne les lignes de la table source dont les horodatages sont supérieurs à l'horodatage de début, mais inférieurs ou égaux à l'horodatage de fin. La commande SQL pour sélectionner ces lignes est :
SELECT *
FROM source table
WHERE Update_Timestamp > '1/1/98 1:10pm'
AND Update_Timestamp <= '1/1/98 2:39pm'
Cette opération renvoie les deuxième et troisième lignes (clé=2 et clé=3)
2. Il charge les nouvelles lignes dans la table cible.
3. Met à jour la table de statut en définissant l'horodatage de début comme étant le précédent horodatage de fin et en donnant à l'horodatage de fin la valeur NULL.
Au final, les valeurs des tables sont les suivantes :
Table 326 :Table source
Clé Données Update_Timestamp
Alvarez
Tanaka
Lani
01/01/98 13:10
01/01/98 14:12
01/01/98 14:39
1
2
3
Table 327 :Table cible
Clé
Table 328 :Table de statut
Start_Timestamp
01/01/98 14:39
Données
Alvarez
Tanaka
Lani
End_Timestamp
NULL
Update_Timestamp
01/01/98 13:10
01/01/98 14:12
01/01/98 14:39
Pour développer l'exemple précédent afin de prendre en compte le temps de chevauchement, il faut apporter les modifications suivantes au workflow :
● Un flux de données pour extraire les modifications depuis la dernière mise à jour et avant l'horodatage le plus récent, par exemple Source > Requête > Cible.
La requête sélectionne les lignes de SOURCE_TABLE à charger dans TARGET_TABLE.
Par exemple :
SOURCE.UPDATE_TIMESTAMP > $start_last_update and
730
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
SOURCE.UPDATE_TIMESTAMP < $end_last_update
La requête comprend une clause WHERE pour filtrer les lignes entre les horodatages.
● Un workflow pour effectuer les actions suivantes :
1. Lire la table source pour rechercher l'horodatage le plus récent.
2. Définir la valeur de deux variables respectivement sur le début et la fin du temps de chevauchement.
3. Appeler le flux de données avec les variables qui lui sont passées comme paramètres.
4. Mettre à jour l'horodatage de début avec la valeur de l'horodatage de fin et donner à l'horodatage de fin la valeur NULL.
Informations associées
Traitement des horodatages [page 725]
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
731
20.8.3 Types d'horodatages
Certains systèmes ont des horodatages qui s'enregistrent uniquement lors de la création de lignes. D'autres ont des horodatages qui s'enregistrent uniquement lors de la mise à jour de lignes. (Habituellement, les systèmes avec horodatage à la mise à jour seulement activent l'horodatage de mise à jour lorsque la ligne est créée ou mise
à jour.) Enfin, il existe des systèmes qui gèrent des horodatages distincts qui enregistrent la création et la mise à jour des lignes.
Informations associées
Horodatages à la création seulement [page 732]
Horodatages à la mise à jour seulement [page 732]
Horodatages de création et mise à jour [page 732]
20.8.3.1 Horodatages à la création seulement
Si le système source fournit des horodatages à la mise à jour seulement, vous disposez de ces options :
● Si la table est suffisamment petite, vous pouvez la traiter en intégralité pour identifier les modifications. La section
Utilisation de la CDM pour les cibles [page 739] décrit comment identifier les modifications.
● Si la table n'est jamais mise à jour, vous pouvez extraire uniquement les nouvelles lignes.
● Si la table est importante et mise à jour, vous pouvez combiner les deux techniques suivantes :
○ Extraction périodique (par exemple, journalière) des nouvelles lignes uniquement.
○ Extraction moins fréquente (par exemple, hebdomadaire) des lignes mises à jour en traitant la totalité de la table.
20.8.3.2 Horodatages à la mise à jour seulement
L'utilisation d'un horodatage à la mise à jour seulement aide à minimiser l'impact sur les systèmes source, mais cela complique le chargement des systèmes cible. Si le système propose un horodatage à la mise à jour seulement et qu'il n'existe pas de moyen d'indiquer les nouvelles lignes par rapport aux lignes mises à jour, votre job doit rapprocher le nouveau jeu de données des données existantes à l'aide des techniques décrites dans la
section Utilisation de la CDM pour les cibles [page 739]
.
20.8.3.3 Horodatages de création et mise à jour
Les deux horodatages permettent de séparer facilement les nouvelles données des mises à jour de données existantes. Le job extrait toutes les lignes modifiées , puis filtre les lignes indésirables à l'aide de leurs horodatages.
732
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Accomplissez ces extractions dans le progiciel en ajoutant la clause WHERE des commandes SQL suivantes à une transformation Query appropriée :
● Recherche de nouvelles lignes :
SELECT * FROM source_table
WHERE Create_Timestamp > $Last_Timestamp
● Recherche de lignes mises à jour :
SELECT * FROM source_table
WHERE Create_Timestamp <= $Last_Timestamp AND
Update_Timestamp > $Last_Timestamp)
De là, les nouvelles lignes sont soumises au processus de génération de clés et sont insérées dans la cible. Les lignes mises à jour passent par le processus de recherche de clé et sont mises à jour dans la cible.
Pour des raisons de performances, vous pouvez éventuellement isoler l'extraction des nouvelles lignes dans un flux de données distinct pour tirer parti du chargement par lots dans la cible. Les lignes mises à jour ne peuvent pas être chargées par lots dans la même cible au même moment.
20.8.4 Exemples de CDM basée sur l'horodatage
20.8.4.1 Conservation des clés générées
Pour des raisons de performances, la plupart des tables de dimension des entrepôts de données utilisent des clés générées pour effectuer la jointure avec la table des faits. Par exemple, le client ABC a la clé générée 123 dans la table de la dimension Client. Tous les faits du client ABC ont 123 comme clé client. Même si la dimension Client est de petite taille, vous ne pouvez pas simplement la recharger chaque fois qu'un enregistrement est modifié : à moins d'affecter la clé générée 123 au client ABC, la table de la dimension Client et la table des faits ne sont pas en corrélation.
Vous pouvez conserver les clés générées en utilisant la fonction de recherche ou en comparant les tables.
Informations associées
Utilisation de la fonction lookup [page 733]
Comparaison de tables [page 735]
20.8.4.1.1 Utilisation de la fonction lookup
Si la conservation de l'historique ne présente pas de problème et que le seul objectif est de générer les bonnes clés pour les lignes existantes, la technique la plus simple consiste à rechercher la clé de toutes les lignes à l'aide de la fonction lookup dans une requête. Si vous ne recherchez pas la clé, générez-en une nouvelle.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
733
Dans l'exemple suivant, la table de la dimension Client contient des clés générées. Lorsque vous exécutez un job pour mettre à jour cette table, les lignes source des clients doivent correspondre aux clés existantes.
Table source des clients
Table 329 :
Nom de société ID client
ABC
DEF
001
002
GHI
JKL
003
004
Table de dimension cible
Table 330 :
Gen_Key
123
124
125
Nom de société
ABC
DEF
GHI
ID client
001
002
003
Cet exemple de flux de données effectue les actions suivantes :
1. Il extrait les lignes source.
2. Il récupère les clés existantes à l'aide d'une fonction lookup dans le mappage d'une nouvelle colonne dans une requête.
3. Il charge le résultat dans un fichier (pour pouvoir tester cette phase du flux de données avant d'ajouter les
étapes suivantes).
La fonction lookup compare les lignes source à la cible. Les arguments de la fonction sont les suivants :
Table 331 : arguments de la fonction de recherche Description target_ds.owner.customer
GKey
NULL
CACHE_DE_PRECHARGEMENT
Nom qualifié complet de la table cible contenant les clés géné rées.
Nom de la colonne de la table cible contenant les clés géné rées.
Valeur NULL à insérer dans la colonne des clés si aucune clé existante n'est trouvée.
Option de mise en cache pour optimiser les performances de la recherche.
734
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
arguments de la fonction de recherche
Customer_ID
Customer_ID
Description
Colonne de la table cible contenant la valeur à utiliser pour faire correspondre les lignes.
Colonne de la table source contenant les valeurs à utiliser pour faire correspondre les lignes.
Le jeu de données résultant contient toutes les lignes de la source comportant les clés générées si elles sont disponibles.
Jeu de données du résultat
Table 332 :
Gen_Key Nom de société ID client
123 ABC 001
124
125
NULL
DEF
GHI
JKL
002
003
004
L'ajout d'une clé générée aux nouveaux enregistrements requiert le filtrage des nouvelles lignes à partir des lignes existantes et mises à jour. Dans le flux de données, les étapes suivantes sont nécessaires : une requête pour sélectionner les lignes avec des clés générées de valeur NULL. Une transformation Key_Generation pour déterminer la clé appropriée à ajouter. Un cible pour charger les nouvelles lignes dans la table de la dimension
Client.
Ce flux de données gère les nouvelles lignes. Cependant, les lignes de la source dont les clés ont été trouvées dans la table cible peuvent contenir des données mises à jour. Comme cet exemple suppose que la conservation de l'historique n'est pas une exigence, le progiciel charge toues les lignes de la source dans la cible.
20.8.4.1.1.1 Gestion des lignes mises à jour dans le flux de données
Le flux de données requiert de nouvelles étapes pour gérer les lignes mises à jour, comme suit :
1. Une nouvelle ligne quittant la requête qui a recherché les clés existantes.
2. Une requête pour filtrer les lignes comportant des clés existantes des lignes sans clés.
3. Un cible pour charger les lignes dans la table de la dimension Client.
20.8.4.1.2 Comparaison de tables
Inconvénient de la méthode des clés générées, même si la ligne n'a pas été modifiée, elle génère une opération
UPDATE et elle est chargée dans la cible. Si le nombre de lignes est important, une transformation
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
735
Table_Comparison présente une meilleure alternative en permettant au flux de données de charger uniquement les lignes modifiées.
La transformation Table_Comparison examine toutes les lignes sources et effectue les opérations suivantes :
● Elle génère une ligne INSERT pour toute nouvelle ligne absente de la table cible.
● Elle génère une ligne UPDATE pour toute ligne de la table cible ayant été modifiée.
● Elle ignore toute ligne de la table cible n'ayant pas été modifiée.
● Elle remplit les clés générées pour les lignes mises à jour.
Vous pouvez ensuite soumettre le résultat à une transformation Key Generation pour affecter une nouvelle clé à chaque ligne INSERT. C'est le jeu de données chargé dans la table cible par le progiciel.
Le flux de données qui applique cette transformation comprend les étapes suivantes :
1. Une source pour extraire les lignes des tables source.
2. Une requête pour mapper les colonnes de la source.
3. Une transformation Table_Comparison pour générer les lignes INSERT et UPDATE et renseigner les clés existantes.
4. Une transformation Key Generation pour générer les nouvelles clés.
5. Un cible pour charger les lignes dans la table de la dimension Client.
20.8.4.2 Conservation de l'historique
La transformation History Preserving permet à l'entrepôt de données ou au datamart de gérer l'historique des données pour pouvoir les analyser au fil du temps. Vous appliquerez probablement la conservation de l'historique aux tables de dimension.
Par exemple, si un client déménage d'une région de vente dans une autre, la simple mise à jour de la fiche client pour tenir compte de la nouvelle région donne des résultats trompeurs dans une analyse par région dans le temps, parce que les achats effectués par ce client avant son déménagement seront attribués de manière erronée
à la nouvelle région.
SAP Data Services fournit une transformation spéciale qui conserve l'historique des données pour éviter ce genre de situation. La transformation History_Preserving ignore tout, sauf les lignes marquées comme UPDATE. Pour ces lignes, elle compare les valeurs des colonnes indiquées et marque la ligne comme INSERT si les valeurs ont
été modifiées. Cela génère une deuxième ligne dans la cible au lieu de remplacer la première ligne.
Pour développer la manière dont le progiciel gère l'exemple du client qui déménage d'une région à une autre :
● Si Régionest une colonne marquée pour la comparaison, la transformation History_Preserving génère une nouvelle ligne pour ce client.
● Une transformation History_Preserving attribue à la nouvelle ligne une clé générée et la charge dans la table de la dimension Client.
● La ligne d'origine qui décrit le client reste dans la table de la dimension Client avec une clé unique générée.
Dans l'exemple suivant, un client a déménagé de la région Est dans la région Ouest et le numéro de téléphone d'un autre client a changé.
Table Client source
736
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
Table 333 :
Client
Café Chez Fred
Les beignets de Jane
Confiserie Sandy
Table Client cible
2
3
Table 334 :
GKey
1
Région
Est
Ouest
Centre
Client
Café Chez Fred
Les beignets de Jane
Confiserie Sandy
Région
Est
Est
Centre
Téléphone
(212) 123-4567
(650) 222-1212
(115) 231-1233
Téléphone
(212) 123-4567
(201) 777-1717
(115) 454-8000
Dans cet exemple, le flux de données conserve l'historique pour la colonne Région, mais pas pour la colonne
Téléphone. Le flux de données comporte les étapes suivantes :
1. Une source pour extraire les lignes des tables source.
2. Une requête pour mapper les colonnes de la source.
3. Une transformation Table_Comparison pour générer les lignes INSERT et UPDATE et renseigner les clés existantes.
4. Une transformation History_Preserving pour convertir certaines lignes UPDATE en lignes INSERT.
5. Une transformation Key Generation pour générer de nouvelles clés pour les lignes mises à jour, maintenant marquées comme INSERT.
6. Un cible pour charger les lignes dans la table de la dimension Client.
Il y a maintenant deux lignes pour Les beignets de Jane, les corrélations entre la table de dimension et la tables des faits doivent utiliser la valeur de clé la plus élevée.
Notez que les mises à jour des colonnes sans conservation de l'historique mettent à jour toutes les versions de la ligne si la mise à jour est effectuée sur la clé naturelle (par exemple, Client), et actualisent uniquement la dernière version si la mise à jour porte sur la clé générée (par exemple, GKey). Vous pouvez contrôler la clé à utiliser pour la mise à jour en configurant correctement les options de chargement dans l'éditeur de la cible.
20.8.4.2.1 date de début_validité et date de fin_validité
Pour prendre en charge des requêtes temporelles telles que "Quelle était l'adresse de facturation du client au 24 mai 1998", SAP Data Services prend en charge les colonnes de date de
Début de validité
et
Fin de validité
.
Dans les techniques de conservation de l'historique, plusieurs enregistrements sont définis dans la table cible avec les mêmes valeurs clés primaires source. Un enregistrement de la table source est considéré valide dans la table de dimensions pour toutes les valeurs de date t, de sorte que la date de
Début de validité
soit antérieure ou identique à t, qui est antérieur à la date de
Fin de validité
. (Valide dans ce sens signifie que la valeur clé d'enregistrement générée est utilisée pour charger la table de faits au cours de cet intervalle de temps.)
Lorsque vous indiquez les entrées
Début de validité
et
Fin de validité
, la transformation History_Preserving génère une mise à jour d'enregistrement et une instruction INSERT pour des raisons de conservation de l'historique (elle
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
737
convertit une instruction UPDATE en une instruction INSERT). La mise à jour d'enregistrement activera la colonne de date
Fin de validité
pour l'enregistrement en cours (l'une avec la même clé primaire comme instruction
INSERT) sur la valeur figurant dans la colonne de date
Début de validité
dans l'enregistrement INSERT.
20.8.4.2.2 Indicateur de mise à jour
Pour prendre en charge les techniques de dimensions évoluant lentement, Data Services permet d'activer un indicateur de mise à jour pour marquer l'enregistrement actuel dans une table de dimensions.
La valeur
Définir la valeur
dans la colonne
Colonne
identifie l'enregistrement valide actuel dans la table cible pour une clé primaire de table source donnée.
Lorsque vous indiquez
Colonne
, la transformation History_Preserving génère une mise à jour de l'enregistrement avant de générer une instruction INSERT.
Cette mise à jour de l'enregistrement active la valeur
Colonne
sur
Réinitialiser la valeur
dans l'enregistrement de table cible avec la même clé primaire source comme instruction INSERT.
Dans l'instruction INSERT, la
colonne
sera activée sur
Définir la valeur
.
Lorsque vous indiquez des entrées dans les deux groupes, la transformation History_Preserving génère une seule instruction UPDATE supplémentaire pour chaque instruction INSERT créée. Cette instruction UPDATE met à jour la valeur
Fin de validité
.
20.8.5 Autres astuces de conception de job
Lors de la conception d'un job destiné à implémenter la capture des données modifiées (CDM), vous devez tenir compte de :
● Synchronisation de l'en-tête et des détails
● Capture des suppressions physiques
20.8.5.1 Synchronisation de l'en-tête et des détails
Habituellement, les systèmes source effectuent le suivi des modifications des informations de l'en-tête et des détails de manière indépendante. Par exemple, si le statut d'un poste individuel est modifié, sa colonne "Date de dernière modification" se met à jour, contrairement à la même colonne au niveau de l'en-tête de la commande. A l'inverse, une modification de l'adresse par défaut du destinataire dans l'en-tête de la commande peut n'impacter aucun des postes individuels existants.
Toutefois, dans certains cas, le système source peut ne pas mettre à jour ces colonnes de suivi de manière cohérente, ou bien vous pouvez ne pas avoir accès à ces informations (par exemple, si les lignes sont physiquement supprimées). Dans ces cas, vous pouvez choisir d'extraire toutes les information de l'en-tête et des détails, que les modifications soient au niveau de l'en-tête ou d'un poste individuel.
Pour extraire toutes les lignes de l'en-tête et des détails si un de ces éléments a été modifié, utilisez un calcul similaire à cette instruction SQL :
738
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Capture de données modifiées
SELECT … FROM HEADER, DETAIL WHERE HEADER.ID = DETAIL.ID AND (HEADER.LAST_MODIFIED BETWEEN
$G_SDATE AND $G_EDATE OR DETAIL.LAST_MODIFIED BETWEEN $G_SDATE AND $G_EDATE)
Pour certaines bases de données, cette clause WHERE n'est pas bien optimisée et peut provoquer une sérieuse dégradation des performances. Vous pouvez opter pour une simplification de cette clause en supprimant une des bornes supérieures, comme dans :
… WHERE HEADER.ID = DETAIL.ID AND (HEADER.LAST_MODIFIED BETWEEN $G_SDATE AND $G_EDATE OR
DETAIL.LAST_MODIFIED >= $G_SDATE) …
Le nombre de lignes extraites peut être un peu supérieur à ce qui était prévu à l'origine, mais les performances finales du système peuvent être améliorées tout en ne modifiant pas le résultat de la base de données cible.
20.8.5.2 Capture des suppressions physiques
Lorsque le système source permet de supprimer physiquement des lignes, votre job doit comprendre un calcul pour mettre à jour la base de données cible en conséquence. Plusieurs méthodes le permettent :
● Lecture d'un journal des opérations — Si votre système journalise les transactions dans un format lisible ou si vous pouvez modifier le système pour qu'il génère un tel journal, vous pouvez lire ce journal pour identifier les lignes à supprimer.
● Exécution d'une actualisation complète — Rechargez simplement l'ensemble des données, ce qui synchronise entièrement le système source et la base de données cible.
● Exécution d'une actualisation partielle sur la base d'une fenêtre temporelle pilotée par les données — Par exemple, supposons que le système source permet uniquement la suppression physique des commandes n'ayant pas été clôturées. Si la première commande non clôturée de la table source a eu lieu il y a six mois, l'actualisation des six derniers mois de données garantit la réussite de la synchronisation.
● Exécution d'une actualisation partielle sur la base d'une fenêtre temporelle pilotée par l'entreprise — Par exemple, supposons que l'entreprise prise en charge par le job supprime habituellement les commandes peu de temps après les avoir créées. Dans ce cas, l'actualisation du dernier mois de commandes est appropriée pour conserver l'intégrité.
● Contrôle de chaque commande pouvant éventuellement être supprimée — Vous devez vérifier si toute commande non clôturée a été supprimée. Pour être efficace, cette technique requiert de conserver un enregistrement des clés primaires pour chaque objet candidat à la suppression.
Lorsque les suppressions physiques des informations détaillées d'une relation en-tête/détails sont possibles (par exemple, suppression des postes individuels d'une commande existante), vous devez capturer ces suppressions physiques lors de la synchronisation des informations de l'en-tête et des détails.
20.9 Utilisation de la CDM pour les cibles
La capture des données modifiées basée sur la source est pratiquement toujours préférables à la capture basée sur la cible pour des raisons de performances.
Cependant, certains systèmes source ne fournissent pas assez d'informations pour utiliser les techniques de capture des données modifiées basée sur la source. La capture des données modifiées basée sur la cible permet d'utiliser cette technique lorsque les informations de modification basées sur la source sont limitées.
Guide de Designer
Capture de données modifiées
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
739
21 Surveillance des Jobs
21.1 Administrateur
L'application Administrateur dans la Console de gestion constitue la principale ressource de surveillance pour tous les jobs conçus dans Designer. Pour en savoir plus, voir la section «Administrateur» du guide Management
Console Guide.
740
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Surveillance des Jobs
22 Développement multi-utilisateurs
A propos des utilisateurs multiples
SAP Data Services prend en charge un environnement de développement multi-utilisateurs. Une équipe peut travailler en commun sur une application durant la phase de développement, de test ou de production. Différentes
équipes peuvent également travailler sur différentes phases au même moment.
Chaque développeur travaille sur une application dans son référentiel local unique. Chaque équipe utilise un référentiel central pour stocker la copie principale de son application. Le référentiel central conserve toutes les versions de tous les objets de l'application, il est donc possible de revenir à une version précédente si nécessaire.
Informations associées
Référentiel central et référentiel local [page 741]
Utilisateurs multiples [page 742]
22.1 Référentiel central et référentiel local
Vous pouvez créer un référentiel central pour stocker la copie d'équipe d'une application SAP Data Services. Le référentiel central contient toutes les informations qui se trouvent normalement dans un référentiel local, par exemple les définitions de chaque objet d'une application. Cependant, le référentiel central est uniquement un emplacement de stockage de ces informations. Pour modifier les informations, il faut travailler dans un référentiel local.
Un référentiel local fournit une vue du référentiel central. Vous pouvez "obtenir" (copier) dans votre référentiel local les objets du référentiel central. Néanmoins, pour apporter des modifications à un objet, vous devez
"l'extraire " du référentiel central dans votre référentiel local. Lorsque vous avez extrait un objet du référentiel central, les autres utilisateurs ne peuvent pas en faire de même, ils ne peuvent donc pas modifier les informations.
Après modification, vous "rechargez" l'objet modifié. Lors du rechargement des objets, le logiciel enregistre les objets nouveaux et modifiés dans le référentiel central.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
741
Plusieurs utilisateurs travaillant à partir de référentiels locaux uniques peuvent se connecter au même référentiel central. Ces utilisateurs peuvent travailler sur la même application et partager leur travail. Cependant, à un moment donné, un seul utilisateur peut extraire et modifier un objet particulier. Lorsqu'un objet est extrait pour un utilisateur, les autres utilisateurs peuvent en obtenir une copie, mais sans y apporter de modifications mettant à jour le référentiel central.
Le référentiel central conserve l'historique de chaque objet. Par conséquent, si vous estimez qu'une modification apportée à un objet ne fonctionne pas comme prévu, vous pouvez revenir à une version précédente de l'objet.
Le référentiel local et le référentiel central doivent utiliser la même version logicielle. Par exemple, vous pouvez exécuter SAP Data Services Designer X.2 avec une version X.1 de référentiel central et local. Il est cependant impossible d'exécuter SAP Data Services X.2 avec un référentiel central X.1 et un référentiel local X.2
22.2 Utilisateurs multiples
Un environnement multi-utilisateurs affecte la manière dont vous utilisez SAP Data Services et dont vous gérez les différentes phases d'une application. Pour une utilisation adéquate d'un environnement multi-utilisateurs, vous devez maintenir la cohérence entre votre référentiel local et le référentiel central.
Les termes suivants s'appliquent aux environnements logiciel et multi-utilisateurs :
Table 335 :
Terme
Objet de niveau supérieur
Objets dépendants
Définition
L'objet de niveau supérieur ne dépend d'aucun autre dans la hiérarchie des objets. Par exem ple, si Job 1 comprend Workflow 1 et Flux de données 1, Job 1 est l'objet de niveau supérieur.
Les objets dépendants sont des objets associés en dessous de l'objet de niveau supérieur dans la hiérarchie. Par exemple, si Job 1 comprend Workflow 1, qui contient Flux de données 1, alors Workflow 1 et Flux de données 1 sont dépendants de Job 1. En outre, Flux de données 1 est dépendant de Workflow 1.
742
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
Terme
Version d'objet
Définition
Une version d'objet est une instance d'un objet. Chaque fois que vous ajoutez ou rechargez un objet dans le référentiel central, le logiciel crée une nouvelle version de l'objet. La dernière ver sion d'un objet est la version la plus récemment créée.
En travaillant dans un environnement multi-utilisateurs, vous activez le lien entre votre référentiel local et le référentiel central correspondant chaque fois que vous vous connectez. Pour garantir l'actualisation de votre référentiel, vous pouvez obtenir (copier) la dernière version de chaque objet du référentiel central. Après avoir obtenu une application dans votre référentiel local, vous pouvez l'afficher et l'exécuter depuis Designer.
Toutefois, si vous prévoyez de modifier des objets dans l'application, vous devez les extraire. Après extraction d'un objet, aucun autre utilisateur ne peut le modifier. Principalement, vous verrouillez la version du référentiel central et vous seul pouvez la modifier. Les autres utilisateurs peuvent uniquement obtenir et afficher l'objet.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
743
Lorsque vous apportez des modifications à un objet, enregistrez-les dans le référentiel local et rechargez l'objet dans le référentiel central. Le progiciel enregistre les objets modifiés dans le référentiel central et les rend disponibles pour une extraction par les autres utilisateurs. Le progiciel gère toutes les versions des objets enregistrés dans le référentiel central. Ultérieurement, vous pouvez donc copier une ancienne version d'un objet enregistré, même après l'avoir remplacé dans votre référentiel local par une nouvelle version.
A tout moment, vous pouvez étiqueter un objet ou un groupe d'objets. Une étiquette d'objet représente un mécanisme pratique pour identifier les objets par la suite. Par exemple, vous pouvez trouver utile d'étiqueter des objets par fonctionnalité. Ensuite, si vous décidez d'éliminer une fonctionnalité récemment ajoutée, vous pouvez obtenir tous les objets ayant une étiquette sans cette fonctionnalité.
Vous pouvez également comparer deux objets, par exemple deux versions d'objet différentes dans le référentiel central ou un objet de votre référentiel local avec un objet du référentiel central. En comparant deux objets, vous pouvez déterminer quelles parties d'un objet ont été modifiées et décider de revenir à une ancienne version d'un objet.
Informations associées
Guide de Designer : Conception et débogage, Comparaison d'objets [page 644]
744
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
22.3 Sécurité et référentiel central
Il existe plusieurs options pour sécuriser le référentiel central. Utilisez ces options pour contrôler l'accès et fournir un suivi des objets dans le référentiel central. Ces options de sécurité s'appliquent uniquement aux référentiels centraux et comprennent :
● Authentification : autorise uniquement les utilisateurs valides à se connecter à un référentiel central.
● Autorisation : accorde différents niveaux d'autorisations sur les objets.
● Audit : gère un historique des modifications apportées à un objet, y compris les noms d'utilisateur.
Mettez en place la sécurité d'un référentiel central en établissant une structure de groupes et utilisateurs associés
à l'aide de l'Administrateur.
Informations associées
Implémentation de la sécurité du référentiel central [page 749]
22.4 Configuration d'environnement multi-utilisateurs
Présentation de la configuration multi-utilisateurs
Pour prendre en charge plusieurs développeurs, configurez un environnement multi-utilisateurs et plusieurs référentiels. Notamment, vous devez :
● Créer un référentiel local pour chaque développeur.
● Créer un référentiel central.
● Définir une connexion au référentiel central à partir de chaque référentiel local.
● Activer la connexion à un référentiel central.
Informations associées
Création d'un référentiel central non sécurisé [page 746]
Définition d'une connexion à un référentiel central non sécurisé [page 746]
Activation d'un référentiel central [page 747]
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
745
22.4.1 Création d'un référentiel central non sécurisé
Pour prendre en charge plusieurs utilisateurs dans un seul environnement de développement, nous vous recommandons d'utiliser un référentiel central. Le référentiel central archive des informations de base pour l'environnement de développement.
Cette procédure s'applique uniquement à des référentiels non sécurisés.
1. Créez une base de données à utiliser pour le référentiel central à l'aide de votre système de gestion de base de données.
2. Sélectionnez
Démarrer Programmes SAP Data Services 4.2
Gestionnaire de référentiel Data
Services
.
3. Dans la fenêtre Gestionnaire de référentiel, cliquez sur le bouton
Central
dans le champ
Type de référentiel
et saisissez les informations de connexion au référentiel central.
4. Cliquez sur
Créer
.
Les tables de référentiel sont créées dans la base de données que vous avez identifiée.
Informations associées
Implémentation de la sécurité du référentiel central [page 749]
22.4.2 Définition d'une connexion à un référentiel central non sécurisé
Une équipe travaillant sur une application a besoin d'un seul référentiel central. Cependant chaque membre de l'équipe a besoin d'un référentiel local. De plus, chaque référentiel local a besoin d'informations de connexion à tout référentiel central auquel il doit accéder.
Cette procédure s'applique uniquement à des référentiels non sécurisés.
Remarque
La version du référentiel central doit correspondre à la version du référentiel local.
1. Lancez Designer et connectez-vous au référentiel local.
2. Sélectionnez
Outils Référentiels centraux
pour ouvrir la fenêtre Options.
L'option Connexions au référentiel central est sélectionnée dans la liste des options de Designer
3. Cliquez avec le bouton droit de la souris dans la case
Connexions au référentiel central
et sélectionnez
Ajouter
.
La fenêtre
Mot de passe du référentiel
s'ouvre.
4. Saisissez le mot de passe pour le référentiel central.
Le référentiel apparaît dans la zone
Connexions au référentiel central
.
5. Cliquez sur
Activer
.
746
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
6. Saisissez à nouveau le mot de passe pour le référentiel central.
7. Cliquez sur
OK
.
Informations associées
Implémentation de la sécurité du référentiel central [page 749]
22.4.3 Activation d'un référentiel central
Pour connecter un référentiel central, vous devez activer le lien entre votre référentiel local et un référentiel central spécifique.
Remarque
Lorsque vous démarrez Designer, connectez-vous toujours à un référentiel local. Ne vous connectez jamais à un référentiel central. Si vous le faites, le référentiel central agit comme un référentiel local. Vous augmentez alors le risque de corruption des informations de version. Si vous essayez de vous connecter au référentiel central, un message d'avertissement s'affichera. Vous devez vous déconnecter immédiatement et vous connecter à un référentiel local.
Votre référentiel local donne un aperçu des objets du référentiel central actif. Chaque fois que vous accédez à des objets ou les extrayez, vous les copiez du référentiel central actif. Chaque fois que vous rechargez des objets, vous sauvegardez la version de votre référentiel local dans votre référentiel central actif.
Vous devez activer le référentiel central correct chaque fois que vous vous connectez. Lorsque vous activez un référentiel central, la bibliothèque centrale d'objets s'ouvre et présente tous les objets du référentiel central et le statut d'extraction de chaque objet.
22.4.3.1 Activation d'un référentiel central
1. Sélectionnez
Outils Référentiels centraux
pour ouvrir la fenêtre Options.
L'option Connexions au référentiel central est sélectionnée dans la liste des options de Designer
2. Dans la liste
Connexions au référentiel central
, déterminez un référentiel central à activer.
3. Cochez
Réactiver automatiquement
pour réactiver le référentiel central actif lors de votre prochaine connexion à ce référentiel local.
4. Cliquez avec le bouton droit de la souris sur le référentiel central et sélectionnez
Activer
.
La bibliothèque d'objets centrale s'ouvre. La fenêtre Options indique que le référentiel central sélectionné est actif et se ferme automatiquement.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
747
22.4.3.2 Ouvrir la bibliothèque d'objets centrale.
Cliquez sur le bouton
Bibliothèque d'objets centrale
dans la barre d'outils.
La bibliothèque d'objets centrale ressemble à la bibliothèque d'objets, elle affiche tous les objets dans le référentiel, regroupés dans les onglets appropriés.
La fenêtre s'ouvre en mode flottant. Faites glisser la fenêtre pour l'ancrer. Pour modifier l'état d'ancrage, cliquez avec le bouton droit sur la barre d'outils Bibliothèque d'objets centrale et basculez vers
Ancrage
.
Vous pouvez également modifier les informations de connexion au référentiel central à partir de la bibliothèque d'objets centrale.
22.4.3.3 Modifier le référentiel central actif
Sélectionnez un référentiel central dans la liste en haut de la bibliothèque d'objets centrale.
SAP Data Services active la bibliothèque centrale sélectionnée, les objets de ce référentiel s'affichent dans la bibliothèque d'objets centrale. Les informations de connexion relatives à ce référentiel s'affichent en haut à droite de la bibliothèque d'objets centrale.
22.4.3.4 Modifier les connexions au référentiel central
1. Cliquez sur le bouton
Modifier la connexion au référentiel central
en haut de la bibliothèque d'objets centrale.
La fenêtre Options s'ouvre avec l'option Connexions au référentiel central sélectionnée dans la liste des options de Designer.
Vous pouvez également ouvrir la fenêtre Options en sélectionnant
Outils référentiels centraux
.
2. Sélectionnez un référentiel central dans le cadre
Connexions au référentiel central
, cliquez avec le bouton droit de la souris et sélectionnez
Modifier
.
Lorsque la fenêtre Administrateur de banque de données s'ouvre :
○ Pour vous déconnecter du référentiel central actuellement actif, cliquez avec le bouton droit de la souris sur le référentiel central dans le cadre
Banques de données du référentiel central
et sélectionnez
Désactiver
○ Pour supprimer des informations de connexion pour un référentiel central, cliquez avec le bouton droit de la souris sur le cadre
Banques de données de référentiel central
et sélectionnez
Supprimer
.
Une fois que vous avez confirmé votre sélection, les informations de connexion de ce référentiel local sont supprimées. Vous ne pouvez plus vous connecter à ce référentiel central à partir de ce référentiel local.
Remarque
Vous ne supprimez pas le référentiel central, vous supprimez uniquement les informations de connexion entre votre référentiel local et ce référentiel central.
○ Pour activer un autre référentiel du référentiel central, cliquez avec le bouton droit de la souris sur le cadre
Banques de données de référentiel central
et sélectionnez
Activer
.
748
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
22.5 Implémentation de la sécurité du référentiel central
A propos de cette section
Cette section décrit comment implémenter des fonctionnalités de sécurité facultatives pour les référentiels centraux.
22.5.1 Présentation
SAP Data Services propose des options pour la gestion de l'accès sécurisé et le suivi des objets dans les référentiels centraux. Les mécanismes de gestion de la sécurité du référentiel central comprennent :
● Authentification : autorise les utilisateurs valides à se connecter à un référentiel central.
● Autorisation : accorde différents niveaux d'autorisations sur les objets.
● Audit : gère un historique des modifications apportées à un objet, y compris les noms d'utilisateur.
Notez que ces mécanismes et procédures de sécurité s'appliquent uniquement aux référentiels centraux.
22.5.1.1 Autorisations basées sur le groupe
Vous implémentez la sécurité d'un référentiel central en établissant une structure de groupes et d'utilisateurs associés à l'aide de l'Administrateur et de la CMC (Central Management Console).
Les autorisations d'accès aux objets s'appliquent au niveau du groupe. Plusieurs groupes peuvent disposer de la même autorisation sur le même objet à un moment donné. Les groupes sont spécifiques à un référentiel et ne sont visibles dans aucun autre référentiel local ou central.
Par conséquent, les utilisateurs n'obtiennent pas d'autorisations individuelles. Dans Designer, les utilisateurs sélectionnent parmi les groupes auxquels ils appartiennent, et le groupe sélectionné (actuel) impose son accès à cet objet. Chaque utilisateur doit avoir un groupe par défaut, mais peut appartenir à plusieurs groupes. Lorsqu'un utilisateur ajoute un objet à un référentiel central sécurisé, le groupe actuel de l'utilisateur dispose d'autorisations complètes sur cet objet.
Une authentification par nom d'utilisateur et mot de passe est requise pour chaque connexion à un référentiel central sécurisé. Les utilisateurs peuvent modifier leur mot de passe à tout moment dans la CMC (Central
Management Console).
22.5.1.2 Niveaux d'autorisation
Chaque objet d'un référentiel central sécurisé peut disposer d'un des niveaux d'autorisation suivants :
● Complète : c'est le niveau d'autorisation le plus élevé. Le groupe peut exécuter toutes les actions possibles, y compris rechargement, extraction et suppression de l'objet. Vous pouvez par exemple affecter ce type d'accès aux développeurs.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
749
● Lecture : les utilisateurs peuvent uniquement obtenir une copie de l'objet depuis le référentiel central ou comparer les objets entre leurs bibliothèques d'objets locale et centrale. Vous pouvez par exemple affecter ce type d'accès à l'Assurance-Qualité.
● Aucune : les utilisateurs ne peuvent pas obtenir de copies de l'objet, mais peuvent l'afficher avec ses propriétés.
Lorsqu'un utilisateur authentifié ajoute un objet à un référentiel central sécurisé, le groupe actuel de l'utilisateur dispose d'autorisations complètes sur l'objet. Tous les autres groupes reçoivent l'autorisation Lecture. Les membres du groupe disposant des autorisations complètes peuvent modifier les autorisations des autres groupes pour cet objet.
22.5.1.3 Synthèse du processus
Vous implémentez la sécurité pour un référentiel central en :
1. Utilisant le Gestionnaire de référentiel pour ajouter un référentiel central sécurisé ou mettre à niveau un référentiel central non sécurisé existant.
2. Utilisant la CMC (Central Management Console) pour ajouter des utilisateurs.
3. Utilisant l'Administrateur pour ajouter des utilisateurs aux groupes des référentiels centraux.
4. Définissant la connexion à partir de Designer.
5. Ajoutant des objets au référentiel central ainsi que des autorisations d'affichage et modification des objets.
Informations associées
Création d'un référentiel central sécurisé [page 750]
Ajout d'un administrateur multi-utilisateurs (facultatif) [page 751]
Configuration des groupes et utilisateurs [page 752]
Définition d'une connexion vers un référentiel central sécurisé [page 752]
Utilisation d'objets dans un référentiel central sécurisé [page 753]
22.5.2 Création d'un référentiel central sécurisé
La première étape de l'établissement de mesures de sécurité pour le développement multi-utilisateurs consiste à créer un référentiel central sécurisé ou à mettre à niveau un référentiel central non sécurisé existant.
Remarque
Ces procédures s'appliquent uniquement aux référentiels sécurisés.
750
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
Informations associées
Configuration d'environnement multi-utilisateurs [page 745]
22.5.2.1 Création d'un référentiel central sécurisé
1. Créez une base de données à utiliser pour le référentiel central à l'aide de votre système de gestion de base de données.
2. Sélectionnez
Démarrer Programmes SAP Data Services 4.2
Gestionnaire de référentiel Data
Services
.
3. Dans la fenêtre Gestionnaire de référentiel, cliquez sur le bouton
Central
dans le champ Type de référentiel et saisissez les informations de connexion au référentiel central.
4. Cochez la case
Activer la sécurité
.
5. Cliquez sur
Créer
.
Le progiciel crée les tables du référentiel dans la base de données que vous avez identifiée.
22.5.2.2 Mise à niveau d'un référentiel central, de non sécurisé
à sécurisé
Vous pouvez modifier un référentiel central existant pour le sécuriser, mais cette modification ne peut pas être annulée.
1. Ouvrez le Gestionnaire de référentiel.
2. Dans la fenêtre Gestionnaire de référentiel, cliquez sur le bouton
Central
dans le champ Type de référentiel et saisissez les informations de connexion à la base de données du référentiel central à modifier.
3. Cochez la case
Activer la sécurité
.
4. Cliquez sur
Mettre à niveau
.
Le progiciel met à niveau les tables du référentiel dans la base de données que vous avez identifiée.
Remarque
Lorsque vous mettez à niveau un référentiel central non sécurisé existant pour qu'il devienne sécurisé, un nouveau groupe, DIGroup, est automatiquement créé pour vous et affiché dans
Console de gestion
Administrateur Référentiels centraux
. Pour accéder au référentiel, ajoutez des utilisateurs existants au groupe dans l'Administrateur.
22.5.3 Ajout d'un administrateur multi-utilisateurs (facultatif)
Dans la Central Management Console (CMC), vous avez la possibilité d'ajouter un utilisateur ayant le rôle d'Administrateur multi-utilisateurs. Ce rôle est limité à la gestion des référentiels centraux sécurisés, c'est donc
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
751
un sous-ensemble du rôle d'Administrateur. Par exemple, les administrateurs multi-utilisateurs ne peuvent pas ajouter un référentiel local ou un référentiel central non sécurisé.
Les administrateurs multi-utilisateurs peuvent :
● ajouter et supprimer des référentiels centraux sécurisés ;
● gérer les utilisateurs et les groupes ;
● afficher les rapports des référentiels centraux sécurisés.
22.5.4 Configuration des groupes et utilisateurs
L'étape suivante de l'implémentation de la sécurité d'un référentiel central consiste à ajouter et configurer les groupes et utilisateurs avec la Central Management Console (CMC) et l'Administrateur.
22.5.5 Définition d'une connexion vers un référentiel central sécurisé
L'étape suivante de l'implémentation de la sécurité d'un référentiel central est la définition d'une connexion vers le répertoire dans Designer.
Cette procédure s'applique uniquement aux référentiels centraux sécurisés.
1. Lancez Designer et connectez-vous au référentiel local.
2. Dans le menu
Outils
, cliquez sur
Référentiels centraux
pour ouvrir la fenêtre Options.
L'option Connexions au référentiel central doit être sélectionnée dans la liste Designer.
3. Cliquez sur
Ajouter
.
4. Saisissez vos informations de connexion au CMS (Central Management Server) et cliquez sur
Se connecter
.
5. Sélectionnez le référentiel central sécurisé auquel vous désirez vous connecter.
6. Cliquez sur
OK
.
La liste de connexions au référentiel central comprend désormais le référentiel central venant d'être connecté et il est identifié comme sécurisé.
7. Le référentiel étant sélectionné, cliquez sur
Activer
.
8. Cliquez sur
OK
.
Informations associées
Configuration d'environnement multi-utilisateurs [page 745]
Activation d'un référentiel central [page 747]
752
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
22.5.6 Utilisation d'objets dans un référentiel central sécurisé
Informations associées
Ajout d'objets au référentiel central [page 755]
Affichage et modification des autorisations [page 753]
22.5.6.1 Affichage et modification des autorisations
Après avoir terminé toutes les tâches de configuration et l'ajout d'objets au référentiel central sécurisé, utilisez la bibliothèque d'objets centrale pour afficher et modifier les autorisations de groupe des objets.
22.5.6.1.1 Afficher les autorisations d'un objet
1. Lancez Designer et connectez-vous au référentiel local.
2. Ouvrez la bibliothèque d'objets centrale sécurisée.
Votre groupe par défaut s'affiche dans la liste déroulante en haut de la fenêtre et il est marqué d'un astérisque. La colonne Autorisations affiche le niveau d'accès du groupe actuel pour chaque objet. Si vous ajoutez un nouvel objet à la bibliothèque centrale, le groupe actuel obtient les autorisations COMPLETES et tous les autres groupes obtiennent l'autorisation LECTURE.
22.5.6.1.2 Modifier les autorisations des objets pour les autres groupes.
Vous devez disposer d'autorisations complètes pour modifier l'accès aux objets pour les autres groupes.
1. Dans la bibliothèque d'objets centrale, cliquez avec le bouton droit sur l'objet, puis cliquez sur
Autorisation
Configuration de l'adaptateur du CDM Objet
ou sur
Autorisation Objet et dépendants
.
2. La boîte de dialogue
Autorisation
s'ouvre, elle affiche une liste des groupes disponibles et le niveau d'accès du groupe pour les objets.
3. Cliquez dans la colonne
Autorisation
, puis sélectionnez dans la liste déroulante un niveau d'autorisation pour le groupe.
4. Cliquez sur
Appliquer
ou
OK
.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
753
22.5.6.1.3 Modification du groupe actuel ou du groupe par défaut
1. Pour modifier le groupe actuel, sélectionnez un groupe dans la zone déroulante de la bibliothèque d'objets centrale.
2. Pour modifier votre groupe par défaut, sélectionnez le groupe voulu dans la liste déroulante et cliquez sur l'icône Enregistrer.
Le progiciel marque le groupe par défaut d'un astérisque.
22.6 Travail dans un environnement multi-utilisateurs
Pour des résultats optimum du développement au sein d'un environnement multi-utilisateurs, certains processus sont recommandés, tels que le rechargement et l'extraction d'objets modifiés, ainsi que l'établissement d'un ensemble de conventions respectées par votre équipe, comme l'étiquetage des objets.
22.6.1 Filtrage
SAP Data Services permet de personnaliser des informations spécifiques à l'environnement dans les définitions d'objets en les filtrant (en les modifiant par une sélection). Les objets d'application peuvent contenir des informations spécifiques aux référentiels. Par exemple, les banques et bases de données peuvent faire référence
à une connexion à la base de données spécifique à un utilisateur ou à une phase du développement. Lorsque plusieurs utilisateurs travaillent sur une application, ils peuvent modifier les informations spécifiques aux référentiels.
Le filtrage permet notamment de :
● Modifier les informations de connexion d'une banque ou d'une base de données
● Modifier le répertoire racine de fichiers associés à un format de fichier particulier
● Sélectionner ou effacer certains objets dépendants
Le processus de filtrage est accessible lors de l'ajout, du rechargement, de l'extraction ou de l'obtention des derniers objets ou des objets étiquetés dans un référentiel central.
Lors de la sélection d'une commande utilisant l'option de filtrage :
1. La fenêtre
Confirmation du contrôle de version
affiche les objets sélectionnés et tous les objets dépendants.
Vous pouvez exclure des objets en les sélectionnant puis en remplaçant la valeur du
statut cible créer
par
exclure
.
2. La fenêtre
Options de la banque de données
affiche toutes les banques de données utilisées par l'objet. Cette fenêtre ne s'ouvre que si les objets ajoutés, rechargés ou extraits incluent une banque de données.
754
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
22.6.2 Ajout d'objets au référentiel central
Une fois le référentiel central créé, connecté au référentiel local puis activé, vous pouvez ajouter des objets du référentiel local au référentiel central. Souvenez-vous : l'ensemble de la conception (création des jobs, des workflows et des flux de données) s'effectue dans un référentiel local. Vous utilisez ainsi un référentiel local pour la création initiale de tout objet dans une application. Après la création initiale d'un objet, vous l'ajoutez au référentiel central. Une fois dans le référentiel central, l'objet est soumis au contrôle de version et peut être partagé entre plusieurs utilisateurs.
Vous pouvez ajouter un seul objet ou un objet et tous ses objets dépendants au référentiel central. Lors de l'ajout d'un objet unique tel qu'un flux de données, seul cet objet est ajouté. Aucun objet dépendant n'est ajouté.
Vous pouvez ajouter des objets au référentiel central à tout moment. Toutefois, il est impossible d'ajouter un objet déjà existant dans le référentiel central.
Il est impossible d'ajouter une configuration de transformation en lecture seule au référentiel. Vous pouvez cependant répliquer une configuration de transformation puis ajouter la réplique au référentiel.
22.6.2.1 Ajouter un objet unique au référentiel central
1. Ouvrez la bibliothèque d'objets locale.
2. Cliquez avec le bouton droit de la souris sur l'objet et sélectionnez
Ajouter au référentiel central Objet
.
3. La fenêtre Commentaires s'ouvre. Saisissez un commentaire dans le champ
Commentaires
puis cliquez sur
OK
.
Le progiciel ajoute l'objet au référentiel central actif.
Remarque
La commande Ajouter au référentiel central n'est pas disponible si l'objet existe déjà dans le référentiel central.
22.6.2.2 Ajouter un objet et ses objets dépendants au référentiel central
1. Ouvrez la bibliothèque d'objets locale.
2. Cliquez avec le bouton droit de la souris sur l'objet puis sélectionnez
Ajouter au référentiel central Objet et dépendants
ou
Ajouter au référentiel central Avec filtrage
(si le filtrage est requis).
3. La fenêtre Commentaires s'ouvre. Saisissez un commentaire dans le champ
Commentaires
puis cliquez sur
OK
.
4. Si vous avez sélectionné
Avec filtrage
, renseignez les fenêtres de filtrage.
5. Cliquez sur
Terminer
pour ajouter les objets sélectionnés.
Il est également possible de sélectionner l'objet et de le faire glisser vers la bibliothèque d'objets centrale pour ajouter l'objet et ses objets dépendants au référentiel central. Les fenêtres de filtrage s'affichent.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
755
Remarque
La commande
Ajouter au référentiel central
n'est pas disponible si l'objet existe déjà dans le référentiel central.
Toutefois, la commande
Ajouter au référentiel central
est disponible si les dépendants de l'objet existent déjà dans le référentiel central et non l'objet lui-même.
Remarque
Il est impossible d'ajouter une configuration de transformation en lecture seule au référentiel. Pour exécuter cette action, il est nécessaire de créer un nouveau référentiel, de mettre à niveau le référentiel existant ou d'importer l'ATL contenant une nouvelle version des configurations de transformation en lecture seule.
Informations associées
22.6.3 Extraction d'objets
Lorsque vous envisagez de modifier un ou plusieurs objets d'une application, il est conseillé d'extraire les objets concernés. Lors de l'extraction, l'objet n'est plus disponible pour les autres utilisateurs. Ils peuvent afficher l'objet mais ne peuvent pas le modifier. L'extraction d'un objet permet d'éviter toute modification conflictuelle d'objet effectuée simultanément par deux utilisateurs.
Data Services modifie les icônes de l'objet dans les bibliothèques d'objets locale et centrale pour indiquer que l'objet est extrait.
Lorsque vous avez extrait un objet, la bibliothèque d'objets centrale affiche le référentiel central qui a effectué l'extraction. En fonction du nom du référentiel, il est possible de déterminer l'utilisateur travaillant avec cet objet.
Pour afficher les modifications périodiques, actualisez la bibliothèque d'objets centrale en cliquant sur le bouton
Actualiser la bibliothèque d'objets centrale
dans la barre d'outils de la bibliothèque d'objets centrale.
Sélectionnez une commande d'extraction selon l'action souhaitée sur l'objet.
22.6.3.1 Extraire des objets uniques ou des objets avec leurs dépendants
Les dépendants sont des objets utilisés par d'autres objets, par exemple des flux de données appelés à partir d'un workflow. Vous pouvez extraire un seul objet ou un objet et tous ses objets dépendants (tels que calculés dans le référentiel central). Il est par exemple possible d'extraire un workflow uniquement. Dans ce cas, vous pouvez modifier ce workflow, en lui ajoutant un nouveau script par exemple. Toutefois, vous ne pouvez pas modifier d'objets dépendants, comme les flux de données, dans le workflow et conserver les modifications dans le référentiel central. Les modifications effectuées sur les objets dépendants seront uniquement conservées dans le
756
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
référentiel local. Il est également possible d'extraire le workflow et tous ses dépendants. Dans ce cas, vous pouvez modifier le workflow ou ses dépendants, puis conserver ces modifications dans les référentiels central et local.
Il est en général plus sûr d'extraire un objet avec l'ensemble de ses objets dépendants. Vous empêchez ainsi d'autres utilisateurs de modifier des objets dépendants par inadvertance.
22.6.3.1.1 Extraction d'un objet unique
1. Ouvrez la bibliothèque d'objets centrale.
2. Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez extraire.
3. Sélectionnez
Extraire Objet
.
Il est également possible de sélectionner l'objet dans la bibliothèque d'objets centrale, puis de cliquer sur le bouton
Extraire l'objet
situé en haut de la bibliothèque d'objets centrale.
Le progiciel copie la dernière version de l'objet sélectionné du référentiel central vers votre référentiel local, puis marque l'objet comme extrait.
22.6.3.1.2 Extraction d'un objet et de ses objets dépendants
1. Ouvrez la bibliothèque d'objets centrale.
2. Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez extraire.
3. Sélectionnez
Extraire Objet et dépendants
.
Il est également possible de sélectionner l'objet dans la bibliothèque d'objets centrale, puis de cliquer sur le bouton
Extraire l'objet et les dépendants
situé en haut de la bibliothèque d'objets centrale.
SAP Data Services copie la version la plus récente de l'objet sélectionné et de tous ses objets dépendants depuis le référentiel central, puis marque ces objets comme extraits.
Si vous ou un autre utilisateur extrayez un objet dépendant, le progiciel vous le signale à l'aide d'une fenêtre
Alerte d'extraction et vous invite à obtenir la dernière version de l'objet extrait.
Informations associées
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
757
22.6.3.2 Extraire des objets uniques ou des objets avec leurs dépendants sans remplacement
Lors de l'extraction d'un objet, il est possible de remplacer l'objet de votre référentiel local par la dernière version de celui-ci dans le référentiel central. Vous pouvez aussi laisser sa version actuelle intacte dans votre référentiel local.
Lorsque vous extrayez un objet, SAP Data Services copie sa définition à partir du référentiel central et remplace toute définition d'objet présente dans votre référentiel local.
Vous pouvez extraire des objets sans les remplacer dans votre référentiel local. Supposons que vous travailliez dans votre référentiel local et que vous modifiiez un objet non extrait. Si vous jugez que la modification optimise la conception ou les performances de l'application, vous souhaiterez inclure cette modification dans le référentiel central.
Pour ce faire, il convient d'extraire l'objet sans remplacer l'objet présent dans le référentiel local, celui que vous avez déjà optimisé par une modification. Rechargez ensuite l'objet modifié dans le référentiel central.
Remarque
Soyez vigilant lors de l'extraction d'objets sans remplacement de leur version dans le référentiel local. Si vous ne remplacez pas les versions d'objets dans le référentiel local, vous pouvez perdre les modifications intégrées par d'autres utilisateurs.
22.6.3.2.1 Extraire un objet ou un objet et ses objets dépendants sans remplacement
1. Ouvrez la bibliothèque d'objets centrale.
2. Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez extraire, puis sélectionnez
Extraire
Objet sans remplacement
pour extraire l'objet unique, ou sélectionnez
Extraire Objet et dépendants sans remplacement
pour extraire l'objet et tous ses objets dépendants.
SAP Data Services marque tous les objets appropriés comme extraits (dans la bibliothèque d'objets et dans l'espace de travail), mais ne copie aucun objet du référentiel central vers le référentiel local.
22.6.3.3 Extraire des objets avec filtrage
Lors de l'extraction d'un objet avec filtrage, l'objet et tous ses objets dépendants sont extraits.
Remarque
L'extraction remplace alors toujours les versions locales par les objets filtrés du référentiel central.
758
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
22.6.3.3.1 Extraction d'un objet et de ses objets dépendants avec filtrage
1. Ouvrez la bibliothèque d'objets centrale.
2. Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez extraire, puis sélectionnez
Extraire
Avec filtrage
.
3. Renseignez les fenêtres de filtrage.
4. Cliquez sur
Terminer
pour extraire les objets sélectionnés.
Informations associées
22.6.4 Annulation de l'extraction
Vous pouvez parfois juger l'extraction d'un objet non nécessaire car vous n'aviez effectué aucune modification. Ou vous pouvez estimer inutiles les modifications effectuées sur un objet extrait. Vous préférez ainsi laissez la copie principale de l'objet telle quelle. Dans ces cas, vous pouvez annuler l'extraction.
Lors de l'annulation d'une extraction :
● L'objet dans le référentiel central reste tel qu'il était avant l'extraction. Aucune modification n'est effectuée et aucune autre version n'est enregistrée dans le référentiel central. Seul le statut de l'objet change : il n'est plus extrait, mais disponible.
● La version locale de l'objet conserve les modifications effectuées. Si vous souhaitez que l'objet local soit une copie exacte de l'objet central, appliquez l'opération
Obtention des derniers éléments
à cet objet.
Après l'annulation d'une extraction, les autres utilisateurs peuvent extraire et modifier l'objet.
22.6.4.1 Annuler l'extraction d'un objet unique
1. Ouvrez la bibliothèque d'objets centrale.
2. Sélectionnez un objet extrait
3. Cliquez sur le bouton
Annuler l'extraction de l'objet
. Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet, puis sélectionner
Annuler l'extraction Objet
.
SAP Data Services supprime le symbole d'extraction et ne modifie pas l'objet dans le référentiel central. Tout objet dépendant extrait reste extrait.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
759
22.6.4.2 Annuler l'extraction d'un objet et de ses dépendants
1. Ouvrez la bibliothèque d'objets centrale.
2. Sélectionnez l'objet extrait de niveau le plus élevé pour lequel vous souhaitez annuler l'extraction.
3. Cliquez sur le bouton
Annuler l'extraction de l'objet et des dépendants
. Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner
Annuler l'extraction Objet et dépendants
.
SAP Data Services supprime les symboles d'extraction de l'objet et de tous les objets dépendants également extraits. Ces objets ne sont pas modifiés dans le référentiel central.
22.6.5 Rechargement d'objets
Une fois les objets extraits modifiés, vous devez les recharger dans le référentiel central. Le rechargement d'objets crée une nouvelle version dans le référentiel central et permet aux autres utilisateurs d'obtenir les modifications effectuées. Une copie des modifications est également conservée à des fins de contrôle de révision.
Vous pourrez obtenir ultérieurement une version donnée d'un objet rechargé puis la comparer aux modifications suivantes ou même rétablir la version précédente.
Rechargez un objet lorsque vos modifications sont terminées, lorsque d'autres utilisateurs ont besoin de l'objet contenant vos modifications ou lorsque vous souhaitez conserver une copie de l'objet en son statut actuel.
Sélectionnez une commande de rechargement selon l'action souhaitée sur l'objet.
Informations associées
Rechargement d'objets uniques et d'objets avec leurs dépendants [page 760]
Rechargement d'un objet avec filtrage [page 761]
22.6.5.1 Rechargement d'objets uniques et d'objets avec leurs dépendants
Tout comme vous pouvez extraire un objet unique ou un objet avec l'ensemble de ses objets dépendants, vous pouvez recharger un objet unique ou un objet avec tous ses objets dépendants extraits (tels que calculés dans le référentiel local).
22.6.5.1.1 Rechargement d'un objet unique
1. Ouvrez la bibliothèque d'objets centrale.
760
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
2. Sélectionnez l'objet que vous souhaitez recharger.
3. Cliquez sur le bouton
Recharger l'objet
situé en haut de la bibliothèque d'objets centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner
Recharger Objet
.
4. La fenêtre Recharger s'ouvre avec une zone
Commentaire
dans laquelle vous pouvez saisir des commentaires. Une fois les commentaires saisis, cliquez sur
OK
.
SAP Data Services copie l'objet du référentiel local vers le référentiel central, puis supprime la marque d'extraction.
22.6.5.1.2 Rechargement d'un objet et de ses objets dépendants
1. Ouvrez la bibliothèque d'objets centrale.
2. Sélectionnez l'objet de niveau le plus élevé que vous souhaitez recharger.
3. Cliquez sur le bouton
Recharger l'objet et les dépendants
situé en haut de la bibliothèque d'objets centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner
Recharger Objet et dépendants
.
4. La fenêtre Recharger s'ouvre avec une zone
Commentaire
dans laquelle vous pouvez saisir des commentaires. Une fois les commentaires saisis, cliquez sur
OK
.
SAP Data Services copie l'objet sélectionné et tous ses objets dépendants depuis votre référentiel vers le référentiel central, puis supprime la marque d'extraction.
22.6.5.2 Rechargement d'un objet avec filtrage
Tout comme vous pouvez extraire des objets avec filtrage, vous pouvez recharger des objets avec filtrage. Lors du rechargement d'un objet avec filtrage, l'objet et tous ses objets dépendants sont rechargés.
22.6.5.2.1 Rechargement d'un objet avec filtrage
1. Ouvrez la bibliothèque d'objets centrale.
2. Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez recharger, puis sélectionnez
Recharger Avec filtrage
.
3. La fenêtre Recharger s'ouvre avec une zone
Commentaire
dans laquelle vous pouvez saisir des commentaires. Une fois les commentaires saisis, cliquez sur
OK
.
SAP Data Services vous avertit que vous êtes sur le point de créer une nouvelle version de l'objet dans le référentiel central.
4. Cliquez sur
Oui
pour poursuivre le rechargement.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
761
5. Renseignez les fenêtres de filtrage.
6. Cliquez sur
Terminer
pour recharger les objets sélectionnés.
Informations associées
22.6.6 Etiquetage d'objets
Pour vous aider à organiser et à suivre le statut des objets dans l'application, il est possible d'étiqueter les objets.
Vous pouvez choisir d'étiqueter un objet ou un objet et tous ses objets dépendants. Une étiquette décrit non seulement un objet, mais elle permet également de conserver une relation entre les différentes versions d'un objet.
Supposons que le développeur A ajoute un job au référentiel central et travaille sur un workflow dans ce job. Le développeur B travaille simultanément sur un flux de données dans le même job. A la fin de la semaine, une fois que le développeur A a rechargé les deux versions du workflow et le développeur B les quatre versions du flux de données dans le référentiel central, le job est étiqueté "Statut Fin de semaine 1". Cette étiquette contient la version 1 du job, la version 2 du workflow et la version 4 du flux de données. Les deux développeurs peuvent poursuivre les modifications dans leurs workflow et flux de données respectifs.
762
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
Si vous souhaitez obtenir ultérieurement le job avec la version du flux de données et cette étiquette, il convient d'obtenir le job par son étiquette et non d'extraire le job et ses dépendants.
L'étiquette "Statut Fin de semaine 1" permet de collecter les versions du workflow et du flux de données rechargées à la fin de la semaine. Sans cette étiquette, il faudrait obtenir une version particulière de chaque objet afin de rassembler la collection d'objets portant l'étiquette "Statut Fin de semaine 1".
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
763
Informations associées
22.6.6.1 Etiqueter un objet et ses dépendants
1. Ouvrez la bibliothèque d'objets centrale.
2. Cliquez avec le bouton droit de la souris sur l'objet que vous souhaitez étiqueter, puis sélectionnez
Dernière version d'étiquette Objet
pour étiqueter uniquement l'objet mis en surbrillance ou sélectionnez
Objet et dépendants
pour étiqueter l'objet et tous ses objets associés.
La fenêtre
Dernière version d'étiquette
s'ouvre.
3. Dans la zone
Etiquette
, saisissez un texte décrivant le statut actuel de l'objet, puis cliquez sur
OK
.
L'étiquette est insérée dans l'historique de l'objet et des dépendants.
Informations associées
Affichage de l'historique d'un objet [page 766]
22.6.6.2 Obtenir un objet étiqueté avec filtrage
L'option de filtrage associée à l'opération Obtention par étiquette vous permet de filtrer (modification sélective) des informations spécifiques à l'environnement dans les définitions d'objet lorsque vous travaillez dans un environnement multi-utilisateur.
1. Ouvrez la bibliothèque d'objets centrale.
2. Sélectionnez l'objet de niveau le plus élevé que vous souhaitez obtenir.
3. Cliquez avec le bouton droit sur l'objet dans la bibliothèque d'objets centrale, puis sélectionnez
Obtention par étiquette Avec filtrage
.
4. Renseignez la fenêtre de filtrage.
5. Cliquez sur
Terminer
pour obtenir les objets sélectionnés.
Informations associées
764
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
22.6.7 Obtention d'objets
Pour vous assurer que le référentiel est à jour, vous "obtenez" des objets. Lorsque vous obtenez un objet, vous copiez la dernière version de cet objet dans la bibliothèque d'objets centrale et la collez dans le référentiel local, remplaçant ainsi la version du référentiel local. L'obtention d'un objet n'engendre pas son extraction. L'objet reste disponible pour les autres utilisateurs ; ils peuvent l'extraire et le modifier.
Vous pouvez obtenir un objet avec ou sans ses objets dépendants et avec ou sans filtrage.
Informations associées
Affichage de l'historique d'un objet [page 766]
22.6.7.1 Obtention d'un objet unique
1. Ouvrez la bibliothèque d'objets centrale.
2. Sélectionnez l'objet que vous souhaitez obtenir.
3. Cliquez sur le bouton
Obtention de la dernière version de l'objet
situé en haut de la bibliothèque centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner
Obtention de dernière version Objet
.
La version la plus récente de l'objet dans le référentiel central est copiée vers le référentiel local.
22.6.7.2 Obtenir un objet et ses objets dépendants
1. Ouvrez la bibliothèque d'objets centrale.
2. Sélectionnez l'objet de niveau le plus élevé que vous souhaitez obtenir.
3. Cliquez sur le bouton
Obtention de la dernière version de l'objet avec dépendants
situé en haut de la bibliothèque centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner
Obtention de dernière version Objet et dépendants
.
La version la plus récente de l'objet sélectionné et tous les objets dépendants du référentiel central sont copiés vers votre référentiel local.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
765
22.6.7.3 Obtenir un objet et ses objets dépendants avec filtrage
1. Ouvrez la bibliothèque d'objets centrale.
2. Sélectionnez l'objet de niveau le plus élevé que vous souhaitez obtenir.
3. Cliquez avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionnez
Obtention de dernière version Avec filtrage
.
4. Renseignez les fenêtres de filtrage.
5. Cliquez sur
Terminer
pour obtenir les objets sélectionnés.
Informations associées
22.6.8 Comparaison d'objets
SAP Data Services permet de comparer deux objets des référentiels local et central pour déterminer leurs différences.
22.6.9 Affichage de l'historique d'un objet
Le référentiel central conserve un historique de toutes les modifications d'objets effectuées dans le référentiel central. Utilisez cet historique pour gérer et contrôler le développement de l'application.
22.6.9.1 Examiner l'historique d'un objet
1. Ouvrez la bibliothèque d'objets centrale.
2. Sélectionnez un objet.
3. Cliquez sur le bouton
Afficher l'historique
situé en haut de la bibliothèque d'objets centrale.
Vous pouvez également cliquer avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets centrale, puis sélectionner
Afficher l'historique
.
La fenêtre Historique affiche plusieurs informations sur chaque révision de l'objet.
766
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
Table 336 :
Colonne
Version
Etiquette
Référentiel
Date
Action
Commentaire
Description
Numéro de révision de l'objet. Dès qu'un utilisateur enregistre l'objet, le progiciel en crée une nouvelle version.
Texte saisi par l'utilisateur pour décrire le statut de l'objet à un moment donné.
Informations sur le référentiel local à partir duquel le progiciel a enregistré cette version de l'objet et le nom d'utilisateur.
Date et heure de l'enregistrement de cette version de l'objet par le progiciel.
Type de modification effectuée par l'utilisateur sur l'objet. Cette table enregistre des actions telles que :
Rechargé : l'utilisateur a rechargé l'objet
Commentaires saisis par l'utilisateur lors de l'ajout d'un objet ou de son recharge ment dans un référentiel central.
Informations associées
Etiquetage d'objets [page 762]
22.6.9.2 Obtenir une version précédente d'un objet
1. Sélectionnez un objet.
2. Cliquez sur le bouton
Afficher l'historique
situé en haut de la bibliothèque d'objets centrale.
3. Cliquez sur la version de l'objet souhaitée.
4. Cliquez sur le bouton
Obtention de l'objet par version
.
Remarque
Lors de l'obtention d'une version précédente d'un objet, vous n'obtenez que l'objet lui-même, sans ses objets dépendants.
22.6.9.3 Obtenir un objet avec une étiquette donnée
1. Sélectionnez un objet.
2. Cliquez sur le bouton
Afficher l'historique
situé en haut de la bibliothèque d'objets centrale.
3. Cliquez sur la version de l'objet avec l'étiquette particulière souhaitée.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
767
4. Cliquez sur le bouton
Obtention par étiquette
.
22.6.10 Suppression d'objets
Vous pouvez supprimer des objets du référentiel central ou d'un référentiel local. Pour supprimer un objet du référentiel central, cliquez avec le bouton droit de la souris sur l'objet dans la bibliothèque centrale d'objets puis sélectionnez
Supprimer
. Pour supprimer un objet du référentiel local, cliquez avec le bouton droit de la souris sur l'objet dans la bibliothèque d'objets puis sélectionnez
Supprimer
.
Lorsque vous supprimez un objet d'un référentiel local, vous ne le supprimez pas automatiquement du référentiel central actif. Vous pouvez en fait obtenir cet objet à partir du référentiel central pour l'insérer à nouveau.
De même, lors de la suppression d'un objet d'un référentiel central, vous ne le supprimez pas automatiquement des référentiels locaux connectés. A moins que vous ne supprimiez l'objet du référentiel local, vous pouvez ajouter de nouveau cet objet au référentiel central.
Lorsque vous supprimez des objets du référentiel central, vous ne supprimez que l'objet sélectionné et l'ensemble de ses versions. Vous ne supprimez aucun objet dépendant.
22.7 Migration de jobs multi-utilisateurs
Vue d'ensemble de la migration de jobs multi-utilisateurs
La migration de jobs s'applique à SAP Data Services sur plusieurs niveaux : au niveau des applications, de la gestion des référentiels et de la mise à niveau des produits. La migration d'application est beaucoup plus flexible au sein d'un environnement multi-utilisateurs, permettant de conserver non seulement plusieurs versions des objets lors du développement, mais aussi lors des phases de test et de production le cas échéant.
Informations associées
Gestion des phases des applications [page 768]
Copie de contenu entre référentiels centraux [page 770]
Migration du référentiel central [page 771]
22.7.1 Gestion des phases des applications
Les applications traversent en général différentes phases, du développement à la production. Par exemple, une application peut traverser trois phases :
● Les développeurs créent une application.
768
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
● Les testeurs valident l'application.
● Les administrateurs exécutent l'application.
Un référentiel central unique peut prendre en charge l'application pendant l'ensemble des phases. Utilisez l'étiquetage de job et les projets pour conserver les composants d'application de manière indépendante pour chaque phase. Par exemple, si le développeur souhaite rendre une certaine version d'une application prête pour la phase de test, il peut l'étiqueter «APPL_V1». Les testeurs peuvent ensuite obtenir cette version précise de l'application à l'aide de l'étiquette puis procéder au test. Si le test réussit, un administrateur peut permettre à l'application de s'exécuter dans l'environnement de production. En outre, les configurations de banque de données et les emplacements du fichier permettent de configurer l'application afin qu'elle s'exécute dans chaque environnement local.
Dans certaines situations, plusieurs référentiels centraux peuvent être nécessaires pour la gestion des phases des applications. Si vous choisissez de prendre en charge plusieurs référentiels centraux, utilisez un référentiel local unique en tant qu'emplacement de transfert pour la transition.
Dans certaines situations, plusieurs référentiels centraux peuvent être nécessaires pour la gestion des phases des applications. En suivant l'exemple ci-dessus, une fois que les développeurs ont créé une version d'application prête pour la phase de test en l'étiquetant, un testeur peut l'obtenir à partir du référentiel central de développement, la tester puis la recharger dans un référentiel central de test.
Ce référentiel central de test contient toutes les versions testées au fil du temps, offrant aux testeurs la flexibilité de revenir à n'importe quelle version sans se baser sur l'environnement de développement. Lorsqu'une version d'application réussit le test, un administrateur peut l'obtenir à partir du référentiel de test et la rendre disponible en production. Encore une fois, si vous devez conserver des versions précédentes d'une application déjà en production, vous devez créer un autre référentiel central.
Avec ce modèle, un développeur n'interfèrera jamais avec l'environnement de test, ni un testeur avec l'environnement de production, créant ainsi un processus de migration extrêmement sûr.
Notez que si vous choisissez de prendre en charge plusieurs référentiels centraux, il convient d'utiliser un référentiel local unique en tant qu'emplacement de transfert pour la transition de fichiers.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
769
22.7.2 Copie de contenu entre référentiels centraux
Vous ne pouvez pas copier directement le contenu d'un référentiel central vers un autre référentiel central. Vous devez plutôt utiliser le référentiel local en tant que référentiel intermédiaire.
22.7.2.1 Copier le contenu d'un référentiel central vers un autre référentiel central
1. Activez le référentiel central duquel vous souhaitez copier le contenu.
2. Obtenez la dernière version de tous les objets dans ce référentiel central actif pour qu'ils existent dans votre référentiel local.
3. Activez le référentiel central vers lequel vous souhaitez copier le contenu.
4. Lors de la première copie de contenu, ajoutez les objets du référentiel local à ce référentiel central.
Toutefois, si vous devez copier à nouveau le contenu d'un référentiel central vers un autre (par exemple lors de la phase de test, une partie d'un job a été réaffectée à la phase de développement pour une reconception), le processus est légèrement plus complexe : a. Extrayez tout d'abord certains objets sans remplacement du second référentiel central.
770
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
b. A partir du référentiel local, obtenez la dernière version des objets du premier référentiel central (par exemple lors du développement).
c. Ensuite, au lieu de les ajouter, rechargez les objets mis à jour du référentiel local vers le second référentiel central (par exemple lors du test).
Informations associées
Activation d'un référentiel central [page 747]
Ajout d'objets au référentiel central [page 755]
Extraction d'objets [page 756]
Rechargement d'objets [page 760]
22.7.3 Migration du référentiel central
Lors de la mise à niveau de la version de SAP Data Services, vous devez migrer le référentiel central vers la nouvelle version. Il est recommandé de suivre les instructions suivantes lors de la migration d'un référentiel central vers une nouvelle version du progiciel.
1. Sauvegardez toutes les tables de bases de données du référentiel central (et du référentiel local) et les données associées avant d'effectuer la mise à niveau.
2. Conservez un référentiel central distinct pour chaque version de SAP Data Services afin de conserver l'historique des objets.
Pour conserver la version actuelle et l'historique des objets dans le référentiel central, créez un nouveau référentiel central de la version actuelle du progiciel et copiez le contenu du référentiel central d'origine vers le nouveau référentiel. Ainsi, le second référentiel central agit en tant que sauvegarde de vos objets et des informations d'historique associées de la version précédente du progiciel.
Lorsque vous installez la nouvelle version du progiciel, mettez à jour le nouveau référentiel central vers la dernière version du progiciel.
3. Coordonnez vos efforts pour mettre à niveau vos référentiels centraux et locaux de manière simultanée.
Différentes versions de vos référentiels central et local peuvent ne pas fonctionner simultanément. Vous ne pouvez pas effectuer d'opération multi-utilisateurs entre des référentiels local et central de différentes versions du progiciel.
4. Rechargez tous les objets (ou annulez les extractions si les objets n'ont pas été modifiés après leur extraction) avant de migrer les référentiels centraux.
Si vous ne pouvez pas mettre à niveau vos référentiels local et central simultanément, vous devez recharger tous les objets (ou annuler les extractions si les objets n'ont pas été modifiés lors de leur extraction) et en particulier les objets extraits vers un référentiel local que vous ne mettrez pas à niveau immédiatement. Après la mise à niveau du référentiel central vers la nouvelle version, vous ne pourrez pas recharger les objets du référentiel central de la version précédente du progiciel.
Guide de Designer
Développement multi-utilisateurs
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
771
Informations associées
Copie de contenu entre référentiels centraux [page 770]
772
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Guide de Designer
Développement multi-utilisateurs
Clauses de non-responsabilité importantes et informations juridiques
Exemples de code source
Le code et les lignes ou chaînes de code ("Code") inclus dans la présente documentation ne sont que des exemples et ne doivent en aucun cas être utilisés dans un environnement productif. Le Code est utilisé uniquement pour mieux expliquer et visualiser les règles de syntaxe de certains codages. SAP ne sera pas tenu responsable des erreurs ou dommages causés par l'utilisation de ce Code, sauf si de tels dommages étaient causés par SAP intentionnellement ou par négligence grave.
Accessibilité
Les informations contenues dans la documentation SAP représentent la vision actuelle de SAP concernant les critères d'accessibilité, à la date de publication de ladite documentation, et ne peuvent en aucun cas être considérées comme juridiquement contraignantes pour garantir l'accessibilité aux produits logiciels. SAP décline toute responsabilité pour le présent document. Cette clause de non-responsabilité ne s'applique toutefois pas à des cas de faute intentionnelle ou lourde de la part de SAP. En outre, ce document n'entraîne pas des obligations contractuelles directes ou indirectes pour SAP.
Langage non discriminatoire
Dans la mesure du possible, la documentation SAP est non discriminatoire au titre du genre féminin ou masculin. Selon le contexte, le texte s'adresse au lecteur en utilisant le pronom "vous" ou un substantif neutre (tel que "commercial" ou "jour ouvrable"). Lorsque le texte se réfère à des hommes et des femmes, que la troisième personne du singulier ne peut pas être évitée ou qu'un substantif neutre n'existe pas, SAP se réserve le droit d'utiliser la forme masculine du nom ou du pronom. Ceci permet d'assurer la bonne compréhension de la documentation.
Hyperliens Internet
La documentation SAP peut contenir des hyperliens vers Internet. Lesdits hyperliens sont utilisés pour indiquer où trouver l'information. SAP ne garantit pas la disponibilité et l'exactitude des informations ou leur capacité à répondre à un but précis. SAP ne saurait être tenu responsable des dommages causés par l'utilisation desdites informations sauf si de tels dommages étaient causés par une négligence grave ou une faute intentionnelle de SAP. Tous les liens sont catégorisés pour transparence (voir : http://help.sap.com/disclaimer ).
Guide de Designer
Clauses de non-responsabilité importantes et informations juridiques
P U B L I C
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
773
www.sap.com/contactsap
© 2015 SAP SE ou société affiliée SAP. Tous droits réservés.
Toute reproduction ou communication de la présente publication, même partielle, par quelque procédé et à quelque fin que ce soit, est interdite sans l'autorisation expresse et préalable de SAP SE ou d'une société affiliée SAP. Les informations du présent document sont susceptibles d’être modifiées sans préavis.
Certains logiciels commercialisés par SAP SE et ses distributeurs contiennent des composants logiciels qui sont la propriété d'éditeurs tiers. Les spécifications des produits peuvent varier d’un pays à l’autre.
Les informations du présent document sont fournies par SAP SE ou par une société affiliée SAP uniquement à titre informatif, sans engagement ni garantie d'aucune sorte. SAP SE ou ses sociétés affiliées ne pourront en aucun cas être tenues responsables des erreurs ou omissions relatives à ces informations. Les seules garanties fournies pour les produits et les services de SAP SE ou d'une société affiliée SAP sont celles énoncées expressément à titre de garantie accompagnant, le cas échéant, lesdits produits et services. Aucune des informations contenues dans le présent document ne saurait constituer une garantie supplémentaire.
SAP et tous les autres produits et services SAP mentionnés dans ce document, ainsi que leurs logos respectifs, sont des marques commerciales ou des marques déposées de SAP SE (ou d'une société affiliée SAP) en Allemagne ainsi que dans d'autres pays.
Tous les autres noms de produit et service mentionnés sont des marques commerciales de leurs sociétés respectives.
Pour plus d'informations sur les marques déposées, voir http:// www.sap.com/corporate-en/legal/copyright/index.epx
.

Öffentlicher Link aktualisiert
Der öffentliche Link zu Ihrem Chat wurde aktualisiert.