

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Conversion de données à l'aide de processus ETL dans AWS Schema Conversion Tool
<a name="CHAP-converting-etl"></a>

Vous pouvez utiliser le AWS Schema Conversion Tool (AWS SCT) pour migrer les processus d'extraction, de transformation et de chargement (ETL). Ce type de migration inclut la conversion de la logique métier liée à l'ETL. Cette logique peut résider dans vos entrepôts de données sources ou dans des scripts externes que vous exécutez séparément. 

Actuellement, AWS SCT prend en charge la conversion de scripts ETL en AWS Glue objets vers Amazon Redshift RSQL, comme indiqué dans le tableau suivant.


****  

| Source | Cible | 
| --- | --- | 
| Scripts ETL Informatica | Informatica | 
| Packages ETL Microsoft SQL Server Integration Services (SSIS) | AWS Glue ou AWS Glue Studio | 
| Scripts Shell avec commandes intégrées à partir de Teradata Basic Teradata Query (BTEQ)  | Amazon Redshift RSQL | 
| Scripts ETL Teradata BTEQ | AWS Glue ou Amazon Redshift RSQL | 
| Scripts de FastExport tâches Teradata | Amazon Redshift RSQL | 
| Scripts de FastLoad tâches Teradata | Amazon Redshift RSQL | 
| Scripts de MultiLoad tâches Teradata | Amazon Redshift RSQL | 

**Topics**
+ [Conversion des processus ETL en AWS Glue in AWS Schema Conversion Tool](CHAP-converting-aws-glue-ui-process.md)
+ [Conversion des processus ETL en AWS Glue in AWS Schema Conversion Tool](CHAP-converting-aws-glue-api-process.md)
+ [Conversion de scripts ETL Informatica avec AWS Schema Conversion Tool](CHAP-converting-informatica.md)
+ [Conversion de SSIS en AWS Glue with AWS SCT](CHAP-converting-aws-glue-ssis.md)
+ [Conversion de packages SSIS en with AWS Glue Studio AWS Schema Conversion Tool](CHAP-converting-ssis-glue-studio.md)
+ [Conversion de scripts Teradata BTEQ en Amazon Redshift RSQL avec AWS SCT](CHAP-converting-bteq-rsql.md)
+ [Conversion de scripts shell contenant des commandes BTEQ intégrées en Amazon Redshift RSQL avec AWS Schema Conversion Tool](CHAP-converting-shell-rsql.md)
+ [Conversion de FastExport scripts vers Amazon Redshift RSQL avec AWS Schema Conversion Tool](CHAP-converting-fastexport-rsql.md)
+ [Conversion de scripts de FastLoad travail en Amazon Redshift RSQL avec AWS Schema Conversion Tool](CHAP-converting-fastload-rsql.md)
+ [Conversion de MultiLoad scripts vers Amazon Redshift RSQL avec AWS Schema Conversion Tool](CHAP-converting-multiload-rsql.md)

# Conversion des processus ETL en AWS Glue in AWS Schema Conversion Tool
<a name="CHAP-converting-aws-glue-ui-process"></a>

Vous trouverez ci-dessous un aperçu du processus de conversion des scripts ETL en AWS Glue with AWS SCT. Dans cet exemple, nous convertissons une base de données Oracle en Amazon Redshift, ainsi que les processus ETL utilisés avec les bases de données sources et les entrepôts de données.

**Topics**
+ [Conditions préalables](#CHAP-converting-aws-glue-prerequisites)
+ [Comprendre le catalogue AWS Glue de données](#CHAP-converting-aws-glue-data-catalog)
+ [Limitations relatives à la conversion à l' AWS SCT aide de AWS Glue](#CHAP-converting-aws-glue-limitations)
+ [Étape 1 : Créer un projet](#CHAP-converting-aws-glue-step-ui-new-project)
+ [Étape 2 : Création d'un AWS Glue emploi](#CHAP-converting-aws-glue-step-ui-config-job)

Le schéma d'architecture suivant montre un exemple de projet de migration de base de données qui inclut la conversion de scripts ETL en AWS Glue.

![\[Graphique illustrant la conversion de bases de données et de processus ETL\]](http://docs.aws.amazon.com/fr_fr/SchemaConversionTool/latest/userguide/images/glue-conversion.png)


## Conditions préalables
<a name="CHAP-converting-aws-glue-prerequisites"></a>

Avant de commencer, vous devez exécuter les actions suivantes :
+ Migrez toutes les bases de données source vers lesquelles vous souhaitez migrer AWS.
+ Migrez les entrepôts de données cibles vers AWS.
+ Établir une liste de tous les codes impliqués dans votre processus ETL.
+ Établir une liste de toutes les informations de connexion nécessaires pour chaque base de données.

Il a également AWS Glue besoin d'autorisations pour accéder à d'autres AWS ressources en votre nom. Vous fournissez ces autorisations en utilisant Gestion des identités et des accès AWS (IAM). Assurez-vous d'avoir créé une politique IAM pour AWS Glue. *Pour plus d'informations, consultez la section [Création d'une politique IAM pour le AWS Glueservice](https://docs.aws.amazon.com/glue/latest/dg/create-service-policy.html) dans le guide du AWS Glue développeur.*

## Comprendre le catalogue AWS Glue de données
<a name="CHAP-converting-aws-glue-data-catalog"></a>

Dans le cadre du processus de conversion, AWS Glue charge les informations concernant les bases de données source et cible. Il organise ces informations en catégories, dans une structure appelée *arbre.* Cette structure comprend les éléments suivants :
+ **Connexions** — Paramètres de connexion 
+ **Crawlers** — Une liste de robots, un robot pour chaque schéma
+ **Bases de données** — Conteneurs contenant des tables
+ **Tables** — Définitions de métadonnées qui représentent les données contenues dans les tables
+ **Tâches ETL** — Logique métier qui exécute le travail ETL
+ **Déclencheurs** : logique qui contrôle le moment où une tâche ETL s'exécute AWS Glue (que ce soit à la demande, selon un calendrier ou déclenchée par des événements de tâche)

Le *AWS Glue catalogue de données * est un index de l'emplacement, du schéma et des métriques d'exécution de vos données. Lorsque vous travaillez avec AWS Glue et AWS SCT, le catalogue de AWS Glue données contient des références aux données utilisées comme sources et cibles de vos tâches ETL dans AWS Glue. Pour créer votre entrepôt de données, cataloguez ces données. 

Les informations du catalogue de données vous permettent de créer et de surveiller vos tâches ETL. En règle générale, vous devez exécuter un crawler pour effectuer l'inventaire des données de vos magasins de données, mais il y a d'autres manières d'ajouter des tables de métadonnées à votre catalogue de données.

Lorsque vous définissez une table dans votre catalogue de données, vous l'ajoutez à une base de données. Une base de données est utilisée pour organiser les tables dans AWS Glue. 

## Limitations relatives à la conversion à l' AWS SCT aide de AWS Glue
<a name="CHAP-converting-aws-glue-limitations"></a>

Les limitations suivantes s'appliquent lors de la conversion à l'aide AWS SCT de with AWS Glue.


|  |  | 
| --- |--- |
| Ressource | Limite par défaut | 
| Nombre de bases de données pour chaque compte | 10 000 | 
| Nombre de tables pour chaque base de données | 100 000 | 
| Nombre de partitions pour chaque table | 1 000 000 | 
| Nombre de versions de table pour chaque table | 100 000 | 
| Nombre de tables pour chaque compte | 1 000 000 | 
| Nombre de partitions pour chaque compte | 10 000 000 | 
| Nombre de versions de table pour chaque compte | 1 000 000 | 
| Nombre de connexions pour chaque compte | 1 000 | 
| Nombre d'analyseurs par compte | 25 | 
| Nombre de tâches pour chaque compte | 25 | 
| Nombre de déclencheurs pour chaque compte | 25 | 
| Nombre d'exécutions de tâches simultanées par compte | 30 | 
| Nombre d'exécutions de tâches simultanées pour chaque tâche | 3 | 
| Nombre de tâches pour chaque déclencheur | 10 | 
| Nombre de points de terminaison de développement par compte | 5 | 
| Nombre maximal d'unités de traitement de données (DPUs) utilisées par un terminal de développement à la fois | 5 | 
| Maximum DPUs utilisé par un rôle à la fois | 100 | 
| Longueur du nom de la base de données |  Illimité Pour la compatibilité avec d'autres magasins de métadonnées, tels qu'Apache Hive, le nom est modifié de façon à utiliser des lettres minuscules. Si vous prévoyez d'accéder à la base de données depuis Amazon Athena, indiquez un nom composé uniquement de caractères alphanumériques et de soulignement. | 
| Longueur du nom de la connexion | Illimité | 
| Longueur du nom de l'analyseur | Illimité | 

## Étape 1 : Créer un projet
<a name="CHAP-converting-aws-glue-step-ui-new-project"></a>

Pour créer un nouveau projet, suivez les étapes de haut niveau suivantes :

1. Créez un nouveau projet dans AWS SCT. Pour de plus amples informations, veuillez consulter [Démarrage et gestion de projets dans AWS SCT](CHAP_UserInterface.Project.md). 

1. Ajoutez vos bases de données source et cible au projet. Pour de plus amples informations, veuillez consulter [Ajouter des serveurs à un projet dans AWS SCT](CHAP_UserInterface.AddServers.md).

   Assurez-vous d'avoir sélectionné **Utiliser AWS Glue** dans les paramètres de connexion à la base de données cible. Pour ce faire, choisissez l'**AWS Glue**onglet. Pour **Copier depuis le AWS profil**, choisissez le profil que vous souhaitez utiliser. Le profil doit automatiquement renseigner la clé AWS d'accès, la clé secrète et le dossier du compartiment Amazon S3. Si ce n'est pas le cas, saisissez ces informations vous-même. Après avoir sélectionné **OK**, AWS Glue analyse les objets et charge les métadonnées dans le catalogue de AWS Glue données. 

   En fonction de vos paramètres de sécurité, il est possible qu'un message d'avertissement s'affiche pour indiquer que votre compte ne dispose pas de privilèges suffisants pour certains des schémas sur le serveur. Si vous avez accès aux schémas que vous utilisez, vous pouvez ignorer sans risque ce message.

1. Pour terminer la préparation de l'importation de votre ETL, connectez-vous à vos bases de données source et cible. Pour ce faire, choisissez votre base de données dans l'arborescence des métadonnées source ou cible, puis sélectionnez **Connect to the server**.

AWS Glue crée une base de données sur le serveur de base de données source et une autre sur le serveur de base de données cible pour faciliter la conversion ETL. La base de données du serveur cible contient le catalogue de AWS Glue données. Pour rechercher des objets spécifiques, utilisez la fonction de recherche dans les panneaux source ou cible.

Pour voir comment un objet spécifique est converti, recherchez un élément à convertir et choisissez **Convertir le schéma** dans son menu contextuel (clic droit). AWS SCT transforme cet objet sélectionné en script.

Vous pouvez consulter le script converti dans le dossier **Scripts** du panneau de droite. Actuellement, le script est un objet virtuel, disponible uniquement dans le cadre de votre AWS SCT projet.

 Pour créer une AWS Glue tâche avec votre script converti, téléchargez-le sur Amazon S3. Pour télécharger le script sur Amazon S3, choisissez-le, puis sélectionnez **Enregistrer dans S3** dans son menu contextuel (clic droit).

## Étape 2 : Création d'un AWS Glue emploi
<a name="CHAP-converting-aws-glue-step-ui-config-job"></a>

Après avoir enregistré le script sur Amazon S3, vous pouvez le choisir, puis choisir **Configure AWS Glue Job** pour ouvrir l'assistant de configuration de la AWS Glue tâche. L'assistant facilite cette configuration : 

1. Dans le premier onglet de l'assistant, **Design Data Flow**, vous pouvez choisir une stratégie d'exécution et la liste des scripts que vous souhaitez inclure dans cette tâche. Vous pouvez choisir des paramètres pour chaque script. Vous pouvez également réorganiser les scripts afin qu'ils s'exécutent dans l'ordre correct.

1. Dans le deuxième onglet, vous pouvez attribuer un nom à votre tâche et configurer directement les paramètres pour AWS Glue. Vous pouvez configurer les paramètres suivants sur cet écran :
   + Gestion des identités et des accès AWS Rôle (IAM)
   + Noms et chemins des fichiers de script
   + Chiffrez le script à l'aide du chiffrement côté serveur avec des clés gérées par Amazon S3 (SSE-S3)
   + Répertoire temporaire
   + Chemin de la bibliothèque Python générée
   + Chemin de la bibliothèque Python de l'utilisateur
   + Chemin pour les fichiers .jar dépendants
   + Chemin de fichiers référencés
   + Simultané DPUs pour chaque tâche exécutée
   + Simultanéité maximum
   + Délai d'expiration de la tâche en minutes.
   + Seuil de notification de délai (minutes)
   + Nombre de nouvelles tentatives
   + Configuration de sécurité
   + Chiffrement côté serveur

1. À la troisième étape, ou dans le troisième onglet, vous choisissez la connexion configurée vers le point de terminaison cible. 

Une fois que vous avez terminé de configurer la tâche, elle s'affiche sous les tâches ETL dans le catalogue de AWS Glue données. Si vous choisissez la tâche, les paramètres s'affichent afin que vous puissiez les examiner ou les modifier. Pour créer une nouvelle tâche dans AWS Glue, choisissez **Create AWS Glue Job** dans le menu contextuel (clic droit) de la tâche. Cette opération a pour effet d'appliquer la définition du schéma. Pour actualiser l’affichage, choisissez **Refresh from database (Actualiser à partir de la base de données)** dans le menu contextuel (clic droit). 

À ce stade, vous pouvez consulter votre tâche dans la AWS Glue console. Pour ce faire, connectez-vous à la AWS Glue console AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/glue/](https://console.aws.amazon.com/glue/).

Vous pouvez tester la nouvelle tâche pour vous assurer qu'elle fonctionne correctement. Vérifiez les données de votre table source, puis assurez-vous que la table cible est vide. Exécutez la tâche et vérifiez à nouveau. Vous pouvez consulter les journaux d'erreurs depuis la AWS Glue console.

# Conversion des processus ETL en AWS Glue in AWS Schema Conversion Tool
<a name="CHAP-converting-aws-glue-api-process"></a>

Dans les sections suivantes, vous trouverez une description d'une conversion qui appelle des opérations AWS Glue d'API en Python. Pour plus d'informations, consultez [Program AWS Glue ETL scripts in Python](https://docs.aws.amazon.com//glue/latest/dg/aws-glue-programming-python.html) dans le *manuel du AWS Glue développeur.*

**Topics**
+ [Étape 1 : Créer une base de données](#CHAP-converting-aws-glue-step-api-create-db)
+ [Étape 2 : Création d'une connexion](#CHAP-converting-aws-glue-step-api-connection)
+ [Étape 3 : créer un AWS Glue crawler](#CHAP-converting-aws-glue-step-api-crawler)

## Étape 1 : Créer une base de données
<a name="CHAP-converting-aws-glue-step-api-create-db"></a>

La première étape consiste à créer une nouvelle base de données dans un catalogue de AWS Glue données à l'aide de l'[API du AWS SDK](https://docs.aws.amazon.com/glue/latest/webapi/API_CreateDatabase.html). Lorsque vous définissez une table dans le catalogue de données, vous l'ajoutez à une base de données. Une base de données est utilisée pour organiser les tables dans AWS Glue. 

L'exemple suivant illustre la `create_database` méthode de l'API Python pour AWS Glue.

```
response = client.create_database(
    DatabaseInput={
        'Name': 'database_name’,
        'Description': 'description',
        'LocationUri': 'string',
        'Parameters': {         
            'parameter-name': 'parameter value'
        }
    }
)
```

Si vous utilisez Amazon Redshift, le nom de la base de données est formé comme suit.

```
{redshift_cluster_name}_{redshift_database_name}_{redshift_schema_name}
```

Le nom complet du cluster Amazon Redshift pour cet exemple est le suivant.

```
rsdbb03.apq1mpqso.us-west-2.redshift.amazonaws.com
```

Vous trouverez ci-dessous un exemple de nom de base de données bien formé. Dans ce cas, `rsdbb03` est le nom, qui est la première partie du nom complet du point de terminaison du cluster. La base de données est nommée `dev` et le schéma est `ora_glue`.

```
rsdbb03_dev_ora_glue
```

## Étape 2 : Création d'une connexion
<a name="CHAP-converting-aws-glue-step-api-connection"></a>

Créez une nouvelle connexion dans un catalogue de données à l'aide de l'[API du AWS SDK](https://docs.aws.amazon.com/glue/latest/webapi/API_CreateConnection.html).

L'exemple suivant illustre l'utilisation de la [https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-connections.html](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-connections.html)méthode de l'API Python pour AWS Glue. 

 

```
response = client.create_connection(
    ConnectionInput={
        'Name': 'Redshift_abcde03.aabbcc112233.us-west-2.redshift.amazonaws.com_dev',
        'Description': 'Created from SCT',
        'ConnectionType': 'JDBC',
        'ConnectionProperties': {
            'JDBC_CONNECTION_URL': 'jdbc:redshift://aabbcc03.aabbcc112233.us-west-2.redshift.amazonaws.com:5439/dev',
            'USERNAME': 'user_name',
            'PASSWORD': 'password'
        },
        'PhysicalConnectionRequirements': {
            'AvailabilityZone': 'us-west-2c',
            'SubnetId': 'subnet-a1b23c45',
            'SecurityGroupIdList': [
                'sg-000a2b3c', 'sg-1a230b4c', 'sg-aba12c3d', 'sg-1abb2345'
            ]
        }
    }
)
```

Les paramètres utilisés dans `create_connection` sont les suivants :
+ `Name`(chaîne UTF-8) — obligatoire. Pour Amazon Redshift, le nom de connexion est formé comme suit :`Redshift_<Endpoint-name>_<redshift-database-name>`, par exemple : ` Redshift_abcde03_dev`
+ `Description`(chaîne UTF-8) — Votre description de la connexion.
+ `ConnectionType`(chaîne UTF-8) — Obligatoire. Type de connexion. À l'heure actuelle, seul JDBC est pris en charge ; SFTP n'est pas pris en charge.
+ `ConnectionProperties`(dict) — Obligatoire. Liste des paires clé-valeur utilisées comme paramètres pour cette connexion, y compris l'URL de connexion JDBC, le nom d'utilisateur et le mot de passe.
+ `PhysicalConnectionRequirements`(dict) — Exigences de connexion physique, notamment les suivantes :
  + `SubnetId`(chaîne UTF-8) — L'ID du sous-réseau utilisé par la connexion.
  + `SecurityGroupIdList`(liste) : liste d'identifiants de groupes de sécurité utilisée par la connexion.
  + `AvailabilityZone`(chaîne UTF-8) — Obligatoire. Zone de disponibilité qui contient le point de terminaison. Ce paramètre est obsolète.

## Étape 3 : créer un AWS Glue crawler
<a name="CHAP-converting-aws-glue-step-api-crawler"></a>

Ensuite, vous créez un AWS Glue robot d'exploration pour remplir le AWS Glue catalogue. Pour plus d'informations, consultez la section [Catalogage de tables à l'aide d'un robot d'exploration](https://docs.aws.amazon.com/glue/latest/dg/add-crawler.html) dans le Guide du *AWS Glue développeur*.

La première étape de l'ajout d'un robot d'exploration consiste à créer une nouvelle base de données dans un catalogue de données à l'aide de l'API du [AWS SDK](https://docs.aws.amazon.com//glue/latest/webapi/API_CreateCrawler.html). Avant de commencer, assurez-vous de supprimer d'abord toute version précédente de celui-ci en utilisant l'`delete_crawler`opération.

Lorsque vous créez votre analyseur, quelques considérations s'appliquent :
+ Pour le nom de l’analyseur, utilisez le format `<redshift_node_name>_<redshift_database_name>_<redshift_shema_name>`, par exemple : `abcde03_dev_ora_glue`
+ Utilisez un rôle IAM qui existe déjà. Pour plus d'informations sur la création de rôles IAM, consultez la section [Création de rôles IAM](https://docs.aws.amazon.com//IAM/latest/UserGuide/id_roles_create.html) dans le Guide de l'utilisateur *IAM*.
+ Utilisez le nom du rôle de métrique que vous avez créé à l'étape précédente.
+ Utilisez le paramètre `ConnectionName`, qui est obligatoire.
+ Pour le paramètre `path`, utilisez le chemin d'accès à la cible JDBC, par exemple : `dev/ora_glue/%`

L'exemple suivant supprime un analyseur existant, puis en crée un nouveau, à l'aide de l'API Python pour AWS Glue. 

```
response = client.delete_crawler(
    Name='crawler_name'
)

response = client.create_crawler(
    Name='crawler_name',
    Role= ‘IAM_role’,
    DatabaseName='database_name’,
    Description='string',
    Targets={
        'S3Targets': [
            {
                'Path': 'string',
                'Exclusions': [
                    'string',
                ]
            },
        ],
        'JdbcTargets': [
            {
                'ConnectionName': ‘ConnectionName’,
                'Path': ‘Include_path’,
                'Exclusions': [
                    'string',
                ]
            },
        ]
    },
    Schedule='string',
    Classifiers=[
        'string',
    ],
    TablePrefix='string',
    SchemaChangePolicy={
        'UpdateBehavior': 'LOG'|'UPDATE_IN_DATABASE',
        'DeleteBehavior': 'LOG'|'DELETE_FROM_DATABASE'|'DEPRECATE_IN_DATABASE'
    },
    Configuration='string'
)
```

Après avoir créé l'analyseur, exécutez un analyseur qui se connecte à un ou plusieurs magasins de données, détermine les structures de données et écrit les tables dans le catalogue de données. Vous pouvez exécuter votre analyseur sur un calendrier, comme illustré ci-après.

```
response = client.start_crawler(
    Name='string'
)
```

Cet exemple utilise Amazon Redshift comme cible. Les types de données Amazon Redshift sont mappés aux types de AWS Glue données de la manière suivante après l'exécution du robot d'exploration.


|  |  | 
| --- |--- |
| Type de données Amazon Redshift | AWS Glue type de données | 
| smallint | smallint | 
| integer | int | 
| bigint | bigint | 
| decimal | decimal(18,0) | 
| decimal(p,s) | decimal(p,s) | 
| real | double | 
| double precision | double | 
| boolean | boolean | 
| char | chaîne | 
| varchar | chaîne | 
| varchar(n) | chaîne | 
| date | date | 
| timestamp | timestamp | 
| timestamptz | timestamp | 

# Conversion de scripts ETL Informatica avec AWS Schema Conversion Tool
<a name="CHAP-converting-informatica"></a>

Vous pouvez utiliser l'interface de ligne de AWS SCT commande (CLI) pour convertir vos scripts ETL Informatica afin de pouvoir les utiliser avec votre nouvelle base de données cible. Cette conversion comprend trois étapes clés. AWS SCT Convertit d'abord le code SQL intégré à vos objets Informatica. Modifiez ensuite les AWS SCT noms des objets de base de données conformément aux règles de migration que vous avez spécifiées dans votre projet. Enfin, AWS SCT redirige les connexions de vos scripts ETL Informatica vers la nouvelle base de données cible.

Vous pouvez convertir des scripts ETL Informatica dans le cadre d'un projet de conversion de AWS SCT base de données. Assurez-vous d'ajouter vos bases de données source et cible au projet lorsque vous convertissez des scripts ETL Informatica.

Pour convertir les scripts ETL Informatica, assurez-vous d'utiliser la AWS SCT version 1.0.667 ou une version ultérieure. Familiarisez-vous également avec l'interface de ligne de commande de AWS SCT. Pour de plus amples informations, veuillez consulter [Référence CLI pour AWS Schema Conversion Tool](CHAP_Reference.md).

**Pour convertir des scripts ETL Informatica à l'aide de AWS SCT**

1. Créez un nouveau script AWS SCT CLI ou modifiez un modèle de scénario existant. Par exemple, vous pouvez télécharger et modifier le `InformaticConversionTemplate.scts` modèle. Pour de plus amples informations, veuillez consulter [Obtenir des scénarios CLI](CHAP_Reference.md#CHAP_Reference.Scenario).

1. Téléchargez les pilotes JDBC requis pour vos bases de données source et cible. Spécifiez l'emplacement de ces pilotes à l'aide de la `SetGlobalSettings` commande. Spécifiez également les dossiers dans lesquels AWS SCT vous pouvez enregistrer les fichiers journaux.

   L'exemple de code suivant montre comment ajouter le chemin d'accès aux pilotes Oracle et PostgreSQL dans les paramètres. AWS SCT Après avoir exécuté cet exemple de code, AWS SCT stocke les fichiers journaux dans le `C:\sct_log` dossier. AWS SCT Stocke également les fichiers journaux de la console dans le `C:\Temp\oracle_postgresql` dossier.

   ```
   SetGlobalSettings
   	-save: 'true'
   	-settings: '{"oracle_driver_file": "C:\\drivers\\ojdbc8.jar",    
   	"postgresql_driver_file": "C:\\drivers\\postgresql-42.2.19.jar" }'
   /
   
   SetGlobalSettings
   	-save: 'false'
   	-settings: '{
   "log_folder": "C:\\sct_log",
   "console_log_folder": "C:\\Temp\\oracle_postgresql"}'
   /
   ```

1. Créez un nouveau AWS SCT projet. Entrez le nom et l'emplacement de votre projet.

   L'exemple de code suivant crée le `oracle_postgresql` projet dans le `C:\Temp` dossier.

   ```
   CreateProject
   	-name: 'oracle_postgresql'
   	-directory: 'C:\Temp'
   /
   ```

1. Ajoutez des informations de connexion concernant vos bases de données source et cible.

   L'exemple de code suivant ajoute des bases de données Oracle et PostgreSQL en tant que source et cible pour votre projet. AWS SCT 

   ```
   AddSource
   	-password: 'source_password'
   	-port: '1521'
   	-vendor: 'ORACLE'
   	-name: 'ORACLE'
   	-host: 'source_address'
   	-database: 'ORCL'
   	-user: 'source_user'
   /
   AddTarget
   	-database: 'postgresql'
   	-password: 'target_password'
   	-port: '5432'
   	-vendor: 'POSTGRESQL'
   	-name: 'POSTGRESQL'
   	-host: 'target_address'
   	-user: 'target_user'
   /
   ```

   Dans l'exemple précédent, remplacez *source\$1user* et par les noms *target\$1user* des utilisateurs de votre base de données. Ensuite, remplacez *source\$1password* et *target\$1password* par vos mots de passe. Pour *source\$1address* et*target\$1address*, entrez les adresses IP de vos serveurs de base de données source et cible.

   Pour vous connecter à une base de données Oracle version 19 ou ultérieure, utilisez le nom du service Oracle dans la `AddSource` commande. Pour ce faire, ajoutez le `-connectionType` paramètre et définissez sa valeur sur`'basic_service_name'`. Ajoutez ensuite le `-servicename` paramètre et définissez sa valeur sur le nom de votre service Oracle. Pour plus d'informations sur la `AddSource` commande, consultez la [référence de la AWS Schema Conversion Tool CLI](https://s3.amazonaws.com/publicsctdownload/AWS+SCT+CLI+Reference.pdf).

1. Créez une nouvelle règle de AWS SCT mappage qui définit les moteurs de base de données cibles pour chaque schéma de base de données source. Pour de plus amples informations, veuillez consulter [Cartographie des types de données dans AWS Schema Conversion Tool](CHAP_Mapping.md).

   L'exemple de code suivant crée une règle de mappage qui inclut tous les schémas de base de données Oracle source et définit PostgreSQL comme cible de migration.

   ```
   AddServerMapping
   	-sourceTreePath: 'Servers.ORACLE'
   	-targetTreePath: 'Servers.POSTGRESQL'
   /
   ```

1. Ajoutez des informations de connexion concernant vos fichiers XML source et cible Informatica.

   L'exemple de code suivant ajoute les fichiers XML Informatica à partir des `C:\Informatica_target` dossiers `C:\Informatica_source` et.

   ```
   AddSource
   	-name: 'INFA_SOURCE'
   	-vendor: 'INFORMATICA'
   	-mappingsFolder: 'C:\Informatica_source'
   /
   AddTarget
   	-name: 'INFA_TARGET'
   	-vendor: 'INFORMATICA'
   	-mappingsFolder: 'C:\Informatica_target'
   /
   ```

1. Créez une autre règle de mappage pour définir le fichier XML Informatica cible pour votre fichier XML Informatica source.

   L'exemple de code suivant crée une règle de mappage qui inclut les fichiers XML Informatica source et cible utilisés dans l'exemple précédent.

   ```
   AddServerMapping
   -sourceTreePath: 'ETL.INFA_SOURCE'
   -targetTreePath: 'ETL.INFA_TARGET'
   /
   ```

1. Spécifiez la connexion au serveur de base de données qui correspond à la référence du nom de connexion Informatica.

   L'exemple de code suivant configure la redirection de vos scripts ETL Informatica de votre source vers la nouvelle base de données cible. Cet exemple configure également les variables de connexion.

   ```
   ConfigureInformaticaConnectionsRedirect
   	-treePath: 'ETL.INFA_SOURCE.Files'
   	-connections: '{
   	"ConnectionNames": [
   	{
   		"name": "Oracle_src",
   		"newName": "postgres",
   		"treePath": "Servers.ORACLE"
   	}
   	]
   	"ConnectionVariables": [
   	{
            "name": "$Source",
            "treePath": "Servers.ORACLE"
       }
       ]
   	}'
   /
   ```

1. Convertissez les schémas de votre base de données source et vos scripts ETL Informatica.

   L'exemple de code suivant convertit tous vos schémas de base de données Oracle source et votre fichier XML Informatica.

   ```
   Convert
   	-treePath: 'Servers.ORACLE.Schemas.%'
   /
   Convert
   	-treePath: 'ETL.INFA_SOURCE.Files'
   /
   ```

1. (Facultatif) Enregistrez votre projet de conversion et le rapport d'évaluation. Ce rapport inclut les actions de conversion et des recommandations sur la manière de les traiter.

   L'exemple de code suivant enregistre votre projet et enregistre une copie du rapport d'évaluation sous forme de fichier PDF dans le `C:\Temp` dossier.

   ```
   SaveProject
   /
   SaveReportPDF
   	-treePath: 'ETL.INFA_SOURCE.Files'
   	-file:'C:\Temp\Informatica.pdf'
   /
   ```

1. Enregistrez votre fichier XML Informatica converti.

   L'exemple de code suivant enregistre le fichier XML converti dans le `C:\Temp` dossier. Vous avez spécifié ce dossier à l'étape précédente à l'aide de la `AddTarget` commande.

   ```
   SaveTargetInformaticaXML
   -treePath: 'ETL.INFA_TARGET.Files'
   /
   ```

1. Enregistrez votre script sous forme de `.scts` fichier et exécutez-le à l'aide de la `RunSCTBatch` commande de la AWS SCT CLI. Pour de plus amples informations, veuillez consulter [AWS SCT Mode script CLI](CHAP_Reference.md#CHAP_Reference.ScriptMode).

   L'exemple suivant exécute le `Informatica.scts` script dans le `C:\Temp` dossier. Vous pouvez utiliser cet exemple sous Windows.

   ```
   RunSCTBatch.cmd --pathtoscts "C:\Temp\Informatica.scts"
   ```

   Si vous modifiez vos scripts ETL Informatica source, réexécutez le script AWS SCT CLI.

# Conversion de SSIS en AWS Glue with AWS SCT
<a name="CHAP-converting-aws-glue-ssis"></a>

Vous trouverez ci-dessous comment convertir les packages Microsoft SQL Server Integration Services (SSIS) en packages AWS Glue Using AWS SCT. 

Pour convertir des packages Microsoft SSIS AWS Glue, assurez-vous d'utiliser la AWS SCT version 1.0.642 ou supérieure. Vous devez également disposer d'un projet SSIS avec des packages ETL —`.dtsx`,`.conmgr`, et `.params` des fichiers dans le dossier local.

Vous n'avez pas besoin d'un serveur SSIS installé. Le processus de conversion passe par les fichiers SSIS locaux.

**Pour convertir un package SSIS en AWS Glue utilisant AWS SCT**

1. Créez un nouveau projet dans AWS SCT ou ouvrez un projet existant. Pour de plus amples informations, veuillez consulter [Démarrage et gestion de projets dans AWS SCT](CHAP_UserInterface.Project.md). 

1. Choisissez **Ajouter une source** dans le menu pour ajouter un nouveau package SSIS source à votre projet. 

1.  Choisissez **SQL Server Integration Services** et effectuez les opérations suivantes : 
   + **Nom de la connexion** — Entrez le nom de votre connexion. AWS SCT affiche ce nom dans l'arborescence des métadonnées.
   + **Dossier des packages SSIS** — Choisissez le chemin d'accès au dossier de votre projet SSIS contenant les packages.

   AWS SCT lit les fichiers du projet (fichiers avec `.dtsx` les extensions `.conmgr` ou`.params`) depuis le dossier local et les analyse. Il les organise ensuite dans une AWS SCT arborescence de catégories.

1. Choisissez **Ajouter une cible** dans le menu pour ajouter une nouvelle plate-forme cible afin de convertir vos packages SSIS source. 

1.  Choisissez **AWS Glue**et complétez ce qui suit : 
   + **Nom de la connexion** — Entrez le nom de votre connexion. AWS SCT affiche ce nom dans l'arborescence des métadonnées.
   + **Copier depuis le AWS profil** — Choisissez le profil à utiliser.
   + **AWS clé d'accès** — Entrez votre clé AWS d'accès.
   + **AWS clé secrète** — Entrez votre clé AWS secrète.
   + **Région** — Choisissez celle Région AWS que vous souhaitez utiliser dans la liste.
   + **Dossier du compartiment Amazon S3** : entrez le chemin du dossier du compartiment Amazon S3 que vous prévoyez d'utiliser.

    Vous pouvez utiliser une AWS Glue cible virtuelle. Dans ce cas, il n'est pas nécessaire de spécifier les informations d'identification de connexion. Pour de plus amples informations, veuillez consulter [Mappage vers des cibles virtuelles dans AWS Schema Conversion Tool](CHAP_Mapping.VirtualTargets.md). 

1. Créez une nouvelle règle de mappage qui inclut votre package SSIS source et votre AWS Glue cible. Pour de plus amples informations, veuillez consulter [Cartographie de nouveaux types de données dans AWS Schema Conversion Tool](CHAP_Mapping.New.md). 

1. Dans le menu **Affichage**, choisissez **Vue principale**.

1. Dans l'arborescence SSIS, ouvrez le menu contextuel (clic droit) des **gestionnaires de connexions**, puis choisissez **Configurer les connexions**.

1. Configurez le gestionnaire de connexions du projet.

   Pour configurer un mappage de connexion pour les gestionnaires de connexions SSIS, spécifiez la AWS Glue connexion pour le gestionnaire de connexions SSIS correspondant. Assurez-vous que vos AWS Glue connexions sont déjà créées.

   1. Sous **Connexions**, sélectionnez **Connexions au projet**.

   1. Pour **la connexion au catalogue Glue**, choisissez la AWS Glue connexion appropriée.

1. Configurez le gestionnaire de connexions aux packages :

   1. Sous **Connexions**, choisissez votre forfait.

   1. Pour **la connexion au catalogue Glue**, choisissez la AWS Glue connexion appropriée.

   1. Répétez ces actions pour toutes les connexions disponibles pour votre package.

1. Cliquez sur **Appliquer**.

1. Convertissez votre package. Dans l'arborescence des sources, recherchez **Packages**. Ouvrez le menu contextuel (clic droit) de votre package, puis choisissez **Convertir le package**.

1. Enregistrez le script converti sur Amazon S3. Dans l'arborescence cible, recherchez **Package scripts**. Ouvrez le menu contextuel (clic droit) de votre script converti, puis choisissez **Enregistrer dans S3**.

1. Configurez votre AWS Glue tâche. Dans l'arborescence cible, recherchez **Package scripts**. Ouvrez le menu contextuel (clic droit) de votre script converti, puis choisissez **Configurer la AWS Glue tâche**.

1. Complétez les trois sections de configuration :

   1. Complétez la section relative au **flux de données de conception** :
      + **Stratégie d'exécution** : choisissez comment votre tâche exécutera les scripts ETL. Choisissez **SEQUENTIAL** pour exécuter les scripts dans l'ordre indiqué dans l'assistant. Choisissez **PARALLEL** pour exécuter les scripts en parallèle, sans tenir compte de l'ordre spécifié dans l'assistant.
      + **Scripts** — Choisissez le nom de votre script converti.
      + Choisissez **Suivant**.

   1. Complétez la section **Propriétés du Job** :
      + **Nom** — Entrez le nom de votre AWS Glue tâche.
      + Rôle **IAM — Choisissez le rôle** IAM qui est utilisé pour autoriser les ressources utilisées pour exécuter le travail et accéder aux magasins de données.
      + **Nom du fichier de script** — Entrez le nom du script converti.
      + **Chemin S3 du fichier de script** : entrez le chemin Amazon S3 vers votre script converti.
      + **Chiffrer le script à l'aide du SSE-S3** : choisissez cette option pour protéger les données à l'aide du chiffrement côté serveur avec des clés de chiffrement gérées par Amazon S3 (SSE-S3).
      + **Répertoire temporaire** : entrez le chemin Amazon S3 vers un répertoire temporaire pour obtenir des résultats intermédiaires. AWS Glue et les transformations AWS Glue intégrées utilisent ce répertoire pour lire ou écrire sur Amazon Redshift.
      + AWS SCT génère automatiquement le chemin pour les bibliothèques Python. Vous pouvez consulter ce chemin dans le chemin de **bibliothèque Python généré**. Vous ne pouvez pas modifier ce chemin généré automatiquement. Pour utiliser des bibliothèques Python supplémentaires, entrez le chemin dans **User python library path**. 
      + **Chemin de la bibliothèque Python de l'utilisateur** — Entrez les chemins des bibliothèques Python utilisateur supplémentaires. Séparez les chemins Amazon S3 par des virgules.
      + **Chemin des fichiers JAR dépendants** : entrez les chemins des fichiers JAR dépendants. Séparez les chemins Amazon S3 par des virgules.
      + **Chemin des fichiers référencés** : entrez les chemins des fichiers supplémentaires, tels que les fichiers de configuration, requis par votre script. Séparez les chemins Amazon S3 par des virgules.
      + **Capacité maximale** — Entrez le nombre maximum d'unités de traitement de AWS Glue données (DPUs) qui peuvent être allouées lors de l'exécution de cette tâche. Vous pouvez saisir un nombre entier compris entre 2 et 100. La valeur par défaut est 2.
      + **Simultanéité** maximale — Entrez le nombre maximum d'exécutions simultanées autorisées pour cette tâche. La valeur par défaut est 1. AWS Glue renvoie une erreur lorsque ce seuil est atteint.
      + **Délai d'expiration de la tâche (minutes)** : entrez la valeur du délai d'expiration de votre tâche ETL afin de vous protéger contre les tâches intempestives. La valeur par défaut est de 2 880 minutes (48 heures) pour les tâches par lots. Si la tâche dépasse cette limite, l'état d'exécution de la tâche passe à`TIMEOUT`.
      + **Seuil de notification de retard (minutes)** : entrez le seuil en minutes avant d' AWS SCT envoyer une notification de retard.
      + **Nombre de tentatives** : entrez le nombre de fois (0 à 10) que la tâche AWS Glue doit automatiquement redémarrer en cas d'échec. Les tâches qui atteignent le délai d'expiration ne sont pas redémarrées. La valeur par défaut est 0.
      + Choisissez **Suivant**.

   1. Configurez les connexions requises : 

      1. Dans **Toutes les connexions**, choisissez les AWS Glue connexions requises et ajoutez-les à la liste des **connexions sélectionnées**.

      1. Choisissez **Finish** (Terminer).

1. Créez une AWS Glue tâche configurée. Dans l'arborescence cible, recherchez et développez les **tâches ETL**. Ouvrez le menu contextuel (clic droit) de la tâche ETL que vous avez configurée, puis choisissez **Create AWS Glue Job**.

1. Exécutez le AWS Glue job :

   1. Ouvrez la AWS Glue console à l'adresse [https://console.aws.amazon.com/glue/](https://console.aws.amazon.com/glue/).

   1. Dans le volet de navigation, sélectionnez **Tâches**.

   1. Choisissez **Ajouter une tâche**, puis choisissez la tâche que vous souhaitez exécuter.

   1. Dans l'onglet **Actions**, choisissez **Run job**.

## Composants SSIS AWS SCT pouvant être convertis en AWS Glue
<a name="CHAP-converting-aws-glue-ssis-supported-components"></a>

Vous pouvez l'utiliser AWS SCT pour convertir des composants de flux de données et de flux de contrôle, ainsi que des conteneurs, des paramètres et des variables.

Les composants de flux de données pris en charge sont les suivants :
+ Destination ADO NET
+ Source d'ADO NET
+ Regrouper
+ Transformation du cache
+ Transformation de la carte des personnages
+ Transformation fractionnée conditionnelle
+ Copier la transformation d'une colonne
+ Transformation de la conversion des données
+ Transformation de colonne dérivée
+ Destination Excel
+ Source Excel
+ Transformation de colonne d'exportation
+ Destination du fichier plat
+ Source de fichier plat
+ Transformation de Fuzzy Lookup
+ Transformation de colonne d'importation
+ Transformation des recherches
+ Fusion, jointure et transformation
+ Fusion et transformation
+ Transformation en multidiffusion
+ Destination ODBC
+ Source ODBC
+ Transformation des commandes OLE DB
+ Destination OLE DB
+ Source de base de données OLE
+ Transformation d'échantillonnage en pourcentage
+ Transformation du pivot
+ Destination du fichier brut
+ Source de fichier brut
+ RecordSet Destination
+ Transformation du nombre de lignes
+ Transformation d'échantillonnage de lignes
+ Transformation de tri
+ Destination du serveur SQL
+ Transformation totale de l'Union
+ Transformation débridée
+ Source XML

Les composants du flux de contrôle pris en charge sont les suivants :
+ Tâche d'insertion en bloc
+ Tâche d'exécution de package
+ Exécuter une tâche SQL
+ Exécuter la tâche d'instruction T-SQL
+ Tâche d'expression
+ Tâche du système de fichiers
+ Notifier la tâche de l'opérateur
+ Tâche d'envoi de courrier

Les conteneurs SSIS pris en charge sont les suivants :
+ Pour Loop Container
+ Conteneur Foreach Loop
+ Conteneur de séquence

# Conversion de packages SSIS en with AWS Glue Studio AWS Schema Conversion Tool
<a name="CHAP-converting-ssis-glue-studio"></a>

Vous pouvez l'utiliser AWS SCT pour convertir des packages Microsoft SQL Server Integration Services (SSIS) en AWS Glue Studio.

Un *package SSIS* inclut les composants nécessaires, tels que le gestionnaire de connexions, les tâches, le flux de contrôle, le flux de données, les paramètres, les gestionnaires d'événements et les variables, pour exécuter une tâche d'extraction, de transformation et de chargement (ETL) spécifique. AWS SCT convertit les packages SSIS dans un format compatible avec AWS Glue Studio. Après avoir migré votre base de données source vers le AWS Cloud, vous pouvez exécuter ces AWS Glue Studio tâches converties pour effectuer des tâches ETL.

Pour convertir des packages Microsoft SSIS AWS Glue Studio, assurez-vous d'utiliser la AWS SCT version 1.0.661 ou supérieure.

**Topics**
+ [Conditions préalables](#CHAP-converting-ssis-glue-studio-prerequisites)
+ [Ajouter des packages SSIS à votre AWS SCT projet](#CHAP-converting-ssis-glue-studio-create)
+ [Conversion de packages SSIS en AWS Glue Studio with AWS SCT](#CHAP-converting-ssis-glue-studio-convert)
+ [Création d' AWS Glue Studio emplois à l'aide du code converti](#CHAP-converting-ssis-glue-studio-jobs)
+ [Création d'un rapport d'évaluation pour un package SSIS avec AWS SCT](#CHAP-converting-ssis-glue-studio-assessment)
+ [Composants SSIS AWS SCT pouvant être convertis en AWS Glue Studio](#CHAP-converting-ssis-glue-studio-supported-components)

## Conditions préalables
<a name="CHAP-converting-ssis-glue-studio-prerequisites"></a>

Dans cette section, découvrez les tâches préalables à la conversion des packages SSIS en AWS Glue. Ces tâches incluent la création AWS des ressources requises dans votre compte.

Vous pouvez utiliser Gestion des identités et des accès AWS (IAM) pour définir les politiques et les rôles nécessaires pour accéder aux ressources qui AWS Glue Studio utilisent. Pour plus d'informations, consultez la section [Autorisations IAM pour l' AWS Glue Studio utilisateur](https://docs.aws.amazon.com/glue/latest/ug/setting-up.html#getting-started-min-privs).

Après avoir AWS SCT converti vos scripts sources en AWS Glue Studio, téléchargez les scripts convertis dans un compartiment Amazon S3. Assurez-vous de créer ce compartiment Amazon S3 et de le sélectionner dans les paramètres du profil de AWS service. Pour plus d'informations sur la création d'un compartiment S3, consultez [Créer votre premier compartiment S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-bucket.html) dans le *guide de l'utilisateur d'Amazon Simple Storage Service*.

Pour vous assurer qu'il AWS Glue Studio peut se connecter à votre banque de données, créez un connecteur personnalisé et une connexion. Stockez également les informations d'identification de la base de données dans AWS Secrets Manager.

**Pour créer un connecteur personnalisé**

1. Téléchargez le pilote JDBC pour votre banque de données. Pour plus d'informations sur les pilotes JDBC AWS SCT utilisés, consultez. [Installation des pilotes JDBC pour AWS Schema Conversion Tool](CHAP_Installing.JDBCDrivers.md)

1. Téléchargez ce fichier de pilote dans votre compartiment Amazon S3. Pour plus d'informations, consultez la section [Charger un objet dans votre compartiment](https://docs.aws.amazon.com/AmazonS3/latest/userguide/uploading-an-object-bucket.html) dans le *guide de l'utilisateur d'Amazon Simple Storage Service*.

1. Connectez-vous à la AWS Glue Studio console AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/gluestudio/](https://console.aws.amazon.com/gluestudio/).

1. Choisissez **Connecteurs**, puis sélectionnez **Créer un connecteur personnalisé**.

1. Pour **l'URL du connecteur S3**, choisissez **Browse S3**, puis le fichier de pilote JDBC que vous avez chargé dans votre compartiment Amazon S3.

1. Entrez un **nom** descriptif pour votre connecteur. Par exemple, saisissez **SQLServer**.

1. Pour le **type de connecteur**, choisissez **JDBC**.

1. Dans le **champ Nom de la classe**, entrez le nom de la classe principale de votre pilote JDBC. Pour SQL Server, entrez**com.microsoft.sqlserver.jdbc.SQLServerDriver**.

1. Pour la base d'**URL JDBC, entrez l'URL de base** JDBC. La syntaxe de l'URL de base JDBC dépend du moteur de base de données source. Pour SQL Server, utilisez le format suivant : **jdbc:sqlserver://\$1*<host>*:\$1*<port>*;databaseName=\$1*<dbname>*;user=\$1*<username>*;password=\$1*<password>***

   Assurez-vous de remplacer*<host>*,, *<port>* *<dbname>**<username>*, et *<password>* par vos valeurs.

1. Pour le **séparateur de paramètres d'URL**, entrez le point-virgule (). `;`

1. Sélectionnez **Créer un connecteur**.

**Pour stocker les informations d'identification de base de données dans AWS Secrets Manager**

1. Connectez-vous à la AWS Secrets Manager console AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/secretsmanager/](https://console.aws.amazon.com/secretsmanager/).

1. Choisissez **Store a new secret** (Stocker un nouveau secret).

1. Sur la page **Choose secret type** (Choisir un type de secret), procédez comme suit :

   1. Pour **Type de secret**, choisissez l'**autre type de secret**.

   1. Pour les **paires clé/valeur**, entrez les clés suivantes :**host**,, **port** **dbname****username**, et. **password**

      Entrez ensuite les valeurs de ces clés.

1. Sur la page **Configurer le secret**, entrez un **nom de secret** descriptif. Par exemple, saisissez **SQL\$1Server\$1secret**. 

1. Choisissez **Suivant**. Ensuite, sur la page **Configurer la rotation**, sélectionnez à nouveau **Suivant**.

1. Dans la page **Review (Révision)**, passez en revue vos paramètres, puis choisissez **Store (Stocker)**.

**Pour créer une connexion pour votre connecteur**

1. Connectez-vous à la AWS Glue Studio console AWS Management Console et ouvrez-la à l'adresse [https://console.aws.amazon.com/gluestudio/](https://console.aws.amazon.com/gluestudio/).

1. Choisissez le connecteur pour lequel vous souhaitez créer une connexion, puis choisissez **Créer une connexion**.

1. Sur la page **Créer une connexion**, entrez un **nom** descriptif pour votre connexion. Par exemple, saisissez **SQL-Server-connection**.

1. Dans **AWS Secret**, choisissez le secret que vous avez créé dans AWS Secrets Manager.

1. Configurez **les options réseau**, puis choisissez **Créer une connexion**.

Vous pouvez désormais créer une AWS Glue Studio tâche à l'aide d'un connecteur personnalisé. Pour de plus amples informations, veuillez consulter [Création d' AWS Glue Studio emplois](#CHAP-converting-ssis-glue-studio-jobs). 

## Ajouter des packages SSIS à votre AWS SCT projet
<a name="CHAP-converting-ssis-glue-studio-create"></a>

Vous pouvez ajouter plusieurs packages SSIS à un même AWS SCT projet.

**Pour ajouter un package SSIS à votre AWS SCT projet**

1. Créez un nouveau projet avec AWS SCT ou ouvrez un projet existant. Pour de plus amples informations, veuillez consulter [Démarrage et gestion de projets dans AWS SCT](CHAP_UserInterface.Project.md). 

1. Choisissez **Ajouter une source** dans le menu, puis sélectionnez **SQL Server Integration Services**.

1. Dans **Nom de connexion**, entrez le nom de vos packages SSIS. AWS SCT affiche ce nom dans l'arborescence du panneau de gauche.

1. Pour **le dossier des packages SSIS**, entrez le chemin d'accès au dossier contenant les packages SSIS source.

1. Choisissez **Ajouter une cible** dans le menu, puis choisissez **AWS Glue Studio**.

   Pour vous connecter à AWS Glue Studio, AWS SCT utilise votre AWS profil. Pour de plus amples informations, veuillez consulter [Gestion des profils dans AWS Schema Conversion Tool](CHAP_UserInterface.Profiles.md).

1. Créez une règle de mappage, qui inclut votre package SSIS source et votre AWS Glue Studio cible. Pour de plus amples informations, veuillez consulter [Cartographie des types de données dans AWS Schema Conversion Tool](CHAP_Mapping.md).

1. Créez AWS Glue Studio des connexions dans la AWS Glue Studio console. Pour plus d'informations, consultez la section [Création de connexions pour les connecteurs](https://docs.aws.amazon.com/glue/latest/ug/connectors-chapter.html#creating-connections). 

1. Choisissez **Gestionnaires de connexions** dans l'arborescence de gauche, ouvrez le menu contextuel (clic droit), puis sélectionnez **Configurer les connexions**.

   AWS SCT affiche la fenêtre **Configurer les connexions**.

1. Pour chaque connexion SSIS source, choisissez une AWS Glue Studio connexion.

## Conversion de packages SSIS en AWS Glue Studio with AWS SCT
<a name="CHAP-converting-ssis-glue-studio-convert"></a>

Ci-dessous, découvrez comment convertir les packages SSIS à AWS Glue Studio l'utilisation AWS SCT.

**Pour convertir un package SSIS en AWS Glue Studio**

1. Ajoutez votre package SSIS à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des packages SSIS à votre AWS SCT projet](#CHAP-converting-ssis-glue-studio-create).

1. Dans le panneau de gauche, développez les nœuds **ETL** et **SSIS**.

1. Choisissez **Packages**, ouvrez le menu contextuel (clic droit), puis choisissez **Convertir le package**.

   AWS SCT convertit les packages SSIS sélectionnés en fichiers JSON. Ces objets JSON représentent un nœud dans un graphe acyclique dirigé (DAG). Trouvez vos fichiers convertis dans le DAGs nœud **Package** dans l'arborescence de droite.

1. Choisissez **Package DAGs**, ouvrez le menu contextuel (clic droit), puis sélectionnez **Enregistrer sur Amazon S3**.

   Vous pouvez désormais utiliser ces scripts pour créer des tâches dans le AWS Glue Studio.

## Création d' AWS Glue Studio emplois à l'aide du code converti
<a name="CHAP-converting-ssis-glue-studio-jobs"></a>

Après avoir converti vos packages SSIS source, vous pouvez utiliser les fichiers JSON convertis pour créer des AWS Glue Studio tâches.

**Pour créer un AWS Glue Studio emploi**

1. Choisissez **Package DAGs** dans l'arborescence de droite, ouvrez le menu contextuel (clic droit), puis choisissez **Configurer la AWS Glue Studio tâche**.

1. (Facultatif) Appliquez le pack d'extension qui émule les fonctions SSIS dans AWS Glue Studio.

1. La fenêtre **Configurer la AWS Glue Studio tâche** s'ouvre.

   Complétez la section **Propriétés de base de la tâche** :
   + **Nom** — Entrez le nom de votre AWS Glue Studio travail.
   + **Nom du fichier de script** — Entrez le nom de votre script de tâche.
   + **Paramètres du job** : ajoutez des paramètres et entrez leurs valeurs.

   Choisissez **Suivant**.

1. Complétez la section **Propriétés avancées de la tâche** :
   + Rôle **IAM — Choisissez le rôle** IAM utilisé pour l'autorisation AWS Glue Studio et l'accès aux magasins de données.
   + **Chemin S3 du fichier de script** : entrez le chemin Amazon S3 vers votre script converti.
   + **Répertoire temporaire** : entrez le chemin Amazon S3 vers un répertoire temporaire pour obtenir des résultats intermédiaires. AWS Glue Studio utilise ce répertoire pour lire ou écrire sur Amazon Redshift.
   + AWS SCT génère automatiquement le chemin pour les bibliothèques Python. Vous pouvez consulter ce chemin dans le chemin de **bibliothèque Python généré**. Vous ne pouvez pas modifier ce chemin généré automatiquement. Pour utiliser des bibliothèques Python supplémentaires, entrez le chemin dans **User python library path**. 
   + **Chemin de la bibliothèque Python de l'utilisateur** — Entrez les chemins des bibliothèques Python utilisateur supplémentaires. Séparez les chemins Amazon S3 par des virgules.
   + **Chemin des fichiers JAR dépendants** : entrez les chemins des `*.jar` fichiers dépendants. Séparez les chemins Amazon S3 par des virgules.
   + **Chemin des fichiers référencés** : entrez les chemins des fichiers supplémentaires, tels que les fichiers de configuration, requis par votre script. Séparez les chemins Amazon S3 par des virgules.
   + **Type de travailleur** — Choisissez `G.1X` ou`G.2X`.

     Lorsque vous choisissez, `G.1X` chaque worker est mappé sur 1 DPU (4 vCPU, 16 Go de mémoire et 64 Go de disque).

     Lorsque vous choisissez, `G.2X` chaque worker est mappé sur 2 DPU (8 vCPU, 32 Go de mémoire et 128 Go de disque).
   + **Nombre de travailleurs demandé** : entrez le nombre de travailleurs alloués lors de l'exécution de la tâche.
   + **Simultanéité** maximale — Entrez le nombre maximum d'exécutions simultanées autorisées pour cette tâche. La valeur par défaut est 1. AWS Glue renvoie une erreur lorsque ce seuil est atteint.
   + **Délai d'expiration de la tâche (minutes)** : entrez la valeur du délai d'expiration de votre tâche ETL afin de vous protéger contre les tâches intempestives. La valeur par défaut est de 2 880 minutes (48 heures) pour les tâches par lots. Si la tâche dépasse cette limite, l'état d'exécution de la tâche passe à`TIMEOUT`.
   + **Seuil de notification de retard (minutes)** : entrez le seuil en minutes avant d' AWS SCT envoyer une notification de retard.
   + **Nombre de tentatives** : entrez le nombre de fois (0 à 10) que la tâche AWS Glue doit automatiquement redémarrer en cas d'échec. Les tâches qui atteignent le délai d'expiration ne sont pas redémarrées. La valeur par défaut est 0.

   Choisissez **Finish** (Terminer).

   AWS SCT configure les AWS Glue Studio tâches que vous avez sélectionnées. 

1. Trouvez vos tâches configurées sous **Tâches ETL** dans l'arborescence appropriée. Choisissez votre tâche configurée, ouvrez le menu contextuel (clic droit), puis choisissez **Créer une AWS Glue Studio tâche**.

1. Choisissez **le statut Appliquer** et assurez-vous que la valeur du **statut** de votre offre d'emploi est **Réussite**.

1. Ouvrez la AWS Glue Studio console, choisissez **Actualiser**, puis choisissez votre tâche. Choisissez ensuite **Next (Suivant)**.

## Création d'un rapport d'évaluation pour un package SSIS avec AWS SCT
<a name="CHAP-converting-ssis-glue-studio-assessment"></a>

Le *rapport d'évaluation de la migration ETL* fournit des informations sur la conversion de vos packages SSIS dans un format compatible avec AWS Glue Studio. Le rapport d'évaluation inclut des mesures à prendre pour les composants de vos packages SSIS. Ces actions indiquent quels composants ne AWS SCT peuvent pas être convertis automatiquement. 

**Pour créer un rapport d'évaluation de la migration ETL**

1. Développez le nœud **SSIS** sous **ETL** dans le panneau de gauche.

1. Choisissez **Packages**, ouvrez le menu contextuel (clic droit), puis choisissez **Créer un rapport**.

1. Consultez l'onglet **Résumé**. AWS SCT Affiche ici les informations récapitulatives du rapport d'évaluation de la migration ETL. Il inclut les résultats de conversion pour tous les composants de vos packages SSIS.

1. (Facultatif) Enregistrez une copie locale du rapport d'évaluation de la migration ETL sous forme de fichier PDF ou de fichier CSV (valeurs séparées par des virgules) :
   + Pour enregistrer le rapport d'évaluation de la migration ETL sous forme de fichier PDF, choisissez **Enregistrer au format PDF** en haut à droite.

      Le fichier PDF contient le résumé, les actions à entreprendre et les recommandations pour la conversion des scripts.
   + Pour enregistrer le rapport d'évaluation de la migration ETL sous forme de fichier CSV, choisissez **Enregistrer au format CSV en** haut à droite.

     AWS SCT crée trois fichiers CSV. Ces fichiers contiennent des actions, des actions recommandées et une estimation de la complexité de l'effort manuel requis pour convertir les scripts.

1. Choisissez l'onglet **Éléments d'action**. Cet onglet contient la liste des éléments qui nécessitent une conversion manuelle en AWS Glue Studio. Lorsque vous choisissez un élément d'action dans la liste, AWS SCT met en surbrillance l'élément de votre package SSIS source auquel l'action s'applique.

## Composants SSIS AWS SCT pouvant être convertis en AWS Glue Studio
<a name="CHAP-converting-ssis-glue-studio-supported-components"></a>

Vous pouvez l'utiliser AWS SCT pour convertir les composants et paramètres du flux de données SSIS en AWS Glue Studio.

Les composants de flux de données pris en charge sont les suivants :
+ Destination ADO NET
+ Source d'ADO NET
+ Regrouper
+ Carte des personnages
+ Fractionnement conditionnel
+ Copier la colonne
+ Conversion des données
+ Colonne dérivée
+ Chercher
+ Fusionner
+ Joindre par fusion
+ Multicast
+ ODBCDestination
+ ODBCSource
+ OLEDBDestination
+ OLEDBSource
+ Nombre de lignes
+ Tri
+ Destination du serveur SQL
+ Tout syndiquer

AWS SCT peut convertir davantage de composants SSIS en AWS Glue. Pour de plus amples informations, veuillez consulter [Composants SSIS AWS SCT pouvant être convertis en AWS Glue](CHAP-converting-aws-glue-ssis.md#CHAP-converting-aws-glue-ssis-supported-components).

# Conversion de scripts Teradata BTEQ en Amazon Redshift RSQL avec AWS SCT
<a name="CHAP-converting-bteq-rsql"></a>

Vous pouvez utiliser le AWS Schema Conversion Tool (AWS SCT) pour convertir les scripts Teradata Basic Teradata Query (BTEQ) en Amazon Redshift RSQL.

Le schéma d'architecture suivant montre le projet de migration de base de données qui inclut la conversion de scripts d'extraction, de transformation et de chargement (ETL) en Amazon Redshift RSQL.

![\[Schéma illustrant la conversion de scripts ETL en RSQL.\]](http://docs.aws.amazon.com/fr_fr/SchemaConversionTool/latest/userguide/images/redshift-rsql-conversion.png)


**Topics**
+ [Ajouter des scripts BTEQ à votre projet AWS SCT](#CHAP-converting-bteq-rsql-create)
+ [Configuration des variables de substitution dans les scripts BTEQ avec AWS SCT](#CHAP-converting-bteq-rsql-variables)
+ [Conversion de scripts Teradata BTEQ en Amazon Redshift RSQL avec AWS SCT](#CHAP-converting-bteq-rsql-convert)
+ [Gérer les scripts BTEQ avec AWS SCT](#CHAP-converting-bteq-rsql-manage)
+ [Création d'un rapport d'évaluation de la conversion des scripts BTEQ avec AWS SCT](#CHAP-converting-bteq-rsql-assessment)
+ [Modifier et enregistrer vos scripts BTEQ convertis avec AWS SCT](#CHAP-converting-bteq-rsql-save)

## Ajouter des scripts BTEQ à votre projet AWS SCT
<a name="CHAP-converting-bteq-rsql-create"></a>

Vous pouvez ajouter plusieurs scripts à un même AWS SCT projet. 

**Pour ajouter un script BTEQ à votre projet AWS SCT**

1. Créez un nouveau projet dans AWS SCT ou ouvrez un projet existant. Pour de plus amples informations, veuillez consulter [Démarrage et gestion de projets dans AWS SCT](CHAP_UserInterface.Project.md). 

1. Choisissez **Ajouter une source** dans le menu, puis **Teradata** pour ajouter votre base de données source au projet. Pour de plus amples informations, veuillez consulter [Bases de données Teradata](CHAP_Source.Teradata.md).

1. Choisissez **Ajouter une cible** dans le menu pour ajouter une base de données Amazon Redshift cible à votre AWS SCT projet.

   Vous pouvez utiliser une plate-forme de base de données cible Amazon Redshift virtuelle. Pour de plus amples informations, veuillez consulter [Mappage vers des cibles virtuelles dans AWS Schema Conversion Tool](CHAP_Mapping.VirtualTargets.md).

1. Créez une nouvelle règle de mappage qui inclut votre base de données Teradata source et votre cible Amazon Redshift. Pour de plus amples informations, veuillez consulter [Cartographie de nouveaux types de données dans AWS Schema Conversion Tool](CHAP_Mapping.New.md). 

1. Dans le menu **Affichage**, choisissez **Vue principale**.

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1.  Choisissez des **scripts BTEQ**, ouvrez le menu contextuel (clic droit), puis choisissez **Charger** des scripts.

1.  **Entrez l'emplacement du code source de vos scripts Teradata BTEQ et choisissez Select folder.**

   AWS SCT affiche la fenêtre **Charger des scripts**.

1. Effectuez l’une des actions suivantes :

   1. Si vos scripts Teradata BTEQ n'incluent pas les variables de substitution, choisissez **Aucune variable de substitution**, puis **cliquez sur OK** pour ajouter des scripts à votre projet. AWS SCT 

   1. Si vos scripts Teradata BTEQ incluent des variables de substitution, configurez-les. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts BTEQ](#CHAP-converting-bteq-rsql-variables).

## Configuration des variables de substitution dans les scripts BTEQ avec AWS SCT
<a name="CHAP-converting-bteq-rsql-variables"></a>

Vos scripts Teradata BTEQ peuvent inclure des variables de substitution. Par exemple, vous pouvez utiliser un script BTEQ avec des variables de substitution pour exécuter le même ensemble de commandes sur plusieurs environnements de base de données. Vous pouvez l'utiliser AWS SCT pour configurer des variables de substitution dans vos scripts BTEQ. 

Avant d'exécuter un script BTEQ avec des variables de substitution, assurez-vous d'attribuer les valeurs à toutes les variables. Pour ce faire, vous pouvez utiliser d'autres outils ou applications tels qu'un script Bash, UC4 (Automic), etc. AWS SCT ne peut résoudre et convertir des variables de substitution qu'après avoir attribué leurs valeurs. 

**Pour configurer les variables de substitution dans votre script BTEQ**

1. Ajoutez vos scripts BTEQ à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des scripts BTEQ à votre projet AWS SCT ](#CHAP-converting-bteq-rsql-create). 

   Lorsque vous ajoutez vos scripts, sélectionnez **Les variables de substitution sont utilisées**.

1. Pour **Définir le format de variable**, entrez une expression régulière qui correspond à toutes les variables de substitution de votre script.

   Par exemple, si les noms de vos variables de substitution commencent par `${` et se terminent par`}`, utilisez l'expression `\$\{\w+\}` régulière. Pour faire correspondre les variables de substitution qui commencent par le signe dollar ou par le signe pourcentage, utilisez l'expression `\$\w+|\%\w+` régulière.

   Expressions régulières AWS SCT conformes à la syntaxe des expressions régulières Java. Pour plus d'informations, consultez le [modèle de classe java.util.regex dans](https://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html) la documentation Java.

1. Cliquez **sur OK** pour charger des scripts dans votre AWS SCT projet, puis **sur OK** pour fermer la fenêtre **Charger des scripts**.

1. Choisissez **Variables** pour afficher toutes les variables de substitution découvertes et leurs valeurs.

1. Dans **Valeur**, entrez la valeur de la variable de substitution.

## Conversion de scripts Teradata BTEQ en Amazon Redshift RSQL avec AWS SCT
<a name="CHAP-converting-bteq-rsql-convert"></a>

Découvrez ci-dessous comment convertir des scripts ETL BTEQ en Amazon Redshift RSQL à l'aide de. AWS SCT

**Pour convertir un script Teradata BTEQ en Amazon Redshift RSQL**

1. Ajoutez vos scripts BTEQ à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des scripts BTEQ à votre projet AWS SCT ](#CHAP-converting-bteq-rsql-create).

1. Configurez les variables de substitution. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts BTEQ](#CHAP-converting-bteq-rsql-variables).

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1. Effectuez l’une des actions suivantes :
   + Pour convertir un seul script BTEQ, développez le nœud des **scripts BTEQ**, choisissez le script à convertir, puis choisissez **Convertir en RSQL** dans le menu contextuel (clic droit).
   + Pour convertir plusieurs scripts, assurez-vous de sélectionner tous les scripts à convertir. **Choisissez ensuite les **scripts BTEQ**, ouvrez le menu contextuel (clic droit), puis choisissez **Convertir en RSQL sous Convertir** le script.** 

   AWS SCT convertit tous les scripts Teradata BTEQ sélectionnés dans un format compatible avec Amazon Redshift RSQL. Trouvez vos scripts convertis dans le nœud **Scripts** du panneau de base de données cible.

1. Modifiez vos scripts Amazon Redshift RSQL convertis ou enregistrez-les. Pour de plus amples informations, veuillez consulter [Modification et enregistrement de vos scripts BTEQ convertis](#CHAP-converting-bteq-rsql-save).

## Gérer les scripts BTEQ avec AWS SCT
<a name="CHAP-converting-bteq-rsql-manage"></a>

Vous pouvez ajouter plusieurs scripts BTEQ ou supprimer un script BTEQ de votre projet. AWS SCT 

**Pour ajouter un script BTEQ supplémentaire à votre projet AWS SCT**

1. Développez le nœud **Scripts** dans le panneau de gauche.

1. Choisissez le nœud des **scripts BTEQ** et ouvrez le menu contextuel (clic droit).

1. Choisissez **Charger des scripts**.

1. Entrez les informations requises pour ajouter un nouveau script BTEQ et configurer les variables de substitution. Pour plus d’informations, consultez [Ajouter des scripts BTEQ à votre projet AWS SCT ](#CHAP-converting-bteq-rsql-create) et [Configuration des variables de substitution dans les scripts BTEQ](#CHAP-converting-bteq-rsql-variables).

**Pour supprimer un script BTEQ de votre projet AWS SCT**

1. Développez le nœud de **scripts BTEQ** sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à supprimer, puis ouvrez le menu contextuel (clic droit).

1. Choisissez **Supprimer le script**.

## Création d'un rapport d'évaluation de la conversion des scripts BTEQ avec AWS SCT
<a name="CHAP-converting-bteq-rsql-assessment"></a>

Un *rapport d'évaluation de la conversion des scripts BTEQ* fournit des informations sur la conversion des commandes BTEQ et des instructions SQL de vos scripts BTEQ dans un format compatible avec Amazon Redshift RSQL. Le rapport d'évaluation inclut des actions pour les commandes BTEQ et les instructions SQL qui ne AWS SCT peuvent pas être converties. 

**Pour créer un rapport d'évaluation de la conversion des scripts BTEQ**

1. Développez le nœud de **scripts BTEQ** sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à convertir et ouvrez le menu contextuel (clic droit).

1. Choisissez **Conversion en RSQL** sous **Créer un rapport**.

1. Consultez l'onglet **Résumé**. L'onglet **Résumé** affiche les informations de synthèse du rapport d'évaluation du script BTEQ. Il inclut les résultats de conversion pour toutes les commandes BTEQ et les instructions SQL de vos scripts BTEQ. 

1. (Facultatif) Enregistrez une copie locale du rapport d'évaluation de la conversion des scripts BTEQ sous forme de fichier PDF ou de fichier de valeurs séparées par des virgules (CSV) :
   + Pour enregistrer le rapport d'évaluation de la conversion du script BTEQ sous forme de fichier PDF, choisissez **Enregistrer au format PDF en** haut à droite.

      Le fichier PDF contient le résumé, les actions à entreprendre et les recommandations pour la conversion des scripts.
   + Pour enregistrer le rapport d'évaluation de la conversion du script BTEQ sous forme de fichier CSV, choisissez **Enregistrer au format CSV en** haut à droite.

     Le fichier CSV contient des actions, des actions recommandées et une estimation de la complexité de l'effort manuel requis pour convertir les scripts.

1. Choisissez l'onglet **Éléments d'action**. Cet onglet contient la liste des éléments qui nécessitent une conversion manuelle vers Amazon Redshift RSQL. Lorsque vous choisissez une action dans la liste, mettez AWS SCT en surbrillance l'élément de votre script BTEQ source auquel l'action s'applique. 

## Modifier et enregistrer vos scripts BTEQ convertis avec AWS SCT
<a name="CHAP-converting-bteq-rsql-save"></a>

Vous pouvez modifier vos scripts convertis dans le panneau inférieur de votre AWS SCT projet. AWS SCT enregistre le script modifié dans le cadre de votre projet.

**Pour enregistrer vos scripts convertis**

1. Développez le nœud de **scripts RSQL** sous **Scripts** dans le panneau de base de données cible.

1. Choisissez votre script converti, ouvrez le menu contextuel (clic droit) et choisissez **Enregistrer le script**.

1. Entrez le chemin d'accès au dossier pour enregistrer le script converti et choisissez **Enregistrer**.

   AWS SCT enregistre le script converti dans un fichier et ouvre ce fichier.

# Conversion de scripts shell contenant des commandes BTEQ intégrées en Amazon Redshift RSQL avec AWS Schema Conversion Tool
<a name="CHAP-converting-shell-rsql"></a>

Vous pouvez utiliser le AWS Schema Conversion Tool (AWS SCT) pour convertir des scripts shell contenant des commandes Teradata Basic Teradata Query (BTEQ) intégrées en scripts shell contenant des commandes Amazon Redshift RSQL intégrées.

AWS SCT extrait les commandes Teradata BTEQ de vos scripts shell et les convertit dans un format compatible avec Amazon Redshift. Après avoir migré la base de données Teradata vers Amazon Redshift, vous pouvez utiliser ces scripts convertis pour gérer votre nouvelle base de données Amazon Redshift.

Vous pouvez également les utiliser AWS SCT pour convertir des fichiers contenant des scripts Teradata BTEQ ETL en Amazon Redshift RSQL. Pour de plus amples informations, veuillez consulter [Conversion de scripts Teradata BTEQ en Amazon Redshift RSQL avec AWS SCT](CHAP-converting-bteq-rsql.md).

**Topics**
+ [Ajout de scripts shell avec des commandes Teradata BTEQ intégrées à votre projet AWS SCT](#CHAP-converting-shell-rsql-create)
+ [Configuration de variables de substitution dans des scripts shell avec des commandes Teradata BTEQ intégrées avec AWS SCT](#CHAP-converting-shell-rsql-variables)
+ [Conversion de scripts shell avec des commandes Teradata BTEQ intégrées avec AWS SCT](#CHAP-converting-shell-rsql-convert)
+ [Gestion de scripts shell avec des commandes Teradata BTEQ intégrées avec AWS SCT](#CHAP-converting-shell-rsql-manage)
+ [Création d'un rapport d'évaluation pour la conversion d'un script shell avec AWS SCT](#CHAP-converting-shell-rsql-assessment)
+ [Modifier et enregistrer vos scripts shell convertis avec AWS SCT](#CHAP-converting-shell-rsql-save)

## Ajout de scripts shell avec des commandes Teradata BTEQ intégrées à votre projet AWS SCT
<a name="CHAP-converting-shell-rsql-create"></a>

Vous pouvez ajouter plusieurs scripts à un même AWS SCT projet.

**Pour ajouter un script shell à votre AWS SCT projet**

1. Créez un nouveau projet AWS SCT ou ouvrez un projet existant. Pour de plus amples informations, veuillez consulter [Démarrage et gestion de projets dans AWS SCT](CHAP_UserInterface.Project.md). 

1. Choisissez **Ajouter une source** dans le menu, puis **Teradata** pour ajouter votre base de données source au projet. Pour de plus amples informations, veuillez consulter [Bases de données Teradata](CHAP_Source.Teradata.md).

1. Choisissez **Ajouter une cible** dans le menu pour ajouter une base de données Amazon Redshift cible à votre AWS SCT projet.

   Vous pouvez utiliser une plate-forme de base de données cible Amazon Redshift virtuelle. Pour de plus amples informations, veuillez consulter [Mappage vers des cibles virtuelles dans AWS Schema Conversion Tool](CHAP_Mapping.VirtualTargets.md).

1. Créez une nouvelle règle de mappage qui inclut votre base de données Teradata source et votre cible Amazon Redshift. Pour de plus amples informations, veuillez consulter [Cartographie de nouveaux types de données dans AWS Schema Conversion Tool](CHAP_Mapping.New.md). 

1. Dans le menu **Affichage**, choisissez **Vue principale**.

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1.  Choisissez **Shell**, ouvrez le menu contextuel (clic droit), puis choisissez **Charger des scripts**.

1.  **Entrez l'emplacement de vos scripts shell source avec les commandes Teradata BTEQ intégrées et choisissez Select folder.**

   AWS SCT affiche la fenêtre **Charger des scripts**.

1. Effectuez l’une des actions suivantes :
   + Si vos scripts shell n'incluent pas les variables de substitution, choisissez **Aucune variable de substitution**, puis **cliquez sur OK** pour ajouter des scripts à votre AWS SCT projet.
   + Si vos scripts shell incluent des variables de substitution, configurez-les. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts shell](#CHAP-converting-shell-rsql-variables).

## Configuration de variables de substitution dans des scripts shell avec des commandes Teradata BTEQ intégrées avec AWS SCT
<a name="CHAP-converting-shell-rsql-variables"></a>

Vos scripts shell peuvent inclure des variables de substitution. Par exemple, vous pouvez utiliser un seul script avec des variables de substitution pour gérer des bases de données dans différents environnements. Vous pouvez l'utiliser AWS SCT pour configurer des variables de substitution dans vos scripts shell. 

Avant d'exécuter des commandes BTEQ avec des variables de substitution à partir d'un script shell, assurez-vous d'attribuer les valeurs à toutes les variables de ce script shell. AWS SCT ne peut résoudre et convertir des variables de substitution qu'après avoir attribué leurs valeurs. 

**Pour configurer des variables de substitution dans votre script shell**

1. Ajoutez vos scripts shell source à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des scripts shell à votre AWS SCT projet](#CHAP-converting-shell-rsql-create).

   Lorsque vous ajoutez vos scripts, sélectionnez **Les variables de substitution sont utilisées**.

1. Pour **Définir le format de variable**, entrez une expression régulière correspondant à toutes les variables de substitution de votre script.

   Par exemple, si les noms de vos variables de substitution commencent par `${` et se terminent par`}`, utilisez l'expression `\$\{\w+\}` régulière. Pour faire correspondre les variables de substitution qui commencent par le signe dollar ou par le signe pourcentage, utilisez l'expression `\$\w+|\%\w+` régulière.

   Expressions régulières AWS SCT conformes à la syntaxe des expressions régulières Java. Pour plus d'informations, consultez le [modèle de classe java.util.regex dans](https://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html) la documentation Java.

1. Cliquez **sur OK** pour charger des scripts dans votre AWS SCT projet, puis **sur OK** pour fermer la fenêtre **Charger des scripts**.

1. Choisissez **Variables** pour afficher toutes les variables de substitution découvertes et leurs valeurs.

1. Dans **Valeur**, entrez la valeur de la variable de substitution.

## Conversion de scripts shell avec des commandes Teradata BTEQ intégrées avec AWS SCT
<a name="CHAP-converting-shell-rsql-convert"></a>

Découvrez ci-dessous comment convertir des scripts shell contenant des commandes Teradata BTEQ intégrées en scripts shell contenant des commandes Amazon Redshift RSQL intégrées à l'aide de. AWS SCT

**Pour convertir un script shell**

1. Ajoutez vos scripts shell à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des scripts shell à votre AWS SCT projet](#CHAP-converting-shell-rsql-create).

1. Configurez les variables de substitution. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts shell](#CHAP-converting-shell-rsql-variables).

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1. Effectuez l’une des actions suivantes :
   + Pour convertir des commandes BTEQ à partir d'un seul script shell, développez le nœud **Shell**, choisissez le script à convertir, puis choisissez **Convertir le script** dans le menu contextuel (clic droit).
   + Pour convertir plusieurs scripts, assurez-vous de sélectionner tous les scripts à convertir. Choisissez ensuite **Shell**, ouvrez le menu contextuel (clic droit), puis choisissez **Convertir le script**.

1. Choisissez **OK**.

   AWS SCT convertit les commandes BTEQ des scripts shell que vous avez sélectionnés dans un format compatible avec Amazon Redshift RSQL. Trouvez vos scripts convertis dans le nœud **Scripts** du panneau de base de données cible.

1. Modifiez vos scripts Amazon Redshift RSQL convertis ou enregistrez-les. Pour de plus amples informations, veuillez consulter [Modification et enregistrement de vos scripts shell convertis](#CHAP-converting-shell-rsql-save).

## Gestion de scripts shell avec des commandes Teradata BTEQ intégrées avec AWS SCT
<a name="CHAP-converting-shell-rsql-manage"></a>

Vous pouvez ajouter plusieurs scripts shell ou supprimer un script shell de votre AWS SCT projet.

**Pour ajouter un nouveau script shell à votre AWS SCT projet**

1. Développez le nœud **Scripts** dans le panneau de gauche.

1. Choisissez le nœud **Shell** et ouvrez le menu contextuel (clic droit).

1. Choisissez **Charger des scripts**.

1. Entrez les informations requises pour ajouter un nouveau script shell et configurer les variables de substitution. Pour plus d’informations, consultez [Ajouter des scripts shell à votre AWS SCT projet](#CHAP-converting-shell-rsql-create) et [Configuration des variables de substitution dans les scripts shell](#CHAP-converting-shell-rsql-variables).

**Pour supprimer un script shell de votre AWS SCT projet**

1. Développez le nœud **Shell** sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à supprimer, puis ouvrez le menu contextuel (clic droit).

1. Choisissez **Supprimer le script**.

## Création d'un rapport d'évaluation pour la conversion d'un script shell avec AWS SCT
<a name="CHAP-converting-shell-rsql-assessment"></a>

Le *rapport d'évaluation de la conversion des scripts shell* fournit des informations sur la conversion des commandes BTEQ et des instructions SQL. La conversion s'effectue à partir de vos scripts source vers un format compatible avec Amazon Redshift RSQL. Le rapport d'évaluation inclut des actions pour les commandes BTEQ et les instructions SQL qui ne AWS SCT peuvent pas être converties. 

**Pour créer un rapport d'évaluation de la conversion des scripts shell**

1. Développez le nœud **Shell** sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à convertir, ouvrez le menu contextuel (clic droit), puis choisissez **Créer un rapport**.

1. Consultez l'onglet **Résumé**. L'onglet **Résumé** affiche les informations de synthèse issues du rapport d'évaluation du script shell. Il inclut les résultats de conversion pour toutes les commandes BTEQ et instructions SQL de vos scripts source. 

1. (Facultatif) Enregistrez une copie locale du rapport d'évaluation de la conversion du script shell sous forme de fichier PDF ou de fichier CSV (valeurs séparées par des virgules) :
   + Pour enregistrer le rapport d'évaluation de la conversion du script shell sous forme de fichier PDF, choisissez **Enregistrer au format PDF** en haut à droite.

      Le fichier PDF contient le résumé, les actions à entreprendre et les recommandations pour la conversion des scripts.
   + Pour enregistrer le rapport d'évaluation de la conversion du script shell sous forme de fichier CSV, choisissez **Enregistrer au format CSV en** haut à droite.

     Le fichier CSV contient des actions, des actions recommandées et une estimation de la complexité de l'effort manuel requis pour convertir les scripts.

1. Choisissez l'onglet **Éléments d'action**. Cet onglet contient la liste des éléments qui nécessitent une conversion manuelle vers Amazon Redshift RSQL. Lorsque vous sélectionnez un élément d'action dans la liste AWS SCT , surligne l'élément de votre script shell source auquel l'action s'applique. 

## Modifier et enregistrer vos scripts shell convertis avec AWS SCT
<a name="CHAP-converting-shell-rsql-save"></a>

Vous pouvez modifier vos scripts convertis dans le panneau inférieur de votre AWS SCT projet. AWS SCT enregistre le script modifié dans le cadre de votre projet.

**Pour enregistrer vos scripts convertis**

1. Développez le nœud de **scripts RSQL** sous **Scripts** dans le panneau de base de données cible.

1. Choisissez votre script converti, ouvrez le menu contextuel (clic droit) et choisissez **Enregistrer le script**.

1. Entrez le chemin d'accès au dossier pour enregistrer le script converti et choisissez **Enregistrer**.

   AWS SCT enregistre le script converti dans un fichier et ouvre ce fichier.

# Conversion de FastExport scripts vers Amazon Redshift RSQL avec AWS Schema Conversion Tool
<a name="CHAP-converting-fastexport-rsql"></a>

Vous pouvez utiliser le AWS Schema Conversion Tool (AWS SCT) pour convertir les scripts de FastExport travail Teradata en Amazon Redshift RSQL.

Un *script de FastExport tâche* est un ensemble de FastExport commandes et d'instructions SQL qui sélectionnent et exportent des données depuis la base de données Teradata. AWS SCT convertit FastExport les commandes et les instructions SQL dans un format compatible avec Amazon Redshift RSQL. Après avoir migré la base de données Teradata vers Amazon Redshift, vous pouvez utiliser ces scripts convertis pour exporter des données depuis la base de données Amazon Redshift.

**Topics**
+ [Ajouter des scripts de FastExport travail à votre AWS SCT projet](#CHAP-converting-fastexport-rsql-create)
+ [Configuration des variables de substitution dans les scripts de FastExport travail Teradata avec AWS SCT](#CHAP-converting-fastexport-rsql-variables)
+ [Conversion de scripts de FastExport travail Teradata avec AWS SCT](#CHAP-converting-fastexport-rsql-convert)
+ [Gestion des scripts de FastExport travail Teradata avec AWS SCT](#CHAP-converting-fastexport-rsql-manage)
+ [Création d'un rapport d'évaluation pour la conversion d'un script de FastExport travail Teradata avec AWS SCT](#CHAP-converting-fastexport-rsql-assessment)
+ [Modification et enregistrement de vos scripts de FastExport travail Teradata convertis avec AWS SCT](#CHAP-converting-fastexport-rsql-save)

## Ajouter des scripts de FastExport travail à votre AWS SCT projet
<a name="CHAP-converting-fastexport-rsql-create"></a>

Vous pouvez ajouter plusieurs scripts à un même AWS SCT projet.

**Pour ajouter un script de FastExport tâche à votre AWS SCT projet**

1. Créez un nouveau projet AWS SCT ou ouvrez un projet existant. Pour de plus amples informations, veuillez consulter [Démarrage et gestion de projets dans AWS SCT](CHAP_UserInterface.Project.md). 

1. Choisissez **Ajouter une source** dans le menu, puis **Teradata** pour ajouter votre base de données source au projet. Pour de plus amples informations, veuillez consulter [Bases de données Teradata](CHAP_Source.Teradata.md).

1. Choisissez **Ajouter une cible** dans le menu pour ajouter une base de données Amazon Redshift cible à votre AWS SCT projet.

   Vous pouvez utiliser une plate-forme de base de données cible Amazon Redshift virtuelle. Pour de plus amples informations, veuillez consulter [Mappage vers des cibles virtuelles dans AWS Schema Conversion Tool](CHAP_Mapping.VirtualTargets.md).

1. Créez une nouvelle règle de mappage qui inclut votre base de données Teradata source et votre cible Amazon Redshift. Pour de plus amples informations, veuillez consulter [Cartographie de nouveaux types de données dans AWS Schema Conversion Tool](CHAP_Mapping.New.md). 

1. Dans le menu **Affichage**, choisissez **Vue principale**.

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1.  Choisissez **FastExport**, ouvrez le menu contextuel (clic droit), puis choisissez **Charger des scripts**.

1.  Entrez l'emplacement du code source de vos scripts de FastExport travail Teradata et choisissez **Select folder**.

   AWS SCT affiche la fenêtre **Charger des scripts**.

1. Effectuez l’une des actions suivantes :
   + Si vos scripts de FastExport travail Teradata n'incluent pas les variables de substitution, choisissez **Aucune variable de substitution**, puis **cliquez sur OK** pour ajouter des scripts à votre AWS SCT projet.
   + Si vos scripts de FastExport travail Teradata incluent des variables de substitution, configurez-les. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts de FastExport travail](#CHAP-converting-fastexport-rsql-variables).

## Configuration des variables de substitution dans les scripts de FastExport travail Teradata avec AWS SCT
<a name="CHAP-converting-fastexport-rsql-variables"></a>

Vos scripts de FastExport travail Teradata peuvent inclure des variables de substitution. Par exemple, vous pouvez utiliser un seul script avec des variables de substitution pour exporter les données de plusieurs bases de données. Vous pouvez l'utiliser AWS SCT pour configurer des variables de substitution dans vos scripts Teradata.

Avant d'exécuter un script de FastExport travail avec des variables de substitution, assurez-vous d'attribuer les valeurs à toutes les variables. Pour ce faire, vous pouvez utiliser d'autres outils ou applications tels qu'un script Bash, UC4 (Automic), etc. AWS SCT ne peut résoudre et convertir des variables de substitution qu'après avoir attribué leurs valeurs.

**Pour configurer les variables de substitution dans votre script de FastExport tâche**

1. Ajoutez vos scripts de FastExport travail Teradata source à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des scripts BTEQ à votre projet AWS SCT ](CHAP-converting-bteq-rsql.md#CHAP-converting-bteq-rsql-create). 

   Lorsque vous ajoutez vos scripts, sélectionnez **Les variables de substitution sont utilisées**.

1. Pour **Définir le format de variable**, entrez une expression régulière correspondant à toutes les variables de substitution de votre script.

   Par exemple, si les noms de vos variables de substitution commencent par `${` et se terminent par`}`, utilisez l'expression `\$\{\w+\}` régulière. Pour faire correspondre les variables de substitution qui commencent par le signe dollar ou par le signe pourcentage, utilisez l'expression `\$\w+|\%\w+` régulière.

   Expressions régulières AWS SCT conformes à la syntaxe des expressions régulières Java. Pour plus d'informations, consultez le [modèle de classe java.util.regex dans](https://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html) la documentation Java.

1. Cliquez **sur OK** pour charger des scripts dans votre AWS SCT projet, puis **sur OK** pour fermer la fenêtre **Charger des scripts**.

1. Dans le panneau de gauche, développez le nœud **Scripts**. Choisissez **FastExport**, puis choisissez votre dossier contenant les scripts. Ouvrez le menu contextuel (clic droit), puis choisissez **Exporter les variables sous Variables** **de substitution**.

1. Exportez les variables de substitution pour un script. Complétez votre dossier avec des scripts, choisissez votre script, ouvrez le menu contextuel (clic droit) et choisissez **Exporter les variables sous Variables** **de substitution**.

1. **Entrez le nom du fichier de valeurs séparées par des virgules (CSV) pour enregistrer les variables de substitution et choisissez Enregistrer.**

1. Ouvrez ce fichier CSV et renseignez les valeurs des variables de substitution.

   En fonction du système d'exploitation, AWS SCT utilise différents formats pour les fichiers CSV. Les valeurs du fichier peuvent être placées entre guillemets ou non. Assurez-vous d'utiliser le même format pour les valeurs des variables de substitution que pour les autres valeurs du fichier. AWS SCT Impossible d'importer le fichier CSV contenant des valeurs dans différents formats.

1. Enregistrez le fichier CSV.

1. Dans le panneau de gauche, développez le nœud **Scripts**. Choisissez **FastExport**, puis choisissez votre script. Ouvrez le menu contextuel (clic droit), puis choisissez **Importer des variables sous Variables** **de substitution**.

1. Choisissez votre fichier CSV, puis sélectionnez **Ouvrir**.

1. Choisissez **Variables** pour afficher toutes les variables de substitution découvertes et leurs valeurs.

## Conversion de scripts de FastExport travail Teradata avec AWS SCT
<a name="CHAP-converting-fastexport-rsql-convert"></a>

Découvrez ci-dessous comment convertir une FastExport tâche Teradata en Amazon Redshift RSQL à l'aide de. AWS SCT

**Pour convertir un script de FastExport tâche Teradata en Amazon Redshift RSQL**

1. Ajoutez vos scripts de FastExport travail à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des scripts de FastExport travail à votre AWS SCT projet](#CHAP-converting-fastexport-rsql-create).

1. Configurez les variables de substitution. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts de FastExport travail](#CHAP-converting-fastexport-rsql-variables).

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1. Effectuez l’une des actions suivantes :
   + Pour convertir un script de FastExport tâche unique, développez le **FastExport**nœud, choisissez le script à convertir, puis choisissez **Convertir le script** dans le menu contextuel (clic droit).
   + Pour convertir plusieurs scripts, assurez-vous de sélectionner tous les scripts à convertir. Choisissez ensuite **FastExport**, ouvrez le menu contextuel (clic droit), puis choisissez **Convertir le script**. 

   AWS SCT convertit tous les scripts de FastExport travail Teradata que vous avez sélectionnés dans un format compatible avec Amazon Redshift RSQL. Trouvez vos scripts convertis dans le nœud **Scripts** du panneau de base de données cible.

1. Modifiez vos scripts Amazon Redshift RSQL convertis ou enregistrez-les. Pour de plus amples informations, veuillez consulter [Modification et enregistrement de vos scripts de FastExport travail convertis](#CHAP-converting-fastexport-rsql-save).

## Gestion des scripts de FastExport travail Teradata avec AWS SCT
<a name="CHAP-converting-fastexport-rsql-manage"></a>

Vous pouvez ajouter plusieurs scripts de FastExport travail Teradata ou supprimer un script de FastExport travail de votre AWS SCT projet.

**Pour ajouter un nouveau script de FastExport travail à votre AWS SCT projet**

1. Développez le nœud **Scripts** dans le panneau de gauche.

1. Choisissez le **FastExport**nœud et ouvrez le menu contextuel (clic droit).

1. Choisissez **Charger des scripts**.

1. Entrez les informations requises pour ajouter un nouveau script de FastExport travail et configurer les variables de substitution. Pour plus d’informations, consultez [Ajouter des scripts de FastExport travail à votre AWS SCT projet](#CHAP-converting-fastexport-rsql-create) et [Configuration des variables de substitution dans les scripts de FastExport travail](#CHAP-converting-fastexport-rsql-variables).

**Pour supprimer un script de FastExport tâche de votre AWS SCT projet**

1. Développez le **FastExport**nœud sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à supprimer, puis ouvrez le menu contextuel (clic droit).

1. Choisissez **Supprimer le script**.

## Création d'un rapport d'évaluation pour la conversion d'un script de FastExport travail Teradata avec AWS SCT
<a name="CHAP-converting-fastexport-rsql-assessment"></a>

Le *rapport d'évaluation de la conversion des scripts de FastExport travail* fournit des informations sur la conversion des FastExport commandes et des instructions SQL de vos FastExport scripts dans un format compatible avec Amazon Redshift RSQL. Le rapport d'évaluation inclut des actions pour FastExport les commandes et les instructions SQL qui ne AWS SCT peuvent pas être converties. 

**Pour créer un rapport d'évaluation de la conversion de scripts pour une tâche Teradata FastExport**

1. Développez le **FastExport**nœud sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à convertir, ouvrez le menu contextuel (clic droit), puis choisissez **Créer un rapport**.

1. Consultez l'onglet **Résumé**. L'onglet **Résumé** affiche les informations de synthèse issues du rapport d'évaluation du script de FastExport travail. Il inclut les résultats de conversion pour toutes les FastExport commandes et instructions SQL de vos scripts source. 

1. Vous pouvez enregistrer une copie locale du rapport d'évaluation de la conversion du script de FastExport travail sous forme de fichier PDF ou de fichier CSV (valeurs séparées par des virgules).

   1. Pour enregistrer le rapport d'évaluation de la conversion du script de FastExport tâche sous forme de fichier PDF, choisissez **Enregistrer au format PDF** en haut à droite.

       Le fichier PDF contient le résumé, les actions à entreprendre et les recommandations pour la conversion des scripts.

   1. Pour enregistrer le rapport d'évaluation de la conversion du script de FastExport travail sous forme de fichier CSV, choisissez **Enregistrer au format CSV en** haut à droite.

      Le fichier CSV contient des actions, des actions recommandées et une estimation de la complexité de l'effort manuel requis pour convertir les scripts.

1. Choisissez l'onglet **Éléments d'action**. Cet onglet contient la liste des éléments qui nécessitent une conversion manuelle vers Amazon Redshift RSQL. Lorsque vous sélectionnez une action dans la liste, mettez AWS SCT en surbrillance l'élément de votre script de FastExport tâche source auquel l'action s'applique. 

## Modification et enregistrement de vos scripts de FastExport travail Teradata convertis avec AWS SCT
<a name="CHAP-converting-fastexport-rsql-save"></a>

Vous pouvez modifier vos scripts convertis dans le panneau inférieur de votre AWS SCT projet. AWS SCT enregistre le script modifié dans le cadre de votre projet.

**Pour enregistrer vos scripts convertis**

1. Développez le nœud de **scripts RSQL** sous **Scripts** dans le panneau de base de données cible.

1. Choisissez votre script converti, ouvrez le menu contextuel (clic droit) et choisissez **Enregistrer le script**.

1. Entrez le chemin d'accès au dossier pour enregistrer le script converti et choisissez **Enregistrer**.

   AWS SCT enregistre le script converti dans un fichier et ouvre ce fichier.

# Conversion de scripts de FastLoad travail en Amazon Redshift RSQL avec AWS Schema Conversion Tool
<a name="CHAP-converting-fastload-rsql"></a>

Vous pouvez utiliser le AWS Schema Conversion Tool (AWS SCT) pour convertir les scripts de FastLoad travail Teradata en Amazon Redshift RSQL.

Un * FastLoad script Teradata* est un ensemble de commandes qui utilisent plusieurs sessions pour charger des données dans une table vide d'une base de données Teradata. Teradata FastLoad traite une série de FastLoad commandes Teradata et d'instructions SQL. Les FastLoad commandes Teradata permettent le contrôle de session et le traitement des données lors des transferts de données. Les instructions SQL créent, gèrent et suppriment des tables.

AWS SCT convertit FastLoad les commandes Teradata et les instructions SQL dans un format compatible avec Amazon Redshift RSQL. Après avoir migré la base de données Teradata vers Amazon Redshift, vous pouvez utiliser ces scripts convertis pour charger des données dans votre base de données Amazon Redshift.

**Topics**
+ [Ajouter des scripts de FastLoad travail à votre AWS SCT projet](#CHAP-converting-fastload-rsql-create)
+ [Configuration des variables de substitution dans les scripts de FastLoad travail Teradata avec AWS SCT](#CHAP-converting-fastload-rsql-variables)
+ [Conversion de scripts de FastLoad travail Teradata avec AWS SCT](#CHAP-converting-fastload-rsql-convert)
+ [Gestion des scripts de FastLoad travail Teradata avec AWS SCT](#CHAP-converting-fastload-rsql-manage)
+ [Création d'un rapport d'évaluation pour la conversion d'un script de FastLoad travail Teradata avec AWS SCT](#CHAP-converting-fastload-rsql-assessment)
+ [Modification et enregistrement de vos scripts de FastLoad travail Teradata convertis avec AWS SCT](#CHAP-converting-fastload-rsql-save)

## Ajouter des scripts de FastLoad travail à votre AWS SCT projet
<a name="CHAP-converting-fastload-rsql-create"></a>

Vous pouvez ajouter plusieurs scripts à un même AWS SCT projet.

**Pour ajouter un script de FastLoad tâche à votre AWS SCT projet**

1. Créez un nouveau projet dans AWS SCT ou ouvrez un projet existant. Pour de plus amples informations, veuillez consulter [Démarrage et gestion de projets dans AWS SCT](CHAP_UserInterface.Project.md). 

1. Choisissez **Ajouter une source** dans le menu, puis **Teradata** pour ajouter votre base de données source au projet. Pour de plus amples informations, veuillez consulter [Bases de données Teradata](CHAP_Source.Teradata.md).

1. Choisissez **Ajouter une cible** dans le menu et ajoutez une base de données Amazon Redshift cible à votre AWS SCT projet.

   Vous pouvez utiliser une plate-forme de base de données cible Amazon Redshift virtuelle. Pour de plus amples informations, veuillez consulter [Mappage vers des cibles virtuelles dans AWS Schema Conversion Tool](CHAP_Mapping.VirtualTargets.md).

1. Créez une nouvelle règle de mappage qui inclut votre base de données Teradata source et votre cible Amazon Redshift. Pour de plus amples informations, veuillez consulter [Cartographie de nouveaux types de données dans AWS Schema Conversion Tool](CHAP_Mapping.New.md). 

1. Dans le menu **Affichage**, choisissez **Vue principale**.

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1.  Choisissez **FastLoad**, ouvrez le menu contextuel (clic droit), puis choisissez **Charger des scripts**.

1.  Entrez l'emplacement de vos scripts de FastLoad travail Teradata source et choisissez **Sélectionner un dossier**.

   AWS SCT affiche la fenêtre **Charger des scripts**.

1. Effectuez l’une des actions suivantes :
   + Si vos scripts de FastLoad travail Teradata n'incluent pas les variables de substitution, choisissez **Aucune variable de substitution**, puis **cliquez sur OK** pour ajouter des scripts à votre AWS SCT projet.
   + Si vos scripts de FastLoad travail Teradata incluent des variables de substitution, configurez-les. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts de FastLoad travail](#CHAP-converting-fastload-rsql-variables).

## Configuration des variables de substitution dans les scripts de FastLoad travail Teradata avec AWS SCT
<a name="CHAP-converting-fastload-rsql-variables"></a>

Vos scripts de FastLoad travail Teradata peuvent inclure des variables de substitution. Par exemple, vous pouvez utiliser un seul script avec des variables de substitution pour charger des données dans différentes bases de données.

Avant d'exécuter un script de FastLoad travail avec des variables de substitution, assurez-vous d'attribuer les valeurs à toutes les variables. Pour ce faire, vous pouvez utiliser d'autres outils ou applications tels qu'un script Bash, UC4 (Automic), etc.

AWS SCT ne peut résoudre et convertir des variables de substitution qu'après avoir attribué leurs valeurs. Avant de commencer la conversion de vos scripts de FastLoad travail Teradata sources, assurez-vous d'attribuer des valeurs à toutes les variables de substitution. Vous pouvez l'utiliser AWS SCT pour configurer des variables de substitution dans vos scripts Teradata. 

**Pour configurer les variables de substitution dans votre script de FastLoad tâche**

1. Lorsque vous ajoutez vos scripts de FastLoad travail Teradata source à votre AWS SCT projet, choisissez **Substitution variables are used**. Pour plus d'informations sur l'ajout de ces scripts, consultez[Ajouter des scripts de FastLoad travail à votre AWS SCT projet](#CHAP-converting-fastload-rsql-create). 

1. Pour **Définir le format de variable**, entrez une expression régulière correspondant à toutes les variables de substitution de votre script.

   Par exemple, si les noms de vos variables de substitution commencent par `${` et se terminent par`}`, utilisez l'expression `\$\{\w+\}` régulière. Pour faire correspondre les variables de substitution qui commencent par le signe dollar ou par le signe pourcentage, utilisez l'expression `\$\w+|\%\w+` régulière.

   Expressions régulières AWS SCT conformes à la syntaxe des expressions régulières Java. Pour plus d'informations, consultez le [modèle de classe java.util.regex dans](https://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html) la documentation Java. 

1. Cliquez **sur OK** pour charger des scripts dans votre AWS SCT projet, puis **sur OK** pour fermer la fenêtre **Charger des scripts**.

1. Dans le panneau de gauche, développez le nœud **Scripts**. Choisissez **FastLoad**, puis choisissez votre dossier contenant les scripts. Ouvrez le menu contextuel (clic droit), puis choisissez **Exporter les variables sous Variables** **de substitution**.

   Vous pouvez également exporter des variables de substitution pour un script. Complétez votre dossier avec des scripts, choisissez votre script, ouvrez le menu contextuel (clic droit) et choisissez **Exporter les variables sous Variables** **de substitution**.

1. **Entrez le nom du fichier de valeurs séparées par des virgules (CSV) pour enregistrer les variables de substitution, puis choisissez Enregistrer.**

1. Ouvrez ce fichier CSV et renseignez les valeurs des variables de substitution.

   En fonction du système d'exploitation, AWS SCT utilise différents formats pour le fichier CSV. Les valeurs du fichier peuvent être placées entre guillemets ou non. Assurez-vous d'utiliser le même format pour les valeurs des variables de substitution que pour les autres valeurs du fichier. AWS SCT Impossible d'importer le fichier CSV contenant des valeurs dans différents formats.

1. Enregistrez le fichier CSV.

1. Dans le panneau de gauche, développez le nœud **Scripts**. Choisissez **FastLoad**, puis choisissez votre script. Ouvrez le menu contextuel (clic droit), puis choisissez **Importer des variables sous Variables** **de substitution**.

1. Choisissez votre fichier CSV, puis sélectionnez **Ouvrir**.

1. Choisissez **Variables** pour afficher toutes les variables de substitution découvertes et leurs valeurs.

## Conversion de scripts de FastLoad travail Teradata avec AWS SCT
<a name="CHAP-converting-fastload-rsql-convert"></a>

Découvrez ci-dessous comment convertir une FastLoad tâche Teradata en Amazon Redshift RSQL à l'aide de. AWS SCT

**Pour convertir un script de FastLoad tâche Teradata en Amazon Redshift RSQL**

1. Ajoutez vos scripts de FastLoad travail à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des scripts de FastLoad travail à votre AWS SCT projet](#CHAP-converting-fastload-rsql-create).

1. Configurez les variables de substitution. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts de FastLoad travail](#CHAP-converting-fastload-rsql-variables).

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1. Effectuez l’une des actions suivantes :
   + Pour convertir un script de FastLoad tâche unique, développez le **FastLoad**nœud, choisissez le script à convertir, puis choisissez **Convertir le script** dans le menu contextuel (clic droit).
   + Pour convertir plusieurs scripts, assurez-vous de sélectionner tous les scripts à convertir. Choisissez **FastLoad**, ouvrez le menu contextuel (clic droit), puis choisissez **Convertir le script**. Ensuite, effectuez l’une des actions suivantes :
     + Si vous stockez votre fichier de données source sur Amazon S3, choisissez le **chemin de l'objet S3** pour l'**emplacement du fichier de données source**.

       Entrez les valeurs du **dossier du compartiment Amazon S3** et du compartiment **Amazon S3 pour le fichier manifeste** de votre fichier de données source.
     + Si vous ne stockez pas votre fichier de données source sur Amazon S3, choisissez **Host address pour l'****emplacement du fichier de données source**.

       Entrez des valeurs pour **l'URL ou l'adresse IP de l'hôte****, le nom de connexion de l'utilisateur hôte** et le **compartiment Amazon S3 pour le fichier manifeste** de votre fichier de données source.

1. Choisissez **OK**.

   AWS SCT convertit tous les scripts de FastLoad travail Teradata que vous avez sélectionnés dans un format compatible avec Amazon Redshift RSQL. Trouvez vos scripts convertis dans le nœud **Scripts** du panneau de base de données cible.

1. Modifiez vos scripts Amazon Redshift RSQL convertis ou enregistrez-les. Pour de plus amples informations, veuillez consulter [Modification et enregistrement de vos scripts de FastLoad travail convertis](#CHAP-converting-fastload-rsql-save).

## Gestion des scripts de FastLoad travail Teradata avec AWS SCT
<a name="CHAP-converting-fastload-rsql-manage"></a>

Vous pouvez ajouter plusieurs scripts de FastLoad travail Teradata ou supprimer un script de FastLoad travail de votre AWS SCT projet.

**Pour ajouter un nouveau script de FastLoad travail à votre AWS SCT projet**

1. Développez le nœud **Scripts** dans le panneau de gauche.

1. Choisissez le **FastLoad**nœud et ouvrez le menu contextuel (clic droit).

1. Choisissez **Charger des scripts**.

1. Entrez les informations requises pour ajouter un nouveau script de FastLoad travail et configurer les variables de substitution. Pour plus d’informations, consultez [Ajouter des scripts de FastLoad travail à votre AWS SCT projet](#CHAP-converting-fastload-rsql-create) et [Configuration des variables de substitution dans les scripts de FastLoad travail](#CHAP-converting-fastload-rsql-variables).

**Pour supprimer un script de FastLoad tâche de votre AWS SCT projet**

1. Développez le **FastLoad**nœud sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à supprimer, puis ouvrez le menu contextuel (clic droit).

1. Choisissez **Supprimer le script**.

## Création d'un rapport d'évaluation pour la conversion d'un script de FastLoad travail Teradata avec AWS SCT
<a name="CHAP-converting-fastload-rsql-assessment"></a>

Le *rapport d'évaluation de la conversion des scripts de FastLoad travail* fournit des informations sur la conversion FastLoad des commandes et des instructions SQL. La conversion s'effectue à partir de vos scripts source vers un format compatible avec Amazon Redshift RSQL. Le rapport d'évaluation inclut des actions pour FastLoad les commandes et les instructions SQL qui ne AWS SCT peuvent pas être converties. 

**Pour créer un rapport d'évaluation de la conversion de scripts pour une tâche Teradata FastLoad**

1. Développez le **FastLoad**nœud sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à convertir, ouvrez le menu contextuel (clic droit), puis choisissez **Créer un rapport**.

1. Consultez l'onglet **Résumé**. 

   L'onglet **Résumé** affiche les informations de synthèse issues du rapport d'évaluation du script de FastLoad travail. Il inclut les résultats de conversion pour toutes les FastLoad commandes et instructions SQL de vos scripts source. 

1. (Facultatif) Enregistrez une copie locale du rapport d'évaluation de la conversion du script de FastLoad travail sous forme de fichier PDF ou de fichier CSV (valeurs séparées par des virgules) :
   + Pour enregistrer le rapport d'évaluation de la conversion du script de FastLoad tâche sous forme de fichier PDF, choisissez **Enregistrer au format PDF** en haut à droite.

      Le fichier PDF contient le résumé, les actions à entreprendre et les recommandations relatives à la conversion des scripts.
   + Pour enregistrer le rapport d'évaluation de la conversion du script de FastLoad travail sous forme de fichier CSV, choisissez **Enregistrer au format CSV en** haut à droite.

     Le fichier CSV contient des actions, des actions recommandées et une estimation de la complexité de l'effort manuel requis pour convertir les scripts.

1. Choisissez l'onglet **Éléments d'action**. Cet onglet contient la liste des éléments qui nécessitent une conversion manuelle vers Amazon Redshift RSQL. Lorsque vous sélectionnez une action dans la liste, mettez AWS SCT en surbrillance l'élément de votre script de FastLoad tâche source auquel l'action s'applique. 

## Modification et enregistrement de vos scripts de FastLoad travail Teradata convertis avec AWS SCT
<a name="CHAP-converting-fastload-rsql-save"></a>

Vous pouvez modifier vos scripts convertis dans le panneau inférieur de votre AWS SCT projet. AWS SCT enregistre le script modifié dans le cadre de votre projet.

**Pour enregistrer vos scripts convertis**

1. Développez le nœud de **scripts RSQL** sous **Scripts** dans le panneau de base de données cible.

1. Choisissez votre script converti, ouvrez le menu contextuel (clic droit) et choisissez **Enregistrer le script**.

1. Entrez le chemin d'accès au dossier pour enregistrer le script converti et choisissez **Enregistrer**.

   AWS SCT enregistre le script converti dans un fichier et ouvre ce fichier.

# Conversion de MultiLoad scripts vers Amazon Redshift RSQL avec AWS Schema Conversion Tool
<a name="CHAP-converting-multiload-rsql"></a>

Vous pouvez l'utiliser AWS SCT pour convertir des scripts de MultiLoad travail Teradata en Amazon Redshift RSQL.

Un *script de MultiLoad travail Teradata* est un ensemble de commandes pour la maintenance par lots de votre base de données Teradata. Une tâche MultiLoad d'importation de Teradata effectue un certain nombre d'opérations d'insertion, de mise à jour et de suppression sur un maximum de cinq tables et vues différentes. Les tâches de MultiLoad suppression de Teradata peuvent supprimer un grand nombre de lignes d'une même table.

AWS SCT convertit MultiLoad les commandes Teradata et les instructions SQL dans un format compatible avec Amazon Redshift RSQL. Après avoir migré la base de données Teradata vers Amazon Redshift, utilisez ces scripts convertis pour gérer les données de votre base de données Amazon Redshift.

**Topics**
+ [Ajouter des scripts de MultiLoad travail à votre AWS SCT projet](#CHAP-converting-multiload-rsql-create)
+ [Configuration des variables de substitution dans les scripts de MultiLoad travail Teradata avec AWS SCT](#CHAP-converting-multiload-rsql-variables)
+ [Conversion de scripts de MultiLoad travail Teradata avec AWS SCT](#CHAP-converting-multiload-rsql-convert)
+ [Gestion des scripts de MultiLoad travail Teradata avec AWS SCT](#CHAP-converting-multiload-rsql-manage)
+ [Création d'un rapport d'évaluation pour la conversion d'un script de MultiLoad travail Teradata avec AWS SCT](#CHAP-converting-multiload-rsql-assessment)
+ [Modification et enregistrement de vos scripts de MultiLoad travail Teradata convertis avec AWS SCT](#CHAP-converting-multiload-rsql-save)

## Ajouter des scripts de MultiLoad travail à votre AWS SCT projet
<a name="CHAP-converting-multiload-rsql-create"></a>

Vous pouvez ajouter plusieurs scripts à un même AWS SCT projet.

**Pour ajouter un script de MultiLoad tâche à votre AWS SCT projet**

1. Créez un nouveau projet AWS SCT ou ouvrez un projet existant. Pour de plus amples informations, veuillez consulter [Démarrage et gestion de projets dans AWS SCT](CHAP_UserInterface.Project.md). 

1. Choisissez **Ajouter une source** dans le menu, puis **Teradata** pour ajouter votre base de données source au projet. Pour de plus amples informations, veuillez consulter [Bases de données Teradata](CHAP_Source.Teradata.md).

1. Choisissez **Ajouter une cible** dans le menu pour ajouter une base de données Amazon Redshift cible à votre AWS SCT projet.

   Vous pouvez utiliser une plate-forme de base de données cible Amazon Redshift virtuelle. Pour de plus amples informations, veuillez consulter [Mappage vers des cibles virtuelles dans AWS Schema Conversion Tool](CHAP_Mapping.VirtualTargets.md).

1. Créez une nouvelle règle de mappage qui inclut votre base de données Teradata source et votre cible Amazon Redshift. Pour de plus amples informations, veuillez consulter [Cartographie de nouveaux types de données dans AWS Schema Conversion Tool](CHAP_Mapping.New.md). 

1. Dans le menu **Affichage**, choisissez **Vue principale**.

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1.  Choisissez **MultiLoad**, ouvrez le menu contextuel (clic droit), puis choisissez **Charger des scripts**.

1.  Entrez l'emplacement de vos scripts de MultiLoad travail Teradata source et choisissez **Sélectionner un dossier**.

   AWS SCT affiche la fenêtre **Charger des scripts**.

1. Effectuez l’une des actions suivantes :
   + Si vos scripts de MultiLoad travail Teradata n'incluent pas les variables de substitution, choisissez **Aucune variable de substitution**, puis **cliquez sur OK** pour ajouter des scripts à votre AWS SCT projet.
   + Si vos scripts de MultiLoad travail Teradata incluent des variables de substitution, configurez-les. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts de MultiLoad travail](#CHAP-converting-multiload-rsql-variables).

## Configuration des variables de substitution dans les scripts de MultiLoad travail Teradata avec AWS SCT
<a name="CHAP-converting-multiload-rsql-variables"></a>

Vos scripts de MultiLoad travail Teradata peuvent inclure des variables de substitution. Par exemple, vous pouvez utiliser un seul script avec des variables de substitution pour charger des données dans différentes bases de données.

Avant d'exécuter un script de MultiLoad travail avec des variables de substitution, assurez-vous d'attribuer les valeurs à toutes les variables. Pour ce faire, vous pouvez utiliser d'autres outils ou applications tels qu'un script Bash, UC4 (Automic), etc.

AWS SCT ne peut résoudre et convertir des variables de substitution qu'après avoir attribué leurs valeurs. Avant de commencer la conversion de vos scripts de MultiLoad travail Teradata sources, assurez-vous d'avoir attribué des valeurs à toutes les variables de substitution. Vous pouvez l'utiliser AWS SCT pour configurer des variables de substitution dans vos scripts Teradata. 

**Pour configurer les variables de substitution dans votre script de MultiLoad tâche**

1. Lorsque vous ajoutez vos scripts de MultiLoad travail Teradata source à votre AWS SCT projet, choisissez **Substitution variables are used**. Pour plus d'informations sur l'ajout de ces scripts, consultez[Ajouter des scripts de MultiLoad travail à votre AWS SCT projet](#CHAP-converting-multiload-rsql-create). 

1. Pour **Définir le format de variable**, entrez une expression régulière correspondant à toutes les variables de substitution de votre script.

   Par exemple, si les noms de vos variables de substitution commencent par `${` et se terminent par`}`, utilisez l'expression `\$\{\w+\}` régulière. Pour faire correspondre les variables de substitution qui commencent par le signe dollar ou par le signe pourcentage, utilisez l'expression `\$\w+|\%\w+` régulière.

   Expressions régulières AWS SCT conformes à la syntaxe des expressions régulières Java. Pour plus d'informations, consultez le [modèle de classe java.util.regex dans](https://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html) la documentation Java.

1. Cliquez **sur OK** pour charger des scripts dans votre AWS SCT projet, puis **sur OK** pour fermer la fenêtre **Charger des scripts**.

1. Choisissez **Variables** pour afficher toutes les variables de substitution découvertes et leurs valeurs.

1. Dans **Valeur**, entrez la valeur de la variable de substitution.

## Conversion de scripts de MultiLoad travail Teradata avec AWS SCT
<a name="CHAP-converting-multiload-rsql-convert"></a>

Découvrez ci-dessous comment convertir une MultiLoad tâche Teradata en Amazon Redshift RSQL à l'aide de. AWS SCT

**Pour convertir un script de MultiLoad tâche Teradata en Amazon Redshift RSQL**

1. Ajoutez vos scripts de MultiLoad travail à votre AWS SCT projet. Pour de plus amples informations, veuillez consulter [Ajouter des scripts de MultiLoad travail à votre AWS SCT projet](#CHAP-converting-multiload-rsql-create).

1. Configurez les variables de substitution et entrez leurs valeurs. Pour de plus amples informations, veuillez consulter [Configuration des variables de substitution dans les scripts de MultiLoad travail](#CHAP-converting-multiload-rsql-variables).

1. Dans le panneau de gauche, développez le nœud **Scripts**.

1. Effectuez l’une des actions suivantes :
   + Pour convertir un script de MultiLoad tâche unique, développez le **MultiLoad**nœud, choisissez le script à convertir, puis choisissez **Convertir le script** dans le menu contextuel (clic droit).
   + Pour convertir plusieurs scripts, assurez-vous de sélectionner tous les scripts à convertir. Choisissez **MultiLoad**, ouvrez le menu contextuel (clic droit), puis choisissez **Convertir le script**. 

1. Effectuez l’une des actions suivantes :
   + Si vous stockez votre fichier de données source sur Amazon S3, choisissez le **chemin de l'objet S3** pour l'**emplacement du fichier de données source**.

     Entrez **le dossier du compartiment Amazon S3 et le** **compartiment Amazon S3 comme fichier manifeste pour** votre fichier de données source.
   + Si vous ne stockez pas votre fichier de données source sur Amazon S3, choisissez **Host address pour l'****emplacement du fichier de données source**.

     Entrez **l'URL ou l'adresse IP de l'hôte****, le nom de connexion de l'utilisateur hôte** et le **compartiment Amazon S3 pour le fichier manifeste** de votre fichier de données source.

1. Choisissez **OK**.

   AWS SCT convertit tous les scripts de MultiLoad travail Teradata que vous avez sélectionnés dans un format compatible avec Amazon Redshift RSQL. Trouvez vos scripts convertis dans le nœud **Scripts** du panneau de base de données cible.

1. Modifiez vos scripts Amazon Redshift RSQL convertis ou enregistrez-les. Pour de plus amples informations, veuillez consulter [Modification et enregistrement de vos scripts de MultiLoad travail convertis](#CHAP-converting-multiload-rsql-save).

## Gestion des scripts de MultiLoad travail Teradata avec AWS SCT
<a name="CHAP-converting-multiload-rsql-manage"></a>

Vous pouvez ajouter plusieurs scripts de MultiLoad travail Teradata ou supprimer un script de MultiLoad travail de votre AWS SCT projet.

**Pour ajouter un nouveau script de MultiLoad travail à votre AWS SCT projet**

1. Développez le nœud **Scripts** dans le panneau de gauche.

1. Choisissez le **MultiLoad**nœud et ouvrez le menu contextuel (clic droit).

1. Choisissez **Charger des scripts**.

1. Entrez les informations requises pour ajouter un nouveau script de MultiLoad travail et configurer les variables de substitution. Pour plus d’informations, consultez [Ajouter des scripts de MultiLoad travail à votre AWS SCT projet](#CHAP-converting-multiload-rsql-create) et [Configuration des variables de substitution dans les scripts de MultiLoad travail](#CHAP-converting-multiload-rsql-variables).

**Pour supprimer un script de MultiLoad tâche de votre AWS SCT projet**

1. Développez le **MultiLoad**nœud sous **Scripts** dans le panneau de gauche.

1. Choisissez le script à supprimer, puis ouvrez le menu contextuel (clic droit).

1. Choisissez **Supprimer le script**.

## Création d'un rapport d'évaluation pour la conversion d'un script de MultiLoad travail Teradata avec AWS SCT
<a name="CHAP-converting-multiload-rsql-assessment"></a>

Le *rapport d'évaluation de la conversion des scripts de MultiLoad travail* fournit des informations sur la conversion MultiLoad des commandes et des instructions SQL. La conversion s'effectue à partir de vos scripts source en commandes RSQL Amazon Redshift et en instructions SQL pour Amazon Redshift. Le rapport d'évaluation inclut des actions pour MultiLoad les commandes et les instructions SQL qui ne AWS SCT peuvent pas être converties. 

**Pour créer un rapport d'évaluation de la conversion de scripts pour une tâche Teradata MultiLoad**

1. Développez le **MultiLoad**nœud sous **Scripts** dans le panneau de gauche.

1. Choisissez les scripts pour lesquels créer le rapport d'évaluation, ouvrez le menu contextuel (clic droit), puis choisissez **Créer un rapport**.

1. Consultez l'onglet **Résumé**. L'onglet **Résumé** affiche les informations de synthèse issues du rapport d'évaluation du script de MultiLoad travail. Il inclut les résultats de conversion pour toutes les MultiLoad commandes et instructions SQL de vos scripts source. 

1. (Facultatif) Enregistrez une copie locale du rapport d'évaluation de la conversion du script de MultiLoad travail sous forme de fichier PDF ou de fichiers CSV (valeurs séparées par des virgules) :
   + Pour enregistrer le rapport d'évaluation de la conversion du script de MultiLoad tâche sous forme de fichier PDF, choisissez **Enregistrer au format PDF** en haut à droite.

      Le fichier PDF contient le résumé, les actions à entreprendre et les recommandations pour la conversion des scripts.
   + Pour enregistrer le rapport d'évaluation de la conversion du script de MultiLoad travail sous forme de fichiers CSV, choisissez **Enregistrer au format CSV en** haut à droite.

     AWS SCT crée deux fichiers CSV. Ces fichiers contiennent le résumé, les mesures à prendre, les actions recommandées et une estimation de la complexité de l'effort manuel requis pour convertir les scripts.

1. Choisissez l'onglet **Éléments d'action**. Cet onglet contient la liste des éléments qui nécessitent une conversion manuelle vers Amazon Redshift RSQL. Lorsque vous sélectionnez une action dans la liste, mettez AWS SCT en surbrillance l'élément de votre script de MultiLoad tâche source auquel l'action s'applique. 

## Modification et enregistrement de vos scripts de MultiLoad travail Teradata convertis avec AWS SCT
<a name="CHAP-converting-multiload-rsql-save"></a>

Vous pouvez modifier vos scripts convertis dans le panneau inférieur de votre AWS SCT projet. AWS SCT enregistre le script modifié dans le cadre de votre projet.

**Pour enregistrer vos scripts convertis**

1. Développez le nœud de **scripts RSQL** sous **Scripts** dans le panneau de base de données cible.

1. Choisissez votre script converti, ouvrez le menu contextuel (clic droit) et choisissez **Enregistrer le script**.

1. Entrez le chemin d'accès au dossier pour enregistrer le script converti et choisissez **Enregistrer**.

   AWS SCT enregistre le script converti dans un fichier et ouvre ce fichier.