

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Lago di dati
<a name="data-connections"></a>

Puoi utilizzarlo Catena di approvvigionamento di AWS per importare i dati archiviati nelle seguenti fonti di dati ed estrarre le informazioni sulla catena di approvvigionamento. Catena di approvvigionamento di AWS *può archiviare le informazioni estratte nei bucket Amazon S3 e utilizzare i dati *per Demand* Planning*, Insights, Supply Planning,* **N-Tier* Visibility,* *Work Order* Insights e Sustainability.*
+ **Dati di origine Amazon S3**: puoi utilizzare l'opzione del flusso di origine dati di Amazon S3 se non disponi di un sistema ERP o se utilizzi un altro strumento di estrazione. Puoi estrarre dati grezzi dalla tua fonte di dati, mappare i campi di Catena di approvvigionamento di AWS dati con un modello di dati e caricarli su Amazon S3 con uno strumento di integrazione a tua scelta. Puoi caricare file CSV su Amazon S3 solo quando utilizzi l'associazione automatica.
+ **Electronic data interchange (EDI)**: Catena di approvvigionamento di AWS supporta X12 ANSI versione 4010 per i messaggi EDI 850, 860 e 856. I formati di dati supportati sono .edi o.txt. Puoi aggiungere i tuoi messaggi EDI non elaborati ad Amazon S3 utilizzando uno strumento di integrazione a tua scelta. Catena di approvvigionamento di AWS può estrarre e associare i messaggi EDI non elaborati utilizzando modelli predefiniti di Natural Language Processing (NLP) per EDI 856. I modelli NLP non sono supportati per EDI 850 e 860 e vengono forniti con ricette predefinite ma personalizzabili. Catena di approvvigionamento di AWS
+ **SAP S/4HANA**: per estrarre i dati della catena di fornitura da un'origine dati SAP S/4HANA, puoi Catena di approvvigionamento di AWS utilizzare il connettore Amazon per connetterti a questa fonte. AppFlow Catena di approvvigionamento di AWS può associare i dati della catena di fornitura memorizzati nel sistema SAP S/4HANA al modello di dati che utilizza. Catena di approvvigionamento di AWS AWS Glue DataBrew
+  **SAP ECC 6.0**: puoi utilizzare uno strumento di integrazione (ad esempio ETL o iPaaS) per estrarre i dati della catena di fornitura archiviati nel sistema SAP ECC 6.0 e inserirli nel bucket Amazon S3 utilizzando un'API. Catena di approvvigionamento di AWS può associare i dati della catena di fornitura memorizzati nel sistema SAP ECC 6.0 al modello di dati che utilizza. Catena di approvvigionamento di AWS DataBrew

**Topics**
+ [Terminologia utilizzata nel data lake](data_lake_terminology.md)
+ [Dashboard Data Lake](data_ingestion.md)
+ [Aggiungere una nuova fonte di dati](adding_new_flows.md)
+ [Inserimento di dati per connessioni esistenti](ingesting-data.md)

# Terminologia utilizzata nel data lake
<a name="data_lake_terminology"></a>

Nel data lake vengono utilizzati i seguenti termini:
+ **Entità**: informazioni su un oggetto di dati per ogni categoria. Ad esempio, company, geography e trading\$1partner sono entità per un'organizzazione. Per ulteriori informazioni, consulta [Entità e colonne di dati utilizzate in Catena di approvvigionamento di AWS](data-model.md).
+ **Set di dati**: informazioni relative all'entità. È possibile avere un solo set di dati per entità.
+ **Connettore**: un modo per importare dati in Catena di approvvigionamento di AWS.
+ **Ricetta**: una serie di passaggi che descrive come mappare i dati di origine in un unico set di dati.
+ **Source Flows 1**: visualizza i set di dati e i campi caricati.
+ **Destination Flows 1**: associa i dati del set di dati alle entità di Catena di approvvigionamento di AWS dati nel data lake.
+ **Sistema di origine 1**: il sistema ERP (Enterprise Resource Planning) esistente, il Warehouse Management System (WMS) o qualsiasi sistema di gestione dei dati della catena di fornitura.

1 — Questi termini vengono visualizzati solo quando si inseriscono dati tramite Amazon S3 (o **l'opzione Carica qualsiasi** CSV nell'applicazione Web).

# Dashboard Data Lake
<a name="data_ingestion"></a>

Puoi utilizzare il Catena di approvvigionamento di AWS data lake per importare i tuoi dati da varie fonti di dati. Per informazioni sulle fonti di dati supportate, consulta[Lago di dati](data-connections.md).

![\[Panoramica del data lake\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data_lake_overvoew.png)


## Ingestione dei dati
<a name="ingestion"></a>

È possibile visualizzare le connessioni correnti, i flussi di origine e di destinazione. Per visualizzare lo stato dei dati importati, segui la procedura riportata di seguito.

1. Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli **Data Lake**, quindi scegli la scheda **Data Ingestion**.

   Viene visualizzata la **pagina Data Ingestion**.  
![\[Ingestione del data lake\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data-lake-ingestion.png)

1. Scegli la scheda **Source Flows**.
   + Source Flows: visualizza la struttura di file o cartelle del set di dati che è stato caricato.
   + Prefisso S3: visualizza il percorso Amazon S3 in cui vengono caricati i file di origine.
   + Stato: mostra lo stato di caricamento dei file di origine.
   + Ultima sincronizzazione: mostra quando i file sono stati sincronizzati o aggiornati l'ultima volta.
   + Azioni: è possibile visualizzare quanto segue:
     + Gestisci il flusso: puoi aggiornare la mappatura dei dati.
     + Carica file: puoi aggiungere file sorgente aggiuntivi ai flussi di origine esistenti.
     + Elimina flusso: puoi eliminare completamente il flusso di origine.

1. Scegli la scheda **Destination Flows**.

1. In **Azioni**, scegli **Gestisci flusso** per visualizzare e aggiornare le mappature dei dati.

   Viene visualizzata la pagina **Gestisci flussi di destinazione**.  
![\[Flusso di lavoro Data Lake\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data-lake-flow.png)

1. Sposta tutte le colonne di origine non associate da Colonne **di origine a Colonne** di **destinazione**.

1. Scegli **Esci e rivedi i flussi di destinazione** per tornare alla pagina **Flussi di destinazione** e rivedere i flussi di destinazione.

1. Scegliere la scheda **Connessioni**.

   Puoi visualizzare tutte le connessioni esistenti.

## Set di dati
<a name="viewing-datasets"></a>

È possibile visualizzare lo stato dei set di dati inseriti.

Per visualizzare tutti i set di dati caricati su connessioni esistenti, segui la procedura seguente.

1. Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli **Data Lake**, quindi scegli la **scheda Datasets.**

   Viene visualizzata la pagina **Datasets**.

1. **Per visualizzare un set di dati, scegli Visualizza.** 

1. Nella scheda **Campi del set di dati, puoi visualizzare tutti i campi** del set di dati esistenti nel set di dati.

1. Nella scheda **Source Connections**, puoi visualizzare le connessioni che alimentano quel set di dati.

# Qualità dei dati
<a name="data_quality_datalake"></a>

Tutti gli errori di qualità dei dati identificati vengono visualizzati nell'applicazione Web nella sezione Errori del modulo. È possibile visualizzare il set di dati contenente errori e il modulo interessato. Catena di approvvigionamento di AWS Inoltre, puoi scaricare il rapporto sulla qualità dei dati dal tuo bucket Amazon S3. Il rapporto fornisce informazioni dettagliate sugli errori del set di dati nei dati acquisiti.

## Visualizzazione dei report sulla qualità dei dati
<a name="data_qual"></a>

Per visualizzare gli errori del Catena di approvvigionamento di AWS modulo, completa i seguenti passaggi:

**Nota**  
Per informazioni sulle entità dati obbligatorie e facoltative per ogni Catena di approvvigionamento di AWS modulo, consulta le sezioni Demand Planning, Insights e Work Order Insights in [Entità e colonne di dati utilizzate in AWS Supply Chain](https://docs.aws.amazon.com/aws-supply-chain/latest/userguide/data-model.html). 

1. Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli **Data Lake**, quindi scegli la scheda **Data Quality**.

1. Scegli la scheda **Errori del modulo**. È possibile visualizzare gli errori di inserimento dei dati per i Catena di approvvigionamento di AWS moduli. 
**Nota**  
È inoltre possibile visualizzare gli errori del set di dati e i moduli interessati dopo il completamento della prima importazione e l'esito positivo dei flussi di destinazione. **Se i flussi di destinazione non hanno esito positivo, puoi visualizzare gli errori di qualità dei dati nella colonna **Dettagli** della scheda Flussi di destinazione.**

   Puoi filtrare gli errori utilizzando i seguenti filtri nella casella a discesa **Modulo**:
   + Tutti
   + Applicazioni multiple
   + Pianificazione della domanda
   + Informazioni dettagliate
   + Informazioni sugli ordini  
![\[Casella a discesa dei filtri del modulo.\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/module_filters.png)

1. Visualizza gli errori di qualità dei dati nelle colonne **Impacted Module** e **Status Message**.

   La colonna **Impacted Module** mostra l' Catena di approvvigionamento di AWS applicazione e la relativa funzionalità interessata.

   La colonna **Messaggio di stato** mostra l'entità del prodotto e il numero di errori relativi a ciascuna entità di prodotto. Ad esempio, l'errore «Il campo «channel\$1id» ha un valore nullo o vuoto...» indica che la colonna «channel\$1id» nel file outbound\$1order\$1line ingerito non contiene dati.   
![\[Colonne relative al modulo e al messaggio di stato.\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data_quality_columns.png)

## Scaricamento dei report sulla qualità dei dati
<a name="data_qual_reports"></a>

Per scaricare il rapporto sulla qualità dei dati, completa i seguenti passaggi:

1. Apri la console Amazon S3 all'indirizzo [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)e accedi.

1. Vai quindi **data-quality-report**alla cartella ID dell'**aws-supply-chain-data**istanza.

1. Seleziona la cartella per l'entità dati che desideri visualizzare.

   Appariranno cartelle individuali per ogni inserimento di dati.  
![\[Cartella dell'entità dei dati del prodotto contenente cartelle di inserimento dati.\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data_entity_folder.png)

1. Seleziona la cartella per l'inserimento dei dati che desideri visualizzare.

   Verrà visualizzato il rapporto sulla qualità dei dati.  
![\[File json del rapporto sulla qualità dei dati.\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data_quality_report.png)

1. Seleziona il file e scegli **Scarica per scaricare** il rapporto sulla qualità dei dati in formato json. 

# Aggiungere una nuova fonte di dati
<a name="adding_new_flows"></a>

È possibile Catena di approvvigionamento di AWS utilizzarlo per importare i dati archiviati nella fonte dati ed estrarre le informazioni sulla catena di fornitura. Catena di approvvigionamento di AWS *può archiviare le informazioni estratte nei bucket Amazon S3 e utilizzare i dati *per Demand* Planning*, Insights, Supply Planning,* **N-Tier* Visibility,* *Work Order* Insights e Sustainability.*

**Topics**
+ [Prerequisiti per l'acquisizione dei dati](#data_prerequisites-profiles)
+ [Caricamento di file per la prima volta](uploading_files.md)
+ [Connessione a un EDI](connecting-edi.md)
+ [Connessione a S/4 HANA](connecting-sap-hana.md)
+ [Connessione a SAP ECC 6.0](connecting-sap-ecc.md)
+ [Aggiungere una nuova fonte in uscita per Supply Planning](adding_new_outbound_connector.md)

## Prerequisiti per l'acquisizione dei dati
<a name="data_prerequisites-profiles"></a>

Tieni presente quanto segue prima di caricare i set di dati per l'ingestione:
+ Il file che carichi deve pesare meno di 5 GB.
+ Il contenuto del set di dati deve seguire il formato di codifica UTF-8.
+ Il tipo di file deve essere supportato dal connettore. I connettori per i sistemi SAP supportano CSV, il connettore EDI supporta i formati.txt e.edi e Amazon S3 supporta CSV. 
+ Le righe di dati devono contenere valori non nulli per i campi obbligatori.
+ Il formato di data e ora deve seguire gli standard ISO86 01. Ad esempio, 2020-07-10 15:00:00.000, rappresenta il 10 luglio 2020 alle 15:00.
+ I nomi delle colonne nel set di dati non devono contenere spazi o caratteri speciali. I nomi delle colonne devono essere separati da un carattere di sottolineatura (\$1) tra due parole.
+ Quando si utilizza il percorso di origine di Amazon S3, Catena di approvvigionamento di AWS creerà una cartella principale con il nome del sistema di origine selezionato. Le sottocartelle prendono il nome dalla tabella di origine selezionata. Assicuratevi che i nomi dei file siano univoci. La struttura di file creata verrà utilizzata per creare il percorso Amazon S3.
+ Catena di approvvigionamento di AWS segue un processo di caricamento in più fasi con preassegnazioni. URLs *A causa delle restrizioni di sicurezza del browser, per caricare il set di dati, le autorizzazioni CORS (cross-origin resource sharing) del bucket S3 devono consentire le richieste PUT e restituire un'intestazione. *ETag** Per aggiornare la politica CORS sul tuo bucket Amazon S3, **in** Connessioni, scorri verso il basso fino a CORS e incolla la seguente politica:

  ```
                  
   [
   {
   "AllowedHeaders": [
   "*"
   ],
   "AllowedMethods": [
   "PUT"
   ],
   "AllowedOrigins": [
   "https://instance-id.scn.global.on.aws"
   ],
   "ExposeHeaders": [
   "Etag"
   ]
   }
   ]
  ```

# Caricamento di file per la prima volta
<a name="uploading_files"></a>

È possibile utilizzare la funzione di Catena di approvvigionamento di AWS associazione automatica per caricare i dati grezzi e associare automaticamente i dati grezzi al modello di Catena di approvvigionamento di AWS dati. È inoltre possibile visualizzare le colonne e le tabelle *richieste* per ogni Catena di approvvigionamento di AWS modulo all'interno dell'applicazione Catena di approvvigionamento di AWS web.

Per una breve dimostrazione di come funziona l'associazione automatica, guarda il seguente video:




**Nota**  
Puoi caricare file CSV su Amazon S3 solo quando utilizzi l'associazione automatica.

Dopo aver associato le colonne di origine del set di dati alle colonne di destinazione, Catena di approvvigionamento di AWS genererà automaticamente la ricetta SQL.

**Nota**  
Catena di approvvigionamento di AWS utilizza Amazon Bedrock for Auto-association, che non è supportato in tutte le AWS regioni & in cui Catena di approvvigionamento di AWS è disponibile. Pertanto, Catena di approvvigionamento di AWS chiamerà l'endpoint Amazon Bedrock dalla regione disponibile più vicina, la regione Europa (Irlanda) — Europa (Francoforte) e la regione Asia Pacifico (Sydney) — Stati Uniti occidentali (Oregon).

**Nota**  
L'associazione automatica tramite Large Language Models (LLM) è supportata solo quando i dati vengono importati tramite Amazon S3.

1. **Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli **Data Lake, quindi scegli la scheda Data** Ingestion.**

   Viene visualizzata la **pagina Data Ingestion**.

1. Scegli **Aggiungi nuova fonte**.

   Viene visualizzata la pagina **Seleziona la tua fonte di dati**.

1. Nella pagina **Seleziona la tua fonte di dati**, scegli **Carica file**.

1. Scegli **Continua**.  
![\[Caricamento dei file sorgente\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data_lake.png)

1. Nella pagina **Quali funzionalità desideri eseguire**, scegli i Catena di approvvigionamento di AWS moduli che desideri utilizzare. Puoi scegliere più di un modulo.

1. Nella sezione **Carica i tuoi file sorgente**, aggiungi un suffisso al **nome del sistema di origine**. Ad esempio, oracle\$1test.

1. Per caricare il set di dati di origine, scegli **i file o trascina i file**.

   Vengono visualizzate le tabelle di origine con il nome e lo stato.

1. Scegli **Carica su S3**. *Lo stato di caricamento* cambierà per visualizzare lo stato.

1. In **Rivedi i requisiti dei dati**, esamina tutte le entità di dati e le colonne richieste per la Catena di approvvigionamento di AWS funzionalità selezionata. Vengono visualizzate tutte le chiavi primarie ed esterne richieste.

1. Scegli **Continua**.

1. In **Gestisci le tue tabelle** di origine, le seguenti tabelle di origine e le colonne elencate verranno associate automaticamente e importate nel data lake.

   Scegli **Elimina tabella** per eliminare una qualsiasi delle tabelle di origine prima dell'importazione nel data lake.  
![\[Gestione dei file sorgente\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data_lake1.png)

1. Scegli **Accetta tutto e continua**.

   Viene visualizzato un messaggio sull'associazione automatica delle tabelle al Catena di approvvigionamento di AWS data lake.  
![\[Gestione dei flussi di destinazione\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/data_lake3.png)

1. In **Gestisci flussi di destinazione**, puoi esaminare ogni tabella associata automaticamente.

   Per impostazione predefinita, **l'associazione automatica** è abilitata e le colonne di origine vengono associate automaticamente alle colonne di destinazione. Per aggiornare le colonne associate automaticamente, puoi aggiornare la ricetta SQL per creare la tua ricetta personalizzata.

1. In **Colonne di origine**, sono elencate tutte le colonne di origine non associate. Trascina e rilascia le colonne non associate nelle **colonne di destinazione** a destra.

1. Segui il passaggio precedente per ogni tabella associata automaticamente.

1. Scegli **Invia**.

1. Scegli **Esci e rivedi i flussi di destinazione**.

# Caricamento dei file successivi su una fonte esistente
<a name="incremental_file_upload"></a>

Esistono due modi per caricare set di dati successivi su una fonte esistente. **Puoi caricare il set di dati sul percorso Amazon S3 visualizzato nella scheda **Source** Flows o **scegliere Carica** file nella scheda Azioni.**

**Se utilizzi un connettore automatico, esegui script o utilizzi una soluzione middleware in cui inserire il set di dati Catena di approvvigionamento di AWS, devi aggiornare il percorso Amazon S3 con il percorso Amazon S3 visualizzato nella scheda Source Flows.** 

**Nota**  
Se un file esistente con lo stesso nome viene nuovamente caricato su Amazon S3, Catena di approvvigionamento di AWS sovrascriverà il file su Amazon S3.

![\[Inserimento di dati per i successivi caricamenti di file\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/Data_lake_upload.png)


# Connessione a un EDI
<a name="connecting-edi"></a>

Per importare dati da una fonte di dati EDI, segui la procedura riportata di seguito.

1. Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli **Data Lake**.

1. Nella pagina **Data lake**, scegli **Aggiungi nuova fonte**.

   Viene visualizzata la pagina **Seleziona l'origine dati della catena di approvvigionamento**.

1. Scegli **EDI**.

1. Nella pagina **Dettagli della connessione EDI**, in Assegna un **nome alla connessione**, inserisci un nome per la connessione.

1. (Facoltativo) In **Descrizione della connessione**, inserisci una descrizione per la connessione.

1. **In **Amazon S3 Bucket Billing, esamina le informazioni di fatturazione** di Amazon S3, quindi seleziona Conferma.** 

1. Scegli **Next (Successivo)**.

1. **In **Mappatura dei dati**, scegli Inizia.**

1. 
**Nota**  
EDI 850, EDI 860 e EDI 856 sono supportati in. Catena di approvvigionamento di AWS
**Nota**  
I campi obbligatori sono già mappati. Eseguite questo passaggio solo se desiderate apportare modifiche specifiche alla ricetta di trasformazione predefinita.

   Nella pagina **Mappatura della ricetta**, è possibile visualizzare la ricetta di trasformazione predefinita in **Mappature dei campi**. 

   Scegli **Aggiungi mappatura per mappare** qualsiasi campo di destinazione aggiuntivo. I **campi di destinazione obbligatori** sono obbligatori. Scegli il **campo Destinazione** per aggiungere un campo di destinazione personalizzato aggiuntivo.
**Nota**  
Esamina tutte le entità (ad esempio, ordine in entrata, linea ordini in entrata e pianificazione delle linee degli ordini in entrata per il gruppo di entità EDI 850) in ciascun gruppo di entità.

1. Per visualizzare i valori dei campi di origine e le mappature dei dati dalla ricetta di trasformazione, puoi caricare dati di esempio. Nella pagina **Mapping Recipe**, in **Carica dati di esempio**, scegli **sfoglia i file** o trascina i file. Il file di dati di esempio deve contenere i parametri richiesti e includere i nomi dei campi di origine.

1. Scegliete **Accetta tutto e continuate**.

1. In **Verifica e conferma**, puoi visualizzare il riepilogo della connessione dati. Per modificare la mappatura dei campi dati, scegli **Torna alla mappatura dei dati**.

1. Scegli **Conferma e configura l'ingestione dei dati** per esaminare i percorsi di Amazon S3 in cui devono essere caricati i dati di origine per avviare il processo di importazione.

1. Scegli **Conferma e configura l'ingestione dei dati in un secondo momento se desideri importare i dati in un secondo momento**. Puoi importare i dati in qualsiasi momento dopo aver creato la connessione dalla dashboard. Catena di approvvigionamento di AWS 

1. Nella Catena di approvvigionamento di AWS dashboard, scegli **Apri** connessioni. **Seleziona il flusso di dati di connessione in cui desideri inserire i dati, scegli i puntini di sospensione verticali e seleziona Configurazione di ingestione.**

# Connessione a S/4 HANA
<a name="connecting-sap-hana"></a>

Prima di poterti connettere alla tua sorgente dati S/4 HANA, devi completare i seguenti prerequisiti. Dopodiché, crea Catena di approvvigionamento di AWS automaticamente i percorsi di Amazon S3 e acquisisce i dati dalle tabelle di origine SAP.

## Prerequisiti per la connessione a S/4 HANA
<a name="prerequisites-s4hana"></a>

Per connettersi all'origine dati S/4 HANA, è necessario completare i seguenti prerequisiti prima di importare i dati.

1. Configura il tuo sistema SAP S/4 HANA per attivare l'estrazione dei dati basata su ODP tramite il connettore SAP per Amazon. OData AppFlow Per ulteriori informazioni, consulta [ OData Connettore SAP per Amazon AppFlow](https://docs.aws.amazon.com/appflow/latest/userguide/sapodata.html).

1. Configura le tue fonti o estrattori di dati SAP e genera OData servizi basati su ODP per connettere ed Catena di approvvigionamento di AWS estrarre informazioni. Per ulteriori informazioni, consulta [Fonti di dati SAP](#s4-datasources).

1. Configura il tuo sistema SAP con uno dei seguenti tipi di autenticazione:
   + Base
   + OAuth

1. Configura i ruoli di sicurezza nel sistema SAP per attivare l'estrazione dei dati.

1. Configura la connettività di rete per SAP S/4 HANA. Se la tua istanza SAP si trova in una VPN sicura e non riesci ad aprire una porta per Catena di approvvigionamento di AWS connetterti, ti consigliamo di utilizzarla. AWS PrivateLink Per la configurazione manuale AWS PrivateLink, vedi [AWS per SAP](https://aws.amazon.com/blogs/awsforsap/share-sap-odata-services-securely-through-aws-privatelink-and-the-amazon-appflow-sap-connector/) e per la configurazione automatica utilizzando CloudFormation, vedi. [CloudFormation](https://github.com/aws-cloudformation/aws-cloudformation-templates/tree/main/AWSSupplyChain/SapPrivateLink)

## Configurazione della connessione S/4 HANA
<a name="connecting-s4hana"></a>

Per importare dati da un'origine dati SAP S/4HANA, segui la procedura seguente.

1. **Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli Data Lake.**

1. Nella pagina **Data lake**, scegli **Aggiungi nuova fonte**.

   Viene visualizzata la pagina **Seleziona l'origine dati della catena di approvvigionamento**.

1. Scegli **SAP S/4HANA**.

1. Scegli **Next (Successivo)**.

1. In Dettagli di **connessione SAP S/4HANA**, inserisci quanto segue:
   + **Nome connessione**: inserisci un nome per questa connessione.
   + (Facoltativo) **Descrizione della connessione**: immettere un nome per questa connessione.
   + **Usa AppFlow connettore esistente**: scegli **Sì** per utilizzare un AppFlow connettore esistente.
   + **URL dell'host dell'applicazione**: inserisci l'URL dell'account SAP. 
   + **Percorso del servizio dell'applicazione: immettere il percorso** del servizio dell'applicazione SAP.
   + **Numero di porta**: immettere il numero di porta SAP. 
   + **Numero client**: immettere il numero del client SAP.
   + **Lingua di accesso**: inserisci il codice della lingua SAP. Ad esempio, EN per l'inglese.
   + **PrivateLink**— Scegli **Abilitato** per abilitare una connessione privata tra il server SAP e il tuo Account AWS hosting Catena di approvvigionamento di AWS.
   + **Nome utente**: inserisci il nome utente dell'account SAP. 
   + **Password**: inserisci la password dell'account SAP. 
**Nota**  
Amazon AppFlow utilizza il **nome utente** e la **password** SAP forniti da te per connettersi a SAP.

1. Scegli **Connect to SAP.**

   Se il nome utente e la password SAP sono stati inseriti correttamente, viene visualizzato il messaggio **Connessione riuscita**.

1. (Facoltativo) In ** AppFlow Configurazione opzionale**, **Fase 1 - Scarica il file modello JSON, scegli Scarica il file modello** **JSON esistente** per modificare le impostazioni di inserimento di appflow.
**Nota**  
Puoi usare il tuo editor per modificare il file.json. Non è possibile modificare il file.json in. Catena di approvvigionamento di AWS

   **Dopo aver aggiornato il file.json, nel **Passaggio 2 - Carica il file modello JSON modificato, scegli sfoglia i file** da caricare.**
**Nota**  
Se il caricamento non riesce, il **riepilogo del caricamento** mostrerà gli errori o i conflitti nel file.json. Puoi aggiornare il file.json per risolvere i problemi e caricare nuovamente il file.

   Di seguito è riportato un file JSON di esempio con la pianificazione, i flussi di dati e le tabelle di origine richiesti.

   ```
   {
       "schedule" : { 
           "scheduleExpression"  : "rate(1days)", // scheduleExpression key should be available and the value cannot be null/empty. Format starts with rate and having time values in minutes, hours, or days. For example, rate(1days)
           "scheduleStartTime" : null // Supported format - "yyyy-MM-dd'T'hh:mm:ss[+|-]hh:mm". For example, 2022-04-26T13:00:00-07:00. ScheduleStartTime should atleast be 5 minutes after current time. A null value will automatically set the start time as 5 minutes after the connection creation time
       },
       "dataFlows" : [ // DataFlows cannot be null or empty. Make sure to choose from the list below
           "Company-Company",
           "Geography-Geography",
           "Inventory-Inventory Level",
           "Inventory-Inventory Policy",
           "Outbound-Outbound Order Line",
           "Outbound-Outbound Shipment",
           "Product-Product",
           "Product-Product Hierarchy",
           "Production Order-Inbound Order",
           "Production Order-Inbound Order Line",
           "Purchase Order-Inbound Order",
           "Purchase Order-Inbound Order Line",
           "Purchase Order-Inbound Order Line Schedule",
           "Reference-Reference Fields",
           "Shipment-Shipment",
           "Site-Site",
           "Site-Transportation Lane",
           "Trading Partner-Trading Partner",
           "Transfer Order-Inbound Order Line",
           "Vendor Management-Vendor Lead Time",
           "Vendor Management-Vendor Product",
           "Product-Product UOM"
       ],
       "sourceTables" : [   // sourceTables cannot be empty
           {
               "tableName" : "SomeString", // Should be an existing table name from the SAP instance
               "extractType" : "DELTA",      // Should either be DELTA or FULL 
               "tableCols" : [    // TableCols cannot be empty. Enter valid column names for the table
                   "col1",
                   "col2",
                   "col3"
               ],
               "filters" : [// Optional field
                       "colName" : "col1", // colName value should be part of tableCols
                       "dataType" : "String",  // Should contain values `STRING` or `DATETIME`
                       "value" : "String",
                       "operator" : "String"  // Choose a string value from the pre-defined value of "PROJECTION", "LESS_THAN", "CONTAINS","GREATER_THAN","LESS_THAN_OR_EQUAL_TO","GREATER_THAN_OR_EQUAL_TO","EQUAL_TO","NOT_EQUAL_TO","ADDITION","MULTIPLICATION","DIVISION","SUBTRACTION","MASK_ALL","MASK_FIRST_N","MASK_LAST_N","VALIDATE_NON_NULL","VALIDATE_NON_ZERO","VALIDATE_NON_NEGATIVE",or "VALIDATE_NUMERIC","NO_OP";
               ]
           },
           {
   
               // sourceTables with same keys - tableName, extractType, tableCols, filters(not mandatory)
           
           }
       ]
   }
   ```

1. **In **Amazon S3 Bucket Billing, esamina le informazioni di fatturazione** di Amazon S3, quindi seleziona Conferma.** 

1. Scegli **Next (Successivo)**.

1. **In **Mappatura dei dati**, scegli Inizia.**

1. 
**Nota**  
I campi obbligatori sono già mappati. Eseguite questo passaggio solo se desiderate apportare modifiche specifiche alla ricetta di trasformazione predefinita.

   Nella pagina **Mappatura della ricetta**, è possibile visualizzare la ricetta di trasformazione predefinita in **Mappature dei campi**. 

   Scegli **Aggiungi mappatura per mappare** qualsiasi campo di destinazione aggiuntivo. I **campi di destinazione obbligatori** sono obbligatori. Scegli il **campo Destinazione** per aggiungere un campo di destinazione personalizzato aggiuntivo.

1. Per visualizzare i valori dei campi di origine e le mappature dei dati dalla ricetta di trasformazione, puoi caricare dati di esempio. Nella pagina **Mapping Recipe**, in **Carica dati di esempio**, scegli **sfoglia i file** o trascina i file. Il file di dati di esempio deve contenere i parametri richiesti e includere i nomi dei campi di origine.

1. Scegliete **Accetta tutto e continuate**.

1. In **Verifica e conferma**, puoi visualizzare il riepilogo della connessione dati. Per modificare la mappatura dei campi dati, scegli **Torna alla mappatura dei dati**.

1.  (Facoltativo) In **Azioni relative alle ricette**, puoi fare quanto segue:
   + **Scarica il file delle ricette**: seleziona **Scarica** per modificare i file delle ricette in SQL come file di testo.
**Nota**  
Per informazioni sulle funzioni SQL integrate, consulta [Spark SQL](https://spark.apache.org/docs/latest/api/sql/index.html).
   + **Carica il file di ricette**: scegli **sfoglia i file** o trascina e rilascia i file di testo delle ricette modificati. Seleziona **Conferma caricamento** per caricare il file di ricette modificato e modificare le mappature dei campi dati.

1. Per esaminare i percorsi di localizzazione di Amazon S3 in cui è necessario caricare i dati di origine SAP per l'ingestione, scegli **Conferma** e configura l'ingestione dei dati. In alternativa, puoi scegliere **Conferma** e configurare l'ingestione dei dati in un secondo momento. È possibile visualizzare le informazioni sull'ingestione dei dati in qualsiasi momento. **Dalla Catena di approvvigionamento di AWS dashboard, seleziona Connessioni.** **Seleziona il flusso di dati di connessione in cui desideri inserire i dati, scegli i puntini di sospensione verticali e seleziona Configurazione di ingestione.**

## Fonti di dati SAP
<a name="s4-datasources"></a>

Configura le seguenti fonti di tabelle SAP per Catena di approvvigionamento di AWS connettere ed estrarre informazioni.

**Nota**  
Quando cerchi un'origine dati SAP, aggiungi al nome dell'origine dati il prefisso. *EntityOf* *Ad esempio, per l'origine dati 0BP\$1DEF\$1ADDRESS\$1ATTR, il nome dell'*entità deve essere 0BP\$1DEF\$1ADDRESS\$1ATTR*. EntityOf*  
Quando Amazon AppFlow estrae ogni fonte di dati SAP, il formato del nome dell'entità viene utilizzato per estrarre le informazioni. *Ad esempio, per estrarre dati da *0BP\$1DEF\$1ADDRESS\$1ATTR, i dati vengono estratti dal percorso dell'entità/0BP\$1DEF\$1ADDRESS\$1ATT.* sap/opu/odata/sap/Z0BP\$1DEF\$1ADDRESS\$1ATTR\$1SRV/EntityOf*


| Fonte di dati SAP | Descrizione dell'origine dati SAP | Tabella dei sorgenti SAP | OData nome del servizio | fonte dati BW | Dati SAP | Delta/Full | 
| --- | --- | --- | --- | --- | --- | --- | 
|  0BP\$1DEF\$1INDIRIZZO\$1ATTR  |  Estrazione di indirizzi standard BP  |  N/A  |  Z0BP\$1DEF\$1ADDRESS\$1ATTR\$1SRV  |  Origine dati  |  Dati principali  |  Delta  | 
|  0BPARTNER\$1ATTR  |  BP: dati centrali di estrazione BW  |  N/A  |  Z0BPARTNER\$1ATTR\$1SRV  |  Origine dati  |  Dati principali  |  Delta  | 
|  0BPARTNER\$1TEXT  |  BP: per i testi dei partner commerciali DataSource   |  N/A  |  Z0BPARTNER\$1TEXT\$1SRV  |  Origine dati  |  Dati principali  |  Delta  | 
|  0CO\$1PC\$1ACT\$105  |  Valutazione del materiale: prezzi  |  N/A  |  Z0CO\$1PC\$1ACT\$105\$1SRV  |  Origine dati  |  Dati principali  |  Completa  | 
|  0COMP\$1CODE\$1TEXT  |  Testo del codice aziendale  |  N/A  |  Z0COMP\$1CODE\$1TEXT\$1SRV  |  Origine dati  |  Dati principali  |  Completa  | 
|  0CUSTOMER\$1ATTR  |  Customer  |  N/A  |  Z0CUSTOMER\$1ATTR\$1SRV  |  Origine dati  |  Dati principali  |  Delta  | 
|  0MAT\$1VEND\$1ATTR  |  Materiale o fornitore  |  N/A  |  Z0MAT\$1VEND\$1ATTR\$1SRV  |  Origine dati  |  Dati principali  |  Delta  | 
|  0MATERIAL\$1ATTR  |  Materiale  |  N/A  |  Z0MATERIAL\$1ATTR\$1SRV  |  Origine dati  |  Dati principali  |  Delta  | 
|  0MATERIAL\$1TEXT  |  Testo materiale  |  N/A  |  Z0MATERIAL\$1TEXT\$1SRV  |  Origine dati  |  Dati anagrafici  |  Delta  | 
|  0PURCH\$1ORG\$1TEXT  |  Acquisto del testo dell'organizzazione  |  N/A  |  Z0PURCH\$1ORG\$1TEXT\$1SRV  |  Origine dati  |  Dati anagrafici  |  Completa  | 
|  0VENDOR\$1ATTR  |  Vendor  |  N/A  |  Z0VENDOR\$1ATTR\$1SRV  |  Origine dati  |  Dati principali  |  Delta  | 
|  2LIS\$102\$1HDR  |  Dati di acquisto (livello di intestazione)  |  N/A  |  Z2LIS\$102\$1HDR\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$102\$1ITM  |  Dati di acquisto (a livello di articolo)  |  N/A  |  Z2LIS\$102\$1ITM\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$102\$1SCL  |  Dati di acquisto (a livello di riga di pianificazione)  |  N/A  |  Z2LIS\$102\$1SCL\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$102\$1SCN  |  Conferma delle linee di pianificazione  |  N/A  |  Z2LIS\$102\$1SCN\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$103\$1BF  |  Movimenti di merci dalla gestione dell'inventario  |  N/A  |  Z2LIS\$103\$1BF\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$104\$1P\$1MATNR  |  Visualizzazione del materiale da PP/PP-PI  |  N/A  |  Z2LIS\$104\$1P\$1MATNR\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$108TRFKP  |  Costi di spedizione a livello di articolo  |  N/A  |  Z2LIS\$108TRFKP\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$108TRTLP  |  Spedizione: dati dell'articolo di consegna per sezione  |  N/A  |  Z2LIS\$108TRTLP\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$108TRTK  |  Spedizione: Header Data  |  N/A  |  Z2LIS\$108TRTK\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$111\$1VAHDR  |  Intestazione del documento di vendita  |  N/A  |  Z2LIS\$111\$1VAHDR\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$111\$1VAITM  |  Elemento del documento di vendita  |  N/A  |  Z2LIS\$111\$1VAITM\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  2LIS\$112\$1VCITM  |  Dati dell'articolo di consegna  |  N/A  |  Z2LIS\$112\$1VCITM\$1SRV  |  Origine dati  |  Transazionale  |  Delta  | 
|  ZADRC  |  Addresses  |  ADRC  |  ZADRC\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZBUT021\$1FS  |  Indirizzo del partner  |  BUT021\$1FS  |  ZBUT021\$1FS\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZCDHDR  |  Cambia l'intestazione del documento  |  CDHDR  |  ZCDHDR\$1SRV  |  Tabella  |  Dati principali  |  Delta  | 
|  ZEINA  |  Record di informazioni sugli acquisti: dati generali  |  REINA  |  ZEINA\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZEINA  |  Record di informazioni sugli acquisti: dati dell'organizzazione di acquisto  |  ZV\$1EINE  |  ZEINE\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZEKKO  |  Intestazione del documento di acquisto  |  ZV\$1EKKO  |  ZEKKO\$1SRV  |  Tabella  |  Transazionale  |  Delta  | 
|  ZEKPO  |  Elemento del documento di acquisto  |  ZV\$1EKPO  |  ZEKPO\$1SRV  |  Tabella  |  Transazionale  |  Delta  | 
|  ZEQUI  |  Dati anagrafici delle apparecchiature  |  EQUI  |  ZEQUI\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  GEOLOGICO  |  Posizione geografica  |  GEOLOGIA  |  ZGEOLOC\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZIP  |  Dati dell'intestazione di consegna  |  LABBRO  |  ZLIKP\$1SRV  |  Tabella  |  Transazionale  |  Delta  | 
|  ZIP  |  Consegna: dati dell'articolo  |  ZV\$1LIPS  |  ZLIPS\$1SRV  |  Tabella  |  Transazionale  |  Delta  | 
|  ZMDRP\$1NODTT  |  Tipo di nodo per rete DRP  |  MDRP\$1NODTT  |  ZMDRP\$1NODTT\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZMARC  |  Dati dell'impianto per il materiale  |  ZQ\$1MARC  |  ZMARC\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZMARD  |  Dati sulla posizione di archiviazione del materiale  |  ZQ\$1MARD  |  ZMARD\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZMCHB  |  Scorte in Batch  |  ZQ\$1MCHB  |  ZMCHB\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZT001W  |  Impianto  |  T001W  |  ZT001W\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZT005T  |  Nomi di paesi  |  T005T  |  ZT005T\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZT141T  |  Descrizioni dello stato del materiale  |  T141T  |  ZT141T\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZT173T  |  Tipo di spedizione Testi di trasporto  |  T173T  |  ZT173T\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZT179  |  Materiali: gerarchie di prodotti  |  T179  |  ZT179\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZT179T  |  Materiali: testo delle gerarchie di prodotti  |  T179T  |  ZT179T\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZT370U  |  Testo della categoria dell'attrezzatura  |  T370U  |  ZT370U\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZT618T  |  Descrizioni delle modalità di trasporto  |  T618T  |  ZT618T\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZTVRAB  |  Tappe del percorso  |  TVRAB  |  ZTVRAB\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZTVRO  |  Route  |  TVRO  |  ZTVRO\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZVALW  |  Pianificazione del percorso  |  VALVA  |  ZVALW\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZVBBE  |  Requisiti di vendita: record individuali  |  VBBE  |  ZVBBE\$1 SRVs  |  Tabella  |  Dati principali  |  Completa  | 
|  ZINB\$1SHIPPING  |  Intestazione e articolo della spedizione (in entrata)  |  ZV\$1INB\$1SHIPMENT basato sulla condizione congiunta: VTTK.MANDT = VTTP.MANDT e VTTK.TKNUM = VTTP.TKNUM  |  ZINB\$1SHIPMENT\$1SRV  |  Tabella  |  Transazionale  |  Completa  | 
|  ZAUFK  |  Ordina i dati principali  |  AUFK  |  AUFK\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZMARM  |  Unità di misura del materiale  |  MARCHIO  |  ZMARM\$1SRV  |  Tabella  |  Dati principali  |  Completa  | 
|  ZEBAN  |  richieste di acquisto  |  EBAN  |  ZEBAN\$1SRV  |  Tabella  |  Dati transazionali  |  Delta  | 

# Connessione a SAP ECC 6.0
<a name="connecting-sap-ecc"></a>

Per estrarre i dati da SAP ECC 6.0, segui la procedura riportata di seguito.

1. Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli **Data** Lake.

1. Nella pagina **Data lake**, scegli **Aggiungi nuova fonte**.

   Viene visualizzata la pagina **Seleziona l'origine dati della catena di approvvigionamento**.

1. Scegli **SAP ECC**.

1. In **Dettagli di connessione SAP ECC**, inserisci quanto segue:
   + **Nome della connessione**: inserisci un nome per la connessione. I nomi delle connessioni possono contenere solo lettere, numeri e trattini.
   + **Descrizione della connessione**: inserisci una descrizione per la tua connessione.

1. **In **Amazon S3 Bucket Billing, esamina le informazioni di fatturazione** di Amazon S3, quindi seleziona Conferma.** 

1. Scegli **Next (Successivo)**.

1. **In **Mappatura dei dati**, scegli Inizia.**

1. 
**Nota**  
I campi obbligatori sono già mappati. Eseguite questo passaggio solo se desiderate apportare modifiche specifiche alla ricetta di trasformazione predefinita.

   Nella pagina **Mappatura della ricetta**, è possibile visualizzare la ricetta di trasformazione predefinita in **Mappature dei campi**.

   Scegli **Aggiungi mappatura per mappare** qualsiasi campo di destinazione aggiuntivo. I **campi di destinazione richiesti** sono obbligatori. Scegli il **campo Destinazione** per aggiungere un campo di destinazione personalizzato aggiuntivo.

1. 
**Nota**  
Puoi utilizzarlo solo AWS Glue DataBrew per modificare le ricette per le entità transazionali. Utilizzalo Catena di approvvigionamento di AWS per scaricare le tue ricette e modificarle in. DataBrew Quindi carica nuovamente le ricette in Catena di approvvigionamento di AWS. Non puoi utilizzare l'applicazione Catena di approvvigionamento di AWS web per modificare i campi di dati transazionali in una ricetta.

    (Facoltativo) In **Azioni relative alle ricette**, puoi fare quanto segue:
   + **Scarica il file delle ricette**: seleziona **Scarica** per modificare i file delle ricette offline con DataBrew.
   + **Carica il file di ricette**: scegli di **sfogliare i file** o sposta (trascina e rilascia) i file di ricette modificati. Seleziona **Conferma caricamento** per caricare il file di ricette modificato e modificare le mappature dei campi dati.
   + **Ripristina la ricetta predefinita**: seleziona **Sì, ripristina la mia ricetta** per rimuovere tutte le mappature personalizzate e ripristinare la ricetta predefinita consigliata da. Catena di approvvigionamento di AWS

1. Per modificare le mappature dei campi di origine e convalidare la ricetta di trasformazione, puoi caricare dati di esempio. Nella pagina **Mapping Recipe**, in **Carica dati di esempio**, scegli **sfoglia i file** o sposta (trascina e rilascia) i file. Il file di dati di esempio deve contenere i parametri richiesti e includere i nomi dei campi di origine.

1. Scegliete **Accetta tutto e continuate**.

1. In **Verifica e conferma**, puoi visualizzare il riepilogo della connessione dati. Per modificare la mappatura dei campi dati, scegli **Torna alla mappatura dei dati**.

1. Per esaminare i percorsi di Amazon S3 in cui è necessario caricare i dati di origine SAP per l'ingestione, scegli **Conferma** e configura l'ingestione dei dati. In alternativa, puoi scegliere **Conferma** e configurare l'ingestione dei dati in un secondo momento. È possibile visualizzare le informazioni sull'ingestione dei dati in qualsiasi momento. **Dalla Catena di approvvigionamento di AWS dashboard, seleziona Connessioni.** **Seleziona il flusso di dati di connessione in cui desideri inserire i dati, scegli i puntini di sospensione verticali e seleziona Configurazione di ingestione.**

1. Se non utilizzi l'API Amazon S3 per importare dati, crea manualmente il percorso Amazon S3 sulla console Amazon S3. Per ulteriori informazioni su come creare percorsi, consulta. [Caricamento di dati su un bucket Amazon S3](manually-uploading-data.md)

1. Consulta la tabella seguente per mappare l'entità Catena di approvvigionamento di AWS dati con l'origine SAP.
**Importante**  
Nella pagina del **percorso di Amazon S3**, devi caricare l'entità principale prima dell'entità figlio. Puoi prima caricare tutte le entità principali e poi tutte le entità figlie insieme.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/connecting-sap-ecc.html)

# Aggiungere una nuova fonte in uscita per Supply Planning
<a name="adding_new_outbound_connector"></a>

È possibile utilizzare la nuova fonte in uscita per caricare le richieste di ordine di acquisto o i miglioramenti del piano aggiornati di *Supply Planning*.

1. Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli **Data Lake**, quindi scegli la scheda **Data** Ingestion.

   Viene visualizzata la **pagina Data Ingestion**.

1. Scegli **Aggiungi fonte in uscita**.

   Viene visualizzata la pagina dei **dettagli della connessione Amazon S3**.

1. In **Nome connessione**, inserisci un nome per la tua connessione Amazon S3.

1. In **Dati in uscita**, seleziona il flusso di dati in uscita che desideri esportare. Sono supportati i flussi di dati relativi alla richiesta di ordine di acquisto e alla previsione delle forniture.

1. Scegli **Conferma**.

   La nuova origine in uscita viene creata e viene visualizzata la pagina **Connessioni**.

# Inserimento di dati per connessioni esistenti
<a name="ingesting-data"></a>

Le seguenti sono le opzioni di inserimento se utilizzi Amazon S3:
+ **Aggiungi**: per aggiungere i dati di ingestione o per l'ingestione incrementale, tutti i file del percorso di origine vengono combinati in un unico set di dati prima di essere inseriti nel data lake. Questo metodo garantisce la completezza dei dati per i file che coprono più giorni. Quando rimuovi i file dal percorso di origine nel tuo bucket S3, i file disponibili solo nel percorso di origine vengono importati nel data lake.

   L'opzione *Append* assicura che i file in Amazon S3 vengano replicati e sincronizzati nel data lake.
+ **Sovrascrittura**: durante la sostituzione, i file di dati vengono inseriti nel data lake man mano che vengono aggiornati nel percorso di origine. Ogni nuovo file sostituisce completamente il set di dati.
**Nota**  
*È possibile eliminare i flussi di origine e i dati corrispondenti nelle opzioni *Aggiungi* e Sovrascrivi.*

*Di seguito sono elencate le opzioni di operazione di inserimento per *EDI*, *SAP S/4 HANA e SAP ECC*:*
+ **Aggiornamento**: aggiorna le righe di dati esistenti utilizzando gli stessi campi utilizzati nella ricetta.
+ **Sostituisci**: elimina i dati esistenti caricati e li sostituisce con i nuovi dati in arrivo.
+ **Elimina**: elimina una o più righe di dati utilizzando il principale. IDs

**Per avviare l'inserimento dei dati, segui la procedura riportata di seguito.**

1. Nella Catena di approvvigionamento di AWS dashboard, nel riquadro di navigazione a sinistra, scegli **Data** Lake.

1. **Nella scheda **Data Ingestion**, scegli Connessioni.**

1. **Seleziona la connessione per importare i dati e scegli Data Ingestion.**

   Viene visualizzata la pagina **Data Ingestion Configuration**.

1. Scegli **Avvia**.

1. *Nella pagina **Dettagli sull'inserimento dei dati**, seleziona se desideri *aggiornare*, *sostituire* o eliminare i dati.* **Copia il percorso Amazon S3 selezionando Copia.**

# Caricamento di dati su un bucket Amazon S3
<a name="manually-uploading-data"></a>

**Nota**  
Segui questa procedura per il connettore SAP ERP Component Central (ECC) e il connettore EDI per inserire manualmente i dati nel bucket S3 associato all'istanza. Catena di approvvigionamento di AWS Se utilizzi l'API Amazon S3 per caricare dati[Connessione a SAP ECC 6.0](connecting-sap-ecc.md), consulta o. [Connessione a un EDI](connecting-edi.md)

Per caricare dati in un bucket Amazon S3 associato all' Catena di approvvigionamento di AWS istanza, segui la procedura seguente.

1. Nella Catena di approvvigionamento di AWS dashboard, nella barra di navigazione a sinistra, scegli **Apri** connessioni.

1. Seleziona la connessione richiesta.

1. Nella pagina **Dettagli di connessione**, annota il percorso Amazon S3 o scegli **Copia per copiare** il percorso Amazon S3.

1. Apri la console Amazon S3 all'indirizzo [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)e accedi.

1. In **Bucket**, seleziona il nome del bucket (il primo nome nel percorso Amazon S3) in cui desideri caricare le cartelle o i file.

1. Passa al percorso Amazon S3 che hai copiato dal pannello di controllo. Catena di approvvigionamento di AWS 

1. Scegli **Carica**.  
![\[Caricamento di dati su un bucket Amazon S3\]](http://docs.aws.amazon.com/it_it/aws-supply-chain/latest/userguide/images/S3_console.png)