

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# API processo visuale
API processo visuale

L'API Visual Job consente di creare processi di integrazione dei dati utilizzando l' AWS Glue API di un oggetto JSON che rappresenta una configurazione visiva di un AWS Glue lavoro. 

Viene fornito un elenco `CodeGenConfigurationNodes` di API per la creazione o l'aggiornamento del lavoro per registrare un DAG in AWS Glue Studio per il lavoro creato e generare il codice associato.

## Tipi di dati
 - tipi di dati -
+ [CodeGenConfigurationNode struttura](#aws-glue-api-visual-job-api-CodeGenConfigurationNode)
+ [JDBCConnectorStruttura delle opzioni](#aws-glue-api-visual-job-api-JDBCConnectorOptions)
+ [StreamingDataPreviewOptions struttura](#aws-glue-api-visual-job-api-StreamingDataPreviewOptions)
+ [AthenaConnectorSource struttura](#aws-glue-api-visual-job-api-AthenaConnectorSource)
+ [JDBCConnectorStruttura del codice sorgente](#aws-glue-api-visual-job-api-JDBCConnectorSource)
+ [SparkConnectorSource struttura](#aws-glue-api-visual-job-api-SparkConnectorSource)
+ [CatalogSource struttura](#aws-glue-api-visual-job-api-CatalogSource)
+ [Struttura My SQLCatalog Source](#aws-glue-api-visual-job-api-MySQLCatalogSource)
+ [Struttura di Postgree Source SQLCatalog](#aws-glue-api-visual-job-api-PostgreSQLCatalogSource)
+ [Struttura SQLCatalog Oracle Source](#aws-glue-api-visual-job-api-OracleSQLCatalogSource)
+ [SQLServerCatalogSource Struttura Microsoft](#aws-glue-api-visual-job-api-MicrosoftSQLServerCatalogSource)
+ [CatalogKinesisSource struttura](#aws-glue-api-visual-job-api-CatalogKinesisSource)
+ [DirectKinesisSource struttura](#aws-glue-api-visual-job-api-DirectKinesisSource)
+ [KinesisStreamingSourceOptions struttura](#aws-glue-api-visual-job-api-KinesisStreamingSourceOptions)
+ [CatalogKafkaSource struttura](#aws-glue-api-visual-job-api-CatalogKafkaSource)
+ [DirectKafkaSource struttura](#aws-glue-api-visual-job-api-DirectKafkaSource)
+ [KafkaStreamingSourceOptions struttura](#aws-glue-api-visual-job-api-KafkaStreamingSourceOptions)
+ [RedshiftSource struttura](#aws-glue-api-visual-job-api-RedshiftSource)
+ [AmazonRedshiftSource struttura](#aws-glue-api-visual-job-api-AmazonRedshiftSource)
+ [AmazonRedshiftNodeData struttura](#aws-glue-api-visual-job-api-AmazonRedshiftNodeData)
+ [AmazonRedshiftAdvancedOption struttura](#aws-glue-api-visual-job-api-AmazonRedshiftAdvancedOption)
+ [Struttura Option](#aws-glue-api-visual-job-api-Option)
+ [struttura S3 CatalogSource](#aws-glue-api-visual-job-api-S3CatalogSource)
+ [Struttura S3 SourceAdditionalOptions](#aws-glue-api-visual-job-api-S3SourceAdditionalOptions)
+ [Struttura S3 CsvSource](#aws-glue-api-visual-job-api-S3CsvSource)
+ [JDBCSource Struttura diretta](#aws-glue-api-visual-job-api-DirectJDBCSource)
+ [Struttura S3 DirectSourceAdditionalOptions](#aws-glue-api-visual-job-api-S3DirectSourceAdditionalOptions)
+ [Struttura S3 JsonSource](#aws-glue-api-visual-job-api-S3JsonSource)
+ [Struttura S3 ParquetSource](#aws-glue-api-visual-job-api-S3ParquetSource)
+ [Struttura S3 DeltaSource](#aws-glue-api-visual-job-api-S3DeltaSource)
+ [Struttura S3 CatalogDeltaSource](#aws-glue-api-visual-job-api-S3CatalogDeltaSource)
+ [CatalogDeltaSource struttura](#aws-glue-api-visual-job-api-CatalogDeltaSource)
+ [Struttura S3 HudiSource](#aws-glue-api-visual-job-api-S3HudiSource)
+ [Struttura S3 CatalogHudiSource](#aws-glue-api-visual-job-api-S3CatalogHudiSource)
+ [Struttura S3 ExcelSource](#aws-glue-api-visual-job-api-S3ExcelSource)
+ [CatalogHudiSource struttura](#aws-glue-api-visual-job-api-CatalogHudiSource)
+ [Struttura Dynamo DBCatalog Source](#aws-glue-api-visual-job-api-DynamoDBCatalogSource)
+ [RelationalCatalogSource struttura](#aws-glue-api-visual-job-api-RelationalCatalogSource)
+ [JDBCConnectorStruttura dell'obiettivo](#aws-glue-api-visual-job-api-JDBCConnectorTarget)
+ [SparkConnectorTarget struttura](#aws-glue-api-visual-job-api-SparkConnectorTarget)
+ [BasicCatalogTarget struttura](#aws-glue-api-visual-job-api-BasicCatalogTarget)
+ [La mia struttura SQLCatalog Target](#aws-glue-api-visual-job-api-MySQLCatalogTarget)
+ [Struttura di Postgree Target SQLCatalog](#aws-glue-api-visual-job-api-PostgreSQLCatalogTarget)
+ [Struttura di Oracle Target SQLCatalog](#aws-glue-api-visual-job-api-OracleSQLCatalogTarget)
+ [SQLServerCatalogTarget Struttura Microsoft](#aws-glue-api-visual-job-api-MicrosoftSQLServerCatalogTarget)
+ [RedshiftTarget struttura](#aws-glue-api-visual-job-api-RedshiftTarget)
+ [AmazonRedshiftTarget struttura](#aws-glue-api-visual-job-api-AmazonRedshiftTarget)
+ [UpsertRedshiftTargetOptions struttura](#aws-glue-api-visual-job-api-UpsertRedshiftTargetOptions)
+ [struttura S3 CatalogTarget](#aws-glue-api-visual-job-api-S3CatalogTarget)
+ [Struttura S3 GlueParquetTarget](#aws-glue-api-visual-job-api-S3GlueParquetTarget)
+ [CatalogSchemaChangePolicy struttura](#aws-glue-api-visual-job-api-CatalogSchemaChangePolicy)
+ [struttura S3 DirectTarget](#aws-glue-api-visual-job-api-S3DirectTarget)
+ [Struttura S3 HudiCatalogTarget](#aws-glue-api-visual-job-api-S3HudiCatalogTarget)
+ [Struttura S3 HudiDirectTarget](#aws-glue-api-visual-job-api-S3HudiDirectTarget)
+ [Struttura S3 DeltaCatalogTarget](#aws-glue-api-visual-job-api-S3DeltaCatalogTarget)
+ [Struttura S3 DeltaDirectTarget](#aws-glue-api-visual-job-api-S3DeltaDirectTarget)
+ [Struttura S3 HyperDirectTarget](#aws-glue-api-visual-job-api-S3HyperDirectTarget)
+ [Struttura S3 IcebergDirectTarget](#aws-glue-api-visual-job-api-S3IcebergDirectTarget)
+ [DirectSchemaChangePolicy struttura](#aws-glue-api-visual-job-api-DirectSchemaChangePolicy)
+ [ApplyMapping struttura](#aws-glue-api-visual-job-api-ApplyMapping)
+ [Struttura mappatura](#aws-glue-api-visual-job-api-Mapping)
+ [SelectFields struttura](#aws-glue-api-visual-job-api-SelectFields)
+ [DropFields struttura](#aws-glue-api-visual-job-api-DropFields)
+ [RenameField struttura](#aws-glue-api-visual-job-api-RenameField)
+ [Struttura Spigot](#aws-glue-api-visual-job-api-Spigot)
+ [Struttura join](#aws-glue-api-visual-job-api-Join)
+ [JoinColumn struttura](#aws-glue-api-visual-job-api-JoinColumn)
+ [SplitFields struttura](#aws-glue-api-visual-job-api-SplitFields)
+ [SelectFromCollection struttura](#aws-glue-api-visual-job-api-SelectFromCollection)
+ [FillMissingValues struttura](#aws-glue-api-visual-job-api-FillMissingValues)
+ [Struttura filtro](#aws-glue-api-visual-job-api-Filter)
+ [FilterExpression struttura](#aws-glue-api-visual-job-api-FilterExpression)
+ [FilterValue struttura](#aws-glue-api-visual-job-api-FilterValue)
+ [CustomCode struttura](#aws-glue-api-visual-job-api-CustomCode)
+ [Struttura SparkSQL](#aws-glue-api-visual-job-api-SparkSQL)
+ [SqlAlias struttura](#aws-glue-api-visual-job-api-SqlAlias)
+ [DropNullFields struttura](#aws-glue-api-visual-job-api-DropNullFields)
+ [NullCheckBoxList struttura](#aws-glue-api-visual-job-api-NullCheckBoxList)
+ [NullValueField struttura](#aws-glue-api-visual-job-api-NullValueField)
+ [Struttura Datatype](#aws-glue-api-visual-job-api-Datatype)
+ [Struttura Merge](#aws-glue-api-visual-job-api-Merge)
+ [Struttura unione](#aws-glue-api-visual-job-api-Union)
+ [PIIDetection struttura](#aws-glue-api-visual-job-api-PIIDetection)
+ [Struttura aggregata](#aws-glue-api-visual-job-api-Aggregate)
+ [DropDuplicates struttura](#aws-glue-api-visual-job-api-DropDuplicates)
+ [GovernedCatalogTarget struttura](#aws-glue-api-visual-job-api-GovernedCatalogTarget)
+ [GovernedCatalogSource struttura](#aws-glue-api-visual-job-api-GovernedCatalogSource)
+ [AggregateOperation struttura](#aws-glue-api-visual-job-api-AggregateOperation)
+ [GlueSchema struttura](#aws-glue-api-visual-job-api-GlueSchema)
+ [GlueStudioSchemaColumn struttura](#aws-glue-api-visual-job-api-GlueStudioSchemaColumn)
+ [GlueStudioColumn struttura](#aws-glue-api-visual-job-api-GlueStudioColumn)
+ [DynamicTransform struttura](#aws-glue-api-visual-job-api-DynamicTransform)
+ [TransformConfigParameter struttura](#aws-glue-api-visual-job-api-TransformConfigParameter)
+ [EvaluateDataQuality struttura](#aws-glue-api-visual-job-api-EvaluateDataQuality)
+ [DQResultsPublishingOptions struttura](#aws-glue-api-visual-job-api-DQResultsPublishingOptions)
+ [DQStopJobOnFailureOptions struttura](#aws-glue-api-visual-job-api-DQStopJobOnFailureOptions)
+ [EvaluateDataQualityMultiFrame struttura](#aws-glue-api-visual-job-api-EvaluateDataQualityMultiFrame)
+ [Struttura Recipe](#aws-glue-api-visual-job-api-Recipe)
+ [RecipeReference struttura](#aws-glue-api-visual-job-api-RecipeReference)
+ [SnowflakeNodeData struttura](#aws-glue-api-visual-job-api-SnowflakeNodeData)
+ [SnowflakeSource struttura](#aws-glue-api-visual-job-api-SnowflakeSource)
+ [SnowflakeTarget struttura](#aws-glue-api-visual-job-api-SnowflakeTarget)
+ [ConnectorDataSource struttura](#aws-glue-api-visual-job-api-ConnectorDataSource)
+ [ConnectorDataTarget struttura](#aws-glue-api-visual-job-api-ConnectorDataTarget)
+ [RecipeStep struttura](#aws-glue-api-visual-job-api-RecipeStep)
+ [RecipeAction struttura](#aws-glue-api-visual-job-api-RecipeAction)
+ [ConditionExpression struttura](#aws-glue-api-visual-job-api-ConditionExpression)
+ [Struttura S3 CatalogIcebergSource](#aws-glue-api-visual-job-api-S3CatalogIcebergSource)
+ [CatalogIcebergSource struttura](#aws-glue-api-visual-job-api-CatalogIcebergSource)
+ [Struttura S3 IcebergCatalogTarget](#aws-glue-api-visual-job-api-S3IcebergCatalogTarget)
+ [DBELTConnectorStruttura Dynamo Source](#aws-glue-api-visual-job-api-DynamoDBELTConnectorSource)
+ [DDBELTConnectionStruttura delle opzioni](#aws-glue-api-visual-job-api-DDBELTConnectionOptions)
+ [DDBELTCatalogAdditionalOptions struttura](#aws-glue-api-visual-job-api-DDBELTCatalogAdditionalOptions)
+ [Struttura Route](#aws-glue-api-visual-job-api-Route)
+ [GroupFilters struttura](#aws-glue-api-visual-job-api-GroupFilters)
+ [AutoDataQuality struttura](#aws-glue-api-visual-job-api-AutoDataQuality)

## CodeGenConfigurationNode struttura
CodeGenConfigurationNode

`CodeGenConfigurationNode` enumera tutti i tipi di nodo validi. È possibile compilare una e solo una delle variabili membro.

**Campi**
+ `AthenaConnectorSource`: un oggetto [AthenaConnectorSource](#aws-glue-api-visual-job-api-AthenaConnectorSource).

  Specifica un connettore per un'origine dati Amazon Athena.
+ `JDBCConnectorSource`: un oggetto [JDBCConnectorFonte](#aws-glue-api-visual-job-api-JDBCConnectorSource).

  Specifica un connettore per un'origine dati JDBC.
+ `SparkConnectorSource`: un oggetto [SparkConnectorSource](#aws-glue-api-visual-job-api-SparkConnectorSource).

  Specifica un connettore per un'origine dati Apache Spark.
+ `CatalogSource`: un oggetto [CatalogSource](#aws-glue-api-visual-job-api-CatalogSource).

  Speciifica un data store nel AWS Glue Data Catalog.
+ `RedshiftSource`: un oggetto [RedshiftSource](#aws-glue-api-visual-job-api-RedshiftSource).

  Specifica un archivio dati Amazon Redshift.
+ `S3CatalogSource`: un oggetto [S3 CatalogSource](#aws-glue-api-visual-job-api-S3CatalogSource).

  Speciifica un data store Amazon S3 nel Data Catalog AWS Glue .
+ `S3CsvSource`: un oggetto [S3 CsvSource](#aws-glue-api-visual-job-api-S3CsvSource).

  Specifica un archivio dati CSV (valori delimitati da comandi) archiviati in Amazon S3.
+ `S3JsonSource`: un oggetto [S3 JsonSource](#aws-glue-api-visual-job-api-S3JsonSource).

  Specifica un archivio dati JSON in Amazon S3.
+ `S3ParquetSource`: un oggetto [S3 ParquetSource](#aws-glue-api-visual-job-api-S3ParquetSource).

  Specifica un archivio dati di Apache Parquet archiviato in Amazon S3.
+ `RelationalCatalogSource`: un oggetto [RelationalCatalogSource](#aws-glue-api-visual-job-api-RelationalCatalogSource).

  Speciifica un data store di catalogo relazionale nel Data Catalog. AWS Glue 
+ `DynamoDBCatalogSource`: un oggetto [Sorgente Dynamo DBCatalog](#aws-glue-api-visual-job-api-DynamoDBCatalogSource).

  Specifica un data store DynamoDBC Catalog nel Data Catalog. AWS Glue 
+ `JDBCConnectorTarget`: un oggetto [JDBCConnectorObiettivo](#aws-glue-api-visual-job-api-JDBCConnectorTarget).

  Specifica una destinazioni di dati che scrive su Amazon S3 nell'archiviazione a colonne di Apache Parquet.
+ `SparkConnectorTarget`: un oggetto [SparkConnectorTarget](#aws-glue-api-visual-job-api-SparkConnectorTarget).

  Specifica una destinazione che utilizza un connettore Apache Spark.
+ `CatalogTarget`: un oggetto [BasicCatalogTarget](#aws-glue-api-visual-job-api-BasicCatalogTarget).

  Specifica una destinazione che utilizza una AWS Glue tabella Data Catalog.
+ `RedshiftTarget`: un oggetto [RedshiftTarget](#aws-glue-api-visual-job-api-RedshiftTarget).

  Specifica una destinazione che utilizza Amazon Redshift.
+ `S3CatalogTarget`: un oggetto [S3 CatalogTarget](#aws-glue-api-visual-job-api-S3CatalogTarget).

  Speciifica un target di dati che scrive su Amazon S3 utilizzando AWS Glue il Data Catalog.
+ `S3GlueParquetTarget`: un oggetto [S3 GlueParquetTarget](#aws-glue-api-visual-job-api-S3GlueParquetTarget).

  Specifica una destinazioni di dati che scrive su Amazon S3 nell'archiviazione a colonne di Apache Parquet.
+ `S3DirectTarget`: un oggetto [S3 DirectTarget](#aws-glue-api-visual-job-api-S3DirectTarget).

  Specifica una destinazione di dati che scrive su Amazon S3.
+ `ApplyMapping`: un oggetto [ApplyMapping](#aws-glue-api-visual-job-api-ApplyMapping).

  Specifica una trasformazione che mappa le chiavi delle proprietà dei dati nell'origine dei dati alle chiavi delle proprietà dei dati nella destinazione. È possibile rinominare le chiavi, modificare i tipi di dati per le chiavi e scegliere le chiavi da eliminare dal set di dati.
+ `SelectFields`: un oggetto [SelectFields](#aws-glue-api-visual-job-api-SelectFields).

  Specifica una trasformazione che sceglie le chiavi della proprietà dati che si desidera conservare.
+ `DropFields`: un oggetto [DropFields](#aws-glue-api-visual-job-api-DropFields).

  Specifica una trasformazione che sceglie le chiavi della proprietà dati che si desidera eliminare.
+ `RenameField`: un oggetto [RenameField](#aws-glue-api-visual-job-api-RenameField).

  Specifica una trasformazione che rinominerà una singola chiave di proprietà dati.
+ `Spigot`: un oggetto [Spigot](#aws-glue-api-visual-job-api-Spigot).

  Specifica una trasformazione che scrive campioni dei dati in un bucket Amazon S3.
+ `Join`: un oggetto [Join](#aws-glue-api-visual-job-api-Join).

  Specifica una trasformazione che unisce due set di dati in un unico set di dati utilizzando una frase di confronto sulle chiavi di proprietà dei dati specificate. È possibile utilizzare inner, outer, left, right, left semi e left anti join.
+ `SplitFields`: un oggetto [SplitFields](#aws-glue-api-visual-job-api-SplitFields).

  Specifica una trasformazione che divide le chiavi della proprietà dati in due `DynamicFrames`. L'output è una raccolta di `DynamicFrames`: uno con le chiavi di proprietà dei dati selezionate e uno con le chiavi di proprietà dei dati rimanenti.
+ `SelectFromCollection`: un oggetto [SelectFromCollection](#aws-glue-api-visual-job-api-SelectFromCollection).

  Specifica una trasformazione che sceglie un `DynamicFrame` da una raccolta di `DynamicFrames`. L'output è il `DynamicFrame` selezionato
+ `FillMissingValues`: un oggetto [FillMissingValues](#aws-glue-api-visual-job-api-FillMissingValues).

  Specifica una trasformazione che individua i registri nel set di dati che hanno valori mancanti e aggiunge un nuovo campo con un valore determinato dall'imputazione. Il set di dati di input viene utilizzato per addestrare il modello di machine learning che determina quale dovrebbe essere il valore mancante.
+ `Filter`: un oggetto [Filtro](#aws-glue-api-visual-job-api-Filter).

  Specifica una trasformazione che divide un set di dati in due, in base a una condizione di filtro.
+ `CustomCode`: un oggetto [CustomCode](#aws-glue-api-visual-job-api-CustomCode).

  Specifica una trasformazione che utilizza il codice personalizzato fornito per eseguire la trasformazione dei dati. L'output è una raccolta di. DynamicFrames
+ `SparkSQL`: un oggetto [SparkSQL](#aws-glue-api-visual-job-api-SparkSQL).

  Specifica una trasformazione in cui si inserisce una query SQL utilizzando la sintassi Spark SQL per trasformare i dati. L'output è un singolo `DynamicFrame`.
+ `DirectKinesisSource`: un oggetto [DirectKinesisSource](#aws-glue-api-visual-job-api-DirectKinesisSource).

  Specifica un'origine dati Amazon Kinesis diretta.
+ `DirectKafkaSource`: un oggetto [DirectKafkaSource](#aws-glue-api-visual-job-api-DirectKafkaSource).

  Specifica un archivio dati Apache Kafka.
+ `CatalogKinesisSource`: un oggetto [CatalogKinesisSource](#aws-glue-api-visual-job-api-CatalogKinesisSource).

  Specifica un'origine dati Kinesis nel Data Catalog AWS Glue .
+ `CatalogKafkaSource`: un oggetto [CatalogKafkaSource](#aws-glue-api-visual-job-api-CatalogKafkaSource).

  Specifica un archivio dati Apache Kafka nel catalogo dati.
+ `DropNullFields`: un oggetto [DropNullFields](#aws-glue-api-visual-job-api-DropNullFields).

  Specifica una trasformazione che rimuove le colonne dal set di dati se tutti i valori nella colonna sono “null”. Per impostazione predefinita, AWS Glue Studio riconosce gli oggetti nulli, ma alcuni valori come stringhe vuote, stringhe «nulle», numeri interi -1 o altri segnaposto come gli zeri, non vengono riconosciuti automaticamente come nulli.
+ `Merge`: un oggetto [Unione](#aws-glue-api-visual-job-api-Merge).

  Specifica una trasformazione che unisce `DynamicFrame` a con un `DynamicFrame` di staging basato sulle chiavi primarie specificate per identificare i registri. I registri duplicati (registri con le stesse chiavi primarie) non vengono deduplicati. 
+ `Union`: un oggetto [Union](#aws-glue-api-visual-job-api-Union).

  Specifica una trasformazione che combina le righe di due o più set di dati in un unico risultato.
+ `PIIDetection`: un oggetto [PIIDetection](#aws-glue-api-visual-job-api-PIIDetection).

  Specifica una trasformazione che identifica, rimuove o maschera i dati PII.
+ `Aggregate`: un oggetto [Aggregazione](#aws-glue-api-visual-job-api-Aggregate).

  Specifica una trasformazione che raggruppa le righe in base ai campi scelti e calcola il valore aggregato in base alla funzione specificata.
+ `DropDuplicates`: un oggetto [DropDuplicates](#aws-glue-api-visual-job-api-DropDuplicates).

  Specifica una trasformazione che rimuove le righe di dati ripetuti da un set di dati.
+ `GovernedCatalogTarget`: un oggetto [GovernedCatalogTarget](#aws-glue-api-visual-job-api-GovernedCatalogTarget).

  Specifica una destinazione di dati che scrive su un catalogo governato.
+ `GovernedCatalogSource`: un oggetto [GovernedCatalogSource](#aws-glue-api-visual-job-api-GovernedCatalogSource).

  Specifica un'origine dei dati in un catalogo dati governato.
+ `MicrosoftSQLServerCatalogSource`: un oggetto [Microsoft SQLServer CatalogSource](#aws-glue-api-visual-job-api-MicrosoftSQLServerCatalogSource).

  Specifica un'origine dei dati di Microsoft SQL Server nel Catalogo dati di AWS Glue .
+ `MySQLCatalogSource`: un oggetto [La mia SQLCatalog fonte](#aws-glue-api-visual-job-api-MySQLCatalogSource).

  Specifica un'origine dati MySQL nel Data Catalog. AWS Glue 
+ `OracleSQLCatalogSource`: un oggetto [SQLCatalogFonte Oracle](#aws-glue-api-visual-job-api-OracleSQLCatalogSource).

  Specifica un'origine dati Oracle nel Data Catalog. AWS Glue 
+ `PostgreSQLCatalogSource`: un oggetto [Fonte Postgre SQLCatalog](#aws-glue-api-visual-job-api-PostgreSQLCatalogSource).

  Specifica un'origine dati PostgressQL nel Data Catalog. AWS Glue 
+ `MicrosoftSQLServerCatalogTarget`: un oggetto [Microsoft SQLServer CatalogTarget](#aws-glue-api-visual-job-api-MicrosoftSQLServerCatalogTarget).

  Specifica una destinazione che utilizza Microsoft SQL.
+ `MySQLCatalogTarget`: un oggetto [Il mio SQLCatalog obiettivo](#aws-glue-api-visual-job-api-MySQLCatalogTarget).

  Specifica una destinazione che utilizza MySQL.
+ `OracleSQLCatalogTarget`: un oggetto [Oracle SQLCatalog Target](#aws-glue-api-visual-job-api-OracleSQLCatalogTarget).

  Specifica una destinazione che utilizza Oracle SQL.
+ `PostgreSQLCatalogTarget`: un oggetto [Postgre Target SQLCatalog](#aws-glue-api-visual-job-api-PostgreSQLCatalogTarget).

  Specifica una destinazione che utilizza Postgres SQL.
+ `Route`: un oggetto [Route](#aws-glue-api-visual-job-api-Route).

  Specifica un nodo di routing che indirizza i dati verso diversi percorsi di output in base a condizioni di filtraggio definite.
+ `DynamicTransform`: un oggetto [DynamicTransform](#aws-glue-api-visual-job-api-DynamicTransform).

  Specifica una trasformazione visiva personalizzata creata da un utente.
+ `EvaluateDataQuality`: un oggetto [EvaluateDataQuality](#aws-glue-api-visual-job-api-EvaluateDataQuality).

  Specifica i criteri di valutazione della qualità dei dati.
+ `S3CatalogHudiSource`: un oggetto [S3 CatalogHudiSource](#aws-glue-api-visual-job-api-S3CatalogHudiSource).

  Specifica un'origine dati Hudi registrata nel Data Catalog. AWS Glue L'origine dati deve essere archiviata in. Amazon S3
+ `CatalogHudiSource`: un oggetto [CatalogHudiSource](#aws-glue-api-visual-job-api-CatalogHudiSource).

  Specifica una fonte di dati Hudi registrata nel AWS Glue Data Catalog.
+ `S3HudiSource`: un oggetto [S3 HudiSource](#aws-glue-api-visual-job-api-S3HudiSource).

  Specifica un'origine dati Hudi memorizzata in. Amazon S3
+ `S3HudiCatalogTarget`: un oggetto [S3 HudiCatalogTarget](#aws-glue-api-visual-job-api-S3HudiCatalogTarget).

  Specifica una destinazione che scrive su un'origine dati Hudi nel Data Catalog. AWS Glue 
+ `S3HudiDirectTarget`: un oggetto [S3 HudiDirectTarget](#aws-glue-api-visual-job-api-S3HudiDirectTarget).

  Specifica una destinazione che scrive su una fonte di dati Hudi in. Amazon S3
+ `S3CatalogDeltaSource`: un oggetto [S3 CatalogDeltaSource](#aws-glue-api-visual-job-api-S3CatalogDeltaSource).

  Specifica un'origine dati Delta Lake registrata nel Data Catalog. AWS Glue L'origine dati deve essere archiviata in Amazon S3.
+ `CatalogDeltaSource`: un oggetto [CatalogDeltaSource](#aws-glue-api-visual-job-api-CatalogDeltaSource).

  Specifica un'origine dati Delta Lake registrata nel AWS Glue Data Catalog.
+ `S3DeltaSource`: un oggetto [S3 DeltaSource](#aws-glue-api-visual-job-api-S3DeltaSource).

  Specifica un'origine dati Delta Lake memorizzata in. Amazon S3
+ `S3DeltaCatalogTarget`: un oggetto [S3 DeltaCatalogTarget](#aws-glue-api-visual-job-api-S3DeltaCatalogTarget).

  Speciifica una destinazione che scrive su un'origine dati Delta Lake nel AWS Glue Data Catalog.
+ `S3DeltaDirectTarget`: un oggetto [S3 DeltaDirectTarget](#aws-glue-api-visual-job-api-S3DeltaDirectTarget).

  Specifica una destinazione che esegue la scrittura su un'origine dati Delta Lake in. Amazon S3
+ `AmazonRedshiftSource`: un oggetto [AmazonRedshiftSource](#aws-glue-api-visual-job-api-AmazonRedshiftSource).

  Specifica una destinazione che scrive su un'origine dati in Amazon Redshift.
+ `AmazonRedshiftTarget`: un oggetto [AmazonRedshiftTarget](#aws-glue-api-visual-job-api-AmazonRedshiftTarget).

  Specifica una destinazione che scrive su una destinazione dati in Amazon Redshift.
+ `EvaluateDataQualityMultiFrame`: un oggetto [EvaluateDataQualityMultiFrame](#aws-glue-api-visual-job-api-EvaluateDataQualityMultiFrame).

  Specifica i criteri di valutazione della qualità dei dati. Consente più dati di input e restituisce una raccolta di frame dinamici.
+ `Recipe`: un oggetto [Recipe](#aws-glue-api-visual-job-api-Recipe).

  Specifica un nodo di AWS Glue DataBrew ricetta.
+ `SnowflakeSource`: un oggetto [SnowflakeSource](#aws-glue-api-visual-job-api-SnowflakeSource).

  Specifica un'origine dati Snowflake.
+ `SnowflakeTarget`: un oggetto [SnowflakeTarget](#aws-glue-api-visual-job-api-SnowflakeTarget).

  Specifica una destinazione che scrive su un'origine dati Snowflake.
+ `ConnectorDataSource`: un oggetto [ConnectorDataSource](#aws-glue-api-visual-job-api-ConnectorDataSource).

  Specifica un'origine generata con opzioni di connessione standard.
+ `ConnectorDataTarget`: un oggetto [ConnectorDataTarget](#aws-glue-api-visual-job-api-ConnectorDataTarget).

  Specifica un a destinazione generata con opzioni di connessione standard.
+ `S3CatalogIcebergSource`: un oggetto [S3 CatalogIcebergSource](#aws-glue-api-visual-job-api-S3CatalogIcebergSource).

  Specifica un'origine dati Apache Iceberg registrata nel Data Catalog. AWS Glue L'origine dati Iceberg deve essere archiviata in. Amazon S3
+ `CatalogIcebergSource`: un oggetto [CatalogIcebergSource](#aws-glue-api-visual-job-api-CatalogIcebergSource).

  Speciifica un'origine dati Apache Iceberg registrata nel Data Catalog. AWS Glue 
+ `S3IcebergCatalogTarget`: un oggetto [S3 IcebergCatalogTarget](#aws-glue-api-visual-job-api-S3IcebergCatalogTarget).

  Specifica una destinazione del catalogo Apache Iceberg che scrive dati Amazon S3 e registra la tabella nel Data Catalog. AWS Glue 
+ `S3IcebergDirectTarget`: un oggetto [S3 IcebergDirectTarget](#aws-glue-api-visual-job-api-S3IcebergDirectTarget).

  Definisce i parametri di configurazione per la scrittura dei dati in Amazon S3 come tabella Apache Iceberg.
+ `S3ExcelSource`: un oggetto [S3 ExcelSource](#aws-glue-api-visual-job-api-S3ExcelSource).

  Definisce i parametri di configurazione per la lettura dei file Excel da Amazon S3.
+ `S3HyperDirectTarget`: un oggetto [S3 HyperDirectTarget](#aws-glue-api-visual-job-api-S3HyperDirectTarget).

  Definisce i parametri di configurazione per la scrittura di dati su Amazon S3 utilizzando l' HyperDirect ottimizzazione.
+ `DynamoDBELTConnectorSource`: un oggetto [Sorgente Dynamo DBELTConnector](#aws-glue-api-visual-job-api-DynamoDBELTConnectorSource).

  Specifica un connettore ELT DynamoDB di origine per l'estrazione dei dati dalle tabelle DynamoDB.

## JDBCConnectorStruttura delle opzioni
JDBCConnectorOpzioni

Opzioni di connessione aggiuntive per il connettore.

**Campi**
+ `FilterPredicate`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Clausola condizione extra per filtrare i dati dall'origine. Ad esempio:

  `BillingCity='Mountain View'`

  Quando si utilizza una query anziché un nome di tabella, è necessario verificare che la query funzioni con il `filterPredicate` specificato.
+ `PartitionColumn`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome di una colonna intera utilizzata per il partizionamento. Questa opzione funziona solo quando è inclusa con `lowerBound`, `upperBound` e `numPartitions`. Questa opzione funziona allo stesso modo del lettore Spark SQL JDBC.
+ `LowerBound`: numero (long), non superiore a Nessuno.

  Il valore minimo di `partitionColumn` che viene utilizzato per decidere lo stride della partizione.
+ `UpperBound`: numero (long), non superiore a Nessuno.

  Il valore massimo di `partitionColumn` che viene utilizzato per decidere lo stride della partizione.
+ `NumPartitions`: numero (long), non superiore a Nessuno.

  Il numero di partizioni. Questo valore, insieme a `lowerBound` (incluso) e `upperBound` (escluso), forma stride di partizione per espressioni con le clausole `WHERE` generate che vengono utilizzate per dividere la `partitionColumn`.
+ `JobBookmarkKeys`: una matrice di stringhe UTF-8.

  Il nome delle chiavi dei segnalibri di processo su cui eseguire l'ordinamento.
+ `JobBookmarkKeysSortOrder`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il criterio di ordinamento crescente o decrescente.
+ `DataTypeMapping`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 (valori validi:`ARRAY` \$1 `BIGINT` \$1 `BINARY` \$1 `BIT` \$1 `BLOB` \$1 `BOOLEAN` \$1 `CHAR` \$1 `CLOB` \$1 `DATALINK` \$1 `DATE` \$1 `DECIMAL` \$1 `DISTINCT` \$1 `DOUBLE` \$1 `FLOAT` \$1 `INTEGER` \$1 `JAVA_OBJECT` \$1 `LONGNVARCHAR` \$1 `LONGVARBINARY` \$1 `LONGVARCHAR` \$1 `NCHAR` \$1 `NCLOB` \$1 `NULL` \$1 `NUMERIC` \$1 `NVARCHAR` \$1 `OTHER` \$1 `REAL` \$1 `REF` \$1 `REF_CURSOR` \$1 `ROWID` \$1 `SMALLINT` \$1 `SQLXML` \$1 `STRUCT` \$1 `TIME` \$1 `TIME_WITH_TIMEZONE` \$1 `TIMESTAMP` \$1 `TIMESTAMP_WITH_TIMEZONE` \$1 `TINYINT` \$1 `VARBINARY` \$1 `VARCHAR`).

  Ogni valore è una stringa UTF-8 (valori validi: `DATE` \$1 `STRING` \$1 `TIMESTAMP` \$1 `INT` \$1 `FLOAT` \$1 `LONG` \$1 `BIGDECIMAL` \$1 `BYTE` \$1 `SHORT` \$1 `DOUBLE`).

  Mappatura del tipo di dati personalizzata che crea una mappatura da un tipo di dati JDBC a un tipo di dati AWS Glue . Ad esempio, l'opzione `"dataTypeMapping":{"FLOAT":"STRING"}` mappa i campi di dati di tipo JDBC `FLOAT` nel `String` tipo Java chiamando il `ResultSet.getString()` metodo del driver e lo utilizza per creare il AWS Glue record. L'oggetto `ResultSet` viene implementato da ciascun driver, quindi il comportamento è specifico del driver utilizzato. Consulta la documentazione relativa al driver JDBC per capire come il driver esegue le conversioni.

## StreamingDataPreviewOptions struttura
StreamingDataPreviewOptions

Specifica le opzioni relative all'anteprima dei dati per la visualizzazione di un campione dei dati.

**Campi**
+ `PollingTime`: numero (lungo), almeno 10.

  Il tempo di polling in millisecondi.
+ `RecordPollingLimit`: numero (lungo), almeno 1.

  Il limite al numero di registri per cui è stato fatto il polling.

## AthenaConnectorSource struttura
AthenaConnectorSource

Specifica un connettore per un'origine dati Amazon Athena.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `ConnectionName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della connessione associata al connettore.
+ `ConnectorName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome di un connettore che consente di accedere all'archivio dati in AWS Glue Studio.
+ `ConnectionType` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il tipo di connessione, come marketplace.athena o custom.athena, che designa una connessione a un archivio dati Amazon Athena.
+ `ConnectionTable`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nell'origine dati.
+ `SchemaName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del gruppo di log CloudWatch da cui leggere. Ad esempio, `/aws-glue/jobs/output`.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Athena personalizzata.

## JDBCConnectorStruttura del codice sorgente
JDBCConnectorFonte

Specifica un connettore per un'origine dati JDBC.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `ConnectionName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della connessione associata al connettore.
+ `ConnectorName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome di un connettore che consente di accedere all'archivio dati in AWS Glue Studio.
+ `ConnectionType` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il tipo di connessione, come marketplace.jdbc o custom.jdbc, che designa una connessione a un archivio dati JDBC.
+ `AdditionalOptions`: un oggetto [JDBCConnectorOpzioni](#aws-glue-api-visual-job-api-JDBCConnectorOptions).

  Opzioni di connessione aggiuntive per il connettore.
+ `ConnectionTable`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nell'origine dati.
+ `Query`: stringa UTF-8, corrispondente a [Custom string pattern #62](aws-glue-api-common.md#regex_62).

  La tabella o la query SQL da cui ottenere i dati. Puoi specificare `ConnectionTable` o `query`, ma non entrambi.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine JDBC personalizzata.

## SparkConnectorSource struttura
SparkConnectorSource

Specifica un connettore per un'origine dati Apache Spark.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `ConnectionName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della connessione associata al connettore.
+ `ConnectorName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome di un connettore che consente di accedere all'archivio dati in AWS Glue Studio.
+ `ConnectionType` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il tipo di connessione, come marketplace.spark o custom.spark, che designa una connessione a un archivio dati di Apache Spark.
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Opzioni di connessione aggiuntive per il connettore.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Spark personalizzata.

## CatalogSource struttura
CatalogSource

Speciifica un data store nel AWS Glue Data Catalog.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del archivio dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `PartitionPredicate`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

   Le partizioni che soddisfano questo predicato vengono eliminate. I file all'interno del periodo di conservazione in queste partizioni non vengono eliminati. 
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine del catalogo.

## Struttura My SQLCatalog Source
La mia SQLCatalog fonte

Specifica un'origine dati MySQL nel Data Catalog. AWS Glue 

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.

## Struttura di Postgree Source SQLCatalog
Fonte Postgre SQLCatalog

Specifica un'origine dati PostgressQL nel Data Catalog. AWS Glue 

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.

## Struttura SQLCatalog Oracle Source
SQLCatalogFonte Oracle

Speciifica un'origine dati Oracle nel AWS Glue Data Catalog.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.

## SQLServerCatalogSource Struttura Microsoft
Microsoft SQLServer CatalogSource

Specifica un'origine dei dati di Microsoft SQL Server nel Catalogo dati di AWS Glue .

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.

## CatalogKinesisSource struttura
CatalogKinesisSource

Specifica un'origine dati Kinesis nel Data Catalog AWS Glue .

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `WindowSize`: numero (intero), non superiore a Nessuno.

  La quantità di tempo da dedicare all'elaborazione di ciascun micro batch.
+ `DetectSchema`: booleano.

  Se determinare automaticamente o meno lo schema dai dati in entrata.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `StreamingOptions`: un oggetto [KinesisStreamingSourceOptions](#aws-glue-api-visual-job-api-KinesisStreamingSourceOptions).

  Opzioni aggiuntive per l'origine dati di streaming Kinesis.
+ `DataPreviewOptions`: un oggetto [StreamingDataPreviewOptions](#aws-glue-api-visual-job-api-StreamingDataPreviewOptions).

  Opzioni aggiuntive per l'anteprima dei dati.

## DirectKinesisSource struttura
DirectKinesisSource

Specifica un'origine dati Amazon Kinesis diretta.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `WindowSize`: numero (intero), non superiore a Nessuno.

  La quantità di tempo da dedicare all'elaborazione di ciascun micro batch.
+ `DetectSchema`: booleano.

  Se determinare automaticamente o meno lo schema dai dati in entrata.
+ `StreamingOptions`: un oggetto [KinesisStreamingSourceOptions](#aws-glue-api-visual-job-api-KinesisStreamingSourceOptions).

  Opzioni aggiuntive per l'origine dati di streaming Kinesis.
+ `DataPreviewOptions`: un oggetto [StreamingDataPreviewOptions](#aws-glue-api-visual-job-api-StreamingDataPreviewOptions).

  Opzioni aggiuntive per l'anteprima dei dati.

## KinesisStreamingSourceOptions struttura
KinesisStreamingSourceOptions

Opzioni aggiuntive per l'origine dati di streaming Amazon Kinesis.

**Campi**
+ `EndpointUrl`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  L'URL dell'endpoint di Kinesis.
+ `StreamName`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del flusso di dati Kinesis.
+ `Classification`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Una classificazione facoltativa.
+ `Delimiter`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il carattere delimitatore.
+ `StartingPosition`: stringa UTF-8 (valori validi: `latest="LATEST"` \$1 `trim_horizon="TRIM_HORIZON"` \$1 `earliest="EARLIEST"` \$1 `timestamp="TIMESTAMP"`).

  La posizione di partenza nel flusso dei dati Kinesis da cui leggere i dati. I valori possibili sono `"latest"`, `"trim_horizon"`, `"earliest"` o una stringa di timestamp in formato UTC con il modello `yyyy-mm-ddTHH:MM:SSZ` (dove `Z` rappresenta uno scostamento del fuso orario UTC con un segno \$1/-. Ad esempio: “2023-04-04T08:00:00-04:00”). Il valore predefinito è `"latest"`.

  Nota: l'utilizzo di un valore che è una stringa di timestamp in formato UTC per «startingPosition» è supportato solo per AWS Glue la versione 4.0 o successiva.
+ `MaxFetchTimeInMs`: numero (long), non superiore a Nessuno.

  Il tempo massimo impiegato affinché l'esecutore del processo legga i record della batch attuale dal flusso di dati Kinesis, specificato in millisecondi (ms). Entro questo periodo è possibile effettuate più chiamate API `GetRecords`. Il valore di default è `1000`.
+ `MaxFetchRecordsPerShard`: numero (long), non superiore a Nessuno.

  Il numero massimo di record da recuperare per shard nel flusso di dati Kinesis per microbatch. Nota: il client può superare questo limite se il processo di streaming ha già letto i record aggiuntivi da Kinesis (nella stessa chiamata get-records). Se `MaxFetchRecordsPerShard` deve essere rigoroso, allora deve essere un multiplo di `MaxRecordPerRead`. Il valore di default è `100000`.
+ `MaxRecordPerRead`: numero (long), non superiore a Nessuno.

  Il numero massimo di registri da recuperare nel flusso dei dati Kinesis in ciascuna operazione getRecords. Il valore predefinito è `10000`.
+ `AddIdleTimeBetweenReads`: booleano.

  Aggiunge un ritardo tra due operazioni consecutive getRecords. Il valore predefinito è `"False"`. Questa opzione è configurabile solo per AWS Glue versione 2.0 e successive.
+ `IdleTimeBetweenReadsInMs`: numero (long), non superiore a Nessuno.

  Il ritardo minimo tra due operazioni consecutive getRecords, specificato in ms. Il valore predefinito è `1000`. Questa opzione è configurabile solo per la versione 2.0 e successive. AWS Glue 
+ `DescribeShardInterval`: numero (long), non superiore a Nessuno.

  L'intervallo di tempo minimo tra due chiamate ListShards API entro il quale lo script deve prendere in considerazione il resharding. Il valore predefinito è `1s`.
+ `NumRetries`: numero (intero), non superiore a Nessuno.

  Il numero massimo di tentativi per le richieste API Kinesis Data Streams. Il valore di default è `3`.
+ `RetryIntervalMs`: numero (long), non superiore a Nessuno.

  Il periodo di raffreddamento (specificato in ms) prima di riprovare la chiamata API Kinesis Data Streams. Il valore di default è `1000`.
+ `MaxRetryIntervalMs`: numero (long), non superiore a Nessuno.

  Il periodo di raffreddamento (specificato in ms) tra due tentativi di chiamata API Kinesis Data Streams. Il valore predefinito è `10000`.
+ `AvoidEmptyBatches`: booleano.

  Impedisce la creazione di un processo microbatch vuoto controllando la presenza di dati non letti nel flusso dei dati Kinesis prima che il batch venga avviato. Il valore predefinito è `"False"`.
+ `StreamArn`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della risorsa Amazon (ARN) del flusso di dati Kinesis.
+ `RoleArn`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della risorsa Amazon (ARN) del ruolo da assumere tramite il Servizio di token di sicurezza AWS (AWS STS). Questo ruolo deve disporre delle autorizzazioni per descrivere o leggere le operazioni dei registri per il flusso di dati Kinesis. Quando si accede a un flusso di dati in un altro account, è necessario utilizzare questo parametro. Usato in combinazione con `"awsSTSSessionName"`.
+ `RoleSessionName`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un identificatore della sessione che assume il ruolo tramite AWS STS. Quando si accede a un flusso di dati in un altro account, è necessario utilizzare questo parametro. Usato in combinazione con `"awsSTSRoleARN"`.
+ `AddRecordTimestamp`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Quando questa opzione è impostata su "true", l'output dei dati conterrà una colonna aggiuntiva denominata "\$1\$1src\$1timestamp" che indica l'ora in cui il record corrispondente è stato ricevuto dal flusso. Il valore predefinito è "false". Questa opzione è supportata nella AWS Glue versione 4.0 o successiva.
+ `EmitConsumerLagMetrics`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Quando questa opzione è impostata su «true», per ogni batch emette le metriche relative alla durata compresa tra il record più vecchio ricevuto dallo stream e il momento in AWS Glue cui arriva. CloudWatch Il nome della metrica è «glue.driver.streaming. maxConsumerLagInMs». Il valore predefinito è "false". Questa opzione è supportata in AWS Glue versione 4.0 o successive.
+ `StartingTimestamp`: stringa UTF-8.

  Il timestamp del record nel flusso di dati Kinesis da cui iniziare la lettura dei dati. I valori possibili sono una stringa di timestamp in formato UTC del modello `yyyy-mm-ddTHH:MM:SSZ`, dove Z rappresenta uno scostamento del fuso orario UTC con un segno \$1/- (ad esempio: "2023-04-04T 08:00:00\$108:00"). 
+ `FanoutConsumerARN`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della risorsa Amazon (ARN) del consumatore con fan-out avanzato del flusso di dati Kinesis. Quando è specificato, abilita il fan-out avanzato per un throughput dedicato e un consumo di dati a latenza inferiore.

## CatalogKafkaSource struttura
CatalogKafkaSource

Specifica un archivio dati Apache Kafka nel catalogo dati.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del archivio dati.
+ `WindowSize`: numero (intero), non superiore a Nessuno.

  La quantità di tempo da dedicare all'elaborazione di ciascun micro batch.
+ `DetectSchema`: booleano.

  Se determinare automaticamente o meno lo schema dai dati in entrata.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `StreamingOptions`: un oggetto [KafkaStreamingSourceOptions](#aws-glue-api-visual-job-api-KafkaStreamingSourceOptions).

  Specifica le opzioni di streaming.
+ `DataPreviewOptions`: un oggetto [StreamingDataPreviewOptions](#aws-glue-api-visual-job-api-StreamingDataPreviewOptions).

  Specifica le opzioni relative all'anteprima dei dati per la visualizzazione di un campione dei dati.

## DirectKafkaSource struttura
DirectKafkaSource

Specifica un archivio dati Apache Kafka.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del archivio dati.
+ `StreamingOptions`: un oggetto [KafkaStreamingSourceOptions](#aws-glue-api-visual-job-api-KafkaStreamingSourceOptions).

  Specifica le opzioni di streaming.
+ `WindowSize`: numero (intero), non superiore a Nessuno.

  La quantità di tempo da dedicare all'elaborazione di ciascun micro batch.
+ `DetectSchema`: booleano.

  Se determinare automaticamente o meno lo schema dai dati in entrata.
+ `DataPreviewOptions`: un oggetto [StreamingDataPreviewOptions](#aws-glue-api-visual-job-api-StreamingDataPreviewOptions).

  Specifica le opzioni relative all'anteprima dei dati per la visualizzazione di un campione dei dati.

## KafkaStreamingSourceOptions struttura
KafkaStreamingSourceOptions

Opzioni aggiuntive per lo streaming.

**Campi**
+ `BootstrapServers`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un elenco di server di bootstrap URLs, ad esempio, come`b-1.vpc-test-2.o4q88o.c6.kafka.us-east-1.amazonaws.com:9094`. Questa opzione deve essere specificata nella chiamata API o definita nei metadati della tabella in catalogo dati.
+ `SecurityProtocol`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il protocollo utilizzato per comunicare con i broker. I valori possibili sono `"SSL"` o `"PLAINTEXT"`.
+ `ConnectionName`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della connessione.
+ `TopicName`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome dell'argomento come specificato in Apache Kafka. Devi specificare almeno uno tra `"topicName"`, `"assign"` o `"subscribePattern"`.
+ `Assign`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Lo specifico `TopicPartitions` per consumare. Devi specificare almeno uno tra `"topicName"`, `"assign"` o `"subscribePattern"`.
+ `SubscribePattern`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Uuna stringa regex Java che identifichi l'elenco degli argomenti a cui effettuare la sottoscrizione. Devi specificare almeno uno tra `"topicName"`, `"assign"` o `"subscribePattern"`.
+ `Classification`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Una classificazione facoltativa.
+ `Delimiter`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il carattere delimitatore.
+ `StartingOffsets`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La posizione di partenza nell'argomento Kafka da cui leggere i dati. I valori possibili sono `"earliest"` o `"latest"`. Il valore predefinito è `"latest"`.
+ `EndingOffsets`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  L'endpoint al quale viene terminata una query batch. I valori possibili sono `"latest"` o una stringa JSON che specifica un offset finale per ogni `TopicPartition`.
+ `PollTimeoutMs`: numero (long), non superiore a Nessuno.

  Il timeout in millisecondi per il polling dei dati da Kafka negli esecutori del processo Spark. Il valore predefinito è `512`.
+ `NumRetries`: numero (intero), non superiore a Nessuno.

  Il numero di tentativi prima di non riuscire a recuperare gli offset Kafka. Il valore di default è `3`.
+ `RetryIntervalMs`: numero (long), non superiore a Nessuno.

  Il tempo di attesa in millisecondi prima di riprovare a recuperare gli offset Kafka. Il valore di default è `10`.
+ `MaxOffsetsPerTrigger`: numero (long), non superiore a Nessuno.

  Il limite di velocità sul numero massimo di offset elaborati per intervallo di attivazione. Il numero totale di offset specificato viene suddiviso proporzionalmente tra `topicPartitions` di diversi volumi. Il valore di default è null, il che significa che il consumer legge tutti gli offset fino all'ultimo offset noto.
+ `MinPartitions`: numero (intero), non superiore a Nessuno.

  Il numero minimo desiderato di partizioni da leggere da Kafka. Il valore di default è null, il che significa che il numero di partizioni Spark è uguale al numero di partizioni Kafka.
+ `IncludeHeaders`: booleano.

  Se includere le intestazioni di Kafka. Quando l'opzione è impostata su "true", l'output dei dati conterrà una colonna aggiuntiva denominata "glue\$1streaming\$1kafka\$1headers" con tipo `Array[Struct(key: String, value: String)]`. Il valore di default è "false". Questa opzione è disponibile solo nella AWS Glue versione 3.0 o successiva.
+ `AddRecordTimestamp`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Quando questa opzione è impostata su "true", l'output dei dati conterrà una colonna aggiuntiva denominata "\$1\$1src\$1timestamp" che indica l'ora in cui il record corrispondente è stato ricevuto dall'argomento. Il valore predefinito è "false". Questa opzione è supportata nella AWS Glue versione 4.0 o successiva.
+ `EmitConsumerLagMetrics`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Quando questa opzione è impostata su «true», per ogni batch emette le metriche relative alla durata compresa tra il record più vecchio ricevuto dall'argomento e il momento in AWS Glue cui arriva. CloudWatch Il nome della metrica è «glue.driver.streaming. maxConsumerLagInMs». Il valore predefinito è "false". Questa opzione è supportata in AWS Glue versione 4.0 o successive.
+ `StartingTimestamp`: stringa UTF-8.

  Il timestamp del record nell'argomento Kinesis da cui iniziare la lettura dei dati. I valori possibili sono una stringa di timestamp in formato UTC del modello `yyyy-mm-ddTHH:MM:SSZ`, dove Z rappresenta uno scostamento del fuso orario UTC con un segno \$1/- (ad esempio: "2023-04-04T 08:00:00\$108:00"). 

  Deve essere impostato solo un valore tra `StartingTimestamp` e `StartingOffsets`.

## RedshiftSource struttura
RedshiftSource

Specifica un archivio dati Amazon Redshift.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'archivio dati Amazon Redshift.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La tabella del database da cui leggere.
+ `RedshiftTmpDir`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il percorso Amazon S3 in cui i dati temporanei possono essere caricati durante la copia dal database.
+ `TmpDirIAMRole`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il ruolo IAM con autorizzazioni.

## AmazonRedshiftSource struttura
AmazonRedshiftSource

Il nome della connessione è l'origine Amazon Redshift.

**Campi**
+ `Name`: stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine Amazon Redshift.
+ `Data`: un oggetto [AmazonRedshiftNodeData](#aws-glue-api-visual-job-api-AmazonRedshiftNodeData).

  Specifica i dati del nodo di origine Amazon Redshift.

## AmazonRedshiftNodeData struttura
AmazonRedshiftNodeData

Specifica un nodo Amazon Redshift.

**Campi**
+ `AccessType`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Il tipo di accesso per la connessione Redshift. Può essere una connessione diretta o una al catalogo.
+ `SourceType`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Il tipo di origine per specificare se una tabella specifica è l'origine o una query personalizzata.
+ `Connection`: un oggetto [Opzione](#aws-glue-api-visual-job-api-Option).

  La AWS Glue connessione al cluster Redshift.
+ `Schema`: un oggetto [Opzione](#aws-glue-api-visual-job-api-Option).

  Il nome dello schema Redshift quando si lavora con una connessione diretta.
+ `Table`: un oggetto [Opzione](#aws-glue-api-visual-job-api-Option).

  Il nome della tabella Redshift quando si lavora con una connessione diretta.
+ `CatalogDatabase`: un oggetto [Opzione](#aws-glue-api-visual-job-api-Option).

  Il nome del database AWS Glue Data Catalog quando si lavora con un catalogo di dati.
+ `CatalogTable`: un oggetto [Opzione](#aws-glue-api-visual-job-api-Option).

  Il nome della tabella AWS Glue Data Catalog quando si lavora con un catalogo di dati.
+ `CatalogRedshiftSchema`: stringa UTF-8.

  Il nome dello schema Redshift quando si lavora con un catalogo dati.
+ `CatalogRedshiftTable`: stringa UTF-8.

  La tabella del database da cui leggere.
+ `TempDir`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il percorso Amazon S3 in cui i dati temporanei possono essere caricati durante la copia dal database.
+ `IamRole`: un oggetto [Opzione](#aws-glue-api-visual-job-api-Option).

  Opzionale. Il nome del ruolo utilizzato durante la connessione a S3. Se lasciato vuoto, il ruolo IAM assumerà per impostazione predefinita il ruolo nel processo.
+ `AdvancedOptions`: una matrice di oggetti [AmazonRedshiftAdvancedOption](#aws-glue-api-visual-job-api-AmazonRedshiftAdvancedOption).

  Valori facoltativi durante la connessione al cluster Redshift.
+ `SampleQuery`: stringa UTF-8.

  L'SQL utilizzato per recuperare i dati da una fonte Redshift quando SourceType è 'query'.
+ `PreAction`: stringa UTF-8.

  L'SQL utilizzato prima di un'esecuzione di MERGE o APPEND con upsert.
+ `PostAction`: stringa UTF-8.

  L'SQL utilizzato prima di un'esecuzione di MERGE o APPEND con upsert.
+ `Action`: stringa UTF-8.

  Specifica come verrà eseguita la scrittura su un cluster Redshift.
+ `TablePrefix`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Specifica il prefisso di una tabella.
+ `Upsert`: booleano.

  L'operazione utilizzata in un sink Redshift quando si esegue un APPEND.
+ `MergeAction`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  L'operazione utilizzata per determinare come verrà gestito un MERGE in un sink Redshift.
+ `MergeWhenMatched`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  L'operazione utilizzata per determinare come verrà gestito un MERGE in un sink Redshift quando un record esistente corrisponde a un nuovo record.
+ `MergeWhenNotMatched`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  L'operazione utilizzata per determinare come verrà gestito un MERGE in un sink Redshift quando un record esistente non corrisponde a un nuovo record.
+ `MergeClause`: stringa UTF-8.

  L'SQL utilizzato in un merge personalizzato per gestire i record corrispondenti.
+ `CrawlerConnection`: stringa UTF-8.

  Specifica il nome della connessione associata alla tabella del catalogo utilizzata.
+ `TableSchema`: una matrice di oggetti [Opzione](#aws-glue-api-visual-job-api-Option).

  L'array di output dello schema per un determinato nodo.
+ `StagingTable`: stringa UTF-8.

  Il nome della tabella intermedia temporanea utilizzata quando si esegue un MERGE o un APPEND con upsert.
+ `SelectedColumns`: una matrice di oggetti [Opzione](#aws-glue-api-visual-job-api-Option).

  L'elenco dei nomi di colonna utilizzati per determinare un record corrispondente quando si esegue un MERGE o un APPEND con upsert.

## AmazonRedshiftAdvancedOption struttura
AmazonRedshiftAdvancedOption

Specifica un valore facoltativo per la connessione al cluster Redshift.

**Campi**
+ `Key`: stringa UTF-8.

  La chiave dell'opzione di connessione aggiuntiva.
+ `Value`: stringa UTF-8.

  Il valore dell'opzione di connessione aggiuntiva.

## Struttura Option
Opzione

Specifica il valore di un'opzione.

**Campi**
+ `Value`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il valore dell'opzione.
+ `Label`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica l'etichetta dell'opzione.
+ `Description`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica la descrizione dell'opzione.

## struttura S3 CatalogSource
S3 CatalogSource

Speciifica un data store Amazon S3 nel Data Catalog AWS Glue .

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del archivio dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La tabella del database da cui leggere.
+ `PartitionPredicate`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Le partizioni che soddisfano questo predicato vengono eliminate. I file all'interno del periodo di conservazione in queste partizioni non vengono eliminati. Impostato su `""`: vuoto per impostazione predefinita.
+ `AdditionalOptions`: un oggetto [S3 SourceAdditionalOptions](#aws-glue-api-visual-job-api-S3SourceAdditionalOptions).

  Specifica opzioni di connessione aggiuntive.

## Struttura S3 SourceAdditionalOptions
S3 SourceAdditionalOptions

Specifica opzioni di connessione aggiuntive per l'archivio dati Amazon S3.

**Campi**
+ `BoundedSize`: numero (lungo).

  Imposta il limite superiore per la dimensione di destinazione del set di dati in byte che verranno elaborati.
+ `BoundedFiles`: numero (lungo).

  Imposta il limite superiore per il numero di file di destinazione che verranno elaborati.

## Struttura S3 CsvSource
S3 CsvSource

Specifica un archivio dati CSV (valori delimitati da comandi) archiviati in Amazon S3.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del archivio dati.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un elenco dei percorsi Amazon S3 da cui leggere.
+ `CompressionType`: stringa UTF-8 (valori validi: `gzip="GZIP"` \$1 `bzip2="BZIP2"`).

  Specifica il modo in cui i dati sono compressi. In genere questo non è necessario se i dati hanno un'estensione del file standard. I valori possibili sono `"gzip"` e `"bzip"`).
+ `Exclusions`: una matrice di stringhe UTF-8.

  Una stringa contenente un elenco di JSON di modelli glob in stile Unix da escludere. Ad esempio "[\$1"\$1\$1.pdf \$1"]" esclude tutti i file PDF. 
+ `GroupSize`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La dimensione del gruppo di destinazione in byte. Il valore di default viene calcolato in base alla dimensione dei dati di input e alle dimensioni del cluster. Quando sono presenti meno di 50.000 file di input, `"groupFiles"` deve essere impostato su `"inPartition"` per rendere effettiva la modifica.
+ `GroupFiles`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Quando l'input contiene più di 50.000 file, il raggruppamento di file è attivato per impostazione predefinita. Per attivare il raggruppamento con meno di 50.000 file, imposta questo parametro su “inPartition”. Per disabilitare il raggruppamento in presenza di più di 50.000 file, imposta il parametro su `"none"`.
+ `Recurse`: booleano.

  Se è impostato su “Vero”, legge i file in modo ricorsivo in tutte le sottodirectory dei percorsi specificati.
+ `MaxBand`: numero (intero), non superiore a Nessuno.

  Questa opzione controlla la durata in millisecondi dopo la quale è probabile che l'elenco s3 sia coerente. I file con timestamp di modifica che rientrano negli ultimi millisecondi MaxBand vengono tracciati appositamente quando vengono utilizzati per tenere conto JobBookmarks della coerenza finale di Amazon S3. Per la maggior parte degli utenti non è necessario impostare questa opzione. Il valore di default è 900.000 millisecondi o 15 minuti.
+ `MaxFilesInBand`: numero (intero), non superiore a Nessuno.

  Questa opzione specifica il numero massimo di file da salvare negli ultimi secondi maxBand. Se si supera questo valore, i file aggiuntivi vengono saltati e solo elaborati nella successiva esecuzione del processo.
+ `AdditionalOptions`: un oggetto [S3 DirectSourceAdditionalOptions](#aws-glue-api-visual-job-api-S3DirectSourceAdditionalOptions).

  Specifica opzioni di connessione aggiuntive.
+ `Separator` - *obbligatorio:* stringa UTF-8 (valori validi: `comma="COMMA"` \$1 `ctrla="CTRLA"` \$1 `pipe="PIPE"` \$1 `semicolon="SEMICOLON"` \$1 `tab="TAB"`).

  Specifica il carattere delimitatore. Il valore di default è una virgola: ",", ma è possibile specificare qualsiasi altro carattere.
+ `Escaper`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica un carattere di escape. Questa opzione viene utilizzata solo durante la lettura di file CSV. Il valore predefinito è `none`. Se questa opzione è abilitata, il carattere immediatamente seguente viene usato così come è, ad eccezione di un piccolo set di caratteri di escape ben noti (`\n`, `\r`, `\t` e `\0`).
+ `QuoteChar` - *obbligatorio:* stringa UTF-8 (valori validi: `quote="QUOTE"` \$1 `quillemet="QUILLEMET"` \$1 `single_quote="SINGLE_QUOTE"` \$1 `disabled="DISABLED"`).

  Specifica il carattere da usare per le virgolette. Per impostazione predefinita vengono usate le virgolette doppie: `'"'`. Imposta questo valore su `-1` per disattivare completamente le virgolette.
+ `Multiline`: booleano.

  Un valore booleano che specifica se un singolo registro può estendersi su più righe. Ciò può accadere quando un campo contiene un carattere di nuova riga tra virgolette. Imposta questa opzione su “Vero” se un qualsiasi registro si estende su più righe. Il valore di default è `False`, che consente una divisione dei file più netta durante l'analisi.
+ `WithHeader`: booleano.

  Un valore booleano che specifica se trattare la prima riga come intestazione. Il valore predefinito è `False`.
+ `WriteHeader`: booleano.

  Un valore booleano che specifica se scrivere l'intestazione nell'output. Il valore predefinito è `True`. 
+ `SkipFirst`: booleano.

  Un valore booleano che specifica se ignorare la prima riga di dati. Il valore predefinito è `False`.
+ `OptimizePerformance`: booleano.

  Un valore booleano che specifica se utilizzare il lettore SIMD CSV avanzato insieme ai formati di memoria colonnare basati su Apache Arrow. AWS Glue Disponibile solo nella versione 3.0.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine CSV S3 personalizzata.

## JDBCSource Struttura diretta
Diretto JDBCSource

Specifica la connessione diretta all'origine JDBC.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome della connessione di origine JDBC.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il database della connessione di origine JDBC.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La tabella della connessione di origine JDBC.
+ `ConnectionName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della connessione dell'origine JDBC.
+ `ConnectionType` - *obbligatorio:* stringa UTF-8 (valori validi: `sqlserver` \$1 `mysql` \$1 `oracle` \$1 `postgresql` \$1 `redshift`).

  Il tipo di connessione dell'origine JDBC.
+ `RedshiftTmpDir`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La directory temporanea dell'origine JDBC Redshift.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine JDBC diretta.

## Struttura S3 DirectSourceAdditionalOptions
S3 DirectSourceAdditionalOptions

Specifica opzioni di connessione aggiuntive per l'archivio dati Amazon S3.

**Campi**
+ `BoundedSize`: numero (lungo).

  Imposta il limite superiore per la dimensione di destinazione del set di dati in byte che verranno elaborati.
+ `BoundedFiles`: numero (lungo).

  Imposta il limite superiore per il numero di file di destinazione che verranno elaborati.
+ `EnableSamplePath`: booleano.

  Imposta l'opzione per abilitare un percorso di esempio.
+ `SamplePath`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Se abilitato, specifica il percorso di esempio.

## Struttura S3 JsonSource
S3 JsonSource

Specifica un archivio dati JSON in Amazon S3.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del archivio dati.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un elenco dei percorsi Amazon S3 da cui leggere.
+ `CompressionType`: stringa UTF-8 (valori validi: `gzip="GZIP"` \$1 `bzip2="BZIP2"`).

  Specifica il modo in cui i dati sono compressi. In genere questo non è necessario se i dati hanno un'estensione del file standard. I valori possibili sono `"gzip"` e `"bzip"`).
+ `Exclusions`: una matrice di stringhe UTF-8.

  Una stringa contenente un elenco di JSON di modelli glob in stile Unix da escludere. Ad esempio "[\$1"\$1\$1.pdf \$1"]" esclude tutti i file PDF. 
+ `GroupSize`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La dimensione del gruppo di destinazione in byte. Il valore di default viene calcolato in base alla dimensione dei dati di input e alle dimensioni del cluster. Quando sono presenti meno di 50.000 file di input, `"groupFiles"` deve essere impostato su `"inPartition"` per rendere effettiva la modifica.
+ `GroupFiles`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Quando l'input contiene più di 50.000 file, il raggruppamento di file è attivato per impostazione predefinita. Per attivare il raggruppamento con meno di 50.000 file, imposta questo parametro su “inPartition”. Per disabilitare il raggruppamento in presenza di più di 50.000 file, imposta il parametro su `"none"`.
+ `Recurse`: booleano.

  Se è impostato su “Vero”, legge i file in modo ricorsivo in tutte le sottodirectory dei percorsi specificati.
+ `MaxBand`: numero (intero), non superiore a Nessuno.

  Questa opzione controlla la durata in millisecondi dopo la quale è probabile che l'elenco s3 sia coerente. I file con timestamp di modifica che rientrano negli ultimi millisecondi MaxBand vengono tracciati appositamente quando vengono utilizzati per tenere conto JobBookmarks della coerenza finale di Amazon S3. Per la maggior parte degli utenti non è necessario impostare questa opzione. Il valore di default è 900.000 millisecondi o 15 minuti.
+ `MaxFilesInBand`: numero (intero), non superiore a Nessuno.

  Questa opzione specifica il numero massimo di file da salvare negli ultimi secondi maxBand. Se si supera questo valore, i file aggiuntivi vengono saltati e solo elaborati nella successiva esecuzione del processo.
+ `AdditionalOptions`: un oggetto [S3 DirectSourceAdditionalOptions](#aws-glue-api-visual-job-api-S3DirectSourceAdditionalOptions).

  Specifica opzioni di connessione aggiuntive.
+ `JsonPath`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Una stringa che definisce i dati JSON. JsonPath 
+ `Multiline`: booleano.

  Un valore booleano che specifica se un singolo registro può estendersi su più righe. Ciò può accadere quando un campo contiene un carattere di nuova riga tra virgolette. Imposta questa opzione su “Vero” se un qualsiasi registro si estende su più righe. Il valore di default è `False`, che consente una divisione dei file più netta durante l'analisi.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine JSON S3 personalizzata.

## Struttura S3 ParquetSource
S3 ParquetSource

Specifica un archivio dati di Apache Parquet archiviato in Amazon S3.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del archivio dati.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un elenco dei percorsi Amazon S3 da cui leggere.
+ `CompressionType`: stringa UTF-8 (valori validi: `snappy="SNAPPY"` \$1 `lzo="LZO"` \$1 `gzip="GZIP"` \$1 `brotli="BROTLI"` \$1 `lz4="LZ4"` \$1 `uncompressed="UNCOMPRESSED"` \$1 `none="NONE"`).

  Specifica il modo in cui i dati sono compressi. In genere questo non è necessario se i dati hanno un'estensione del file standard. I valori possibili sono `"gzip"` e `"bzip"`).
+ `Exclusions`: una matrice di stringhe UTF-8.

  Una stringa contenente un elenco di JSON di modelli glob in stile Unix da escludere. Ad esempio "[\$1"\$1\$1.pdf \$1"]" esclude tutti i file PDF. 
+ `GroupSize`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La dimensione del gruppo di destinazione in byte. Il valore di default viene calcolato in base alla dimensione dei dati di input e alle dimensioni del cluster. Quando sono presenti meno di 50.000 file di input, `"groupFiles"` deve essere impostato su `"inPartition"` per rendere effettiva la modifica.
+ `GroupFiles`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Quando l'input contiene più di 50.000 file, il raggruppamento di file è attivato per impostazione predefinita. Per attivare il raggruppamento con meno di 50.000 file, imposta questo parametro su “inPartition”. Per disabilitare il raggruppamento in presenza di più di 50.000 file, imposta il parametro su `"none"`.
+ `Recurse`: booleano.

  Se è impostato su “Vero”, legge i file in modo ricorsivo in tutte le sottodirectory dei percorsi specificati.
+ `MaxBand`: numero (intero), non superiore a Nessuno.

  Questa opzione controlla la durata in millisecondi dopo la quale è probabile che l'elenco s3 sia coerente. I file con timestamp di modifica che rientrano negli ultimi millisecondi MaxBand vengono tracciati appositamente quando vengono utilizzati per tenere conto JobBookmarks della coerenza finale di Amazon S3. Per la maggior parte degli utenti non è necessario impostare questa opzione. Il valore di default è 900.000 millisecondi o 15 minuti.
+ `MaxFilesInBand`: numero (intero), non superiore a Nessuno.

  Questa opzione specifica il numero massimo di file da salvare negli ultimi secondi maxBand. Se si supera questo valore, i file aggiuntivi vengono saltati e solo elaborati nella successiva esecuzione del processo.
+ `AdditionalOptions`: un oggetto [S3 DirectSourceAdditionalOptions](#aws-glue-api-visual-job-api-S3DirectSourceAdditionalOptions).

  Specifica opzioni di connessione aggiuntive.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Parquet S3 personalizzata.

## Struttura S3 DeltaSource
S3 DeltaSource

Specifica un'origine dati Delta Lake memorizzata in. Amazon S3

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine del Delta Lake.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un elenco dei percorsi Amazon S3 da cui leggere.
+ `AdditionalDeltaOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive.
+ `AdditionalOptions`: un oggetto [S3 DirectSourceAdditionalOptions](#aws-glue-api-visual-job-api-S3DirectSourceAdditionalOptions).

  Specifica opzioni aggiuntive per il connettore.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Delta Lake.

## Struttura S3 CatalogDeltaSource
S3 CatalogDeltaSource

Speciifica un'origine dati Delta Lake registrata nel AWS Glue Data Catalog. L'origine dati deve essere archiviata in Amazon S3.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati Delta Lake.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `AdditionalDeltaOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Delta Lake.

## CatalogDeltaSource struttura
CatalogDeltaSource

Specifica un'origine dati Delta Lake registrata nel AWS Glue Data Catalog.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati Delta Lake.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `AdditionalDeltaOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Delta Lake.

## Struttura S3 HudiSource
S3 HudiSource

Specifica una fonte di dati Hudi memorizzata in. Amazon S3

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine Hudi.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un elenco dei percorsi Amazon S3 da cui leggere.
+ `AdditionalHudiOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive.
+ `AdditionalOptions`: un oggetto [S3 DirectSourceAdditionalOptions](#aws-glue-api-visual-job-api-S3DirectSourceAdditionalOptions).

  Specifica opzioni aggiuntive per il connettore.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Hudi.

## Struttura S3 CatalogHudiSource
S3 CatalogHudiSource

Speciifica una fonte di dati Hudi registrata nel Data Catalog. AWS Glue L'origine dati Hudi deve essere archiviata in. Amazon S3

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati Hudi.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `AdditionalHudiOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Hudi.

## Struttura S3 ExcelSource
S3 ExcelSource

Specifica un'origine dati S3 Excel.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati S3 Excel.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  I percorsi S3 in cui si trovano i file Excel.
+ `CompressionType`: stringa UTF-8 (valori validi: `snappy="SNAPPY"` \$1 `lzo="LZO"` \$1 `gzip="GZIP"` \$1 `brotli="BROTLI"` \$1 `lz4="LZ4"` \$1 `uncompressed="UNCOMPRESSED"` \$1 `none="NONE"`).

  Il formato di compressione utilizzato per i file Excel.
+ `Exclusions`: una matrice di stringhe UTF-8.

  Modelli per escludere file o percorsi specifici dall'elaborazione.
+ `GroupSize`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Definisce la dimensione dei gruppi di file per l'elaborazione in batch.
+ `GroupFiles`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica come i file devono essere raggruppati per l'elaborazione.
+ `Recurse`: booleano.

  Indica se elaborare le sottodirectory in modo ricorsivo.
+ `MaxBand`: numero (intero), non superiore a Nessuno.

  Il numero massimo di bande di elaborazione da utilizzare.
+ `MaxFilesInBand`: numero (intero), non superiore a Nessuno.

  Il numero massimo di file da elaborare in ogni banda.
+ `AdditionalOptions`: un oggetto [S3 DirectSourceAdditionalOptions](#aws-glue-api-visual-job-api-S3DirectSourceAdditionalOptions).

  Opzioni di configurazione aggiuntive per l'elaborazione delle origini S3 dirette.
+ `NumberRows`: numero (lungo).

  Il numero di righe da elaborare da ogni file Excel.
+ `SkipFooter`: numero (intero), non superiore a Nessuno.

  Il numero di righe da saltare alla fine di ogni file Excel.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Gli AWS Glue schemi da applicare ai dati elaborati.

## CatalogHudiSource struttura
CatalogHudiSource

Specifica un'origine dati Hudi registrata nel AWS Glue Data Catalog.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati Hudi.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `AdditionalHudiOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Hudi.

## Struttura Dynamo DBCatalog Source
Sorgente Dynamo DBCatalog

Specifica un'origine dati DynamoDB nel Data Catalog. AWS Glue 

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `PitrEnabled`: booleano.

  Speciifica se Point-in-Time Recovery (PITR) è abilitato per la tabella DynamoDB. Se impostato su `true`, consente la lettura a partire da un point-in-time specifico. Il valore predefinito è `false`.
+ `AdditionalOptions`: un oggetto [DDBELTCatalogAdditionalOptions](#aws-glue-api-visual-job-api-DDBELTCatalogAdditionalOptions).

  Specifica opzioni di connessione aggiuntive per l'origine dati DynamoDB.

## RelationalCatalogSource struttura
RelationalCatalogSource

Specifica un'origine dei dati del database relazionale nel Catalogo dati di AWS Glue .

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.

## JDBCConnectorStruttura dell'obiettivo
JDBCConnectorObiettivo

Specifica una destinazioni di dati che scrive su Amazon S3 nell'archiviazione a colonne di Apache Parquet.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `ConnectionName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della connessione associata al connettore.
+ `ConnectionTable` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nella destinazione di dati.
+ `ConnectorName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome di un connettore che verrà utilizzato.
+ `ConnectionType` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il tipo di connessione, come marketplace.jdbc o custom.jdbc, che designa una connessione a una destinazione di dati JDBC.
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Opzioni di connessione aggiuntive per il connettore.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema dati per la destinazione JDBC.

## SparkConnectorTarget struttura
SparkConnectorTarget

Specifica una destinazione che utilizza un connettore Apache Spark.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `ConnectionName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome di una connessione per un connettore Apache Spark.
+ `ConnectorName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome di un connettore Apache Spark.
+ `ConnectionType` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il tipo di connessione, come marketplace.spark o custom.spark, che designa una connessione a un archivio dati di Apache Spark.
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Opzioni di connessione aggiuntive per il connettore.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per la destinazione Spark personalizzata.

## BasicCatalogTarget struttura
BasicCatalogTarget

Speciifica una destinazione che utilizza una tabella del catalogo AWS Glue dati.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome della destinazione di dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Le chiavi di partizione utilizzate per distribuire i dati in più partizioni o shard in base a una chiave o a un set di chiavi specifici.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il database che contiene la tabella da utilizzare come destinazione. Questo database deve esistere già nel catalogo dati.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La tabella che definisce lo schema dei dati di output. Questa tabella deve esistere già nel Data Catalog.

## La mia struttura SQLCatalog Target
Il mio SQLCatalog obiettivo

Specifica una destinazione che utilizza MySQL.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.

## Struttura di Postgree Target SQLCatalog
Postgre Target SQLCatalog

Specifica una destinazione che utilizza Postgres SQL.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.

## Struttura di Oracle Target SQLCatalog
Oracle SQLCatalog Target

Specifica una destinazione che utilizza Oracle SQL.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.

## SQLServerCatalogTarget Struttura Microsoft
Microsoft SQLServer CatalogTarget

Specifica una destinazione che utilizza Microsoft SQL.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.

## RedshiftTarget struttura
RedshiftTarget

Specifica una destinazione che utilizza Amazon Redshift.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.
+ `RedshiftTmpDir`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il percorso Amazon S3 in cui i dati temporanei possono essere caricati durante la copia dal database.
+ `TmpDirIAMRole`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il ruolo IAM con autorizzazioni.
+ `UpsertRedshiftOptions`: un oggetto [UpsertRedshiftTargetOptions](#aws-glue-api-visual-job-api-UpsertRedshiftTargetOptions).

  Il set di opzioni per configurare un'operazione di upsert durante la scrittura su una destinazione Redshift.

## AmazonRedshiftTarget struttura
AmazonRedshiftTarget

Specifica una destinazione Amazon Redshift.

**Campi**
+ `Name`: stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome della tabella Amazon Redshift.
+ `Data`: un oggetto [AmazonRedshiftNodeData](#aws-glue-api-visual-job-api-AmazonRedshiftNodeData).

  Specifica i dati del nodo di destinazione Amazon Redshift.
+ `Inputs`: un array di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.

## UpsertRedshiftTargetOptions struttura
UpsertRedshiftTargetOptions

Le opzioni per configurare un'operazione di upsert durante la scrittura su una destinazione Redshift.

**Campi**
+ `TableLocation`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La posizione fisica della tabella Redshift.
+ `ConnectionName`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della connessione da usare per scrivere su Redshift.
+ `UpsertKeys`: una matrice di stringhe UTF-8.

  Le chiavi utilizzate per determinare se eseguire un aggiornamento o un inserimento.

## struttura S3 CatalogTarget
S3 CatalogTarget

Speciifica un target di dati che scrive su Amazon S3 utilizzando AWS Glue il Data Catalog.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica il partizionamento nativo utilizzando una sequenza di chiavi.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `SchemaChangePolicy`: un oggetto [CatalogSchemaChangePolicy](#aws-glue-api-visual-job-api-CatalogSchemaChangePolicy).

  Una policy che specifica i comportamenti di aggiornamento per il crawler.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Specifica se abilitare automaticamente la valutazione della qualità dei dati per il catalogo S3 di destinazione. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.

## Struttura S3 GlueParquetTarget
S3 GlueParquetTarget

Specifica una destinazioni di dati che scrive su Amazon S3 nell'archiviazione a colonne di Apache Parquet.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica il partizionamento nativo utilizzando una sequenza di chiavi.
+ `Path` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un singolo percorso Amazon S3 su cui scrivere.
+ `Compression`: stringa UTF-8 (valori validi: `snappy="SNAPPY"` \$1 `lzo="LZO"` \$1 `gzip="GZIP"` \$1 `brotli="BROTLI"` \$1 `lz4="LZ4"` \$1 `uncompressed="UNCOMPRESSED"` \$1 `none="NONE"`).

  Specifica il modo in cui i dati sono compressi. In genere questo non è necessario se i dati hanno un'estensione del file standard. I valori possibili sono `"gzip"` e `"bzip"`).
+ `NumberTargetPartitions`: stringa UTF-8.

  Specifica il numero di partizioni di destinazione per i file Parquet durante la scrittura in Amazon S3 utilizzando AWS Glue.
+ `SchemaChangePolicy`: un oggetto [DirectSchemaChangePolicy](#aws-glue-api-visual-job-api-DirectSchemaChangePolicy).

  Una policy che specifica i comportamenti di aggiornamento per il crawler.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Speciifica se abilitare automaticamente la valutazione della qualità dei dati per il target S3 Parquet AWS Glue . Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.

## CatalogSchemaChangePolicy struttura
CatalogSchemaChangePolicy

Una policy che specifica i comportamenti di aggiornamento per il crawler.

**Campi**
+ `EnableUpdateCatalog`: booleano.

  Stabilisce se usare il comportamento di aggiornamento quando il crawler riscontra una variazione dello schema.
+ `UpdateBehavior`: stringa UTF-8 (valori validi: `UPDATE_IN_DATABASE` \$1 `LOG`).

  Il comportamento di aggiornamento quando il crawler riscontra una variazione dello schema.

## struttura S3 DirectTarget
S3 DirectTarget

Specifica una destinazione di dati che scrive su Amazon S3.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica il partizionamento nativo utilizzando una sequenza di chiavi.
+ `Path` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un singolo percorso Amazon S3 su cui scrivere.
+ `Compression`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il modo in cui i dati sono compressi. In genere questo non è necessario se i dati hanno un'estensione del file standard. I valori possibili sono `"gzip"` e `"bzip"`).
+ `NumberTargetPartitions`: stringa UTF-8.

  Specifica il numero di partizioni di destinazione durante la scrittura dei dati direttamente in Amazon S3.
+ `Format` - *obbligatorio:* stringa UTF-8 (valori validi: `json="JSON"` \$1 `csv="CSV"` \$1 `avro="AVRO"` \$1 `orc="ORC"` \$1 `parquet="PARQUET"` \$1 `hudi="HUDI"` \$1 `delta="DELTA"` \$1 `iceberg="ICEBERG"` \$1 `hyper="HYPER"` \$1 `xml="XML"`).

  Specifica il formato di output dei dati per la destinazione.
+ `SchemaChangePolicy`: un oggetto [DirectSchemaChangePolicy](#aws-glue-api-visual-job-api-DirectSchemaChangePolicy).

  Una policy che specifica i comportamenti di aggiornamento per il crawler.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Specifica se abilitare automaticamente la valutazione della qualità dei dati per la destinazione diretta S3. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per la destinazione diretta S3.

## Struttura S3 HudiCatalogTarget
S3 HudiCatalogTarget

Specifica una destinazione che scrive su un'origine dati Hudi nel Data Catalog. AWS Glue 

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica il partizionamento nativo utilizzando una sequenza di chiavi.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `AdditionalOptions` - *obbligatorio:* una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica le opzioni di connessione aggiuntive per il connettore.
+ `SchemaChangePolicy`: un oggetto [CatalogSchemaChangePolicy](#aws-glue-api-visual-job-api-CatalogSchemaChangePolicy).

  Una policy che specifica i comportamenti di aggiornamento per il crawler.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Specifica se abilitare automaticamente la valutazione della qualità dei dati per il catalogo S3 Hudi di destinazione. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per il catalogo S3 Hudi di destinazione.

## Struttura S3 HudiDirectTarget
S3 HudiDirectTarget

Speciifica una destinazione che scrive su una fonte di dati Hudi in. Amazon S3

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `Path` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il percorso Amazon S3 dell'origine dati Hudi su cui scrivere.
+ `Compression` - *obbligatorio:* stringa UTF-8 (valori validi: `gzip="GZIP"` \$1 `lzo="LZO"` \$1 `uncompressed="UNCOMPRESSED"` \$1 `snappy="SNAPPY"`).

  Specifica il modo in cui i dati sono compressi. In genere questo non è necessario se i dati hanno un'estensione del file standard. I valori possibili sono `"gzip"` e `"bzip"`).
+ `NumberTargetPartitions`: stringa UTF-8.

  Specifica il numero di partizioni della destinazione per la distribuzione dei file del set di dati Hudi in Amazon S3.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica il partizionamento nativo utilizzando una sequenza di chiavi.
+ `Format` - *obbligatorio:*, stringa UTF-8 (valori validi: `json="JSON"` \$1 `csv="CSV"` \$1 `avro="AVRO"` \$1 `orc="ORC"` \$1 `parquet="PARQUET"` \$1 `hudi="HUDI"` \$1 `delta="DELTA"` \$1 `iceberg="ICEBERG"` \$1 `hyper="HYPER"` \$1 `xml="XML"`).

  Specifica il formato di output dei dati per la destinazione.
+ `AdditionalOptions` - *obbligatorio:* una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica le opzioni di connessione aggiuntive per il connettore.
+ `SchemaChangePolicy`: un oggetto [DirectSchemaChangePolicy](#aws-glue-api-visual-job-api-DirectSchemaChangePolicy).

  Una policy che specifica i comportamenti di aggiornamento per il crawler.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Specifica se abilitare automaticamente la valutazione della qualità dei dati per la destinazione diretta S3 Hudi. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.

## Struttura S3 DeltaCatalogTarget
S3 DeltaCatalogTarget

Speciifica una destinazione che scrive su un'origine dati Delta Lake nel AWS Glue Data Catalog.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica il partizionamento nativo utilizzando una sequenza di chiavi.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica le opzioni di connessione aggiuntive per il connettore.
+ `SchemaChangePolicy`: un oggetto [CatalogSchemaChangePolicy](#aws-glue-api-visual-job-api-CatalogSchemaChangePolicy).

  Una policy che specifica i comportamenti di aggiornamento per il crawler.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Specifica se abilitare automaticamente la valutazione della qualità dei dati per il catalogo S3 Delta di destinazione. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per il catalogo S3 Delta di destinazione.

## Struttura S3 DeltaDirectTarget
S3 DeltaDirectTarget

Speciifica una destinazione che scrive su un'origine dati Delta Lake in. Amazon S3

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica il partizionamento nativo utilizzando una sequenza di chiavi.
+ `Path` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il percorso Amazon S3 dell'origine dati Delta Lake su cui scrivere.
+ `Compression` - *obbligatorio:* stringa UTF-8 (valori validi: `uncompressed="UNCOMPRESSED"` \$1 `snappy="SNAPPY"`).

  Specifica il modo in cui i dati sono compressi. In genere questo non è necessario se i dati hanno un'estensione del file standard. I valori possibili sono `"gzip"` e `"bzip"`).
+ `NumberTargetPartitions`: stringa UTF-8.

  Specifica il numero di partizioni della destinazione per la distribuzione dei file del set di dati Delta Lake in Amazon S3.
+ `Format` - *obbligatorio*, stringa UTF-8 (valori validi: `json="JSON"` \$1 `csv="CSV"` \$1 `avro="AVRO"` \$1 `orc="ORC"` \$1 `parquet="PARQUET"` \$1 `hudi="HUDI"` \$1 `delta="DELTA"` \$1 `iceberg="ICEBERG"` \$1 `hyper="HYPER"` \$1 `xml="XML"`).

  Specifica il formato di output dei dati per la destinazione.
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica le opzioni di connessione aggiuntive per il connettore.
+ `SchemaChangePolicy`: un oggetto [DirectSchemaChangePolicy](#aws-glue-api-visual-job-api-DirectSchemaChangePolicy).

  Una policy che specifica i comportamenti di aggiornamento per il crawler.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Specifica se abilitare automaticamente la valutazione della qualità dei dati per la destinazione diretta S3 Delta. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.

## Struttura S3 HyperDirectTarget
S3 HyperDirectTarget

Speciifica un target di HyperDirect dati che scrive su Amazon S3.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  L'identificatore univoco per il nodo di destinazione. HyperDirect 
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Specifica la fonte di input per la HyperDirect destinazione.
+ `Format`: stringa UTF-8 (valori validi: `json="JSON"` \$1 `csv="CSV"` \$1 `avro="AVRO"` \$1 `orc="ORC"` \$1 `parquet="PARQUET"` \$1 `hudi="HUDI"` \$1 `delta="DELTA"` \$1 `iceberg="ICEBERG"` \$1 `hyper="HYPER"` \$1 `xml="XML"`).

  Speciifica il formato di output dei dati per la HyperDirect destinazione.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Definisce la strategia di partizionamento per i dati di output.
+ `Path` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La posizione S3 dove verranno scritti i dati di output.
+ `Compression`: stringa UTF-8 (valori validi: `uncompressed="UNCOMPRESSED"`).

  Il tipo di compressione da applicare ai dati di output.
+ `SchemaChangePolicy`: un oggetto [DirectSchemaChangePolicy](#aws-glue-api-visual-job-api-DirectSchemaChangePolicy).

  Definisce come vengono gestite le modifiche allo schema durante le operazioni di scrittura.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Specifica se abilitare automaticamente la valutazione della qualità dei dati per la destinazione diretta S3 Hyper. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per la destinazione diretta S3 Hyper.

## Struttura S3 IcebergDirectTarget
S3 IcebergDirectTarget

Specifica una destinazione che scrive su un'origine dati Iceberg in Amazon S3.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Specifica l'identificatore univoco per il nodo di destinazione Iceberg nella pipeline di dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Definisce la singola origine di input che fornisce i dati a questa destinazione Iceberg.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica le colonne utilizzate per partizionare i dati della tabella Iceberg in S3.
+ `Path` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Definisce la posizione S3 in cui saranno archiviati i dati della tabella Iceberg.
+ `Format` - *obbligatorio:* stringa UTF-8 (valori validi: `json="JSON"` \$1 `csv="CSV"` \$1 `avro="AVRO"` \$1 `orc="ORC"` \$1 `parquet="PARQUET"` \$1 `hudi="HUDI"` \$1 `delta="DELTA"` \$1 `iceberg="ICEBERG"` \$1 `hyper="HYPER"` \$1 `xml="XML"`).

  Specifica il formato di file utilizzato per l'archiviazione dei dati della tabella Iceberg (ad es., Parquet, ORC).
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Fornisce opzioni di configurazione aggiuntive per la personalizzazione del comportamento della tabella Iceberg.
+ `SchemaChangePolicy`: un oggetto [DirectSchemaChangePolicy](#aws-glue-api-visual-job-api-DirectSchemaChangePolicy).

  Definisce come vengono gestite le modifiche allo schema durante la scrittura dei dati nella tabella Iceberg.
+ `Compression` - *obbligatorio:* stringa UTF-8 (valori validi: `gzip="GZIP"` \$1 `lzo="LZO"` \$1 `uncompressed="UNCOMPRESSED"` \$1 `snappy="SNAPPY"`).

  Specifica il codec di compressione utilizzato per i file della tabella Iceberg in S3.
+ `NumberTargetPartitions`: stringa UTF-8.

  Imposta il numero di partizioni della destinazione per la distribuzione dei file della tabella Iceberg in S3.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per la destinazione diretta S3 Iceberg.

## DirectSchemaChangePolicy struttura
DirectSchemaChangePolicy

Una policy che specifica i comportamenti di aggiornamento per il crawler.

**Campi**
+ `EnableUpdateCatalog`: booleano.

  Stabilisce se usare il comportamento di aggiornamento quando il crawler riscontra una variazione dello schema.
+ `UpdateBehavior`: stringa UTF-8 (valori validi: `UPDATE_IN_DATABASE` \$1 `LOG`).

  Il comportamento di aggiornamento quando il crawler riscontra una variazione dello schema.
+ `Table`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica la tabella nel database a cui si applica la policy di modifica dello schema.
+ `Database`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il database a cui si applica la policy di modifica dello schema.

## ApplyMapping struttura
ApplyMapping

Specifica una trasformazione che mappa le chiavi delle proprietà dei dati nell'origine dei dati alle chiavi delle proprietà dei dati nella destinazione. È possibile rinominare le chiavi, modificare i tipi di dati per le chiavi e scegliere le chiavi da eliminare dal set di dati.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `Mapping` - *obbligatorio:* una matrice di oggetti [Mapping](#aws-glue-api-visual-job-api-Mapping).

  Specifica la mappatura delle chiavi delle proprietà dei dati nell'origine dei dati alle chiavi delle proprietà dei dati nella destinazione.

## Struttura mappatura
Mapping

Specifica la mappatura delle chiavi della proprietà dati.

**Campi**
+ `ToKey`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Dopo l'applicazione della mappatura, quale dovrebbe essere il nome della colonna. Può coincidere con `FromPath`.
+ `FromPath`: una matrice di stringhe UTF-8.

  La tabella o la colonna da modificare.
+ `FromType`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il tipo di dati da modificare.
+ `ToType`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Tipo di dati che devono essere modificati.
+ `Dropped`: booleano.

  Se è true, la colonna viene rimossa.
+ `Children`: una matrice di oggetti [Mapping](#aws-glue-api-visual-job-api-Mapping).

  Applicabile solo alle strutture dati nidificate. Se si desidera modificare la struttura padre, ma anche uno dei suoi figli, è possibile compilare questa struttura di dati. È anche `Mapping`, ma il suo `FromPath` sarà la struttura padre `FromPath` più il `FromPath` da questa struttura.

  Per la parte dei figli, supponiamo di avere la struttura:

  `{ "FromPath": "OuterStructure", "ToKey": "OuterStructure", "ToType": "Struct", "Dropped": false, "Chidlren": [{ "FromPath": "inner", "ToKey": "inner", "ToType": "Double", "Dropped": false, }] }`

  Puoi specificare un `Mapping` con l'aspetto:

  `{ "FromPath": "OuterStructure", "ToKey": "OuterStructure", "ToType": "Struct", "Dropped": false, "Chidlren": [{ "FromPath": "inner", "ToKey": "inner", "ToType": "Double", "Dropped": false, }] }`

## SelectFields struttura
SelectFields

Specifica una trasformazione che sceglie le chiavi della proprietà dati che si desidera conservare.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un percorso JSON a una variabile nella struttura dati.

## DropFields struttura
DropFields

Specifica una trasformazione che sceglie le chiavi della proprietà dati che si desidera eliminare.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un percorso JSON a una variabile nella struttura dati.

## RenameField struttura
RenameField

Specifica una trasformazione che rinominerà una singola chiave di proprietà dati.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `SourcePath` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un percorso JSON a una variabile nella struttura dati per i dati di origine.
+ `TargetPath` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un percorso JSON a una variabile nella struttura dati per i dati di destinazione.

## Struttura Spigot
Spigot

Specifica una trasformazione che scrive campioni dei dati in un bucket Amazon S3.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `Path` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un percorso in Amazon S3 dove la trasformazione scriverà un sottoinsieme di registri dal set di dati in un file JSON in un bucket Amazon S3.
+ `Topk`: numero (intero), non superiore a 100.

  Specifica un numero di registri da scrivere a partire dall'inizio del set di dati.
+ `Prob`: numero (doppio), non superiore a 1.

  La probabilità (un valore decimale con un valore massimo di 1) di scegliere un determinato registro. Il valore 1 indica che ogni riga letta dal set di dati deve essere inclusa nell'output del campione.

## Struttura join
Join

Specifica una trasformazione che unisce due set di dati in un unico set di dati utilizzando una frase di confronto sulle chiavi di proprietà dei dati specificate. È possibile utilizzare inner, outer, left, right, left semi e left anti join.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore a o superiore a 2 stringhe.

  Gli input di dati identificati dai nomi dei nodi.
+ `JoinType` - *obbligatorio:*: stringa UTF-8 (valori validi: `equijoin="EQUIJOIN"` \$1 `left="LEFT"` \$1 `right="RIGHT"` \$1 `outer="OUTER"` \$1 `leftsemi="LEFT_SEMI"` \$1 `leftanti="LEFT_ANTI"`).

  Specifica il tipo di join da eseguire sui set di dati.
+ `Columns` - *obbligatorio:* una matrice di oggetti [JoinColumn](#aws-glue-api-visual-job-api-JoinColumn), non inferiore a o superiore a 2 strutture.

  Un elenco delle due colonne da unire.

## JoinColumn struttura
JoinColumn

Specifica una colonna da unire.

**Campi**
+ `From` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La colonna da unire.
+ `Keys` - *obbligatorio:* una matrice di stringhe UTF-8.

  La chiave della colonna da unire.

## SplitFields struttura
SplitFields

Specifica una trasformazione che divide le chiavi della proprietà dati in due `DynamicFrames`. L'output è una raccolta di `DynamicFrames`: uno con le chiavi di proprietà dei dati selezionate e uno con le chiavi di proprietà dei dati rimanenti.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `Paths` - *obbligatorio:* una matrice di stringhe UTF-8.

  Un percorso JSON a una variabile nella struttura dati.

## SelectFromCollection struttura
SelectFromCollection

Specifica una trasformazione che sceglie un `DynamicFrame` da una raccolta di `DynamicFrames`. L'output è il `DynamicFrame` selezionato

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `Index` - *obbligatorio:* numero (intero), non superiore a Nessuno.

  L'indice per il DynamicFrame da selezionare.

## FillMissingValues struttura
FillMissingValues

Specifica una trasformazione che individua i registri nel set di dati che hanno valori mancanti e aggiunge un nuovo campo con un valore determinato dall'imputazione. Il set di dati di input viene utilizzato per addestrare il modello di machine learning che determina quale dovrebbe essere il valore mancante.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `ImputedPath` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un percorso JSON a una variabile nella struttura dati per il set di dati imputato.
+ `FilledPath`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un percorso JSON a una variabile nella struttura dati per il set di dati compilato.

## Struttura filtro
Filtro

Specifica una trasformazione che divide un set di dati in due, in base a una condizione di filtro.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `LogicalOperator` - *obbligatorio:* stringa UTF-8 (valori validi: `AND` \$1 `OR`).

  L'operatore utilizzato per filtrare le righe confrontando il valore chiave con un valore specificato.
+ `Filters` - *obbligatorio:* una matrice di oggetti [FilterExpression](#aws-glue-api-visual-job-api-FilterExpression).

  Specifica un'espressione di filtro.

## FilterExpression struttura
FilterExpression

Specifica un'espressione di filtro.

**Campi**
+ `Operation` - *obbligatorio:* stringa UTF-8 (valori validi: `EQ` \$1 `LT` \$1 `GT` \$1 `LTE` \$1 `GTE` \$1 `REGEX` \$1 `ISNULL`).

  Tipo di operazione da eseguire nell'espressione.
+ `Negated`: booleano.

  Se l'espressione deve essere negata.
+ `Values` - *obbligatorio:* una matrice di oggetti [FilterValue](#aws-glue-api-visual-job-api-FilterValue).

  Un elenco di valori di filtro.

## FilterValue struttura
FilterValue

Rappresenta un'unica voce nell'elenco di valori di un `FilterExpression`. 

**Campi**
+ `Type` - *obbligatorio:* stringa UTF-8 (valori validi: `COLUMNEXTRACTED` \$1 `CONSTANT`).

  Il tipo di valore del filtro.
+ `Value` - *obbligatorio:* una matrice di stringhe UTF-8.

  Il valore da associare.

## CustomCode struttura
CustomCode

Specifica una trasformazione che utilizza il codice personalizzato fornito per eseguire la trasformazione dei dati. L'output è una raccolta di DynamicFrames.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, almeno 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `Code` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #54](aws-glue-api-common.md#regex_54).

  Il codice personalizzato utilizzato per eseguire la trasformazione dei dati.
+ `ClassName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome definito per la classe del nodo di codice personalizzato.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per la trasformazione del codice personalizzata.

## Struttura SparkSQL
SparkSQL

Specifica una trasformazione in cui si inserisce una query SQL utilizzando la sintassi Spark SQL per trasformare i dati. L'output è un singolo `DynamicFrame`.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, almeno 1 stringa.

  Gli input di dati identificati dai nomi dei nodi. È possibile associare un nome di tabella a ciascun nodo di input da utilizzare nella query SQL. Il nome scelto deve soddisfare le restrizioni sui nomi di Spark SQL.
+ `SqlQuery` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #62](aws-glue-api-common.md#regex_62).

  Query SQL che deve utilizzare la sintassi Spark SQL e restituire un singolo set di dati.
+ `SqlAliases` - *obbligatorio:* una matrice di oggetti [SqlAlias](#aws-glue-api-visual-job-api-SqlAlias).

  Un elenco di alias. Un alias permette di specificare il nome da utilizzare nell'SQL per un determinato input. Ad esempio, hai una fonte di dati denominata "»MyDataSource. Se specifichi `From` as MyDataSource e `Alias` as SqlName, nel tuo SQL puoi fare:

  `select * from SqlName`

  e che ottiene dati da MyDataSource.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per la trasformazione SparkSQL.

## SqlAlias struttura
SqlAlias

Rappresenta un'unica voce nell'elenco di valori per `SqlAliases`. 

**Campi**
+ `From` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Una tabella o una colonna in una tabella.
+ `Alias` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un nome temporaneo dato a una tabella o a una colonna in una tabella.

## DropNullFields struttura
DropNullFields

Specifica una trasformazione che rimuove le colonne dal set di dati se tutti i valori nella colonna sono “null”. Per impostazione predefinita, AWS Glue Studio riconosce gli oggetti nulli, ma alcuni valori come stringhe vuote, stringhe «nulle», numeri interi -1 o altri segnaposto come zeri, non vengono riconosciuti automaticamente come nulli.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `NullCheckBoxList`: un oggetto [NullCheckBoxList](#aws-glue-api-visual-job-api-NullCheckBoxList).

  Struttura che indica se determinati valori siano riconosciuti come valori nulli per la rimozione.
+ `NullTextList`: una matrice di oggetti [NullValueField](#aws-glue-api-visual-job-api-NullValueField), non superiore a 50 strutture.

  Una struttura che specifica un elenco di NullValueField strutture che rappresentano un valore nullo personalizzato come zero o un altro valore utilizzato come segnaposto nullo unico per il set di dati.

  La trasformazione `DropNullFields` rimuove i valori nulli personalizzati solo se sia il valore del segnaposto null che il tipo di dati corrispondono ai dati.

## NullCheckBoxList struttura
NullCheckBoxList

Indica se alcuni valori siano riconosciuti come valori nulli per la rimozione.

**Campi**
+ `IsEmpty`: booleano.

  Specifica che una stringa vuota è considerata un valore nullo.
+ `IsNullString`: booleano.

  Specifica che un valore che indica la parola “null” è considerato un valore nullo.
+ `IsNegOne`: booleano.

  Specifica che un valore intero di -1 è considerato un valore nullo.

## NullValueField struttura
NullValueField

Rappresenta un valore nullo personalizzato, ad esempio uno zero o un altro valore utilizzato come segnaposto nullo univoco per il set di dati.

**Campi**
+ `Value` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il valore del segnaposto nullo.
+ `Datatype` - *obbligatorio:* un oggetto [DataType](#aws-glue-api-visual-job-api-Datatype).

  Il tipo di dati del valore.

## Struttura Datatype
DataType

Struttura che rappresenta il tipo di dati del valore.

**Campi**
+ `Id` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Il tipo di dati del valore.
+ `Label` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Etichetta assegnata al tipo di dati.

## Struttura Merge
Unione

Specifica una trasformazione che unisce `DynamicFrame` a con un `DynamicFrame` di staging basato sulle chiavi primarie specificate per identificare i registri. I registri duplicati (registri con le stesse chiavi primarie) non vengono deduplicati. 

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore a o superiore a 2 stringhe.

  Gli input di dati identificati dai nomi dei nodi.
+ `Source` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  L'origine `DynamicFrame` che sarà unita a `DynamicFrame` di staging.
+ `PrimaryKeys` - *obbligatorio:* una matrice di stringhe UTF-8.

  L'elenco dei campi chiave primaria per abbinare i registri dall'origine e dai frame dinamici di staging.

## Struttura unione
Union

Specifica una trasformazione che combina le righe di due o più set di dati in un unico risultato.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore a o superiore a 2 stringhe.

  L'ID del nodo immette la trasformazione.
+ `UnionType` - *obbligatorio:* stringa UTF-8 (valori validi: `ALL` \$1 `DISTINCT`).

  Indica il tipo di trasformazione Union. 

  `ALL`Specificare di unire tutte le righe dalle fonti di dati a quelle risultanti DynamicFrame. L'unione risultante non rimuove le righe duplicate.

  `DISTINCT`Specificare di rimuovere le righe duplicate nel risultato. DynamicFrame

## PIIDetection struttura
PIIDetection

Specifica una trasformazione che identifica, rimuove o maschera i dati PII.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  L'ID del nodo immette la trasformazione.
+ `PiiType` - *obbligatorio:* stringa UTF-8 (valori validi: `RowAudit` \$1 `RowHashing` \$1 `RowMasking` \$1 `RowPartialMasking` \$1 `ColumnAudit` \$1 `ColumnHashing` \$1 `ColumnMasking`).

  Indica il tipo di PIIDetection trasformazione. 
+ `EntityTypesToDetect` - *obbligatorio:* una matrice di stringhe UTF-8.

  Indica i tipi di entità che la PIIDetection trasformazione identificherà come dati PII. 

   Le entità di tipo PII includono: PERSON\$1NAME, DATE, USA\$1SNN, EMAIL, USA\$1ITIN, USA\$1PASSPORT\$1NUMBER, PHONE\$1NUMBER, BANK\$1ACCOUNT, IP\$1ADDRESS, MAC\$1ADDRESS, USA\$1CPT\$1CODE, USA\$1HCPCS\$1CODE, USA\$1NATIONAL\$1DRUG\$1CODE, USA\$1MEDICARE\$1BENEFICIARY\$1IDENTIFIER, USA\$1HEALTH\$1INSURANCE\$1CLAIM\$1NUMBER,CREDIT\$1CARD,USA\$1NATIONAL\$1PROVIDER\$1IDENTIFIER,USA\$1DEA\$1NUMBER,USA\$1DRIVING\$1LICENSE 
+ `OutputColumnName`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Indica il nome della colonna di output che conterrà qualsiasi tipo di entità rilevato in quella riga. 
+ `SampleFraction`: numero (doppio), non superiore a 1.

  Indica la frazione dei dati da campionare durante la scansione di entità PII. 
+ `ThresholdFraction`: numero (doppio), non superiore a 1.

  Indica la frazione dei dati che devono essere soddisfatti per identificare una colonna come dati PII. 
+ `MaskValue`: stringa UTF-8, non superiore a 256 byte di lunghezza, corrispondente a [Custom string pattern #58](aws-glue-api-common.md#regex_58).

  Indica il valore che sostituirà l'entità rilevata. 
+ `RedactText`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica se oscurare il testo contenente informazioni di identificazione personale (PII) rilevato. Se impostato su `true`, il contenuto con PII viene sostituito con caratteri di redazione.
+ `RedactChar`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il carattere utilizzato per sostituire il contenuto con PII rilevato quando è attivato l'oscuramento. Il carattere di redazione predefinito è `*`.
+ `MatchPattern`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Un modello di espressione regolare utilizzato per identificare il contenuto con PII aggiuntivo oltre gli algoritmi di rilevamento standard.
+ `NumLeftCharsToExclude`: numero (intero), non superiore a Nessuno.

  Il numero di caratteri da escludere dalla redazione a sinistra del contenuto con PII rilevato. In questo modo è possibile preservare il contesto attorno ai dati sensibili.
+ `NumRightCharsToExclude`: numero (intero), non superiore a Nessuno.

  Il numero di caratteri da escludere dalla redazione a destra del contenuto con PII rilevato. In questo modo è possibile preservare il contesto attorno ai dati sensibili.
+ `DetectionParameters`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Parametri aggiuntivi per la configurazione del comportamento di rilevamento delle PII e delle impostazioni di sensibilità.
+ `DetectionSensitivity`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il livello di sensibilità per il rilevamento delle PII. Livelli di sensibilità più elevati rilevano più PII potenziali, ma possono dare luogo a più falsi positivi.

## Struttura aggregata
Aggregazione

Specifica una trasformazione che raggruppa le righe in base ai campi scelti e calcola il valore aggregato in base alla funzione specificata.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Specifica i campi e le righe da utilizzare come input per la trasformazione aggregata.
+ `Groups` - *obbligatorio:* una matrice di stringhe UTF-8.

  Specifica i campi in base ai quali raggruppare.
+ `Aggs` - *obbligatorio:* una matrice di oggetti [AggregateOperation](#aws-glue-api-visual-job-api-AggregateOperation), non meno di 1 o più di 30 strutture.

  Specifica le funzioni di aggregazione da eseguire su campi specificati. 

## DropDuplicates struttura
DropDuplicates

Specifica una trasformazione che rimuove le righe di dati ripetuti da un set di dati. 

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di trasformazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input di dati identificati dai nomi dei nodi.
+ `Columns`: una matrice di stringhe UTF-8.

  Il nome delle colonne da unire o rimuovere in caso di ripetizione.

## GovernedCatalogTarget struttura
GovernedCatalogTarget

Speciifica un target di dati che scrive su Amazon S3 utilizzando AWS Glue il Data Catalog.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome di destinazione dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Specifica il partizionamento nativo utilizzando una sequenza di chiavi.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella del database in cui scrivere.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `SchemaChangePolicy`: un oggetto [CatalogSchemaChangePolicy](#aws-glue-api-visual-job-api-CatalogSchemaChangePolicy).

  Una policy che specifica il comportamento di aggiornamento per il catalogo governato.

## GovernedCatalogSource struttura
GovernedCatalogSource

Speciifica l'archivio dati nel AWS Glue Data Catalog governato.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del archivio dati.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La tabella del database da cui leggere.
+ `PartitionPredicate`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Le partizioni che soddisfano questo predicato vengono eliminate. I file all'interno del periodo di conservazione in queste partizioni non vengono eliminati. Impostato su `""`: vuoto per impostazione predefinita.
+ `AdditionalOptions`: un oggetto [S3 SourceAdditionalOptions](#aws-glue-api-visual-job-api-S3SourceAdditionalOptions).

  Specifica opzioni di connessione aggiuntive.

## AggregateOperation struttura
AggregateOperation

Specifica il set di parametri necessari per eseguire l'aggregazione nella trasformazione di aggregazione.

**Campi**
+ `Column` - *obbligatorio:* una matrice di stringhe UTF-8.

  Specifica la colonna sul set di dati su cui verrà applicata la funzione di aggregazione.
+ `AggFunc` - *obbligatorio:* stringa UTF-8 (valori validi:`avg` \$1 `countDistinct` \$1 `count` \$1 `first` \$1 `last` \$1 `kurtosis` \$1 `max` \$1 `min` \$1 `skewness` \$1 `stddev_samp` \$1 `stddev_pop` \$1 `sum` \$1 `sumDistinct` \$1 `var_samp` \$1 `var_pop`).

  Specifica la funzione di aggregazione da applicare.

  Le possibili funzioni di aggregazione includono: avg countDistinct, count, first, last, kurtosis, max, min, skewness, stddev\$1samp, stddev\$1pop, sum, sumDistinct, var\$1samp, var\$1pop

## GlueSchema struttura
GlueSchema

Specifica uno schema definito dall'utente quando uno schema non può essere determinato da AWS Glue.

**Campi**
+ `Columns`: una matrice di oggetti [GlueStudioSchemaColumn](#aws-glue-api-visual-job-api-GlueStudioSchemaColumn).

  Specifica le definizioni delle colonne che compongono uno AWS Glue schema.

## GlueStudioSchemaColumn struttura
GlueStudioSchemaColumn

Specifica una singola colonna in una definizione AWS Glue dello schema.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, non più lunga di 1024 byte, corrispondente al [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  Il nome della colonna nello schema di AWS Glue Studio.
+ `Type`: stringa UTF-8, non superiore a 131072 byte di lunghezza, corrispondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  Il tipo di hive per questa colonna nello schema di AWS Glue Studio.
+ `GlueStudioType`: stringa UTF-8, non superiore a 131072 byte di lunghezza, corrispondente a [Single-line string pattern](aws-glue-api-common.md#aws-glue-api-regex-oneLine).

  Il tipo di dati della colonna come definito in AWS Glue Studio.

## GlueStudioColumn struttura
GlueStudioColumn

Specifica una singola colonna in AWS Glue Studio.

**Campi**
+ `Key` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  La chiave della colonna in AWS Glue Studio.
+ `FullPath` - *obbligatorio:* una matrice di stringhe UTF-8.

  TThe URL completo della colonna in AWS Glue Studio.
+ `Type` - *obbligatorio:* stringa UTF-8 (valori validi: `array="ARRAY"` \$1 `bigint="BIGINT"` \$1 `bigint array="BIGINT_ARRAY"` \$1 `binary="BINARY"` \$1 `binary array="BINARY_ARRAY"` \$1 `boolean="BOOLEAN"` \$1 `boolean array="BOOLEAN_ARRAY"` \$1 `byte="BYTE"` \$1 `byte array="BYTE_ARRAY"` \$1 `char="CHAR"` \$1 `char array="CHAR_ARRAY"` \$1 `choice="CHOICE"` \$1 `choice array="CHOICE_ARRAY"` \$1 `date="DATE"` \$1 `date array="DATE_ARRAY"` \$1 `decimal="DECIMAL"` \$1 `decimal array="DECIMAL_ARRAY"` \$1 `double="DOUBLE"` \$1 `double array="DOUBLE_ARRAY"` \$1 `enum="ENUM"` \$1 `enum array="ENUM_ARRAY"` \$1 `float="FLOAT"` \$1 `float array="FLOAT_ARRAY"` \$1 `int="INT"` \$1 `int array="INT_ARRAY"` \$1 `interval="INTERVAL"` \$1 `interval array="INTERVAL_ARRAY"` \$1 `long="LONG"` \$1 `long array="LONG_ARRAY"` \$1 `object="OBJECT"` \$1 `short="SHORT"` \$1 `short array="SHORT_ARRAY"` \$1 `smallint="SMALLINT"` \$1 `smallint array="SMALLINT_ARRAY"` \$1 `string="STRING"` \$1 `string array="STRING_ARRAY"` \$1 `timestamp="TIMESTAMP"` \$1 `timestamp array="TIMESTAMP_ARRAY"` \$1 `tinyint="TINYINT"` \$1 `tinyint array="TINYINT_ARRAY"` \$1 `varchar="VARCHAR"` \$1 `varchar array="VARCHAR_ARRAY"` \$1 `null="NULL"` \$1 `unknown="UNKNOWN"` \$1 `unknown array="UNKNOWN_ARRAY"`).

  TThe tipo di colonna in AWS Glue Studio.
+ `Children`: un array di strutture.

  TThe figli della colonna principale in AWS Glue Studio.
+ `GlueStudioType`: stringa UTF-8 (valori validi: `array="ARRAY"` \$1 `bigint="BIGINT"` \$1 `bigint array="BIGINT_ARRAY"` \$1 `binary="BINARY"` \$1 `binary array="BINARY_ARRAY"` \$1 `boolean="BOOLEAN"` \$1 `boolean array="BOOLEAN_ARRAY"` \$1 `byte="BYTE"` \$1 `byte array="BYTE_ARRAY"` \$1 `char="CHAR"` \$1 `char array="CHAR_ARRAY"` \$1 `choice="CHOICE"` \$1 `choice array="CHOICE_ARRAY"` \$1 `date="DATE"` \$1 `date array="DATE_ARRAY"` \$1 `decimal="DECIMAL"` \$1 `decimal array="DECIMAL_ARRAY"` \$1 `double="DOUBLE"` \$1 `double array="DOUBLE_ARRAY"` \$1 `enum="ENUM"` \$1 `enum array="ENUM_ARRAY"` \$1 `float="FLOAT"` \$1 `float array="FLOAT_ARRAY"` \$1 `int="INT"` \$1 `int array="INT_ARRAY"` \$1 `interval="INTERVAL"` \$1 `interval array="INTERVAL_ARRAY"` \$1 `long="LONG"` \$1 `long array="LONG_ARRAY"` \$1 `object="OBJECT"` \$1 `short="SHORT"` \$1 `short array="SHORT_ARRAY"` \$1 `smallint="SMALLINT"` \$1 `smallint array="SMALLINT_ARRAY"` \$1 `string="STRING"` \$1 `string array="STRING_ARRAY"` \$1 `timestamp="TIMESTAMP"` \$1 `timestamp array="TIMESTAMP_ARRAY"` \$1 `tinyint="TINYINT"` \$1 `tinyint array="TINYINT_ARRAY"` \$1 `varchar="VARCHAR"` \$1 `varchar array="VARCHAR_ARRAY"` \$1 `null="NULL"` \$1 `unknown="UNKNOWN"` \$1 `unknown array="UNKNOWN_ARRAY"`).

  Il tipo di dati della colonna come definito in AWS Glue Studio.

## DynamicTransform struttura
DynamicTransform

Specifica il set di parametri necessari per eseguire la trasformazione dinamica.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il nome della trasformazione dinamica.
+ `TransformName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Speciifica il nome della trasformazione dinamica così come appare nell'editor visivo di AWS Glue Studio.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Specifica gli input necessari per la trasformazione dinamica.
+ `Parameters`: una matrice di oggetti [TransformConfigParameter](#aws-glue-api-visual-job-api-TransformConfigParameter).

  Specifica i parametri della trasformazione dinamica.
+ `FunctionName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il nome della funzione della trasformazione dinamica.
+ `Path` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il percorso dei file sorgente e di configurazione della trasformazione dinamica.
+ `Version`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Questo campo non è utilizzato e verrà dichiarato obsoleto in una versione futura.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per la trasformazione dinamica.

## TransformConfigParameter struttura
TransformConfigParameter

Specifica i parametri nel file di configurazione della trasformazione dinamica.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il nome del parametro nel file di configurazione della trasformazione dinamica.
+ `Type` - *obbligatorio:* stringa UTF-8 (valori validi: `str="STR"` \$1 `int="INT"` \$1 `float="FLOAT"` \$1 `complex="COMPLEX"` \$1 `bool="BOOL"` \$1 `list="LIST"` \$1 `null="NULL"`).

  Specifica il tipo di parametro nel file di configurazione della trasformazione dinamica.
+ `ValidationRule`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica la regola di convalida nel file di configurazione della trasformazione dinamica.
+ `ValidationMessage`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica il messaggio di convalida nel file di configurazione della trasformazione dinamica.
+ `Value`: una matrice di stringhe UTF-8.

  Specifica il valore del parametro nel file di configurazione della trasformazione dinamica.
+ `ListType`: stringa UTF-8 (valori validi: `str="STR"` \$1 `int="INT"` \$1 `float="FLOAT"` \$1 `complex="COMPLEX"` \$1 `bool="BOOL"` \$1 `list="LIST"` \$1 `null="NULL"`).

  Specifica il tipo di elenco del parametro nel file di configurazione della trasformazione dinamica.
+ `IsOptional`: booleano.

  Specifica se il parametro è facoltativo o meno nel file di configurazione della trasformazione dinamica.

## EvaluateDataQuality struttura
EvaluateDataQuality

Specifica i criteri di valutazione della qualità dei dati.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome della valutazione della qualità dei dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  Gli input della valutazione della qualità dei dati.
+ `Ruleset` - *obbligatorio:* stringa UTF-8, non inferiore a 1 o superiore a 65.536 byte di lunghezza, corrispondente a [Custom string pattern #59](aws-glue-api-common.md#regex_59).

  Il set di regole per la valutazione della qualità dei dati.
+ `Output`: stringa UTF-8 (valori validi: `PrimaryInput` \$1 `EvaluationResults`).

  L'output della valutazione della qualità dei dati.
+ `PublishingOptions`: un oggetto [DQResultsPublishingOptions](#aws-glue-api-visual-job-api-DQResultsPublishingOptions).

  Opzioni per configurare la modalità di pubblicazione dei risultati.
+ `StopJobOnFailureOptions`: un oggetto [DQStopJobOnFailureOptions](#aws-glue-api-visual-job-api-DQStopJobOnFailureOptions).

  Opzioni per configurare come si interromperà il processo se la valutazione della qualità dei dati fallisce.

## DQResultsPublishingOptions struttura
DQResultsPublishingOptions

Opzioni per configurare la modalità di pubblicazione dei risultati della valutazione della qualità dei dati.

**Campi**
+ `EvaluationContext`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Il contesto della valutazione.
+ `ResultsS3Prefix`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il prefisso Amazon S3 aggiunto all'inizio dei risultati.
+ `CloudWatchMetricsEnabled`: booleano.

  Abilita i parametri per i risultati della qualità dei dati.
+ `ResultsPublishingEnabled`: booleano.

  Abilita la pubblicazione per i risultati della qualità dei dati.

## DQStopJobOnFailureOptions struttura
DQStopJobOnFailureOptions

Opzioni per configurare come si interromperà il processo se la valutazione della qualità dei dati fallisce.

**Campi**
+ `StopJobOnFailureTiming`: stringa UTF-8 (valori validi: `Immediate` \$1 `AfterDataLoad`).

  Quando interrompere il processo se la valutazione della qualità dei dati fallisce. Le opzioni sono Immediate o AfterDataLoad.

## EvaluateDataQualityMultiFrame struttura
EvaluateDataQualityMultiFrame

Specifica i criteri di valutazione della qualità dei dati.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome della valutazione della qualità dei dati.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, almeno 1 stringa.

  Gli input della valutazione della qualità dei dati. Il primo input in questo elenco è l'origine dati primaria.
+ `AdditionalDataSources`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Gli alias di tutte le origini dati, tranne quella primaria.
+ `Ruleset` - *obbligatorio:* stringa UTF-8, non inferiore a 1 o superiore a 65.536 byte di lunghezza, corrispondente a [Custom string pattern #59](aws-glue-api-common.md#regex_59).

  Il set di regole per la valutazione della qualità dei dati.
+ `PublishingOptions`: un oggetto [DQResultsPublishingOptions](#aws-glue-api-visual-job-api-DQResultsPublishingOptions).

  Opzioni per configurare la modalità di pubblicazione dei risultati.
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 (valori validi: `performanceTuning.caching="CacheOption"` \$1 `observations.scope="ObservationsOption"` \$1 `compositeRuleEvaluation.method="CompositeOption"`).

  Ogni valore è una stringa UTF-8.

  Opzioni per configurare il comportamento di runtime della trasformazione.
+ `StopJobOnFailureOptions`: un oggetto [DQStopJobOnFailureOptions](#aws-glue-api-visual-job-api-DQStopJobOnFailureOptions).

  Opzioni per configurare come si interromperà il processo se la valutazione della qualità dei dati fallisce.

## Struttura Recipe
Recipe

Un nodo AWS Glue Studio che utilizza una AWS Glue DataBrew ricetta nei AWS Glue lavori.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo AWS Glue Studio.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che costituiscono gli input del nodo della ricetta, identificati dal rispettivo ID.
+ `RecipeReference`: un oggetto [RecipeReference](#aws-glue-api-visual-job-api-RecipeReference).

  Un riferimento alla DataBrew ricetta usata dal nodo.
+ `RecipeSteps`: una matrice di oggetti [RecipeStep](#aws-glue-api-visual-job-api-RecipeStep).

  Passaggi di trasformazione utilizzati nel nodo della ricetta.

## RecipeReference struttura
RecipeReference

Un riferimento a una AWS Glue DataBrew ricetta.

**Campi**
+ `RecipeArn` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  L'ARN della ricetta. DataBrew 
+ `RecipeVersion` - *obbligatorio:* stringa UTF-8, lunghezza non inferiore a 1 o non superiore a 16 byte.

  L' RecipeVersion origine della DataBrew ricetta.

## SnowflakeNodeData struttura
SnowflakeNodeData

Specifica la configurazione per i nodi Snowflake in Studio. AWS Glue 

**Campi**
+ `SourceType`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Specifica come vengono specificati i dati recuperati. Valori validi: `"table"`, ` "query"`.
+ `Connection`: un oggetto [Opzione](#aws-glue-api-visual-job-api-Option).

  Specifica una connessione al catalogo AWS Glue dati a un endpoint Snowflake.
+ `Schema`: stringa UTF-8.

  Specifica uno schema di database Snowflake da utilizzare per il nodo.
+ `Table`: stringa UTF-8.

  Specifica una tabella Snowflake da utilizzare per il nodo.
+ `Database`: stringa UTF-8.

  Specifica un database Snowflake da utilizzare per il nodo.
+ `TempDir`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Attualmente non utilizzato.
+ `IamRole`: un oggetto [Opzione](#aws-glue-api-visual-job-api-Option).

  Attualmente non utilizzato.
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica le opzioni aggiuntive trasmesse al connettore Snowflake. Se altre opzioni sono specificate altrove in questo nodo, esse avranno la precedenza.
+ `SampleQuery`: stringa UTF-8.

  Una stringa SQL utilizzata per recuperare i dati con il tipo di origine `query`.
+ `PreAction`: stringa UTF-8.

  Una stringa SQL eseguita prima che il connettore Snowflake esegua le operazioni standard.
+ `PostAction`: stringa UTF-8.

  Una stringa SQL eseguita dopo che il connettore Snowflake esegua le operazioni standard.
+ `Action`: stringa UTF-8.

  Specifica l'operazione da intraprendere quando si scrive su una tabella con dati preesistenti. Valori validi: ` append`, `merge`, `truncate`, `drop`.
+ `Upsert`: booleano.

  Utilizzato quando Operazione è `append`. Specifica il comportamento di risoluzione quando esiste già una riga. Se impostato su true, le righe preesistenti verranno aggiornate. Se false, verranno inserite quelle righe.
+ `MergeAction`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Specifica un'operazione di unione. Valori validi: `simple`, `custom`. Se semplice, il comportamento di unione è definito da `MergeWhenMatched` e ` MergeWhenNotMatched`. Se personalizzato, definito da `MergeClause`.
+ `MergeWhenMatched`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Specifica come risolvere i record che corrispondono a dati preesistenti durante l'unione. Valori validi: ` update`, `delete`.
+ `MergeWhenNotMatched`: stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Specifica come elaborare i record che non corrispondono a dati preesistenti durante l'unione. Valori validi: `insert`, `none`.
+ `MergeClause`: stringa UTF-8.

  Un'istruzione SQL che specifica un comportamento di merge personalizzato.
+ `StagingTable`: stringa UTF-8.

  Il nome di una tabella intermedia utilizzata durante le operazioni `merge` o `append` con upsert. I dati vengono scritti in questa tabella, quindi spostati in `table` da un'azione successiva (PostAction) generata.
+ `SelectedColumns`: una matrice di oggetti [Opzione](#aws-glue-api-visual-job-api-Option).

  Specifica le colonne combinate per identificare un record quando vengono rilevate corrispondenze per i merge e gli upsert. Un elenco di strutture con chiavi `value`, `label` e ` description`. Ogni struttura descrive una colonna.
+ `AutoPushdown`: booleano.

  Specifica se il pushdown automatico delle query è abilitato. Se il pushdown è abilitato, quando su Spark viene eseguita una query, se una parte di essa può essere "trasferita" al server Snowflake, viene sottoposta a pushdown. Ciò migliora le prestazioni di alcune query.
+ `TableSchema`: una matrice di oggetti [Opzione](#aws-glue-api-visual-job-api-Option).

  Definisce manualmente lo schema di destinazione per il nodo. Un elenco di strutture con chiavi `value`, `label` e `description`. Ogni struttura definisce una colonna.

## SnowflakeSource struttura
SnowflakeSource

Specifica un'origine dati Snowflake.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati Snowflake.
+ `Data` - *obbligatorio:* un oggetto [SnowflakeNodeData](#aws-glue-api-visual-job-api-SnowflakeNodeData).

  Configurazione per l'origine dati Snowflake.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica gli schemi definiti dall'utente per i dati di output.

## SnowflakeTarget struttura
SnowflakeTarget

Specifica una destinazione Snowflake.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome della destinazione Snowflake.
+ `Data` - *obbligatorio:* un oggetto [SnowflakeNodeData](#aws-glue-api-visual-job-api-SnowflakeNodeData).

  Specifica i dati del nodo di destinazione Snowflake.
+ `Inputs`: un array di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.

## ConnectorDataSource struttura
ConnectorDataSource

Specifica un'origine generata con opzioni di connessione standard.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di origine.
+ `ConnectionType` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il`connectionType`, come fornito alla AWS Glue libreria sottostante. Il tipo di nodo supporta i tipi di connessione seguenti: 
  + `opensearch`
  + `azuresql`
  + `azurecosmos`
  + `bigquery`
  + `saphana`
  + `teradata`
  + `vertica`
+ `Data` - *obbligatorio:* una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8.

  Ogni valore è una stringa UTF-8.

  Una mappa che specifica le opzioni di connessione per il nodo. È possibile trovare le opzioni di connessione standard per il tipo di connessione corrispondente nella sezione [Parametri di connessione](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-programming-etl-connect.html) della AWS Glue documentazione.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per questa origine.

## ConnectorDataTarget struttura
ConnectorDataTarget

Specifica un a destinazione generata con opzioni di connessione standard.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di destinazione.
+ `ConnectionType` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il`connectionType`, come fornito alla AWS Glue libreria sottostante. Il tipo di nodo supporta i tipi di connessione seguenti: 
  + `opensearch`
  + `azuresql`
  + `azurecosmos`
  + `bigquery`
  + `saphana`
  + `teradata`
  + `vertica`
+ `Data` - *obbligatorio:* una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8.

  Ogni valore è una stringa UTF-8.

  Una mappa che specifica le opzioni di connessione per il nodo. È possibile trovare le opzioni di connessione standard per il tipo di connessione corrispondente nella sezione [Parametri di connessione](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-programming-etl-connect.html) della AWS Glue documentazione.
+ `Inputs`: un array di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  I nodi che sono input per la destinazione di dati.

## RecipeStep struttura
RecipeStep

Una fase della ricetta utilizzata in un nodo di ricetta per la preparazione dei dati di AWS Glue Studio.

**Campi**
+ `Action` - *obbligatorio:* un oggetto [RecipeAction](#aws-glue-api-visual-job-api-RecipeAction).

  L'operazione di trasformazione del passaggio della ricetta.
+ `ConditionExpressions`: una matrice di oggetti [ConditionExpression](#aws-glue-api-visual-job-api-ConditionExpression).

  Le espressioni di condizione per il passaggio della ricetta.

## RecipeAction struttura
RecipeAction

Azioni definite nel nodo della ricetta di preparazione dei dati di AWS Glue Studio.

**Campi**
+ `Operation` - *obbligatorio:* stringa UTF-8, non inferiore a 1 o superiore a 128 byte di lunghezza, corrispondente a [Custom string pattern #56](aws-glue-api-common.md#regex_56).

  Il funzionamento dell'operazione della ricetta.
+ `Parameters`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8, non inferiore a 1 o superiore a 128 byte di lunghezza, corrispondente a [Custom string pattern #57](aws-glue-api-common.md#regex_57).

  Ogni valore è una stringa UTF-8, non inferiore a 1 o superiore a 32768 byte di lunghezza.

  I parametri dell'operazione della ricetta.

## ConditionExpression struttura
ConditionExpression

Espressione della condizione definita nel nodo della ricetta di preparazione dei dati di AWS Glue Studio.

**Campi**
+ `Condition` - *obbligatorio:* stringa UTF-8, non inferiore a 1 o superiore a 128 byte di lunghezza, corrispondente a [Custom string pattern #56](aws-glue-api-common.md#regex_56).

  La condizione dell'espressione di condizione.
+ `Value`: stringa UTF-8, non superiore a 1.024 byte di lunghezza.

  Il valore dell'espressione di condizione.
+ `TargetColumn` - *obbligatorio:* stringa UTF-8, lunghezza non inferiore a 1 o non superiore a 1024 byte.

  La colonna di destinazione delle espressioni di condizione.

## Struttura S3 CatalogIcebergSource
S3 CatalogIcebergSource

Speciifica un'origine dati Apache Iceberg registrata nel Data Catalog. AWS Glue L'origine dati Iceberg deve essere archiviata in. Amazon S3

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati Iceberg.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `AdditionalIcebergOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive per l'origine dati Iceberg.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Iceberg.

## CatalogIcebergSource struttura
CatalogIcebergSource

Speciifica un'origine dati Apache Iceberg registrata nel Data Catalog. AWS Glue 

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome dell'origine dati Iceberg.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database da cui leggere.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella nel database da cui leggere.
+ `AdditionalIcebergOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive per l'origine dati Iceberg.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per l'origine Iceberg.

## Struttura S3 IcebergCatalogTarget
S3 IcebergCatalogTarget

Speciifica un target di catalogo Apache Iceberg che scrive dati Amazon S3 e registra la tabella nel Data Catalog. AWS Glue 

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del catalogo Iceberg di destinazione.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  La connessione di input del catalogo Iceberg di destinazione.
+ `PartitionKeys`: una matrice di stringhe UTF-8.

  Un elenco di chiavi di partizione per la tabella Iceberg.
+ `Table` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della tabella da scrivere nel catalogo.
+ `Database` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del database in cui scrivere.
+ `AdditionalOptions`: una matrice della mappa di coppie chiave-valore.

  Ogni chiave è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Ogni valore è una stringa UTF-8 corrispondente al [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica opzioni di connessione aggiuntive per il catalogo Iceberg di destinazione.
+ `SchemaChangePolicy`: un oggetto [CatalogSchemaChangePolicy](#aws-glue-api-visual-job-api-CatalogSchemaChangePolicy).

  La policy per la gestione delle modifiche allo schema nel catalogo di destinazione.
+ `AutoDataQuality`: un oggetto [AutoDataQuality](#aws-glue-api-visual-job-api-AutoDataQuality).

  Specifica se abilitare automaticamente la valutazione della qualità dei dati per il catalogo S3 Iceberg di destinazione. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente durante l'operazione di scrittura.

## DBELTConnectorStruttura Dynamo Source
Sorgente Dynamo DBELTConnector

Specifica un connettore ELT DynamoDB di origine per l'estrazione dei dati dalle tabelle DynamoDB.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del connettore ELT DynamoDB di origine.
+ `ConnectionOptions`: un oggetto [DDBELTConnectionOpzioni](#aws-glue-api-visual-job-api-DDBELTConnectionOptions).

  Le opzioni di connessione per il connettore DynamoDB ELT di origine.
+ `OutputSchemas`: una matrice di oggetti [GlueSchema](#aws-glue-api-visual-job-api-GlueSchema).

  Specifica lo schema di dati per il connettore DynamoDB ELT di origine.

## DDBELTConnectionStruttura delle opzioni
DDBELTConnectionOpzioni

Specifica le opzioni di connessione per le operazioni DynamoDB ELT (estrazione, caricamento, trasformazione). Questa struttura contiene parametri di configurazione per la connessione a e l'estrazione di dati da tabelle DynamoDB utilizzando il connettore ELT.

**Campi**
+ `DynamodbExport`: stringa UTF-8 (valori validi: `ddb` \$1 `s3`).

  Specifica il tipo di esportazione per l'estrazione di dati DynamoDB. Questo parametro determina il modo di cui i dati vengono esportati dalla tabella DynamoDB durante il processo ELT.
+ `DynamodbUnnestDDBJson`: booleano.

  Un valore booleano che specifica se annullare la nidificazione del formato DynamoDB JSON durante l'estrazione dei dati. Se impostato su `true`, il connettore appiattirà le strutture JSON annidate negli elementi DynamoDB. Se impostato su `false`, la struttura JSON DynamoDB originale viene preservata.
+ `DynamodbTableArn` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome della risorsa Amazon (ARN) della tabella DynamoDB da cui estrarre i dati. Questo parametro specifica la tabella di origine per l'operazione ELT. 
+ `DynamodbS3Bucket`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il nome del bucket Amazon S3 utilizzato per l'archiviazione intermedia durante il processo ELT DynamoDB. Questo bucket viene utilizzato per archiviare temporaneamente i dati DynamoDB esportati prima che vengano elaborati dal processo ELT.
+ `DynamodbS3Prefix`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il prefisso della chiave dell'oggetto S3 per i file archiviati nel bucket S3 intermedio durante il processo ELT DynamoDB. Questo prefisso aiuta a organizzare e identificare i file temporanei creati durante l'estrazione dei dati.
+ `DynamodbS3BucketOwner`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  L'ID dell' AWS account del proprietario del bucket S3 specificato in. `DynamodbS3Bucket` Questo parametro è richiesto quando il bucket S3 è di proprietà di un AWS account diverso da quello che esegue il job ELT e consente l'accesso tra account diversi al bucket di archiviazione intermedio.
+ `DynamodbStsRoleArn`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il ruolo Amazon Resource Name (ARN) del AWS Security Token Service (STS) da assumere per l'accesso alle risorse DynamoDB e S3 durante l'operazione ELT. Questo ruolo deve disporre delle autorizzazioni necessarie per leggere dalla tabella DynamoDB e scrivere nel bucket S3 intermedio. 

## DDBELTCatalogAdditionalOptions struttura
DDBELTCatalogAdditionalOptions

Specifica opzioni aggiuntive per le operazioni di catalogo ELT DynamoDB.

**Campi**
+ `DynamodbExport`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Specifica la configurazione di esportazione DynamoDB per l'operazione ETL.
+ `DynamodbUnnestDDBJson`: booleano.

  Specifica se annullare la nidificazione del formato JSON DynamoDB. Se impostato su `true`, le strutture JSON annidate negli elementi DynamoDB vengono appiattite.

## Struttura Route
Route

Specifica un nodo di routing che indirizza i dati verso diversi percorsi di output in base a condizioni di filtraggio definite.

**Campi**
+ `Name` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #63](aws-glue-api-common.md#regex_63).

  Il nome del nodo di routing.
+ `Inputs` - *obbligatorio:* una matrice di stringhe UTF-8, non inferiore o superiore a 1 stringa.

  La connessione di ingresso del nodo di routing.
+ `GroupFiltersList` - *obbligatorio:* una matrice di oggetti [GroupFilters](#aws-glue-api-visual-job-api-GroupFilters).

  Un elenco di filtri di gruppo che definiscono le condizioni di routing e i criteri per l'indirizzamento dei dati in diversi percorsi di output.

## GroupFilters struttura
GroupFilters

Specifica un gruppo di filtri con un operatore logico che stabilisce come i filtri vengono combinati per valutare le condizioni di routing.

**Campi**
+ `GroupName` - *obbligatorio:* stringa UTF-8, corrispondente a [Custom string pattern #60](aws-glue-api-common.md#regex_60).

  Il nome del gruppo di filtri.
+ `Filters` - *obbligatorio:* una matrice di oggetti [FilterExpression](#aws-glue-api-visual-job-api-FilterExpression).

  Un elenco di espressioni di filtro che definiscono le condizioni per questo gruppo.
+ `LogicalOperator` - *obbligatorio:* stringa UTF-8 (valori validi: `AND` \$1 `OR`).

  L'operatore logico utilizzato per combinare i filtri in questo gruppo. Determina se tutti i filtri devono corrispondere (AND) o può corrispondere uno qualsiasi dei filtri (OR).

## AutoDataQuality struttura
AutoDataQuality

Speciifica le opzioni di configurazione per la valutazione automatica della qualità dei dati nei AWS Glue lavori. Questa struttura abilita controlli e monitoraggio automatizzati della qualità dei dati durante le operazioni ETL, contribuendo a garantire l'integrità e l'affidabilità dei dati senza interventi manuali.

**Campi**
+ `IsEnabled`: booleano.

  Specifica se è abilitata la valutazione automatica della qualità dei dati. Se impostato su `true`, i controlli di qualità dei dati vengono eseguiti automaticamente.
+ `EvaluationContext`: stringa UTF-8, corrispondente a [Custom string pattern #61](aws-glue-api-common.md#regex_61).

  Il contesto di valutazione per i controlli di qualità dei dati automatici. Definisce l'ambito e i parametri per la valutazione della qualità dei dati.