

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Ottimizzazione delle prestazioni per Apache Airflow su Amazon MWAA
<a name="best-practices-tuning"></a>

Questo argomento descrive come ottimizzare le prestazioni di un ambiente Amazon Managed Workflows for Apache Airflow utilizzando. [Utilizzo delle opzioni di configurazione Apache Airflow su Amazon MWAA](configuring-env-variables.md)

**Contents**
+ [Aggiungere un'opzione di configurazione Apache Airflow](#best-practices-tuning-console-add)
+ [Pianificatore Apache Airflow](#best-practices-tuning-scheduler)
  + [Parameters](#best-practices-tuning-scheduler-params)
  + [Limits](#best-practices-tuning-scheduler-limits)
+ [Cartelle DAG](#best-practices-tuning-dag-folders)
  + [Parameters](#best-practices-tuning-dag-folders-params)
+ [File DAG](#best-practices-tuning-dag-files)
  + [Parameters](#best-practices-tuning-dag-files-params)
+ [Processi](#best-practices-tuning-tasks)
  + [Parameters](#best-practices-tuning-tasks-params)

## Aggiungere un'opzione di configurazione Apache Airflow
<a name="best-practices-tuning-console-add"></a>

Utilizzate la seguente procedura per aggiungere un'opzione di configurazione Airflow al vostro ambiente.

1. Apri la pagina [Ambienti](https://console.aws.amazon.com/mwaa/home#/environments) sulla console Amazon MWAA.

1. Scegli un ambiente.

1. Scegli **Modifica**.

1. Scegli **Next (Successivo)**.

1. Scegli **Aggiungi configurazione personalizzata** nel riquadro delle **opzioni di configurazione Airflow**.

1. Scegli una configurazione dall'elenco a discesa e inserisci un valore, oppure inserisci una configurazione personalizzata e inserisci un valore.

1. Scegli **Aggiungi configurazione personalizzata** per ogni configurazione che desideri aggiungere.

1. Scegli **Save** (Salva).

Per ulteriori informazioni, consulta[Utilizzo delle opzioni di configurazione Apache Airflow su Amazon MWAA](configuring-env-variables.md).

## Pianificatore Apache Airflow
<a name="best-practices-tuning-scheduler"></a>

Lo scheduler Apache Airflow è un componente fondamentale di Apache Airflow. Un problema con lo scheduler può DAGs impedire l'analisi e la pianificazione delle attività. Per ulteriori informazioni sull'ottimizzazione [dello scheduler di Apache Airflow, consulta la sezione Ottimizzazione delle prestazioni dello scheduler nel sito Web della documentazione di Apache Airflow.](https://airflow.apache.org/docs/apache-airflow/2.2.2/concepts/scheduler.html#fine-tuning-your-scheduler-performance)

### Parameters
<a name="best-practices-tuning-scheduler-params"></a>

Questa sezione descrive le opzioni di configurazione disponibili per lo scheduler Apache Airflow (Apache Airflow v2 e versioni successive) e i relativi casi d'uso.

------
#### [ Apache Airflow v3 ]


| Configurazione | Caso d’uso | 
| --- | --- | 
|  **[celery.sync\$1parallelism](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parallelism)** Il numero di processi utilizzati da Celery Executor per sincronizzare lo stato delle attività. **Impostazione predefinita**: 1  |  È possibile utilizzare questa opzione per prevenire i conflitti di coda limitando i processi utilizzati da Celery Executor. Per impostazione predefinita, viene impostato un valore per `1` prevenire errori nella consegna dei registri delle attività ai registri. CloudWatch Impostare il valore su `0` significa utilizzare il numero massimo di processi, ma può causare errori durante la consegna dei registri delle attività.  | 
|  **[scheduler.scheduler\$1idle\$1sleep\$1time](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#scheduler-idle-sleep-time)** Il numero di secondi di attesa tra un'elaborazione consecutiva dei file DAG nel «ciclo» dello scheduler.  **Impostazione predefinita**: 1  |  *È possibile utilizzare questa opzione per liberare l'utilizzo della CPU sullo scheduler **aumentando** il tempo di inattività dello scheduler dopo aver terminato il recupero dei risultati dell'analisi DAG, la ricerca e l'accodamento delle attività e l'esecuzione delle attività in coda nell'Executor.* L'aumento di questo valore consuma il numero di thread di pianificazione eseguiti su un ambiente in `dag_processor.parsing_processes` Apache Airflow v2 e Apache Airflow v3. Ciò può ridurre la capacità di analisi degli scheduler e aumentare il tempo necessario per il DAGs popolamento nel server web. DAGs   | 
|  **[scheduler.max\$1dagruns\$1to\$1create\$1per\$1loop](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#max-dagruns-to-create-per-loop)** Il numero massimo di elementi da creare per ogni «ciclo» dello scheduler. DAGs *DagRuns* **Impostazione predefinita**: 10  |  È possibile utilizzare questa opzione per liberare risorse per la pianificazione delle attività **diminuendo** il numero massimo di «loop» dello *DagRuns*scheduler.  | 
|  **[dag\$1processor.parsing\$1processes](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parsing-processes)** Il numero di thread che lo scheduler può eseguire in parallelo alla pianificazione. DAGs **Predefinito**: Usa `(2 * number of vCPUs) - 1`  |  È possibile utilizzare questa opzione per liberare risorse **diminuendo** il numero di processi che lo scheduler esegue in parallelo per analizzare. DAGs Si consiglia di mantenere basso questo numero se l'analisi del DAG influisce sulla pianificazione delle attività. È **necessario** specificare un valore inferiore al numero di vCPU nell'ambiente. Per ulteriori informazioni, consulta [Limiti](#best-practices-tuning-scheduler-limits).  | 

------
#### [ Apache Airflow v2 ]


| Configurazione | Caso d’uso | 
| --- | --- | 
|  **[celery.sync\$1parallelism](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parallelism)** Il numero di processi utilizzati da Celery Executor per sincronizzare lo stato delle attività. **Impostazione predefinita**: 1  |  È possibile utilizzare questa opzione per prevenire i conflitti di coda limitando i processi utilizzati da Celery Executor. Per impostazione predefinita, viene impostato un valore per `1` prevenire errori nella consegna dei registri delle attività ai registri. CloudWatch Impostare il valore su `0` significa utilizzare il numero massimo di processi, ma può causare errori durante la consegna dei registri delle attività.  | 
|  **[scheduler.idle\$1sleep\$1time](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#scheduler-idle-sleep-time)** Il numero di secondi di attesa tra un'elaborazione consecutiva dei file DAG nel «ciclo» dello scheduler.  **Impostazione predefinita**: 1  |  *È possibile utilizzare questa opzione per liberare l'utilizzo della CPU sullo scheduler **aumentando** il tempo di inattività dello scheduler dopo aver terminato il recupero dei risultati dell'analisi DAG, la ricerca e l'accodamento delle attività e l'esecuzione delle attività in coda nell'Executor.* L'aumento di questo valore consuma il numero di thread di pianificazione eseguiti su un ambiente in `scheduler.parsing_processes` Apache Airflow v2 e Apache Airflow v3. Ciò può ridurre la capacità di analisi degli scheduler e aumentare il tempo necessario per il DAGs popolamento nel server web. DAGs   | 
|  **[scheduler.max\$1dagruns\$1to\$1create\$1per\$1loop](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#max-dagruns-to-create-per-loop)** Il numero massimo di elementi da creare per ogni «ciclo» dello scheduler. DAGs *DagRuns* **Impostazione predefinita**: 10  |  È possibile utilizzare questa opzione per liberare risorse per la pianificazione delle attività **diminuendo** il numero massimo di «loop» dello *DagRuns*scheduler.  | 
|  **[scheduler.parsing\$1processes](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parsing-processes)** Il numero di thread che lo scheduler può eseguire in parallelo alla pianificazione. DAGs **Predefinito**: Usa `(2 * number of vCPUs) - 1`  |  È possibile utilizzare questa opzione per liberare risorse **diminuendo** il numero di processi che lo scheduler esegue in parallelo per analizzare. DAGs Si consiglia di mantenere basso questo numero se l'analisi del DAG influisce sulla pianificazione delle attività. È **necessario** specificare un valore inferiore al numero di vCPU nell'ambiente. Per ulteriori informazioni, consulta [Limiti](#best-practices-tuning-scheduler-limits).  | 

------

### Limits
<a name="best-practices-tuning-scheduler-limits"></a>

Questa sezione descrive i limiti da considerare quando si regolano i parametri predefiniti per lo scheduler.<a name="scheduler-considerations"></a>

**scheduler.parsing\$1processes, scheduler.max\$1threads (solo v2)**  
Sono consentiti due thread per vCPU per una classe di ambiente. Almeno un thread deve essere riservato allo scheduler per una classe di ambiente. Se si nota un ritardo nella pianificazione delle attività, potrebbe essere necessario aumentare la [classe di ambiente](environment-class.md). Ad esempio, un ambiente di grandi dimensioni ha un'istanza del contenitore Fargate a 4 vCpu come scheduler. Ciò significa che è disponibile un massimo di thread `7` totali da utilizzare per altri processi. Cioè, due thread moltiplicati per quattro vCPUs, meno uno per lo scheduler stesso. Il valore specificato in `scheduler.max_threads` (solo v2) non `scheduler.parsing_processes` deve superare il numero di thread disponibili per una classe di ambiente, come elencato:  
+ **mw1.small** — Non deve superare il numero di `1` thread per altri processi. Il thread rimanente è riservato allo scheduler.
+ **mw1.medium** — Non deve superare i `3` thread per altri processi. Il thread rimanente è riservato allo scheduler.
+ **mw1.large** — Non deve superare i `7` thread per altri processi. Il thread rimanente è riservato allo scheduler.

## Cartelle DAG
<a name="best-practices-tuning-dag-folders"></a>

L'utilità di pianificazione Apache Airflow analizza DAGs continuamente la cartella nel tuo ambiente. Qualsiasi `plugins.zip` file contenuto o file Python (`.py`) contenente istruzioni di importazione «airflow». Tutti gli oggetti Python DAG risultanti vengono quindi inseriti in un file *DagBag*affinché quel file venga elaborato dallo scheduler per determinare quali attività, se del caso, devono essere pianificate. L'analisi dei file DAG avviene indipendentemente dal fatto che i file contengano oggetti DAG validi.

### Parameters
<a name="best-practices-tuning-dag-folders-params"></a>

Questa sezione descrive le opzioni di configurazione disponibili per la DAGs cartella (Apache Airflow v2 e versioni successive) e i relativi casi d'uso.

------
#### [ Apache Airflow v3 ]


| Configurazione | Caso d’uso | 
| --- | --- | 
|  **[dag\$1processor.refresh\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#config-dag-processor-refresh-interval)** Il numero di secondi in cui la cartella deve essere scansionata alla ricerca di nuovi file. DAGs  **Impostazione predefinita:** 300 secondi  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di secondi di analisi della DAGs cartella. Ti consigliamo di aumentare questo valore se riscontri lunghi tempi di analisi in`total_parse_time metrics`, ad esempio a causa dell'elevato numero di file nella cartella DAGs .  | 
|  **[dag\$1processor.min\$1file\$1process\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-file-process-interval)** Il numero di secondi dopo i quali lo scheduler analizza un DAG e vengono riflessi gli aggiornamenti al DAG. **Impostazione predefinita: 30 secondi**  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di secondi che lo scheduler attende prima di analizzare un DAG. Ad esempio, se si specifica un valore di`30`, il file DAG viene analizzato ogni 30 secondi. Si consiglia di mantenere questo numero elevato per ridurre l'utilizzo della CPU nell'ambiente.  | 

------
#### [ Apache Airflow v2 ]


| Configurazione | Caso d’uso | 
| --- | --- | 
|  **[scheduler.dag\$1dir\$1list\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-dir-list-interval)** Il numero di secondi in cui la cartella deve essere scansionata alla ricerca di nuovi file. DAGs  **Impostazione predefinita:** 300 secondi  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di secondi di analisi della DAGs cartella. Ti consigliamo di aumentare questo valore se riscontri lunghi tempi di analisi in`total_parse_time metrics`, ad esempio a causa dell'elevato numero di file nella cartella DAGs .  | 
|  **[scheduler.min\$1file\$1process\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-file-process-interval)** Il numero di secondi dopo i quali lo scheduler analizza un DAG e vengono riflessi gli aggiornamenti al DAG. **Impostazione predefinita: 30 secondi**  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di secondi che lo scheduler attende prima di analizzare un DAG. Ad esempio, se si specifica un valore di`30`, il file DAG viene analizzato ogni 30 secondi. Si consiglia di mantenere questo numero elevato per ridurre l'utilizzo della CPU nell'ambiente.  | 

------

## File DAG
<a name="best-practices-tuning-dag-files"></a>

Come parte del ciclo di pianificazione Apache Airflow, i singoli file DAG vengono analizzati per estrarre oggetti DAG Python. [In Apache Airflow v2 e versioni successive, lo scheduler analizza un numero massimo di processi di analisi contemporaneamente.](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parsing-processes) Il numero di secondi specificato in `scheduler.min_file_process_interval` (v2) o `dag_processor.min_file_process_interval` (v3) deve trascorrere prima che lo stesso file venga nuovamente analizzato.

### Parameters
<a name="best-practices-tuning-dag-files-params"></a>

Questa sezione descrive le opzioni di configurazione disponibili per i file Apache Airflow DAG (Apache Airflow v2 e versioni successive) e i relativi casi d'uso.

------
#### [ Apache Airflow v3 ]


| Configurazione | Caso d’uso | 
| --- | --- | 
|  **[dag\$1processor.dag\$1file\$1processor\$1timeout](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#dag-file-processor-timeout)** Il numero di secondi prima del timeout dell'elaborazione di un file DAG. *DagFileProcessor* **Impostazione predefinita:** 50 secondi  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il tempo necessario prima del *DagFileProcessor*timeout. Si consiglia di aumentare questo valore se si verificano dei timeout nei registri di elaborazione DAG che impediscono il caricamento di file validi. DAGs   | 
|  **[core.dagbag\$1import\$1timeout](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#dagbag-import-timeout)** Il numero di secondi prima dell'importazione di un file Python scade. **Impostazione predefinita: 30 secondi**  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il tempo necessario prima che lo scheduler scada durante l'importazione di un file Python per estrarre gli oggetti DAG. Questa opzione viene elaborata come parte del «ciclo» dello scheduler e deve contenere un valore inferiore al valore specificato in. `dag_processor.dag_file_processor_timeout`  | 
|  **[core.min\$1serialized\$1dag\$1update\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-serialized-dag-update-interval)** Il numero minimo di secondi dopo il quale vengono aggiornati i serializzati nel database. DAGs  Valore **predefinito: 30**  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di secondi dopo i quali vengono aggiornati i dati serializzati DAGs nel database. Si consiglia di aumentare questo valore se si dispone di DAGs un numero elevato o complesso DAGs. L'aumento di questo valore riduce il carico sullo scheduler e sul database man mano che DAGs vengono serializzati.   | 
|  **[core.min\$1serialized\$1dag\$1fetch\$1interval](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#min-serialized-dag-fetch-interval)** Il numero di secondi in cui un DAG serializzato viene recuperato nuovamente dal database quando è già caricato in. DagBag **Impostazione predefinita**: 10  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di secondi di recupero di un DAG serializzato. Il valore deve essere maggiore del valore specificato in `core.min_serialized_dag_update_interval` per ridurre le velocità di «scrittura» del database. L'aumento di questo valore riduce il carico sul server web e sul database man mano che DAGs vengono serializzati.  | 

------
#### [ Apache Airflow v2 ]


| Configurazione | Caso d’uso | 
| --- | --- | 
|  **[core.dag\$1file\$1processor\$1timeout](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-file-processor-timeout)** Il numero di secondi prima del timeout dell'elaborazione di un file DAG. *DagFileProcessor* **Impostazione predefinita:** 50 secondi  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il tempo necessario prima del *DagFileProcessor*timeout. Si consiglia di aumentare questo valore se si verificano dei timeout nei registri di elaborazione DAG che impediscono il caricamento di file validi. DAGs   | 
|  **[core.dagbag\$1import\$1timeout](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dagbag-import-timeout)** Il numero di secondi prima dell'importazione di un file Python scade. **Impostazione predefinita: 30 secondi**  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il tempo necessario prima che lo scheduler scada durante l'importazione di un file Python per estrarre gli oggetti DAG. Questa opzione viene elaborata come parte del «ciclo» dello scheduler e deve contenere un valore inferiore al valore specificato in. `core.dag_file_processor_timeout`  | 
|  **[core.min\$1serialized\$1dag\$1update\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-serialized-dag-update-interval)** Il numero minimo di secondi dopo il quale vengono aggiornati i serializzati nel database. DAGs  Valore **predefinito: 30**  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di secondi dopo i quali vengono aggiornati i dati serializzati DAGs nel database. Si consiglia di aumentare questo valore se si dispone di DAGs un numero elevato o complesso DAGs. L'aumento di questo valore riduce il carico sullo scheduler e sul database man mano che DAGs vengono serializzati.   | 
|  **[core.min\$1serialized\$1dag\$1fetch\$1interval](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#min-serialized-dag-fetch-interval)** Il numero di secondi in cui un DAG serializzato viene recuperato nuovamente dal database quando è già caricato in. DagBag **Impostazione predefinita**: 10  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di secondi di recupero di un DAG serializzato. Il valore deve essere maggiore del valore specificato in `core.min_serialized_dag_update_interval` per ridurre le velocità di «scrittura» del database. L'aumento di questo valore riduce il carico sul server web e sul database man mano che DAGs vengono serializzati.  | 

------

## Processi
<a name="best-practices-tuning-tasks"></a>

Lo scheduler e gli operatori di Apache Airflow sono entrambi coinvolti nelle attività di attesa e disattesa. ****Lo scheduler prende le attività analizzate pronte per essere pianificate dallo stato Nessuno allo stato Pianificato.**** **L'esecutore, anch'esso in esecuzione nel contenitore scheduler di Fargate, mette in coda tali attività e ne imposta lo stato su In coda.** Quando i lavoratori hanno capacità, preleva l'operazione dalla coda e imposta lo stato su In **esecuzione**, che successivamente modifica lo stato in Operazione completata o **Non riuscita a seconda che l'attività abbia **esito positivo** o negativo**.

### Parameters
<a name="best-practices-tuning-tasks-params"></a>

Questa sezione descrive le opzioni di configurazione disponibili per le attività di Apache Airflow e i relativi casi d'uso.

Le opzioni di configurazione predefinite che Amazon MWAA sostituisce sono contrassegnate. *red*

------
#### [ Apache Airflow v3 ]


| Configurazione | Caso d’uso | 
| --- | --- | 
|  **[core.parallelism](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#parallelism)** Il numero massimo di istanze di attività che possono avere uno stato. `Running` **Predefinito:** impostato dinamicamente in base a. `(maxWorkers * maxCeleryWorkers) / schedulers * 1.5`  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di istanze di attività che possono essere eseguite contemporaneamente. Il valore specificato deve essere il numero di lavoratori disponibili moltiplicato per la densità delle attività dei lavoratori. Si consiglia di modificare questo valore solo quando si verifica un gran numero di attività bloccate nello stato «In esecuzione» o «In coda».  | 
|  **[core.execute\$1tasks\$1new\$1python\$1interpreter](https://airflow.apache.org/docs/apache-airflow/3.0.6/configurations-ref.html#execute-tasks-new-python-interpreter)** Determina se Apache Airflow esegue le attività biforcando il processo principale o creando un nuovo processo Python. **Default**: `True`  |  Se impostato su`True`, Apache Airflow riconosce le modifiche apportate ai plugin come un nuovo processo Python creato per eseguire attività.  | 
|  **[celery.worker\$1concurrency](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-concurrency)** Amazon MWAA sostituisce l'installazione di base Airflow per questa opzione per scalare i lavoratori come parte del componente di scalabilità automatica. **Impostazione** predefinita: non applicabile  |  *Any value specified for this option is ignored.*  | 
|  **[celery.worker\$1autoscale](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-autoscale)** La concorrenza delle attività per i lavoratori. **Valori predefiniti:** [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/mwaa/latest/userguide/best-practices-tuning.html)  |  È possibile utilizzare questa opzione per liberare risorse **riducendo** la concomitanza tra le mansioni dei `maximum` lavoratori. `minimum` I lavoratori accettano fino alle attività `maximum` simultanee configurate, indipendentemente dal fatto che vi siano risorse sufficienti per farlo. Se le attività sono pianificate senza risorse sufficienti, le attività falliscono immediatamente. Si consiglia di modificare questo valore per le attività che richiedono molte risorse riducendo i valori a un valore inferiore a quello predefinito per consentire una maggiore capacità per attività.  | 

------
#### [ Apache Airflow v2 ]


| Configurazione | Caso d’uso | 
| --- | --- | 
|  **[core.parallelismo](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#parallelism)** Il numero massimo di istanze di attività che possono avere uno stato. `Running` **Predefinito:** impostato dinamicamente in base a. `(maxWorkers * maxCeleryWorkers) / schedulers * 1.5`  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di istanze di attività che possono essere eseguite contemporaneamente. Il valore specificato deve essere il numero di lavoratori disponibili moltiplicato per la densità delle attività dei lavoratori. Si consiglia di modificare questo valore solo quando si verifica un gran numero di attività bloccate nello stato «In esecuzione» o «In coda».  | 
|  **[core.dag\$1concurrency](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#dag-concurrency)** Il numero di istanze di attività che possono essere eseguite contemporaneamente per ogni DAG. **Valore predefinito: 10000**  |  È possibile utilizzare questa opzione per liberare risorse **aumentando** il numero di istanze di attività consentite per l'esecuzione simultanea. Ad esempio, se si dispone di cento attività parallele DAGs con dieci e si desidera che tutte vengano DAGs eseguite contemporaneamente, è possibile calcolare il parallelismo massimo come il numero di lavoratori disponibili moltiplicato per la densità delle attività dei lavoratori in`celery.worker_concurrency`, diviso per il numero di. DAGs  | 
|  **[core.execute\$1tasks\$1new\$1python\$1interpreter](https://airflow.apache.org/docs/apache-airflow/2.10.3/configurations-ref.html#execute-tasks-new-python-interpreter)** Determina se Apache Airflow esegue le attività biforcando il processo principale o creando un nuovo processo Python. **Default**: `True`  |  Se impostato su`True`, Apache Airflow riconosce le modifiche apportate ai plugin come un nuovo processo Python creato per eseguire attività.  | 
|  **[celery.worker\$1concurrency](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-concurrency)** Amazon MWAA sostituisce l'installazione di base Airflow per questa opzione per scalare i lavoratori come parte del componente di scalabilità automatica. **Impostazione** predefinita: non applicabile  |  *Any value specified for this option is ignored.*  | 
|  **[celery.worker\$1autoscale](https://airflow.apache.org/docs/apache-airflow-providers-celery/stable/configurations-ref.html#worker-autoscale)** La concorrenza delle attività per i lavoratori. **Valori predefiniti:** [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/mwaa/latest/userguide/best-practices-tuning.html)  |  È possibile utilizzare questa opzione per liberare risorse **riducendo** la concomitanza tra le mansioni dei `maximum` lavoratori. `minimum` I lavoratori accettano fino alle attività `maximum` simultanee configurate, indipendentemente dal fatto che vi siano risorse sufficienti per farlo. Se le attività sono pianificate senza risorse sufficienti, le attività falliscono immediatamente. Si consiglia di modificare questo valore per le attività che richiedono molte risorse riducendo i valori a un valore inferiore a quello predefinito per consentire una maggiore capacità per attività.  | 

------