

# PERF 5 In che modo configuri la soluzione di rete?
<a name="perf-05"></a>

 La soluzione di rete ottimale per un carico di lavoro varia in base a latenza, requisiti di throughput, jitter e larghezza di banda. I vincoli fisici, ad esempio le risorse utente o in locale, determinano le opzioni di posizione. Questi vincoli possono essere compensati con le edge location o la collocazione delle risorse. 

**Topics**
+ [PERF05-BP01 In che modo la rete influisce sulle prestazioni](perf_select_network_understand_impact.md)
+ [PERF05-BP02 Valutazione delle funzionalità di rete disponibili](perf_select_network_evaluate_features.md)
+ [PERF05-BP03 Scelta di una connettività dedicata o una VPN di dimensioni adeguate ai carichi di lavoro ibridi](perf_select_network_hybrid.md)
+ [PERF05-BP04 Sfruttamento del bilanciamento del carico e dell'offloading della crittografia](perf_select_network_encryption_offload.md)
+ [PERF05-BP05 Scelta dei protocolli di rete per migliorare le prestazioni](perf_select_network_protocols.md)
+ [PERF05-BP06 Scelta della posizione del carico di lavoro in base ai requisiti di rete](perf_select_network_location.md)
+ [PERF05-BP07 Ottimizzazione della configurazione di rete in base ai parametri](perf_select_network_optimize.md)

# PERF05-BP01 In che modo la rete influisce sulle prestazioni
<a name="perf_select_network_understand_impact"></a>

 Analizza e comprendi come le decisioni relative alla rete influenzano le prestazioni di rete. La rete è responsabile della connettività tra componenti dell'applicazione, servizi cloud, reti edge e dati on-premise e quindi può avere un forte impatto sulle prestazioni dei carichi di lavoro. Oltre alle prestazioni del carico di lavoro, l'esperienza dell'utente è influenzata anche da latenza della rete, larghezza di banda, protocolli, posizione, congestione della rete, jitter, velocità di trasmissione effettiva e regole di instradamento. 

 **Risultato desiderato:** Disporre di un elenco documentato dei requisiti di rete del carico di lavoro, tra cui latenza, dimensione dei pacchetti, regole di instradamento, protocolli e modelli di traffico di supporto. Esaminare le soluzioni di rete disponibili e individuare il servizio che soddisfi le caratteristiche di rete del proprio carico di lavoro. Le reti basate sul cloud possono essere ricostruite rapidamente, quindi l'evoluzione dell'architettura di rete nel tempo è necessaria per migliorare l'efficienza delle prestazioni. 

 **Anti-pattern comuni:** 
+  Tutto il traffico passa attraverso i data center esistenti. 
+  Le sessioni Direct Connect vengono sovradimensionate senza considerare i requisiti di utilizzo effettivi. 
+  Quando si definiscono le soluzioni di rete, non si considerano le caratteristiche del carico di lavoro e l'overhead della crittografia. 
+  Per le soluzioni di rete nel cloud si utilizzano concetti e strategie on-premise. 

 **Vantaggi dell'adozione di questa best practice:** Comprendere l'impatto della rete sulle prestazioni del carico di lavoro ti aiuterà a identificare i potenziali colli di bottiglia, migliorare l'esperienza dell'utente, aumentare l'affidabilità e ridurre la manutenzione operativa al variare del carico di lavoro. 

 **Livello di rischio associato se questa best practice non fosse adottata:** Alta 

## Guida all'implementazione
<a name="implementation-guidance"></a>

 Identifica i parametri importanti delle prestazioni di rete del carico di lavoro e cattura le sue caratteristiche di rete. Definisci e documenta i requisiti come parte di un approccio basato sui dati, utilizzando valori di riferimento o test di carico. Utilizza tali dati per identificare i punti in cui la soluzione di rete è vincolante ed esamina le opzioni di configurazione che possono migliorare il carico di lavoro. Comprendi le caratteristiche e le opzioni di rete native per il cloud disponibili e come questa possono influire sulle prestazioni del carico di lavoro in base ai requisiti. Ogni funzionalità di rete presenta vantaggi e svantaggi e può essere configurata per soddisfare le caratteristiche del carico di lavoro e dimensionarsi in base alle singole esigenze. 

 **Passaggi dell'implementazione:** 

1.  Definizione e documentazione dei requisiti di prestazioni della rete: 

   1.  Includi i parametri come latenza di rete, larghezza di banda, protocolli, posizioni, modelli di traffico (picchi e frequenza), velocità di trasmissione effettiva, crittografia, ispezione e regole di instradamento. 

1.  Acquisisci le caratteristiche fondamentali della rete: 

   1.  [Log di flusso VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

   1.  [Parametri di AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw/transit-gateway-cloudwatch-metrics.html) 

   1.  [Parametri AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-cloudwatch-metrics.html) 

1.  Acquisisci le caratteristiche di rete dell'applicazione: 

   1.  [Adattatore di rete elastico](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html) 

   1.  [AWS App Mesh metrics (Parametri AWS App Mesh)](https://docs.aws.amazon.com/app-mesh/latest/userguide/envoy-metrics.html) 

   1.  [Amazon API Gateway metrics (Parametri Amazon API Gateway)](https://docs.aws.amazon.com/apigateway/latest/developerguide/api-gateway-metrics-and-dimensions.html) 

1.  Acquisisci le caratteristiche di rete edge: 

   1.  [Amazon CloudFront metrics (Visualizzazione dei parametri di CloudFront e di Lambda@Edge)](https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/viewing-cloudfront-metrics.html) 

   1.  [Amazon Route 53 metrics (Monitoraggio delle risorse con i controlli dell'integrità di Amazon Route 53 e Amazon CloudWatch)](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/monitoring-cloudwatch.html) 

   1.  [AWS Global Accelerator metrics (Parametri AWS Global Accelerator)](https://docs.aws.amazon.com/global-accelerator/latest/dg/cloudwatch-monitoring.html) 

1.  Acquisisci le caratteristiche di rete edge ibride: 

   1.  [Parametri Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/monitoring-cloudwatch.html) 

   1.  [Parametri VPN da-sito-a-sito AWS](https://docs.aws.amazon.com/vpn/latest/s2svpn/monitoring-cloudwatch-vpn.html) 

   1.  [Parametri VPN client AWS](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/monitoring-cloudwatch.html) 

   1.  [Parametri WAN Cloud AWS](https://docs.aws.amazon.com/vpc/latest/cloudwan/cloudwan-cloudwatch-metrics.html) 

1.  Acquisisci le caratteristiche di rete di sicurezza: 

   1.  [AWS Shield, WAF, and Network Firewall metrics (Parametri AWS Shield, WAF e firewall di rete)](https://docs.aws.amazon.com/waf/latest/developerguide/monitoring-cloudwatch.html) 

1.  Acquisisci parametri di prestazioni end-to-end con gli strumenti di tracciamento: 

   1.  [AWS X-Ray](https://aws.amazon.com/xray/) 

   1.  [Usare il RUM Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/CloudWatch-RUM.html) 

1.  Esegui il benchmark e testa le prestazioni della rete: 

   1.  [Velocità](https://aws.amazon.com/premiumsupport/knowledge-center/network-throughput-benchmark-linux-ec2/) di trasmissione effettiva del benchmark: alcuni fattori che possono influire sulle prestazioni della rete EC2 quando le istanze si trovano nella stessa VPC. Misura la larghezza di banda della rete tra le istanze EC2 Linux nello stesso VPC. 

   1.  Esegui [test di carico](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) per sperimentare soluzioni e opzioni di rete 

 **Livello di impegno per il piano di implementazione: **esiste *un livello di impegno medio* per documentare requisiti di rete del carico di lavoro, opzioni e soluzioni disponibili. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+ [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+ [Reti avanzate su Linux ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+ [Reti avanzate su Windows ](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+ [Gruppi di collocamento ](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+ [Abilitazione delle reti avanzate con Elastic Network Adapter (ENA) sulle istanze Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+ [Network Load Balancer ](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+ [Nuovi prodotti di rete con AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway ](https://docs.aws.amazon.com/vpc/latest/tgw)
+ [Passaggio all'instradamento basato sulla latenza in Amazon Route 53 ](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+ [Endpoint VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+ [Log di flusso VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Video correlati:** 
+ [Connectivity to AWS and hybrid AWS network architectures (NET317-R1) ](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+ [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1) ](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [Improve Global Network Performance for Applications](https://youtu.be/vNIALfLTW9M) 
+  [EC2 Instances and Performance Optimization Best Practices](https://youtu.be/W0PKclqP3U0) 
+  [Optimizing Network Performance for Amazon EC2 Instances](https://youtu.be/DWiwuYtIgu0) 
+  [Networking best practices and tips with the Well-Architected Framework (Best practice di rete e suggerimenti sul Framework Well-Architected)](https://youtu.be/wOMNpG49BeM) 
+  [AWS networking best practices in large-scale migrations](https://youtu.be/qCQvwLBjcbs) 

 **Esempi correlati:** 
+  [AWS Transit Gateway and Scalable Security Solutions (AWS Transit Gateway e soluzioni di sicurezza scalabili)](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [AWS Networking Workshops (Workshop di rete AWS)](https://networking.workshop.aws/) 

# PERF05-BP02 Valutazione delle funzionalità di rete disponibili
<a name="perf_select_network_evaluate_features"></a>

Valuta le funzionalità di rete nel cloud che possono aumentare le prestazioni. Misura l'impatto di tali funzionalità attraverso test, parametri e analisi. Ad esempio, sfrutta le funzionalità a livello di rete disponibili per ridurre latenza, perdita di pacchetti o jitter. 

Vengono creati numerosi servizi per migliorare le prestazioni e altre caratteristiche incluse nelle offerte per ottimizzare le prestazioni della rete. Sono disponibili servizi come AWS Global Accelerator e Amazon CloudFront per migliorare le prestazioni, mentre la maggior parte degli altri servizi include funzionalità di prodotto per l'ottimizzazione del traffico di rete. Rivedi le caratteristiche dei servizi, ad esempio le funzionalità di rete delle istanze EC2, i tipi di istanze di rete migliorate, le istanze ottimizzate per Amazon EBS, l'accelerazione del trasferimento Amazon S3 e CloudFront, per migliorare le prestazioni del carico di lavoro. 

**Risultato desiderato:** hai documentato l'inventario dei componenti all'interno del carico di lavoro e hai identificato le configurazioni di rete per componente che ti aiuteranno a rispettare la conformità ai requisiti relativi alle prestazioni. Dopo aver valutato le caratteristiche della rete, hai sperimentato e misurato le metriche relative alle prestazioni per identificare come utilizzare le funzionalità disponibili. 

**Anti-pattern comuni:** 
+ Hai inserito tutti i carichi di lavoro nella Regione AWS più vicina alla sede centrale e non in una Regione AWS vicina agli utenti finali. 
+ Mancata esecuzione del benchmarking delle prestazioni dei carichi di lavoro e continua valutazione delle prestazioni dei carichi di lavoro in base all'analisi di benchmark.
+ Mancata revisione delle configurazioni dei servizi in base alle opzioni di miglioramento delle prestazioni. 

**Vantaggi dell'adozione di questa best practice:** la valutazione di tutte le funzionalità e le opzioni del servizio consente di ridurre il costo dell'infrastruttura e l'impegno necessario per mantenere il carico di lavoro e aumentare l'assetto di sicurezza generale. Puoi utilizzare la struttura portante globale di AWS per garantire ai tuoi clienti la migliore esperienza di rete. 

**Livello di rischio associato se questa best practice non fosse adottata:** alto 

## Guida all'implementazione
<a name="implementation-guidance"></a>

Analizza quali opzioni di configurazione relative alla rete sono disponibili e come possono influire sul tuo carico di lavoro. La comprensione della modalità in cui tali opzioni interagiscono con la tua architettura e dell'impatto che avranno sia sulle prestazioni misurate sia sulle prestazioni percepite dagli utenti è fondamentale per ottimizzare le prestazioni. 

**Passaggi dell'implementazione:** 

1. Crea l'elenco dei componenti del carico di lavoro. 

   1. Crea, gestisci e monitora la rete dell'organizzazione mediante [Cloud AWS WAN](https://aws.amazon.com/cloud-wan/). 

   1. Ottieni maggiore visibilità a livello di rete mediante [Network Manager](https://docs.aws.amazon.com/vpc/latest/tgwnm/what-is-network-manager.html). Utilizza uno strumento per database di gestione delle configurazioni (CMDB) esistente oppure uno strumento come [AWS Config](https://aws.amazon.com/config/) per creare un inventario del carico di lavoro e della relativa configurazione. 

1. Se si tratta di un carico di lavoro esistente, individua e documenta l'analisi di benchmark per le metriche relative alle prestazioni, concentrandoti sui colli di bottiglia e sulle aree da migliorare. Le metriche relative alla rete a livello di prestazioni varieranno a seconda dei requisiti aziendali e delle caratteristiche del carico di lavoro. Come punto di partenza, le seguenti metriche possono essere importanti per la revisione del carico di lavoro: larghezza di banda, latenza, perdita di pacchetti, jitter e ritrasmissioni. 

1. Se si tratta di un nuovo carico di lavoro, esegui i [test di carico](https://aws.amazon.com/solutions/implementations/distributed-load-testing-on-aws/) per individuare eventuali colli di bottiglia relativi alle prestazioni. 

1. Per tutti i colli di bottiglia di questo tipo riscontrati, esamina le opzioni di configurazione per le soluzioni in uso per individuare le opportunità di miglioramento delle prestazioni. 

1. Se il percorso o gli instradamenti di rete non sono noti, utilizza [Network Access Analyzer](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-vaa.html) per individuarli. 

1. Rivedi i protocolli di rete per ridurre ulteriormente la latenza.
   + [PERF05-BP05 Scelta dei protocolli di rete per migliorare le prestazioni](perf_select_network_protocols.md) 

1. Se utilizzi una AWS Site-to-Site VPN tra più posizioni per connetterti a una Regione AWS, rivedi le [connessioni Site-to-Site VPN accelerate](https://docs.aws.amazon.com/vpn/latest/s2svpn/accelerated-vpn.html) per individuare eventuali opportunità di miglioramento delle prestazioni di rete.

1. Quando il traffico del carico di lavoro interessa più account, valuta la topologia della rete e i servizi per ridurre la latenza. 
   + Valuta i compromessi a livello di operazioni e prestazioni tra [Peering VPC](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) e [AWS Transit Gateway](https://aws.amazon.com/transit-gateway/) in caso di connessione di più account. AWS Transit Gateway supporta una velocità di trasmissione effettiva della VPN sito-sito AWS con dimensionamento superiore al [limite IPsec massimo](https://aws.amazon.com/blogs/networking-and-content-delivery/scaling-vpn-throughput-using-aws-transit-gateway/) mediante l'utilizzo di percorsi multipli. Il traffico tra Amazon VPC e AWS Transit Gateway rimane sulla rete AWS privata e non è esposto a Internet. AWS Transit Gateway semplifica le procedure di interconnessione di tutti i VPC, che possono interessare migliaia di Account AWS ed estendersi su reti on-premise. Condividi AWS Transit Gateway tra più account utilizzando la funzionalità [Gestione degli accessi alle risorse](https://aws.amazon.com/ram/). Per ottenere visibilità nel traffico di rete globale, utilizza [Network Manager](https://aws.amazon.com/transit-gateway/network-manager/) per avere una visione centralizzata delle metriche della rete. 

1. Rivedi la collocazione degli utenti e riduci la distanza tra gli utenti e il carico di lavoro.

   1. [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) è un servizio di rete che migliora le prestazioni del traffico degli utenti fino al 60% utilizzando l'infrastruttura di rete globale di Amazon Web Services. In caso di congestione di Internet, AWS Global Accelerator ottimizza il percorso verso la tua applicazione per ridurre la perdita di pacchetti, il jitter e la latenza in modo consistente. Fornisce inoltre indirizzi IP statici che semplificano lo spostamento degli endpoint tra zone di disponibilità o Regioni AWS senza la necessità di aggiornare la configurazione DNS o di modificare le applicazioni lato client. 

   1. [Amazon CloudFront](https://aws.amazon.com/cloudfront/) può migliorare le prestazioni della distribuzione e della latenza del carico di lavoro globalmente. CloudFront ha oltre 410 punti di presenza dislocati a livello globale che possono memorizzare i contenuti nella cache e ridurre la latenza per gli utenti finali. 

   1. Amazon Route 53 offre opzioni di [instradamento basato sulla latenza](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-latency.html), [instradamento basato sulla geolocalizzazione](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geo.html), [instradamento basato sulla geoprossimità](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geoproximity.html)e [instradamento basato su IP](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-ipbased.html) per aiutare a migliorare le prestazioni del carico di lavoro per un pubblico globale. Individua l'opzione di instradamento in grado di ottimizzare le prestazioni del carico di lavoro. A tale scopo, rivedi il traffico del carico di lavoro e la posizione degli utenti. 

1. Valuta altre caratteristiche di Amazon S3 per migliorare le operazioni di input/output al secondo (IOPS) relative all'archiviazione. 

   1.  [Amazon S3 Transfer Acceleration](https://aws.amazon.com/s3/transfer-acceleration/) è una funzione che consente agli utenti esterni di sfruttare i vantaggi delle ottimizzazioni di rete di CloudFront per il caricamento dei dati in Amazon S3. Ciò migliora le caratteristiche di trasferimento di grandi quantità di dati da posizioni remote prive di connettività dedicata al Cloud AWS. 

   1.  [I punti di accesso multi-regione in Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/MultiRegionAccessPoints.html) rappresentano una funzionalità che replica i contenuti in più regioni e semplifica il carico di lavoro fornendo un punto di accesso. Quando viene utilizzato un punto di accesso multi-regione, puoi richiedere o scrivere dati in Amazon S3 con il servizio che identifica il bucket con latenza più bassa. 

1. Rivedi la larghezza di banda della rete per la risorsa di calcolo in uso.

   1. Le interfacce di rete elastica (ENA) utilizzate da istanze EC2, container e funzioni Lambda sono limitate in base ai flussi. Rivedi i gruppi di collocazione per ottimizzare la [velocità di trasmissione effettiva EC2](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html). Per evitare colli di bottiglia a livello di flusso, progetta l'applicazione in modo che utilizzi più flussi. Per monitorare le metriche di rete associate al calcolo e avere maggiore visibilità su di esse, utilizza le [metriche CloudWatch](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ec2-instance-network-bandwidth.html) e [https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/monitoring-network-performance-ena.html). `ethtool` è incluso nel driver ENA ed espone metriche relative alla rete aggiuntive che possono essere pubblicate come [metrica personalizzata](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/publishingMetrics.html) in CloudWatch. 

   1. Le istanze EC2 più recenti possono sfruttare le reti avanzate. [Istanze EC2 della serie N](https://aws.amazon.com/ec2/nitro/), ad esempio `M5n` e `M5dn`, sfruttano la quarta generazione di schede Nitro per offrire fino a 100 Gbps di velocità di trasmissione effettiva di rete a una singola istanza. Queste istanze offrono quattro volte la larghezza di banda della rete e il processo di pacchetti rispetto alle istanze `M5` di base, e sono ideali per le applicazioni che fanno un uso intensivo della rete. 

   1. [Gli adattatori ENA (Elastic Network Adapter) Amazon](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) offrono un'ulteriore ottimizzazione grazie a una migliore velocità di trasmissione effettiva per le istanze all'interno di un [gruppo di collocazione cluster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html#placement-groups-cluster%23placement-groups-limitations-cluster). 

   1. [L'adattatore EFA (Elastic Fabric Adapter)](https://aws.amazon.com/hpc/efa/) è un'interfaccia di rete per le istanze Amazon EC2 che consente di eseguire carichi di lavoro che richiedono elevati livelli di comunicazioni tra i nodi su vasta scala in AWS. Con EFA, le applicazioni High Performance Computing (HPC) che utilizzano le applicazioni Message Passing Interface (MPI) e le applicazioni Machine Learning (ML) che utilizzano NVIDIA Collective Communications Library (NCCL) possono ridimensionare le risorse fino a migliaia di CPU o GPU. 

   1. [Le istanze ottimizzate per Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) utilizzano uno stack di configurazione ottimizzato e forniscono un'ulteriore capacità dedicata per incrementare l'I/O di Amazon EBS. Questa ottimizzazione fornisce le prestazioni migliori ai tuoi volumi EBS, riducendo al minimo i conflitti tra Amazon EBS I/O ed altro traffico dalla tua istanza. 

**Livello di impegno per il piano di implementazione: **

Per definire questa best practice, devi saper individuare le opzioni per i componenti del carico di lavoro corrente che possono avere un impatto sulle prestazioni della rete. La raccolta di informazioni sui componenti, la valutazione delle opzioni di miglioramento della rete, la sperimentazione, l'implementazione e la documentazione dei miglioramenti sono operazioni caratterizzate da un livello di impegno da *basso* a *moderato* . 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+  [Istanze ottimizzate per Amazon EBS](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Amazon EC2 instance network bandwidth (Larghezza di banda della rete per le istanze Amazon EC2)](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html) 
+  [Reti avanzate su Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Reti avanzate su Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Gruppi di collocamento](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Abilitazione delle reti avanzate con Elastic Network Adapter (ENA) sulle istanze Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Nuovi prodotti di rete con AWS](https://aws.amazon.com/products/networking/) 
+  [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Passaggio all'instradamento basato sulla latenza in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Endpoint VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Log di flusso VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [Building a cloud CMDB (Creazione di una strategia CMDB per il cloud)](https://aws.amazon.com/blogs/mt/building-a-cloud-cmdb-on-aws-for-consistent-resource-configuration-in-hybrid-environments/) 
+  [Scaling VPN throughput using AWS Transit Gateway (Dimensionamento della velocità di trasmissione effettiva della VPN mediante AWS Transit Gateway)](https://aws.amazon.com/blogs/networking-and-content-delivery/scaling-vpn-throughput-using-aws-transit-gateway/) 

 **Video correlati:** 
+  [Connectivity to AWS and hybrid AWS network architectures (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Optimizing Network Performance for Amazon EC2 Instances (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [AWS Global Accelerator](https://www.youtube.com/watch?v=lAOhr-5Urfk) 

 **Esempi correlati:** 
+  [AWS Transit Gateway and Scalable Security Solutions (AWS Transit Gateway e soluzioni di sicurezza scalabili)](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [AWS Networking Workshops (Workshop di rete AWS)](https://networking.workshop.aws/) 

# PERF05-BP03 Scelta di una connettività dedicata o una VPN di dimensioni adeguate ai carichi di lavoro ibridi
<a name="perf_select_network_hybrid"></a>

 Quando è necessaria una rete comune per collegare risorse on-premise e cloud in AWS, verifica che la larghezza di banda disponibile sia adeguata in modo da soddisfare i requisiti di prestazioni. Fai una stima dei requisiti di larghezza di banda e latenza per il carico di lavoro ibrido. Sulla base di questi numeri potrai stabilire i requisiti di dimensionamento per le opzioni di connettività. 

 **Risultato desiderato:** se implementi un carico di lavoro che necessita di rete ibrida, sono disponibili più opzioni di configurazione per la connettività, tra cui una connessione dedicata o una rete privata virtuale (VPN). Seleziona il tipo di connessione appropriato per ogni carico di lavoro, assicurandoti di soddisfare adeguatamente i requisiti di larghezza di banda e crittografia tra la tua posizione e il cloud. 

 **Anti-pattern comuni:** 
+ Mancata comprensione o identificazione di tutti i requisiti del carico di lavoro (esigenze in fatto di larghezza di banda, latenza, stabilità, crittografia e traffico).
+  Nessuna valutazione delle opzioni di backup o di connettività parallele. 

 **Vantaggi dell'adozione di questa best practice:** la scelta e la configurazione di soluzioni di rete ibride di dimensioni appropriate aumentano l'affidabilità del carico di lavoro e assicurano il livello massimo di prestazioni. Identificando i requisiti del carico di lavoro, pianificando in anticipo e valutando soluzioni ibride, ridurrai al minimo le costose modifiche alla rete fisica e i costi operativi, aumentando al contempo il time to market. 

 **Livello di rischio associato alla mancata adozione di questa best practice:** elevato 

## Guida all'implementazione
<a name="implementation-guidance"></a>

Sviluppa un'architettura di rete ibrida basata sui requisiti di larghezza di banda. Calcola i requisiti di larghezza di banda e latenza delle tue applicazioni ibride. Valuta l'opzione di connettività più appropriata tra l'uso di una connessione di rete dedicata o di una VPN basata su Internet.

Una connessione dedicata viene stabilita su linee private. È utile quando ti servono larghezza di banda elevata e bassa latenza, mantenendo prestazioni coerenti. La connessione VPN è una connessione sicura su Internet. È utile quando ti serve una connessione crittografata tramite una connessione Internet esistente.

A seconda dei requisiti di larghezza di banda, una singola connessione VPN o dedicata può non essere sufficiente e dovrai pianificare una configurazione ibrida per permettere il bilanciamento del carico del traffico su più connessioni. 

 **Passaggi dell'implementazione** 

1.  Calcola i requisiti di larghezza di banda e latenza delle tue applicazioni ibride. 

   1.  Per le app esistenti spostate in AWS, utilizza i dati raccolti dai sistemi di monitoraggio di rete interni. 

   1.  Per app nuove o app esistenti per cui non hai a disposizione dati di monitoraggio, consulta i proprietari dei prodotti per ottenere metriche sulle prestazioni adeguate e offrire un'esperienza utente soddisfacente. 

1.  Scegli una connessione dedicata o una VPN come opzione di connettività. A seconda di tutti i requisiti del carico di lavoro (esigenze di crittografia, larghezza di banda e traffico), puoi scegliere AWS Direct Connect o AWS Site-to-Site VPN (o entrambi). Il diagramma seguente ti aiuta a scegliere il tipo di connessione appropriato. 

   1.  Se stai pensando di optare per una connessione dedicata, può essere necessario AWS Direct Connect, che offre prestazioni più prevedibili e coerenti grazie alla sua connettività di rete privata. AWS Direct Connect offre connettività dedicata all'ambiente AWS, da 50 Mbps fino a 100 Gbps, usando una connessione dedicata o una ospitata. In questo modo, disporrai di latenza gestita e controllata, nonché di larghezza di banda assegnata, in modo che il carico di lavoro possa connettersi con efficienza ad altri ambienti. Ricorrendo a un partner AWS Direct Connect, otterrai connettività end-to-end da più ambienti, per una rete estesa con prestazioni coerenti. AWS permette di dimensionare la larghezza di banda di connessione Direct Connect usando connettività nativa a 100 Gbps, gruppi di aggregazione di collegamenti (LAG, Link Aggregation Group) o instradamento ECMP (Equal-Cost Multipath) con BGP. 

   1.  Se stai pensando di optare per una connessione VPN, una VPN gestita da AWS è l'opzione consigliata. La AWS Site-to-Site VPN offre un servizio VPN gestito che supporta il protocollo IPSec (Internet Protocol security). Quando viene creata una connessione VPN, ogni connessione include due tunnel per la disponibilità elevata. Con AWS Transit Gateway puoi semplificare la connettività tra più cloud privati virtuali (VPC) e anche connetterti a qualsiasi VPC collegato ad AWS Transit Gateway con una singola connessione VPN. AWS Transit Gateway ti permette anche di dimensionare le risorse oltre il limite di velocità di trasmissione effettiva della VPN IPsec di 1,25 Gbps abilitando l'instradamento ECMP (Equal Cost Multi-Path) su più tunnel VPN. 

![\[Diagramma di flusso che descrive le opzioni da prendere in considerazione nel determinare se siano o meno necessarie prestazioni deterministiche nella rete.\]](http://docs.aws.amazon.com/it_it/wellarchitected/2023-04-10/framework/images/deterministic-performance-flowchart.png)


 

 **Livello di impegno per il piano di implementazione:** elevato La valutazione delle esigenze del carico di lavoro in fatto di reti ibride e l'implementazione di soluzioni di rete ibride sono attività complesse. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+ [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+ [Prodotti di rete con AWS](https://aws.amazon.com/products/networking/) 
+ [AWS Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+ [Adozione dell'instradamento basato sulla latenza in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+ [Endpoint VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+ [Log di flusso VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+  [AWS Site-to-Site VPN](https://docs.aws.amazon.com/vpn/latest/s2svpn/VPC_VPN.html) 
+  [Creazione di un'infrastruttura di rete AWS scalabile e sicura con più VPC](https://docs.aws.amazon.com/whitepapers/latest/building-scalable-secure-multi-vpc-network-infrastructure/welcome.html) 
+  [AWS Direct Connect](https://docs.aws.amazon.com/directconnect/latest/UserGuide/Welcome.html) 
+  [Client VPN](https://docs.aws.amazon.com/vpn/latest/clientvpn-admin/what-is.html) 

 **Video correlati:** 
+ [Connettività ad AWS e architetture di rete AWS ibride (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+ [Ottimizzazione delle prestazioni di rete per istanze Amazon EC2 (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+  [AWS Global Accelerator](https://www.youtube.com/watch?v=lAOhr-5Urfk) 
+  [AWS Direct Connect](https://www.youtube.com/watch?v=DXFooR95BYc&t=6s) 
+  [Transit Gateway Connect](https://www.youtube.com/watch?v=_MPY_LHSKtM&t=491s) 
+  [Soluzioni VPN](https://www.youtube.com/watch?v=qmKkbuS9gRs) 
+  [Security with VPN Solutions](https://www.youtube.com/watch?v=FrhVV9nG4UM) 

 **Esempi correlati:** 
+  [AWS Transit Gateway and Scalable Security Solutions](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshop sulle reti AWS](https://networking.workshop.aws/) 

# PERF05-BP04 Sfruttamento del bilanciamento del carico e dell'offloading della crittografia
<a name="perf_select_network_encryption_offload"></a>

Usa sistemi di bilanciamento del carico per ottenere prestazioni ottimali delle risorse di destinazione e migliorare la velocità di risposta del sistema.

 **Risultato desiderato:** riduzione del numero di risorse di calcolo per la distribuzione del traffico. Eliminazione degli squilibri nel consumo di risorse nelle destinazioni. Offload di attività con uso elevato di risorse di calcolo nel sistema di bilanciamento del carico. Utilizzo dell'elasticità e della flessibilità del cloud per migliorare le prestazioni e ottimizzare l'architettura. 

 **Anti-pattern comuni:** 
+ Scelta del tipo di sistema di bilanciamento del carico senza tenere conto dei requisiti del carico di lavoro.
+ Mancato utilizzo delle funzionalità del sistema di bilanciamento del carico per l'ottimizzazione delle prestazioni.
+  Esposizione diretta del carico di lavoro a Internet senza un sistema di bilanciamento del carico. 

 **Livello di rischio associato alla mancata adozione di questa best practice:** elevato 

## Guida all'implementazione
<a name="implementation-guidance"></a>

 I sistemi di bilanciamento del carico operano come punto di ingresso per il carico di lavoro, da cui distribuiscono il traffico alle destinazione back-end, ad esempio le istanze di calcolo o i container. La scelta del tipo corretto di sistema di bilanciamento del carico è il primo passaggio per ottimizzare l'architettura. 

 Per iniziare, elenca le caratteristiche del carico di lavoro, tra cui protocollo (TCP, HTTP, TLS o WebSocket), tipo di destinazione (istanze, container o servizi serverless), requisiti dell'applicazione (connessioni a esecuzione prolungata, autenticazione utente o persistenza) e ubicazione (regione, zona locale, Outpost o isolamento zonale). 

 Dopo aver scelto il sistema di bilanciamento del carico appropriato, puoi iniziare a utilizzarne le funzionalità per ridurre la quantità di attività che deve svolgere il back-end per distribuire il traffico. 

 Ad esempio, usando un Application Load Balancer (ALB) e un Network Load Balancer (NLB), puoi eseguire l'offload della crittografia SSL/TLS, un'opportunità per evitare il completamento dell'handshake TLS a elevato utilizzo di CPU da parte delle destinazioni e migliorare anche la gestione dei certificati. 

 Se configurato nel sistema di bilanciamento del carico, l'offload SSL/TLS diventa responsabile della crittografia del traffico da e verso i client, distribuendo il traffico non crittografato ai back-end, liberando le risorse back-end e migliorando il tempo di risposta per i client. 

 L'Application Load Balancer può anche distribuire traffico HTTP2 senza che questo debba essere supportato nelle destinazioni. Questa semplice decisione può migliorare il tempo di risposta dell'applicazione, in quanto HTTP2 usa connessioni TCP in modo più efficiente. 

 È possibile usare sistemi di bilanciamento del carico anche per rendere l'architettura più flessibile distribuendo il traffico tra tipi di back-end diversi, come container e servizi serverless. Ad esempio, l'Application Load Balancer può essere configurato con [regole di ascolto](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/listener-update-rules.html) che inoltrano il traffico a gruppi di destinazioni diversi in base ai parametri della richiesta, come intestazione, metodo o modello. 

 Nel definire l'architettura, è bene tenere conto anche dei requisiti di latenza del carico di lavoro. Ad esempio, se un'applicazione è sensibile alla latenza, è possibile scegliere di usare un Network Load Balancer, che offre latenze estremamente ridotte. In alternativa, è possibile decidere di avvicinare il carico di lavoro ai clienti utilizzando l'Application Load Balancer in [zone locali AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) o anche in [AWS Outposts](https://aws.amazon.com/outposts/rack/). 

 Un altro aspetto di cui tenere conto per i carichi di lavoro sensibili alla latenza è il bilanciamento del carico tra zone. Con il bilanciamento del carico tra zone, ogni nodo del sistema di bilanciamento del carico distribuisce il traffico tra le destinazioni registrate in tutte le zone di disponibilità abilitate. Questo comportamento migliora la disponibilità, ma aggiunge un millisecondo a cifra singola alla latenza di round trip. 

 Infine, l'ALB e l'NLB offrono risorse di monitoraggio come log e metriche. La corretta configurazione del monitoraggio può semplificare la raccolta di informazioni dettagliate sulle prestazioni dell'applicazione. Ad esempio, puoi usare log di accesso dell'ALB per individuare le richieste con tempi di risposta più lunghi o le destinazioni back-end che causano problemi di prestazioni. 

 **Passaggi dell'implementazione** 

1.  Scegli il sistema di bilanciamento del carico corretto per il tuo carico di lavoro. 

   1.  Usa un Application Load Balancer per carichi di lavoro HTTP/HTTPS. 

   1.  Use un Network Load Balancer per carichi di lavoro non HTTP in esecuzione su TCP o UDP. 

   1.  Usa una combinazione dei due sistemi ([un ALB come destinazione di un NLB](https://aws.amazon.com/blogs/networking-and-content-delivery/application-load-balancer-type-target-group-for-network-load-balancer/)) se vuoi usufruire delle funzionalità di entrambi i prodotti. Ad esempio, puoi scegliere questa opzione se vuoi usare gli indirizzi IP statici dell'NLB insieme all'instradamento basato su intestazione HTTP dell'ALB oppure se vuoi esporre il carico di lavoro HTTP a [AWS PrivateLink](https://docs.aws.amazon.com/vpc/latest/privatelink/privatelink-share-your-services.html). 

   1.  Per un confronto completo dei sistemi di bilanciamento del carico, consulta la [tabella di confronto dei prodotti ELB](https://aws.amazon.com/elasticloadbalancing/features/). 

1.  Usa l'offload SSL/TLS. 

   1.  Configura ascoltatori HTTPS/TLS con un [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/create-https-listener.html) e un [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/create-tls-listener.html) integrati con [AWS Certificate Manager](https://aws.amazon.com/certificate-manager/). 

   1.  Alcuni carichi di lavoro possono richiedere la crittografia end-to-end per motivi di conformità. In questo caso, è necessario abilitare la crittografia nelle destinazioni. 

   1.  Per le best practice per la sicurezza, consulta [SEC09-BP02 Applicazione della crittografia dei dati in transito](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_data_transit_encrypt.html). 

1.  Seleziona l'algoritmo di instradamento corretto. 

   1.  L'algoritmo di instradamento può fare la differenza per quanto riguarda l'uso corretto delle destinazioni back-end e, di conseguenza, l'impatto sulle prestazioni. Ad esempio, l'ALB offre [due opzioni per gli algoritmi di instradamento](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-target-groups.html#modify-routing-algorithm): 

   1.  **Numero minimo di richieste in sospeso:** usa questa opzione per ottenere una migliore distribuzione del carico nelle destinazioni back-end nei casi in cui le richieste per l'applicazione variano per complessità o le destinazioni variano per capacità di elaborazione. 

   1.  **Round robin:** usa questa opzione quando le richieste e le destinazioni sono simili o se devi distribuire equamente le richieste tra le destinazioni. 

1.  Valuta se usare l'isolamento tra zone o quello zonale. 

   1.  Disattiva l'isolamento tra zone (usando l'isolamento zonale) per migliorare la latenza e in caso di errori di zona. È disattivato per impostazione predefinita nell'NLB, mentre nell'[ALB puoi disattivarlo per ogni gruppo di destinazioni](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/disable-cross-zone.html). 

   1.  Attiva l'isolamento tra zone per ottenere disponibilità e flessibilità maggiori. Per impostazione predefinita, l'isolamento tra zone è disattivato per l'ALB, mentre nell'[NLB puoi attivarlo per ogni gruppo di destinazioni](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/target-group-cross-zone.html). 

1.  Attiva keep-alive HTTP per i carichi di lavoro HTTP. 

   1.  Per i carichi di lavoro HTTP, attiva il keep-alive HTTP nelle impostazioni del server Web per le destinazioni back-end. Con questa funzionalità, il sistema di bilanciamento del carico può riutilizzare le connessioni back-end fino alla scadere del timeout del keep-alive, migliorando la richiesta HTTP e il tempo di risposta e riducendo anche l'utilizzo delle risorse nelle destinazioni back-end. Per informazioni sulla configurazione per Apache e Nginx, consulta la pagina relativa alle [impostazioni ottimali per l'uso di Apache o NGINX come server back-end per l'ELB](https://aws.amazon.com/premiumsupport/knowledge-center/apache-backend-elb/). 

1.  Usa integrazioni Elastic Load Balancing per una migliore orchestrazione delle risorse di calcolo. 

   1.  Usa Auto Scaling integrato con il sistema di bilanciamento del carico. Uno degli aspetti principali di un sistema con prestazioni efficienti riguarda il dimensionamento corretto delle risorse back-end. A questo scopo, puoi utilizzare integrazioni dei sistemi di bilanciamento del carico per le risorse di destinazione back-end. Usando l'integrazione dei sistemi di bilanciamento del carico con gruppi con Auto Scaling, le destinazioni vengono aggiunte o rimosse nel e dal sistema di bilanciamento del carico in base alle esigenze, in risposta al traffico in ingresso. 

   1.  I sistemi di bilanciamento del carico possono integrarsi anche con Amazon ECS e Amazon EKS per carichi di lavoro distribuiti in container. 
      + [ Usa Elastic Load Balancing per distribuire il traffico tra le istanze nel gruppo con Auto Scaling](https://docs.aws.amazon.com/autoscaling/ec2/userguide/autoscaling-load-balancer.html)
      + [ Amazon ECS – Bilanciamento del carico dei servizi ](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/service-load-balancing.html)
      + [ Bilanciamento del carico delle applicazioni in Amazon EKS ](https://docs.aws.amazon.com/eks/latest/userguide/alb-ingress.html)
      + [ Bilanciamento del carico di rete in Amazon EKS ](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html)

1.  Monitora il sistema di bilanciamento del carico per individuare i colli di bottiglia delle prestazioni. 

   1.  Abilita i log di accesso per l'[Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/enable-access-logging.html) e l'[Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-access-logs.html). 

   1.  I campi principali da considerare per l'ALB sono `request_processing_time`, `request_processing_time`e `response_processing_time`. 

   1.  I campi principali da considerare per l'NLB sono `connection_time` e `tls_handshake_time`. 

   1.  Preparati a eseguire query sui log quando necessario. Puoi usare Amazon Athena per eseguire query su [log dell'ALB](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html) e [log dell'NLB](https://docs.aws.amazon.com/athena/latest/ug/networkloadbalancer-classic-logs.html). 

   1.  Crea allarmi per metriche correlate alle prestazioni come [`TargetResponseTime` per l'ALB](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-cloudwatch-metrics.html). 

## Risorse
<a name="resources"></a>

 **Best practice correlate:** 
+  [SEC09-BP02 Applicazione della crittografia dei dati in transito](https://docs.aws.amazon.com/wellarchitected/latest/security-pillar/sec_protect_data_transit_encrypt.html) 

 **Documenti correlati:** 
+ [ Confronto dei prodotti ELB ](https://aws.amazon.com/elasticloadbalancing/features/)
+ [ Infrastruttura globale AWS](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [ Miglioramento delle prestazioni e riduzione dei costi tramite l'affinità delle zone di disponibilità ](https://aws.amazon.com/blogs/architecture/improving-performance-and-reducing-cost-using-availability-zone-affinity/)
+ [ Step by step for Log Analysis with Amazon Athena ](https://github.com/aws/elastic-load-balancing-tools/tree/master/amazon-athena-for-elb)
+ [ Esecuzione di query su log dell'Application Load Balancer ](https://docs.aws.amazon.com/athena/latest/ug/application-load-balancer-logs.html)
+ [ Monitoraggio degli Application Load Balancer ](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/load-balancer-monitoring.html)
+ [ Monitoraggio degli Network Load Balancer ](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/load-balancer-monitoring.html)

 **Video correlati:** 
+ [AWS re:Invent 2018: [REPEAT 1] Elastic Load Balancing: Approfondimento e best practice (NET404-R1) ](https://www.youtube.com/watch?v=VIgAT7vjol8)
+ [AWS re:Invent 2021: Come scegliere il sistema di bilanciamento del carico corretto per i carichi di lavoro AWS](https://www.youtube.com/watch?v=p0YZBF03r5A)
+ [AWS re:Inforce 2022: Come usare Elastic Load Balancing per migliorare la posizione di sicurezza su larga scala (NIS203) ](https://www.youtube.com/watch?v=YhNc5VSzOGQ)
+ [AWS re:Invent 2019: Come ottenere il massimo da Elastic Load Balancing per carichi di lavoro diversi (NET407-R2) ](https://www.youtube.com/watch?v=HKh54BkaOK0)

 **Esempi correlati:** 
+ [ CDK ed esempi CloudFormation per l'analisi dei log con Amazon Athena ](https://github.com/aws/elastic-load-balancing-tools/tree/master/log-analysis-elb-cdk-cf-template)

# PERF05-BP05 Scelta dei protocolli di rete per migliorare le prestazioni
<a name="perf_select_network_protocols"></a>

Valuta i requisiti di prestazioni per il tuo carico di lavoro e scegli i protocolli di rete in grado di ottimizzarne le prestazioni complessive.

Esiste una relazione tra latenza e larghezza di banda per ottenere il throughput desiderato. Ad esempio, se per il trasferimento di file viene usato il protocollo TCP, latenze più elevate ridurranno la velocità di trasmissione effettiva complessiva. Alcuni approcci risolvono questo problema con l'ottimizzazione TCP e i protocolli di trasferimento ottimizzati, altri richiedono l'uso del protocollo UDP.

 [SRD (Scalable Reliable Datagram)](https://ieeexplore.ieee.org/document/9167399) è un protocollo di trasporto di rete creato da AWS per dispositivi Elastic Fabric Adapter che permette la distribuzione affidabile di datagrammi. Diversamente dal protocollo TCP, SRD può riordinare i pacchetti e trasmetterli non in ordine. Attraverso questo meccanismo di trasmissione non in ordine il protocollo SRD invia i pacchetti in parallelo su percorsi alternativi, aumentando la velocità di trasmissione effettiva. 

 **Anti-pattern comuni:** 
+  Uso di TCP per tutti i carichi di lavoro, indipendentemente dai requisiti di prestazioni. 

 **Vantaggi dell'adozione di questa best practice:** 
+  La selezione del protocollo appropriato per la comunicazione tra i componenti del carico di lavoro permette di ottenere le migliori prestazioni per quel carico di lavoro. 
+  La verifica del protocollo appropriato per la comunicazione tra utenti e componenti del carico di lavoro contribuisce a migliorare l'esperienza utente complessiva per le applicazioni. Ad esempio, usando TCP e UDP insieme, i carichi di lavoro di Infrastruttura desktop virtuale (VDI) possono trarre vantaggio dall'affidabilità di TCP per i dati critici e dalla velocità di UDP per i dati in tempo reale. 

 **Livello di rischio associato alla mancata adozione di questa best practice:** medio (l'uso di un protocollo di rete non appropriato può causare prestazioni insoddisfacenti, come tempi di risposta lenti, alta latenza e scalabilità insufficiente). 

## Guida all'implementazione
<a name="implementation-guidance"></a>

Un aspetto principale per il miglioramento delle prestazioni del carico di lavoro consiste nell'identificare i requisiti di latenza e velocità di trasmissione effettiva e quindi scegliere i protocolli di rete che ottimizzano le prestazioni. 

 **Quando valutare se usare TCP** 

 TCP permette la trasmissione affidabile dei dati e può essere usato per la comunicazione tra i componenti del carico di lavoro quando l'affidabilità e la garanzia di trasmissione dei dati sono due aspetti importanti. Molte applicazioni Web usano protocolli basati su TCP, come HTTP e HTTPS, per aprire socket TCP per la comunicazione con i server in AWS. Anche il trasferimento di dati di e-mail e file è un'applicazione comune che usa TCP, grazie alla capacità di questo protocollo di controllare la velocità di scambio dei dati e il tasso di congestione di rete. L'uso di TLS con TCP può aggiungere un certo sovraccarico alla comunicazione, producendo maggiore latenza e velocità di trasmissione effettiva inferiore. Il sovraccarico è dovuto prevalentemente al processo di handshake, il cui completamento può richiedere diversi round trip. Al termine del processo di handshake, il sovraccarico dovuto alla crittografia e alla decrittografia dei dati è relativamente ridotto. 

 **Quando valutare se usare UDP** 

 UDP è un protocollo di tipo connectionless (senza connessione) e di conseguenza è ideale per applicazioni che necessitano di una trasmissione veloce ed efficiente, ad esempio per i log, il monitoraggio e i dati VoIP. Valuta se usare UDP anche se vi sono componenti del carico di lavoro che rispondono a piccole query provenienti da grandi quantità di client per garantire prestazioni ottimali del carico di lavoro. Il protocollo DTLS (Datagram Transport Layer Security) è l'equivalente UDP di TLS. Quando viene usato DTLS con UDP, il sovraccarico è dovuto alla crittografia e alla decrittografia dei dati, in quanto il processo di handshake è semplificato. DTLS aggiunge anche un piccolo sovraccarico ai pacchetti UDP, perché include altri campi per indicare i parametri di sicurezza e rilevare la manomissione. 

 **Quando valutare se usare SRD** 

 SRD (Scalable Reliable Datagram) è un protocollo di trasporto di rete ottimizzato per carichi di lavoro a velocità di trasmissione effettiva elevata grazie alla sua capacità di bilanciare il carico del traffico tra più percorsi e di recuperare rapidamente dalla perdita di pacchetti e da errori di collegamento. Di conseguenza, SRD è ideale per carichi di lavoro di calcolo ad alte prestazioni (HPC) che richiedono comunicazioni tra nodi di calcolo a velocità di trasmissione effettiva elevata e a bassa latenza. Possono essere incluse attività di elaborazione in parallelo come la simulazione, la modellazione e l'analisi dei dati che implicano il trasferimento di grandi quantità di dati tra nodi. 

 **Passaggi dell'implementazione** 

1.  Usa i servizi [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) e [AWS Transfer Family](https://aws.amazon.com/aws-transfer-family/) per migliorare la velocità di trasmissione effettiva delle applicazioni di trasferimento di file online. Il servizio AWS Global Accelerator ti permette di ottenere latenza inferiore tra i dispositivi client e il carico di lavoro in AWS. Con AWS Transfer Family puoi usare protocolli basati su TCP come SFTP (Secure Shell File Transfer Protocol) ed FTPS (File Transfer Protocol over SSL) per dimensionare e gestire i trasferimenti di file in servizi di archiviazione AWS in tutta sicurezza. 

1.  Usa la latenza di rete per determinare se TCP sia il protocollo appropriato per la comunicazione tra componenti del carico di lavoro. Se la latenza di rete tra l'applicazione client e il server è elevata, il processo di handshake a tre vie tramite TCP può richiedere tempo, influendo sulla velocità di risposta dell'applicazione. Per misurare la latenza di rete, puoi usare, ad esempio, le metriche TTFB (Time to First Byte, tempo di ricezione del primo byte) ed RTT (Round-Trip Time, tempo di round trip). Se il carico di lavoro distribuisce contenuto dinamico agli utenti, valuta se usare [Amazon CloudFront](https://aws.amazon.com/cloudfront/), che stabilisce una connessione persistente a ogni origine per il contenuto dinamico in modo da eliminare il tempo di configurazione della connessione, che altrimenti rallenterebbe ogni richiesta client. 

1.  L'uso di TLS con TCP o UDP può causare maggiore latenza e minore velocità di trasmissione effettiva per il carico di lavoro a causa dell'impatto della crittografia e della decrittografia. Per carichi di lavoro di questo tipo, prendi in considerazione l'offload SSL/TLS in [Elastic Load Balancing](https://aws.amazon.com/elasticloadbalancing/) per migliorare le prestazioni permettendo al sistema di bilanciamento del carico di gestire la crittografia e la decrittografia SSL/TLS invece di predisporre istanze back-end a questo scopo. In questo modo, puoi ridurre l'utilizzo della CPU sulle istanze back-end, migliorando le prestazioni e aumentando la capacità. 

1.  Usa il [Network Load Balancer (NLB)](https://aws.amazon.com/elasticloadbalancing/network-load-balancer/) per implementare servizi basati sul protocollo UDP, tra cui autenticazione e autorizzazione, registrazione, DNS, IoT e streaming di contenuti multimediali, in modo da migliorare le prestazioni e l'affidabilità del carico di lavoro. L'NLB distribuisce il traffico UDP in ingresso tra più destinazioni, permettendo di aumentare o ridurre orizzontalmente il carico di lavoro, incrementare la capacità e diminuire il sovraccarico su un'unica destinazione. 

1.  Per i carichi di lavoro di calcolo ad alte prestazioni (HPC), valuta se scegliere la funzionalità [Adattatore di rete elastico (ENA) Express](https://aws.amazon.com/about-aws/whats-new/2022/11/elastic-network-adapter-ena-express-amazon-ec2-instances/), che usa il protocollo SRD per migliorare le prestazioni di rete fornendo una larghezza di banda a flusso singolo più elevata (25 Gbps) e una latenza di coda inferiore (99,9) per il traffico di rete tra istanze EC2. 

1.  Usa l'[Application Load Balancer (ALB)](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) per instradare il traffico gRPC (Remote Procedure Call) tra componenti del carico di lavoro o tra client e servizi abilitati per gRPC e per bilanciarne il carico. gRPC usa il protocollo HTTP/2 basato su TCP per il trasporto e fornisce vantaggi in termini di prestazioni, tra cui un impatto di rete minore, la compressione, la serializzazione binaria efficiente, il supporto per diversi linguaggi e lo streaming bidirezionale. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+  [Amazon EBS – Istanze ottimizzate](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-optimized.html) 
+  [Application Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/application/introduction.html) 
+  [Reti avanzate su Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking.html) 
+  [Reti avanzate su Windows](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/enhanced-networking.html) 
+  [Gruppi di collocamento](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Abilitazione delle reti avanzate con Elastic Network Adapter (ENA) sulle istanze Linux](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/enhanced-networking-ena.html) 
+  [Network Load Balancer](https://docs.aws.amazon.com/elasticloadbalancing/latest/network/introduction.html) 
+  [Prodotti di rete con AWS](https://aws.amazon.com/products/networking/) 
+  [Transit Gateway](https://docs.aws.amazon.com/vpc/latest/tgw) 
+  [Adozione dell'instradamento basato sulla latenza in Amazon Route 53](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/TutorialTransitionToLBR.html) 
+  [Endpoint VPC](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints.html) 
+  [Log di flusso VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 

 **Video correlati:** 
+  [Connettività ad AWS e architetture di rete AWS ibride (NET317-R1)](https://www.youtube.com/watch?v=eqW6CPb58gs) 
+  [Ottimizzazione delle prestazioni di rete per istanze Amazon EC2 (CMP308-R1)](https://www.youtube.com/watch?v=DWiwuYtIgu0) 
+ [ Ottimizzazione del cloud: miglioramento delle prestazioni di rete globali per l'applicazione ](https://www.youtube.com/watch?v=00ukhVcgWrs)
+ [ Dimensionamento delle applicazioni con EFA ed SRD ](https://pages.awscloud.com/HPC-Application-Scaling-with-Elastic-Fabric-Adapter-EFA-and-Scalable-Reliable-Datagram-SRD_2020_0004-CMP_OD.html)

 **Esempi correlati:** 
+  [AWS Transit Gateway e soluzioni di sicurezza scalabili](https://github.com/aws-samples/aws-transit-gateway-and-scalable-security-solutions) 
+  [Workshop sulle reti AWS](https://networking.workshop.aws/) 

# PERF05-BP06 Scelta della posizione del carico di lavoro in base ai requisiti di rete
<a name="perf_select_network_location"></a>

Valuta le opzioni per il posizionamento delle risorse in modo da diminuire la latenza di rete e migliorare la velocità di trasmissione effettiva, fornendo un'esperienza utente ottimale attraverso la riduzione dei tempi di caricamento delle pagine e di trasferimento dei dati.

 **Livello di rischio associato se questa best practice non fosse adottata:** Medium 

## Guida all'implementazione
<a name="implementation-guidance"></a>

Le risorse, ad esempio le istanze Amazon EC2, vengono collocate in zone di disponibilità all'interno di [Regioni AWS](https://aws.amazon.com/about-aws/global-infrastructure/regions_az/), [zone locali AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/), [AWS Outposts](https://aws.amazon.com/outposts/) o zone [AWS Wavelength](https://aws.amazon.com/wavelength/). La scelta della posizione influisce sulla latenza di rete e sulla velocità di trasmissione effettiva dall'ubicazione di un utente specifico. È anche possibile usare servizi edge come [Amazon CloudFront](https://aws.amazon.com/cloudfront/) e [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) per migliorare le prestazioni di rete memorizzando nella cache i contenuti presso posizioni edge o fornendo agli utenti un percorso ottimale verso il carico di lavoro tramite la rete globale AWS.

 **Passaggi dell'implementazione** 

1.  Scegli la Regione AWS o le regioni appropriate per l'implementazione in base ai principali elementi seguenti: 

   1.  **Ubicazione degli utenti:** scelta di una regione vicino agli utenti del carico di lavoro per assicurare bassa latenza quando usano il carico di lavoro. 

   1.  **Ubicazione dei dati:** per applicazioni ad alto contenuto di dati, il collo di bottiglia principale durante il trasferimento dei dati è la latenza. Il codice dell'applicazione deve essere eseguito il più vicino possibile ai dati. 

   1.  **Altri vincoli:** tieni conto di vincoli come la sicurezza e la complessità, ad esempio i requisiti di residenza dei dati. 

1.  Per un carico di lavoro specifico, se un componente è costituito da un gruppo di istanze Amazon EC2 interdipendenti che richiedono bassa latenza, valuta se usare [gruppi di collocazione cluster](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) per determinare la posizione delle istanze in modo da soddisfare i requisiti del carico di lavoro. Le istanze all'interno dello stesso gruppo di collocazione cluster usufruiscono di un più alto limite di velocità di trasmissione effettiva per flusso per il traffico TCP/IP e si trovano nello stesso segmento di larghezza di banda di bisezione elevata della rete. I gruppi di collocazione cluster sono consigliati per le applicazioni che traggono vantaggio da bassa latenza e velocità di trasmissione effettiva elevata o entrambe. 

1.  Per un carico di lavoro sensibile alla posizione, ad esempio con requisiti di bassa latenza o residenza dei dati, consulta [Zone locali AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) o [AWS Outposts](https://aws.amazon.com/outposts/). 

   1.  Le zone locali AWS sono un tipo di implementazione dell'infrastruttura che colloca calcolo, archiviazione, database e altri servizi AWS selezionati vicini a centri industriali e con popolazione elevata. 

   1.  AWS Outposts è una famiglia di soluzioni completamente gestite che offre l'infrastruttura e servizi AWS praticamente per qualsiasi posizione on-premise o edge, per un'esperienza ibrida davvero coerente. 

1.  Applicazioni come quelle di streaming di video live ad alta risoluzione, audio ad alta fedeltà o realtà aumentata/realtà virtuale richiedono latenza bassissima per i dispositivi 5G. Per applicazioni di questo tipo, prendi in considerazione [AWS Wavelength](https://aws.amazon.com/wavelength/). AWS Wavelength incorpora servizi di calcolo e archiviazione AWS in reti 5G, fornendo un'infrastruttura di edge computing per dispositivi mobili per lo sviluppo, l'implementazione e il dimensionamento di applicazioni a latenza bassissima. 

1.  Se i tuoi utenti sono distribuiti geograficamente, puoi usare una rete di distribuzione di contenuti (CDN) per accelerare la distribuzione di contenuti Web statici e dinamici, distribuendo i dati attraverso punti di presenza (POP) disseminati a livello globale. Le CDN forniscono in genere anche funzionalità di edge computing, eseguendo operazioni sensibili alla latenza come manipolazioni di intestazioni HTTP e riscritture e reindirizzamenti URL su larga scala in posizioni edge. [Amazon CloudFront](https://aws.amazon.com/cloudfront/) è un servizio Web che accelera la distribuzione di contenuti Web statici e dinamici. I casi d'uso per CloudFront includono l'accelerazione del contenuto di siti Web statici e la distribuzione di video on demand o di video in streaming live. CloudFront può essere usato anche per personalizzare il contenuto e l'esperienza per gli utenti a una latenza ridotta. 

1.  Alcune applicazioni richiedono punti di ingresso fissi o prestazioni più elevate attraverso la riduzione della latenza di ricezione del primo byte e l'instabilità e l'aumento della velocità di trasmissione effettiva. Queste applicazioni possono trarre vantaggio da servizi di rete che forniscono indirizzi IP anycast statici e terminazione TCP in posizioni edge. [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) può migliorare le prestazioni per le applicazioni fino al 60% e offre un failover rapido per architetture in più regioni. AWS Global Accelerator fornisce indirizzi IP anycast statici che fungono da punto di ingresso fisso per le applicazioni ospitate in una o più Regioni AWS. Questi indirizzi IP permettono l'ingresso del traffico nella rete globale AWS il più vicino possibile agli utenti. AWS Global Accelerator riduce il tempo di configurazione della connessione iniziale stabilendo una connessione TCP tra il client e la posizione edge AWS più vicina al client. Esamina l'uso di AWS Global Accelerator per migliorare le prestazioni dei carichi di lavoro TCP/UDP e fornire il rapido failover per architetture in più regioni. 

1.  Se hai applicazioni o utenti on-premise, puoi trarre vantaggio da una connessione di rete dedicata tra la rete e il cloud. Una connessione di rete dedicata può ridurre la probabilità di congestione o aumenti imprevisti della latenza. [AWS Direct Connect](https://aws.amazon.com/directconnect/) può migliorare le prestazioni dell'applicazione connettendo la rete direttamente ad AWS, aggirando la rete Internet pubblica. Nel creare una nuova connessione, puoi scegliere una connessione ospitata fornita da un partner fornitore di servizi AWS Direct Connect oppure una connessione dedicata di AWS e implementarla in oltre 100 posizioni AWS Direct Connect in tutto il pianeta. Puoi tagliare i costi di rete con velocità di trasferimento dei dati ridotte anche esternamente ad AWS e, facoltativamente, configurare una Site-to-Site VPN per il failover. 

1.  Se configuri una [Site-to-Site VPN](https://aws.amazon.com/vpn/site-to-site-vpn/) per connettere le risorse internamente ad AWS, puoi abilitare l'accelerazione (facoltativo). Una connessione Site-to-Site VPN accelerata usa AWS Global Accelerator per instradare il traffico dalla rete on-premise a una posizione edge AWS più vicina al dispositivo gateway del cliente. 

1.  Identifica quale opzione di instradamento DNS ottimizzerebbe le prestazioni del carico di lavoro analizzando il traffico del carico di lavoro e la posizione dell'utente. [Amazon Route 53](https://aws.amazon.com/route53) offre opzioni di [instradamento basato sulla latenza](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-latency.html), [instradamento basato sulla geolocalizzazione](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geo.html), [instradamento basato sulla prossimità geografica](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-geoproximity.html) e [instradamento basato su IP](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/routing-policy-ipbased.html) per migliorare le prestazioni del carico di lavoro per destinatari globali. 

   1.  Route 53 offre anche bassa latenza delle query per i tuoi utenti finali. Usando una rete anycast globale di server DNS in tutto il mondo, Route 53 è progettato per rispondere automaticamente alle query dalla posizione ottimale, a seconda delle condizioni di rete. 

## Risorse
<a name="resources"></a>

 **Best practice correlate:** 
+ [COST07-BP02 Implementazione delle regioni in base al costo](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_pricing_model_region_cost.html)
+ [COST08-BP03 Implementazione dei servizi per ridurre il costo di trasferimento dei dati](https://docs.aws.amazon.com/wellarchitected/latest/framework/cost_data_transfer_implement_services.html)
+ [REL10-BP01 Implementazione del carico di lavoro in diversi luoghi](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_multiaz_region_system.html)
+ [REL10-BP02 Selezione delle posizioni appropriate per la tua implementazione multiposizione](https://docs.aws.amazon.com/wellarchitected/latest/framework/rel_fault_isolation_select_location.html)
+ [SUS01-BP01 Scegli le Regioni vicino ai progetti di energia rinnovabile di Amazon e le Regioni in cui la griglia presenta un'intensità di emissione di anidride carbonica nota inferiore a quella di altre sedi (o Regioni).](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_region_a2.html)
+ [SUS02-BP04 Ottimizzazione del posizionamento geografico dei carichi di lavoro in base alle posizioni degli utenti](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_user_a5.html)
+ [SUS04-BP07 Riduzione al minimo dello spostamento di dati tra reti](https://docs.aws.amazon.com/wellarchitected/latest/framework/sus_sus_data_a8.html)

 **Documenti correlati:** 
+ [ Infrastruttura globale AWS](https://aws.amazon.com/about-aws/global-infrastructure/)
+ [ Zone locali AWS e AWS Outposts, scelta della giusta tecnologia per un carico di lavoro edge ](https://aws.amazon.com/blogs/compute/aws-local-zones-and-aws-outposts-choosing-the-right-technology-for-your-edge-workload/)
+  [Gruppi di collocazione](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/placement-groups.html) 
+  [Zone locali AWS](https://aws.amazon.com/about-aws/global-infrastructure/localzones/) 
+  [AWS Outposts](https://aws.amazon.com/outposts/) 
+  [AWS Wavelength](https://aws.amazon.com/wavelength/) 
+  [Amazon CloudFront](https://aws.amazon.com/cloudfront/) 
+  [AWS Global Accelerator](https://aws.amazon.com/global-accelerator/) 
+  [AWS Direct Connect](https://aws.amazon.com/directconnect/) 
+  [Site-to-Site VPN](https://aws.amazon.com/vpn/site-to-site-vpn/) 
+  [Amazon Route 53](https://aws.amazon.com/route53) 

 **Video correlati:** 
+ [ Video di presentazione delle zone locali AWS](https://www.youtube.com/watch?v=JHt-D4_zh7w)
+ [AWS Outposts: panoramica e funzionamento ](https://www.youtube.com/watch?v=ppG2FFB0mMQ)
+ [AWS re:Invent 2021: AWS Outposts: Spostamento dell'esperienza AWS in un ambiente on-premise ](https://www.youtube.com/watch?v=FxVF6A22498)
+ [AWS re:Invent 2020: AWS Wavelength: esecuzione di app con latenza bassissima nell'edge 5G ](https://www.youtube.com/watch?v=AQ-GbAFDvpM)
+ [AWS re:Invent 2022: Zone locali AWS: creazione di applicazioni per una posizione edge distribuita ](https://www.youtube.com/watch?v=bDnh_d-slhw)
+ [AWS re:Invent 2021: Creazione di siti Web a bassa latenza con Amazon CloudFront ](https://www.youtube.com/watch?v=9npcOZ1PP_c)
+ [AWS re:Invent 2022: Miglioramento delle prestazioni e della disponibilità con AWS Global Accelerator](https://www.youtube.com/watch?v=s5sjsdDC0Lg)
+ [AWS re:Invent 2022: Creazione di una rete WAN usando AWS](https://www.youtube.com/watch?v=flBieylTwvI)
+ [AWS re:Invent 2020: Gestione del traffico globale con Amazon Route 53 ](https://www.youtube.com/watch?v=E33dA6n9O7I)

 **Esempi correlati:** 
+ [ Workshop su AWS Global Accelerator](https://catalog.us-east-1.prod.workshops.aws/workshops/effb1517-b193-4c59-8da5-ce2abdb0b656/en-US)
+ [ Gestione delle riscritture e dei reindirizzamenti usando funzioni di edge computing ](https://catalog.us-east-1.prod.workshops.aws/workshops/814dcdac-c2ad-4386-98d5-27d37bb77766/en-US)

# PERF05-BP07 Ottimizzazione della configurazione di rete in base ai parametri
<a name="perf_select_network_optimize"></a>

Una configurazione di rete inadeguata spesso ha impatto sulle prestazioni di rete, sull'efficienza e sui costi. Per poter completare rapidamente l'implementazione nella fase iniziale in ambienti di rete comuni, la configurazione di rete appropriata non viene esaustivamente considerata in termini di prestazioni di rete. Per ottimizzare la configurazione di rete, devi acquisire innanzitutto visibilità e dati sull'ambiente di rete.

Per identificare le prestazioni delle risorse di rete, raccogli e analizza dati per prendere decisioni informate sull'ottimizzazione della configurazione di rete. Misura l'impatto di tali cambiamenti e usa le misurazioni per prendere decisioni future. 

 **Risultato desiderato:** uso di metriche e strumenti di monitoraggio di rete per ottimizzare la configurazione di rete in base all'evoluzione del carico di lavoro. Poiché le reti basate sul cloud possono essere ottimizzate rapidamente, l'evoluzione dell'architettura di rete nel corso del tempo è essenziale per mantenere prestazioni efficienti. 

 **Anti-pattern comuni:** 
+  Attribuzione di tutti i problemi relativi alle prestazioni all'applicazione. 
+  Verifica delle prestazioni di rete solo da una posizione vicina a quella in cui è stato distribuito il carico di lavoro. 
+  Uso di configurazioni predefinite per tutti i servizi di rete. 
+  Provisioning in eccesso di risorse di rete per fornire capacità sufficiente. 

 **Vantaggi dell'adozione di questa best practice:** la raccolta delle metriche necessarie per la rete AWS e l'implementazione di strumenti di monitoraggio di rete permettono di identificare le prestazioni di rete e ottimizzare le configurazioni di rete. 

 **Livello di rischio associato alla mancata adozione di questa best practice:** medio 

## Guida all'implementazione
<a name="implementation-guidance"></a>

 Il monitoraggio del traffico da e verso VPC, sottoreti o interfacce di rete è essenziale per identificare come utilizzare risorse di rete AWS e ottimizzare le configurazioni di rete. Usando gli strumenti seguenti, puoi esaminare ulteriormente le informazioni sull'utilizzo del traffico, sull'accesso alla rete e sui log. 

 **Passaggi dell'implementazione** 

1.  Usa [Amazon VPC IP Address Manager](https://docs.aws.amazon.com/vpc/latest/ipam/what-it-is-ipam.html). Puoi usare IPAM per pianificare, seguire e monitorare gli indirizzi IP per i carichi di lavoro AWS e on-premise. Questa è la best practice per ottimizzare l'utilizzo e l'allocazione degli indirizzi IP. 

1.  Attiva i [log di flusso VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html). Usa log di flusso VPC per acquisire informazioni dettagliate sul traffico da e verso le interfacce di rete nei VPC. Con i log di flusso VPC puoi diagnosticare regole dei gruppi di sicurezza eccessivamente restrittive o permissive e determinare la direzione del traffico da e verso le interfacce di rete. Ai log vended vengono applicati costi di importazione e archiviazione dei dati per la pubblicazione di log di flusso: 

1.  Attiva la [registrazione di query DNS](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/query-logs.html). Puoi configurare Amazon Route 53 in modo da registrare informazioni sulle query DNS pubbliche o private ricevute da Route 53. Con i log DNS puoi ottimizzare le configurazioni DNS identificando il dominio e il sottodominio richiesto o le posizioni edge Route 53 che hanno risposto a query DNS. 

1.  Usa il [Reachability Analyzer](https://docs.aws.amazon.com/vpc/latest/reachability/what-is-reachability-analyzer.html) per l'analisi e il debug della raggiungibilità della rete. Il Reachability Analyzer è uno strumento di analisi della configurazione che permette di eseguire test di connettività tra una risorsa di origine e una risorsa di destinazione nei VPC. Questo strumento permette di verificare che la configurazione di rete corrisponda alla connettività desiderata. 

1.  Usa lo [Strumento di analisi degli accessi alla rete](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-network-access-analyzer.html) per determinare l'accesso alle risorse. Puoi usare lo Strumento di analisi degli accessi alla rete per specificare i requisiti di accesso alla rete e identificare i potenziali percorsi di rete che non li soddisfano. Ottimizzando la configurazione di rete corrispondente, puoi determinare e verificare lo stato della rete e indicare se la rete su AWS soddisfa i requisiti di conformità. 

1.  Usa [Amazon CloudWatch](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/WhatIsCloudWatch.html) e abilita le metriche appropriate per le opzioni di rete. Assicurati di scegliere le metriche di rete corrette per il carico di lavoro. Ad esempio, puoi abilitare le metriche per l'utilizzo degli indirizzi di rete del VPC, il gateway NAT del VPC, AWS Transit Gateway, il tunnel VPN, AWS Network Firewall, Elastic Load Balancing e AWS Direct Connect. Il monitoraggio continuo delle metriche è una procedura utile per osservare e identificare lo stato e l'utilizzo della rete e semplifica l'ottimizzazione della configurazione di rete in base alle osservazioni. 

 **Livello di impegno per il piano di implementazione:** medio. 

## Risorse
<a name="resources"></a>

 **Documenti correlati:** 
+  [Log di flusso VPC](https://docs.aws.amazon.com/vpc/latest/userguide/flow-logs.html) 
+ [ Registrazione delle query DNS pubbliche ](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/query-logs.html)
+ [ Che cos'è IPAM? ](https://docs.aws.amazon.com/vpc/latest/ipam/what-it-is-ipam.html)
+  [Che cos'è Reachability Analyzer?](https://docs.aws.amazon.com/vpc/latest/reachability/what-is-reachability-analyzer.html) 
+ [ Che cos'è lo Strumento di analisi degli accessi alla rete? ](https://docs.aws.amazon.com/vpc/latest/network-access-analyzer/what-is-network-access-analyzer.html)
+ [ Metriche CloudWatch per i VPC ](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-cloudwatch.html)
+ [ Ottimizzazione delle prestazioni e riduzione dei costi per l'analisi della rete con log di flusso VPC in formato Apache Parquet ](https://aws.amazon.com/blogs/big-data/optimize-performance-and-reduce-costs-for-network-analytics-with-vpc-flow-logs-in-apache-parquet-format/)
+  [Monitoring your global and core networks with Amazon Cloudwatch metrics (Monitoraggio delle reti globali e core con i parametri di Amazon CloudWatch)](https://docs.aws.amazon.com/vpc/latest/tgwnm/monitoring-cloudwatch-metrics.html) 
+  [Continuously monitor network traffic and resources (Monitoraggio costante di traffico e risorse di rete)](https://docs.aws.amazon.com/whitepapers/latest/security-best-practices-for-manufacturing-ot/continuously-monitor-network-traffic-and-resources.html) 

 **Video correlati:** 
+ [Networking best practices and tips with the Well-Architected Framework (Best practice di rete e suggerimenti sul Framework Well-Architected)](https://www.youtube.com/watch?v=wOMNpG49BeM)
+ [Monitoring and troubleshooting network traffic](https://www.youtube.com/watch?v=Ed09ReWRQXc)

 **Esempi correlati:** 
+  [Workshop sulle reti AWS](https://networking.workshop.aws/) 
+  [Monitoraggio della rete AWS](https://github.com/aws-samples/monitor-vpc-network-patterns) 