

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Utilizzo dell'Upgrade Agent
<a name="emr-spark-upgrade-agent-using"></a>

## Modalità di distribuzione supportate
<a name="emr-spark-upgrade-agent-deployment-modes"></a>

Apache Spark Upgrade Agent per Amazon EMR supporta le seguenti due modalità di distribuzione per l'esperienza di aggiornamento delle applicazioni end-to-end Spark, tra cui aggiornamento del file di build, script/dependency aggiornamento, test e convalida locali con cluster EMR di destinazione o applicazione EMR Serverless e convalida della qualità dei dati.
+ EMR su EC2
+ EMR Serverless

Fai riferimento a per comprendere le caratteristiche, le capacità e le limitazioni dettagliate[Caratteristiche e funzionalità](emr-spark-upgrade-agent-features.md).

## Interfacce supportate
<a name="emr-spark-upgrade-agent-supported-interfaces"></a>

### Integrazione con Amazon SageMaker Unified Studio VS Code Editor Spaces
<a name="emr-spark-upgrade-agent-sagemaker-studio"></a>

Su Amazon SageMaker Unified Studio VS Code Editor Spaces, puoi configurare il profilo IAM e la configurazione MCP come descritto nel Setup for Upgrade Agent semplicemente seguendo la schermata seguente:

![\[Agente di aggiornamento Apache Spark\]](http://docs.aws.amazon.com/it_it/emr/latest/ReleaseGuide/images/SparkUpgradeVSCodeEditor.png)


Una dimostrazione dell'esperienza di aggiornamento EMR su EC2 con l'editor di codice SMUS VS. Inizia con una semplice richiesta di chiedere all'agente di avviare il processo di aggiornamento di Spark.

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-EC2 Cluster <cluster-id> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts.   
Use spark-upgrade-profile for AWS CLI operations.
```

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/Hk4_GPvYeqI/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/Hk4_GPvYeqI)


### Integrazione con Kiro CLI (QCLI)
<a name="emr-spark-upgrade-agent-kiro-cli"></a>

Avvia Kiro CLI o il tuo AI Assistant e verifica gli strumenti caricati per l'agente di aggiornamento.

```
...  
spark-upgrade (MCP):   
- check_and_update_build_environment     * not trusted  
- check_and_update_python_environment    * not trusted  
- check_job_status                       * not trusted  
- compile_and_build_project              * not trusted  
...
```

Una dimostrazione dell'esperienza di aggiornamento EMR Serverless con Kiro CLI. Puoi semplicemente avviare il processo di aggiornamento con la seguente richiesta:

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-Serverless Applicaion <application-id> and execution role <your EMR Serverless job execution role> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts.
```

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/Kw8E2wWv4uQ/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/Kw8E2wWv4uQ)


### Integrazione con Altro IDEs
<a name="emr-spark-upgrade-agent-other-ides"></a>

La [configurazione](emr-spark-upgrade-agent-setup.md#spark-upgrade-agent-setup-resources) può essere utilizzata anche in altri modi IDEs per connettersi al server Managed MCP:
+ **Integrazione con Cline**: per utilizzare il server MCP con Cline, modifica `cline_mcp_settings.json` e aggiungi la configurazione precedente. Consultate [la documentazione di Cline](https://docs.cline.bot/mcp/configuring-mcp-servers) per ulteriori informazioni su come gestire la configurazione MCP.
+ **Integrazione con Claude Code** Per utilizzare il server MCP con Claude Code, modifica il file di configurazione per includere la configurazione MCP. Il percorso del file varia a seconda del sistema operativo. Per una configurazione dettagliata, fare riferimento a [https://code.claude.com/docs/en/mcp](https://code.claude.com/docs/en/mcp).
+ **Integrazione con GitHub Copilot** - Per utilizzare il server MCP con GitHub Copilot, segui le istruzioni contenute in [ https://docs.github.com/en/copilot/how-tos/provide-context/use-mcp/extend- copilot-chat-with-mcp](https://docs.github.com/en/copilot/how-tos/provide-context/use-mcp/extend-copilot-chat-with-mcp) per modificare il file di configurazione corrispondente e segui le istruzioni di ciascun IDE per attivare la configurazione.

## Configurazione del cluster EMR o dell'applicazione serverless EMR per la versione di destinazione
<a name="emr-spark-upgrade-agent-setup-target"></a>

Crea il cluster EMR o l'applicazione EMR Serverless con la versione Spark prevista che intendi utilizzare per l'applicazione aggiornata. Il cluster EMR o l'applicazione EMR-S di destinazione verranno utilizzati per inviare i job di convalida eseguiti dopo l'aggiornamento degli artefatti dell'applicazione Spark per verificare l'avvenuto aggiornamento o correggere gli errori aggiuntivi riscontrati durante la convalida. Se disponi già di un cluster EMR di destinazione o di un'applicazione EMR Serverless, puoi fare riferimento a quello esistente e saltare questo passaggio. Usare account di sviluppo non di produzione e selezionare esempi di set di dati fittizi che rappresentino i dati di produzione ma di dimensioni più piccole per la convalida con Spark Upgrades. Fare riferimento a questa pagina per le indicazioni su come creare un cluster EMR di destinazione o un'applicazione EMR Serverless da quelli esistenti:. [Creazione di un cluster EMR di destinazione/applicazione EMR-S da quelli esistenti](emr-spark-upgrade-agent-target-cluster.md)