

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Precauzioni e problemi noti relativi agli aggiornamenti delle applicazioni
<a name="precautions"></a>

## Kafka Commit sul checkpoint fallisce ripetutamente dopo il riavvio del broker
<a name="apache-kafka-connector"></a>

Esiste un problema noto di Apache Flink open source con il connettore Apache Kafka nella versione 1.15 di Flink, causato da un bug critico di Kafka Client open source in Kafka Client 2.8.1. [Per ulteriori informazioni, vedi [Kafka Commit on checkpointing fallisce ripetutamente dopo il riavvio del broker e non è in grado di ripristinare](https://issues.apache.org/jira/browse/FLINK-28060) la connessione al coordinatore del gruppo dopo un'eccezione. KafkaConsumer commitOffsetAsync ](https://issues.apache.org/jira/browse/KAFKA-13840)

Per evitare questo problema, ti consigliamo di utilizzare Apache Flink 1.18 o versione successiva in Amazon Managed Service for Apache Flink.

## Limitazioni note della compatibilità tra stati
<a name="state-precautions"></a>
+ Se utilizzi l'API Table, Apache Flink non garantisce la compatibilità degli stati tra le versioni di Flink. Per ulteriori informazioni, consulta [Stateful Upgrades and Evolution](https://nightlies.apache.org/flink/flink-docs-master/docs/dev/table/concepts/overview/#stateful-upgrades-and-evolution) nella documentazione di Apache Flink.
+ Gli stati di Flink 1.6 non sono compatibili con Flink 1.18. L'API rifiuta la tua richiesta se tenti di eseguire l'aggiornamento da 1.6 a 1.18 e versioni successive con state. Puoi eseguire l'aggiornamento alla versione 1.8, 1.11, 1.13 e 1.15 e scattare un'istantanea, quindi eseguire l'aggiornamento alla versione 1.18 e successive. Per ulteriori informazioni, consulta [Aggiornamento delle applicazioni e delle versioni Flink nella documentazione di Apache Flink](https://nightlies.apache.org/flink/flink-docs-master/docs/ops/upgrading/).

## Problemi noti con il connettore Flink Kinesis
<a name="kinesis-connector-precautions"></a>
+ Se si utilizza Flink 1.11 o versioni precedenti e si utilizza il `amazon-kinesis-connector-flink` connettore per il supporto Enhanced-fan-out (EFO), è necessario eseguire ulteriori passaggi per un aggiornamento stateful a Flink 1.13 o versione successiva. Ciò è dovuto alla modifica del nome del pacchetto del connettore. Per ulteriori informazioni, consulta [amazon-kinesis-connector-flink](https://github.com/awslabs/amazon-kinesis-connector-flink).

  Il `amazon-kinesis-connector-flink` connettore per Flink 1.11 e versioni precedenti utilizza la confezione`software.amazon.kinesis`, mentre il connettore Kinesis per Flink 1.13 e versioni successive utilizza. `org.apache.flink.streaming.connectors.kinesis` [Utilizzate questo strumento per supportare la migrazione: -state-migrator. amazon-kinesis-connector-flink](https://github.com/awslabs/amazon-kinesis-connector-flink-state-migrator)
+ Se si utilizza Flink 1.13 o versioni precedenti `FlinkKinesisProducer` e si esegue l'aggiornamento a Flink 1.15 o successivo, per un aggiornamento statico è necessario continuare a utilizzare in Flink 1.15 o versione successiva, anziché la versione più recente. `FlinkKinesisProducer` `KinesisStreamsSink` Tuttavia, se hai già un `uid` set personalizzato sul tuo sink, dovresti essere in grado di passare a perché non mantiene lo stato. `KinesisStreamsSink` `FlinkKinesisProducer` Flink lo tratterà come lo stesso operatore perché `uid` è impostata una personalizzazione.

## Applicazioni Flink scritte in Scala
<a name="scala-precautions"></a>
+ A partire da Flink 1.15, Apache Flink non include Scala nel runtime. È necessario includere la versione di Scala che si desidera utilizzare e altre dipendenze di Scala nel codice JAR/zip quando si esegue l'aggiornamento a Flink 1.15 o versioni successive. Per ulteriori informazioni, consulta [Amazon Managed Service for Apache Flink for Apache Flink release 1.15.2](https://docs.aws.amazon.com/managed-flink/latest/java/flink-1-15-2.html).
+ Se la tua applicazione utilizza Scala e la stai aggiornando da Flink 1.11 o precedente (Scala 2.11) a Flink 1.13 (Scala 2.12), assicurati che il codice utilizzi Scala 2.12. Altrimenti, l'applicazione Flink 1.13 potrebbe non riuscire a trovare le classi Scala 2.11 nel runtime Flink 1.13.

## Aspetti da considerare quando si esegue il downgrade dell'applicazione Flink
<a name="downgrading-precautions"></a>
+ Il downgrade delle applicazioni Flink è possibile, ma limitato ai casi in cui l'applicazione era precedentemente in esecuzione con la versione precedente di Flink. Per un aggiornamento statico, Managed Service for Apache, Flink richiederà l'utilizzo di un'istantanea scattata con una versione corrispondente o precedente per il downgrade
+ Se state aggiornando il runtime da Flink 1.13 o versione successiva a Flink 1.11 o precedente e se l'app utilizza il backend di stato, l'applicazione fallirà continuamente. HashMap 