Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Amazon EMR pada rilis EKS 6.8.0
Rilis Amazon EMR 6.8.0 berikut tersedia untuk Amazon EMR di EKS. Pilih rilis EMR-6.8.0-XXXX tertentu untuk melihat detail selengkapnya seperti tag gambar kontainer terkait.
Catatan rilis untuk Amazon EMR 6.8.0
-
Aplikasi yang didukung - AWS SDK untuk Java 1.12.170, Spark 3.3.0-amzn-0, Hudi 0.11.1-amzn-0, Iceberg 0.14.0-amzn-0.
-
Komponen yang didukung -
aws-sagemaker-spark-sdkemr-ddb,emr-goodies,,emr-s3-select,emrfs,hadoop-client,hudi,hudi-spark,iceberg,spark-kubernetes. -
Klasifikasi konfigurasi yang didukung:
Klasifikasi Deskripsi core-siteUbah nilai dalam file core-site.xml Hadoop.
emrfs-siteUbah pengaturan EMRFS.
spark-metricsUbah nilai dalam file metrics.properties Spark.
spark-defaultsUbah nilai dalam file spark-defaults.conf Spark.
spark-envUbah nilai di lingkungan Spark.
spark-hive-siteUbah nilai dalam file hive-site.xml Spark.
spark-log4jUbah nilai dalam file log4j.properties Spark.
Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering kali bersesuaian dengan file XML konfigurasi untuk aplikasi, seperti
spark-hive-site.xml. Untuk informasi selengkapnya, lihat Mengkonfigurasi Aplikasi.
Fitur penting
-
Spark3.3.0 - Amazon EMR di EKS 6.8 menyertakan Spark 3.3.0, yang mendukung penggunaan label pemilih node terpisah untuk pod pelaksana driver Spark. Label baru ini memungkinkan Anda untuk menentukan tipe node untuk driver dan pod eksekutor secara terpisah di StartJobRun API, tanpa menggunakan templat pod.
-
Properti pemilih node driver: spark.kubernetes.driver.node.selector. [LabelKey]
-
Properti pemilih node pelaksana: spark.kubernetes.executor.node.selector. [LabelKey]
-
-
Pesan kegagalan pekerjaan yang disempurnakan - Rilis ini memperkenalkan konfigurasi
spark.stage.extraDetailsOnFetchFailures.enableddanspark.stage.extraDetailsOnFetchFailures.maxFailuresToIncludemelacak kegagalan tugas karena kode pengguna. Detail ini akan digunakan untuk menyempurnakan pesan kegagalan yang ditampilkan di log driver ketika tahap dibatalkan karena kegagalan pengambilan acak.Nama properti Nilai default Arti Sejak versi spark.stage.extraDetailsOnFetchFailures.enabledfalse
Jika disetel ke
true, properti ini digunakan untuk menyempurnakan pesan kegagalan pekerjaan yang ditampilkan di log driver saat tahap dibatalkan karena Kegagalan Pengambilan Aduk. Secara default, 5 kegagalan tugas terakhir yang disebabkan oleh kode pengguna dilacak, dan pesan kesalahan kegagalan ditambahkan di Log Driver.Untuk meningkatkan jumlah kegagalan tugas dengan pengecualian pengguna untuk dilacak, lihat konfigurasi
spark.stage.extraDetailsOnFetchFailures.maxFailuresToInclude.emr-6.8
spark.stage.extraDetailsOnFetchFailures.maxFailuresToInclude5
Jumlah kegagalan tugas untuk melacak per tahap dan upaya. Properti ini digunakan untuk menyempurnakan pesan kegagalan pekerjaan dengan pengecualian pengguna yang ditampilkan di log driver saat tahap dibatalkan karena Kegagalan Pengambilan Aduk.
Properti ini hanya berfungsi jika Config spark.stage. extraDetailsOnFetchFailures.enabled disetel ke true.
emr-6.8
Untuk informasi selengkapnya lihat dokumentasi konfigurasi Apache Spark
Masalah yang diketahui
-
Amazon EMR di EKS 6.8.0 salah mengisi hash build dalam metadata file Parquet yang dihasilkan menggunakan Apache Spark.
Masalah ini dapat menyebabkan alat yang mengurai string versi metadata dari file Parket yang dihasilkan oleh Amazon EMR di EKS 6.8.0 gagal. Pelanggan yang mengurai string versi dari metadata Parket dan bergantung pada hash build harus beralih ke versi EMR Amazon yang berbeda dan menulis ulang file.
Masalah terselesaikan
-
Kemampuan Kernel interupsi untuk kernel PySpark - Beban kerja interaktif yang sedang berlangsung yang dipicu oleh mengeksekusi sel di notebook dapat dihentikan dengan menggunakan kemampuan tersebut.
Interrupt KernelPerbaikan telah diperkenalkan sehingga fungsi ini berfungsi untuk kernel PySpark. Ini juga tersedia di open source di Changes untuk menangani interupsi untuk PySpark KubernetesKernel #1115.