

 Amazon Redshift tidak akan lagi mendukung pembuatan Python UDFs baru mulai Patch 198. Python yang ada UDFs akan terus berfungsi hingga 30 Juni 2026. Untuk informasi lebih lanjut, lihat [posting blog](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Streaming konsumsi ke tampilan yang terwujud
<a name="materialized-view-streaming-ingestion"></a>

Topik ini menjelaskan cara menggunakan tampilan terwujud untuk akses cepat ke data streaming.

 Penyerapan streaming menyediakan konsumsi data berkecepatan tinggi dengan latensi rendah dari [Amazon Kinesis Data Streams atau Amazon](https://aws.amazon.com//kinesis/data-streams/) Managed [Streaming untuk Apache Kafka Kafka](https://aws.amazon.com//msk/) ke database Amazon Redshift yang disediakan atau Amazon Redshift Tanpa Server. Data mendarat di tampilan terwujud Redshift yang dikonfigurasi untuk tujuan tersebut. Ini menghasilkan akses cepat ke data eksternal. Streaming ingestion menurunkan waktu akses data dan mengurangi biaya penyimpanan. Anda dapat mengonfigurasinya untuk klaster Amazon Redshift atau untuk workgroup Amazon Redshift Tanpa Server Anda, menggunakan kumpulan kecil perintah SQL. Setelah diatur, setiap penyegaran tampilan terwujud dapat menelan ratusan megabyte data per detik. 

## Bagaimana data mengalir dari layanan streaming ke Redshift
<a name="materialized-view-streaming-ingestion-data-flow"></a>

 Ini membantu untuk memahami bagaimana streaming ingestion bekerja dan objek database yang digunakan dalam proses. Data mengalir langsung dari penyedia aliran data ke klaster yang disediakan Amazon Redshift atau ke grup kerja Amazon Redshift Tanpa Server. Tidak ada area pendaratan sementara, seperti ember Amazon S3. Cluster atau workgroup yang disediakan adalah konsumen aliran. Dalam database Redshift, data yang dibaca dari aliran mendarat dalam tampilan yang terwujud. Data diproses saat tiba. Misalnya, nilai JSON dapat dikonsumsi dan dipetakan ke kolom data tampilan terwujud, menggunakan SQL. Saat tampilan terwujud disegarkan, Redshift mengkonsumsi data dari pecahan data Kinesis yang dialokasikan atau partisi Kafka hingga tampilan diperbarui dengan aliran. 

 Kasus penggunaan untuk konsumsi streaming Amazon Redshift melibatkan data yang dihasilkan terus-menerus dan harus diproses dalam waktu singkat, atau *latensi*, dari asalnya. Ini biasa disebut analitik *dekat waktu nyata*. Sumber dapat mencakup perangkat TI, perangkat telemetri sistem, dan data klik-aliran dari situs web atau aplikasi yang sibuk.

## Praktik terbaik penguraian data untuk meningkatkan kinerja
<a name="materialized-view-streaming-recommendations"></a>

Saat Anda mengonfigurasi konsumsi streaming, ada opsi bagaimana Anda dapat mengurai data yang masuk. Praktik dapat mencakup melakukan logika bisnis atau pemformatan saat data tiba. Kami merekomendasikan praktik terbaik berikut untuk menghindari kesalahan atau kehilangan data. Ini berasal dari pengujian internal dan membantu pelanggan mengatasi masalah konfigurasi dan penguraian masalah.
+ **Mengekstrak nilai dari data yang dialirkan** *- Jika Anda menggunakan fungsi [JSON\$1EXTRACT\$1PATH\$1TEXT](https://docs.aws.amazon.com/redshift/latest/dg/JSON_EXTRACT_PATH_TEXT.html) dalam definisi tampilan terwujud untuk mengurai atau menghancurkan JSON yang dialirkan, ini dapat memengaruhi kinerja dan latensi secara signifikan.* Untuk menjelaskan, untuk setiap kolom yang diekstraksi menggunakan JSON\$1EXTRACT\$1PATH\$1TEXT, JSON yang masuk diurai ulang. Setelah ini, konversi tipe data, pemfilteran, dan perhitungan logika bisnis terjadi. Ini berarti, misalnya, bahwa jika Anda mengekstrak 10 kolom dari data JSON, setiap catatan JSON diurai 10 kali, yang mencakup logika tambahan. Ini menghasilkan latensi konsumsi yang lebih tinggi. Pendekatan alternatif yang kami rekomendasikan adalah menggunakan [fungsi JSON\$1PARSE](https://docs.aws.amazon.com/redshift/latest/dg/JSON_PARSE.html) untuk mengonversi catatan JSON ke tipe data SUPER Redshift. Setelah data yang dialirkan mendarat di tampilan terwujud, gunakan PartiQL untuk mengekstrak string individu dari representasi SUPER dari data JSON. Untuk informasi selengkapnya, lihat [Menanyakan data semi-terstruktur](https://docs.aws.amazon.com/redshift/latest/dg/query-super.html).

   Selain itu, perhatikan bahwa JSON\$1EXTRACT\$1PATH\$1TEXT memiliki maksimum ukuran data 64KB. Jadi, jika ada catatan JSON yang lebih besar dari 64KB, memprosesnya dengan JSON\$1EXTRACT\$1PATH\$1TEXT menghasilkan kesalahan. 
+  **Memetakan Amazon Kinesis Data Streams aliran atau topik MSK Amazon ke beberapa tampilan terwujud** — Kami tidak menyarankan membuat beberapa tampilan terwujud untuk menyerap data dari satu aliran atau topik. Ini karena setiap tampilan yang terwujud menciptakan konsumen untuk setiap pecahan di aliran atau partisi Kinesis Data Streams dalam topik Kafka. Hal ini dapat mengakibatkan pelambatan atau melebihi throughput aliran atau topik. Ini juga dapat menghasilkan biaya yang lebih tinggi, karena Anda menelan data yang sama beberapa kali. Saat Anda mengonfigurasi konsumsi streaming, kami sarankan Anda membuat satu tampilan terwujud untuk setiap aliran atau topik. 

  Jika kasus penggunaan Anda mengharuskan Anda mencerna data dari satu aliran KDS atau topik MSK ke dalam beberapa tampilan terwujud, lihat [blog AWS Big Data](https://aws.amazon.com/blogs/big-data/), khususnya [Praktik terbaik untuk menerapkan analitik menggunakan near-real-time Amazon Redshift Streaming Ingestion dengan Amazon](https://aws.amazon.com/blogs/big-data/best-practices-to-implement-near-real-time-analytics-using-amazon-redshift-streaming-ingestion-with-amazon-msk/) MSK, sebelum Anda melakukannya.

## Perilaku konsumsi streaming dan tipe data
<a name="materialized-view-streaming-ingestion-limitations"></a>

Tabel berikut menjelaskan rincian perilaku teknis dan batas ukuran untuk berbagai tipe data. Kami merekomendasikan untuk membiasakan diri dengan ini sebelum mengonfigurasi tampilan terwujud untuk konsumsi streaming.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/redshift/latest/dg/materialized-view-streaming-ingestion.html)