

在仔細考慮之後，我們決定停止 Amazon Kinesis Data Analytics for SQL 應用程式：

1. 從 **2025 年 9 月 1 日起，**我們不會為 Amazon Kinesis Data Analytics for SQL 應用程式提供任何錯誤修正，因為考慮到即將終止，我們將對其提供有限的支援。

2. 從 **2025 年 10 月 15 日起，**您將無法建立新的 Kinesis Data Analytics for SQL 應用程式。

3. 我們將自 **2026 年 1 月 27** 日起刪除您的應用程式。您將無法啟動或操作 Amazon Kinesis Data Analytics for SQL 應用程式。從那時起，Amazon Kinesis Data Analytics for SQL 將不再提供支援。如需詳細資訊，請參閱[Amazon Kinesis Data Analytics for SQL 應用程式終止](discontinuation.md)。

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 範例：剖析網頁日誌 (W3C\$1LOG\$1PARSE 函式)
<a name="examples-transforming-strings-w3clogparse"></a>

此範例使用 `W3C_LOG_PARSE` 函數來轉換 Amazon Kinesis Data Analytics 中的串流。您可以使用 `W3C_LOG_PARSE` 來快速格式化 Apache 日誌。如需詳細資訊，請參閱 *Amazon Managed Service for Apache Flink SQL 參考資料*中的[W3C\$1LOG\$1PARSE](https://docs.aws.amazon.com/kinesisanalytics/latest/sqlref/sql-reference-w3c-log-parse.html)。

在此範例中，將日誌記錄寫入 Amazon Kinesis 資料串流。範例日誌如下所示：

```
{"Log":"192.168.254.30 - John [24/May/2004:22:01:02 -0700] "GET /icons/apache_pba.gif HTTP/1.1" 304 0"}
{"Log":"192.168.254.30 - John [24/May/2004:22:01:03 -0700] "GET /icons/apache_pbb.gif HTTP/1.1" 304 0"}
{"Log":"192.168.254.30 - John [24/May/2004:22:01:04 -0700] "GET /icons/apache_pbc.gif HTTP/1.1" 304 0"}
...
```



接著，在主控台上建立 Kinesis Data Analytics 應用程式，並將 Kinesis 資料串流做為串流來源。探索程序會讀取串流來源上的範例記錄，並以一個資料欄 (日誌) 推斷應用程式內結構描述，如下所示：

![\[主控台螢幕擷取畫面顯示格式化的串流範例標籤，其中包含帶有日誌欄的應用程式內結構描述。\]](http://docs.aws.amazon.com/zh_tw/kinesisanalytics/latest/dev/images/log-10.png)


然後，您可以將應用程式碼與 `W3C_LOG_PARSE` 函數搭配使用來剖析日誌，並建立另一個應用程式內串流，其中包含不同資料欄的各種日誌欄位，如下所示：

![\[主控台螢幕擷取畫面，顯示帶有應用程式內串流的即時分析標籤。\]](http://docs.aws.amazon.com/zh_tw/kinesisanalytics/latest/dev/images/log-20.png)


**Topics**
+ [步驟 1：建立 Kinesis 資料串流](#examples-transforming-strings-w3clogparse-1)
+ [步驟 2：建立 Kinesis Data Analytics 應用程式](#examples-transforming-strings-w3clogparse-2)

## 步驟 1：建立 Kinesis 資料串流
<a name="examples-transforming-strings-w3clogparse-1"></a>

建立 Amazon Kinesis 資料串流，並依照下列方式填入日誌記錄：

1. 登入 AWS 管理主控台 並開啟位於 https：//[https://console.aws.amazon.com/kinesis](https://console.aws.amazon.com/kinesis) 的 Kinesis 主控台。

1. 在導覽窗格中選擇**資料串流**。

1. 選擇**建立 Kinesis 串流**，然後建立內含一個碎片之串流。如需詳細資訊，請參閱 *Amazon Kinesis Data Streams 開發人員指南*中的[建立串流](https://docs.aws.amazon.com/streams/latest/dev/learning-kinesis-module-one-create-stream.html)。

1. 執行下列 Python 程式碼，以填入範例日誌記錄。這個簡單的代碼會持續寫入相同的日誌記錄到串流。

   ```
    
   import json
   import boto3
   
   STREAM_NAME = "ExampleInputStream"
   
   
   def get_data():
       return {
           "log": "192.168.254.30 - John [24/May/2004:22:01:02 -0700] "
           '"GET /icons/apache_pb.gif HTTP/1.1" 304 0'
       }
   
   
   def generate(stream_name, kinesis_client):
       while True:
           data = get_data()
           print(data)
           kinesis_client.put_record(
               StreamName=stream_name, Data=json.dumps(data), PartitionKey="partitionkey"
           )
   
   
   if __name__ == "__main__":
       generate(STREAM_NAME, boto3.client("kinesis"))
   ```

## 步驟 2：建立 Kinesis Data Analytics 應用程式
<a name="examples-transforming-strings-w3clogparse-2"></a>

建立 Kinesis Data Analytics 應用程式，如下所示。

1. 前往 [https://console.aws.amazon.com/kinesisanalytics](https://console.aws.amazon.com/kinesisanalytics) 開啟 Managed Service for Apache Flink 主控台。

1. 選擇**建立應用程式**，輸入應用程式名稱，然後選擇**建立應用程式**。

1. 在應用程式詳細資料頁面上，選擇**連接串流資料**。

1. 在**連接至來源**頁面，執行下列動作：

   1. 選擇您在上一節建立的串流。

   1. 選擇建立 IAM 角色 選項。

   1. 選擇**探索結構描述**。等待主控台顯示推斷的結構描述和範例記錄，這些記錄可用來推斷應用程式內串流所建立的結構描述。推斷的結構描述只有一個資料欄。

   1. 選擇**儲存並繼續**。

   

1. 在應用程式詳細資訊頁面上，選擇**至 SQL 編輯器**。若要啟動應用程式，請在出現的對話方塊中選擇**是，啟動應用程式**。

1. 在 SQL 編輯器中，編寫應用程式碼並驗證結果，如下所示：

   1. 請複製以下應用程式碼，然後貼到編輯器中。

      ```
      CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" (
      column1 VARCHAR(16),
      column2 VARCHAR(16),
      column3 VARCHAR(16),
      column4 VARCHAR(16),
      column5 VARCHAR(16),
      column6 VARCHAR(16),
      column7 VARCHAR(16));
      
      CREATE OR REPLACE PUMP "myPUMP" AS 
      INSERT INTO "DESTINATION_SQL_STREAM"
              SELECT STREAM
                  l.r.COLUMN1,
                  l.r.COLUMN2,
                  l.r.COLUMN3,
                  l.r.COLUMN4,
                  l.r.COLUMN5,
                  l.r.COLUMN6,
                  l.r.COLUMN7
              FROM (SELECT STREAM W3C_LOG_PARSE("log", 'COMMON')
                    FROM "SOURCE_SQL_STREAM_001") AS l(r);
      ```

   1. 選擇 **儲存並執行 SQL**。在**即時分析**標籤上，您可以查看應用程式建立的所有應用程式內串流，並驗證資料。