

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Kerangka Kerja dan Bahasa Machine Learning
<a name="frameworks"></a>

Amazon SageMaker AI menyediakan dukungan asli untuk bahasa pemrograman populer dan kerangka kerja pembelajaran mesin, memberdayakan pengembang dan ilmuwan data untuk memanfaatkan alat dan teknologi pilihan mereka. Bagian ini menawarkan referensi untuk bekerja dengan Python dan R, serta kit pengembangan perangkat lunak masing-masing (SDKs) dalam AI. SageMaker Selain itu, ini mencakup berbagai pembelajaran mesin dan kerangka pembelajaran mendalam, termasuk Apache, MXNet, PyTorch. TensorFlow 

Anda dapat menggunakan Python dan R secara native di kernel notebook Amazon SageMaker . Ada juga kernel yang mendukung kerangka kerja tertentu. Cara yang sangat populer untuk memulai SageMaker AI adalah dengan menggunakan [Amazon SageMaker Python](https://sagemaker.readthedocs.io/en/stable) SDK. Ini menyediakan Python APIs dan wadah open source yang memudahkan untuk melatih dan menerapkan model dalam SageMaker AI, serta contoh untuk digunakan dengan beberapa pembelajaran mesin dan kerangka pembelajaran mendalam yang berbeda.

Untuk informasi tentang menggunakan kerangka kerja tertentu atau cara menggunakan R di SageMaker AI, lihat topik berikut.

Bahasa SDKs dan panduan pengguna:
+ [Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable)
+ [R](r-guide.md)
+ [Referensi API](api-and-sdk-reference.md)

Panduan kerangka pembelajaran mesin dan pembelajaran mendalam:
+ [Apache MXNet](mxnet.md)
+ [Apache Spark](apache-spark.md)
+ [Chainer](chainer.md)
+ [Hugging Face](hugging-face.md)
+ [PyTorch](pytorch.md)
+ [Scikit-belajar](sklearn.md)
+ [Penyajian SparkMl](sparkml-serving.md)
+ [TensorFlow](tf.md)
+ [Server Inferensi Triton](triton.md)

# Sumber daya untuk menggunakan Apache MXNet dengan Amazon AI SageMaker
<a name="mxnet"></a>

 MXNet Estimator dan model [Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable) dan MXNet wadah sumber terbuka SageMaker AI membuat penulisan MXNet skrip dan menjalankannya di AI lebih mudah. SageMaker Bagian berikut menyediakan materi referensi yang dapat Anda gunakan untuk mempelajari cara menggunakan SageMaker AI untuk melatih dan menerapkan model menggunakan MXNet kode khusus. 

## Apa yang ingin kau lakukan?
<a name="mxnet-intent"></a>

Saya ingin melatih MXNet model khusus di SageMaker AI.  
Untuk dokumentasi, lihat [Melatih Model dengan MXNet](https://sagemaker.readthedocs.io/en/stable/using_mxnet.html#train-a-model-with-mxnet).

Saya memiliki MXNet model yang saya latih dalam SageMaker AI, dan saya ingin menerapkannya ke titik akhir yang dihosting.  
Untuk informasi selengkapnya, lihat [Menerapkan MXNet model](https://sagemaker.readthedocs.io/en/stable/using_mxnet.html#deploy-mxnet-models).

Saya memiliki MXNet model yang saya latih di luar SageMaker AI, dan saya ingin menerapkannya ke titik akhir SageMaker AI  
Untuk informasi selengkapnya, lihat [Menerapkan Titik Akhir dari Data Model](https://sagemaker.readthedocs.io/en/stable/using_mxnet.html#deploy-endpoints-from-model-data).

Saya ingin melihat dokumentasi API untuk kelas [Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable) MXNet.  
Untuk informasi selengkapnya, lihat [MXNet Kelas](https://sagemaker.readthedocs.io/en/stable/frameworks/mxnet/sagemaker.mxnet.html). 

Saya ingin menemukan repositori MXNet kontainer SageMaker AI.  
Untuk informasi selengkapnya, lihat [ GitHub repositori SageMaker AI MXNet Container](https://github.com/aws/sagemaker-mxnet-container).

Saya ingin mencari informasi tentang MXNet versi yang didukung oleh AWS Deep Learning Containers.  
Untuk informasi selengkapnya, lihat [Gambar Wadah Pembelajaran Mendalam yang Tersedia](https://github.com/aws/deep-learning-containers/blob/master/available_images.md).

 Untuk informasi umum tentang menulis MXNet skrip pelatihan mode skrip dan menggunakan estimator dan model mode MXNet skrip dengan SageMaker AI, lihat [Menggunakan MXNet dengan Python SageMaker ](https://sagemaker.readthedocs.io/en/stable/using_mxnet.html) SDK.

# Apache Spark dengan Amazon AI SageMaker
<a name="apache-spark"></a>

Amazon SageMaker AI Spark adalah pustaka Spark open source yang membantu Anda membangun pipeline machine learning (ML) Spark dengan AI. SageMaker Ini menyederhanakan integrasi tahap Spark ML dengan tahapan SageMaker AI, seperti pelatihan model dan hosting. Untuk informasi tentang SageMaker AI Spark, lihat repositori [SageMaker AI Spark](https://github.com/aws/sagemaker-spark) GitHub . Topik berikut memberikan informasi untuk mempelajari cara menggunakan Apache Spark dengan SageMaker AI.

Pustaka SageMaker AI Spark tersedia dalam Python dan Scala. Anda dapat menggunakan SageMaker AI Spark untuk melatih model dalam SageMaker AI menggunakan bingkai `org.apache.spark.sql.DataFrame` data di cluster Spark Anda. Setelah pelatihan model, Anda juga dapat meng-host model menggunakan layanan hosting SageMaker AI. 

Perpustakaan SageMaker AI Spark,`com.amazonaws.services.sagemaker.sparksdk`, menyediakan kelas-kelas berikut, antara lain:
+ `SageMakerEstimator`—Memperluas antarmuka. `org.apache.spark.ml.Estimator` Anda dapat menggunakan estimator ini untuk pelatihan model dalam SageMaker AI.
+ `KMeansSageMakerEstimator`,`PCASageMakerEstimator`, dan `XGBoostSageMakerEstimator` —Memperpanjang `SageMakerEstimator` kelas. 
+ `SageMakerModel`Memperluas kelas. `org.apache.spark.ml.Model` Anda dapat menggunakan ini `SageMakerModel` untuk hosting model dan mendapatkan kesimpulan dalam SageMaker AI.

[Anda dapat mengunduh kode sumber untuk pustaka Python Spark (PySpark) dan Scala dari repositori AI Spark. SageMaker ](https://github.com/aws/sagemaker-spark) GitHub

Untuk instalasi dan contoh perpustakaan SageMaker AI Spark, lihat [SageMaker AI Spark untuk contoh Scala](apache-spark-example1.md) atau[Sumber daya untuk menggunakan SageMaker AI Spark untuk contoh Python PySpark ()](apache-spark-additional-examples.md).

[Jika Anda menggunakan Amazon EMR AWS untuk mengelola cluster Spark, lihat Apache Spark.](https://aws.amazon.com/emr/features/spark/) Untuk informasi selengkapnya tentang penggunaan Amazon EMR di SageMaker AI, lihat. [Persiapan data menggunakan Amazon EMR](studio-notebooks-emr-cluster.md)

**Topics**
+ [Integrasikan aplikasi Apache Spark Anda dengan AI SageMaker](#spark-sdk-common-process)
+ [SageMaker AI Spark untuk contoh Scala](apache-spark-example1.md)
+ [Sumber daya untuk menggunakan SageMaker AI Spark untuk contoh Python PySpark ()](apache-spark-additional-examples.md)

## Integrasikan aplikasi Apache Spark Anda dengan AI SageMaker
<a name="spark-sdk-common-process"></a>

Berikut ini adalah ringkasan tingkat tinggi dari langkah-langkah untuk mengintegrasikan aplikasi Apache Spark Anda dengan AI. SageMaker 

1. Lanjutkan preprocessing data menggunakan pustaka Apache Spark yang Anda kenal. Dataset Anda tetap berada `DataFrame` di cluster Spark Anda. Muat data Anda ke dalam file`DataFrame`. Pra-proses sehingga Anda memiliki `features` kolom dengan `org.apache.spark.ml.linalg.Vector` dari`Doubles`, dan `label` kolom opsional dengan nilai `Double` tipe.

1. Gunakan estimator di perpustakaan SageMaker AI Spark untuk melatih model Anda. Misalnya, jika Anda memilih algoritma k-means yang disediakan oleh SageMaker AI untuk pelatihan model, hubungi `KMeansSageMakerEstimator.fit` metode tersebut. 

   Berikan Anda `DataFrame` sebagai masukan. Estimator mengembalikan `SageMakerModel` objek. 
**catatan**  
`SageMakerModel`memperluas. `org.apache.spark.ml.Model`

   `fit`Metode ini melakukan hal berikut: 

   1. Mengkonversi input `DataFrame` ke format protobuf. Ia melakukannya dengan memilih `label` kolom `features` dan dari input`DataFrame`. Kemudian mengunggah data protobuf ke bucket Amazon S3. Format protobuf efisien untuk pelatihan model dalam SageMaker AI.

   1. Memulai pelatihan model dalam SageMaker AI dengan mengirimkan [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html)permintaan SageMaker AI. Setelah pelatihan model selesai, SageMaker AI menyimpan artefak model ke ember S3. 

      SageMaker AI mengasumsikan peran IAM yang Anda tentukan untuk pelatihan model untuk melakukan tugas atas nama Anda. Misalnya, ia menggunakan peran untuk membaca data pelatihan dari bucket S3 dan menulis artefak model ke ember. 

   1. Menciptakan dan mengembalikan `SageMakerModel` objek. Konstruktor melakukan tugas-tugas berikut, yang terkait dengan penerapan model Anda ke SageMaker AI. 

      1. Mengirim [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)permintaan ke SageMaker AI. 

      1. Mengirim [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)permintaan ke SageMaker AI.

      1. Mengirim [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)permintaan ke SageMaker AI, yang kemudian meluncurkan sumber daya yang ditentukan, dan menghosting model pada mereka. 

1. Anda bisa mendapatkan kesimpulan dari model Anda yang dihosting di SageMaker AI dengan. `SageMakerModel.transform` 

   Berikan masukan `DataFrame` dengan fitur sebagai input. `transform`Metode mengubahnya menjadi kesimpulan yang `DataFrame` mengandung. Secara internal, `transform` metode mengirimkan permintaan ke [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_runtime_InvokeEndpoint.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_runtime_InvokeEndpoint.html) SageMaker API untuk mendapatkan kesimpulan. `transform`Metode ini menambahkan kesimpulan ke input. `DataFrame`

# SageMaker AI Spark untuk contoh Scala
<a name="apache-spark-example1"></a>

Amazon SageMaker AI menyediakan perpustakaan Apache Spark ([SageMaker AI Spark](https://github.com/aws/sagemaker-spark/tree/master/sagemaker-spark-sdk)) yang dapat Anda gunakan untuk mengintegrasikan aplikasi Apache Spark Anda dengan AI. SageMaker Topik ini berisi contoh untuk membantu Anda memulai SageMaker AI Spark dengan Scala. Untuk informasi tentang perpustakaan SageMaker AI Apache Spark, lihat. [Apache Spark dengan Amazon AI SageMaker](apache-spark.md)

**Unduh Spark for Scala**

[Anda dapat mengunduh kode sumber dan contoh untuk pustaka Python Spark (PySpark) dan Scala dari repositori AI Spark. SageMaker ](https://github.com/aws/sagemaker-spark) GitHub 

Untuk petunjuk mendetail tentang menginstal perpustakaan SageMaker AI Spark, lihat [SageMaker AI Spark](https://github.com/aws/sagemaker-spark/tree/master/sagemaker-spark-sdk).

SageMaker AI Spark SDK untuk Scala tersedia di repositori pusat Maven. Tambahkan pustaka Spark ke proyek Anda dengan menambahkan dependensi berikut ke file Anda`pom.xml`:
+  Jika proyek Anda dibangun dengan Maven, tambahkan yang berikut ini ke file pom.xml Anda:

  ```
  <dependency>
      <groupId>com.amazonaws</groupId>
      <artifactId>sagemaker-spark_2.11</artifactId>
      <version>spark_2.2.0-1.0</version>
  </dependency>
  ```
+ Jika proyek Anda bergantung pada Spark 2.1, tambahkan yang berikut ini ke file pom.xml Anda:

  ```
  <dependency>
      <groupId>com.amazonaws</groupId>
      <artifactId>sagemaker-spark_2.11</artifactId>
      <version>spark_2.1.1-1.0</version>
  </dependency>
  ```

**Spark untuk contoh Scala**

Bagian ini memberikan contoh kode yang menggunakan pustaka Apache Spark Scala yang disediakan oleh SageMaker AI untuk melatih model SageMaker AI menggunakan `DataFrame` s di cluster Spark Anda. Ini kemudian diikuti dengan contoh tentang cara [Gunakan Algoritma Kustom untuk Pelatihan Model dan Hosting di Amazon SageMaker AI dengan Apache Spark](apache-spark-example1-cust-algo.md) dan[Gunakan SageMakerEstimator dalam Pipa Spark](apache-spark-example1-extend-pipeline.md).

Contoh berikut menampung artefak model yang dihasilkan menggunakan layanan hosting SageMaker AI. Untuk detail selengkapnya tentang contoh ini, lihat [Memulai: K-Means Clustering on SageMaker AI with SageMaker AI Spark SDK](https://github.com/aws/sagemaker-spark?tab=readme-ov-file#getting-started-k-means-clustering-on-sagemaker-with-sagemaker-spark-sdk) Secara khusus, contoh ini melakukan hal berikut:
+ Menggunakan `KMeansSageMakerEstimator` untuk menyesuaikan (atau melatih) model pada data

  Karena contoh menggunakan algoritma k-means yang disediakan oleh SageMaker AI untuk melatih model, Anda menggunakan. `KMeansSageMakerEstimator` Anda melatih model menggunakan gambar angka satu digit tulisan tangan (dari kumpulan data MNIST). Anda memberikan gambar sebagai masukan`DataFrame`. Demi kenyamanan Anda, SageMaker AI menyediakan kumpulan data ini dalam bucket Amazon S3.

  Sebagai tanggapan, estimator mengembalikan `SageMakerModel` objek.
+ Mendapatkan kesimpulan menggunakan yang terlatih `SageMakerModel`

  Untuk mendapatkan kesimpulan dari model yang dihosting di SageMaker AI, Anda memanggil `SageMakerModel.transform` metode ini. Anda lulus `DataFrame` sebagai input. Metode ini mengubah input `DataFrame` ke yang lain `DataFrame` yang mengandung kesimpulan yang diperoleh dari model. 

  Untuk gambar input tertentu dari nomor satu digit tulisan tangan, inferensi mengidentifikasi cluster tempat gambar tersebut berada. Untuk informasi selengkapnya, lihat [Algoritma K-Means](k-means.md).

```
import org.apache.spark.sql.SparkSession
import com.amazonaws.services.sagemaker.sparksdk.IAMRole
import com.amazonaws.services.sagemaker.sparksdk.algorithms
import com.amazonaws.services.sagemaker.sparksdk.algorithms.KMeansSageMakerEstimator

val spark = SparkSession.builder.getOrCreate

// load mnist data as a dataframe from libsvm
val region = "us-east-1"
val trainingData = spark.read.format("libsvm")
  .option("numFeatures", "784")
  .load(s"s3://sagemaker-sample-data-$region/spark/mnist/train/")
val testData = spark.read.format("libsvm")
  .option("numFeatures", "784")
  .load(s"s3://sagemaker-sample-data-$region/spark/mnist/test/")

val roleArn = "arn:aws:iam::account-id:role/rolename"

val estimator = new KMeansSageMakerEstimator(
  sagemakerRole = IAMRole(roleArn),
  trainingInstanceType = "ml.p2.xlarge",
  trainingInstanceCount = 1,
  endpointInstanceType = "ml.c4.xlarge",
  endpointInitialInstanceCount = 1)
  .setK(10).setFeatureDim(784)

// train
val model = estimator.fit(trainingData)

val transformedData = model.transform(testData)
transformedData.show
```

Kode contoh melakukan hal berikut:
+ Memuat dataset MNIST dari bucket S3 yang disediakan oleh SageMaker AI (`awsai-sparksdk-dataset`) ke dalam Spark (): `DataFrame` `mnistTrainingDataFrame`

  ```
  // Get a Spark session.
  
  val spark = SparkSession.builder.getOrCreate
  
  // load mnist data as a dataframe from libsvm
  val region = "us-east-1"
  val trainingData = spark.read.format("libsvm")
    .option("numFeatures", "784")
    .load(s"s3://sagemaker-sample-data-$region/spark/mnist/train/")
  val testData = spark.read.format("libsvm")
    .option("numFeatures", "784")
    .load(s"s3://sagemaker-sample-data-$region/spark/mnist/test/")
  
  val roleArn = "arn:aws:iam::account-id:role/rolename"
  trainingData.show()
  ```

  `show`Metode ini menampilkan 20 baris pertama dalam bingkai data:

  ```
  +-----+--------------------+
  |label|            features|
  +-----+--------------------+
  |  5.0|(784,[152,153,154...|
  |  0.0|(784,[127,128,129...|
  |  4.0|(784,[160,161,162...|
  |  1.0|(784,[158,159,160...|
  |  9.0|(784,[208,209,210...|
  |  2.0|(784,[155,156,157...|
  |  1.0|(784,[124,125,126...|
  |  3.0|(784,[151,152,153...|
  |  1.0|(784,[152,153,154...|
  |  4.0|(784,[134,135,161...|
  |  3.0|(784,[123,124,125...|
  |  5.0|(784,[216,217,218...|
  |  3.0|(784,[143,144,145...|
  |  6.0|(784,[72,73,74,99...|
  |  1.0|(784,[151,152,153...|
  |  7.0|(784,[211,212,213...|
  |  2.0|(784,[151,152,153...|
  |  8.0|(784,[159,160,161...|
  |  6.0|(784,[100,101,102...|
  |  9.0|(784,[209,210,211...|
  +-----+--------------------+
  only showing top 20 rows
  ```

  Di setiap baris:
  + `label`Kolom mengidentifikasi label gambar. Misalnya, jika gambar angka tulisan tangan adalah digit 5, nilai labelnya adalah 5. 
  + `features`Kolom menyimpan vektor (`org.apache.spark.ml.linalg.Vector`) `Double` nilai. Ini adalah 784 fitur dari nomor tulisan tangan. (Setiap angka tulisan tangan adalah gambar 28 x 28 piksel, membuat 784 fitur.)
+ Membuat estimator SageMaker AI () `KMeansSageMakerEstimator` 

  `fit`Metode estimator ini menggunakan algoritma k-means yang disediakan oleh SageMaker AI untuk melatih model menggunakan input. `DataFrame` Sebagai tanggapan, ia mengembalikan `SageMakerModel` objek yang dapat Anda gunakan untuk mendapatkan kesimpulan.
**catatan**  
`KMeansSageMakerEstimator`Memperluas SageMaker AI`SageMakerEstimator`, yang memperluas Apache Spark. `Estimator` 

  ```
  val estimator = new KMeansSageMakerEstimator(
    sagemakerRole = IAMRole(roleArn),
    trainingInstanceType = "ml.p2.xlarge",
    trainingInstanceCount = 1,
    endpointInstanceType = "ml.c4.xlarge",
    endpointInitialInstanceCount = 1)
    .setK(10).setFeatureDim(784)
  ```

   

  Parameter konstruktor memberikan informasi yang digunakan untuk melatih model dan menerapkannya pada SageMaker AI:
  + `trainingInstanceType`dan `trainingInstanceCount` —Identifikasi jenis dan jumlah instance komputasi ML yang akan digunakan untuk pelatihan model.
  + `endpointInstanceType`—Mengidentifikasi tipe instans komputasi ML yang akan digunakan saat menghosting model di AI. SageMaker Secara default, satu instance komputasi ML diasumsikan.
  + `endpointInitialInstanceCount`—Mengidentifikasi jumlah instance komputasi HTML yang awalnya mendukung titik akhir yang menghosting model di AI. SageMaker 
  + `sagemakerRole`— SageMaker AI mengasumsikan peran IAM ini untuk melakukan tugas atas nama Anda. Misalnya, untuk pelatihan model, ia membaca data dari S3 dan menulis hasil pelatihan (artefak model) ke S3. 
**catatan**  
Contoh ini secara implisit menciptakan klien SageMaker AI. Untuk membuat klien ini, Anda harus memberikan kredensil Anda. API menggunakan kredensil ini untuk mengautentikasi permintaan ke AI. SageMaker Misalnya, ia menggunakan kredensyal untuk mengautentikasi permintaan untuk membuat pekerjaan pelatihan dan panggilan API untuk menerapkan model menggunakan SageMaker layanan hosting AI.
  + Setelah `KMeansSageMakerEstimator` objek telah dibuat, Anda mengatur parameter berikut, digunakan dalam pelatihan model: 
    + Jumlah cluster yang harus dibuat oleh algoritma k-means selama pelatihan model. Anda menentukan 10 cluster, satu untuk setiap digit, 0 hingga 9. 
    + Mengidentifikasi bahwa setiap gambar input memiliki 784 fitur (setiap nomor tulisan tangan adalah gambar 28 x 28 piksel, membuat 784 fitur).
+ Memanggil metode estimator `fit`

  ```
  // train
  val model = estimator.fit(trainingData)
  ```

  Anda meneruskan input `DataFrame` sebagai parameter. Model ini melakukan semua pekerjaan melatih model dan menerapkannya ke SageMaker AI. Untuk informasi selengkapnya, lihat [Integrasikan aplikasi Apache Spark Anda dengan AI SageMaker](apache-spark.md#spark-sdk-common-process). Sebagai tanggapan, Anda mendapatkan `SageMakerModel` objek, yang dapat Anda gunakan untuk mendapatkan kesimpulan dari model Anda yang digunakan di SageMaker AI. 

  Anda hanya memberikan masukan`DataFrame`. Anda tidak perlu menentukan jalur registri ke algoritma k-means yang digunakan untuk pelatihan model karena `KMeansSageMakerEstimator` mengetahuinya.
+ Memanggil `SageMakerModel.transform` metode untuk mendapatkan kesimpulan dari model yang digunakan di SageMaker AI.

  `transform`Metode ini mengambil input `DataFrame` as, mengubahnya, dan mengembalikan kesimpulan lain `DataFrame` yang mengandung kesimpulan yang diperoleh dari model. 

  ```
  val transformedData = model.transform(testData)
  transformedData.show
  ```

  Untuk kesederhanaan, kami menggunakan input yang `DataFrame` sama dengan `transform` metode yang kami gunakan untuk pelatihan model dalam contoh ini. `transform`Metode ini melakukan hal berikut:
  + Serialisasi `features` kolom dalam input `DataFrame` ke protobuf dan mengirimkannya ke titik akhir SageMaker AI untuk inferensi.
  + Deserialisasi respons protobuf menjadi dua kolom tambahan (`distance_to_cluster`dan`closest_cluster`) dalam transformasi. `DataFrame`

  `show`Metode ini mendapatkan kesimpulan ke 20 baris pertama dalam input`DataFrame`: 

  ```
  +-----+--------------------+-------------------+---------------+
  |label|            features|distance_to_cluster|closest_cluster|
  +-----+--------------------+-------------------+---------------+
  |  5.0|(784,[152,153,154...|  1767.897705078125|            4.0|
  |  0.0|(784,[127,128,129...|  1392.157470703125|            5.0|
  |  4.0|(784,[160,161,162...| 1671.5711669921875|            9.0|
  |  1.0|(784,[158,159,160...| 1182.6082763671875|            6.0|
  |  9.0|(784,[208,209,210...| 1390.4002685546875|            0.0|
  |  2.0|(784,[155,156,157...|  1713.988037109375|            1.0|
  |  1.0|(784,[124,125,126...| 1246.3016357421875|            2.0|
  |  3.0|(784,[151,152,153...|  1753.229248046875|            4.0|
  |  1.0|(784,[152,153,154...|  978.8394165039062|            2.0|
  |  4.0|(784,[134,135,161...|  1623.176513671875|            3.0|
  |  3.0|(784,[123,124,125...|  1533.863525390625|            4.0|
  |  5.0|(784,[216,217,218...|  1469.357177734375|            6.0|
  |  3.0|(784,[143,144,145...|  1736.765869140625|            4.0|
  |  6.0|(784,[72,73,74,99...|   1473.69384765625|            8.0|
  |  1.0|(784,[151,152,153...|    944.88720703125|            2.0|
  |  7.0|(784,[211,212,213...| 1285.9071044921875|            3.0|
  |  2.0|(784,[151,152,153...| 1635.0125732421875|            1.0|
  |  8.0|(784,[159,160,161...| 1436.3162841796875|            6.0|
  |  6.0|(784,[100,101,102...| 1499.7366943359375|            7.0|
  |  9.0|(784,[209,210,211...| 1364.6319580078125|            6.0|
  +-----+--------------------+-------------------+---------------+
  ```

  Anda dapat menafsirkan data, sebagai berikut:
  + Nomor tulisan tangan dengan `label` 5 milik cluster 4 (`closest_cluster`).
  + Angka tulisan tangan dengan `label` 0 milik cluster 5.
  + Nomor tulisan tangan dengan `label` 4 milik cluster 9.
  + Nomor tulisan tangan dengan `label` 1 milik cluster 6.

**Topics**
+ [Gunakan Algoritma Kustom untuk Pelatihan Model dan Hosting di Amazon SageMaker AI dengan Apache Spark](apache-spark-example1-cust-algo.md)
+ [Gunakan SageMakerEstimator dalam Pipa Spark](apache-spark-example1-extend-pipeline.md)

# Gunakan Algoritma Kustom untuk Pelatihan Model dan Hosting di Amazon SageMaker AI dengan Apache Spark
<a name="apache-spark-example1-cust-algo"></a>

Di[SageMaker AI Spark untuk contoh Scala](apache-spark-example1.md), Anda menggunakan `kMeansSageMakerEstimator` karena contoh menggunakan algoritma k-means yang disediakan oleh Amazon SageMaker AI untuk pelatihan model. Anda dapat memilih untuk menggunakan algoritma kustom Anda sendiri untuk pelatihan model sebagai gantinya. Dengan asumsi bahwa Anda telah membuat gambar Docker, Anda dapat membuat sendiri `SageMakerEstimator` dan menentukan jalur Amazon Elastic Container Registry untuk gambar kustom Anda. 

Contoh berikut menunjukkan cara membuat `KMeansSageMakerEstimator` dari`SageMakerEstimator`. Di estimator baru, Anda secara eksplisit menentukan jalur registri Docker ke gambar kode pelatihan dan inferensi Anda.

```
import com.amazonaws.services.sagemaker.sparksdk.IAMRole
import com.amazonaws.services.sagemaker.sparksdk.SageMakerEstimator
import com.amazonaws.services.sagemaker.sparksdk.transformation.serializers.ProtobufRequestRowSerializer
import com.amazonaws.services.sagemaker.sparksdk.transformation.deserializers.KMeansProtobufResponseRowDeserializer

val estimator = new SageMakerEstimator(
  trainingImage =
    "811284229777.dkr.ecr.us-east-1.amazonaws.com/kmeans:1",
  modelImage =
    "811284229777.dkr.ecr.us-east-1.amazonaws.com/kmeans:1",
  requestRowSerializer = new ProtobufRequestRowSerializer(),
  responseRowDeserializer = new KMeansProtobufResponseRowDeserializer(),
  hyperParameters = Map("k" -> "10", "feature_dim" -> "784"),
  sagemakerRole = IAMRole(roleArn),
  trainingInstanceType = "ml.p2.xlarge",
  trainingInstanceCount = 1,
  endpointInstanceType = "ml.c4.xlarge",
  endpointInitialInstanceCount = 1,
  trainingSparkDataFormat = "sagemaker")
```

Dalam kode, parameter dalam `SageMakerEstimator` konstruktor meliputi:
+ `trainingImage`—Mengidentifikasi jalur registri Docker ke gambar pelatihan yang berisi kode kustom Anda.
+ `modelImage`—Mengidentifikasi jalur registri Docker ke gambar yang berisi kode inferensi.
+ `requestRowSerializer``com.amazonaws.services.sagemaker.sparksdk.transformation.RequestRowSerializer`—Menerapkan.

  Parameter ini membuat serial baris dalam input `DataFrame` untuk mengirimnya ke model yang dihosting di SageMaker AI untuk inferensi.
+ `responseRowDeserializer`—Menerapkan 

  `com.amazonaws.services.sagemaker.sparksdk.transformation.ResponseRowDeserializer`.

  Parameter ini mendeserialisasi respons dari model, yang di-host di SageMaker AI, kembali ke file. `DataFrame`
+ `trainingSparkDataFormat`—Menentukan format data yang digunakan Spark saat mengunggah data pelatihan dari a ke S3. `DataFrame` Misalnya, `"sagemaker"` untuk format protobuf, untuk nilai yang dipisahkan koma, dan `"csv"` untuk `"libsvm"` format libSVM. 

Anda dapat mengimplementasikan sendiri `RequestRowSerializer` dan `ResponseRowDeserializer` untuk membuat serial dan deserialisasi baris dari format data yang didukung kode inferensi Anda, seperti.libsvm atau.. csv.

# Gunakan SageMakerEstimator dalam Pipa Spark
<a name="apache-spark-example1-extend-pipeline"></a>

Anda dapat menggunakan `org.apache.spark.ml.Estimator` estimator dan `org.apache.spark.ml.Model` model, dan `SageMakerEstimator` estimator dan `SageMakerModel` model dalam `org.apache.spark.ml.Pipeline` pipeline, seperti yang ditunjukkan pada contoh berikut:

```
import org.apache.spark.ml.Pipeline
import org.apache.spark.ml.feature.PCA
import org.apache.spark.sql.SparkSession
import com.amazonaws.services.sagemaker.sparksdk.IAMRole
import com.amazonaws.services.sagemaker.sparksdk.algorithms
import com.amazonaws.services.sagemaker.sparksdk.algorithms.KMeansSageMakerEstimator

val spark = SparkSession.builder.getOrCreate

// load mnist data as a dataframe from libsvm
val region = "us-east-1"
val trainingData = spark.read.format("libsvm")
  .option("numFeatures", "784")
  .load(s"s3://sagemaker-sample-data-$region/spark/mnist/train/")
val testData = spark.read.format("libsvm")
  .option("numFeatures", "784")
  .load(s"s3://sagemaker-sample-data-$region/spark/mnist/test/")

// substitute your SageMaker IAM role here
val roleArn = "arn:aws:iam::account-id:role/rolename"

val pcaEstimator = new PCA()
  .setInputCol("features")
  .setOutputCol("projectedFeatures")
  .setK(50)

val kMeansSageMakerEstimator = new KMeansSageMakerEstimator(
  sagemakerRole = IAMRole(integTestingRole),
  requestRowSerializer =
    new ProtobufRequestRowSerializer(featuresColumnName = "projectedFeatures"),
  trainingSparkDataFormatOptions = Map("featuresColumnName" -> "projectedFeatures"),
  trainingInstanceType = "ml.p2.xlarge",
  trainingInstanceCount = 1,
  endpointInstanceType = "ml.c4.xlarge",
  endpointInitialInstanceCount = 1)
  .setK(10).setFeatureDim(50)

val pipeline = new Pipeline().setStages(Array(pcaEstimator, kMeansSageMakerEstimator))

// train
val pipelineModel = pipeline.fit(trainingData)

val transformedData = pipelineModel.transform(testData)
transformedData.show()
```

Parameter `trainingSparkDataFormatOptions` mengonfigurasi Spark untuk membuat serial ke protobuf kolom “ProjectedFeatures” untuk pelatihan model. Selain itu, Spark membuat serial untuk membuat protobuf kolom “label” secara default.

Karena kita ingin membuat kesimpulan menggunakan kolom “ProjectedFeatures”, kita meneruskan nama kolom ke dalam kolom. `ProtobufRequestRowSerializer`

Contoh berikut menunjukkan transformasi`DataFrame`:

```
+-----+--------------------+--------------------+-------------------+---------------+
|label|            features|   projectedFeatures|distance_to_cluster|closest_cluster|
+-----+--------------------+--------------------+-------------------+---------------+
|  5.0|(784,[152,153,154...|[880.731433034386...|     1500.470703125|            0.0|
|  0.0|(784,[127,128,129...|[1768.51722024166...|      1142.18359375|            4.0|
|  4.0|(784,[160,161,162...|[704.949236329314...|  1386.246826171875|            9.0|
|  1.0|(784,[158,159,160...|[-42.328192193771...| 1277.0736083984375|            5.0|
|  9.0|(784,[208,209,210...|[374.043902028333...|   1211.00927734375|            3.0|
|  2.0|(784,[155,156,157...|[941.267714528850...|  1496.157958984375|            8.0|
|  1.0|(784,[124,125,126...|[30.2848596410594...| 1327.6766357421875|            5.0|
|  3.0|(784,[151,152,153...|[1270.14374062052...| 1570.7674560546875|            0.0|
|  1.0|(784,[152,153,154...|[-112.10792566485...|     1037.568359375|            5.0|
|  4.0|(784,[134,135,161...|[452.068280676606...| 1165.1236572265625|            3.0|
|  3.0|(784,[123,124,125...|[610.596447285397...|  1325.953369140625|            7.0|
|  5.0|(784,[216,217,218...|[142.959601818422...| 1353.4930419921875|            5.0|
|  3.0|(784,[143,144,145...|[1036.71862533658...| 1460.4315185546875|            7.0|
|  6.0|(784,[72,73,74,99...|[996.740157435754...| 1159.8631591796875|            2.0|
|  1.0|(784,[151,152,153...|[-107.26076167417...|   960.963623046875|            5.0|
|  7.0|(784,[211,212,213...|[619.771820430940...|   1245.13623046875|            6.0|
|  2.0|(784,[151,152,153...|[850.152101817161...|  1304.437744140625|            8.0|
|  8.0|(784,[159,160,161...|[370.041887230547...| 1192.4781494140625|            0.0|
|  6.0|(784,[100,101,102...|[546.674328209335...|    1277.0908203125|            2.0|
|  9.0|(784,[209,210,211...|[-29.259112927426...| 1245.8182373046875|            6.0|
+-----+--------------------+--------------------+-------------------+---------------+
```

# Sumber daya untuk menggunakan SageMaker AI Spark untuk contoh Python PySpark ()
<a name="apache-spark-additional-examples"></a>

Amazon SageMaker AI menyediakan pustaka Apache Spark Python ([SageMaker AI PySpark](https://github.com/aws/sagemaker-spark/tree/master/sagemaker-pyspark-sdk)) yang dapat Anda gunakan untuk mengintegrasikan aplikasi Apache Spark Anda dengan AI. SageMaker Topik ini berisi contoh untuk membantu Anda memulai PySpark. Untuk informasi tentang perpustakaan SageMaker AI Apache Spark, lihat. [Apache Spark dengan Amazon AI SageMaker](apache-spark.md)

**Unduh PySpark**

[Anda dapat mengunduh kode sumber untuk pustaka Python Spark (PySpark) dan Scala dari repositori AI Spark. SageMaker ](https://github.com/aws/sagemaker-spark) GitHub

Untuk petunjuk cara menginstal perpustakaan SageMaker AI Spark, gunakan opsi berikut atau kunjungi [SageMaker AI PySpark](https://github.com/aws/sagemaker-spark/tree/master/sagemaker-pyspark-sdk).
+ Instal menggunakan pip:

  ```
  pip install sagemaker_pyspark
  ```
+ Instal dari sumbernya:

  ```
  git clone git@github.com:aws/sagemaker-spark.git
  cd sagemaker-pyspark-sdk
  python setup.py install
  ```
+ Anda juga dapat membuat notebook baru dalam instance notebook yang menggunakan kernel `Sparkmagic (PySpark)` atau `Sparkmagic (PySpark3)` kernel dan terhubung ke cluster EMR Amazon jarak jauh.
**catatan**  
Cluster EMR Amazon harus dikonfigurasi dengan peran IAM yang memiliki kebijakan terlampir. `AmazonSageMakerFullAccess` *Untuk informasi tentang mengonfigurasi peran untuk kluster EMR, [lihat Mengonfigurasi Peran IAM untuk Izin EMR Amazon ke AWS Layanan di Panduan Manajemen EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-iam-roles.html) Amazon.*

**PySpark contoh**

Untuk contoh tentang penggunaan SageMaker AI PySpark, lihat:
+ [Menggunakan Amazon SageMaker AI dengan Apache Spark](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-spark/index.html) di Baca Dokumen.
+ [SageMaker GitHubRepositori AI Spark](https://github.com/aws/sagemaker-spark).

# Sumber daya untuk menggunakan Chainer dengan Amazon AI SageMaker
<a name="chainer"></a>

Anda dapat menggunakan SageMaker AI untuk melatih dan menerapkan model menggunakan kode Chainer khusus. Estimator dan model SageMaker AI Python SDK Chainer dan wadah Chainer open-source SageMaker AI membuat penulisan skrip Chainer dan menjalankannya di AI lebih mudah. SageMaker Bagian berikut menyediakan bahan referensi yang dapat Anda gunakan untuk mempelajari cara menggunakan Chainer dengan SageMaker AI.

## Apa yang ingin kau lakukan?
<a name="chainer-intent"></a>

Saya ingin melatih model Chainer khusus di SageMaker AI.  
Untuk contoh notebook Jupyter, lihat [contoh notebook Chainer di repositori Amazon SageMaker AI](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker-python-sdk/mxnet_mnist) Examples. GitHub  
Untuk dokumentasi, lihat [Melatih Model dengan Chainer.](https://sagemaker.readthedocs.io/en/stable/using_chainer.html#train-a-model-with-chainer)

Saya memiliki model Chainer yang saya latih dalam SageMaker AI, dan saya ingin menerapkannya ke titik akhir yang dihosting.  
Untuk informasi selengkapnya, lihat [Menerapkan model Chainer.](https://sagemaker.readthedocs.io/en/stable/using_chainer.html#deploy-chainer-models)

Saya memiliki model Chainer yang saya latih di luar SageMaker AI, dan saya ingin menerapkannya ke titik akhir AI SageMaker   
Untuk informasi selengkapnya, lihat [Menerapkan Titik Akhir dari Data Model](https://sagemaker.readthedocs.io/en/stable/using_chainer.html#deploy-endpoints-from-model-data).

Saya ingin melihat dokumentasi API untuk kelas [Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable) Chainer.  
Untuk informasi selengkapnya, lihat [Kelas Chainer](https://sagemaker.readthedocs.io/en/stable/sagemaker.chainer.html).

Saya ingin mencari informasi tentang wadah SageMaker AI Chainer.  
Untuk informasi selengkapnya, lihat [ GitHub repositori SageMaker AI Chainer Container](https://github.com/aws/sagemaker-chainer-container).

 Untuk informasi tentang versi Chainer yang didukung, dan untuk informasi umum tentang menulis skrip pelatihan Chainer dan menggunakan estimator dan model Chainer dengan SageMaker AI, lihat Menggunakan [Chainer](https://sagemaker.readthedocs.io/en/stable/using_chainer.html) dengan Python SDK. SageMaker 

# Sumber daya untuk menggunakan Hugging Face dengan Amazon AI SageMaker
<a name="hugging-face"></a>

Amazon SageMaker AI memungkinkan pelanggan melatih, menyempurnakan, dan menjalankan inferensi menggunakan model Hugging Face untuk Natural Language Processing (NLP) pada AI. SageMaker Anda dapat menggunakan Hugging Face untuk pelatihan dan inferensi. Bagian berikut memberikan informasi tentang model Hugging Face dan menyertakan bahan referensi yang dapat Anda gunakan untuk mempelajari cara menggunakan Hugging SageMaker Face dengan AI.

Fungsi ini tersedia melalui pengembangan Hugging [AWS Face Deep Learning](https://docs.aws.amazon.com/deep-learning-containers/latest/devguide/what-is-dlc.html) Containers. Wadah ini termasuk Hugging Face Transformers, Tokenizers, dan pustaka Datasets, yang memungkinkan Anda menggunakan sumber daya ini untuk pekerjaan pelatihan dan inferensi Anda. Untuk daftar gambar Deep Learning Containers yang tersedia, lihat Gambar [Deep Learning Containers yang Tersedia](https://github.com/aws/deep-learning-containers/blob/master/available_images.md). Gambar Deep Learning Containers ini dipertahankan dan diperbarui secara berkala dengan patch keamanan.

[Untuk menggunakan Hugging Face Deep Learning Containers dengan SageMaker Python SDK untuk pelatihan, lihat Hugging Face AI Estimator. SageMaker ](https://sagemaker.readthedocs.io/en/stable/frameworks/huggingface/index.html) Dengan Hugging Face Estimator, Anda dapat menggunakan model Hugging Face seperti halnya Estimator AI lainnya. SageMaker Namun, menggunakan SageMaker Python SDK adalah opsional. Anda juga dapat mengatur penggunaan Hugging Face Deep Learning Containers dengan dan. AWS CLI AWS SDK untuk Python (Boto3)

Untuk informasi lebih lanjut tentang Hugging Face dan model yang tersedia di dalamnya, lihat dokumentasi [Hugging Face](https://huggingface.co/). 

## Pelatihan
<a name="hugging-face-training"></a>

Untuk menjalankan pelatihan, gunakan salah satu dari ribuan model yang tersedia di Hugging Face dan sesuaikan untuk kasus penggunaan Anda dengan pelatihan tambahan. Dengan SageMaker AI, Anda dapat menggunakan pelatihan standar atau memanfaatkan [SageMaker AI Distributed Data dan pelatihan Model Paralel](https://docs.aws.amazon.com/sagemaker/latest/dg/distributed-training.html). 

Seperti pekerjaan SageMaker pelatihan lainnya menggunakan kode khusus, Anda dapat menangkap metrik Anda sendiri dengan meneruskan definisi metrik ke Python SageMaker SDK. Sebagai contoh, lihat [Mendefinisikan Metrik Pelatihan (SageMaker Python SDK](https://docs.aws.amazon.com/sagemaker/latest/dg/training-metrics.html#define-train-metrics-sdk)). Anda dapat mengakses metrik yang diambil menggunakan [CloudWatch](https://docs.aws.amazon.com/sagemaker/latest/dg/monitoring-cloudwatch.html)dan sebagai Panda `DataFrame` menggunakan metode ini [TrainingJobAnalytics](https://sagemaker.readthedocs.io/en/stable/api/training/analytics.html#sagemaker.analytics.TrainingJobAnalytics). Setelah model Anda dilatih dan disetel dengan baik, Anda dapat menggunakannya seperti model lain untuk menjalankan pekerjaan inferensi.

### Cara menjalankan pelatihan dengan estimator Hugging Face
<a name="hugging-face-training-using"></a>

Anda dapat menerapkan Hugging Face Estimator untuk pekerjaan pelatihan menggunakan SageMaker AI Python SDK. SageMaker Python SDK adalah pustaka open source untuk pelatihan dan penerapan model pembelajaran mesin pada AI. SageMaker Untuk informasi selengkapnya tentang Hugging Face Estimator, lihat dokumentasi [SageMaker AI Python SDK](https://sagemaker.readthedocs.io/en/stable/frameworks/huggingface/index.html).

Dengan SageMaker Python SDK, Anda dapat menjalankan pekerjaan pelatihan menggunakan Hugging Face Estimator di lingkungan berikut: 
+ [Amazon SageMaker Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html): Studio Classic adalah lingkungan pengembangan terintegrasi penuh (IDE) pertama untuk pembelajaran mesin (ML). Studio Classic menyediakan antarmuka visual tunggal berbasis web tempat Anda dapat melakukan semua langkah pengembangan ML yang diperlukan untuk:
  + menyediakan
  + build
  + melatih dan menyetel
  + menyebarkan dan mengelola model

  Untuk informasi tentang penggunaan Notebook Jupyter di Studio Classic, lihat. [Gunakan Notebook Amazon SageMaker Studio Classic](notebooks.md)
+ [SageMakerInstans Notebook](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html): Instans SageMaker notebook Amazon adalah instance komputasi machine learning (ML) yang menjalankan Aplikasi Notebook Jupyter. Aplikasi ini memungkinkan Anda menjalankan Jupyter Notebooks di instance notebook Anda untuk:
  + menyiapkan dan memproses data
  + tulis kode untuk melatih model
  + menyebarkan model ke hosting SageMaker AI
  + menguji atau memvalidasi model Anda tanpa fitur SageMaker Studio seperti Debugger, Model Monitoring, dan IDE berbasis web
+ Secara lokal: Jika Anda memiliki konektivitas AWS dan memiliki izin SageMaker AI yang sesuai, Anda dapat menggunakan SageMaker Python SDK secara lokal. Dengan penggunaan lokal, Anda dapat meluncurkan pelatihan jarak jauh dan pekerjaan inferensi untuk Hugging Face in SageMaker AI on. AWS Ini berfungsi pada mesin lokal Anda, serta AWS layanan lain dengan SDK SageMaker Python yang terhubung dan izin yang sesuai.

## Inferensi
<a name="hugging-face-inference"></a>

Untuk inferensi, Anda dapat menggunakan model Hugging Face terlatih atau salah satu model Hugging Face yang telah dilatih sebelumnya untuk menerapkan pekerjaan inferensi dengan AI. SageMaker Dengan kolaborasi ini, Anda hanya perlu satu baris kode untuk menerapkan model terlatih dan model pra-terlatih dengan SageMaker AI. Anda juga dapat menjalankan pekerjaan inferensi tanpa harus menulis kode inferensi khusus apa pun. Dengan kode inferensi kustom, Anda dapat menyesuaikan logika inferensi dengan menyediakan skrip Python Anda sendiri.

### Cara menerapkan pekerjaan inferensi menggunakan Hugging Face Deep Learning Containers
<a name="hugging-face-inference-using"></a>

Anda memiliki dua opsi untuk menjalankan inferensi dengan SageMaker AI. Anda dapat menjalankan inferensi menggunakan model yang Anda latih, atau menerapkan model Hugging Face yang telah dilatih sebelumnya. 
+ **Jalankan inferensi dengan model terlatih Anda:** Anda memiliki dua opsi untuk menjalankan inferensi dengan model terlatih Anda sendiri:
  + Jalankan inferensi dengan model yang Anda latih menggunakan model Hugging Face yang ada dengan AI Hugging Face Deep SageMaker Learning Containers.
  + Bawa model Hugging Face Anda sendiri yang ada dan gunakan menggunakan AI. SageMaker 

  Saat Anda menjalankan inferensi dengan model yang Anda latih dengan SageMaker AI Hugging Face Estimator, Anda dapat menerapkan model segera setelah pelatihan selesai. Anda juga dapat mengunggah model terlatih ke bucket Amazon S3 dan menelannya saat menjalankan inferensi nanti. 

  Jika Anda membawa model Hugging Face sendiri yang ada, Anda harus mengunggah model terlatih ke ember Amazon S3. Anda kemudian menelan bucket itu saat menjalankan inferensi seperti yang ditunjukkan di [Deploy your Hugging Face](https://github.com/huggingface/notebooks/blob/main/sagemaker/10_deploy_model_from_s3/deploy_transformer_model_from_s3.ipynb) Transformers untuk contoh inferensi.
+ **Jalankan inferensi dengan HuggingFace model yang telah dilatih sebelumnya:** Anda dapat menggunakan salah satu dari ribuan model Hugging Face yang telah dilatih sebelumnya untuk menjalankan pekerjaan inferensi Anda tanpa memerlukan pelatihan tambahan. Untuk menjalankan inferensi, pilih model yang telah dilatih sebelumnya dari daftar model Hugging [Face, seperti yang diuraikan dalam Deploy Trafo Hugging Face](https://huggingface.co/models) [yang telah dilatih sebelumnya](https://github.com/huggingface/notebooks/blob/main/sagemaker/11_deploy_model_from_hf_hub/deploy_transformer_model_from_hf_hub.ipynb) untuk contoh inferensi.

## Apa yang ingin kau lakukan?
<a name="hugging-face-do"></a>

Notebook berikut di repositori notebook Hugging Face menunjukkan cara menggunakan Hugging Face Deep Learning Containers dengan AI dalam berbagai kasus penggunaan. SageMaker 

Saya ingin melatih dan menerapkan model klasifikasi teks menggunakan Hugging Face in SageMaker AI with. PyTorch  
Untuk contoh Notebook Jupyter, lihat Demo [PyTorch Memulai](https://github.com/huggingface/notebooks/blob/main/sagemaker/01_getting_started_pytorch/sagemaker-notebook.ipynb).

Saya ingin melatih dan menerapkan model klasifikasi teks menggunakan Hugging Face in SageMaker AI with. TensorFlow  
Untuk contoh Notebook Jupyter, lihat contoh [TensorFlow Memulai](https://github.com/huggingface/notebooks/blob/main/sagemaker/02_getting_started_tensorflow/sagemaker-notebook.ipynb).

Saya ingin menjalankan pelatihan terdistribusi dengan paralelisme data menggunakan Hugging Face dan AI Distributed. SageMaker   
Untuk contoh Notebook Jupyter, lihat contoh [Pelatihan Terdistribusi](https://github.com/huggingface/notebooks/blob/main/sagemaker/03_distributed_training_data_parallelism/sagemaker-notebook.ipynb).

Saya ingin menjalankan pelatihan terdistribusi dengan paralelisme model menggunakan Hugging Face dan AI Distributed. SageMaker   
Untuk contoh Notebook Jupyter, lihat contoh [Paralelisme Model](https://github.com/huggingface/notebooks/blob/main/sagemaker/04_distributed_training_model_parallelism/sagemaker-notebook.ipynb).

Saya ingin menggunakan instance spot untuk melatih dan menerapkan model menggunakan Hugging Face di AI. SageMaker   
Untuk contoh Notebook Jupyter, lihat [contoh Instans Spot](https://github.com/huggingface/notebooks/blob/main/sagemaker/05_spot_instances/sagemaker-notebook.ipynb).

Saya ingin menangkap metrik khusus dan menggunakan SageMaker AI Checkpointing saat melatih model klasifikasi teks menggunakan Hugging Face di AI. SageMaker   
Untuk contoh Notebook Jupyter, lihat contoh [Pelatihan dengan Metrik Kustom](https://github.com/huggingface/notebooks/blob/main/sagemaker/06_sagemaker_metrics/sagemaker-notebook.ipynb).

Saya ingin melatih model penjawab pertanyaan terdistribusi menggunakan TensorFlow Hugging Face in AI. SageMaker   
Untuk contoh Notebook Jupyter, lihat contoh [ TensorFlow Pelatihan Terdistribusi](https://github.com/huggingface/notebooks/blob/main/sagemaker/07_tensorflow_distributed_training_data_parallelism/sagemaker-notebook.ipynb).

Saya ingin melatih model ringkasan terdistribusi menggunakan Hugging Face in AI. SageMaker   
Untuk contoh Notebook Jupyter, lihat contoh Pelatihan [Ringkasan Terdistribusi](https://github.com/huggingface/notebooks/blob/main/sagemaker/08_distributed_summarization_bart_t5/sagemaker-notebook.ipynb).

Saya ingin melatih model klasifikasi gambar menggunakan Hugging Face SageMaker in AI.  
Untuk contoh Notebook Jupyter, lihat contoh [Pelatihan Transformer Visi](https://github.com/huggingface/notebooks/blob/main/sagemaker/09_image_classification_vision_transformer/sagemaker-notebook.ipynb).

Saya ingin menerapkan model Hugging Face terlatih saya di AI. SageMaker   
Untuk contoh Notebook Jupyter, lihat contoh [Deploy your Hugging Face Transformers](https://github.com/huggingface/notebooks/blob/main/sagemaker/10_deploy_model_from_s3/deploy_transformer_model_from_s3.ipynb) untuk inferensi.

Saya ingin menerapkan model Hugging Face yang telah dilatih sebelumnya di AI. SageMaker   
Untuk contoh Notebook Jupyter, lihat contoh [Deploy Hugging Face Transformers yang telah dilatih sebelumnya untuk contoh inferensi](https://github.com/huggingface/notebooks/blob/main/sagemaker/11_deploy_model_from_hf_hub/deploy_transformer_model_from_hf_hub.ipynb).

# Sumber daya untuk digunakan PyTorch dengan Amazon SageMaker AI
<a name="pytorch"></a>

Anda dapat menggunakan Amazon SageMaker AI untuk melatih dan menerapkan model menggunakan PyTorch kode khusus. PyTorch Estimator dan model SageMaker AI Python SDK dan PyTorch wadah sumber terbuka SageMaker AI membuat penulisan PyTorch skrip dan menjalankannya di AI lebih mudah. SageMaker Bagian berikut menyediakan bahan referensi yang dapat Anda gunakan untuk mempelajari cara menggunakan PyTorch SageMaker AI.

## Apa yang ingin kau lakukan?
<a name="pytorch-intent"></a>

Saya ingin melatih PyTorch model khusus di SageMaker AI.  
Untuk contoh notebook Jupyter, lihat [PyTorch contoh notebook](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker-python-sdk/pytorch_mnist) di repositori Amazon SageMaker AI Examples GitHub.  
Untuk dokumentasi, lihat [Melatih Model dengan PyTorch](https://sagemaker.readthedocs.io/en/stable/using_pytorch.html#train-a-model-with-pytorch).

Saya memiliki PyTorch model yang saya latih dalam SageMaker AI, dan saya ingin menerapkannya ke titik akhir yang dihosting.  
Untuk informasi selengkapnya, lihat [Menerapkan PyTorch model](https://sagemaker.readthedocs.io/en/stable/using_pytorch.html#deploy-pytorch-models).

Saya memiliki PyTorch model yang saya latih di luar SageMaker AI, dan saya ingin menerapkannya ke titik akhir SageMaker AI  
Untuk informasi selengkapnya, lihat [Menerapkan PyTorch model Anda sendiri](https://sagemaker.readthedocs.io/en/stable/frameworks/pytorch/using_pytorch.html#bring-your-own-model).

Saya ingin melihat dokumentasi API untuk kelas [Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable) PyTorch.  
Untuk informasi selengkapnya, lihat [PyTorch Kelas](https://sagemaker.readthedocs.io/en/stable/sagemaker.pytorch.html).

Saya ingin menemukan repositori PyTorch kontainer SageMaker AI.  
Untuk informasi selengkapnya, lihat [ GitHub repositori SageMaker AI PyTorch Container](https://github.com/aws/deep-learning-containers/tree/master/pytorch).

Saya ingin mencari informasi tentang PyTorch versi yang didukung oleh AWS Deep Learning Containers.  
Untuk informasi selengkapnya, lihat [Gambar Wadah Pembelajaran Mendalam yang Tersedia](https://github.com/aws/deep-learning-containers/blob/master/available_images.md).

 Untuk informasi umum tentang menulis skrip PyTorch pelatihan dan menggunakan PyTorch estimator dan model dengan SageMaker AI, lihat [Menggunakan PyTorch dengan Python SageMaker ](https://sagemaker.readthedocs.io/en/stable/using_pytorch.html) SDK.

# Sumber daya untuk menggunakan R dengan Amazon SageMaker AI
<a name="r-guide"></a>

Dokumen ini mencantumkan sumber daya yang dapat membantu Anda mempelajari cara menggunakan fitur Amazon SageMaker AI dengan lingkungan perangkat lunak R. Bagian berikut memperkenalkan kernel R bawaan SageMaker AI, menjelaskan cara memulai R pada SageMaker AI, dan memberikan beberapa contoh notebook.

Contoh disusun dalam tiga tingkatan: pemula, menengah, dan lanjutan. Mereka mulai dengan [Memulai dengan R pada SageMaker AI](https://sagemaker-examples.readthedocs.io/en/latest/r_examples/r_sagemaker_hello_world/r_sagemaker_hello_world.html), melanjutkan dengan pembelajaran end-to-end mesin dengan R pada SageMaker AI, dan kemudian menyelesaikan dengan topik yang lebih maju seperti SageMaker Pemrosesan dengan skrip R, dan algoritma bring-your-own R ke SageMaker AI.

Untuk informasi tentang cara membawa gambar R kustom Anda sendiri ke Studio, lihat[Gambar Kustom di Amazon SageMaker Studio Classic](studio-byoi.md). Untuk artikel blog serupa, lihat [Membawa lingkungan R Anda sendiri ke Amazon SageMaker Studio](https://aws.amazon.com/blogs/machine-learning/bringing-your-own-r-environment-to-amazon-sagemaker-studio/).

**Topics**
+ [RStudio dukungan dalam SageMaker AI](#rstudio-for-r)
+ [R kernel dalam SageMaker AI](#r-sagemaker-kernel-ni)
+ [Notebook contoh](#r-sagemaker-example-notebooks)
+ [Memulai dengan R di SageMaker AI](r-sagemaker-get-started.md)

## RStudio dukungan dalam SageMaker AI
<a name="rstudio-for-r"></a>

Amazon SageMaker AI mendukung RStudio sebagai lingkungan pengembangan terintegrasi (IDE) yang dikelola sepenuhnya yang terintegrasi dengan domain Amazon SageMaker AI. Dengan RStudio integrasi, Anda dapat meluncurkan RStudio lingkungan di domain untuk menjalankan RStudio alur kerja Anda pada sumber daya SageMaker AI. Untuk informasi selengkapnya, lihat [RStudio di Amazon SageMaker AI](rstudio.md).

## R kernel dalam SageMaker AI
<a name="r-sagemaker-kernel-ni"></a>

SageMaker instance notebook mendukung R menggunakan kernel R yang sudah diinstal sebelumnya. Selain itu, kernel R memiliki perpustakaan retikulat, antarmuka R ke Python, sehingga Anda dapat menggunakan fitur AI SageMaker Python SDK dari dalam skrip R. 
+ [reticulatelibrary:](https://rstudio.github.io/reticulate/) [menyediakan antarmuka R ke Amazon Python SDK. SageMaker ](https://sagemaker.readthedocs.io/en/stable) Paket retikulat menerjemahkan antara objek R dan Python.

## Notebook contoh
<a name="r-sagemaker-example-notebooks"></a>

**Prasyarat**
+ [Memulai R pada SageMaker AI](https://sagemaker-examples.readthedocs.io/en/latest/r_examples/r_sagemaker_hello_world/r_sagemaker_hello_world.html) - Contoh buku catatan ini menjelaskan bagaimana Anda dapat mengembangkan skrip R menggunakan kernel R Amazon SageMaker AI. Di buku catatan ini Anda mengatur lingkungan dan izin SageMaker AI Anda, mengunduh [dataset abalon](https://archive.ics.uci.edu/ml/datasets/abalone) dari UCI [Machine Learning](https://archive.ics.uci.edu/datasets) Repository, lakukan beberapa pemrosesan dasar dan visualisasi pada data, lalu simpan data sebagai format.csv ke S3.

**Tingkat Pemula**
+ [SageMaker AI Batch Transform menggunakan R Kernel](https://sagemaker-examples.readthedocs.io/en/latest/r_examples/r_batch_transform/r_xgboost_batch_transform.html) — Notebook contoh ini menjelaskan cara melakukan pekerjaan transformasi batch menggunakan API Transformer SageMaker AI dan [XGBoostalgoritme](https://docs.aws.amazon.com/sagemaker/latest/dg/xgboost.html). Notebook ini juga menggunakan dataset Abalone.

**Tingkat Menengah**
+ [Optimasi Hyperparameter untuk XGBoost dalam R](https://sagemaker-examples.readthedocs.io/en/latest/r_examples/r_xgboost_hpo_batch_transform/r_xgboost_hpo_batch_transform.html) — Notebook contoh ini memperluas notebook pemula sebelumnya yang menggunakan dataset abalon dan. XGBoost Ini menjelaskan bagaimana melakukan penyetelan model dengan optimasi [hyperparameter](https://sagemaker.readthedocs.io/en/stable/tuner.html). Anda juga akan belajar cara menggunakan transformasi batch untuk prediksi batch, serta cara membuat titik akhir model untuk membuat prediksi waktu nyata.
+ [Amazon SageMaker Processing dengan R](https://sagemaker-examples.readthedocs.io/en/latest/r_examples/r_in_sagemaker_processing/r_in_sagemaker_processing.html) — [SageMaker Processing](https://aws.amazon.com/blogs/aws/amazon-sagemaker-processing-fully-managed-data-processing-and-model-evaluation/) memungkinkan Anda melakukan pra-proses, pasca-proses, dan menjalankan beban kerja evaluasi model. Contoh ini menunjukkan cara membuat skrip R untuk mengatur pekerjaan Processing.

**Tingkat Lanjut**
+ [Latih dan Terapkan Algoritma R Anda Sendiri di SageMaker AI](https://sagemaker-examples.readthedocs.io/en/latest/r_examples/r_byo_r_algo_hpo/tune_r_bring_your_own.html) - Apakah Anda sudah memiliki algoritma R, dan Anda ingin membawanya ke SageMaker AI untuk menyetel, melatih, atau menerapkannya? Contoh ini memandu Anda melalui cara menyesuaikan kontainer SageMaker AI dengan paket R khusus, hingga menggunakan titik akhir yang dihosting untuk inferensi pada model asal-R Anda.

# Memulai dengan R di SageMaker AI
<a name="r-sagemaker-get-started"></a>

Topik ini menjelaskan cara memulai menggunakan lingkungan perangkat lunak R di SageMaker AI. Untuk informasi selengkapnya tentang penggunaan R dengan SageMaker AI, lihat[Sumber daya untuk menggunakan R dengan Amazon SageMaker AI](r-guide.md).

**Untuk memulai dengan R di konsol SageMaker AI**

1. [Buat instance notebook](https://docs.aws.amazon.com/sagemaker/latest/dg/howitworks-create-ws.html) menggunakan tipe instans t2.medium dan ukuran penyimpanan default. Anda dapat memilih instans yang lebih cepat dan lebih banyak penyimpanan jika Anda berencana untuk terus menggunakan instance untuk contoh yang lebih maju, atau Anda dapat membuat instance yang lebih besar nanti.

1. Tunggu hingga status notebook **dalam layanan**, lalu pilih **Open Jupyter**.  
![\[Lokasi InServicestatus dan tautan Open Jupyter di konsol.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/An-R-User-Guide-to-SageMaker/An-R-User-Guide-to-SageMaker-1.png)

1. Buat notebook baru dengan kernel R dari daftar lingkungan yang tersedia.  
![\[Lokasi kernel R dalam daftar lingkungan yang tersedia.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/An-R-User-Guide-to-SageMaker/An-R-User-Guide-to-SageMaker-2.png)

1. Ketika notebook baru dibuat, Anda akan melihat logo R di sudut kanan atas lingkungan notebook, dan juga R sebagai kernel di bawah logo itu. Ini menunjukkan bahwa SageMaker AI telah berhasil meluncurkan kernel R untuk notebook ini.  
![\[Lokasi logo R dan kernel R dari lingkungan notebook.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/An-R-User-Guide-to-SageMaker/An-R-User-Guide-to-SageMaker-3.png)

Atau, ketika Anda berada di notebook Jupyter, Anda dapat menggunakan menu **Kernel**, dan kemudian pilih **R dari submenu** **Change kernel**.

![\[Lokasi tempat untuk mengubah kernel notebook Anda ke R.\]](http://docs.aws.amazon.com/id_id/sagemaker/latest/dg/images/An-R-User-Guide-to-SageMaker/An-R-User-Guide-to-SageMaker-4.png)


# Sumber daya untuk menggunakan Scikit-Learn dengan Amazon AI SageMaker
<a name="sklearn"></a>

Anda dapat menggunakan Amazon SageMaker AI untuk melatih dan menerapkan model menggunakan kode Scikit-learn kustom. Estimator dan model SageMaker AI Python SDK Scikit-learn dan wadah SageMaker AI open-source Scikit-learn membuat penulisan skrip Scikit-learn dan menjalankannya di AI lebih mudah. SageMaker Bagian berikut menyediakan materi referensi yang dapat Anda gunakan untuk mempelajari cara menggunakan Scikit-learn dengan AI. SageMaker 

**Persyaratan**

Scikit-learn 1.4 memiliki dependensi berikut.


| Dependensi | Versi minimum | 
| --- | --- | 
| Python | 3.10 | 
| NumPy | 2.1.0 | 
| SciPy | 1.15.3 | 
| joblib | 1.5.2 | 
| threadpoolctl | 3.6.0 | 

Wadah SageMaker AI Scikit-learn mendukung versi Scikit-learn berikut.


| Versi Scikit-learn yang didukung | Versi Python minimum | 
| --- | --- | 
| 1.4-2 | 3.10 | 
| 1.2-1 | 3.8 | 
| 1.0-1 | 3.7 | 
| 0.23-1 | 3.6 | 
| 0.20.0 | 2.7 atau 3.4 | 

[Untuk informasi umum tentang menulis skrip pelatihan Scikit-learn dan menggunakan estimator dan model Scikit-learn dengan AI, lihat Menggunakan Scikit-learn dengan Python SageMaker SDK. SageMaker ](https://sagemaker.readthedocs.io/en/stable/using_sklearn.html)

## Apa yang ingin kau lakukan?
<a name="sklearn-intent"></a>

**catatan**  
Matplotlib v2.2.3 atau yang lebih baru diperlukan untuk menjalankan notebook contoh AI Scikit-learn. SageMaker 

Saya ingin menggunakan Scikit-learn untuk pemrosesan data, rekayasa fitur, atau evaluasi model di AI. SageMaker   
Untuk contoh notebook Jupyter, lihat [https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker\$1processing/scikit](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker_processing/scikit_learn_data_processing_and_model_evaluation)\$1learn\$1data\$1processing\$1and\$1model\$1evaluation.  
Untuk posting blog tentang pelatihan dan penerapan model Scikit-learn, lihat [Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-adds-scikit-learn-support/) menambahkan dukungan Scikit-Learn.  
Untuk dokumentasi, lihat [ReadTheDocs](https://sagemaker.readthedocs.io/en/stable/amazon_sagemaker_processing.html#data-pre-processing-and-model-evaluation-with-scikit-learn).

Saya ingin melatih model Scikit-learn khusus di AI. SageMaker   
Untuk contoh buku catatan Jupyter, lihat [https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker-python-sdk/scikit](https://github.com/awslabs/amazon-sagemaker-examples/tree/master/sagemaker-python-sdk/scikit_learn_iris)\$1learn\$1iris.  
Untuk dokumentasi, lihat [Melatih Model dengan Scikit-learn](https://sagemaker.readthedocs.io/en/stable/using_sklearn.html#train-a-model-with-sklearn).

Saya memiliki model Scikit-learn yang saya latih dalam SageMaker AI, dan saya ingin menerapkannya ke titik akhir yang dihosting.  
Untuk informasi selengkapnya, lihat [Menerapkan model Scikit-learn](https://sagemaker.readthedocs.io/en/stable/using_sklearn.html#deploy-sklearn-models).

Saya memiliki model Scikit-learn yang saya latih di luar SageMaker AI, dan saya ingin menerapkannya ke titik akhir AI SageMaker   
Untuk informasi selengkapnya, lihat [Menerapkan Titik Akhir dari Data Model](https://sagemaker.readthedocs.io/en/stable/using_sklearn.html#deploy-endpoints-from-model-data).

Saya ingin melihat dokumentasi API untuk kelas [Amazon SageMaker Python SDK Scikit-learn](https://sagemaker.readthedocs.io/en/stable).  
Untuk informasi selengkapnya, lihat [Scikit-learn Classes](https://sagemaker.readthedocs.io/en/stable/sagemaker.sklearn.html).

Saya ingin melihat informasi tentang wadah SageMaker AI Scikit-learn.  
Untuk informasi selengkapnya, lihat [SageMaker Scikit-learn](https://github.com/aws/sagemaker-scikit-learn-container) Container repository. GitHub 

# Sumber daya untuk menggunakan SparkMl Serving dengan Amazon AI SageMaker
<a name="sparkml-serving"></a>

Model dan [ SageMaker prediktor Amazon Python SDK](https://sagemaker.readthedocs.io/en/stable) SparkMl Serving dan kontainer SparkMl Serving sumber terbuka Amazon SageMaker AI mendukung penerapan pipeline Apache Spark ML yang diserialkan dengan AI untuk mendapatkan kesimpulan. MLeap SageMaker Gunakan sumber daya berikut untuk mempelajari cara menggunakan SparkMl Serving with AI. SageMaker 

Untuk informasi tentang penggunaan kontainer SparkMl Serving untuk menyebarkan model SageMaker ke AI, [SageMaker lihat](https://github.com/aws/sagemaker-sparkml-serving-container) repositori Spark ML Container. GitHub Untuk informasi tentang model dan prediktor Penyajian [Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable) SparkMl, lihat dokumentasi SparkMl Serving Model dan Predictor [API](https://sagemaker.readthedocs.io/en/stable/sagemaker.sparkml.html).

# Sumber daya untuk digunakan TensorFlow dengan Amazon SageMaker AI
<a name="tf"></a>

Anda dapat menggunakan Amazon SageMaker AI untuk melatih dan menerapkan model menggunakan TensorFlow kode khusus. TensorFlow Estimator dan model SageMaker AI Python SDK dan wadah sumber terbuka SageMaker TensorFlow AI dapat membantu. Gunakan daftar sumber daya berikut untuk menemukan informasi lebih lanjut, berdasarkan versi mana yang TensorFlow Anda gunakan dan apa yang ingin Anda lakukan.

## TensorFlow Versi 1.11 dan yang lebih baru
<a name="tf-script-mode"></a>

Untuk TensorFlow versi 1.11 dan yang lebih baru, [Amazon SageMaker Python](https://sagemaker.readthedocs.io/en/stable) SDK mendukung skrip pelatihan mode skrip.

### Apa yang ingin kau lakukan?
<a name="tf-intent"></a>

Saya ingin melatih TensorFlow model khusus di SageMaker AI.  
Untuk contoh notebook Jupyter, lihat [pelatihan dan TensorFlow penyajian mode skrip](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/tensorflow_script_mode_training_and_serving/tensorflow_script_mode_training_and_serving.html).  
Untuk dokumentasi, lihat [Melatih Model dengan TensorFlow](https://sagemaker.readthedocs.io/en/stable/using_tf.html#train-a-model-with-tensorflow).

Saya memiliki TensorFlow model yang saya latih dalam SageMaker AI, dan saya ingin menerapkannya ke titik akhir yang dihosting.  
Untuk informasi selengkapnya, lihat [Menerapkan model TensorFlow Penyajian](https://sagemaker.readthedocs.io/en/stable/using_tf.html#deploy-tensorflow-serving-models).

Saya memiliki TensorFlow model yang saya latih di luar SageMaker AI, dan saya ingin menerapkannya ke titik akhir SageMaker AI.  
Untuk informasi selengkapnya, lihat [Menerapkan langsung dari artefak model](https://sagemaker.readthedocs.io/en/stable/using_tf.html#deploying-directly-from-model-artifacts).

Saya ingin melihat dokumentasi API untuk kelas [Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable) TensorFlow.  
Untuk informasi lebih lanjut, lihat [TensorFlow Estimator](https://sagemaker.readthedocs.io/en/stable/sagemaker.tensorflow.html).

Saya ingin menemukan repositori TensorFlow kontainer SageMaker AI.  
Untuk informasi selengkapnya, lihat [ GitHub Repositori SageMaker TensorFlow kontainer](https://github.com/aws/sagemaker-tensorflow-container).

Saya ingin mencari informasi tentang TensorFlow versi yang didukung oleh AWS Deep Learning Containers.  
Untuk informasi selengkapnya, lihat [Gambar Wadah Pembelajaran Mendalam yang Tersedia](https://github.com/aws/deep-learning-containers/blob/master/available_images.md).

 Untuk informasi umum tentang menulis TensorFlow skrip pelatihan mode skrip dan menggunakan estimator dan model mode TensorFlow skrip dengan SageMaker AI, lihat [Menggunakan TensorFlow dengan Python SageMaker ](https://sagemaker.readthedocs.io/en/stable/using_tf.html) SDK.

## TensorFlow Mode Legacy untuk Versi 1.11 dan Sebelumnya
<a name="tf-legacy-mode"></a>

[Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable) menyediakan mode lama yang mendukung TensorFlow versi 1.11 dan sebelumnya. Gunakan skrip TensorFlow pelatihan mode lama untuk menjalankan TensorFlow pekerjaan di SageMaker AI jika:
+ Anda memiliki skrip mode lama yang tidak ingin Anda konversi ke mode skrip.
+ Anda ingin menggunakan TensorFlow versi lebih awal dari 1.11.

[Untuk informasi tentang menulis TensorFlow skrip mode lama yang akan digunakan dengan AI SageMaker Python SDK, lihat Estimator dan Model. TensorFlow SageMaker ](https://github.com/aws/sagemaker-python-sdk/tree/v1.12.0/src/sagemaker/tensorflow#tensorflow-sagemaker-estimators-and-models)

# Sumber daya untuk menggunakan Triton Inference Server dengan Amazon AI SageMaker
<a name="triton"></a>

SageMaker AI memungkinkan pelanggan untuk menerapkan model menggunakan kode khusus dengan NVIDIA Triton Inference Server. Gunakan sumber daya berikut untuk mempelajari cara menggunakan Triton Inference Server dengan AI. SageMaker 

 Fungsi ini tersedia melalui pengembangan [Triton Inference](https://docs.aws.amazon.com/deep-learning-containers/latest/devguide/what-is-dlc.html) Server Containers. Wadah ini termasuk NVIDIA Triton Inference Server, dukungan untuk kerangka kerja MS umum, dan variabel lingkungan berguna yang memungkinkan Anda mengoptimalkan kinerja pada AI. SageMaker Untuk daftar semua gambar Deep Learning Containers yang tersedia, lihat Gambar [Deep Learning Containers yang Tersedia](https://github.com/aws/deep-learning-containers/blob/master/available_images.md). Gambar Deep Learning Containers dipertahankan dan diperbarui secara berkala dengan patch keamanan. 

Anda dapat menggunakan Triton Inference Server Container dengan SageMaker Python SDK seperti halnya wadah lain dalam model AI Anda. SageMaker Namun, menggunakan SageMaker Python SDK adalah opsional. Anda dapat menggunakan Triton Inference Server Containers dengan dan. AWS CLI AWS SDK untuk Python (Boto3)

[Untuk informasi lebih lanjut tentang NVIDIA Triton Inference Server lihat dokumentasi Triton.](https://docs.nvidia.com/deeplearning/triton-inference-server/#)

## Inferensi
<a name="triton-inference"></a>

**catatan**  
Backend Triton Python menggunakan memori bersama (SHMEM) untuk menghubungkan kode Anda ke Triton. SageMaker AI Inference menyediakan hingga setengah dari memori instans sebagai SHMEM sehingga Anda dapat menggunakan instance dengan lebih banyak memori untuk ukuran SHMEM yang lebih besar.

Untuk inferensi, Anda dapat menggunakan model MLmu yang terlatih dengan Triton Inference Server untuk menerapkan pekerjaan inferensi dengan AI. SageMaker 

Beberapa fitur utama dari Triton Inference Server Container adalah:
+ **Support untuk beberapa kerangka kerja**: Triton dapat digunakan untuk menyebarkan model dari semua kerangka kerja MS utama. Triton mendukung TensorFlow GraphDef dan SavedModel, ONNX,, PyTorch TorchScript TensorRT, dan format model Python/C\$1\$1 kustom.
+ **Pipa model**: Ansambel model Triton mewakili pipa dari satu model dengan logika pre/post pemrosesan dan koneksi tensor input dan output di antara keduanya. Permintaan inferensi tunggal ke ansambel memicu eksekusi seluruh pipeline.
+ **Eksekusi model bersamaan**: Beberapa instance dari model yang sama dapat berjalan secara bersamaan pada GPU yang sama atau pada beberapa. GPUs
+ **Batching dinamis**: Untuk model yang mendukung batching, Triton memiliki beberapa algoritma penjadwalan dan batching bawaan yang menggabungkan permintaan inferensi individu bersama-sama untuk meningkatkan throughput inferensi. Keputusan penjadwalan dan batching ini transparan bagi klien yang meminta inferensi.
+ **Dukungan CPU dan GPU yang beragam**: Model dapat dijalankan pada CPUs atau GPUs untuk fleksibilitas maksimum dan untuk mendukung persyaratan komputasi heterogen.

## Apa yang ingin kau lakukan?
<a name="triton-do"></a>

Saya ingin menerapkan PyTorch model terlatih saya di SageMaker AI.  
Untuk contoh Notebook Jupyter, lihat contoh [Menerapkan model PyTorch Resnet50 Anda dengan](https://github.com/aws/amazon-sagemaker-examples/blob/master/sagemaker-triton/resnet50/triton_resnet50.ipynb) Triton Inference Server contoh.

Saya ingin menerapkan model Hugging Face terlatih saya di AI. SageMaker   
Untuk contoh Notebook Jupyter, lihat contoh [Menerapkan model PyTorch BERT Anda dengan Triton](https://github.com/aws/amazon-sagemaker-examples/blob/master/sagemaker-triton/nlp_bert/triton_nlp_bert.ipynb) Inference Server contoh.