

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Hasilkan tanggapan di konsol menggunakan taman bermain
<a name="playgrounds"></a>

Taman bermain Amazon Bedrock adalah alat Konsol Manajemen AWS yang menyediakan antarmuka visual untuk bereksperimen dengan menjalankan inferensi pada model yang berbeda dan menggunakan konfigurasi yang berbeda. Anda dapat menggunakan taman bermain untuk menguji berbagai model dan nilai sebelum Anda mengintegrasikannya ke dalam aplikasi Anda.

Menjalankan prompt di taman bermain sama dengan membuat [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html),, [Converse [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html), atau [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)permintaan di API.

Amazon Bedrock menawarkan taman bermain berikut untuk Anda coba:
+ **Obrolan/teks** — Kirim permintaan teks dan hasilkan tanggapan, atau berinteraksi dengan ucapan. Anda dapat memilih salah satu mode berikut:
  + **Obrolan** — Kirim prompt teks atau berinteraksi dengan pidato. Untuk permintaan teks, Anda juga dapat menyertakan gambar atau dokumen untuk melengkapi prompt. Permintaan berikutnya yang Anda kirimkan akan menyertakan petunjuk Anda sebelumnya sebagai konteks, sehingga urutan permintaan dan tanggapan menyerupai percakapan.
  + **Prompt tunggal** — Kirim satu prompt teks dan hasilkan respons terhadapnya.
**catatan**  
Speech-to-speech model seperti Amazon Nova Sonic hanya tersedia dalam mode obrolan. Mode Bandingkan tidak didukung untuk speech-to-speech model.
+ **Gambar** - Kirim prompt teks untuk menghasilkan gambar. Anda juga dapat mengirimkan prompt gambar dan menentukan apakah akan mengeditnya atau untuk menghasilkan variasi dari itu.
+ **Multi-modal (pratinjau)** - Kirim permintaan teks dan hasilkan konten multi-modal. Ini juga mendukung obrolan dan mode prompt tunggal.

Prosedur berikut menjelaskan cara mengirimkan prompt di taman bermain, opsi yang dapat Anda sesuaikan, dan tindakan yang dapat Anda lakukan setelah model menghasilkan respons.

**Untuk menggunakan taman bermain**

1. Jika Anda belum melakukannya, minta akses ke model yang ingin Anda gunakan. Untuk informasi selengkapnya, lihat [Minta akses ke model](model-access.md).

1. Masuk ke Konsol Manajemen AWS dengan identitas IAM yang memiliki izin untuk menggunakan konsol Amazon Bedrock. Kemudian, buka konsol Amazon Bedrock di [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Dari panel navigasi, di bawah Uji, pilih **Playground**.

1. **Jika Anda berada di taman bermain **Obrolan/teks**, pilih Mode.**

1. Pilih **Pilih model** dan pilih penyedia, model, dan throughput yang akan digunakan. Untuk informasi lebih lanjut tentang peningkatan throughput, lihat [Tingkatkan throughput dengan inferensi lintas wilayah](cross-region-inference.md) dan[Tingkatkan kapasitas pemanggilan model dengan Provisioned Throughput di Amazon Bedrock](prov-throughput.md).

1. Kirimkan informasi berikut untuk menghasilkan tanggapan:
   + Prompt — Satu atau lebih kalimat teks yang mengatur skenario, pertanyaan, atau tugas untuk model. Untuk informasi tentang membuat prompt, lihat[Konsep rekayasa yang cepat](prompt-engineering-guidelines.md).

     Beberapa model (lihat [sekilas model](model-cards.md)) memungkinkan Anda menyertakan file dengan cara berikut:
     + Pilih ikon lampiran dan pilih file yang akan diunggah.
     + Pilih ikon lampiran dan pilih objek Amazon S3 untuk diunggah.
     + Seret file ke prompt.

     Sertakan file untuk melengkapi prompt Anda. Anda dapat merujuk ke file dalam teks prompt. Misalnya, Anda bisa menulis **Summarize this document for me** atau**Tell me what's in this image**. Anda dapat menyertakan jenis file berikut:
     + **Dokumen** — Tambahkan dokumen untuk melengkapi prompt. Untuk daftar jenis file yang didukung, lihat `format` bidang di [DocumentBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_DocumentBlock.html).
**Awas**  
Nama dokumen rentan terhadap suntikan cepat, karena model mungkin secara tidak sengaja menafsirkannya sebagai instruksi. Oleh karena itu, kami menyarankan Anda menentukan nama netral.
     + **Gambar** - Tambahkan gambar untuk melengkapi prompt, jika model mendukung gambar multimodal dan input teks. Untuk daftar jenis file yang didukung, lihat `format` bidang di [ImageBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ImageBlock.html).
     + **Video** - Tambahkan video untuk melengkapi prompt, jika model mendukung input video dan teks multimodal. Untuk daftar jenis file yang didukung, lihat `format` bidang di [VideoBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_VideoBlock.html).
**catatan**  
Pembatasan konten bervariasi menurut operasi dan model API yang mendasarinya. Untuk informasi selengkapnya, lihat [pembatasan API](inference-api-restrictions.md).
   + Konfigurasi — Pengaturan yang Anda sesuaikan untuk memodifikasi respons model. Konfigurasi meliputi yang berikut:
     + Parameter inferensi — Nilai yang mempengaruhi atau membatasi bagaimana model menghasilkan respons. Untuk informasi selengkapnya, lihat [Mempengaruhi generasi respons dengan parameter inferensi](inference-parameters.md). Untuk melihat parameter inferensi untuk model tertentu, lihat. [Parameter permintaan inferensi dan bidang respons untuk model pondasi](model-parameters.md)
     + Prompt sistem — Prompt yang memberikan instruksi atau konteks kepada model tentang tugas yang harus dilakukan atau persona yang harus diadopsi. Untuk informasi selengkapnya dan daftar model yang mendukung permintaan sistem, lihat[Melakukan percakapan dengan operasi Converse API](conversation-inference.md).
     + Pagar pembatas - Menyaring konten berbahaya atau tidak diinginkan dalam permintaan dan respons model. Untuk informasi selengkapnya, lihat [Mendeteksi dan memfilter konten berbahaya dengan menggunakan Amazon Bedrock Guardrails](guardrails.md).

1. (Opsional) Jika model mendukung streaming, perilaku default adalah mengalirkan respons. Anda dapat mematikan streaming dengan memilih ikon opsi (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/images/icons/vertical-ellipsis.png)) dan memodifikasi opsi **preferensi Streaming**.

1. (Opsional) Beberapa model pembuatan teks mendukung evaluasi komparatif, Anda dapat membandingkan tanggapan dari model yang berbeda dengan melakukan hal berikut:

   1. Aktifkan **mode Bandingkan**.

   1. Pilih **Pilih model** dan pilih penyedia, model, dan throughput yang akan digunakan.

   1. Pilih ikon konfigurasi (![\[Three horizontal sliders with adjustable circular controls for settings or parameters.\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/images/icons/configurations.png)) untuk memodifikasi konfigurasi yang akan digunakan.

   1. Untuk menambahkan lebih banyak model untuk dibandingkan, pilih ikon\$1di sebelah kanan, pilih model, dan ubah konfigurasi seperlunya.

1. (Opsional) Jika model mendukung caching cepat, Anda dapat membuka panel **Konfigurasi** dan mengaktifkan caching **Prompt untuk mengaktifkan caching** input dan respons model Anda untuk mengurangi biaya dan latensi. Untuk informasi selengkapnya, lihat [Caching cepat untuk inferensi model yang lebih cepat](prompt-caching.md).

1. Untuk menjalankan prompt, pilih **Jalankan**. Amazon Bedrock tidak menyimpan teks, gambar, atau dokumen apa pun yang Anda berikan. Data hanya digunakan untuk menghasilkan respons. 
**catatan**  
Jika respons melanggar kebijakan moderasi konten, Amazon Bedrock tidak menampilkannya. Jika Anda mengaktifkan streaming, Amazon Bedrock menghapus seluruh respons jika menghasilkan konten yang melanggar kebijakan. Untuk detail selengkapnya, navigasikan ke konsol Amazon Bedrock, pilih **Penyedia**, dan baca teks di bawah bagian **Batasan konten**.

1. Model mengembalikan respons. Jika Anda menggunakan mode obrolan taman bermain, Anda dapat mengirimkan prompt untuk membalas respons dan menghasilkan respons lain.

1. Setelah menghasilkan respons, Anda memiliki opsi berikut:
   + Untuk mengekspor respons sebagai file JSON, pilih ikon opsi (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/images/icons/vertical-ellipsis.png)) dan pilih **Ekspor sebagai JSON**.
   + Untuk melihat permintaan API yang Anda buat, pilih ikon opsi (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/images/icons/vertical-ellipsis.png)) dan pilih **Lihat permintaan API**.
   + Dalam mode obrolan taman bermain, Anda dapat melihat metrik di bagian **Metrik model**. Metrik model berikut tersedia:
     + **Latensi** — Waktu yang dibutuhkan antara saat permintaan diterima oleh Amazon Bedrock dan saat respons dikembalikan (untuk respons non-streaming) atau saat aliran respons selesai (untuk respons streaming).
     + **Jumlah token input** — Jumlah token yang dimasukkan ke dalam model sebagai input selama inferensi.
     + **Jumlah token keluaran** — Jumlah token yang dihasilkan sebagai respons terhadap prompt. Lebih lama, lebih banyak percakapan, tanggapan membutuhkan lebih banyak token.
     + **Biaya** — Biaya pemrosesan input dan menghasilkan token keluaran.

     Untuk menetapkan kriteria metrik yang Anda inginkan agar responsnya cocok, pilih **Tentukan kriteria metrik** dan tentukan kondisi agar model cocok. Setelah Anda menerapkan kriteria, bagian **Metrik model** menunjukkan berapa banyak dan kriteria mana yang dipenuhi oleh respons.

     Jika kriteria tidak terpenuhi, Anda dapat memilih model yang berbeda, menulis ulang prompt, atau memodifikasi konfigurasi dan menjalankan kembali prompt.