

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Kirim petunjuk dan hasilkan tanggapan dengan inferensi model
<a name="inference"></a>

Inferensi mengacu pada proses menghasilkan output dari input yang diberikan ke model.

Amazon Bedrock menawarkan serangkaian model pondasi yang dapat Anda gunakan untuk menghasilkan output dari modalitas berikut. Untuk melihat dukungan modalitas berdasarkan model pondasi, lihat. [Model pondasi yang didukung di Amazon Bedrock](models-supported.md)


****  

| Modalitas keluaran | Deskripsi | Contoh kasus penggunaan | 
| --- | --- | --- | 
| Teks | Berikan masukan teks dan hasilkan berbagai jenis teks | Obrolan question-and-answering,, brainstorming, ringkasan, pembuatan kode, pembuatan tabel, pemformatan data, penulisan ulang | 
| Citra | Menyediakan teks atau input gambar dan menghasilkan atau memodifikasi gambar | Pembuatan gambar, pengeditan gambar, variasi gambar | 
| Video | Berikan teks atau gambar referensi dan hasilkan video | Pembuatan video, konversi gambar ke video | 
| Embeddings | Berikan teks, gambar, atau teks dan gambar dan hasilkan vektor nilai numerik yang mewakili input. Vektor keluaran dapat dibandingkan dengan vektor embeddings lainnya untuk menentukan kesamaan semantik (untuk teks) atau kesamaan visual (untuk gambar). | [Pencarian teks dan gambar, kueri, kategorisasi, rekomendasi, personalisasi, pembuatan basis pengetahuan](knowledge-base.md) | 

**Topics**
+ [Pelajari tentang kasus penggunaan untuk metode inferensi model yang berbeda](inference-methods.md)
+ [Cara kerja inferensi di Amazon Bedrock](inference-how.md)
+ [Mempengaruhi generasi respons dengan parameter inferensi](inference-parameters.md)
+ [Wilayah dan model yang didukung untuk menjalankan inferensi model](inference-supported.md)
+ [Prasyarat untuk menjalankan inferensi model](inference-prereq.md)
+ [Hasilkan tanggapan di konsol menggunakan taman bermain](playgrounds.md)
+ [Tingkatkan respons model dengan penalaran model](inference-reasoning.md)
+ [Optimalkan inferensi model untuk latensi](latency-optimized-inference.md)
+ [Hasilkan tanggapan menggunakan OpenAI APIs](bedrock-mantle.md)
+ [Kirim prompt dan hasilkan respons menggunakan API](inference-api.md)
+ [Dapatkan hasil JSON yang divalidasi dari model](structured-output.md)
+ [Gunakan alat penggunaan komputer untuk menyelesaikan respons model Amazon Bedrock](computer-use.md)