Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
OpenAImodel
OpenAImenawarkan model berat terbuka berikut:
-
gpt-oss-20b
- Model yang lebih kecil yang dioptimalkan untuk latensi yang lebih rendah dan kasus penggunaan lokal atau khusus. -
gpt-oss-120b
- Model yang lebih besar yang dioptimalkan untuk produksi dan tujuan umum atau kasus penggunaan alasan tinggi.
Tabel berikut merangkum informasi tentang model:
Informasi | gpt-oss-20b | gpt-oss-120b |
---|---|---|
Tanggal rilis | Agustus 5, 2025 | Agustus 5, 2025 |
ID Model | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
ID Produk | N/A | N/A |
Modalitas input didukung | Teks | Teks |
Modalitas output didukung | Teks | Teks |
Jendela konteks | 128.000 | 128.000 |
OpenAIModel mendukung fitur-fitur berikut:
-
Pemanggilan model dengan operasi berikut:
-
Aplikasi pagar pembatas melalui penggunaan header dalam operasi pemanggilan model.
OpenAIbadan permintaan
Untuk informasi tentang parameter di badan permintaan dan deskripsinya, lihat Membuat penyelesaian obrolan
Gunakan kolom isi permintaan dengan cara berikut:
-
Dalam permintaan InvokeModelatau Penyelesaian OpenAI Obrolan, sertakan bidang di badan permintaan.
-
Dalam permintaan Converse, lakukan hal berikut:
-
Petakan
messages
sebagai berikut:-
Untuk setiap pesan yang perannya
developer
, tambahkancontent
a SystemContentBlockdalamsystem
array. -
Untuk setiap pesan yang perannya
user
atauassistant
, tambahkancontent
ke a ContentBlockdicontent
bidang dan tentukanrole
dirole
bidang Pesan dalammessages
array.
-
-
Petakan nilai untuk bidang berikut ke bidang yang sesuai di
inferenceConfig
objek:OpenAIlapangan Bidang Converse max_completion_tokens MaxTokens berhenti StopSequences suhu suhu top_p TopP -
Sertakan bidang lain dalam
additionalModelRequestFields
objek.
-
Pertimbangan saat membangun badan permintaan
-
OpenAIModel hanya mendukung input teks dan output teks.
-
Nilai di
model
bidang harus cocok dengan yang ada di header. Anda dapat menghilangkan bidang ini untuk membiarkannya diisi secara otomatis dengan nilai yang sama dengan header. -
Nilai di
stream
bidang harus sesuai dengan operasi API yang Anda gunakan. Anda dapat menghilangkan bidang ini untuk membiarkannya diisi secara otomatis dengan nilai yang benar.-
Jika Anda menggunakan InvokeModel,
stream
nilainya harusfalse
.
-
OpenAItubuh respon
Badan respons untuk OpenAI model sesuai dengan objek penyelesaian obrolan yang dikembalikan olehOpenAI. Untuk informasi selengkapnya tentang bidang respons, lihat Objek penyelesaian obrolan
catatan
Jika Anda menggunakanInvokeModel
, penalaran model, dikelilingi oleh <reasoning>
tag, mendahului konten teks respons.
Contoh penggunaan OpenAI model
Bagian ini memberikan beberapa contoh cara menggunakan OpenAI model.
Sebelum mencoba contoh-contoh ini, periksa apakah Anda telah memenuhi prasyarat:
-
Otentikasi - Anda dapat mengautentikasi dengan AWS kredensi Anda atau dengan kunci Amazon Bedrock API.
Siapkan AWS kredensi Anda atau buat kunci Amazon Bedrock API untuk mengautentikasi permintaan Anda.
Untuk mempelajari cara menyiapkan AWS kredensil Anda, lihat Akses terprogram dengan AWS kredensial keamanan.
Untuk mempelajari kunci Amazon Bedrock API dan cara membuatnya, lihatBuat kunci Amazon Bedrock API untuk mengautentikasi dengan mudah ke Amazon Bedrock API.
catatan
Jika Anda menggunakan API penyelesaian OpenAI Obrolan, Anda hanya dapat melakukan autentikasi dengan kunci Amazon Bedrock API.
-
Endpoint — Temukan titik akhir yang sesuai dengan AWS Wilayah yang akan digunakan di titik akhir dan kuota Amazon Bedrock Runtime. Jika Anda menggunakan AWS SDK, Anda mungkin hanya perlu menentukan kode wilayah dan bukan seluruh titik akhir saat menyiapkan klien. Anda harus menggunakan titik akhir yang terkait dengan Wilayah yang didukung oleh model yang digunakan dalam contoh.
-
Akses model — Minta akses ke OpenAI model. Untuk informasi selengkapnya, lihat Menambah atau menghapus akses ke model foundation Amazon Bedrock.
-
(Jika contoh menggunakan SDK) Instal SDK — Setelah instalasi, atur kredenal default dan Wilayah default. AWS Jika Anda tidak menyiapkan kredensi default atau Wilayah, Anda harus secara eksplisit menentukannya dalam contoh kode yang relevan. Untuk informasi selengkapnya tentang penyedia kredensi standar, lihat AWS SDKs dan Penyedia kredensi standar Alat.
catatan
Jika Anda menggunakan OpenAI SDK, Anda hanya dapat mengautentikasi dengan kunci Amazon Bedrock API dan Anda harus secara eksplisit menyetel titik akhir Amazon Bedrock.
Perluas bagian untuk contoh yang ingin Anda lihat:
Untuk melihat contoh penggunaan OpenAI Create chat completion API, pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:
Pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:
Saat Anda menggunakan API Converse terpadu, Anda perlu memetakan bidang OpenAI Buat penyelesaian obrolan ke bidang yang sesuai di badan permintaan Converse.
Misalnya, bandingkan badan permintaan penyelesaian obrolan berikut dengan badan permintaan Converse yang sesuai:
Pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:
Terapkan pagar pembatas saat menjalankan pemanggilan model dengan menentukan ID pagar pembatas, versi, dan apakah akan mengaktifkan jejak pagar pembatas di header permintaan pemanggilan model atau tidak.
Pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:
Untuk melihat contoh penggunaan pagar pembatas dengan penyelesaian OpenAI obrolan, pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:
Inferensi Batch memungkinkan Anda menjalankan inferensi model secara asinkron dengan beberapa prompt. Untuk menjalankan inferensi batch dengan OpenAI model, Anda melakukan hal berikut:
-
Buat file JSONL dan isi dengan setidaknya jumlah minimum objek JSON, masing-masing dipisahkan oleh baris baru. Setiap
modelInput
objek harus sesuai dengan format badan permintaan penyelesaian obrolan OpenAI buat. Berikut ini menunjukkan contoh dari dua baris pertama dari file JSONL yang berisi badan permintaan untuk. OpenAI { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...
catatan
model
Bidang ini opsional karena layanan inferensi batch akan menyisipkannya untuk Anda berdasarkan header jika Anda menghilangkannya.Periksa apakah file JSONL Anda sesuai dengan kuota inferensi batch seperti yang diuraikan dalam. Format dan unggah data inferensi batch Anda
-
Unggah file ke bucket Amazon S3.
-
Kirim CreateModelInvocationJobpermintaan dengan titik akhir bidang kontrol Amazon Bedrock dengan bucket S3 dari langkah sebelumnya yang ditentukan di
inputDataConfig
bidang dan OpenAI model yang ditentukan di bidang.modelId
Untuk contoh end-to-end kode, lihatContoh kode untuk inferensi batch. Ganti dengan konfigurasi yang tepat untuk OpenAI model.