Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Panggil model impor Anda
Pekerjaan impor model dapat memakan waktu beberapa menit untuk mengimpor model Anda setelah Anda mengirim CreateModelImportJobpermintaan. Anda dapat memeriksa status pekerjaan impor Anda di konsol atau dengan memanggil GetModelImportJoboperasi dan memeriksa Status bidang dalam respons. Pekerjaan impor selesai jika Status untuk model Selesai.
Setelah model impor Anda tersedia di Amazon Bedrock, Anda dapat menggunakan model dengan throughput sesuai permintaan dengan mengirim InvokeModelatau InvokeModelWithResponseStreammeminta untuk melakukan panggilan inferensi ke model. Untuk informasi selengkapnya, lihat Kirim satu prompt dengan InvokeModel.
Untuk berinteraksi dengan model yang diimpor menggunakan format pesan, Anda dapat memanggil Converse atau ConverseStreamoperasi. Untuk informasi selengkapnya, lihat Menggunakan API Converse ini.
catatan
Converse API tidak didukung untuk Qwen2.5, QWen2-vl, Qwen2.5-vl, dan model. GPT-OSS
Dukungan API yang Ditingkatkan: Beberapa Format API
Mulai 17 November 2025, Amazon Bedrock Custom Model Import mendukung format API komprehensif yang kompatibel dengan OpenAI, memberikan fleksibilitas dalam cara Anda mengintegrasikan dan menerapkan model kustom Anda. Semua model yang diimpor setelah 11 November 2025, secara otomatis akan mendapat manfaat dari kemampuan yang ditingkatkan ini tanpa memerlukan konfigurasi tambahan.
Impor Model Kustom sekarang mendukung tiga format API:
BedrockCompletion (Teks) - Kompatibel dengan alur kerja Bedrock saat ini
Buka AICompletion (Teks) - Kompatibilitas Skema Penyelesaian OpenAI
Open AIChat Completion (Teks dan Gambar) - Kompatibilitas Skema percakapan penuh
Kemampuan yang ditingkatkan ini mencakup output terstruktur untuk menegakkan skema dan pola JSON, dukungan penglihatan yang ditingkatkan dengan pemrosesan multi-gambar, probabilitas log untuk wawasan kepercayaan model, dan kemampuan pemanggilan alat untuk model. GPT-OSS
Untuk dokumentasi referensi API mendetail, lihat dokumentasi OpenAI resmi:
Penyelesaian: OpenAI
Completions API ChatCompletion: API Obrolan OpenAI
Contoh Format API
Contoh berikut menunjukkan cara menggunakan masing-masing dari empat format API yang didukung dengan model impor Anda.
Anda memerlukan model ARN untuk melakukan panggilan inferensi ke model Anda yang baru diimpor. Setelah berhasil menyelesaikan pekerjaan impor dan setelah model impor Anda aktif, Anda bisa mendapatkan model ARN dari model impor Anda di konsol atau dengan mengirimkan permintaan. ListImportedModels
Ketika Anda memanggil model impor Anda menggunakan InvokeModel atauInvokeModelWithStream, permintaan Anda disajikan dalam waktu 5 menit atau Anda mungkin mendapatkannyaModelNotReadyException. Untuk memahami ModelNotReadyException, ikuti langkah-langkah di bagian selanjutnya untuk penanganannya ModelNotreadyException.
Pertanyaan yang Sering Diajukan
T: Format API apa yang harus saya gunakan?
J: Untuk kompatibilitas maksimum dengan berbagai format SDKs, sebaiknya gunakan format Open AICompletion atau Open AIChat Completion karena menyediakan skema yang kompatibel dengan OpenAI yang didukung secara luas di berbagai alat dan pustaka.
T: Apakah GPT-OSS di Amazon Bedrock Custom Model Import mendukung Converse API?
A: Tidak. GPT-OSSmodel impor model kustom berbasis tidak mendukung Converse API atau ConverseStream API. Anda harus menggunakan InvokeModelAPI dengan skema yang kompatibel dengan OpenAI saat bekerja dengan model kustom GPT-OSS berbasis.
T: Model apa yang mendukung pemanggilan alat?
A: model kustom GPT-OSS berbasis mendukung kemampuan pemanggilan alat. Pemanggilan alat memungkinkan pemanggilan fungsi untuk alur kerja yang kompleks.
T: Bagaimana dengan model yang diimpor sebelum 11 November 2025?
J: Model yang diimpor sebelum 11 November 2025, terus berfungsi sebagaimana adanya dengan format dan kemampuan API yang ada.
T: Bagaimana generation_config.json dengan model berbasis OpenAI?
J: Sangat penting bahwa Anda menyertakan generation_config.json file yang benar saat mengimpor model berbasis OpenAI seperti. GPT-OSS Anda harus menggunakan file konfigurasi yang diperbarui (diperbarui 13 Agustus 2024) yang tersedia di https://huggingface. co/openai/gpt-oss-20b/blob/main/generation_config.json[200002, 199999, 200012]), sedangkan versi yang lebih lama hanya menyertakan dua token ([200002, 199999]). Menggunakan generation_config.json file yang sudah ketinggalan zaman akan menyebabkan kesalahan runtime selama pemanggilan model. File ini penting untuk perilaku model yang tepat dan harus disertakan dengan impor model berbasis OpenAI Anda.
Penanganan ModelNotReadyException
Amazon Bedrock Custom Model Import mengoptimalkan pemanfaatan perangkat keras dengan menghapus model yang tidak aktif. Jika Anda mencoba memanggil model yang telah dihapus, Anda akan mendapatkan file. ModelNotReadyException Setelah model dihapus dan Anda memanggil model untuk pertama kalinya, Impor Model Kustom mulai memulihkan model. Waktu restorasi tergantung pada ukuran armada sesuai permintaan dan ukuran model.
Jika InvokeModelWithStream permintaan InvokeModel atau Anda kembaliModelNotReadyException, ikuti langkah-langkah untuk menangani pengecualian.
-
Konfigurasikan percobaan ulang
Secara default, permintaan secara otomatis dicoba ulang dengan backoff eksponensial. Anda dapat mengonfigurasi jumlah percobaan ulang maksimum.
Contoh berikut menunjukkan cara mengkonfigurasi coba lagi. Ganti
${region-name}${model-arn},, dan10dengan Wilayah Anda, model ARN, dan upaya maksimum.import json import boto3 from botocore.config import Config REGION_NAME =${region-name}MODEL_ID= '${model-arn}' config = Config( retries={ 'total_max_attempts':10, //customizable 'mode': 'standard' } ) message = "Hello" session = boto3.session.Session() br_runtime = session.client(service_name = 'bedrock-runtime', region_name=REGION_NAME, config=config) try: invoke_response = br_runtime.invoke_model(modelId=MODEL_ID, body=json.dumps({'prompt': message}), accept="application/json", contentType="application/json") invoke_response["body"] = json.loads(invoke_response["body"].read().decode("utf-8")) print(json.dumps(invoke_response, indent=4)) except Exception as e: print(e) print(e.__repr__()) -
Pantau kode respons selama upaya coba lagi
Setiap upaya coba lagi memulai proses restorasi model. Waktu restorasi tergantung pada ketersediaan armada sesuai permintaan dan ukuran model. Pantau kode respons saat proses restorasi sedang berlangsung.
Jika percobaan ulang secara konsisten gagal, lanjutkan dengan langkah selanjutnya.
-
Verifikasi model berhasil diimpor
Anda dapat memverifikasi apakah model berhasil diimpor dengan memeriksa status pekerjaan impor Anda di konsol atau dengan memanggil GetModelImportJoboperasi. Periksa
Statusbidang dalam respons. Pekerjaan impor berhasil jika Status untuk model Selesai. -
Kontak Dukungan untuk penyelidikan lebih lanjut
Buka tiket dengan Dukungan Untuk informasi selengkapnya, lihat Membuat kasus dukungan.
Sertakan detail yang relevan seperti ID model dan stempel waktu dalam tiket dukungan.