Buat basis pengetahuan untuk konten multimodal - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Buat basis pengetahuan untuk konten multimodal

Anda dapat membuat basis pengetahuan multimodal menggunakan konsol atau API. Pilih pendekatan Anda berdasarkan kebutuhan pemrosesan multimodal Anda.

penting

Dukungan multimodal hanya tersedia saat membuat basis pengetahuan dengan sumber data yang tidak terstruktur. Sumber data terstruktur tidak mendukung pemrosesan konten multimodal.

Console
Untuk membuat basis pengetahuan multimodal dari konsol
  1. Masuk ke Konsol Manajemen AWS dengan identitas IAM yang memiliki izin untuk menggunakan konsol Amazon Bedrock. Kemudian, buka konsol Amazon Bedrock di https://console.aws.amazon.com/bedrock.

  2. Di panel navigasi kiri, pilih Basis pengetahuan.

  3. Di bagian Basis pengetahuan, pilih Buat, lalu pilih Pangkalan Pengetahuan dengan penyimpanan vektor.

  4. (Opsional) Di bawah detail Basis Pengetahuan, ubah nama default dan berikan deskripsi untuk basis pengetahuan Anda.

  5. Di bawah izin IAM, pilih peran IAM yang menyediakan izin Amazon Bedrock untuk mengakses lainnya yang diperlukan. Layanan AWS Anda dapat meminta Amazon Bedrock membuat peran layanan untuk Anda, atau Anda dapat memilih untuk menggunakan peran kustom Anda sendiri. Untuk izin multimodal, lihat. Izin untuk konten multimodal

  6. Pilih Amazon S3 sebagai sumber data Anda dan pilih Berikutnya untuk mengonfigurasi sumber data Anda.

    catatan

    Anda dapat menambahkan hingga 5 sumber data Amazon S3 selama pembuatan basis pengetahuan. Sumber data tambahan dapat ditambahkan setelah basis pengetahuan dibuat.

  7. Berikan URI S3 bucket yang berisi konten multimodal Anda dan konfigurasikan awalan inklusi jika diperlukan. Awalan inklusi adalah jalur folder yang dapat digunakan untuk membatasi konten apa yang dicerna.

  8. Di bawah konfigurasi Chunking dan parsing, pilih strategi parsing Anda:

    • Pengurai default batuan dasar: Direkomendasikan untuk pemrosesan konten khusus teks. Parser ini memproses format teks umum sambil mengabaikan file multimodal. Mendukung dokumen teks termasuk file Word, Excel, HTML, Markdown, TXT, dan CSV.

    • Otomasi Data Batuan Dasar (BDA): Mengonversi konten multimodal menjadi representasi teks yang dapat dicari. Memproses PDFs, gambar, audio, dan file video untuk mengekstrak teks, menghasilkan deskripsi untuk konten visual, dan membuat transkripsi untuk konten audio dan video.

    • Foundation model parser: Menyediakan kemampuan parsing canggih untuk struktur dokumen yang kompleks. Proses PDFs, gambar, dokumen terstruktur, tabel, dan konten yang kaya secara visual untuk mengekstrak teks dan menghasilkan deskripsi untuk elemen visual.

  9. Pilih Berikutnya dan pilih model embedding dan pendekatan pemrosesan multimodal Anda.

    • Amazon Nova Multimodal Embeddings V1.0: Pilih Amazon Nova embedding V1.0 untuk pencarian kesamaan visual dan audio langsung. Konfigurasikan durasi potongan audio dan video (1-30 detik, default 5 detik) untuk mengontrol bagaimana konten tersegmentasi.

      catatan

      Parameter chunking audio dan video dikonfigurasi pada tingkat model penyematan, bukan pada tingkat sumber data. Pengecualian validasi terjadi jika Anda menyediakan konfigurasi ini untuk model penyematan non-multimodal. Konfigurasikan durasi potongan audio dan video (default: 5 detik, rentang: 1-30 detik) untuk mengontrol bagaimana konten tersegmentasi. Potongan yang lebih pendek memungkinkan pengambilan konten yang tepat sementara potongan yang lebih panjang mempertahankan lebih banyak konteks semantik.

      penting

      Amazon Nova embedding v1.0 memiliki dukungan terbatas untuk mencari konten ucapan dalam audio/video data. Jika Anda perlu mendukung pidato, gunakan Otomasi Data Batuan Dasar sebagai parser.

    • Penyematan teks dengan BDA: Pilih model penyematan teks (seperti Titan Text Embeddings v2) saat menggunakan pemrosesan BDA. Model penyematan teks membatasi pengambilan ke konten khusus teks, tetapi Anda dapat mengaktifkan pengambilan multimodal dengan memilih Amazon Bedrock Data Automation atau Foundation Model sebagai parser.

      catatan

      Jika Anda menggunakan parser BDA dengan Nova Multimodal Embeddings, Amazon Bedrock Knowledge Bases akan menggunakan penguraian BDA terlebih dahulu. Dalam hal ini, model penyematan tidak akan menghasilkan penyematan multimodal asli untuk gambar, audio, dan video karena BDA mengonversinya menjadi representasi teks.

  10. Jika menggunakan Nova Multimodal Embeddings, konfigurasikan tujuan penyimpanan Multimodal dengan menentukan bucket Amazon S3 tempat file yang diproses akan disimpan untuk diambil. Knowledge Bases akan menyimpan gambar yang diuraikan ke dalam satu bucket Amazon S3 dengan folder yang dibuat.bda untuk memudahkan akses.

    Rekomendasi kebijakan siklus hidup

    Saat menggunakan Nova Multimodal Embeddings, Amazon Bedrock menyimpan data sementara di tujuan penyimpanan multimodal Anda dan mencoba menghapusnya setelah pemrosesan selesai. Sebaiknya terapkan kebijakan siklus hidup pada jalur data transien untuk memastikan pembersihan yang tepat. Untuk petunjuk mendetail, lihat Mengelola data sementara dengan kebijakan siklus hidup Amazon S3.

  11. Di bagian Basis data vektor, pilih metode penyimpanan vektor Anda dan konfigurasikan dimensi yang sesuai berdasarkan model penyematan yang Anda pilih.

  12. Pilih Berikutnya dan tinjau detail konfigurasi basis pengetahuan Anda, lalu pilih Buat basis pengetahuan.

CLI
Untuk membuat basis pengetahuan multimodal menggunakan AWS CLI
  • Buat basis pengetahuan dengan Nova Multimodal Embeddings. Kirim CreateKnowledgeBasepermintaan:

    aws bedrock-agent create-knowledge-base \ --cli-input-json file://kb-nova-mme.json

    Isi kb-nova-mme.json (ganti nilai placeholder dengan konfigurasi spesifik Anda):

    { "knowledgeBaseConfiguration": { "vectorKnowledgeBaseConfiguration": { "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-2-multimodal-embeddings-v1:0", "supplementalDataStorageConfiguration": { "storageLocations": [ { "type": "S3", "s3Location": { "uri": "s3://<multimodal-storage-bucket>/" } } ] } }, "type": "VECTOR" }, "storageConfiguration": { "opensearchServerlessConfiguration": { "collectionArn": "arn:aws:aoss:us-east-1:<account-id>:collection/<collection-id>", "vectorIndexName": "<index-name>", "fieldMapping": { "vectorField": "<vector-field>", "textField": "<text-field>", "metadataField": "<metadata-field>" } }, "type": "OPENSEARCH_SERVERLESS" }, "name": "<knowledge-base-name>", "description": "Multimodal knowledge base with Nova Multimodal Embeddings" }

    Ganti placeholder berikut:

    • <multimodal-storage-bucket>- Bucket S3 untuk menyimpan file multimodal

    • <account-id>- ID akun AWS Anda

    • <collection-id>- OpenSearch ID koleksi tanpa server

    • <index-name>- Nama indeks vektor dalam OpenSearch koleksi Anda (dikonfigurasi dengan dimensi yang sesuai untuk model penyematan pilihan Anda)

    • <vector-field>- Nama bidang untuk menyimpan embeddings

    • <text-field>- Nama bidang untuk menyimpan konten teks

    • <metadata-field>- Nama bidang untuk menyimpan metadata