Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Crea una base di conoscenze per contenuti multimodali
È possibile creare basi di conoscenza multimodali utilizzando la console o l'API. Scegli il tuo approccio in base alle tue esigenze di elaborazione multimodale.
Importante
Il supporto multimodale è disponibile solo quando si crea una knowledge base con fonti di dati non strutturate. Le fonti di dati strutturate non supportano l'elaborazione multimodale dei contenuti.
- Console
-
Per creare una knowledge base multimodale dalla console
-
Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in https://console.aws.amazon.com/bedrock.
-
Nel riquadro di navigazione a sinistra, scegli Knowledge base.
-
Nella sezione Knowledge base, scegli Crea, quindi scegli Knowledge base con archivio vettoriale.
-
(Opzionale) In Dettagli della knowledge base, modifica il nome predefinito e fornisci una descrizione per la tua knowledge base.
-
In Autorizzazioni IAM, scegli un ruolo IAM che fornisca ad Amazon Bedrock l’autorizzazione per accedere ad altri servizi Servizi AWS necessari. Puoi fare in modo che Amazon Bedrock crei il ruolo di servizio per te oppure puoi scegliere di utilizzare il tuo ruolo personalizzato. Per le autorizzazioni multimodali, consulta. Autorizzazioni per contenuti multimodali
-
Scegli Amazon S3 come origine dati e scegli Avanti per configurare la tua origine dati.
Nota
Puoi aggiungere fino a 5 sorgenti dati Amazon S3 durante la creazione della knowledge base. È possibile aggiungere ulteriori fonti di dati dopo la creazione della knowledge base.
-
Fornisci l'URI S3 del bucket contenente il contenuto multimodale e configura un prefisso di inclusione, se necessario. Il prefisso di inclusione è un percorso di cartella che può essere utilizzato per limitare il contenuto che viene importato.
-
In Configurazioni di suddivisione in blocchi e analisi, scegli la tua strategia di analisi:
-
Parser predefinito Bedrock: consigliato per l'elaborazione di contenuti di solo testo. Questo parser elabora i formati di testo più comuni ignorando i file multimodali. Supporta documenti di testo tra cui file Word, Excel, HTML, Markdown, TXT e CSV.
-
Bedrock Data Automation (BDA): converte i contenuti multimodali in rappresentazioni di testo ricercabili. PDFsElabora, immagini, file audio e video per estrarre testo, generare descrizioni per contenuti visivi e creare trascrizioni per contenuti audio e video.
-
Foundation Model Parser: fornisce funzionalità di analisi avanzate per strutture di documenti complesse. Processi PDFs, immagini, documenti strutturati, tabelle e contenuti visivamente ricchi per estrarre testo e generare descrizioni per elementi visivi.
-
-
Scegli Next e seleziona il modello di incorporamento e l'approccio di elaborazione multimodale.
-
Amazon Nova Multimodal Embeddings V1.0: scegli Amazon Nova embedding V1.0 per ricerche dirette di somiglianza visiva e audio. Configura la durata dei blocchi audio e video (1-30 secondi, impostazione predefinita 5 secondi) per controllare la segmentazione dei contenuti.
Nota
I parametri di suddivisione in blocchi audio e video sono configurati a livello di modello di incorporamento, non a livello di origine dati. Si verifica un'eccezione di convalida se si fornisce questa configurazione per modelli di incorporamento non multimodali. Configura la durata dei blocchi audio e video (impostazione predefinita: 5 secondi, intervallo: 1-30 secondi) per controllare la segmentazione dei contenuti. I blocchi più brevi consentono un recupero preciso dei contenuti, mentre i blocchi più lunghi conservano un contesto più semantico.
Importante
Amazon Nova embedding v1.0 offre un supporto limitato per la ricerca di contenuti vocali nei audio/video dati. Se hai bisogno di supportare il riconoscimento vocale, usa Bedrock Data Automation come parser.
-
Incorporamenti di testo con BDA: scegli un modello di incorporamento del testo (come Titan Text Embeddings v2) quando utilizzi l'elaborazione BDA. I modelli di incorporamento del testo limitano il recupero ai contenuti di solo testo, ma puoi abilitare il recupero multimodale selezionando Amazon Bedrock Data Automation o Foundation Model come parser.
Nota
Se utilizzi il parser BDA con Nova Multimodal Embeddings, Amazon Bedrock Knowledge Bases utilizzerà prima l'analisi BDA. In questo caso, il modello di incorporamento non genererà incorporamenti multimodali nativi per immagini, audio e video poiché BDA li converte in rappresentazioni di testo.
-
-
Se utilizzi Nova Multimodal Embeddings, configura la destinazione di storage multimodale specificando un bucket Amazon S3 in cui archiviare i file elaborati per il recupero. Le Knowledge Base memorizzeranno le immagini analizzate in un singolo bucket Amazon S3 con una cartella creata.bda per un facile accesso.
Raccomandazione sulla politica relativa al ciclo di vita
Quando si utilizza Nova Multimodal Embeddings, Amazon Bedrock archivia i dati transitori nella destinazione di archiviazione multimodale e tenta di eliminarli una volta completata l'elaborazione. Ti consigliamo di applicare una politica del ciclo di vita sul percorso temporaneo dei dati per garantire una pulizia adeguata. Per istruzioni dettagliate, vedi Gestione dei dati transitori con le policy del ciclo di vita di Amazon S3.
-
Nella sezione Database Vector, scegli il metodo di archiviazione vettoriale e configura le dimensioni appropriate in base al modello di incorporamento selezionato.
-
Scegli Avanti e rivedi i dettagli della configurazione della tua knowledge base, quindi scegli Crea knowledge base.
-
- CLI
-
Per creare una knowledge base multimodale utilizzando AWS CLI
-
Crea una knowledge base con Nova Multimodal Embeddings. Invia una richiesta:
CreateKnowledgeBaseaws bedrock-agent create-knowledge-base \ --cli-input-json file://kb-nova-mme.jsonContenuto di
kb-nova-mme.json(sostituisci i valori segnaposto con la tua configurazione specifica):{ "knowledgeBaseConfiguration": { "vectorKnowledgeBaseConfiguration": { "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-2-multimodal-embeddings-v1:0", "supplementalDataStorageConfiguration": { "storageLocations": [ { "type": "S3", "s3Location": { "uri": "s3://<multimodal-storage-bucket>/" } } ] } }, "type": "VECTOR" }, "storageConfiguration": { "opensearchServerlessConfiguration": { "collectionArn": "arn:aws:aoss:us-east-1:<account-id>:collection/<collection-id>", "vectorIndexName": "<index-name>", "fieldMapping": { "vectorField": "<vector-field>", "textField": "<text-field>", "metadataField": "<metadata-field>" } }, "type": "OPENSEARCH_SERVERLESS" }, "name": "<knowledge-base-name>", "description": "Multimodal knowledge base with Nova Multimodal Embeddings" }Sostituire i seguenti segnaposto:
-
<multimodal-storage-bucket>- Bucket S3 per l'archiviazione di file multimodali -
<account-id>- L'ID del tuo account AWS -
<collection-id>- ID di raccolta OpenSearch serverless -
<index-name>- Nome dell'indice vettoriale nella OpenSearch raccolta (configurato con le dimensioni appropriate per il modello di incorporamento scelto) -
<vector-field>- Nome del campo per la memorizzazione degli incorporamenti -
<text-field>- Nome del campo per la memorizzazione del contenuto testuale -
<metadata-field>- Nome del campo per la memorizzazione dei metadati
-
-