Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Cree una base de conocimientos para contenido multimodal
Puede crear bases de conocimiento multimodales mediante la consola o la API. Elija su enfoque en función de sus necesidades de procesamiento multimodal.
importante
El soporte multimodal solo está disponible cuando se crea una base de conocimientos con fuentes de datos no estructuradas. Las fuentes de datos estructurados no admiten el procesamiento de contenido multimodal.
- Console
-
Para crear una base de conocimientos multimodal desde la consola
-
Inicie sesión Consola de administración de AWS con una identidad de IAM que tenga permisos para usar la consola Amazon Bedrock. A continuación, abra la consola de Amazon Bedrock en https://console.aws.amazon.com/bedrock.
-
En el panel de navegación izquierdo, elija Bases de conocimientos.
-
En la sección Bases de conocimiento, elija Crear y, a continuación, elija Base de conocimientos con almacén vectorial.
-
(Opcional) En Detalles de la base de conocimientos, introduzca el nombre predeterminado y proporcione una descripción de la base de conocimiento.
-
En Permisos de IAM, seleccione un rol de IAM que otorgue permisos a Amazon Bedrock para acceder a otros Servicios de AWS necesarios. Puede hacer que Amazon Bedrock cree el rol de servicio por usted o puede optar por usar su propio rol personalizado. Para obtener información sobre los permisos multimodales, consulte. Permisos para contenido multimodal
-
Elija Amazon S3 como fuente de datos y elija Next para configurar la fuente de datos.
nota
Puede añadir hasta 5 fuentes de datos de Amazon S3 durante la creación de la base de conocimientos. Se pueden añadir fuentes de datos adicionales una vez creada la base de conocimientos.
-
Proporcione el URI de S3 del depósito que contiene su contenido multimodal y configure un prefijo de inclusión si es necesario. El prefijo de inclusión es una ruta de carpeta que se puede usar para limitar el contenido que se ingiere.
-
En Configuraciones de fragmentación y análisis, elige tu estrategia de análisis:
-
Analizador por defecto de Bedrock: recomendado para el procesamiento de contenido de solo texto. Este analizador procesa los formatos de texto más comunes e ignora los archivos multimodales. Admite documentos de texto, incluidos archivos de Word, Excel, HTML, Markdown, TXT y CSV.
-
Bedrock Data Automation (BDA): convierte el contenido multimodal en representaciones de texto con capacidad de búsqueda. PDFsProcesa archivos de imágenes, audio y vídeo para extraer texto, generar descripciones para el contenido visual y crear transcripciones para el contenido de audio y vídeo.
-
Analizador de modelos básicos: proporciona capacidades de análisis avanzadas para estructuras de documentos complejas. Procesos PDFs, imágenes, documentos estructurados, tablas y contenido visualmente rico para extraer texto y generar descripciones para los elementos visuales.
-
-
Elija Siguiente y seleccione su modelo de incrustación y enfoque de procesamiento multimodal.
-
Amazon Nova Multimodal Embeddings V1.0: elija Amazon Nova Embeddings V1.0 para realizar búsquedas directas de similitudes visuales y sonoras. Configure la duración de los fragmentos de audio y vídeo (de 1 a 30 segundos; de forma predeterminada, 5 segundos) para controlar cómo se segmenta el contenido.
nota
Los parámetros de fragmentación de audio y vídeo se configuran en el nivel del modelo de incrustación, no en el nivel de la fuente de datos. Se produce una excepción de validación si se proporciona esta configuración para modelos de incrustación no multimodales. Configure la duración de los fragmentos de audio y vídeo (predeterminada: 5 segundos, rango: de 1 a 30 segundos) para controlar cómo se segmenta el contenido. Los fragmentos más cortos permiten una recuperación precisa del contenido, mientras que los fragmentos más largos conservan un contexto más semántico.
importante
La versión 1.0 de incrustación de Amazon Nova tiene un soporte limitado para buscar contenido de voz en audio/video los datos. Si necesita admitir la voz, utilice Bedrock Data Automation como analizador.
-
Incrustaciones de texto con BDA: elija un modelo de incrustación de texto (como Titan Text Embeddings v2) cuando utilice el procesamiento BDA. Los modelos de incrustación de texto limitan la recuperación a contenido de solo texto, pero puede habilitar la recuperación multimodal si selecciona Amazon Bedrock Data Automation o Foundation Model como analizadores.
nota
Si utiliza el analizador BDA con Nova Multimodal Embeddings, Amazon Bedrock Knowledge Bases utilizará primero el análisis BDA. En este caso, el modelo de incrustación no generará incrustaciones multimodales nativas para imágenes, audio y vídeo, ya que BDA las convierte en representaciones de texto.
-
-
Si utiliza Nova Multimodal Embeddings, configure el destino de almacenamiento multimodal especificando un bucket de Amazon S3 en el que se almacenarán los archivos procesados para su recuperación. Las bases de conocimiento almacenarán las imágenes analizadas en un único depósito de Amazon S3 con una carpeta creada con la extensión.bda para facilitar el acceso.
Recomendación de política de ciclo de vida
Al utilizar Nova Multimodal Embeddings, Amazon Bedrock almacena los datos transitorios en el destino de almacenamiento multimodal e intenta eliminarlos una vez finalizado el procesamiento. Recomendamos aplicar una política de ciclo de vida a la ruta de datos transitorios para garantizar una limpieza adecuada. Para obtener instrucciones detalladas, consulte Gestión de datos transitorios con las políticas de ciclo de vida de Amazon S3.
-
En la sección de bases de datos vectoriales, elija el método de almacenamiento vectorial y configure las dimensiones adecuadas en función del modelo de incrustación que haya seleccionado.
-
Seleccione Siguiente y revise los detalles de la configuración de la base de conocimientos y, a continuación, elija Crear base de conocimientos.
-
- CLI
-
Para crear una base de conocimientos multimodal mediante AWS CLI
-
Cree una base de conocimientos con Nova Multimodal Embeddings. Enviar una solicitud:
CreateKnowledgeBaseaws bedrock-agent create-knowledge-base \ --cli-input-json file://kb-nova-mme.jsonContenido de
kb-nova-mme.json(sustituya los valores de los marcadores de posición por su configuración específica):{ "knowledgeBaseConfiguration": { "vectorKnowledgeBaseConfiguration": { "embeddingModelArn": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-2-multimodal-embeddings-v1:0", "supplementalDataStorageConfiguration": { "storageLocations": [ { "type": "S3", "s3Location": { "uri": "s3://<multimodal-storage-bucket>/" } } ] } }, "type": "VECTOR" }, "storageConfiguration": { "opensearchServerlessConfiguration": { "collectionArn": "arn:aws:aoss:us-east-1:<account-id>:collection/<collection-id>", "vectorIndexName": "<index-name>", "fieldMapping": { "vectorField": "<vector-field>", "textField": "<text-field>", "metadataField": "<metadata-field>" } }, "type": "OPENSEARCH_SERVERLESS" }, "name": "<knowledge-base-name>", "description": "Multimodal knowledge base with Nova Multimodal Embeddings" }Reemplace los siguientes marcadores de posición:
-
<multimodal-storage-bucket>- Cubeta S3 para almacenar archivos multimodales -
<account-id>- Su ID de cuenta de AWS -
<collection-id>- ID de recopilación OpenSearch sin servidor -
<index-name>- Nombre del índice vectorial de su OpenSearch colección (configurado con las dimensiones adecuadas para el modelo de incrustación que haya elegido) -
<vector-field>- Nombre de campo para almacenar las incrustaciones -
<text-field>- Nombre de campo para almacenar contenido de texto -
<metadata-field>- Nombre de campo para almacenar metadatos
-
-