Esquema de solicitud y respuesta de incrustaciones completo - Amazon Nova

Esquema de solicitud y respuesta de incrustaciones completo

Esquema sincrónico completo

{ "schemaVersion": "nova-multimodal-embed-v1", "taskType": "SINGLE_EMBEDDING", "singleEmbeddingParams": { "embeddingPurpose": "GENERIC_INDEX" | "GENERIC_RETRIEVAL" | "TEXT_RETRIEVAL" | "IMAGE_RETRIEVAL" | "VIDEO_RETRIEVAL" | "DOCUMENT_RETRIEVAL" | "AUDIO_RETRIEVAL" | "CLASSIFICATION" | "CLUSTERING", "embeddingDimension": 256 | 384 | 1024 | 3072, "text": { "truncationMode": "START" | "END" | "NONE", "value": string, "source": SourceObject, }, "image": { "detailLevel": "STANDARD_IMAGE" | "DOCUMENT_IMAGE", "format": "png" | "jpeg" | "gif" | "webp", "source": SourceObject }, "audio": { "format": "mp3" | "wav" | "ogg", "source": SourceObject }, "video": { "format": "mp4" | "mov" | "mkv" | "webm" | "flv" | "mpeg" | "mpg" | "wmv" | "3gp", "source": SourceObject, "embeddingMode": "AUDIO_VIDEO_COMBINED" | "AUDIO_VIDEO_SEPARATE" } } }

En la siguiente lista se incluyen todos los parámetros de la solicitud:

  • schemaVersion (Opcional): la versión del esquema de la solicitud de modelo de incrustación multimodal

    • Tipo: cadena

    • Valores permitidos: "nova-multimodal-embed-v1"

    • Predeterminado: "nova-multimodal-embed-v1"

  • taskType (Obligatorio): especifica el tipo de operación de incrustación que se debe realizar en el contenido de entrada. single_embedding se refiere a generar una incrustación por entrada de modelo. segmented_embedding se refiere a segmentar primero la entrada del modelo según la especificación del usuario y, a continuación, generar una única incrustación por segmento.

    • Tipo: cadena

    • Valores permitidos: debe ser "SINGLE_EMBEDDING" para las llamadas sincrónicas.

  • singleEmbeddingParams (Obligatorio)

    • embeddingPurpose (Obligatorio): Nova Multimodal Embeddings le permite optimizar sus incrustaciones en función de la aplicación prevista. Algunos ejemplos son el MM-RAG, la gestión de activos digitales para la búsqueda de imágenes y videos, la comparación de similitudes para el contenido multimodal o la clasificación de documentos para el procesamiento inteligente de documentos. embeddingPurpose permite especificar el caso de uso de la incrustación. Seleccione el valor correcto según el caso de uso que se indica a continuación.

      • Búsqueda y recuperación: los casos de uso de la incrustación, como la generación aumentada por recuperación (RAG) y la búsqueda, implican dos pasos principales: primero, crear un índice mediante la generación de incrustaciones para el contenido y, segundo, recuperar el contenido más relevante del índice durante la búsqueda. Utilice los siguientes valores cuando trabaje con casos de uso de búsqueda y recuperación:

        • Indexación:

          • "GENERIC_INDEX": crea incrustaciones optimizadas para su uso como índices en un almacén de datos vectoriales. Este valor debe usarse independientemente de la modalidad de indexación.

        • Búsqueda/recuperación: optimice sus incrustaciones en función del tipo de contenido que vaya a recuperar:

          • "TEXT_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de texto.

          • "IMAGE_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de imágenes creadas con el nivel de detalle "STANDARD_IMAGE".

          • "VIDEO_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de video o incrustaciones creadas con el modo de incrustación "AUDIO_VIDEO_COMBINED".

          • "DOCUMENT_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de imágenes de documentos creadas con el nivel de detalle "DOCUMENT_IMAGE".

          • "AUDIO_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de audio.

          • "GENERIC_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de modalidad.

        • Ejemplo: en una aplicación de búsqueda de imágenes en la que los usuarios recuperan imágenes mediante consultas de texto, use el valor embeddingPurpose = generic_index al crear un índice de incrustación basado en las imágenes y embeddingPurpose = image_retrieval al crear una incrustación de la consulta utilizada para recuperar las imágenes.

      • "CLASSIFICATION": crea incrustaciones optimizadas para realizar la clasificación.

      • "CLUSTERING" crea incrustaciones optimizadas para la agrupación en clústeres.

    • embeddingDimension (Opcional): el tamaño del vector que se va a generar.

      • Tipo: int

      • Valores permitidos: 256 | 384 | 1024 | 3072

      • Predeterminado: 3072

    • text (Opcional): representa el contenido del texto. Debe estar presente exactamente uno de texto, imagen, video o audio.

      • truncationMode (Obligatorio): especifica qué parte del texto se truncará en los casos en que la versión tokenizada del texto supere el máximo admitido por el modelo.

        • Tipo: cadena

        • Valores permitidos:

          • "START": omite los caracteres del principio del texto cuando sea necesario.

          • "END": omite los caracteres del final del texto cuando sea necesario.

          • "NONE": se produce un error si la longitud del texto supera el límite máximo de token del modelo.

      • value (Opcional; se debe proporcionar el valor o la fuente): el valor de texto para el que se creará la incrustación.

        • Tipo: cadena

        • Longitud máxima: 8192 caracteres.

      • source (Opcional; se debe proporcionar el valor o la fuente): referencia a un archivo de texto almacenado en S3. Tenga en cuenta que la opción de bytes del SourceObject no se aplica a las entradas de texto. Para pasar texto en línea como parte de la solicitud, utilice el parámetro de valor en su lugar.

        • Tipo: SourceObject (consulte la sección “Objetos comunes”)

    • image (Opcional): representa el contenido de la imagen. Debe estar presente exactamente uno de texto, imagen, video o audio.

      • detailLevel (Opcional): establece la resolución a la que se procesará la imagen. Para interpretar mejor el texto, "STANDARD_IMAGE" utiliza una resolución de imagen inferior y "DOCUMENT_IMAGE" utiliza una imagen de mayor resolución.

        • Tipo: cadena

        • Valores permitidos: "STANDARD_IMAGE" | "DOCUMENT_IMAGE"

        • Predeterminado: "STANDARD_IMAGE"

      • format (Obligatorio)

        • Tipo: cadena

        • Valores permitidos: "png" | "jpeg" | "gif" | "webp"

      • source (Obligatorio): fuente de contenido de imagen.

        • Tipo: SourceObject (consulte la sección “Objetos comunes”)

    • audio (Opcional): representa el contenido de audio. Debe estar presente exactamente uno de texto, imagen, video o audio.

      • format (Obligatorio)

        • Tipo: cadena

        • Valores permitidos: "mp3" | "wav" | "ogg"

      • source (Obligatorio): fuente de contenido de audio.

        • Tipo: SourceObject (consulte la sección “Objetos comunes”)

        • Duración máxima de audio: 30 segundos

    • video (Opcional): representa el contenido de video. Debe estar presente exactamente uno de texto, imagen, video o audio.

      • format (Obligatorio)

        • Tipo: cadena

        • Valores permitidos: "mp4" | "mov" | "mkv" | "webm" | "flv" | "mpeg" | "mpg" | "wmv" | "3gp"

      • source (Obligatorio): fuente de contenido de video.

        • Tipo: SourceObject (consulte la sección “Objetos comunes”)

        • Duración máxima de video: 30 segundos

      • embeddingMode (Obligatorio)

        • Tipo: cadena

        • Valores: "AUDIO_VIDEO_COMBINED" | "AUDIO_VIDEO_SEPARATE"

          • "AUDIO_VIDEO_COMBINED": producirá una sola incrustación que combine contenido audible y visual.

          • "AUDIO_VIDEO_SEPARATE": producirá dos incrustaciones, una para el contenido audible y otra para el contenido visual.

Cuerpo de respuesta de InvokeModel

Cuando InvokeModel devuelva un resultado exitoso, el cuerpo de la respuesta tendrá la siguiente estructura:

{ "embeddings": [ { "embeddingType": "TEXT" | "IMAGE" | "VIDEO" | "AUDIO" | "AUDIO_VIDEO_COMBINED", "embedding": number[], "truncatedCharLength": int // Only included if text input was truncated } ] }

En la siguiente lista se incluyen todos los parámetros de la respuesta:

  • embeddings (Obligatorio): en la mayoría de las solicitudes, esta matriz contendrá una sola incrustación. En el caso de las solicitudes de video en las que se haya seleccionado el modo embeddingMode "AUDIO_VIDEO_SEPARATE", esta matriz contendrá dos incrustaciones: una incrustación para el contenido de video y otra para el contenido de audio.

    • Tipo: matriz de incrustaciones con las siguientes propiedades

      • embeddingType (Obligatorio): indica el tipo de incrustación que se creó.

        • Tipo: cadena

        • Valores permitidos: "TEXT" | "IMAGE" | "VIDEO" | "AUDIO" | "AUDIO_VIDEO_COMBINED"

      • embedding (Obligatorio): el vector de incrustación.

        • Tipo: número[]

      • truncatedCharLength (Opcional): solo se aplica a las solicitudes de incrustación de texto. Se devuelve si la versión tokenizada del texto de entrada supera las limitaciones del modelo. El valor indica el carácter después del cual se truncó el texto antes de generar la incrustación.

        • Tipo: int

Esquema asincrónico completo

Puede generar incrustaciones de forma asincrónica mediante las funciones de la API de Amazon Bedrock Runtime StartAsyncInvoke, GetAsyncInvoke y ListAsyncInvokes. Debe usar la API asincrónica si quiere usar Nova Embeddings para segmentar contenido extenso, como pasajes largos de texto o video y audio de más de 30 segundos.

Al llamar a StartAsyncInvoke, debe proporcionar los parámetros modelId, outputDataConfig y modelInput

response = bedrock_runtime.start_async_invoke( modelId="amazon.nova-2-multimodal-embeddings-v1:0", outputDataConfig=Data Config, modelInput=Model Input )

outputDataConfig especifica el bucket de S3 en el que desea guardar el resultado generado. Tiene la estructura siguiente:

{ "s3OutputDataConfig": { "s3Uri": "s3://your-s3-bucket" } }

s3Uri es el URI de S3 del bucket de destino. Para ver otros parámetros opcionales, consulte la documentación de StartAsyncInvoke.

Para el parámetro modelInput se utiliza la siguiente estructura.

{ "schemaVersion": "nova-multimodal-embed-v1", "taskType": "SEGMENTED_EMBEDDING", "segmentedEmbeddingParams": { "embeddingPurpose": "GENERIC_INDEX" | "GENERIC_RETRIEVAL" | "TEXT_RETRIEVAL" | "IMAGE_RETRIEVAL" | "VIDEO_RETRIEVAL" | "DOCUMENT_RETRIEVAL" | "AUDIO_RETRIEVAL" | "CLASSIFICATION" | "CLUSTERING", "embeddingDimension": 256 | 384 | 1024 | 3072, "text": { "truncationMode": "START" | "END" | "NONE", "value": string, "source": { "s3Location": { "uri": "s3://Your S3 Object" } }, "segmentationConfig": { "maxLengthChars": int } }, "image": { "format": "png" | "jpeg" | "gif" | "webp", "source": SourceObject, "detailLevel": "STANDARD_IMAGE" | "DOCUMENT_IMAGE" }, "audio": { "format": "mp3" | "wav" | "ogg", "source": SourceObject, "segmentationConfig": { "durationSeconds": int } }, "video": { "format": "mp4" | "mov" | "mkv" | "webm" | "flv" | "mpeg" | "mpg" | "wmv" | "3gp", "source": SourceObject, "embeddingMode": "AUDIO_VIDEO_COMBINED" | "AUDIO_VIDEO_SEPARATE", "segmentationConfig": { "durationSeconds": int } } } }

En la siguiente lista se incluyen todos los parámetros de la solicitud:

  • schemaVersion (Opcional): la versión del esquema de la solicitud de modelo de incrustación multimodal

    • Tipo: cadena

    • Valores permitidos: "nova-multimodal-embed-v1"

    • Predeterminado: "nova-multimodal-embed-v1"

  • taskType (Obligatorio): especifica el tipo de operación de incrustación que se debe realizar en el contenido de entrada. single_embedding se refiere a generar una incrustación por entrada de modelo. segmented_embedding se refiere a segmentar primero la entrada del modelo según la especificación del usuario y, a continuación, generar una única incrustación por segmento.

    • Tipo: cadena

    • Valores permitidos: debe ser "SEGMENTED_EMBEDDING" para las llamadas asincrónicas.

  • segmentedEmbeddingParams (Obligatorio)

    • embeddingPurpose (Obligatorio): Nova Multimodal Embeddings le permite optimizar sus incrustaciones en función de la aplicación prevista. Algunos ejemplos son el MM-RAG, la gestión de activos digitales para la búsqueda de imágenes y videos, la comparación de similitudes para el contenido multimodal o la clasificación de documentos para el procesamiento inteligente de documentos. embeddingPurpose permite especificar el caso de uso de la incrustación. Seleccione el valor correcto según el caso de uso que se indica a continuación.

      • Búsqueda y recuperación: los casos de uso de la incrustación, como la generación aumentada por recuperación (RAG) y la búsqueda, implican dos pasos principales: primero, crear un índice mediante la generación de incrustaciones para el contenido y, segundo, recuperar el contenido más relevante del índice durante la búsqueda. Utilice los siguientes valores cuando trabaje con casos de uso de búsqueda y recuperación:

        • Indexación:

          • "GENERIC_INDEX": crea incrustaciones optimizadas para su uso como índices en un almacén de datos vectoriales. Este valor debe usarse independientemente de la modalidad de indexación.

        • Búsqueda/recuperación: optimice sus incrustaciones en función del tipo de contenido que vaya a recuperar:

          • "TEXT_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de texto.

          • "IMAGE_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de imágenes creadas con el nivel de detalle "STANDARD_IMAGE".

          • "VIDEO_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de video o incrustaciones creadas con el modo de incrustación "AUDIO_VIDEO_COMBINED".

          • "DOCUMENT_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de imágenes de documentos creadas con el nivel de detalle "DOCUMENT_IMAGE".

          • "AUDIO_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de audio.

          • "GENERIC_RETRIEVAL": crea incrustaciones optimizadas para buscar en un repositorio que solo contenga incrustaciones de modalidad.

        • Ejemplo: en una aplicación de búsqueda de imágenes en la que los usuarios recuperan imágenes mediante consultas de texto, use el valor embeddingPurpose = generic_index al crear un índice de incrustación basado en las imágenes y embeddingPurpose = image_retrieval al crear una incrustación de la consulta utilizada para recuperar las imágenes.

      • "CLASSIFICATION": crea incrustaciones optimizadas para realizar la clasificación.

      • "CLUSTERING" crea incrustaciones optimizadas para la agrupación en clústeres.

    • embeddingDimension (Opcional): el tamaño del vector que se va a generar.

      • Tipo: int

      • Valores permitidos: 256 | 384 | 1024 | 3072

      • Predeterminado: 3072

    • text (Opcional): representa el contenido del texto. Debe estar presente exactamente uno de texto, imagen, video o audio.

      • truncationMode (Obligatorio): especifica qué parte del texto se truncará en los casos en que la versión tokenizada del texto supere el máximo admitido por el modelo.

        • Tipo: cadena

        • Valores permitidos:

          • "START": omite los caracteres del principio del texto cuando sea necesario.

          • "END": omite los caracteres del final del texto cuando sea necesario.

          • "NONE": se produce un error si la longitud del texto supera el límite máximo de token del modelo.

      • value (Opcional; se debe proporcionar el valor o la fuente): el valor de texto para el que se creará la incrustación.

        • Tipo: cadena

        • Longitud máxima: 8192 caracteres.

      • source (Opcional; se debe proporcionar el valor o la fuente): referencia a un archivo de texto almacenado en S3. Tenga en cuenta que la opción de bytes del SourceObject no se aplica a las entradas de texto. Para pasar texto en línea como parte de la solicitud, utilice el parámetro de valor en su lugar.

      • segmentationConfig (Obligatorio): controla cómo se debe segmentar el contenido del texto en varias incrustaciones.

        • maxLengthChars (Opcional): la longitud máxima que se permite en cada segmento. El modelo intentará segmentar solo en los límites de las palabras.

          • Tipo: int

          • Rango válido: 800-50,000

          • Predeterminado: 32 000

    • image (Opcional): representa el contenido de la imagen. Debe estar presente exactamente uno de texto, imagen, video o audio.

      • format (Obligatorio)

        • Tipo: cadena

        • Valores permitidos: "png" | "jpeg" | "gif" | "webp"

      • source (Obligatorio): fuente de contenido de imagen.

        • Tipo: SourceObject (consulte la sección “Objetos comunes”)

      • detailLevel (Opcional): establece la resolución a la que se procesará la imagen. Para interpretar mejor el texto, "STANDARD_IMAGE" utiliza una resolución de imagen inferior y "DOCUMENT_IMAGE" utiliza una imagen de mayor resolución.

        • Tipo: cadena

        • Valores permitidos: "STANDARD_IMAGE" | "DOCUMENT_IMAGE"

        • Predeterminado: "STANDARD_IMAGE"

    • audio (Opcional): representa el contenido de audio. Debe estar presente exactamente uno de texto, imagen, video o audio.

      • format (Obligatorio)

        • Tipo: cadena

        • Valores permitidos: "mp3" | "wav" | "ogg"

      • source (Obligatorio): fuente de contenido de audio.

        • Tipo: SourceObject (consulte la sección “Objetos comunes”)

      • segmentationConfig (Obligatorio): controla cómo se debe segmentar el contenido de audio en varias incrustaciones.

        • durationSeconds (Opcional): la duración máxima del audio (en segundos) que se utilizará en cada segmento.

          • Tipo: int

          • Rango válido: 1-30

          • Valor predeterminado: 5

    • video (Opcional): representa el contenido de video. Debe estar presente exactamente uno de texto, imagen, video o audio.

      • format (Obligatorio)

        • Tipo: cadena

        • Valores permitidos: "mp4" | "mov" | "mkv" | "webm" | "flv" | "mpeg" | "mpg" | "wmv" | "3gp"

      • source (Obligatorio): fuente de contenido de video.

        • Tipo: SourceObject (consulte la sección “Objetos comunes”)

      • embeddingMode (Obligatorio)

        • Tipo: cadena

        • Valores: "AUDIO_VIDEO_COMBINED" | "AUDIO_VIDEO_SEPARATE"

          • "AUDIO_VIDEO_COMBINED": producirá una incrustación única para cada segmento que combine contenido audible y visual.

          • "AUDIO_VIDEO_SEPARATE": producirá dos incrustaciones para cada segmento, una para el contenido audible y otra para el contenido visual.

      • segmentationConfig (Obligatorio): controla cómo se debe segmentar el contenido de video en varias incrustaciones.

        • durationSeconds (Opcional): la duración máxima del video (en segundos) que se utilizará en cada segmento.

          • Tipo: int

          • Rango válido: 1-30

          • Valor predeterminado: 5

Respuesta de StartAsyncInvoke

La respuesta de una llamada a StartAsyncInvoke tendrá la siguiente estructura. Se puede utilizar invocationArn para consultar el estado de la tarea asincrónica mediante la función GetAsyncInvoke.

{ "invocationArn": "arn:aws:bedrock:us-east-1:xxxxxxxxxxxx:async-invoke/lvmxrnjf5mo3", }

Salida asincrónica

Cuando finaliza la generación de incrustaciones asincrónicas, los artefactos de salida se escriben en el bucket de S3 que especificó como destino de salida. Los archivos tendrán la estructura siguiente:

amzn-s3-demo-bucket/ job-id/ segmented-embedding-result.json embedding-audio.jsonl embedding-image.json embedding-text.jsonl embedding-video.jsonl manifest.json

Los archivos segmented-embedding-result.json contendrán el resultado general de la tarea y una referencia a los archivos jsonl correspondientes, que contienen las incrustaciones reales por modalidad. A continuación, se muestra un ejemplo truncado de archivo:

{ "sourceFileUri": string, "embeddingDimension": 256 | 384 | 1024 | 3072, "embeddingResults": [ { "embeddingType": "TEXT" | "IMAGE" | "VIDEO" | "AUDIO" | "AUDIO_VIDEO_COMBINED", "status": "SUCCESS" | "FAILURE" | "PARTIAL_SUCCESS", "failureReason": string, // Granular error codes "message": string, // Human-readbale failure message "outputFileUri": string // S3 URI to a "embedding-modality.jsonl" file } ... ] }

Los archivos embedding-modality.json serán archivos jsonl los que contendrán el resultado de incrustación para cada modalidad. Cada línea del archivo jsonl seguirá el siguiente esquema:

{ "embedding": number[], // The generated embedding vector "segmentMetadata": { "segmentIndex": number, "segmentStartCharPosition": number, // Included for text only "segmentEndCharPosition": number, // Included for text only "truncatedCharLength": number, // Included only when text gets truncated "segmentStartSeconds": number, // Included for audio/video only "segmentEndSeconds": number // Included for audio/video only }, "status": "SUCCESS" | "FAILURE", "failureReason": string, // Granular error codes "message": string // Human-readable failure message }

En la siguiente lista se incluyen todos los parámetros de la respuesta. En el caso de los caracteres de texto o las horas de audio/video, todas las horas de inicio y finalización se basan en cero. Además, todas las posiciones finales del texto o los valores de tiempo de audio/video son inclusivos.

  • embedding (Obligatorio): el vector de incrustación.

    • Tipo: número

  • segmentMetadata: los metadatos del segmento.

    • segmentIndex: el índice del segmento dentro de la matriz proporcionada en la solicitud.

    • segmentStartCharPosition: solo para texto. La posición inicial (inclusiva) de los caracteres del contenido incrustado dentro del segmento.

    • segmentEndCharPosition: solo para texto. La posición final (exclusiva) de los caracteres del contenido incrustado dentro del segmento.

    • truncatedCharLength (Opcional): se devuelve si la versión tokenizada del texto de entrada supera las limitaciones del modelo. El valor indica el carácter después del cual se truncó el texto antes de generar la incrustación.

      • Tipo: número entero

    • segmentStartSeconds: solo para audio/video. La posición de la hora de inicio del contenido incrustado dentro del segmento.

    • segmentEndSeconds: solo para audio/video. La posición de la hora de finalización del contenido incrustado dentro del segmento.

  • status: el estado del segmento.

  • failureReason: los motivos detallados de la falla del segmento.

    • RAI_VIOLATION_INPUT_TEXT_DEFLECTION: el texto introducido infringe la política de la RAI.

    • RAI_VIOLATION_INPUT_IMAGE_DEFLECTION: la imagen introducida infringe la política de la RAI.

    • INVALID_CONTENT: entradas no válidas.

    • RATE_LIMIT_EXCEEDED: la solicitud de incrustación está limitada debido a la falta de disponibilidad del servicio.

    • INTERNAL_SERVER_EXCEPTION: algo salió mal.

  • message: mensaje de error relacionado.

Limitaciones de archivos para Nova Embeddings

Las operaciones sincrónicas pueden aceptar tanto entradas S3 como fragmentos en línea. Las operaciones asincrónicas solo pueden aceptar entradas S3.

Al generar incrustaciones de forma asincrónica, deberá asegurarse de que el archivo esté separado en una cantidad adecuada de segmentos. Las incrustaciones de texto no puede tener más de 1900 segmentos. Las incrustaciones de audio y video no puede tener más de 1434 segmentos.

Límites de tamaño de entradas sincrónicas

Tipo de archivo

Límite de tamaño

(En línea) Todos los tipos de archivos

25 MB

(S3) texto

1 MB; 50 000 caracteres

(S3) imagen

50 MB

(S3) video

30 segundos; 100 MB

(S3) audio

30 segundos; 100 MB

nota

La restricción de archivos en línea de 25 MB se produce después de la incrustación en Base64. Esto provoca una inflación del tamaño del archivo de aproximadamente un 33 %

Límites de tamaño de entradas asincrónicas

Tipo de archivo

Límite de tamaño

(S3) texto

634 MB

(S3) imagen

50 MB

(S3) video

2 GB; 2 horas

(S3) audio

1 GB; 2 horas

Tipos de archivo de entrada

Modalidad

Tipos de archivos

Formatos de imagen

PNG, JPEG, WEBP, GIF

Formatos de audio

MP3, WAV, OGG

Formatos de video

MP4, MOV, MKV, WebM, FLV, MPEG, MPG, WMV, 3GP