Luma AI 模型 - Amazon Bedrock

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Luma AI 模型

本节介绍了 Luma AI 模型的请求参数和响应字段。使用此信息通过操作对 Luma AI 模型进行推理调用。StartAsyncInvoke本节还包括演示如何调用 Luma AI 模型的 Python 代码示例。要在推理操作中使用模型,您需要相关模型的模型 ID。

  • 型号:luma.ray-v 2:0

  • 型号名称:Luma Ray 2

  • 文字转视频模型

Luma AI 模型使用 Async 异步处理模型提示 StartAsyncInvoke, APIs 包括、GetAsyncInvoke和。ListAsyncInvokes

Luma AI 模型使用以下步骤处理提示。

  • 用户使用提示模型StartAsyncInvoke

  • 等到 InvokeJob 完成。您可以使用GetAsyncInvokeListAsyncInvokes来检查任务完成状态。

  • 模型输出将放置在指定的输出 Amazon S3 存储桶中

有关将 Luma AI 模型与配合使用的更多信息 APIs,请参阅视频生成

Luma AI推理调用。

POST /async-invoke HTTP/1.1 Content-type: application/json { "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "your input text here", "aspect_ratio": "16:9", "loop": false, "duration": "5s", "resolution": "720p" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

字段

  • pro mpt —(字符串)输出视频中所需的内容(1 <= 长度 <= 5000 个字符)。

  • aspect_r atio —(枚举)输出视频的纵横比(” 1:1”、“16:9”、“9:16”、“4:3”、“3:4”、“21:9”、“9:21”)。

  • loop —(布尔值)是否循环播放输出视频。

  • 持续时间-(枚举)-输出视频的持续时间(“5s”,“9s”)。

  • 分辨率 —(枚举)输出视频的分辨率(“540p”、“720p”)。

该 MP4 文件将按照响应中的配置存储在 Amazon S3 存储桶中。

Text-to-Video 世代

使用 Luma Ray 2 模型根据文本提示生成视频。该模型支持各种自定义选项,包括纵横比、持续时间、分辨率和循环。

基本 Text-to-Video请求

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "an old lady laughing underwater, wearing a scuba diving suit" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

Text-to-Video带选项的高级版

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "an old lady laughing underwater, wearing a scuba diving suit", "aspect_ratio": "16:9", "loop": true, "duration": "5s", "resolution": "720p" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

其他 Text-to-Video示例

带有分辨率和持续时间参数的示例。

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "a car", "resolution": "720p", "duration": "5s" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

Image-to-Video 世代

通过提供关键帧将静态图像转换为动态视频。您可以指定起始帧和/或结束帧来控制视频生成过程。

Image-to-Video带起始帧的基础版

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "A tiger walking in snow", "keyframes": { "frame0": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } } } }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

Image-to-Video 包括起始帧和结束帧

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "A tiger walking in snow", "keyframes": { "frame0": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } }, "frame1": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } } }, "loop": false, "aspect_ratio": "16:9" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

的附加参数 Image-to-Video

  • keyframes —(对象)定义开始(frame0) and/or 结束(frame1)关键帧

    • frame0 — 起始关键帧图像

    • frame1 — 结束关键帧图像

    • 类型 — 必须是 “图片”

    • 来源-图像来源

故障排除

使用 Luma AI 模型时的常见问题和解决方案:

  • 任务状态 “失败”-检查您的 S3 存储桶是否具有适当的写入权限,并且该存储桶是否与您的 Bedrock 服务位于同一区域。

  • 图片网址访问错误-确保图片 URLs 可公开访问并使用 HTTPS。图片必须采用支持的格式(JPEG、PNG)。

  • 参数错误无效-验证纵横比值是否与支持的选项(“1:1”、“16:9”、“9:16”、“4:3”、“3:4”、“21:9”、“9:21”)相匹配且持续时间为 “5s” 或 “9s”。

  • 超时问题-GetAsyncInvoke 用于检查作业状态,而不是同步等待。视频生成可能需要几分钟。

  • 提示长度错误-将提示保持在 1-5000 个字符之间。较长的提示将被拒绝。

性能笔记

Luma AI 模型性能和限制的重要注意事项:

  • 处理时间-5 秒的视频生成通常需要 2-5 分钟,9 秒的视频通常需要 4-8 分钟,具体视复杂程度而定。

  • 图像要求-输入图像应为高质量图像,最低分辨率为 512x512 像素。支持的最大图像大小为 4096x4096 像素。

  • 输出视频大小-生成的视频范围为 5-50 MB,具体取决于时长、分辨率和内容复杂性。

  • 速率限制-异步 API 调用受服务配额的限制。监控您的使用情况,并在需要时申请增加配额。

  • S3 存储-确保有足够的 S3 存储容量用于输出视频,并考虑生命周期策略以优化成本。

相关文档

如需更多信息和相关服务,请执行以下操作: