Luma AI 模型 - Amazon Bedrock

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

Luma AI 模型

此部分介绍 Luma AI 模型的请求参数和响应字段。使用此信息通过操作对 Luma AI 模型进行推理调用。StartAsyncInvoke此部分还包括 Python 代码示例,这些示例展示了如何调用 Luma AI 模型。要在推理操作中使用模型,您需要相关模型的模型 ID。

  • 模型 ID:luma.ray-v2:0

  • 模型名称:Luma Ray 2

  • 文本转视频模型

Luma AI 模型使用 Async 异步处理模型提示 StartAsyncInvoke, APIs 包括、GetAsyncInvoke和。ListAsyncInvokes

Luma AI 模型通过执行以下步骤来处理提示。

  • 用户使用提示模型StartAsyncInvoke

  • 等到 InvokeJob 完成。您可以使用 GetAsyncInvokeListAsyncInvokes 来检查作业完成状态。

  • 模型输出将置于指定的输出 Amazon S3 存储桶中。

有关将 Luma AI 模型与配合使用的更多信息 APIs,请参阅视频生成

Luma AI 推理调用。

POST /async-invoke HTTP/1.1 Content-type: application/json { "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "your input text here", "aspect_ratio": "16:9", "loop": false, "duration": "5s", "resolution": "720p" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

字段

  • prompt –(字符串)输出视频中所需的内容(长度为 1 到 5000 个字符)。

  • aspect_ratio –(枚举)输出视频的宽高比(“1:1”、“16:9”、“9:16”、“4:3”、“3:4”、“21:9”、“9:21”)。

  • loop –(布尔值)是否循环播放输出视频。

  • duration –(枚举)输出视频的时长(“5s”、“9s”)。

  • resolution –(枚举)输出视频的分辨率(“540p”、“720p”)。

该 MP4 文件将按照响应中的配置存储在 Amazon S3 存储桶中。

Text-to-Video 世代

使用 Luma Ray 2 模型根据文本提示生成视频。该模型支持各种自定义选项,包括宽高比、时长、分辨率和循环播放。

基本 Text-to-Video请求

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "an old lady laughing underwater, wearing a scuba diving suit" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

Text-to-Video带选项的进阶版

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "an old lady laughing underwater, wearing a scuba diving suit", "aspect_ratio": "16:9", "loop": true, "duration": "5s", "resolution": "720p" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

其他 Text-to-Video示例

包含 resolution 和 duration 参数的示例。

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "a car", "resolution": "720p", "duration": "5s" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

Image-to-Video 世代

通过提供关键帧,将静态图像转换为动态视频。您可以指定起始帧和/或结束帧来控制视频生成过程。

Image-to-Video带起始帧的基础版

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "A tiger walking in snow", "keyframes": { "frame0": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } } } }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

Image-to-Video 包括起始帧和结束帧

{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "A tiger walking in snow", "keyframes": { "frame0": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } }, "frame1": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } } }, "loop": false, "aspect_ratio": "16:9" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }

的附加参数 Image-to-Video

  • keyframes —(对象)定义开始(frame0) and/or 结束(frame1)关键帧

    • frame0 – 起始关键帧图像

    • frame1 – 结束关键帧图像

    • type – 必须是“image”

    • source – 图像来源

问题排查

使用 Luma AI 模型时遇到的常见问题及其解决方案:

  • 作业状态“失败”- 检查您的 S3 存储桶是否拥有适当的写入权限,且该存储桶与您的 Bedrock 服务位于同一区域。

  • 图片网址访问错误-确保图片 URLs 可公开访问并使用 HTTPS。图像必须为支持的格式(JPEG、PNG)。

  • 参数无效错误 - 验证宽高比数值是否与支持的选项(“1:1”、“16:9”、“9:16”、“4:3”、“3:4”、“21:9”、“9:21”)匹配,且时长为“5s”或“9s”。

  • 超时问题 - 使用 GetAsyncInvoke 检查作业状态,而不是同步等待。视频生成可能需要几分钟时间。

  • 提示长度错误 - 将提示保持在 1-5000 个字符之间。超过此长度的提示将被拒绝。

性能说明

关于 Luma AI 模型性能与限制的重要注意事项:

  • 处理时间 - 视频生成时间因内容复杂度而异,通常,5 秒视频需 2-5 分钟,9 秒视频需 4-8 分钟。

  • 图像要求 - 输入图像需具备高质量,最低分辨率为 512×512 像素。支持的最大图像尺寸为 4096×4096 像素。

  • 输出视频大小 - 生成的视频大小范围为 5-50 MB,具体取决于时长、分辨率及内容复杂度。

  • 速率限制 - 异步 API 调用受服务配额的限制。监控您的使用量,在需要时可请求提高配额。

  • S3 存储 - 确保有足够的 S3 存储容量用于存放输出视频,并考虑通过生命周期策略来优化成本。

相关文档

有关更多信息和相关服务: