本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
Luma AI 模型
此部分介绍 Luma AI 模型的请求参数和响应字段。使用此信息通过操作对 Luma AI 模型进行推理调用。StartAsyncInvoke此部分还包括 Python 代码示例,这些示例展示了如何调用 Luma AI 模型。要在推理操作中使用模型,您需要相关模型的模型 ID。
-
模型 ID:luma.ray-v2:0
-
模型名称:Luma Ray 2
-
文本转视频模型
Luma AI 模型使用 Async 异步处理模型提示 StartAsyncInvoke, APIs 包括、GetAsyncInvoke和。ListAsyncInvokes
Luma AI 模型通过执行以下步骤来处理提示。
-
用户使用提示模型StartAsyncInvoke。
-
等到 InvokeJob 完成。您可以使用
GetAsyncInvoke或ListAsyncInvokes来检查作业完成状态。 -
模型输出将置于指定的输出 Amazon S3 存储桶中。
有关将 Luma AI 模型与配合使用的更多信息 APIs,请参阅视频生成
Luma AI 推理调用。
POST /async-invoke HTTP/1.1 Content-type: application/json { "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "your input text here", "aspect_ratio": "16:9", "loop": false, "duration": "5s", "resolution": "720p" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }
字段
-
prompt –(字符串)输出视频中所需的内容(长度为 1 到 5000 个字符)。
-
aspect_ratio –(枚举)输出视频的宽高比(“1:1”、“16:9”、“9:16”、“4:3”、“3:4”、“21:9”、“9:21”)。
-
loop –(布尔值)是否循环播放输出视频。
-
duration –(枚举)输出视频的时长(“5s”、“9s”)。
-
resolution –(枚举)输出视频的分辨率(“540p”、“720p”)。
该 MP4 文件将按照响应中的配置存储在 Amazon S3 存储桶中。
Text-to-Video 世代
使用 Luma Ray 2 模型根据文本提示生成视频。该模型支持各种自定义选项,包括宽高比、时长、分辨率和循环播放。
基本 Text-to-Video请求
{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "an old lady laughing underwater, wearing a scuba diving suit" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }
Text-to-Video带选项的进阶版
{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "an old lady laughing underwater, wearing a scuba diving suit", "aspect_ratio": "16:9", "loop": true, "duration": "5s", "resolution": "720p" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }
其他 Text-to-Video示例
包含 resolution 和 duration 参数的示例。
{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "a car", "resolution": "720p", "duration": "5s" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }
Image-to-Video 世代
通过提供关键帧,将静态图像转换为动态视频。您可以指定起始帧和/或结束帧来控制视频生成过程。
Image-to-Video带起始帧的基础版
{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "A tiger walking in snow", "keyframes": { "frame0": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } } } }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }
Image-to-Video 包括起始帧和结束帧
{ "modelId": "luma.ray-v2:0", "modelInput": { "prompt": "A tiger walking in snow", "keyframes": { "frame0": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } }, "frame1": { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "iVBORw0KGgoAAAANSUhEUgAAAAgAAAAIAQMAAAD+wSzIAAAABlBMVEX///+/v7+jQ3" } } }, "loop": false, "aspect_ratio": "16:9" }, "outputDataConfig": { "s3OutputDataConfig": { "s3Uri": "s3://your-bucket-name" } } }
的附加参数 Image-to-Video
-
keyframes —(对象)定义开始(frame0) and/or 结束(frame1)关键帧
-
frame0 – 起始关键帧图像
-
frame1 – 结束关键帧图像
-
type – 必须是“image”
-
source – 图像来源
-
问题排查
使用 Luma AI 模型时遇到的常见问题及其解决方案:
-
作业状态“失败”- 检查您的 S3 存储桶是否拥有适当的写入权限,且该存储桶与您的 Bedrock 服务位于同一区域。
-
图片网址访问错误-确保图片 URLs 可公开访问并使用 HTTPS。图像必须为支持的格式(JPEG、PNG)。
-
参数无效错误 - 验证宽高比数值是否与支持的选项(“1:1”、“16:9”、“9:16”、“4:3”、“3:4”、“21:9”、“9:21”)匹配,且时长为“5s”或“9s”。
-
超时问题 - 使用
GetAsyncInvoke检查作业状态,而不是同步等待。视频生成可能需要几分钟时间。 -
提示长度错误 - 将提示保持在 1-5000 个字符之间。超过此长度的提示将被拒绝。
性能说明
关于 Luma AI 模型性能与限制的重要注意事项:
-
处理时间 - 视频生成时间因内容复杂度而异,通常,5 秒视频需 2-5 分钟,9 秒视频需 4-8 分钟。
-
图像要求 - 输入图像需具备高质量,最低分辨率为 512×512 像素。支持的最大图像尺寸为 4096×4096 像素。
-
输出视频大小 - 生成的视频大小范围为 5-50 MB,具体取决于时长、分辨率及内容复杂度。
-
速率限制 - 异步 API 调用受服务配额的限制。监控您的使用量,在需要时可请求提高配额。
-
S3 存储 - 确保有足够的 S3 存储容量用于存放输出视频,并考虑通过生命周期策略来优化成本。
相关文档
有关更多信息和相关服务:
-
异步 API 操作-StartAsyncInvokeGetAsyncInvoke、和 ListAsyncInvokesAPI 参考。
-
服务配额 - Amazon Bedrock 的配额,用于 Bedrock 服务配额限制以及配额提高请求。
-
视频处理最佳实践 - 使用模型推理提交提示并生成响应,提供一般模型推理指导。
-
Luma AI 文档 – Luma Labs 视频生成文档
,详细介绍了模型功能及高级特性。