Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Stability.ai Stable Diffusion 3.5 Large
Il modello Stable Diffusion 3.5 Large utilizza 8 miliardi di parametri e supporta l'output con risoluzione di 1 megapixel per text-to-image la generazione e la generazione. image-to-image
Il corpo della richiesta viene passato nel body campo di una richiesta a. InvokeModel
Campo del corpo della richiesta di invocazione del modello
Quando effettui una InvokeModel chiamata utilizzando un modello Stable Diffusion 3.5 Large, riempi il campo body con un oggetto JSON simile al seguente.
Modello: risposte di invocazione, campo corporeo.
Quando si effettua una InvokeModel chiamata utilizzando un modello Stable Diffusion 3.5 Large, la risposta è la seguente
{
'seeds': [2130420379],
"finish_reasons":[null],
"images":["..."]
}
Una risposta con un motivo finale diverso da quello indicato di seguito avrà il seguente aspetto: null
{
"finish_reasons":["Filter reason: prompt"]
}
seeds — (string) Elenco di semi utilizzati per generare immagini per il modello.
-
finish_reasons — Enum che indica se la richiesta è stata filtrata o meno. nullindicherà che la richiesta è andata a buon fine. Valori attuali possibili:"Filter reason: prompt", "Filter reason: output image", "Filter reason: input image", "Inference error", null.
-
images: un elenco di immagini generate in formato stringa base64.
- Text to image
-
Il modello Stability.ai Stable Diffusion 3.5 Large ha i seguenti parametri di inferenza per una chiamata di inferenza. text-to-image
Parametri opzionali
-
aspect_ratio(stringa): controlla le proporzioni dell'immagine generata. Valido solo per text-to-image le richieste. Enum: 16:9, 1:1, 21:9, 2:3, 3:2, 4:5, 5:4, 9:16, 9:21. Predefinito 1:1.
-
mode(string) (GenerationMode) - Predefinito: text-to-image. Enum: image-to-image o text-to-image. Controlla se si tratta di una image-to-image generazione text-to-image o, il che influisce sui parametri richiesti:
-
text-to-image richiede solo il parametro prompt.
-
image-to-image richiede i parametri prompt, image e strength.
-
seed(numero) — Valore per controllare la casualità nella generazione. Intervallo da 0 a 4294967294. Impostazione predefinita 0 (seme casuale).
| Minimo |
Massimo |
Default |
| 0 |
4294967294 |
0 |
-
negative_prompt(stringa) — Testo che descrive gli elementi da escludere dall'immagine di output. Massimo 10.000 caratteri.
-
cfg_scale(numero): controlla l'aderenza al testo del prompt. Valori più alti aumentano la pronta aderenza. Intervallo da 1 a 10. Impostazione predefinita 4.
| Minimo |
Massimo |
Default |
| 1 |
10 |
4 |
-
style_preset(stringa) — Applica uno stile visivo specifico. Enum: modello 3D, film analogico, anime, cinema, fumetti, arte digitale, ritocco, arte fantasy, isometrico, line-art, low-poly, modelling-compound, neon-punk, origami, fotografia, pixel-art, tessitura a piastrelle.
-
output_format(stringa) — Formato dell'immagine di output. Enum: jpeg, png, webp. Png predefinito.
import boto3
import json
bedrock = boto3.client('bedrock-runtime', region_name='us-west-2')
response = bedrock.invoke_model(
modelId='us.stability.sd3-5-large-v1:0',
body=json.dumps({
'prompt': 'A car made out of vegetables.'
})
)
- Image to image
-
Il modello Stability.ai Stable Diffusion 3.5 Large ha i seguenti parametri di inferenza per una chiamata di image-to-image inferenza.
-
prompt(stringa) — Descrizione testuale dell'immagine di output desiderata. Massimo 10.000 caratteri.
-
image(stringa) — Immagine di input con codifica Base64. Minimo 64 pixel per lato. Formati supportati: jpeg, png, webp.
-
mode(string) (GenerationMode) - Predefinito:. text-to-image Enum: image-to-image o text-to-image. Controlla se si tratta di una image-to-image generazione text-to-image o, il che influisce sui parametri richiesti:
-
text-to-image richiede solo il parametro prompt.
-
image-to-image richiede i parametri prompt, image e strength.
-
strength(numero) — Controlla l'influenza dell'immagine in ingresso sull'output. Intervallo da 0 a 1. Il valore 0 preserva l'immagine di input, il valore 1 ignora l'immagine di input.
-
seed(numero) — Valore per controllare la casualità nella generazione. Intervallo da 0 a 4294967294. Impostazione predefinita 0 (seme casuale).
| Minimo |
Massimo |
Default |
| 0 |
4294967294 |
0 |
-
negative_prompt(stringa) — Testo che descrive gli elementi da escludere dall'immagine di output. Massimo 10.000 caratteri.
-
cfg_scale(numero): controlla l'aderenza al testo del prompt. Valori più alti aumentano la pronta aderenza. Intervallo da 1 a 10. Impostazione predefinita 4.
| Minimo |
Massimo |
Default |
| 1 |
10 |
4 |
-
style_preset(stringa) — Applica uno stile visivo specifico. Enum: modello 3D, film analogico, anime, cinema, fumetti, arte digitale, ritocco, arte fantasy, isometrico, line-art, low-poly, modelling-compound, neon-punk, origami, fotografia, pixel-art, tessitura a piastrelle.
-
output_format(stringa) — Formato dell'immagine di output. Enum: jpeg, png, webp. Png predefinito.
import boto3
import base64
import json
# Load and encode image
with open('input_image.jpg', 'rb') as image_file:
image_base64 = base64.b64encode(image_file.read()).decode('utf-8')
bedrock = boto3.client('bedrock-runtime', region_name='us-west-2')
response = bedrock.invoke_model(
modelId='us.stability.sd3-5-large-v1:0',
body=json.dumps({
'prompt': 'A car made out of vegetables.',
'image': image_base64,
'strength': 0.7
})
)