Amazon Nova-Anpassung bei Amazon SageMaker HyperPod - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon Nova-Anpassung bei Amazon SageMaker HyperPod

Sie können Amazon Nova-Modelle, einschließlich der erweiterten Nova 2.0-Modelle, mithilfe von Amazon Nova-Rezepten anpassen und sie bei Amazon trainieren SageMaker HyperPod. Ein Rezept ist eine YAML-Konfigurationsdatei, die der SageMaker KI Einzelheiten zur Ausführung Ihrer Modellanpassung zur Verfügung stellt. Amazon SageMaker HyperPod unterstützt zwei Arten von Diensten: Forge und Non-Forge.

Amazon SageMaker HyperPod bietet Hochleistungsdatenverarbeitung mit optimierten GPU-Instances und Amazon FSx for Lustre-Speicher, robuste Überwachung durch Integration mit Tools wie TensorBoard flexiblem Checkpoint-Management für iterative Verbesserungen, nahtlose Bereitstellung auf Amazon Bedrock für Inferenz und effizientes, skalierbares verteiltes Training mit mehreren Knoten — alles zusammen bietet Unternehmen eine sichere, leistungsstarke und flexible Umgebung, in der sie Nova-Modelle an ihre spezifischen Geschäftsanforderungen anpassen können.

Die Amazon Nova-Anpassung auf Amazon SageMaker HyperPod speichert Modellartefakte, einschließlich Modell-Checkpoints, in einem serviceverwalteten Amazon S3 S3-Bucket. Artefakte im vom Service verwalteten Bucket werden mit SageMaker -verwalteten Schlüsseln verschlüsselt. AWS KMS Serviceverwaltete Amazon-S3-Buckets unterstützen derzeit keine Datenverschlüsselung mit kundenverwalteten KMS-Schlüsseln. Sie können diesen Checkpoint-Standort für Bewertungsjobs oder Amazon-Bedrock-Inferenz verwenden.

Standardpreise können für Compute-Instances, Amazon S3 S3-Speicher und FSx für Lustre gelten. Preisdetails finden Sie unter SageMaker HyperPodPreise, Amazon S3 S3-Preise und FSx Lustre-Preise.

Rechenanforderungen für Amazon Nova 1-Modelle

In den folgenden Tabellen sind die Rechenanforderungen für Nova SageMaker HyperPod 1.0-Modelle und die Ausbildung von SageMaker KI-Schulungsjobs zusammengefasst.

Vortraining

Modell

Länge der Reihenfolge

Knoten

Instance

Accelerator

Amazon Nova Micro

8,192

8

ml.p5.48xlarge

GPU H100

Amazon Nova Lite

8,192

16

ml.p5.48xlarge

GPU H100

Amazon Nova Pro

8,192

12

ml.p5.48xlarge

GPU H100

Direct Preference Optimization (DPO)

Modell

Länge der Reihenfolge

Anzahl der Knoten

Instance

Accelerator

Direct Preference Optimization (vollständig)

32.768

2, 4 oder 6

ml.p5.48xlarge

GPU H100

Direct Preference Optimization (LoRA)

32.768

2, 4 oder 6

ml.p5.48xlarge

GPU H100

Feinabstimmung

Modell

Technik

Länge der Reihenfolge

Anzahl der Knoten

Instance

Accelerator

Amazon Nova 1 Mikro

Überwachte Optimierung (LoRA)

65.536

2

ml.p5.48xlarge

GPU H100

Amazon Nova 1 Mikro

Überwachte Optimierung (vollständig)

65.536

2

ml.p5.48xlarge

GPU H100

Amazon Nova 1 Lite

Überwachte Feinabstimmung (LoRA)

32.768

4

ml.p5.48xlarge

GPU H100

Amazon Nova 1 Lite

Überwachte Optimierung (vollständig)

65.536

4

ml.p5.48xlarge

GPU H100

Amazon Nova 1 Pro

Überwachte Optimierung (LoRA)

65.536

6

ml.p5.48xlarge

GPU H100

Amazon Nova 1 Pro

Überwachte Optimierung (vollständig)

65.536

6

ml.p5.48xlarge

GPU H100

Destillation

Modell

Knoten

Instance

Modelldestillation nach dem Training

1

ml.r5.24xlarge

Bewertung

Modell

Länge der Reihenfolge

Knoten

Instance

Accelerator

Allgemeines Text-Benchmark-Rezept

8,192

1

ml.p5.48xlarge

GPU H100

Benchmark-Rezept mit eigenem Datensatz (gen_qa)

8,192

1

ml.p5.48xlarge

GPU H100

Rezept für Amazon Nova LLM-as-a-Judge

8,192

1

ml.p5.48xlarge

GPU H100

Standard-Text-Benchmarks

8,192

1

ml.p5.48xlarge

GPU H100

Benutzerdefinierte Datensatzbewertung

8,192

1

ml.p5.48xlarge

GPU H100

Multimodale Benchmarks

8,192

1

ml.p5.48xlarge

GPU H100

Proximal Policy Optimization

Modell

Anzahl der Instances im kritischen Modell

Anzahl der Instances im Belohnungsmodell

Anzahl der Instances im Ankermodell

Akteurtraining

Akteurgenerierung

Anzahl der Instances

Gesamtstunden pro Lauf

P5-Stunden

Instance-Typ

Amazon Nova Micro

1

1

1

2

2

7

8

56

ml.p5.48xlarge

Amazon Nova Lite

1

1

1

2

2

7

16

112

ml.p5.48xlarge

Amazon Nova Pro

1

1

1

6

2

11

26

260

ml.p5.48xlarge

Rechenanforderungen für Amazon Nova 2-Modelle

In den folgenden Tabellen sind die Rechenanforderungen für Nova 2-Modelle SageMaker HyperPod und die Ausbildung von SageMaker KI-Schulungsjobs zusammengefasst.

Nova 2-Schulungsanforderungen

Trainingstechnik

Minimale Anzahl von Instanzen

Instance-Typ

Anzahl der GPUs

Hinweise

SFT (LoRa)

4

P 5.48 x groß

16

Parametereffiziente Feinabstimmung

SFT (voller Rang)

4

P 5.48 x groß

32

Vollständige Feinabstimmung des Modells

RFT zu SageMaker KI-Ausbildungsberufen (LoRa)

2

P5.48 x groß

16

Benutzerdefinierte Belohnungsfunktionen in Ihrer Umgebung AWS

RFT zu SageMaker KI-Schulungsjobs (voller Rang)

4

P5.48 x groß

32

Länge des Kontextes von 32 KB

RFT aktiviert SageMaker HyperPod

8

P 5.48 x groß

64

Standardkontextlänge 8192

CPT

2

P 5.48 x groß

16

Verarbeitet ungefähr 1,25 Milliarden Token pro Tag