

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Jobs von der EMR Studio-Konsole aus ausführen
<a name="jobs-studio"></a>

Sie können Jobausführungen an EMR Serverless-Anwendungen senden und über die EMR Studio-Konsole auf die Jobs zugreifen. Folgen Sie den Anweisungen unter [Erste Schritte](https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/getting-started.html#gs-console) von der Konsole aus, um Ihre EMR Serverless-Anwendung auf der EMR Studio-Konsole zu erstellen oder zu ihr zu navigieren. 

## Reichen Sie einen Job ein
<a name="studio-submit-job"></a>

Senden Sie auf der Seite **Job einreichen** wie folgt einen Job an eine EMR Serverless-Anwendung.

------
#### [ Spark ]

1. Geben Sie im Feld **Name** einen Namen für Ihre Jobausführung ein.

1. Geben Sie im Feld **Runtime-Rolle** den Namen der IAM-Rolle ein, die Ihre EMR Serverless-Anwendung für die Jobausführung annehmen kann. Weitere Informationen zu Runtime-Rollen finden Sie unter. [Job-Runtime-Rollen für Amazon EMR Serverless](security-iam-runtime-role.md)

1. Geben Sie im Feld **Skriptspeicherort** den Amazon S3 S3-Speicherort für das Skript oder die JAR ein, das Sie ausführen möchten. Für Spark-Jobs kann das Skript eine Python (`.py`) -Datei oder eine JAR (`.jar`) -Datei sein. 

1. Wenn es sich bei Ihrem Skriptspeicherort um eine JAR-Datei handelt, geben Sie den Klassennamen, der den Einstiegspunkt für den Job darstellt, in das Feld **Hauptklasse** ein.

1. (Optional) Geben Sie Werte für die verbleibenden Felder ein.
   + **Skriptargumente** — Geben Sie alle Argumente ein, die Sie an Ihr JAR- oder Python-Skript übergeben möchten. Ihr Code liest diese Parameter. Trennen Sie jedes Argument im Array durch ein Komma.
   + **Spark-Eigenschaften** — Erweitern Sie den Abschnitt Spark-Eigenschaften und geben Sie alle Spark-Konfigurationsparameter in dieses Feld ein.
**Anmerkung**  
Wenn Sie die Größe des Spark-Treibers und des Executors angeben, berücksichtigen Sie den Speicheraufwand. Geben Sie die Werte für den Speicheraufwand in den Eigenschaften `spark.driver.memoryOverhead` und an. `spark.executor.memoryOverhead` Der Speicher-Overhead hat einen Standardwert von 10% des Container-Speichers, mit einem Minimum von 384 MB. Der Executor-Speicher und der Speicher-Overhead zusammen dürfen den Arbeitsspeicher nicht überschreiten. Beispielsweise muss der Höchstwert `spark.executor.memory` für einen 30-GB-Worker 27 GB betragen. 
   + **Auftragskonfiguration** — Geben Sie in diesem Feld eine beliebige Jobkonfiguration an. Sie können diese Jobkonfigurationen verwenden, um die Standardkonfigurationen für Anwendungen zu überschreiben. 
   + **Zusätzliche Einstellungen** — Aktivieren oder deaktivieren Sie den AWS Glue-Datenkatalog als Metastore und ändern Sie die Einstellungen für das Anwendungsprotokoll. Weitere Informationen zu Metastore-Konfigurationen finden Sie unter. [Metastore-Konfiguration für EMR Serverless](metastore-config.md) Weitere Informationen zu den Optionen für die Anwendungsprotokollierung finden Sie [Speichern von Protokollen](logging.md) unter.
   + **Tags** — Weisen Sie der Anwendung benutzerdefinierte Tags zu.

1. Wählen Sie **Auftrag absenden**.

------
#### [ Hive ]

1. Geben Sie im Feld **Name** einen Namen für Ihre Jobausführung ein.

1. Geben Sie im Feld **Runtime-Rolle** den Namen der IAM-Rolle ein, die Ihre EMR Serverless-Anwendung für die Jobausführung annehmen kann.

1. Geben Sie im Feld **Skriptspeicherort** den Amazon S3 S3-Speicherort für das Skript oder die JAR ein, das Sie ausführen möchten. Für Hive-Jobs muss das Skript eine Hive (`.sql`) -Datei sein.

1. (Optional) Geben Sie Werte für die verbleibenden Felder ein.
   + **Speicherort für das Initialisierungsskript** — Geben Sie den Speicherort des Skripts ein, das Tabellen initialisiert, bevor das Hive-Skript ausgeführt wird.
   + **Hive-Eigenschaften** — Erweitern Sie den Bereich Hive-Eigenschaften und geben Sie alle Hive-Konfigurationsparameter in dieses Feld ein.
   + **Auftragskonfiguration** — Geben Sie eine beliebige Jobkonfiguration an. Sie können diese Jobkonfigurationen verwenden, um die Standardkonfigurationen für Anwendungen zu überschreiben. Für Hive-Jobs `hive.metastore.warehouse.dir` sind `hive.exec.scratchdir` diese Eigenschaften in der `hive-site` Konfiguration erforderlich.

     ```
     {
         "applicationConfiguration": [
             {
                 "classification": "hive-site",
                 "configurations": [],
                 "properties": {
                     "hive.exec.scratchdir": "s3://DOC-EXAMPLE_BUCKET/hive/scratch",
                     "hive.metastore.warehouse.dir": "s3://DOC-EXAMPLE_BUCKET/hive/warehouse"
                 }
             }
         ],
         "monitoringConfiguration": {}
     }
     ```
   + **Zusätzliche Einstellungen** — Aktivieren oder deaktivieren Sie den AWS Glue-Datenkatalog als Metastore und ändern Sie die Einstellungen für das Anwendungsprotokoll. Weitere Informationen zu Metastore-Konfigurationen finden Sie unter. [Metastore-Konfiguration für EMR Serverless](metastore-config.md) Weitere Informationen zu den Optionen für die Anwendungsprotokollierung finden Sie [Speichern von Protokollen](logging.md) unter.
   + **Tags** — Weisen Sie der Anwendung beliebige benutzerdefinierte Tags zu.

1. Wählen Sie **Auftrag absenden**.

------

## Der Access-Job wird ausgeführt
<a name="studio-view-jobs"></a>

Greifen Sie auf der **Detailseite** einer Anwendung über die Registerkarte **Auftragsausführungen** auf Jobausführungen zu und führen Sie die folgenden Aktionen für Jobausführungen durch.

**Job abbrechen** — Um einen Joblauf abzubrechen, der sich im `RUNNING` Status befindet, wählen Sie diese Option. Weitere Informationen zu Übergängen bei der Auftragsausführung finden Sie unter[Status von Aufgabenausführungen](job-states.md).

**Auftrag klonen** — Um eine vorherige Auftragsausführung zu klonen und erneut einzureichen, wählen Sie diese Option.