

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 从 EMR Studio 控制台运行作业
<a name="jobs-studio"></a>

您可以向 EMR Serverless 应用程序提交作业运行，从 EMR Studio 控制台访问作业。要在 EMR Studio 控制台上创建或导航到 EMR Serverless 应用程序，请按照[控制台入门](https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/getting-started.html#gs-console)中的说明操作。

## 提交作业
<a name="studio-submit-job"></a>

在**提交作业**页面上，按如下方式向 EMR Serverless 应用程序提交作业。

------
#### [ Spark ]

1. 在**名称**字段中，输入作业运行的名称。

1. 在**运行时角色**字段中，输入 EMR Serverless 应用程序在运行作业时可代入的 IAM 角色名称。要了解有关运行时角色的更多信息，请参阅 [Amazon EMR Serverless 的作业运行时角色](security-iam-runtime-role.md)。

1. 在**脚本位置**字段中，输入要运行的脚本或 JAR 的 Amazon S3 位置。对于 Spark 作业，脚本可以是 Python（`.py`）文件或 JAR（`.jar`）文件。

1. 如果脚本位置是 JAR 文件，请在**主类**字段中输入作为作业入口的类名。

1. （可选）输入其余字段的值。
   + **脚本参数**：输入要传递给主 JAR 或 Python 脚本的参数。您的代码会读取这些参数。用逗号分隔数组中的每个参数。
   + **Spark 属性**：展开 Spark 属性部分，在此字段中输入任何 Spark 配置参数。
**注意**  
如果指定 Spark 驱动程序和执行程序的大小，请考虑内存开销。在属性 `spark.driver.memoryOverhead` 和 `spark.executor.memoryOverhead` 中指定内存开销值。内存开销的默认值为容器内存的 10%，最小为 384MB。执行程序内存和内存开销之和不能超过工作线程内存。例如，30GB 工作线程的最大 `spark.executor.memory` 必须为 27GB。
   + **作业配置**：在此字段中指定任何作业配置。您可以使用这些作业配置覆盖应用程序的默认配置。以下示例说明如何覆盖 Spark 的默认设置，例如执行程序和驱动程序内存。

     ```
     {
         "applicationConfiguration": [
             {
                 "classification": "spark-defaults",
                 "configurations": [],
                 "properties": {
                     "spark.executor.memory": "8G",
                     "spark.driver.memory": "6G",
                     "spark.driver.cores": "2",
                     "spark.executor.cores": "4"
                 }
             }
         ]
     }
     ```
   + **其他设置**：激活或停用作为元存储的 AWS Glue Data Catalog，并修改应用程序日志设置。要了解有关元存储配置的更多信息，请参阅[EMR Serverless 的元存储配置](metastore-config.md)。要了解有关应用程序日志记录选项的更多信息，请参阅[存储日志](logging.md)。
   + **标签**：为应用程序分配自定义标签。

1. 选择**提交作业**。

------
#### [ Hive ]

1. 在**名称**字段中，输入作业运行的名称。

1. 在**运行时角色**字段中，输入 EMR Serverless 应用程序在运行作业时可代入的 IAM 角色名称。

1. 在**脚本位置**字段中，输入要运行的脚本或 JAR 的 Amazon S3 位置。对于 Hive 作业，脚本必须是 Hive（`.sql`）文件。

1. （可选）输入其余字段的值。
   + **初始化脚本位置**：输入在 Hive 脚本运行之前初始化表的脚本位置。
   + **Hive 属性**：展开 Hive 属性部分，在此字段中输入任何 Hive 配置参数。
   + **作业配置**：指定任何作业配置。您可以使用这些作业配置覆盖应用程序的默认配置。对于 Hive 作业，`hive.exec.scratchdir` 和 `hive.metastore.warehouse.dir` 是 `hive-site` 配置中的必需属性。

     ```
     {
         "applicationConfiguration": [
             {
                 "classification": "hive-site",
                 "configurations": [],
                 "properties": {
                     "hive.exec.scratchdir": "s3://DOC-EXAMPLE_BUCKET/hive/scratch",
                     "hive.metastore.warehouse.dir": "s3://DOC-EXAMPLE_BUCKET/hive/warehouse"
                 }
             }
         ],
         "monitoringConfiguration": {}
     }
     ```
   + **其他设置**-激活或停用 AWS Glue 数据目录作为元数据仓并修改应用程序日志设置。要了解有关元存储配置的更多信息，请参阅[EMR Serverless 的元存储配置](metastore-config.md)。要了解有关应用程序日志记录选项的更多信息，请参阅[存储日志](logging.md)。
   + **标签**：为应用程序分配任何自定义标签。

1. 选择**提交作业**。

------

## 访问作业运行
<a name="studio-view-jobs"></a>

在应用程序**详细信息**页面上的**作业运行**选项卡中，访问作业运行并对作业运行执行以下操作。

**取消作业**：要取消处于 `RUNNING` 状态的作业运行，请选择此选项。要了解有关作业运行转换的更多信息，请参阅[任务运行状态](job-states.md)。

**克隆作业**：要克隆之前的运行作业并重新提交，请选择此选项。