

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 通过集成和数据集连接到您的数据
<a name="connecting-to-data-examples"></a>

您可以将 Amazon Quick Sight 连接到不同类型的数据源。这包括驻留在 Software-as-a-Service (SaaS) 应用程序中的数据、存储在 Amazon S3 存储桶中的平面文件、来自 Salesforce 等第三方服务的数据，以及来自 Athena 的查询结果。使用以下示例了解有关连接到特定数据来源的要求的详细信息。

**Topics**
+ [使用 Amazon Athena 数据创建数据集](create-a-data-set-athena.md)
+ [将亚马逊 OpenSearch 服务与 Amazon Quick Sight 配合使用](connecting-to-os.md)
+ [使用 Amazon S3 文件创建数据集](create-a-data-set-s3.md)
+ [使用 Apache Spark 创建数据来源](create-a-data-source-spark.md)
+ [在 Quick Sight 中使用数据砖块](quicksight-databricks.md)
+ [使用 Google BigQuery 创建数据集](quicksight-google-big-query.md)
+ [使用 Google Sheets 数据来源创建数据集](create-a-dataset-google-sheets.md)
+ [使用 Apache Impala 数据来源创建数据集](create-a-dataset-impala.md)
+ [使用 Microsoft Excel 文件创建数据集](create-a-data-set-excel.md)
+ [使用 Presto 创建数据来源](create-a-data-source-presto.md)
+ [使用 Snowflake 搭配 Amazon Quick](connecting-to-snowflake.md)
+ [在 Amazon Quick Sight 中使用 Star](connecting-to-starburst.md)
+ [从 SaaS 源创建数据来源和数据集](connecting-to-saas-data-sources.md)
+ [从 Salesforce 创建数据集](create-a-data-set-salesforce.md)
+ [将 Trino 与 Amazon Quick Sigh](connecting-to-trino.md)
+ [使用本地文本文件创建数据集](create-a-data-set-file.md)
+ [在 Amazon Quick Sight 中使用亚马逊 Timestream 数据](using-data-from-timestream.md)

# 使用 Amazon Athena 数据创建数据集
<a name="create-a-data-set-athena"></a>

使用以下过程创建连接到 Amazon Athena 数据或 Athena 联合查询数据的新数据集。

**连接到 Amazon Athena**

1. 首先创建一个新数据集。从左侧的导航窗格中选择 “**数据**”。

1. 选择 “**创建**”，然后选择 “**新建数据集**”。

1. 

   1. 要使用现有 Athena 连接配置文件（常用），请选择要使用的现有数据源的卡片。选定**选择**。

      卡片标有 Athena 数据来源图标和创建该连接的人员提供的名称。

   1. 要创建新的 Athena 连接配置文件（不太常见），请使用以下步骤：

      1. 选择 “**新建数据源**”，然后选择 **Athena** 数据源卡。

      1. 选择**下一步**。

      1. 对于**数据来源名称**，输入描述性名称。

      1. 对于 **Athena 工作组**，选择工作组。

      1. 选择**验证连接**以测试连接。

      1. 选择**创建数据来源**。

      1. （可选）选择要作为查询运行的 IAM 角色 ARN。

1. 在**选择您的表**屏幕上，执行以下操作：

   1. 对于**目录**，请选择下列选项之一：
      + 如果您使用的是 Athena 联合查询，请选择要使用的目录。
      + 否则，请选择 **AwsDataCatalog**。

   1. 选择下列选项之一：
      + 要编写 SQL 查询，请选择**使用自定义 SQL**。
      + 要选择数据库和表，请从**目录**下的下拉菜单中选择包含数据库的目录。从**数据库**下的下拉菜单中选择数据库，然后从为数据库显示的**表**列表中选择一个表。

   如果您没有相应权限，则会收到以下错误消息：“You don't have sufficient permissions to connect to this dataset or run this query.” 请联系您的 Quick 管理员寻求帮助。有关更多信息，请参阅 [授权连接到 Amazon Athena](athena.md)。

1. 选择**编辑/预览数据**。

1. 选择**可视化**，使用表创建数据集并分析数据。有关更多信息，请参阅 [分析和报告：在 Amazon Quick Sight 中可视化数据](working-with-visuals.md)。

# 将亚马逊 OpenSearch 服务与 Amazon Quick Sight 配合使用
<a name="connecting-to-os"></a>

接下来，您可以了解如何使用 Amazon Quick Sight 连接到您的亚马逊 OpenSearch 服务数据。

## 为 OpenSearch 服务创建新的 Quick Sight 数据源连接
<a name="create-connection-to-es"></a>

接下来，你可以找到如何连接到 OpenSearch 服务

在继续操作之前，需要授权 Amazon Quick Sight 才能连接到亚马逊 OpenSearch 服务。如果未启用连接，则在尝试连接时会出现错误。Quick Sight 管理员可以授权 AWS 资源连接。

**授权 Quick Sight 启动与 OpenSearch 服务的连接**

1. 点击右上角的个人资料图标打开菜单，然后选择**快速管理**。如果您在个人资料菜单上看不到 “**快速管理**” 选项，请向 Amazon Quick 管理员寻求帮助。

1. 选择**安全和权限**、**添加或删除**。

1. 启用该选项**OpenSearch**。

1. 选择**更新**。

访问 OpenSearch 服务后，您可以创建一个数据源，以便人们可以使用指定的域。

**连接到 OpenSearch 服务**

1. 首先创建一个新数据集。从左侧导航窗格中选择**数据**，然后选择**创建**和**新建数据集**。

1. 选择**亚马逊 OpenSearch**数据源卡。

1. 例如`OpenSearch Service ML Data`，在**数据源名称**中，输入 OpenSearch 服务数据源连接的描述性名称。由于您可以通过与 S OpenSearch ervice 的连接创建许多数据集，因此最好使用简洁的名称。

1. 对于**连接类型**中，选择要使用的网络。这可以是基于 Amazon VPC 的虚拟私有云（VPC），也可以是公有网络。的列表 VPCs 包含 VPC 连接的名称，而不是 VPC IDs。这些名称由 Quick 管理员定义。

1. 对于**域**，选择要连接的 OpenSearch 服务域。

1. 选择 “**验证连接**” 以检查您是否可以成功连接到 OpenSearch 服务。

1. 选择**创建数据来源**以继续。

1. 对于**表**，选择要使用的表格，然后选择**选择**以继续。

1. 请执行以下操作之一：
   + 要将数据导入 Quick Sight 内存引擎（名为SPICE），请选择 “**导入到” SPICE 以加快分析速度**。有关如何启用 OpenSearch 数据导入功能的信息，请参见[授权连接到 Amazon 服务 OpenSearch](opensearch.md)。
   + 要允许 Quick Sight 在每次刷新数据集或使用分析或仪表板时对您的数据运行查询，请选择**直接查询您的数据**。

     要在使用 OpenSearch 服务数据的已发布仪表板上启用自动刷新， OpenSearch 服务数据集需要使用直接查询。

1. 选择**编辑/预览**，然后选择**保存**以保存数据集并将其关闭。

## 管理 OpenSearch 服务数据的权限
<a name="dataset-permissions-for-es"></a>

以下过程介绍如何查看、添加和撤消权限以允许访问同一 S OpenSearch ervice 数据源。您添加的用户必须是 Quick Sight 中的活跃用户，然后才能添加他们。

**编辑数据来源的权限**

1. 选择左侧的 “**数据**”，然后向下滚动以找到用于您的 Amazon OpenSearch 服务连接的数据源卡。以 `US Amazon OpenSearch Service Data` 为例。

1. 选择 **Amazon OpenSearch** 数据集。

1. 在打开的数据集详细信息页面上，选择**权限**选项卡。

   此时会显示当前权限。

1. 要添加权限，请选择**添加用户和组**，然后按照以下步骤操作：

   1. 添加用户或组以允许他们使用相同的数据集。

   1. 添加完要添加的所有人后，选择要应用于他们的**权限**。

1. （可选）要编辑权限，可以选择**查看者**或**拥有者**。
   + 选择**查看者**以允许读取权限。
   + 选择 “**所有者**” 以允许该用户编辑、共享或删除此 Quick Sight 数据集。

1. （可选）要撤销权限，请选择**撤销访问权限**。在您撤销某人的访问权限后，他们将无法使用此数据来源创建新的数据集。但是，他们现有的数据集仍然可以访问此数据来源。

1. 完成后，请选择 **Close**。

## 为 OpenSearch 服务添加新的 Quick Sight 数据集
<a name="create-dataset-using-es"></a>

在您拥有现有的 S OpenSearch ervice 数据源连接后，可以创建用于分析的 OpenSearch 服务数据集。

**使用 OpenSearch 服务创建数据集**

1. 在起始页面上，选择**数据**、**创建**、**新建数据集**。

1. 向下滚动到 OpenSearch 服务连接的数据源卡。如果您有许多数据来源，则可以使用页面顶部的搜索栏来查找名称部分匹配的数据来源。

1. 选择 A **mazon OpenSearch** 数据源卡，然后选择**创建数据集**。

1. 对于**表**，选择要使用的 OpenSearch 服务索引。

1. 选择**编辑/预览**。

1. 选择**保存**，以保存并关闭数据集。

## 向分析中添加 OpenSearch 服务数据
<a name="open-analysis-add-dataset-for-es"></a>

获得 OpenSearch 服务数据集后，可以将其添加到 Quick Sight 分析中。在开始之前，请确保您的现有数据集包含要使用的 OpenSearch 服务数据。

**向分析中添加 OpenSearch 服务数据**

1. 选择左侧的**分析**。

1. 请执行以下操作之一：
   + 要创建新分析，请选择右侧的**新分析**。
   + 要添加到现有分析，请打开要编辑的分析。
     + 选择左上角附近的铅笔图标。
     + 选择**添加数据集**。

1. 选择要添加的 OpenSearch 服务数据集。

   有关在可视化中使用 OpenSearch 服务的信息，请参阅[使用 OpenSearch 服务的限制](#limitations-for-es)。

1. 有关更多信息，请参阅 [Working with analyses](https://docs.aws.amazon.com/quicksight/latest/user/working-with-analyses.html)。

## 使用 OpenSearch 服务的限制
<a name="limitations-for-es"></a>

以下限制适用于使用 OpenSearch 服务数据集：
+ OpenSearch 服务数据集支持视觉类型、排序选项和筛选选项的子集。
+ 要在使用 OpenSearch 服务数据的已发布仪表板上启用自动刷新， OpenSearch 服务数据集需要使用直接查询。
+ 不支持多个子查询操作。为避免在可视化过程中出现错误，请勿将多个字段添加到字段井，每个可视化使用一到两个字段，并避免使用**颜色**字段井。
+ 不支持自定义 SQL。
+ 不支持跨数据集联接和自联接。
+ 不支持计算字段。
+ 不支持文本字段。
+ 不支持“其他”类别。如果您将 OpenSearch 服务数据集与支持 “其他” 类别的可视化项一起使用，请使用视觉对象上的菜单禁用 “其他” 类别。

# 使用 Amazon S3 文件创建数据集
<a name="create-a-data-set-s3"></a>

要使用来自 Amazon S3 的一个或多个文本文件（.csv、.tsv、.clf 或.elf）创建数据集，请为 Quick Sight 创建清单。Quick Sight 使用此清单来识别您要使用的文件以及导入这些文件所需的上传设置。使用 Amazon S3 创建数据集时，文件数据会自动导入 [SPICE](spice.md) 中。

您必须授予 Quick Sight 访问您想要从中读取文件的任何 Amazon S3 存储桶的权限。有关授予 Quick Sight AWS 资源访问权限的信息，请参阅[配置 Amazon Quick Sight 对 AWS 数据源的访问权限](access-to-aws-resources.md)。

**Topics**
+ [支持的 Amazon S3 清单文件格式](supported-manifest-file-format.md)
+ [创建 Amazon S3 数据集](create-a-data-set-s3-procedure.md)
+ [使用其他 AWS 账户中的 S3 文件的数据集](using-s3-files-in-another-aws-account.md)

# 支持的 Amazon S3 清单文件格式
<a name="supported-manifest-file-format"></a>

您可以使用 JSON 清单文件在 Amazon S3 中指定要导入到 Quick Sight 中的文件。这些 JSON 清单文件可以使用下述快速浏览格式，也可以使用亚马逊 Redshift 数据库开发者指南中[使用清单指定数据文件](https://docs.aws.amazon.com/redshift/latest/dg/loading-data-files-using-manifest.html)中描述的 *Amazon Redshift* 格式。您无需使用 Amazon Redshift 就能使用 Amazon Redshift 清单文件格式。

例如`my_manifest.json`，如果您使用 Quick Sight 清单文件，则其扩展名必须为.json。如果使用 Amazon Redshift 清单文件，则可以使用任何扩展名。

如果你使用亚马逊 Redshift 清单文件，Quick Sight 会像亚马逊 Redshift 一样处理可选`mandatory`选项。如果找不到关联的文件，Quick Sight 将结束导入过程并返回错误。

您选择导入的文件必须是分隔的文本（例如 .csv 或 .tsv）、日志 (.clf)、扩展日志 (.elf) 格式或 JSON (.json)。一个清单文件中标识的所有文件都必须使用相同的文件格式。另外，所有文件必须具有相同数量和类型的列。Quick Sight 支持 UTF-8 文件编码，但不支持带字节顺序标记 (BOM) 的 UTF-8。如果您要导入 JSON 文件，则对于 `globalUploadSettings`，请指定 `format`，而不是 `delimiter`、`textqualifier` 和 `containsHeader`。

确保您指定的任何文件都位于您已授予 Quick Sight 访问权限的 Amazon S3 存储桶中。有关授予 Quick Sight AWS 资源访问权限的信息，请参阅[配置 Amazon Quick Sight 对 AWS 数据源的访问权限](access-to-aws-resources.md)。

## Quick Sight 的清单文件格式
<a name="quicksight-manifest-file-format"></a>

Quick Sight 清单文件使用以下 JSON 格式。

```
{
    "fileLocations": [
        {
            "URIs": [
                "uri1",
                "uri2",
                "uri3"
            ]
        },
        {
            "URIPrefixes": [
                "prefix1",
                "prefix2",
                "prefix3"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "JSON",
        "delimiter": ",",
        "textqualifier": "'",
        "containsHeader": "true"
    }
}
```

使用 `fileLocations` 元素中的字段可指定要导入的文件，使用 `globalUploadSettings` 元素中的字段可指定这些文件的导入设置，如字段分隔符。

清单文件元素如下所述：
+ **fileLocations** – 可以使用该元素指定要导入的文件。您可以使用 `URIs` 和/或 `URIPrefixes` 数组来执行该操作。您必须在其中任意一项中至少指定一个值。
  + **URIs**— 使用此数组列 URIs出要导入的特定文件。

    Quick Sight 可以访问任何文件中的 Amazon S3 文件 AWS 区域。但是，如果与 Quick 账户使用的 AWS 区域不同，则必须使用标识 Amazon S3 存储桶区域的 URI 格式。

    URIs 支持以下格式。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_cn/quick/latest/userguide/supported-manifest-file-format.html)
  + **URIPrefixes**— 使用此数组列出 S3 存储桶和文件夹的 URI 前缀。将导入指定的存储桶或文件夹中的所有文件。Quick Sight 以递归方式从子文件夹中检索文件。

    Quick Sight 可以访问任何 AWS 区域存储桶中的 Amazon S3 存储桶或文件夹。 AWS 区域 如果 S3 存储桶与 Quick 账户使用的格式不同，请务必使用标识 S3 存储桶的 URI 前缀格式。

    支持以下格式的 URI 前缀。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_cn/quick/latest/userguide/supported-manifest-file-format.html)
+ **globalUploadSettings**—（可选）使用此元素指定 Amazon S3 文件的导入设置，例如字段分隔符。如果未指定此元素，Quick Sight 将使用本节中字段的默认值。
**重要**  
对于日志 (.clf) 和扩展日志 (.elf) 文件，只有这部分中的 **format** 字段适用，因此，您可以跳过其他字段。如果选择包括它们，其值将被忽略。
  + **format** –（可选）指定要导入的文件的格式。有效的格式为 **CSV**、**TSV**、**CLF**、**ELF** 和 **JSON**。默认值为 **CSV**。
  + **delimiter** –（可选）指定文件字段分隔符。必须映射到 `format` 字段中指定的文件类型。有效的格式为用于 .csv 文件的逗号 (**,**) 和用于 .tsv 文件的制表符 (**\$1t**)。默认值为逗号 (**,**)。
  + **textqualifier** –（可选）指定文件文本限定符。有效格式为单引号 (**'**)、双引号 (**\$1"**)。开头的反斜线是 JSON 中的双引号必须使用的转义字符。默认值为双引号 (**\$1"**)。如果您的文本不需要文本限定符，则不要包含此属性。
  + **containsHeader** –（可选）指定文件是否具有标题行。有效的格式为 **true** 或 **false**。默认值为 **true**。

### Quick Sight 的清单文件示例
<a name="quicksight-manifest-file-examples"></a>

以下是已完成的 Quick Sight 清单文件的一些示例。

以下示例显示一个清单文件，它指定两个要导入的特定 .csv 文件。这些文件对文本限定符使用双引号。默认值是可接受的，因此，跳过 `format`、`delimiter` 和 `containsHeader` 字段。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://yourBucket.s3.amazonaws.com/data-file.csv",
                "https://yourBucket.s3.amazonaws.com/data-file-2.csv"
            ]
        }
    ],
    "globalUploadSettings": {
        "textqualifier": "\""
    }
}
```

以下示例显示一个清单文件，它指定一个要导入的特定 .tsv 文件。该文件还包含其他 AWS 区域中的存储桶，其中包含要导入的其他 .tsv 文件。默认值是可接受的，因此跳过 `textqualifier` 和 `containsHeader` 字段。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://s3.amazonaws.com/amzn-s3-demo-bucket/data.tsv"
            ]
        },
        {
            "URIPrefixes": [
                "https://s3-us-east-1.amazonaws.com/amzn-s3-demo-bucket/"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "TSV",
        "delimiter": "\t"
    }
}
```

以下示例指定两个包含要导入的 .clf 文件的存储桶。一个与 Quick 账户 AWS 区域 相同，另一个在不同账户中 AWS 区域。`delimiter`、`textqualifier` 和 `containsHeader` 字段不适用于日志文件，因此跳过这些字段。

```
{
    "fileLocations": [
        {
            "URIPrefixes": [
                "https://amzn-s3-demo-bucket1.your-s3-url.com",
                "s3://amzn-s3-demo-bucket2/"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "CLF"
    }
}
```

以下示例使用 Amazon Redshift 格式指定要导入的 .csv 文件。

```
{
    "entries": [
        {
            "url": "https://amzn-s3-demo-bucket.your-s3-url.com/myalias-test/file-to-import.csv",
            "mandatory": true
        }
    ]
}
```

以下示例使用 Amazon Redshift 格式指定两个要导入的 JSON 文件。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://yourBucket.s3.amazonaws.com/data-file.json",
                "https://yourBucket.s3.amazonaws.com/data-file-2.json"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "JSON"
    }
}
```

# 创建 Amazon S3 数据集
<a name="create-a-data-set-s3-procedure"></a>

**创建 Amazon S3 数据集**

1. 选中 [数据来源限额](data-source-limits.md) 以确保目标文件设置未超出数据来源限制。

1. 使用 [支持的 Amazon S3 清单文件格式](supported-manifest-file-format.md)中指定的格式之一创建清单文件，以确定要导入的文本文件。

1. 将清单文件保存到本地目录中，或者将其上传到 Amazon S3 中。

1. 在快速入门页面上，选择**数据**。

1. 在**数据**页面上，选择**创建**，然后选择**新数据集**。

1. 选择 Amazon S3 图标，然后选择**下一步**。

1. 对于**数据来源名称**，输入数据来源的描述。这应该是帮助将该数据来源与其他数据来源区分开来的名称。

1. 对于 **Upload a manifest file**，请执行以下操作之一：
   + 要使用本地清单文件，请选择 **Upload**，然后选择 **Upload a JSON manifest file**。对于 **Open**，请选择一个文件，然后选择 **Open**。
   + 要使用 Amazon S3 中的清单文件，请选择 **URL**，然后输入该清单文件的 URL。要在 Amazon S3 控制台中查找预先存在的清单文件的 URL，请导航到并选择相应的文件。随即显示属性面板，包括链接 URL。您可以复制 URL 并将其粘贴到 Quick Sight 中。

1. 选择**连接**。

1. 要确保已完成连接，请选择 **Edit/Preview data**。否则，选择 **Visualize** 以原样使用数据创建分析。

   如果选择**编辑/预览数据**，您可以在准备数据过程中指定数据集名称。否则，数据集名称与将与清单文件名称匹配。

   要了解数据准备的更多信息，请参阅[使用 Amazon Quick Sight 准备数据](preparing-data.md)。

## 基于多个 Amazon S3 文件创建数据集
<a name="data-sets-based-on-multiple-s3-files"></a>

您可以使用以下几种方法之一在 Quick Sight 中合并或合并来自 Amazon S3 存储桶的文件：
+ **使用清单组合文件** – 在这种情况下，这些文件必须具有相同数量的字段（列）。文件的相同位置中的字段必须具有匹配的数据类型。例如，每个文件中的第一个字段必须具有相同的数据类型。第二个字段、第三个字段以及后续字段也是如此。Quick Sight 从第一个文件中获取字段名称。

  必须在清单中明确列出这些文件。但是，它们不必位于同一个 Amazon S3 存储桶内。

  此外，这些文件还必须遵循[支持的 Amazon S3 清单文件格式](supported-manifest-file-format.md)中所述的规则。

  有关使用清单组合文件的更多详细信息，请参阅[使用 Amazon S3 文件创建数据集](create-a-data-set-s3.md)。
+ **不使用清单合并文件** – 要将多个文件合并为一个文件而不必在清单中单独列出这些文件，您可以使用 Athena。在使用这种方法时，您只需查询您的文本文件，就像它们位于数据库的表中一样。有关更多信息，请参阅大数据博客中的 [Analyzing data in Amazon S3 using Athena](https://aws.amazon.com/blogs/big-data/analyzing-data-in-s3-using-amazon-athena/)。
+ **在导入之前使用脚本附加文件** – 在上传之前，您可以使用用于组合文件的脚本。

# 使用其他 AWS 账户中的 S3 文件的数据集
<a name="using-s3-files-in-another-aws-account"></a>

使用本节学习如何设置安全性，以便您可以使用 Quick Sight 访问其他 AWS 账户中的 Amazon S3 文件。

为了让您能够访问其他账户中的文件，该账户的所有者必须先设置 Amazon S3，以便为您授予读取该文件的权限。然后，在 Quick Sight 中，您必须设置对与您共享的存储桶的访问权限。在这两个步骤完成后，您可以使用清单来创建数据集。

**注意**  
 要访问与公众共享的文件，您不需要设置任何特殊安全性。但是，您仍然需要清单文件。

**Topics**
+ [将 Amazon S3 设置为允许从其他 Quick 账户进行访问](#setup-S3-to-allow-access-from-a-different-quicksight-account)
+ [设置 Quick Sight 以访问其他 AWS 账户中的 Amazon S3 文件](#setup-quicksight-to-access-S3-in-a-different-account)

## 将 Amazon S3 设置为允许从其他 Quick 账户进行访问
<a name="setup-S3-to-allow-access-from-a-different-quicksight-account"></a>

使用本节来学习如何在 Amazon S3 文件中设置权限，这样 Quick Sight 就可以通过其他 AWS 账户访问这些文件。

有关从您的 Quick Sight 账户访问其他账户的 Amazon S3 文件的信息，请参阅[设置 Quick Sight 以访问其他 AWS 账户中的 Amazon S3 文件](#setup-quicksight-to-access-S3-in-a-different-account)。有关 S3 权限的更多信息，请参阅[管理对 Amazon S3 资源的访问权限](https://docs.aws.amazon.com/AmazonS3/latest/dev/s3-access-control.html)和[如何在对象上设置权限？](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/set-object-permissions.html)

您可以使用以下过程，从 S3 控制台设置此访问权限。或者，您可以使用 AWS CLI 或通过编写脚本来授予权限。如果您有大量要共享的文件，则可以改为在 `s3:GetObject` 操作上创建 S3 存储桶策略。要使用存储桶策略，请将其添加到存储桶权限，而不是文件权限。有关存储桶策略的信息，请参阅《Amazon S3 开发人员指南》[https://docs.aws.amazon.com/AmazonS3/latest/dev/example-bucket-policies.html](https://docs.aws.amazon.com/AmazonS3/latest/dev/example-bucket-policies.html)中的*桶策略示例。*

**从 S3 控制台设置来自其他 Quick 账户的访问权限**

1. 获取您要与之共享的 AWS 账户电子邮件的电子邮件地址。或者，您可以获取并使用规范用户 ID。有关规范用户的更多信息 IDs，请参阅*AWS 一般*参考中的[AWS 账户标识符](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html)。

1. 登录 AWS 管理控制台 并打开 Amazon S3 控制台，网址为[https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)。

1. 找到您要与 Quick Sight 共享的 Amazon S3 存储桶。选择**权限**。

1. 选择 “**添加帐户**”，然后输入要与之共享的 AWS 帐户的电子邮件地址或粘贴规范用户 ID。该电子邮件地址应该是 AWS 账户的主要电子邮件地址。

1. 对于**读取存储桶权限**和**列出对象**，两者都选择**是**。

   选择 **Save** 以确认。

1. 找到要共享的文件，然后打开该文件的权限设置。

1. 输入您要与之共享的 AWS 账户的电子邮件地址或规范用户 ID。该电子邮件地址应该是该 AWS 账户的主电子邮件地址。

1. 为 Quick Sight 需要访问的每个文件启用**读取对象**权限。

1. 通知 Quick 用户这些文件现已可供使用。

## 设置 Quick Sight 以访问其他 AWS 账户中的 Amazon S3 文件
<a name="setup-quicksight-to-access-S3-in-a-different-account"></a>

使用本节学习如何设置 Quick Sight，这样您就可以在其他 AWS 账户中访问 Amazon S3 文件。有关允许其他人从其 Quick 账户访问您的 Amazon S3 文件的信息，请参阅[将 Amazon S3 设置为允许从其他 Quick 账户进行访问](#setup-S3-to-allow-access-from-a-different-quicksight-account)。

使用以下步骤从 Quick Sight 访问其他账户的 Amazon S3 文件。其他 AWS 账户中的用户必须与您共享其 Amazon S3 存储桶中的文件，然后才能使用此过程。

**通过 Quick Sight 访问其他账户的 Amazon S3 文件**

1. 验证其他 AWS 账户中的一个或多个用户是否向您的账户授予了对相关 S3 存储桶的读写权限。

1. 选择您的个人资料图标，然后选择 “**管理 Quick Sight**”。

1. 选择 **Security & permissions (安全性和权限)**。

1. 在 **Quick Sight 访问 AWS 服务**下，选择**管理**。

1. 选择**选择 S3 存储桶**。

1. 在**选择 Amazon S3 存储桶**屏幕上，选择**可在 AWS中访问的 S3 存储桶**选项卡。

   默认选项卡名为**关联到 Quick Sight 账户的 S3 存储桶**。它显示了您的 Quick 账户有权访问的所有存储桶。

1. 请执行以下操作之一：
   + 要添加您有权使用的所有存储桶，请选择**从其他 ** 账户选择可访问的存储桶 AWS 。
   + 如果您要添加一个或多个 Amazon S3 存储桶，请输入其名称。它必须精确匹配该 Amazon S3 存储桶的唯一名称。

     如果您没有适当的权限，则会看到错误消息“We can't connect to this S3 bucket. 确保您指定的任何 S3 存储桶都与用于创建此 Quick AWS 账户的账户相关联。” 如果您既没有帐户权限也没有 Quick Sight 权限，则会显示此错误消息。
**注意**  
要使用亚马逊 Athena，Quick Sight 需要访问雅典娜使用的亚马逊 S3 存储桶。  
您可以将它们逐一添加到此处，也可以使用 “**从其他 AWS 账户中选择可访问的存储桶**” 选项。

1. 选择 **Select buckets** 以确认您的选择。

1. 根据 Amazon S3 创建新的数据集，并上传您的清单文件。有关 Amazon S3 数据集的更多信息，请参阅 [使用 Amazon S3 文件创建数据集](create-a-data-set-s3.md)。

# 使用 Apache Spark 创建数据来源
<a name="create-a-data-source-spark"></a>

你可以使用 Quick Sight 直接连接到 Apache Spark，也可以通过 Spark SQL 连接到 Spark。使用查询结果或直接链接到表或视图，您可以在 Quick Sight 中创建数据源。您可以通过 Spark 直接查询数据，也可以将查询结果导入 [SPICE](spice.md)。

在将 Quick Sight 与 Spark 产品配合使用之前，必须为 Quick Sight 配置 Spark。

Quick Sight 要求您的 Spark 服务器使用 LDAP 进行保护和身份验证，该版本适用于 Spark 2.0 或更高版本。如果 Spark 配置为允许未经身份验证的访问，Quick Sight 会拒绝与服务器的连接。要将 Quick Sight 用作 Spark 客户端，必须将 LDAP 身份验证配置为与 Spark 配合使用。

Spark 文档包含有关如何进行此设置的信息。首先，您需要对其进行配置，以启用通过 HTTPS 进行的前端 LDAP 身份验证。有关 Spark 的一般信息，请参阅 [Apache Spark 网站](http://spark.apache.org/)。有关 Spark 和安全性的专门信息，请参阅 [Spark 安全文档](http://spark.apache.org/docs/latest/security.html)。

要确保已将服务器配置为 Quick Sight 访问权限，请按照中的说明进行操作[网络和数据库配置要求](configure-access.md)。

# 在 Quick Sight 中使用数据砖块
<a name="quicksight-databricks"></a>

使用本节学习如何从 Quick Sight 连接到 Databricks。

**连接到 Databricks**

1. 首先创建一个新数据集。从左侧的导航窗格中选择 “**数据**”。

1. 选择**创建**，然后选择**新数据集**。

1. 选择 **Databricks** 数据来源卡片。

1. 对于**数据来源名称**，为 Databricks 数据来源连接输入描述性名称，例如 `Databricks CS`。您可以通过与 Databricks 的连接创建许多数据集，因此最好使用简洁的名称。

1. 对于**连接类型**，选择您正在使用的网络类型。
   + **公有网络** – 如果您的数据是公开共享的。
   + **VPC** – 如果您的数据位于 VPC 内。
**注意**  
如果您使用的是 VPC，但其未列出，请咨询管理员。

1.  对于**数据库服务器**，输入在 Databricks 连接详细信息中指定的**工作区的主机名**。

1.  对于 **HTTP 路径**，输入在 Databricks 连接详细信息中指定的 **spark 实例的部分 URL**。

1.  对于**端口**，输入在 Databricks 连接详细信息中指定的**端口**。

1.  对于**用户名**和**密码**，输入您的连接凭证。

1.  要验证连接是否正常，请单击**验证连接**。

1.  要完成并创建数据来源，请单击**创建数据来源**。

## 为 Databricks 添加新的 Quick Sight 数据集
<a name="quicksight-databricks-create-dataset"></a>

拥有 Databricks 数据的现有数据来源连接后，您可以创建 Databricks 数据集以用于分析。

**使用 Databricks 创建数据集**

1. 选择左侧的 “**数据**”，然后向下滚动以查找 Databricks 连接的数据源卡。如果您有许多数据来源，则可以使用页面顶部的搜索栏来查找名称部分匹配的数据来源。

1. 选择 **Databricks** 数据来源卡片，然后选择**创建数据集**。

1. 要指定要连接的表，请先选择要使用的“目录”和“架构”。然后对于**表**，选择要使用的表。如果您更想使用自己的 SQL 语句，请选择**使用自定义 SQL**。

1. 选择**编辑/预览**。

1. （可选）要添加更多数据，请按以下步骤进行操作：

   1. 选择右上角的**添加数据**。

   1. 要连接到不同的数据，请选择**切换数据来源**，然后选择不同的数据集。

   1. 按照 UI 提示完成数据添加。

   1. 将新数据添加到同一数据集后，选择**配置此联接**（两个红点）。为每个附加表设置联接。

   1. 如果要添加计算字段，请选择**添加计算字段**。

   1. 要从 SageMaker AI 添加模型，请选择 A **ugment with。 SageMaker**此选项仅在 Quick Enterprise 版中可用。

   1. 清除任何您要省略的字段的复选框。

   1. 更新任何您要更改的数据类型。

1. 完成后，选择**保存**，以保存并关闭数据集。

## Quick Sight 管理员关于连接 Databricks 的指南
<a name="quicksight-databricks-administration-setup"></a>

你可以使用 Amazon Quick Sight 连接到 Databricks AWS无论你是通过 Marketpl AWS ace AWS 还是通过 Databricks 网站注册，你都可以连接 Databricks。

在连接到 Databricks 之前，您需要创建或识别连接所需的现有资源。使用本节来帮助你收集从 Quick Sight 连接到 Databricks 所需的资源。
+ 要了解如何获取 Databricks 连接的详细信息，请参阅 [Databricks ODBC and JDBC connections](https://docs.databricks.com/integrations/jdbc-odbc-bi.html#get-server-hostname-port-http-path-and-jdbc-url)。
+ 要了解如何获取 Databricks 凭证（个人访问令牌或用户名和密码）进行身份验证，请参阅 [Databricks documentation](https://docs.databricks.com/index.html) 中的 [Authentication requirements](https://docs.databricks.com/integrations/bi/jdbc-odbc-bi.html#authentication-requirements)。

  要连接到 Databricks 集群，您需要 `Can Attach To` 和 `Can Restart` 权限。这些权限在 Databricks 中进行管理。有关更多信息，请参阅 [Databricks documentation](https://docs.databricks.com/index.html) 中的 [Permission Requirements](https://docs.databricks.com/integrations/jdbc-odbc-bi.html#permission-requirements)。
+ 如果您要为 Databricks 设置私有连接，则可以详细了解如何配置 VPC 以与 Quick Sight 配合使用，请参阅 Quick Sight 文档中的使用 [Amazon Quick Sight 连接到 VPC](https://docs.aws.amazon.com/quicksight/latest/user/working-with-aws-vpc.html)。如果连接不可见，请向系统管理员确认该网络是否已开放 [Amazon Route 53 的入站端点](https://docs.aws.amazon.com/quicksight/latest/user/vpc-route-53.html)。Databricks 工作区的主机名使用公有 IP，需要有 DNS TCP 和 DNS UDP 入站和出站规则，以允许 Route 53 安全组的 DNS 端口 53 上的流量。管理员需要创建包含 2 条入站规则的安全组：一条用于端口 53 到 VPC CIDR 的 DNS（TCP），另一条用于端口 53 到 VPC CIDR 的 DNS（UDP）。

  [如果您使用的是 PrivateLink 而不是公共连接，则要了解与 Databricks 相关的详细信息，请参阅 Databricks [文档 AWS PrivateLink中的启用](https://docs.databricks.com/administration-guide/cloud-configurations/aws/privatelink.html)。](https://docs.databricks.com/index.html)

# 使用 Google BigQuery 创建数据集
<a name="quicksight-google-big-query"></a>

**注意**  
当 Quick Sight 使用和传输从中收到的信息时Google APIs，它会遵守 [GoogleAPI 服务用户数据政策](https://developers.google.com/terms/api-services-user-data-policy)。

Google BigQuery 是一个完全托管的无服务器数据仓库，客户可以使用它来管理和分析他们的数据。Google BigQuery 客户使用 SQL 来查询他们的数据，而无需任何基础设施管理。

## 使用 Google BigQuery 创建数据来源连接
<a name="quicksight-google-big-query-connect"></a>

**先决条件**

开始之前，请确保您已具备以下条件。这些都是使用 Google BigQuery 创建数据来源连接所必需的：
+ **项目 ID** – 与您的 Google 账户关联的项目 ID。要找到它，请导航到Google Cloud控制台，然后选择要连接到 Quick Sight 的项目的名称。复制新窗口中显示的项目 ID 并记录下来以供日后使用。
+ **数据集区域** – Google BigQuery 项目所在的 Google 区域。要找到数据集区域，请导航到 Google BigQuery 控制台并选择**资源管理器**。找到并展开您想要连接的项目，然后选择您想要使用的数据集。数据集区域出现在打开的弹出窗口中。
+ **Google 账户登录凭证** – 您的 Google 账户的登录凭证。如果您没有此信息，请与 Google 账户管理员联系。
+ **Google BigQuery权限** — 要将您的Google账户与 Quick Sight 关联，请确保您的Google账户具有以下权限：
  + `Project` 级别的 `BigQuery Job User`。
  + `Dataset` 或 `Table` 级别的 `BigQuery Data Viewer`。
  + `Project` 级别的 `BigQuery Metadata Viewer`。

有关如何检索先前必备信息的信息，请参阅[使用Google Cloud BigQuery和 Quick Sight 释放统一商业智能的力量](https://aws.amazon.com/blogs/business-intelligence/unlock-the-power-of-unified-business-intelligence-with-google-cloud-bigquery-and-amazon-quicksight/)。

使用以下步骤将您的 Quick 帐户与您的Google BigQuery数据源关联。

**从 Quick Sight 创建与Google BigQuery数据源的新连接**

1. 打开 [Quick 控制台](https://quicksight.aws.amazon.com/)。

1. 从左侧导航窗格中选择 “**数据**”。

1. 选择**创建**，然后选择**新建数据集**

1. 选择 **Google BigQuery** 磁贴。

1. 添加您之前在先决条件部分记录的数据来源详细信息：
   + **数据来源名称** – 数据来源的名称。
   + **项目 ID** – Google Platform 项目 ID。此字段区分大小写。
   + **数据集区域** – 您要连接到的项目的 Google 云平台数据集区域。

1. 选择**登录**。

1. 在打开的新窗口中，输入您要连接的 Google 账户的登录凭证。

1. 选择 “**继续**” 以授予 Quick Sight 访问权限Google BigQuery。

1. 创建新的数据来源连接后，继续执行以下过程中的 [Step 4](#gbq-step-4)。

## 为添加新的 Quick Sight 数据集 Google BigQuery
<a name="quicksight-google-big-query-create"></a>

与 Google BigQuery 创建数据来源连接后，您可以创建 Google BigQuery 数据集以供分析。使用 Google BigQuery 的数据集只能存储在 SPICE 中。

**使用 Google BigQuery 创建数据集**

1. 打开 [Quick 控制台](https://quicksight.aws.amazon.com/)。

1. 从起始页中，选择**数据**。

1. 选择**创建**，然后选择**新建数据集**

1. 选择**Google BigQuery**磁贴，然后选择**创建数据集**。

1. <a name="gbq-step-4"></a>对于**表**，执行以下操作之一：
   + 选择要使用的表。
   + 选择**使用自定义 SQL** 以使用您自己的个人 SQL 语句。有关在 Quick Sight 中使用自定义 SQL 的更多信息，请参阅[使用 SQL 自定义数据](adding-a-SQL-query.md)。

1. 选择**编辑/预览**。

1. （可选）在打开的**数据准备**页面中，您可以使用计算字段、筛选器和联接为数据添加自定义项。

1. 完成更改后，选择**保存**以保存并关闭数据集。

# 使用 Google Sheets 数据来源创建数据集
<a name="create-a-dataset-google-sheets"></a>

Google Sheets 是一款基于 Web 的电子表格应用程序，使用户能够实时创建、编辑和协作处理数据。凭借其全面的函数和公式，它成为商业智能和分析的强大数据来源。用户可以高效地组织、分析和分享见解，而其无缝协作功能使其成为从事数据驱动型项目的团队的理想平台。

## Amazon Quick 中的管理员配置
<a name="google-sheets-admin-config"></a>

Amazon Quick 管理员需要执行一次性设置才能启用 Google 表格作为数据源。有关详细说明和重要注意事项，请参阅[博客](https://aws.amazon.com//blogs/business-intelligence/transform-your-google-sheets-data-into-powerful-analytics-with-amazon-quicksight/)。

## 使用 Google Sheets 数据来源创建数据集
<a name="google-sheets-create-dataset"></a>

按照以下过程使用 Google Sheets 数据来源创建数据集。

**使用 Google Sheets 数据来源创建数据集**

1. 在快速入门页面中，选择**数据集**。

1. 在**数据集**页面上，选择**新数据集**。

1. 选择**谷歌表格**。

1. 输入数据来源的名称，然后选择**连接**。

1. 当重定向到 Google 的登录页面时，请执行以下操作：

   1. 输入您的 Google 账户凭证，然后选择**下一步**。

   1. 查看授权您的 AWS 帐号连接 Google 表格的权限，然后选择 “**继续**”。

1. 在**选择您的表**菜单中，找到您的数据。该菜单显示您的 Google 账户中的所有文件夹、子文件夹、工作表和选项卡。要显示选项卡，请从显示的列表中选择一个工作表。

1. 选择要使用的选项卡。

1. 选择**编辑/预览数据**以导航至数据准备页面。选择**添加数据**以包含任何其他选项卡。

1. 配置联接，然后选择 “**发布和可视化**”，使用 Quick Sight 分析您的 Google 表格数据。

**注意**  
此连接器仅支持 SPICE 功能。
如果您的 OAuth 令牌过期（在摄取错误报告中或创建新数据集时可见），请通过在数据源上选择 **“编辑”** 并对其进行更新来重新授权。

# 使用 Apache Impala 数据来源创建数据集
<a name="create-a-dataset-impala"></a>

Apache Impala 是一款高性能大规模并行处理 (MPP) SQL 查询引擎，旨在在 Apache Hadoop 上原生运行。使用以下步骤在 Quick Sight 和 Apache Impala 之间建立安全连接。

Quick Sight 和 Apache Impala 之间的所有流量都使用 SSL 进行加密。Quick Sight 支持 Impala 连接的标准用户名和密码身份验证。

要建立连接，您需要在 Impala 实例中配置 SSL 设置，准备身份验证凭据，使用您的 Impala 服务器详细信息在 Quick Sight 中设置连接，并验证连接以确保数据访问安全。

**使用 Apache Impala 数据来源创建数据集**

1. 在快速入门页面上，选择**数据**。

1. 在**数据**页面上，选择**创建**。

1. 选择**数据来源**。

1. 选择 **Impala**，然后选择 “**下一步**”。

1. 输入数据来源的名称。

1. 对于公共连接：

   1. 输入**数据库服务器**、**HTTP 路径**、**端口**、**用户名**和**密码**的连接详细信息。

   1. 验证成功后，选择**创建数据来源**。

1. 对于私有连接：

   1. 在输入连接详细信息之前，请与管理员协调以设置 VPC 连接。

     您或您的管理员可以[在 Quick 中配置 VPC 连接](vpc-creating-a-connection-in-quicksight.md)。SSL 默认启用，以确保数据传输安全。如果遇到连接验证错误，请验证连接和 VPC 详细信息。

     如果问题仍然存在，请咨询您的管理员以确认您的证书颁发机构已包含在 Quick Sight [批准的证书列表中](configure-access.md#ca-certificates)。

1. 在**选择您的表**菜单中，您可以：

   1. 选择特定架构或表，然后选择**选择**。

   1. 选择**使用自定义 SQL** 来编写您自己的 SQL 查询。

1. 完成选择后，您将被重定向到数据准备页面。对数据进行任何调整，然后选择 “**发布和可视化**”，在 Quick Sight 中分析您的 Impala 数据。

**注意**  
此连接器支持：  
用户名和密码身份验证
公共和私有连接
表发现和自定义 SQL 查询
摄取期间的完整数据刷新
仅限 SPICE 存储

# 使用 Microsoft Excel 文件创建数据集
<a name="create-a-data-set-excel"></a>

要使用 Microsoft Excel 文件数据来源创建数据集，请从本地或网络驱动器上传 .xlsx 文件。数据将导入到 [SPICE](spice.md) 中。

 有关使用 Amazon S3 数据来源创建新的 Amazon S3 数据集的更多信息，请参阅 [使用现有的 Amazon S3 数据来源创建数据集](create-a-data-set-existing.md#create-a-data-set-existing-s3) 或 [使用 Amazon S3 文件创建数据集](create-a-data-set-s3.md)。

**基于 Excel 文件创建数据集**

1. 选中 [数据来源限额](data-source-limits.md) 以确保目标文件未超出数据来源限制。

1. 在快速入门页面上，选择**数据**。

1. 在**数据**页面上，选择**创建**，然后选择**新数据集**。

1. 选择 **Upload a file** (上传文件)。

1. 在 **Open** 对话框中，选择一个文件，然后选择 **Open**。

   文件大小必须不超过 1 GB 才能上传到 Quick Sight。

1. 如果 Excel 文件包含多个工作表，请选择要导入的工作表。以后可通过准备数据对此进行更改。

1. 
**注意**  
在下列屏幕中，有几种方式可准备数据。每一种方式都会转到 **Prepare Data** 屏幕。该屏幕与数据导入完成后可以访问的屏幕相同。即使在上传完成后，您也可以在该屏幕中更改上传设置。

    选择 **Select** 确认设置。或者，您可以选择 **Edit/Preview data (编辑/预览数据)** 以立即准备数据。

   下一个屏幕显示数据预览。数据预览不能直接更改。

1. 如果数据标题和内容看起来不正确，您可以选择**编辑设置并准备数据**以更正文件上传设置。

   否则，请选择**下一步**。

1. 在 **Data Source Details** 屏幕上，您可以选择 **Edit/Preview data**。您可以在**准备数据**屏幕中指定数据集名称。

   如果不需要准备数据，可以选择原样使用数据创建分析。选择**可视化**。这样做会使数据集与源文件同名，并转至**分析**屏幕。要了解数据准备和 Excel 上传设置的更多信息，请参阅[使用 Amazon Quick Sight 准备数据](preparing-data.md)。

**注意**  
如果您想随时对文件进行更改（例如添加新字段），则必须在 Microsoft Excel 中进行更改，并使用 Quick Sight 中的更新版本创建新的数据集。有关更改数据集可能产生的影响的更多信息，请参阅 [编辑数据集时要考虑的事项](edit-a-data-set.md#change-a-data-set)。

# 使用 Presto 创建数据来源
<a name="create-a-data-source-presto"></a>

Presto（也称为 PrestoDB）是一种开源的分布式 SQL 查询引擎，设计用于针对任何规模的数据进行快速分析查询。它同时支持非关系数据来源和关系数据来源。支持的非关系数据源包括 Hadoop 分布式文件系统 (HDFS)、Amazon S3、Cassandra、MongoDB 和。 HBase支持的关系数据来源包括 MySQL、PostgreSQL、Amazon Redshift、Microsoft SQL Server 和 Teradata。

有关 Presto 的更多信息，请参阅以下内容：
+ [presto 简介，](https://aws.amazon.com/big-data/what-is-presto/)网站上对 Presto 的描述。 AWS 
+ 在《亚马逊 EMR 发布指南》中@@ [使用亚马逊弹性 MapReduce (EMR) 创建 prest *o* 集群](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html)。
+ 有关 Presto 的一般信息，请参阅 [Presto 文档](https://trino.io/docs/current/)。

您通过 Presto 查询引擎运行的查询结果可以转换为 Quick Sight 数据集。Presto 在后端数据库中处理分析查询。然后，它将结果返回给 Quick Sight 客户端。可以直接通过 Presto 查询数据，也可以将查询结果导入 SPICE。

在使用 Quick Sight 作为 Presto 客户端运行查询之前，请务必配置数据源配置文件。您需要在 Quick Sight 中为要访问的每个 Presto 数据源提供数据源配置文件。可以按照以下过程创建到 VPC 的连接。

**从 Amazon Quick Sight（控制台）创建与 presto 数据源的新连接**

1. 在 Amazon Quick Sight 起始页面上，选择左侧**的数据**。

1. 选择**创建**，然后选择**新数据集**。

1. 选择 **Presto** 磁贴。
**注意**  
在大多数浏览器中，您可以使用 Ctrl-F 或 Cmd-F 打开搜索框，然后输入 **presto** 进行查找。

1. 添加新数据来源的设置：
   + ****数据来源名称**** – 为您的数据来源输入描述性名称。此名称显示在**数据集**屏幕底部的**现有数据来源**部分中。
   + ****连接类型**** – 选择连接到 Presto 时需要使用的连接类型。

     要通过公有网络进行连接，请选择**公有网络**。

     如果您使用公有网络，则必须使用轻型目录访问协议 (LDAP) 保护您的 Presto 服务器和验证身份。有关将 Presto 配置为使用 LDAP 的信息，请参阅 Presto 文档中的 [LDAP authentication](https://trino.io/docs/current/security/ldap.html)。

     要通过虚拟专用连接进行连接，请从 **VPC 连接**列表中选择相应的 VPC 名称。

     如果您的 Presto 服务器允许未经身份验证的访问，则 AWS 要求您使用私有 VPC 连接安全地连接到该服务器。有关配置新 VPC 的信息，请参阅[在 Amazon Quick Sight 中配置 VPC 连接](working-with-aws-vpc.md)。
   + ****数据库服务器**** – 数据库服务器的名称。
   + ****端口****-服务器用来接受来自 Amazon Quick Sight 的传入连接的端口 
   + ****目录**** – 要使用的目录的名称。
   + ****需要身份验证**** –（可选）仅当选择 VPC 连接类型时，才会显示此选项。如果您要连接的 Presto 数据来源不需要身份验证，请选择**否**。否则，请保留默认设置（**是**）。
   + ****用户名**** – 输入用于连接到 Presto 的用户名。Quick Sight 将相同的用户名和密码应用于使用此数据源配置文件的所有连接。如果您想与其他账户分开监控 Quick Sight，请为每个 Quick Sight 数据源配置文件创建一个 Presto 帐户。

     您使用的 Presto 账户必须能够访问数据库，并至少能够在一个表上运行 `SELECT` 语句。
   + ****密码**** – 要与 Presto 用户名一起使用的密码。Amazon Quick Sight 会加密您在数据源配置文件中使用的所有凭证。有关更多信息，请参阅 [Amazon Quick 中的数据加密](data-encryption.md)。
   + ****启用 SSL**** – 默认启用 SSL。

1. 选择**验证连接**以测试设置。

1. 验证您的设置后，选择**创建数据来源**以完成连接。

# 使用 Snowflake 搭配 Amazon Quick
<a name="connecting-to-snowflake"></a>

Snowflake 是一个 AI 数据云平台，提供从数据仓库和协作到数据科学和生成式人工智能的数据解决方案。Snowflake 是一家拥有多项 AWS 认证的[AWS 合作伙伴](https://partners.amazonaws.com/partners/001E000000d8qQcIAI/Snowflake)，其中包括生成式 AI、Machine Learning、数据和分析以及零售领域的 AWS ISV 能力。

Amazon Quick Sight 提供了两种连接 Snowflake 的方式：使用你的 Snowflake 登录凭证或使用客户证书。 OAuth 使用以下部分来了解这两种连接方法。

**Topics**
+ [使用登录凭据创建与 Snowflake 的 Quick Sight 数据源连接](#create-connection-to-snowflake)
+ [使用客户端凭OAuth据创建与 Snowflake 的 Quick Sight 数据源连接](#create-connection-to-snowflake-oauth-credentials)

## 使用登录凭据创建与 Snowflake 的 Quick Sight 数据源连接
<a name="create-connection-to-snowflake"></a>

 使用本节学习如何使用你的 Snowflake 登录凭据在 Quick Sight 和 Snowflake 之间建立连接。Quick Sight 和 Snowflake 之间的所有流量均通过 SSL 启用。

**在 Quick Sight 和 Snowflake 之间创建连接**

1. 打开 [Quick 控制台](https://quicksight.aws.amazon.com/)。

1. 在左侧导航窗格中，选择**数据**，然后选择**创建**，然后选择**新建数据集**。

1. 选择 **Snowflake** 数据来源卡片。

1. 在出现的弹出窗口中，输入以下信息：

   1. 对于**数据来源名称**，为您的 Snowflake 数据来源连接输入描述性名称。您可以通过与 Snowflake 的连接创建许多数据集，因此最好使用简洁的名称。

   1. 对于**连接类型**，选择正在使用的网络类型。如果您的数据是公开共享的，请选择**公共网络**。如果数据位于 VPC 内，请选择 **VPC**。要在 Quick Sight 中配置 VPC 连接，请参阅[在 Amazon Quick 中管理 VPC 连接](vpc-creating-a-connection-in-quicksight.md)。

   1. 对于**数据库服务器**，输入在 Snowflake 连接详细信息中指定的主机名。

1. 在**数据库名称和仓库**中，输入要连接的相应 Snowflake 数据库和仓库。

1. 对于**用户名**和**密码**，输入您的 Snowflake 凭证。

在 Quick Sight 账户和 Snowflake 账户之间成功创建数据源连接后，就可以开始[创建数据集](creating-data-sets.md)创建包含 Snowflake 数据的数据源连接了。

## 使用客户端凭OAuth据创建与 Snowflake 的 Quick Sight 数据源连接
<a name="create-connection-to-snowflake-oauth-credentials"></a>

[你可以使用OAuth客户凭据通过 Quick Sight 将你的 Quick Sight 账户与 Snowflake 关联起来。 APIs](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html) *OAuth*是一种标准授权协议，通常用于具有高级安全要求的应用程序。当你使用 OAuth 客户端凭据连接到 Snowflake 时，你可以使用 Quick Sight APIs 和 Quick Sight 用户界面创建包含 Snowflake 数据的数据集。有关在 Snowflake 中配置 OAuth 的更多信息，请参阅 [Snowflake OAuth overview](https://docs.snowflake.com/en/user-guide/oauth-snowflake-overview)。

Quick Sight 支持`client credentials`OAuth授权类型。 OAuth客户端凭证用于获取用于 machine-to-machine通信的访问令牌。此方法适用于客户端需要访问服务器上托管的资源而无需用户参与的情况。

在 OAuth 2.0 的客户端凭证流中，有几种客户端身份验证机制可用于向授权服务器对客户端应用程序进行身份验证。Quick Sight 支持基于 OAuth Snowflake 的客户端凭证，用于以下两种机制：
+ **令牌（基于客户端密钥的 OAuth）**：基于密钥的客户端身份验证机制与客户端凭证一起使用来授予流，以便向授权服务器进行身份验证。此身份验证方案要求将 OAuth 客户端应用的 `client_id` 和 `client_secret` 存储在 Secrets Manager 中。
+ **X509（基于客户端私有密钥 JWT 的 OAuth）**：基于 X509 证书密钥的解决方案为 OAuth 机制提供了额外的安全层，使用客户端证书（而非客户端密钥）进行身份验证。此方法主要由私有客户端使用，他们使用此方法向授权服务器进行身份验证，并且两个服务之间具有很强的信任度。

Quick Sight 已验证与以下身份提供商的OAuth连接：
+ OKTA
+ PingFederate

### 在 Secrets Manager 中存储 OAuth 凭证
<a name="create-connection-to-snowflake-oauth-store-credentials"></a>

OAuth 客户端凭证仅用于 machine-to-machine用例，不是为交互式而设计的。要在 Quick Sight 和 Snowflake 之间创建数据源连接，请在 Secrets Manager 中创建一个包含你的客户端应用程序凭据的新密钥。OAuth使用新密钥创建的秘密 ARN 可用于在 Quick Sight 中创建包含 Snowflake 数据的数据集。有关在 Quick Sight 中使用 Secrets Manager 密钥的更多信息，请参阅[在 Quick 中使用 AWS Secrets Manager 密钥而不是数据库凭证](secrets-manager-integration.md)。

您需要在 Secrets Manager 中存储的凭证由您使用的 OAuth 机制决定。基于 X509 OAuth 的密钥需要以下 key/value 配对：
+ `username`：连接到 Snowflake 时要使用的 Snowflake 账户用户名
+ `client_id`：OAuth 客户端 ID
+ `client_private_key`：OAuth 客户端私有密钥
+ `client_public_key`：OAuth 客户端证书公钥及其加密算法（例如 `{"alg": "RS256", "kid", "cert_kid"}`）

基于令牌OAuth的密钥需要以下 key/value 配对：
+ `username`：连接到 Snowflake 时要使用的 Snowflake 账户用户名
+ `client_id`：OAuth 客户端 ID
+ `client_secret`：OAuth 客户端密钥

### 使用 Quick Sight 创建 Snowflake OAuth 连接 APIs
<a name="create-connection-to-snowflake-oauth-example"></a>

在 Secrets Manager 中创建包含你的 Snowflake OAuth 凭据的密钥并将你的 Quick 账户关联到 Secrets Manager 后，你可以使用 Quick Sight 和 SDK 在 Quick Sight 和 Snowflake 之间建立数据源连接。 APIs 以下示例使用令牌OAuth客户端凭据创建 Snowflake 数据源连接。

```
{
    "AwsAccountId": "AWSACCOUNTID",
    "DataSourceId": "UNIQUEDATASOURCEID",
    "Name": "NAME",
    "Type": "SNOWFLAKE",
    "DataSourceParameters": {
        "SnowflakeParameters": {
            "Host": "HOSTNAME",
            "Database": "DATABASENAME",
            "Warehouse": "WAREHOUSENAME",
            "AuthenticationType": "TOKEN",
            "DatabaseAccessControlRole": "snowflake-db-access-role-name",
            "OAuthParameters": {
              "TokenProviderUrl": "oauth-access-token-endpoint", 
              "OAuthScope": "oauth-scope",
              "IdentityProviderResourceUri" : "resource-uri",
              "IdentityProviderVpcConnectionProperties" : {
                "VpcConnectionArn": "IdP-VPC-connection-ARN" 
             }
        }
    },
    "VpcConnectionProperties": {
        "VpcConnectionArn": "VPC-connection-ARN-for-Snowflake"
    }
    "Credentials": {
        "SecretArn": "oauth-client-secret-ARN"
    }
}
```

有关 CreateDatasource API 操作的更多信息，请参阅[CreateDataSource](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html)。

在 Quick Sight 和 Snowflake 之间建立连接并使用 Quick Sight APIs 或 SDK 创建数据源后，新的数据源将显示在 Quick Sight 中。Quick Sight 作者可以使用此数据源来创建包含 Snowflake 数据的数据集。表的显示基于在 `CreateDataSource` API 调用中传递的 `DatabaseAccessControlRole` 参数中使用的角色。如果在创建数据来源连接时未定义此参数，则使用默认 Snowflake 角色。

在 Quick Sight 账户和 Snowflake 账户之间成功创建数据源连接后，就可以开始[创建数据集](creating-data-sets.md)创建包含 Snowflake 数据的数据源连接了。

# 在 Amazon Quick Sight 中使用 Star
<a name="connecting-to-starburst"></a>

Starburst 是一项功能齐全的数据湖分析服务，建立在大规模并行处理（MPP）查询引擎 Trino 之上。使用本节学习如何从 Amazon Quick Sight 连接到 Starburst。Quick Sight 和 Starburst 之间的所有流量均通过 SSL 启用。如果你要连接 Starburst Galaxy，你可以通过登录你的 Starburst Galaxy 账户，然后选择 Partner Connect，然后选择 **Quick** Sight 来获取必要的**连接**详情。您应该能够看到诸如主机名和端口之类的信息。Amazon Quick Sight 支持 Starburst 的基本用户名和密码身份验证。

Quick Sight 提供了两种连接 Starburst 的方式：使用你的 Starburst 登录凭据或使用OAuth客户凭据。使用以下部分来了解这两种连接方法。

**Topics**
+ [使用登录凭据创建与 Starburst 的 Quick Sight 数据源连接](#create-connection-to-starburst)
+ [使用OAuth客户端凭据创建与 Starburst 的 Quick Sight 数据源连接](#create-connection-to-starburst-oauth)

## 使用登录凭据创建与 Starburst 的 Quick Sight 数据源连接
<a name="create-connection-to-starburst"></a>

1. 首先创建一个新数据集。在左侧导航窗格中，选择**数据**，然后选择**创建**，然后选择**新建数据集**。

1. 选择 **Starburst** 数据来源卡片。

1. 选择 Starburst 产品类型。为本地 Starburst 实例选择 **Starburst Enterprise**。为托管式实例选择 **Starburst Galaxy**。

1. 对于**数据来源名称**，为您的 Starburst 数据来源连接输入描述性名称。您可以通过与 Starburst 的连接创建许多数据集，因此最好使用简洁的名称。

1. 对于**连接类型**，选择您正在使用的网络类型。如果您的数据是公开共享的，请选择**公共网络**。如果您的数据位于 VPC 内，请选择 **VPC**。要在 Amazon Quick Sight 中[配置 VPC 连接，请参阅在 Amazon Quick Sight 中配置 VPC 连接](https://docs.aws.amazon.com/quicksight/latest/user/vpc-creating-a-connection-in-quicksight.html)。此连接类型不适用于 Starburst Galaxy。

1. 对于**数据库服务器**，输入在 Starburst 连接详细信息中指定的主机名。

1. 对于**目录**，输入在 Starburst 连接详细信息中指定的目录。

1. 对于**端口**，输入在 Starburst 连接详细信息中指定的端口。Starburst Galaxy 的默认端口为 443。

1. 对于**用户名**和**密码**，输入 Starburst 连接凭证。

1. 要验证连接是否正常，请选择**验证连接**。

1. 要完成并创建数据来源，请选择**创建数据来源**。

**注意**  
Amazon Quick Sight 和 Starburst 之间的连接已使用 Starburst 版本 420 进行了验证。

在 Quick Sight 和 Starburst 账户之间成功创建数据源连接后，就可以开始[创建数据集](creating-data-sets.md)连接包含 Starburst 数据了。

## 使用OAuth客户端凭据创建与 Starburst 的 Quick Sight 数据源连接
<a name="create-connection-to-starburst-oauth"></a>

你可以使用OAuth客户凭据通过 Quick Sight 将你的 Quick Sight 账户与 Starburs [t APIs](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html) 关联起来。 *OAuth*是一种标准授权协议，通常用于具有高级安全要求的应用程序。当你使用OAuth客户端凭据连接到 Starburst 时，你可以使用 Quick Sight APIs 和 Quick Sight 用户界面创建包含 Starburst 数据的数据集。有关在 Starburst 中配置 OAuth 的更多信息，请参阅 [OAuth 2.0 authentication](https://docs.starburst.io/latest/security/oauth2.html)。

Quick Sight 支持`client credentials`OAuth授权类型。 OAuth客户端凭证用于获取用于 machine-to-machine通信的访问令牌。此方法适用于客户端需要访问服务器上托管的资源而无需用户参与的情况。

在 OAuth 2.0 的客户端凭证流中，有几种客户端身份验证机制可用于向授权服务器对客户端应用程序进行身份验证。Quick Sight 支持基于 OAuth Starburst 的客户端凭证，用于以下两种机制：
+ **令牌（基于客户端密钥的 OAuth）**：基于密钥的客户端身份验证机制与客户端凭证一起使用来授予流，以便向授权服务器进行身份验证。此身份验证方案要求将 OAuth 客户端应用的 `client_id` 和 `client_secret` 存储在 Secrets Manager 中。
+ **X509（基于客户端私有密钥 JWT 的 OAuth）**：基于 X509 证书密钥的解决方案为 OAuth 机制提供了额外的安全层，使用客户端证书（而非客户端密钥）进行身份验证。此方法主要由私有客户端使用，他们使用此方法向授权服务器进行身份验证，并且两个服务之间具有很强的信任度。

Quick Sight 已验证与以下身份提供商的OAuth连接：
+ OKTA
+ PingFederate

### 在 Secrets Manager 中存储 OAuth 凭证
<a name="create-connection-to-starburst-oauth-store-credentials"></a>

OAuth客户端凭证仅用于 machine-to-machine用例，不是为交互式而设计的。要在 Quick Sight 和 Starburst 之间创建数据源连接，请在 Secrets Manager 中创建一个包含客户端应用程序凭据的新密钥。OAuth使用新密钥创建的秘密 ARN 可用于在 Quick Sight 中创建包含 Starburst 数据的数据集。有关在 Quick Sight 中使用 Secrets Manager 密钥的更多信息，请参阅[在 Quick 中使用 AWS Secrets Manager 密钥而不是数据库凭证](secrets-manager-integration.md)。

您需要在 Secrets Manager 中存储的凭证由您使用的 OAuth 机制决定。基于 X509 OAuth 的密钥需要以下 key/value 配对：
+ `username`：连接到 Starburst 时要使用的 Starburst 账户用户名
+ `client_id`：OAuth 客户端 ID
+ `client_private_key`：OAuth 客户端私有密钥
+ `client_public_key`：OAuth 客户端证书公钥及其加密算法（例如 `{"alg": "RS256", "kid", "cert_kid"}`）

基于令牌OAuth的密钥需要以下 key/value 配对：
+ `username`：连接到 Starburst 时要使用的 Starburst 账户用户名
+ `client_id`：OAuth 客户端 ID
+ `client_secret`：OAuth 客户端密钥

### 使用 Quick Sight 创建 Starburst OAuth 连接 APIs
<a name="create-connection-to-starburst-oauth-example"></a>

在 Secrets Manager 中创建包含你的 Starburst OAuth 凭据的密钥并将你的 Quick 账户关联到 Secrets Manager 后，你可以使用 Quick Sight 和 SDK 在 Quick Sight 和 Starburst APIs 之间建立数据源连接。以下示例使用令牌 OAuth 客户端凭证创建 Starburst 数据来源连接。

```
{
    "AwsAccountId": "AWSACCOUNTID",
    "DataSourceId": "DATASOURCEID",
    "Name": "NAME",
    "Type": "STARBURST",
    "DataSourceParameters": {
        "StarburstParameters": {
            "Host": "STARBURST_HOST_NAME",
            "Port": "STARBURST_PORT",
            "Catalog": "STARBURST_CATALOG",
            "ProductType": "STARBURST_PRODUCT_TYPE",     
            "AuthenticationType": "TOKEN",
            "DatabaseAccessControlRole": "starburst-db-access-role-name",
            "OAuthParameters": {
              "TokenProviderUrl": "oauth-access-token-endpoint", 
              "OAuthScope": "oauth-scope",
              "IdentityProviderResourceUri" : "resource-uri",
              "IdentityProviderVpcConnectionProperties" : {
                "VpcConnectionArn": "IdP-VPC-connection-ARN"
            }
        }
    },
    "VpcConnectionProperties": {
        "VpcConnectionArn": "VPC-connection-ARN-for-Starburst"
    },
    "Credentials": {
        "SecretArn": "oauth-client-secret-ARN"
    }
}
```

有关 CreateDatasource API 操作的更多信息，请参阅[CreateDataSource](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html)。

在 Quick Sight 和 Starburst 之间建立连接并使用 Quick Sight APIs 或 SDK 创建数据源后，新的数据源将显示在 Quick Sight 中。Quick Sight 作者可以使用此数据源来创建包含 Starburst 数据的数据集。表的显示基于在 `CreateDataSource` API 调用中传递的 `DatabaseAccessControlRole` 参数中使用的角色。如果在创建数据来源连接时未定义此参数，则使用默认 Starburst 角色。

在 Quick Sight 和 Starburst 账户之间成功创建数据源连接后，就可以开始[创建数据集](creating-data-sets.md)连接包含 Starburst 数据了。

# 从 SaaS 源创建数据来源和数据集
<a name="connecting-to-saas-data-sources"></a>

要分析和报告来自软件即服务 (SaaS) 应用程序的数据，您可以使用 SaaS 连接器直接从 Quick Sight 访问您的数据。SaaS 连接器简化了使用 OAuth 访问第三方应用程序源的过程，而不需要将数据导出到中间数据存储。

您可以使用基于云或基于服务器的 SaaS 应用程序实例。要连接到企业网络上运行的 SaaS 应用程序，请确保 Quick Sight 可以通过网络访问该应用程序的域名系统 (DNS) 名称。如果 Quick Sight 无法访问 SaaS 应用程序，则会生成未知主机错误。

以下是一些您可以使用 SaaS 数据的方法示例：
+ 使用 Jira 跟踪问题和错误的工程团队可以报告开发人员效率和错误解决情况。
+ 营销组织可以将 Quick Sight 与 Adobe Analytics 集成，以构建整合的仪表板，以可视化其在线和网络营销数据。

使用以下过程，通过连接到利用软件即服务（SaaS）提供的源来创建数据来源和数据集。在本步骤中，我们使用与的连接 GitHub 作为示例。其他 SaaS 数据来源遵循相同的流程，但屏幕（特别是 SaaS 屏幕）可能看起来不同。

**通过 SaaS 连接到源来创建数据来源和数据集**

1. 在快速入门页面上，选择**数据**。

1. 在**数据**页面上，选择**创建**，然后选择**新建数据集**。

1. 选择代表您要使用的 SaaS 源的图标。例如，您可以选择 Adobe Analytics 或 GitHub。

   对于使用 OAuth 的源，连接器将您转到 SaaS 站点以授权连接，然后才能创建数据来源。

1. 为数据来源选择一个名称，然后输入该名称。如果具有更多屏幕提示，请输入相应的信息。然后选择**创建数据来源**。

1. 如果系统显示提示，请在 SaaS 登录页面上输入您的凭证。

1. 出现提示时，授权您的 SaaS 数据源与 Quick Sight 之间的连接。

   以下示例显示了 Quick Sight 访问 GitHub 账户以查看 Quick Sight 文档的授权。
**注意**  
Quick Sight 文档现已在上线 GitHub。如果要更改本用户指南，则可以使用直接 GitHub 对其进行编辑。

   （可选）如果您的 SaaS 帐户是组织帐户的一部分，则在授权 Quick Sight 的过程中，可能会要求您申请组织访问权限。如果要执行此操作，请按照 SaaS 屏幕上的提示进行操作，然后选择授权 Quick Sight。

1. 授权完成后，请选择要连接到的表或对象。然后选择 **Select**。

1. 在**完成数据集创建**屏幕上，选择以下选项之一：
   + 要保存数据来源和数据集，请选择**编辑/预览数据**。然后从顶部菜单栏中选择**保存**。
   + 要原样使用数据创建数据集和分析，请选择**可视化**。此选项可自动保存数据来源和数据集。

     要在创建分析前准备数据，您也可以选择**编辑/预览数据**。数据准备屏幕将打开。有关数据准备的更多信息，请参阅[准备数据集示例](preparing-data-sets.md)。

以下限制适用：
+ SaaS 源必须支持 REST API 操作，Quick Sight 才能连接到它。
+ 如果您要连接到 Jira，则 URL 必须是公有地址。
+ 如果没有足够的 [SPICE](spice.md) 容量，请选择 **Edit/Preview data** (编辑/预览数据)。在数据准备屏幕中，您可以从数据集中删除字段以缩减其大小，也可以应用筛选条件减少返回的行数。有关数据准备的更多信息，请参阅[准备数据集示例](preparing-data-sets.md)。

# 从 Salesforce 创建数据集
<a name="create-a-data-set-salesforce"></a>

使用以下过程连接到 Salesforce 并选择报告或对象以提供数据，从而创建数据集。

**使用 Salesforce 从报告或对象创建数据集**

1. 选中 [数据来源限额](data-source-limits.md) 以确保您的目标报告或对象不超出数据来源限制。

1. 在快速入门页面上，选择**数据**。

1. 在**数据**页面上，选择**创建**，然后选择**新数据集**。

1. 选择 **Salesforce** 图标。

1. 为数据来源输入一个名称，然后选择**创建数据来源**。

1. 在 Salesforce 登录页面上，输入您的 Salesforce 凭证。

1. 对于 **Data elements: contain your data**，选择 **Select**，然后选择 **REPORT** 或 **OBJECT**。
**注意**  
不支持将已加入的报表作为 Quick Sight 数据源。

1. 请选择以下选项之一：
   + 要在创建分析前准备数据，请选择 **Edit/Preview data** 打开数据准备。有关数据准备的更多信息，请参阅[准备数据集示例](preparing-data-sets.md)。
   + 否则，请选择一个报告或对象，然后选择 **Select**。

1. 请选择以下选项之一：
   + 要原样使用数据创建数据集和分析，请选择**可视化**。
**注意**  
如果没有足够的 [SPICE](spice.md) 容量，请选择 **Edit/Preview data** (编辑/预览数据)。在数据准备期间，您可以从数据集中删除字段以缩减其大小，也可以应用筛选条件减少返回的行数。有关数据准备的更多信息，请参阅[准备数据集示例](preparing-data-sets.md)。
   + 要在创建分析前准备数据，请选择 **Edit/Preview data** 打开所选报告或对象的数据准备。有关数据准备的更多信息，请参阅[准备数据集示例](preparing-data-sets.md)。

**注意**  
用户通过命名空间隔离进行身份验证的嵌入式控制台部署不支持 Salesforce 连接器。 OAuth 身份验证流程需要直接访问 Amazon Quick Sight 控制台才能完成登录过程。

# 将 Trino 与 Amazon Quick Sigh
<a name="connecting-to-trino"></a>

Trino 是一款大规模并行处理（MPP）查询引擎，旨在快速查询包含数 PB 数据的数据湖。使用本节学习如何从 Amazon Quick Sight 连接到 Trino。Amazon Quick Sight 和 Trino 之间的所有流量均通过 SSL 启用。Amazon Quick Sight 支持对 Trino 进行基本的用户名和密码身份验证。

## 为 Trino 创建数据来源连接
<a name="create-connection-to-trino"></a>

1. 首先创建一个新数据集。从左侧导航窗格中选择 “**数据**”。选择**创建**，然后选择**新数据集**。

1. 选择 **Trino** 数据来源卡片。

1. 对于**数据来源名称**，为您的 Trino 数据来源连接输入描述性名称。您可以通过与 Trino 的连接创建许多数据集，因此最好使用简洁的名称。

1. 对于**连接类型**，选择您正在使用的网络类型。如果您的数据是公开共享的，请选择**公共网络**。如果您的数据位于 VPC 内，请选择 **VPC**。要在 Amazon Quick Sight 中[配置 VPC 连接，请参阅在 Amazon Quick Sight 中配置 VPC 连接](https://docs.aws.amazon.com/quicksight/latest/user/vpc-creating-a-connection-in-quicksight.html)。

1. 对于**数据库服务器**，输入在 Trino 连接详细信息中指定的主机名。

1. 对于**目录**，输入在 Trino 连接详细信息中指定的目录。

1. 对于**端口**，输入在 Trino 连接详细信息中指定的端口。

1. 对于**用户名**和**密码**，输入 Trino 的连接凭证。

1. 要验证连接是否正常，请选择**验证连接**。

1. 要完成并创建数据来源，请选择**创建数据来源**。

## 为 Trino 添加新的 Amazon Quick Sight 数据集
<a name="create-dataset-using-trino"></a>

完成 Trino 的[数据来源创建过程](https://docs.aws.amazon.com/create-connection-to-starburst.html)后，您可以创建用于分析的 Trino 数据集。您可以使用新的或现有的 Trino 数据来源创建新的数据集。当您创建新的数据源时，Amazon Quick Sight 会立即引导您创建数据集，如下所示的步骤 3。如果您使用现有的数据来源创建新数据集，请从下面的步骤 1 开始操作。

要使用 Trino 数据来源创建数据集，请参阅以下步骤。

1. 从起始页中，选择**数据**。选择**创建**，然后选择**新数据集**。

1. 选择您创建的 Trino 数据源。

1. 选择**创建数据集**。

1. 要指定要连接的表，请选择一个架构。如果您不想选择架构，也可以使用自己的 SQL 语句。

1. 要指定要连接的表，请先选择要使用的**架构**。对于**表**，选择要使用的表。如果您更想使用自己的 SQL 语句，请选择**使用自定义 SQL**。

1. 选择**编辑/预览**。

1. （可选）要添加更多数据，请按以下步骤进行操作：

1. 选择右上角的**添加数据**。

1. 要连接到不同的数据，请选择**切换数据来源**，然后选择不同的数据集。

1. 按照提示完成数据添加。

1. 将新数据添加到同一数据集后，选择**配置此联接**（两个红点）。为每个附加表设置联接。

1. 如果要添加计算字段，请选择**添加计算字段**。

1. 清除任何您要省略的字段的复选框。

1. 更新任何您要更改的数据类型。

1. 完成后，选择**保存**，以保存并关闭数据集。

**注意**  
Quick Sight 和 Trino 之间的连接已使用 Trino 版本 410 进行了验证。

# 使用本地文本文件创建数据集
<a name="create-a-data-set-file"></a>

要使用本地文本文件数据来源创建数据集，请确定文件的位置，然后上传文件。在创建数据集期间，文件数据将自动导入到 [SPICE](spice.md) 中。

**基于本地文本文件创建数据集**

1. 选中 [数据来源限额](data-source-limits.md) 以确保目标文件未超出数据来源限制。

   支持的文件类型包括 .csv、.tsv、.json、.clf 或 .elf 文件。

1. 在快速入门页面上，选择**数据**。

1. 选择**创建**，然后选择**新数据集**。

1. 选择 **Upload a file** (上传文件)。

1. 在 **Open** 对话框中，浏览到一个文件并选中它，然后选择 **Open**。

   文件大小必须不超过 1 GB 才能上传到 Quick Sight。

1. 要在创建数据集之前准备数据，请选择**编辑/预览数据**。否则，选择 **Visualize** 以原样使用数据创建分析。

   如果选择前者，可在准备数据的过程中指定数据集名称。如果选择后者，将创建与源文件同名的数据集。要了解数据准备的更多信息，请参阅[使用 Amazon Quick Sight 准备数据](preparing-data.md)。

# 在 Amazon Quick Sight 中使用亚马逊 Timestream 数据
<a name="using-data-from-timestream"></a>

接下来，你可以找到如何使用 Amazon Quick Sight 连接到你的 Amazon Timestream 数据。有关简要概述，请参阅上的 [Amazon Timestream 入门和亚马逊 QuickSight](https://youtu.be/TzW4HWl-L8s)视频教程。 YouTube

## 为 Timestream 数据库创建新的 Amazon Quick Sight 数据源连接
<a name="create-connection-to-timestream"></a>

接下来，你可以找到如何从亚马逊 Quick Sight 连接到亚马逊 Timestream。

在继续操作之前，需要授权亚马逊 Quick Sight 才能连接到亚马逊 Timestream。如果未启用连接，则在尝试连接时会出现错误。Quick Sight 管理员可以授权 AWS 资源连接。要进行授权，请点击右上角的配置文件图标打开菜单。选择 “**管理**” QuickSight、“**安全和权限”**、**“添加或删除**”。然后启用 Amazon Timestream 的复选框，然后选择**更新**以进行确认。有关更多信息，请参阅 [配置 Amazon Quick Sight 对 AWS 数据源的访问权限](access-to-aws-resources.md)。

**连接到 Amazon Timestream**

1. 首先创建一个新数据集。从左侧的导航窗格中选择 “**数据**”。

1. 选择**创建**，然后选择**新数据集**。

1. 选择 Timestream 数据来源卡片。

1. 对于**数据来源名称**，为 Timestream 数据来源连接输入描述性名称，例如 `US Timestream Data`。您可以通过与 Timestream 的连接创建许多数据集，因此最好使用简洁的名称。

1. 选择**验证连接**，检查是否可以成功连接到 Timestream。

1. 选择**创建数据来源**以继续。

1. 对于**数据库**，选择**选择**以查看可用选项列表。

1. 选择要使用数据库，然后选择**选择**以继续。

1. 请执行以下操作之一：
   + 要将数据导入 Quick Sight 的内存引擎（名为SPICE），请选择 “**导入到” SPICE 以加快分析速度**。
   + 要允许 Quick Sight 在每次刷新数据集或使用分析或仪表板时对您的数据运行查询，请选择**直接查询您的数据**。

   如果要在使用 Timestream 数据的已发布控制面板上启用自动刷新，则 Timestream 数据集需要使用直接查询。

1. 选择**编辑/预览**，然后选择**保存**以保存数据集并将其关闭。

1. 对要在数据集中打开的与 Timestream 并发直接连接数重复这些步骤。例如，假设您要在 Quick Sight 数据集中使用四个表。当前，Quick Sight 数据集一次只能从 Timestream 数据源连接到一个表。要在同一个数据集中使用四个表，需要在 Quick Sight 中添加四个数据源连接。

## 管理 Timestream 数据的权限
<a name="dataset-permissions-for-timestream"></a>

以下过程介绍如何查看、添加和撤销权限以允许访问同一 Timestream 数据来源。您添加的用户必须是 Quick Sight 中的活跃用户，然后才能添加他们。

**编辑数据集的权限**

1. 选择左侧**的数据**，然后向下滚动以查找您的 Timestream 连接的数据集。以 `US Timestream Data` 为例。

1. 选择 **Timestream** 数据集将其打开。

1. 在打开的数据集详细信息页面上，选择**权限**选项卡。

   此时会显示当前权限。

1. 要添加权限，请选择**添加用户和组**，然后按照以下步骤操作：

   1. 添加用户或组以允许他们使用相同的数据集。

   1. 添加完要添加的所有人后，选择要应用于他们的**权限**。

1. （可选）要编辑权限，可以选择**查看者**或**拥有者**。
   + 选择**查看者**以允许读取权限。
   + 选择 “**所有者**” 以允许该用户编辑、共享或删除此 Quick Sight 数据源。

1. （可选）要撤销权限，请选择**撤销访问权限**。撤销某人的访问权限后，他们将无法创建、编辑、共享或删除数据集。

1. 完成后，请选择 **Close**。

## 为时间流添加新的 Quick Sight 数据集
<a name="create-dataset-using-timestream"></a>

拥有 Timestream 数据的现有数据来源连接后，您可以创建 Timestream 数据集以用于分析。

目前，您只能对数据集中的单个表使用 Timestream 连接。要将来自多个 Timestream 表的数据添加到单个数据集中，请为每个表创建一个额外的 Quick Sight 数据源连接。

**使用 Amazon Timestream 创建数据集**

1. 在左侧选择**数据**，然后向下滚动以找到您的 Timestream 连接的数据源卡。如果您有许多数据来源，则可以使用页面顶部的搜索栏来查找名称部分匹配的数据来源。

1. 选择 **Timestream** 数据来源卡片，然后选择**创建数据集**。

1. 对于**数据库**，选择**选择**以查看可用数据库列表，然后选择要使用的数据库。

1. 对于**表**，选择要使用的表。

1. 选择**编辑/预览**。

1. （可选）要添加更多数据，请按以下步骤进行操作：

   1. 选择右上角的**添加数据**。

   1. 要连接到不同的数据，请选择**切换数据来源**，然后选择不同的数据集。

   1. 按照 UI 提示完成数据添加。

   1. 将新数据添加到同一数据集后，选择**配置此联接**（两个红点）。为每个附加表设置联接。

   1. 如果要添加计算字段，请选择**添加计算字段**。

   1. 要从 SageMaker AI 添加模型，请选择 A **ugment with。 SageMaker**此选项仅在 Amazon Quick Enterprise 版中可用。

   1. 清除任何您要省略的字段的复选框。

   1. 更新任何您要更改的数据类型。

1. 完成后，选择**保存**，以保存并关闭数据集。

## 向分析中添加 Timestream 数据
<a name="open-analysis-add-dataset-for-timestream"></a>

接下来，您将了解如何将 Amazon Timestream 数据集添加到 Quick Sight 分析中。开始之前，请确保您已经拥有包含要使用的 Timestream 数据的现有数据集。

**向分析中添加 Amazon Timestream 数据**

1. 选择左侧的**分析**。

1. 请执行以下操作之一：
   + 要创建新分析，请选择右侧的**新分析**。
   + 要添加到现有分析，请打开要编辑的分析。
     + 选择左上角附近的铅笔图标。
     + 选择**添加数据集**。

1. 选择要添加的 Timestream 数据集。

有关更多信息，请参阅 [Working with analyses](https://docs.aws.amazon.com/quicksight/latest/user/working-with-analyses.html)。