Amazon Redshift wird UDFs ab dem 1. November 2025 die Erstellung von neuem Python nicht mehr unterstützen. Wenn Sie Python verwenden möchten UDFs, erstellen Sie das UDFs vor diesem Datum liegende. Bestehendes Python UDFs wird weiterhin wie gewohnt funktionieren. Weitere Informationen finden Sie im Blogbeitrag
Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Verwenden der Amazon Redshift Data API
Die Amazon Redshift Data API vereinfacht den Zugriff auf Ihr Amazon Redshift Data Warehouse, da Datenbanktreiber, Verbindungen, Netzwerkkonfigurationen, Datenpufferung, Anmeldeinformationen und mehr nicht mehr verwaltet werden müssen. Sie können SQL-Anweisungen mithilfe der Daten-API-Operationen mit dem SDK ausführen. AWS Weitere Informationen zu den Daten-API-Vorgängen finden Sie in der Amazon Redshift Data API-Referenz.
Die Data API erfordert keine persistente Verbindung zu Ihrer Datenbank. Stattdessen bietet es einen sicheren HTTP-Endpunkt und eine Integration mit AWS SDKs. Über den Endpunkt können Sie SQL-Anweisungen ausführen, ohne Verbindungen zu verwalten. Aufrufe der Data API erfolgen asynchron. Die Daten-API kann entweder in gespeicherten Anmeldeinformationen AWS Secrets Manager oder temporäre Datenbankanmeldeinformationen verwenden. Bei keiner der Autorisierungsmethoden müssen Sie Passwörter in den API-Aufrufen übergeben. Weitere Informationen zu AWS Secrets Manager finden Sie unter Was ist AWS Secrets Manager? im AWS Secrets Manager Benutzerhandbuch. Sie können es auch AWS IAM Identity Center für die Autorisierung verwenden.
Mit der Daten-API können Sie mit Webservice-basierten Anwendungen, einschließlich AWS Lambda Amazon AI-Notebooks und, programmgesteuert auf Amazon SageMaker Redshift-Daten zugreifen. AWS Cloud9 Weitere Informationen zu diesen Anwendungen finden Sie AWS Lambda
Weitere Informationen zur Daten-API finden Sie unter Erste Schritte mit der Amazon Redshift Data API
Arbeiten mit der Amazon Redshift Data API
Bevor Sie die Amazon Redshift Data API verwenden, überprüfen Sie die folgenden Schritte:
-
Ermitteln Sie, ob Sie als Aufrufer der Data API autorisiert sind. Weitere Informationen zur -Autorisierung finden Sie unter Autorisieren des Zugriffs auf die Amazon Redshift Data API.
-
Stellen Sie fest, ob Sie die Daten-API mit Authentifizierungsdaten von Secrets Manager, temporären Anmeldeinformationen aufrufen oder verwenden möchten AWS IAM Identity Center. Weitere Informationen finden Sie unter Auswählen der Anmeldeinformationen für die Datenbankauthentifizierung beim Aufrufen der Amazon Redshift Data API.
-
Richten Sie ein Secret ein, wenn Sie Secrets Manager für die Authentifizierungsanmeldeinformationen verwenden. Weitere Informationen finden Sie unter Speichern von Datenbankanmeldedaten in AWS Secrets Manager.
-
Beachten Sie die Punkte und Einschränkungen, die beim Aufrufen der Data API zu berücksichtigen sind. Weitere Informationen finden Sie unter Wichtige Punkte beim Aufrufen der Amazon Redshift Data API.
-
Rufen Sie die Daten-API über AWS Command Line Interface (AWS CLI), über Ihren eigenen Code oder mithilfe des Abfrage-Editors in der Amazon Redshift Redshift-Konsole auf. Beispiele für den Aufruf über die AWS CLI finden Sie unter Aufrufen der Daten-API.
Wichtige Punkte beim Aufrufen der Amazon Redshift Data API
Beachten Sie Folgendes, wenn Sie die Data API aufrufen:
-
Die Amazon Redshift Data API kann auf Datenbanken in von Amazon Redshift bereitgestellten Clustern und Redshift-Serverless-Arbeitsgruppen zugreifen. Eine Liste, AWS-Regionen wo die Redshift Data API verfügbar ist, finden Sie in den Endpunkten, die für die Redshift Data API aufgeführt sind. Allgemeine Amazon Web Services-Referenz
-
Die maximale Dauer einer Abfrage beträgt 24 Stunden.
-
Die maximale Anzahl aktiver Abfragen (
STARTEDundSUBMITTEDAbfragen) pro Amazon Redshift Redshift-Cluster beträgt 500. -
Die maximale Größe der Abfrageergebnisse beträgt 500 MB (nach der Gzip-Komprimierung). Wenn ein Anruf mehr als 500 MB Antwortdaten zurückgibt, wird der Anruf beendet.
-
Die maximale Aufbewahrungszeit für Abfrageergebnisse beträgt 24 Stunden.
-
Die maximale Größe von Abfrageanweisungen beträgt 100 KB.
-
Die Data API ist für die Abfrage von Clustern mit einem Knoten und mehreren Knoten der folgenden Knotentypen verfügbar:
-
dc2.large
-
dc2.8xlarge
-
ra3.large
-
ra3.xlplus
-
ra3.4xlarge
-
ra3.16xlarge
-
-
Der Cluster muss sich in einer auf dem Amazon-VPC-Service basierenden Virtual Private Cloud (VPC) befinden.
-
Standardmäßig können Benutzer mit derselben IAM-Rolle wie der Ausführende einer
ExecuteStatementBatchExecuteStatementOR-API-Operation auf dieselbe Anweisung mitCancelStatement,,DescribeStatementGetStatementResultGetStatementResultV2, undListStatementsAPI-Operationen reagieren. Um auf dieselbe SQL-Anweisung eines anderen Benutzers reagieren zu können, muss der Benutzer die IAM-Rolle des Benutzers übernehmen können, der die SQL-Anweisung ausgeführt hat. Weitere Informationen zum Übernehmen einer Rolle finden Sie unter Autorisieren des Zugriffs auf die Amazon Redshift Data API. -
Die SQL-Anweisungen im Parameter
Sqlsder API-OperationBatchExecuteStatementwerden als eine einzige Transaktion ausgeführt. Sie werden seriell in der Reihenfolge des Arrays ausgeführt. Nachfolgende SQL-Anweisungen werden erst gestartet, wenn die vorherige Anweisung im Array abgeschlossen ist. Wenn eine SQL-Anweisung fehlschlägt, wird die gesamte Arbeit zurückgesetzt, da die Anweisungen als eine Transaktion ausgeführt werden. -
Die maximale Aufbewahrungszeit für ein Client-Token, das in der API-Operation
ExecuteStatementoderBatchExecuteStatementverwendet wird, beträgt 8 Stunden. -
Jede API in der Redshift-Daten-API verfügt über ein Kontingent von Transaktionen pro Sekunde, bevor Anforderungen gedrosselt werden. Informationen zu dem Kontingent finden Sie unter Kontingente für die Amazon-Redshift-Daten-API. Wenn die Anforderungsrate das Kontingent überschreitet, wird eine
ThrottlingExceptionmit dem HTTP-Statuscode: 400 zurückgegeben. Um auf die Drosselung zu reagieren, verwenden Sie eine Wiederholungsstrategie, wie sie unter Wiederholungsverhalten im Referenzhandbuch und im Tools-Referenzhandbuch beschrieben ist AWS SDKs . In einigen Fällen wird diese Strategie bei Drosselungsfehlern automatisch implementiert. AWS SDKsAnmerkung
Standardmäßig sind AWS Step Functions Wiederholungsversuche nicht aktiviert. Wenn Sie eine Redshift-Daten-API in einem Step-Functions-Zustandsautomat aufrufen müssen, fügen Sie den Idempotenzparameter
ClientTokenin Ihren Redshift-Daten-API-Aufruf ein. Der Wert fürClientTokenmuss auch bei Wiederholungsversuchen beibehalten werden. Im folgenden Beispielausschnitt einer Anforderung an dieExecuteStatement-API verwendet der AusdruckStates.ArrayGetItem(States.StringSplit($$.Execution.Id, ':'), 7)eine intrinsische Funktion, um den UUID-Teil von$$.Execution.Idzu extrahieren, der für jede Ausführung des Zustandsautomats eindeutig ist. Weitere Informationen finden Sie unter Intrinsische Funktionen im AWS Step Functions -Entwicklerhandbuch.{ "Database": "dev", "Sql": "select 1;", "ClusterIdentifier": "MyCluster", "ClientToken.$": "States.ArrayGetItem(States.StringSplit($$.Execution.Id, ':'), 7)" }
Auswählen der Anmeldeinformationen für die Datenbankauthentifizierung beim Aufrufen der Amazon Redshift Data API
Wenn Sie die Data API aufrufen, verwenden Sie eine der folgenden Authentifizierungsmethoden für einige API-Vorgänge. Jede Methode erfordert eine andere Kombination von Parametern.
- AWS IAM Identity Center
-
Auf die Daten-API kann mit einem registrierten Single Sign-On-Benutzer zugegriffen werden. AWS IAM Identity Center Informationen zu den Schritten zur Einrichtung von IAM Identity Center finden Sie unter. Verwenden der Daten-API mit vertrauenswürdiger Identitätsverbreitung
- AWS Secrets Manager
-
Geben Sie bei dieser Methode den Wert
secret-arneines Geheimnisses an AWS Secrets Manager , in demusernameundpasswordgespeichert ist. Das angegebene Secret enthält Anmeldeinformationen zum Verbinden mit der von Ihnen angegebenendatabase. Wenn Sie eine Verbindung zu einem Cluster herstellen, geben Sie auch den Datenbanknamen an. Wenn Sie eine Clusterkennung (dbClusterIdentifier) angeben, muss diese mit der in dem Secret gespeicherten Clusterkennung übereinstimmen. Wenn Sie eine Verbindung zu einer Serverless-Arbeitsgruppe herstellen, geben Sie auch den Datenbanknamen an. Weitere Informationen finden Sie unter Speichern von Datenbankanmeldedaten in AWS Secrets Manager.Mit dieser Methode können Sie auch einen
regionWert angeben, der angibt, AWS-Region wo sich Ihre Daten befinden. - Temporäre Anmeldeinformationen
-
Wählen Sie bei dieser Methode eine der folgenden Optionen aus:
-
Wenn Sie eine Verbindung zu einer Serverless-Arbeitsgruppe herstellen, geben Sie den Arbeitsgruppennamen und den Datenbanknamen an. Der Datenbankbenutzername wird von der IAM-Identität abgeleitet. Für
arn:iam::123456789012:user:foolautet der Datenbankbenutzername beispielsweiseIAM:foo. Auch die Berechtigung zum Aufruf derredshift-serverless:GetCredentials-Operation ist erforderlich. -
Geben Sie die Clusterkennung und den Datenbanknamen an, wenn Sie eine Verbindung zu einem Cluster als IAM-Identität herstellen. Der Datenbankbenutzername wird von der IAM-Identität abgeleitet. Für
arn:iam::123456789012:user:foolautet der Datenbankbenutzername beispielsweiseIAM:foo. Auch die Berechtigung zum Aufruf derredshift:GetClusterCredentialsWithIAM-Operation ist erforderlich. -
Geben Sie die Clusterkennung, den Datenbanknamen und den Namen des Datenbankbenutzers an, wenn Sie eine Verbindung zu einem Cluster als Datenbankbenutzer herstellen. Auch die Berechtigung zum Aufruf der
redshift:GetClusterCredentials-Operation ist erforderlich. Hinweise dazu, wie Sie Datenbankgruppen beitreten, wenn Sie mit dieser Methode eine Verbindung herstellen, finden Sie unter Beitreten zu Datenbankgruppen beim Herstellen einer Verbindung mit einem Cluster.
Mit dieser Methode können Sie auch einen
regionWert angeben, der angibt, AWS-Region wo sich Ihre Daten befinden. -
Zuordnen von JDBC-Datentypen beim Aufrufen der Amazon Redshift Data API
In der folgenden Tabelle sind den Datentypen, die Sie in Daten-API-Aufrufen angeben, JDBC-Datentypen (Java Database Connectivity) zugeordnet.
|
JDBC-Datentyp |
Daten-API-Datentyp |
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Andere Typen (einschließlich datums- und zeitbezogener Typen) |
|
Zeichenfolgenwerte werden an die Amazon-Redshift-Datenbank übergeben und implizit in einen Datenbankdatentyp umgewandelt.
Anmerkung
Derzeit unterstützt die Daten-API keine Arrays mit universellen eindeutigen Identifikatoren ()UUIDs.
Ausführen von SQL-Anweisungen mit Parametern beim Aufrufen der Amazon Redshift Data API
Sie können den an die Datenbank-Engine übermittelten SQL-Text kontrollieren, indem Sie den Data-API-Vorgang mithilfe von Parametern für Teile der SQL-Anweisung aufrufen. Benannte Parameter bieten eine flexible Möglichkeit, Parameter zu übergeben, ohne sie im SQL-Text hart zu codieren. Sie helfen Ihnen, SQL-Text wiederzuverwenden und SQL-Injections-Probleme zu vermeiden.
Das folgende Beispiel zeigt die benannten Parameter eines parameters Befehlsfeldes. execute-statement AWS CLI
--parameters "[{\"name\": \"id\", \"value\": \"1\"},{\"name\": \"address\", \"value\": \"Seattle\"}]"
Beachten Sie Folgendes, wenn Sie benannte Parameter verwenden:
-
Benannte Parameter können nur verwendet werden, um Werte in SQL-Anweisungen zu ersetzen.
-
Sie können die Werte in einer INSERT-Anweisung, wie z. B.
INSERT INTO mytable VALUES(:val1), ersetzen.Die benannten Parameter können in beliebiger Reihenfolge vorliegen und Parameter können mehrmals im SQL-Text verwendet werden. Die in einem vorherigen Beispiel gezeigte Parameteroption, die Werte
1undSeattlewerden in die Tabellenspaltenidundaddresseingefügt. Im SQL-Text geben Sie die benannten Parameter wie folgt an:--sql "insert into mytable values (:id, :address)" -
Sie können die Werte in einer Bedingungsklausel ersetzen, z. B.
WHERE attr >= :val1,WHERE attr BETWEEN :val1 AND :val2undHAVING COUNT(attr) > :val. -
Sie können in einer SQL-Anweisung keine Spaltennamen ersetzen, wie z. B.
SELECT column-name,ORDER BY column-nameoderGROUP BY column-name.Die folgende SELECT-Anweisung schlägt beispielsweise aufgrund bei einer ungültigen Syntax fehl.
--sql "SELECT :colname, FROM event" --parameters "[{\"name\": \"colname\", \"value\": \"eventname\"}]"Wenn Sie die Anweisung mit dem Syntaxfehler beschreiben (
describe-statement-Operation), ersetzt der zurückgegebeneQueryStringnicht den Spaltennamen für den Parameter ("QueryString": "SELECT :colname, FROM event") und es wird ein Fehler gemeldet (ERROR: Syntaxfehler bei oder nahe \"FROM\"\n Position: 12). -
Sie können in einer Aggregatfunktion keine Spaltennamen ersetzen, wie z. B.
COUNT(column-name),AVG(column-name)oderSUM(column-name). -
Sie können Spaltennamen in einer JOIN-Klausel nicht ersetzen.
-
-
Wenn die SQL-Anweisung ausgeführt wird, werden Daten implizit in einen Datentyp umgewandelt. Weitere Informationen zur Datentypumwandlung finden Sie unter Datentypen im Datenbankentwicklerhandbuch zu Amazon Redshift.
-
Sie können einen Wert nicht auf NULL setzen. Die Data API interpretiert ihn als Literalzeichenfolge
NULL. Im folgenden Beispiel wirdiddurch die Literalzeichenfolgenullersetzt, nicht durch den SQL-NULL-Wert.--parameters "[{\"name\": \"id\", \"value\": \"null\"}]" -
Sie können keinen Wert mit Länge null festlegen. Die SQL-Anweisung der Data API schlägt fehl. Im folgenden Beispiel wird versucht,
idmit einem Wert der Länge null festzulegen, was zum Fehlschlagen der SQL-Anweisung führt.--parameters "[{\"name\": \"id\", \"value\": \"\"}]" -
Sie können einen Tabellennamen in der SQL-Anweisung nicht mit einem Parameter festlegen. Die Data API folgt der Regel des JDBC-
PreparedStatement. -
Die Ausgabe der Operation
describe-statementgibt die Abfrageparameter einer SQL-Anweisung zurück. -
Nur der
execute-statement-Vorgang unterstützt SQL-Anweisungen mit Parametern.
Ausführen von SQL-Anweisungen mit einem Idempotenz-Token beim Aufrufen der Amazon Redshift Data API
Wenn Sie eine ändernde API-Anfrage stellen, gibt die Anfrage in der Regel ein Ergebnis zurück, bevor die asynchronen Workflows der Operation abgeschlossen sind. Es können auch ein Timeout oder andere Serverprobleme auftreten, bevor Operationen abgeschlossen sind, obwohl die Anfrage bereits ein Ergebnis zurückgegeben hat. Dadurch lässt sich möglicherweise nur schwer feststellen, ob die Anfrage erfolgreich war oder nicht, und es werden möglicherweise mehrere Wiederholungsversuche vorgenommen, um sicherzustellen, dass die Operation erfolgreich abgeschlossen wird. Wenn die ursprüngliche Anfrage und die nachfolgenden Wiederholungsversuche jedoch erfolgreich sind, wird die Operation mehrmals abgeschlossen. Das bedeutet, dass Sie möglicherweise mehr Ressourcen aktualisieren als beabsichtigt.
Idempotenz stellt sicher, dass eine API-Anfrage nicht mehr als einmal abgeschlossen wird. Wenn bei einer idempotenten Anfrage die ursprüngliche Anfrage erfolgreich abgeschlossen wird, werden alle nachfolgenden Wiederholungen erfolgreich abgeschlossen, ohne dass weitere Aktionen ausgeführt werden. Die Data-API-Operationen ExecuteStatement und BatchExecuteStatement weisen den optionalen idempotenten Parameter ClientToken auf. Das ClientToken läuft nach 8 Stunden ab.
Wichtig
Wenn Sie von einem AWS SDK aus aufrufen ExecuteStatement und BatchExecuteStatement Operationen ausführen, generiert es automatisch ein Client-Token, das bei einem erneuten Versuch verwendet wird. In diesem Fall empfehlen wir, den Parameter client-token nicht mit den Operationen ExecuteStatement und BatchExecuteStatement zu verwenden. Sehen Sie CloudTrail sich das Protokoll an, um das ClientToken zu sehen. Ein Beispiel für ein CloudTrail Protokoll finden Sie unterAmazon-Redshift-Daten-API – Beispiele.
Der folgende execute-statement AWS CLI Befehl veranschaulicht den optionalen client-token Parameter für Idempotenz.
aws redshift-data execute-statement
--secret-arn arn:aws:secretsmanager:us-west-2:123456789012:secret:myuser-secret-hKgPWn
--cluster-identifier mycluster-test
--sql "select * from stl_query limit 1"
--database dev
--client-token b855dced-259b-444c-bc7b-d3e8e33f94g1
Die folgende Tabelle zeigt einige häufig vorkommende Antworten, die Sie auf idempotente API-Anfragen erhalten könnten, und stellt Empfehlungen zu Wiederholungsversuchen bereit.
| Antwort | Empfehlung | Kommentare |
|---|---|---|
|
200 (OK) |
Nicht erneut versuchen |
Die ursprüngliche Anfrage wurde erfolgreich abgeschlossen. Alle nachfolgenden Wiederholungsversuche werden als erfolgreich zurückgegeben. |
|
Antwortcodes der Serie 400 |
Nicht erneut versuchen |
Es liegt eins der folgenden Probleme mit der Anfrage vor:
Wenn die Anfrage eine Ressource umfasst, deren Status sich gerade ändert, könnte ein erneuter Anfrageversuch möglicherweise erfolgreich sein. |
|
Antwortcodes der Serie 500 |
Erneut versuchen |
Der Fehler wird durch ein AWS serverseitiges Problem verursacht und ist im Allgemeinen vorübergehend. Wiederholen Sie die Anfrage mit einer geeigneten Backoff-Strategie. |
Weitere Informationen zu den Amazon-Redshift-Antwortcodes finden Sie unter Häufige Fehler in der API-Referenz zu Amazon Redshift.
Ausführen von SQL-Anweisungen mit Wiederverwendung von Sitzungen beim Aufrufen der Amazon Redshift Data API
Wenn Sie eine API-Anfrage zur Ausführung einer SQL-Anweisung stellen, wird die Sitzung, in der die SQL ausgeführt wird, normalerweise beendet, wenn die SQL-Anweisung beendet ist. Um die Sitzung für eine bestimmte Anzahl von Sekunden aktiv zu halten, verfügen die Daten-API ExecuteStatement und die BatchExecuteStatement Operationen über einen optionalen SessionKeepAliveSeconds Parameter. Ein SessionId Antwortfeld enthält die Identität der Sitzung, die dann in nachfolgenden ExecuteStatement BatchExecuteStatement Vorgängen verwendet werden kann. Bei nachfolgenden Aufrufen können Sie einen anderen angebenSessionKeepAliveSeconds, um die Leerlaufzeit zu ändern. Wenn das nicht geändert SessionKeepAliveSeconds wird, bleibt die ursprüngliche Einstellung für das Leerlauf-Timeout bestehen. Beachten Sie Folgendes, wenn Sie die Wiederverwendung von Sitzungen verwenden:
-
Der Höchstwert von
SessionKeepAliveSecondsist 24 Stunden. -
Die Sitzung kann höchstens 24 Stunden dauern. Nach 24 Stunden wird die Sitzung gewaltsam geschlossen und laufende Abfragen werden beendet.
-
Die maximale Anzahl von Sitzungen pro Amazon Redshift Redshift-Cluster oder Redshift Serverless-Arbeitsgruppe beträgt 500.
-
In einer Sitzung können Sie jeweils nur eine Abfrage ausführen. Sie müssen warten, bis die Abfrage abgeschlossen ist, um die nächste Abfrage in derselben Sitzung auszuführen. Das heißt, Sie können Abfragen in einer bereitgestellten Sitzung nicht parallel ausführen.
-
Die Daten-API kann Abfragen für eine bestimmte Sitzung nicht in die Warteschlange stellen.
Um das abzurufenSessionId, was von Aufrufen ExecuteStatement und BatchExecuteStatement Vorgängen verwendet wird, rufen Sie DescribeStatement und ListStatements Operationen auf.
Das folgende Beispiel zeigt, wie die SessionId Parameter SessionKeepAliveSeconds und verwendet werden, um eine Sitzung aufrechtzuerhalten und wiederzuverwenden. Rufen Sie zunächst den execute-statement AWS CLI Befehl auf, wobei der optionale session-keep-alive-seconds Parameter auf 2 gesetzt ist.
aws redshift-data execute-statement
--session-keep-alive-seconds 2
--sql "select 1"
--database dev
--workgroup-name mywg
Die Antwort enthält die Sitzungs-ID.
{
"WorkgroupName": "mywg",
"CreatedAt": 1703022996.436,
"Database": "dev",
"DbUser": "awsuser",
"Id": "07c5ffea-76d6-4786-b62c-4fe3ef529680",
"SessionId": "5a254dc6-4fc2-4203-87a8-551155432ee4"
}
Rufen Sie dann den execute-statement AWS CLI Befehl mit dem vom ersten Aufruf SessionId zurückgegebenen Befehl auf. Geben Sie optional den session-keep-alive-seconds Parameter an, auf, 10 um den Wert für das Leerlauf-Timeout zu ändern.
aws redshift-data execute-statement
--sql "select 1"
--session-id 5a254dc6-4fc2-4203-87a8-551155432ee4
--session-keep-alive-seconds 10
Abrufen der Ergebnisse von SQL-Anweisungen
Sie verwenden je nach Ergebnisformat unterschiedliche Daten-API-Operationen, um SQL-Ergebnisse abzurufen. Wenn Sie BatchExecuteStatement Operationen aufrufenExecuteStatement, können Sie angeben, ob die Ergebnisse als JSON oder CSV formatiert sind. Wenn Sie nichts angeben, ist JSON die Standardeinstellung. Verwenden Sie den GetStatementResult Vorgang, um JSON-Ergebnisse abzurufen. Verwenden Sie den GetStatementResultV2 Vorgang, um CSV-Ergebnisse abzurufen.
Bei den im JSON-Format zurückgegebenen Ergebnissen handelt es sich um Datensätze, die Metadaten zu jeder Spalte enthalten. Jeder Datensatz ist im JSON-Format. Die Antwort von GetStatementResult sieht zum Beispiel so aus:
{ "ColumnMetadata": [ { "isCaseSensitive": false, "isCurrency": false, "isSigned": true, "label": "?column?", "name": "?column?", "nullable": 1, "precision": 10, "scale": 0, "schemaName": "", "tableName": "", "typeName": "int4", "length": 0 } ], "NextToken": "<token>", "Records": [ [ { "longValue": 1 } ] ], "TotalNumRows":<number>}
Bei den im CSV-Format zurückgegebenen Ergebnissen handelt es sich um Datensätze, die Metadaten zu jeder Spalte enthalten. Die Ergebnisse werden in 1-MB-Blöcken zurückgegeben, wobei in jedem Abschnitt eine beliebige Anzahl von Zeilen im CSV-Format gespeichert werden kann. Jede Anfrage gibt bis zu 15 MB an Ergebnissen zurück. Wenn die Ergebnisse größer als 15 MB sind, wird ein Token für die nächste Seite zurückgegeben, um mit dem Abrufen der Ergebnisse fortzufahren. Die Antwort von GetStatementResultV2 sieht beispielsweise in etwa so aus:
{ "ColumnMetadata": [ { "isCaseSensitive": false, "isCurrency": false, "isSigned": true, "label": "?column?", "name": "?column?", "nullable": 1, "precision": 10, "scale": 0, "schemaName": "", "tableName": "", "typeName": "int4", "length": 0 }, { "isCaseSensitive": false, "isCurrency": false, "isSigned": true, "label": "?column?", "name": "?column?", "nullable": 1, "precision": 10, "scale": 0, "schemaName": "", "tableName": "", "typeName": "int4", "length": 0 }, { "isCaseSensitive": false, "isCurrency": false, "isSigned": true, "label": "?column?", "name": "?column?", "nullable": 1, "precision": 10, "scale": 0, "schemaName": "", "tableName": "", "typeName": "int4", "length": 0 } ], "NextToken": "<token>", "Records": [ [ { "CSVRecords":"1,2,3\r\n4,5,6\r\n7,8,9\rn, .... 1MB" // First 1MB Chunk }, { "CSVRecords":"1025,1026,1027\r\n1028,1029,1030\r\n....2MB" // Second 1MB chunk } ... ] ], "ResultFormat" : "CSV", "TotalNumRows":<number>}