Amazon Redshift wird UDFs ab dem 1. November 2025 die Erstellung von neuem Python nicht mehr unterstützen. Wenn Sie Python verwenden möchten UDFs, erstellen Sie das UDFs vor diesem Datum liegende. Bestehendes Python UDFs wird weiterhin wie gewohnt funktionieren. Weitere Informationen finden Sie im Blog-Posting
Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Verwenden der Amazon Redshift Data API
Die Amazon Redshift Data API vereinfacht den Zugriff auf Ihr Amazon Redshift Data Warehouse, da keine Verwaltung von Datenbanktreibern, Verbindungen, Netzwerkkonfigurationen, Datenpufferung, Anmeldeinformationen usw. mehr erforderlich ist. Sie können SQL-Anweisungen mithilfe der Daten-API-Operationen mit dem AWS SDK ausführen. Weitere Informationen zu den Data-API-Operationen finden Sie in der Amazon-Redshift-Data-API-Referenz.
Die Data API erfordert keine persistente Verbindung zu Ihrer Datenbank. Stattdessen bietet es einen sicheren HTTP-Endpunkt und eine Integration mit AWSSDKs. Über den Endpunkt können Sie SQL-Anweisungen ausführen, ohne Verbindungen zu verwalten. Aufrufe der Data API erfolgen asynchron. Die Daten-API kann entweder in gespeicherten Anmeldeinformationen AWS Secrets Manager oder temporäre Datenbankanmeldeinformationen verwenden. Bei keiner der Autorisierungsmethoden müssen Sie Passwörter in den API-Aufrufen übergeben. Weitere Informationen zu AWS Secrets Manager finden Sie unter Was istAWS Secrets Manager? im AWS Secrets ManagerBenutzerhandbuch. Sie können es auch AWS IAM Identity Center für die Autorisierung verwenden.
Mit der Daten-API können Sie mit Webservice-basierten Anwendungen, einschließlich AWS Lambda Amazon AI-Notebooks und, programmgesteuert auf Amazon SageMaker Redshift-Daten zugreifen. AWS Cloud9 Weitere Informationen zu diesen Anwendungen finden Sie AWS Lambda
Weitere Informationen zur Data API finden Sie unter Get started with the Amazon Redshift Data API
Arbeiten mit der Amazon Redshift Data API
Bevor Sie die Amazon Redshift Data API verwenden, überprüfen Sie die folgenden Schritte:
-
Ermitteln Sie, ob Sie als Aufrufer der Data API autorisiert sind. Weitere Informationen zur -Autorisierung finden Sie unter Autorisieren des Zugriffs auf die Amazon Redshift Data API.
-
Ermitteln Sie, ob Sie planen, die Data API mit Authentifizierungsanmeldeinformationen von Secrets Manager oder temporären Anmeldeinformationen aufzurufen oder AWS IAM Identity Center zu verwenden. Weitere Informationen finden Sie unter Auswählen der Anmeldeinformationen für die Datenbankauthentifizierung beim Aufrufen der Amazon Redshift Data API.
-
Richten Sie ein Secret ein, wenn Sie Secrets Manager für die Authentifizierungsanmeldeinformationen verwenden. Weitere Informationen finden Sie unter Speichern von Datenbankanmeldedaten in AWS Secrets Manager.
-
Beachten Sie die Punkte und Einschränkungen, die beim Aufrufen der Data API zu berücksichtigen sind. Weitere Informationen finden Sie unter Wichtige Punkte beim Aufrufen der Amazon Redshift Data API.
-
Rufen Sie die Daten-API über AWS Command Line Interface (AWS CLI), über Ihren eigenen Code oder mithilfe des Abfrage-Editors in der Amazon Redshift Redshift-Konsole auf. Beispiele für den Aufruf über die AWS CLI finden Sie unter Aufrufen der Daten-API.
Wichtige Punkte beim Aufrufen der Amazon Redshift Data API
Beachten Sie Folgendes, wenn Sie die Data API aufrufen:
-
Die Amazon Redshift Data API kann auf Datenbanken in von Amazon Redshift bereitgestellten Clustern und Redshift-Serverless-Arbeitsgruppen zugreifen. Eine Liste, AWS-Regionen wo die Redshift Data API verfügbar ist, finden Sie in den Endpunkten, die für die Redshift Data API aufgeführt sind. Allgemeine Amazon Web Services-Referenz
-
Die maximale Dauer einer Abfrage beträgt 24 Stunden.
-
Die maximale Anzahl aktiver Abfragen (
STARTEDundSUBMITTEDAbfragen) pro Amazon Redshift Redshift-Cluster beträgt 500. -
Die maximale Abfrageergebnisgröße beträgt 500 MB (nach Gzip-Komprimierung). Wenn ein Anruf mehr als 500 MB Antwortdaten zurückgibt, wird der Anruf beendet.
-
Die maximale Aufbewahrungszeit für Abfrageergebnisse beträgt 24 Stunden.
-
Die maximale Größe von Abfrageanweisungen beträgt 100 KB.
-
Die Data API ist für die Abfrage von Clustern mit einem Knoten und mehreren Knoten der folgenden Knotentypen verfügbar:
-
dc2.large
-
dc2.8xlarge
-
ra3.large
-
ra3.xlplus
-
ra3.4xlarge
-
ra3.16xlarge
-
-
Der Cluster muss sich in einer auf dem Amazon-VPC-Service basierenden Virtual Private Cloud (VPC) befinden.
-
Standardmäßig können Benutzer mit derselben IAM-Rolle wie der Ausführer eines
ExecuteStatement- oderBatchExecuteStatement-API-Vorgangs auf dieselbe Anweisung mitCancelStatement-,DescribeStatement-,GetStatementResult-GetStatementResultV2- undListStatements-API-Vorgängen reagieren. Um auf dieselbe SQL-Anweisung eines anderen Benutzers reagieren zu können, muss der Benutzer die IAM-Rolle des Benutzers übernehmen können, der die SQL-Anweisung ausgeführt hat. Weitere Informationen zum Übernehmen einer Rolle finden Sie unter Autorisieren des Zugriffs auf die Amazon Redshift Data API. -
Die SQL-Anweisungen im Parameter
Sqlsder API-OperationBatchExecuteStatementwerden als eine einzige Transaktion ausgeführt. Sie werden seriell in der Reihenfolge des Arrays ausgeführt. Nachfolgende SQL-Anweisungen werden erst gestartet, wenn die vorherige Anweisung im Array abgeschlossen ist. Wenn eine SQL-Anweisung fehlschlägt, wird die gesamte Arbeit zurückgesetzt, da die Anweisungen als eine Transaktion ausgeführt werden. -
Die maximale Aufbewahrungszeit für ein Client-Token, das in der API-Operation
ExecuteStatementoderBatchExecuteStatementverwendet wird, beträgt 8 Stunden. -
Wenn die von Amazon Redshift bereitgestellten Cluster und die Redshift Serverless Workgroup mit einem vom Kunden verwalteten Schlüssel verschlüsselt werden, gewährt Redshift einen Zuschuss, der es der Redshift Data API ermöglicht, den Schlüssel für ihre Operationen zu verwenden. Weitere Informationen finden Sie unter Verwendung AWS KMS mit der Amazon Redshift Data API.
-
Jede API in der Redshift-Daten-API verfügt über ein Kontingent von Transaktionen pro Sekunde, bevor Anforderungen gedrosselt werden. Informationen zu dem Kontingent finden Sie unter Kontingente für die Amazon-Redshift-Daten-API. Wenn die Anforderungsrate das Kontingent überschreitet, wird eine
ThrottlingExceptionmit dem HTTP-Statuscode: 400 zurückgegeben. Um auf die Drosselung zu reagieren, verwenden Sie eine Wiederholungsstrategie, wie unter Wiederholungsverhalten im Referenzhandbuch zu Tools beschrieben. AWS SDKs In einigen Fällen wird diese Strategie bei Drosselungsfehlern automatisch implementiert. AWS SDKsAnmerkung
Standardmäßig sind AWS Step Functions Wiederholungsversuche nicht aktiviert. Wenn Sie eine Redshift-Daten-API in einem Step-Functions-Zustandsautomat aufrufen müssen, fügen Sie den Idempotenzparameter
ClientTokenin Ihren Redshift-Daten-API-Aufruf ein. Der Wert fürClientTokenmuss auch bei Wiederholungsversuchen beibehalten werden. Im folgenden Beispielausschnitt einer Anforderung an dieExecuteStatement-API verwendet der AusdruckStates.ArrayGetItem(States.StringSplit($$.Execution.Id, ':'), 7)eine intrinsische Funktion, um den UUID-Teil von$$.Execution.Idzu extrahieren, der für jede Ausführung des Zustandsautomats eindeutig ist. Weitere Informationen finden Sie unter Intrinsische Funktionen im AWS Step Functions-Entwicklerhandbuch.{ "Database": "dev", "Sql": "select 1;", "ClusterIdentifier": "MyCluster", "ClientToken.$": "States.ArrayGetItem(States.StringSplit($$.Execution.Id, ':'), 7)" }
Auswählen der Anmeldeinformationen für die Datenbankauthentifizierung beim Aufrufen der Amazon Redshift Data API
Wenn Sie die Data API aufrufen, verwenden Sie eine der folgenden Authentifizierungsmethoden für einige API-Vorgänge. Jede Methode erfordert eine andere Kombination von Parametern.
- AWS IAM Identity Center
-
Der Zugriff auf die Data API kann durch einen Single-Sign-On-Benutzer erfolgen, der in AWS IAM Identity Center registriert ist. Weitere Informationen zu den Schritten zum Einrichten des IAM Identity Center finden Sie unter Verwenden der Data API mit Weitergabe von vertrauenswürdigen Identitäten.
- AWS Secrets Manager
-
Geben Sie bei dieser Methode den Wert
secret-arneines Geheimnisses anAWS Secrets Manager, in demusernameundpasswordgespeichert ist. Das angegebene Secret enthält Anmeldeinformationen zum Verbinden mit der von Ihnen angegebenendatabase. Wenn Sie eine Verbindung zu einem Cluster herstellen, geben Sie auch den Datenbanknamen an. Wenn Sie eine Clusterkennung (dbClusterIdentifier) angeben, muss diese mit der in dem Secret gespeicherten Clusterkennung übereinstimmen. Wenn Sie eine Verbindung zu einer Serverless-Arbeitsgruppe herstellen, geben Sie auch den Datenbanknamen an. Weitere Informationen finden Sie unter Speichern von Datenbankanmeldedaten in AWS Secrets Manager.Mit dieser Methode können Sie auch einen
regionWert angeben, der angibt, AWS-Region wo sich Ihre Daten befinden. - Temporäre Anmeldeinformationen
-
Wählen Sie bei dieser Methode eine der folgenden Optionen aus:
-
Wenn Sie eine Verbindung zu einer Serverless-Arbeitsgruppe herstellen, geben Sie den Arbeitsgruppennamen und den Datenbanknamen an. Der Datenbankbenutzername wird von der IAM-Identität abgeleitet. Für
arn:iam::123456789012:user:foolautet der Datenbankbenutzername beispielsweiseIAM:foo. Auch die Berechtigung zum Aufruf derredshift-serverless:GetCredentials-Operation ist erforderlich. -
Geben Sie die Clusterkennung und den Datenbanknamen an, wenn Sie eine Verbindung zu einem Cluster als IAM-Identität herstellen. Der Datenbankbenutzername wird von der IAM-Identität abgeleitet. Für
arn:iam::123456789012:user:foolautet der Datenbankbenutzername beispielsweiseIAM:foo. Auch die Berechtigung zum Aufruf derredshift:GetClusterCredentialsWithIAM-Operation ist erforderlich. -
Geben Sie die Clusterkennung, den Datenbanknamen und den Namen des Datenbankbenutzers an, wenn Sie eine Verbindung zu einem Cluster als Datenbankbenutzer herstellen. Auch die Berechtigung zum Aufruf der
redshift:GetClusterCredentials-Operation ist erforderlich. Hinweise dazu, wie Sie Datenbankgruppen beitreten, wenn Sie mit dieser Methode eine Verbindung herstellen, finden Sie unter Beitreten zu Datenbankgruppen beim Herstellen einer Verbindung mit einem Cluster.
Mit dieser Methode können Sie auch einen
regionWert angeben, der angibt, AWS-Region wo sich Ihre Daten befinden. -
Zuordnen von JDBC-Datentypen beim Aufrufen der Amazon Redshift Data API
In der folgenden Tabelle sind den Datentypen, die Sie in Daten-API-Aufrufen angeben, JDBC-Datentypen (Java Database Connectivity) zugeordnet.
|
JDBC-Datentyp |
Daten-API-Datentyp |
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Andere Typen (einschließlich datums- und zeitbezogener Typen) |
|
Zeichenfolgenwerte werden an die Amazon-Redshift-Datenbank übergeben und implizit in einen Datenbankdatentyp umgewandelt.
Anmerkung
Derzeit unterstützt die Daten-API keine Arrays mit universellen eindeutigen Identifikatoren ()UUIDs.
Ausführen von SQL-Anweisungen mit Parametern beim Aufrufen der Amazon Redshift Data API
Sie können den an die Datenbank-Engine übermittelten SQL-Text kontrollieren, indem Sie den Data-API-Vorgang mithilfe von Parametern für Teile der SQL-Anweisung aufrufen. Benannte Parameter bieten eine flexible Möglichkeit, Parameter zu übergeben, ohne sie im SQL-Text hart zu codieren. Sie helfen Ihnen, SQL-Text wiederzuverwenden und SQL-Injections-Probleme zu vermeiden.
Das folgende Beispiel zeigt die benannten Parameter eines parameters Felds eines execute-statement AWS CLI Befehls.
--parameters "[{\"name\": \"id\", \"value\": \"1\"},{\"name\": \"address\", \"value\": \"Seattle\"}]"
Beachten Sie Folgendes, wenn Sie benannte Parameter verwenden:
-
Benannte Parameter können nur verwendet werden, um Werte in SQL-Anweisungen zu ersetzen.
-
Sie können die Werte in einer INSERT-Anweisung, wie z. B.
INSERT INTO mytable VALUES(:val1), ersetzen.Die benannten Parameter können in beliebiger Reihenfolge vorliegen und Parameter können mehrmals im SQL-Text verwendet werden. Die in einem vorherigen Beispiel gezeigte Parameteroption, die Werte
1undSeattlewerden in die Tabellenspaltenidundaddresseingefügt. Im SQL-Text geben Sie die benannten Parameter wie folgt an:--sql "insert into mytable values (:id, :address)" -
Sie können die Werte in einer Bedingungsklausel ersetzen, z. B.
WHERE attr >= :val1,WHERE attr BETWEEN :val1 AND :val2undHAVING COUNT(attr) > :val. -
Sie können in einer SQL-Anweisung keine Spaltennamen ersetzen, wie z. B.
SELECT column-name,ORDER BY column-nameoderGROUP BY column-name.Die folgende SELECT-Anweisung schlägt beispielsweise aufgrund bei einer ungültigen Syntax fehl.
--sql "SELECT :colname, FROM event" --parameters "[{\"name\": \"colname\", \"value\": \"eventname\"}]"Wenn Sie die Anweisung mit dem Syntaxfehler beschreiben (
describe-statement-Operation), ersetzt der zurückgegebeneQueryStringnicht den Spaltennamen für den Parameter ("QueryString": "SELECT :colname, FROM event") und es wird ein Fehler gemeldet (ERROR: Syntaxfehler bei oder nahe \"FROM\"\n Position: 12). -
Sie können in einer Aggregatfunktion keine Spaltennamen ersetzen, wie z. B.
COUNT(column-name),AVG(column-name)oderSUM(column-name). -
Sie können Spaltennamen in einer JOIN-Klausel nicht ersetzen.
-
-
Wenn die SQL-Anweisung ausgeführt wird, werden Daten implizit in einen Datentyp umgewandelt. Weitere Informationen zur Datentypumwandlung finden Sie unter Datentypen im Datenbankentwicklerhandbuch zu Amazon Redshift.
-
Sie können einen Wert nicht auf NULL setzen. Die Data API interpretiert ihn als Literalzeichenfolge
NULL. Im folgenden Beispiel wirdiddurch die Literalzeichenfolgenullersetzt, nicht durch den SQL-NULL-Wert.--parameters "[{\"name\": \"id\", \"value\": \"null\"}]" -
Sie können keinen Wert mit Länge null festlegen. Die SQL-Anweisung der Data API schlägt fehl. Im folgenden Beispiel wird versucht,
idmit einem Wert der Länge null festzulegen, was zum Fehlschlagen der SQL-Anweisung führt.--parameters "[{\"name\": \"id\", \"value\": \"\"}]" -
Sie können einen Tabellennamen in der SQL-Anweisung nicht mit einem Parameter festlegen. Die Data API folgt der Regel des JDBC-
PreparedStatement. -
Die Ausgabe der Operation
describe-statementgibt die Abfrageparameter einer SQL-Anweisung zurück. -
Nur der
execute-statement-Vorgang unterstützt SQL-Anweisungen mit Parametern.
Ausführen von SQL-Anweisungen mit einem Idempotenz-Token beim Aufrufen der Amazon Redshift Data API
Wenn Sie eine ändernde API-Anfrage stellen, gibt die Anfrage in der Regel ein Ergebnis zurück, bevor die asynchronen Workflows der Operation abgeschlossen sind. Es können auch ein Timeout oder andere Serverprobleme auftreten, bevor Operationen abgeschlossen sind, obwohl die Anfrage bereits ein Ergebnis zurückgegeben hat. Dadurch lässt sich möglicherweise nur schwer feststellen, ob die Anfrage erfolgreich war oder nicht, und es werden möglicherweise mehrere Wiederholungsversuche vorgenommen, um sicherzustellen, dass die Operation erfolgreich abgeschlossen wird. Wenn die ursprüngliche Anfrage und die nachfolgenden Wiederholungsversuche jedoch erfolgreich sind, wird die Operation mehrmals abgeschlossen. Das bedeutet, dass Sie möglicherweise mehr Ressourcen aktualisieren als beabsichtigt.
Idempotenz stellt sicher, dass eine API-Anfrage nicht mehr als einmal abgeschlossen wird. Wenn bei einer idempotenten Anfrage die ursprüngliche Anfrage erfolgreich abgeschlossen wird, werden alle nachfolgenden Wiederholungen erfolgreich abgeschlossen, ohne dass weitere Aktionen ausgeführt werden. Die Data-API-Operationen ExecuteStatement und BatchExecuteStatement weisen den optionalen idempotenten Parameter ClientToken auf. Das ClientToken läuft nach 8 Stunden ab.
Wichtig
Wenn Sie von einem AWS SDK aus aufrufen ExecuteStatement und BatchExecuteStatement Operationen ausführen, generiert es automatisch ein Client-Token, das bei einem erneuten Versuch verwendet wird. In diesem Fall empfehlen wir, den Parameter client-token nicht mit den Operationen ExecuteStatement und BatchExecuteStatement zu verwenden. Sehen Sie CloudTrail sich das Protokoll an, um das ClientToken zu sehen. Ein Beispiel für ein CloudTrail Protokoll finden Sie unterAmazon-Redshift-Daten-API – Beispiele.
Der folgende execute-statement AWS CLI Befehl veranschaulicht den optionalen client-token Parameter für Idempotenz.
aws redshift-data execute-statement
--secret-arn arn:aws:secretsmanager:us-west-2:123456789012:secret:myuser-secret-hKgPWn
--cluster-identifier mycluster-test
--sql "select * from stl_query limit 1"
--database dev
--client-token b855dced-259b-444c-bc7b-d3e8e33f94g1
Die folgende Tabelle zeigt einige häufig vorkommende Antworten, die Sie auf idempotente API-Anfragen erhalten könnten, und stellt Empfehlungen zu Wiederholungsversuchen bereit.
| Antwort | Empfehlung | Kommentare |
|---|---|---|
|
200 (OK) |
Nicht erneut versuchen |
Die ursprüngliche Anfrage wurde erfolgreich abgeschlossen. Alle nachfolgenden Wiederholungsversuche werden als erfolgreich zurückgegeben. |
|
Antwortcodes der Serie 400 |
Nicht erneut versuchen |
Es liegt eins der folgenden Probleme mit der Anfrage vor:
Wenn die Anfrage eine Ressource umfasst, deren Status sich gerade ändert, könnte ein erneuter Anfrageversuch möglicherweise erfolgreich sein. |
|
Antwortcodes der Serie 500 |
Erneut versuchen |
Der Fehler wird durch ein AWS serverseitiges Problem verursacht und ist im Allgemeinen vorübergehend. Wiederholen Sie die Anfrage mit einer geeigneten Backoff-Strategie. |
Weitere Informationen zu den Amazon-Redshift-Antwortcodes finden Sie unter Häufige Fehler in der API-Referenz zu Amazon Redshift.
Ausführen von SQL-Anweisungen mit Sitzungswiederverwendung beim Aufrufen der Amazon Redshift Data API
Wenn Sie eine API-Anfrage zur Ausführung einer SQL-Anweisung stellen, wird die Sitzung, in der das SQL ausgeführt wird, normalerweise beendet, wenn die SQL-Anweisung beendet ist. Um die Sitzung für eine bestimmte Anzahl von Sekunden aktiv zu halten, verfügen die Data-API-Operationen ExecuteStatement und BatchExecuteStatement über einen optionalen Parameter SessionKeepAliveSeconds. In einem SessionId-Antwortfeld ist die Identität der Sitzung angegeben, die dann in nachfolgenden ExecuteStatement- und BatchExecuteStatement-Operationen verwendet werden kann. Bei nachfolgenden Aufrufen können Sie einen anderen SessionKeepAliveSeconds-Wert angeben, um die Leerlaufzeitüberschreitung zu ändern. Wenn SessionKeepAliveSeconds nicht geändert wird, bleibt die ursprüngliche Einstellung für die Leerlaufzeitüberschreitung bestehen. Beachten Sie Folgendes, wenn Sie die Sitzungswiederverwendung nutzen:
-
Der maximal zulässige Wert für
SessionKeepAliveSecondsbeträgt 24 Stunden. -
Die Sitzung kann höchstens 24 Stunden dauern. Nach 24 Stunden wird die Schließung der Sitzung erzwungen und laufende Abfragen werden beendet.
-
Die maximale Anzahl von Sitzungen pro Amazon-Redshift-Cluster oder Redshift-Serverless-Arbeitsgruppe beträgt 500.
-
Sie können jeweils nur eine Abfrage in einer Sitzung ausführen. Sie müssen warten, bis die Abfrage abgeschlossen ist, um die nächste Abfrage in derselben Sitzung auszuführen. Sie können also Abfragen in einer bereitgestellten Sitzung nicht parallel ausführen.
-
Die Data API kann Abfragen für eine bestimmte Sitzung nicht in die Warteschlange stellen.
Um die SessionId abzurufen, die von Aufrufen der Operationen ExecuteStatement und BatchExecuteStatement verwendet wird, rufen Sie die Operationen DescribeStatement und ListStatements auf.
Das folgende Beispiel zeigt, wie die Parameter SessionKeepAliveSeconds und SessionId verwendet werden, um eine Sitzung aufrechtzuerhalten und wiederzuverwenden. Rufen Sie zunächst den execute-statement AWS CLI Befehl auf, wobei der optionale session-keep-alive-seconds Parameter auf gesetzt ist. 2
aws redshift-data execute-statement
--session-keep-alive-seconds 2
--sql "select 1"
--database dev
--workgroup-name mywg
Die Antwort enthält die Sitzungs-ID.
{
"WorkgroupName": "mywg",
"CreatedAt": 1703022996.436,
"Database": "dev",
"DbUser": "awsuser",
"Id": "07c5ffea-76d6-4786-b62c-4fe3ef529680",
"SessionId": "5a254dc6-4fc2-4203-87a8-551155432ee4"
}
Rufen Sie dann den execute-statement AWS CLI Befehl mit dem vom ersten Aufruf SessionId zurückgegebenen Befehl auf. Geben Sie optional den Parameter session-keep-alive-seconds, der auf 10 gesetzt ist, an, um den Wert für die Leerlaufzeitüberschreitung zu ändern.
aws redshift-data execute-statement
--sql "select 1"
--session-id 5a254dc6-4fc2-4203-87a8-551155432ee4
--session-keep-alive-seconds 10
Abrufen von Ergebnissen von SQL-Anweisungen
Je nach Ergebnisformat verwenden Sie unterschiedliche Daten-API-Operationen, um SQL-Ergebnisse abzurufen. Wenn Sie ExecuteStatement- und BatchExecuteStatement-Operationen aufrufen, können Sie angeben, ob die Ergebnisse als JSON oder CSV formatiert sein sollen. Wenn Sie nichts angeben, ist der Standardwert JSON. Verwenden Sie die Operation GetStatementResult, um JSON-Ergebnisse abzurufen. Verwenden Sie die Operation GetStatementResultV2, um CSV-Ergebnisse abzurufen.
Bei den im JSON-Format zurückgegebenen Ergebnissen handelt es sich um Datensätze, die Metadaten zu jeder Spalte enthalten. Jeder Datensatz liegt im JSON-Format vor. Die Antwort von GetStatementResult sieht beispielsweise ungefähr folgendermaßen aus:
{ "ColumnMetadata": [ { "isCaseSensitive": false, "isCurrency": false, "isSigned": true, "label": "?column?", "name": "?column?", "nullable": 1, "precision": 10, "scale": 0, "schemaName": "", "tableName": "", "typeName": "int4", "length": 0 } ], "NextToken": "<token>", "Records": [ [ { "longValue": 1 } ] ], "TotalNumRows":<number>}
Bei den im CSV-Format zurückgegebenen Ergebnissen handelt es sich um Datensätze, die Metadaten zu jeder Spalte enthalten. Die Ergebnisse werden in 1-MB-Blöcken zurückgegeben, wobei in jedem Block eine beliebige Anzahl von Zeilen im CSV-Format gespeichert werden kann. Jede Anfrage gibt bis zu 15 MB an Ergebnissen zurück. Wenn die Ergebnisse mehr als 15 MB umfassen, wird ein Token für die nächste Seite zurückgegeben, um mit dem Abrufen der Ergebnisse fortzufahren. Die Antwort von GetStatementResultV2 sieht beispielsweise ungefähr folgendermaßen aus:
{ "ColumnMetadata": [ { "isCaseSensitive": false, "isCurrency": false, "isSigned": true, "label": "?column?", "name": "?column?", "nullable": 1, "precision": 10, "scale": 0, "schemaName": "", "tableName": "", "typeName": "int4", "length": 0 }, { "isCaseSensitive": false, "isCurrency": false, "isSigned": true, "label": "?column?", "name": "?column?", "nullable": 1, "precision": 10, "scale": 0, "schemaName": "", "tableName": "", "typeName": "int4", "length": 0 }, { "isCaseSensitive": false, "isCurrency": false, "isSigned": true, "label": "?column?", "name": "?column?", "nullable": 1, "precision": 10, "scale": 0, "schemaName": "", "tableName": "", "typeName": "int4", "length": 0 } ], "NextToken": "<token>", "Records": [ [ { "CSVRecords":"1,2,3\r\n4,5,6\r\n7,8,9\rn, .... 1MB" // First 1MB Chunk }, { "CSVRecords":"1025,1026,1027\r\n1028,1029,1030\r\n....2MB" // Second 1MB chunk } ... ] ], "ResultFormat" : "CSV", "TotalNumRows":<number>}