

 Amazon Redshift unterstützt UDFs ab Patch 198 nicht mehr die Erstellung von neuem Python. Das bestehende Python UDFs wird bis zum 30. Juni 2026 weiterhin funktionieren. Weitere Informationen finden Sie im [Blog-Posting](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Andere Konfigurationsoptionen
<a name="spark-redshift-connector-other-config"></a>

Auf dieser Seite finden Sie Beschreibungen für die Optionen, die Sie für den Spark-Konnektor von Amazon Redshift angeben können.

## Maximale Größe von Zeichenfolgenspalten
<a name="spark-redshift-connector-other-config-max-size"></a>

Während des Erstellens von Tabellen erstellt Redshift Zeichenfolgespalten als Textspalten, die als VARCHAR(256) gespeichert werden. Wenn Sie Spalten benötigen, die größere Größen unterstützen, können Sie die maximale Länge von Zeichenfolgespalten mithilfe von maxlength angeben. Nachstehend finden Sie ein Beispiel zum Angeben von `maxlength`. 

```
columnLengthMap.foreach { case (colName, length) =>
  val metadata = new MetadataBuilder().putLong("maxlength", length).build()
  df = df.withColumn(colName, df(colName).as(colName, metadata))
}
```

## Typ der Spalte
<a name="spark-redshift-connector-other-config-column-type"></a>

Verwenden Sie das Feld `redshift_type`, um einen Spaltentyp festzulegen.

```
columnTypeMap.foreach { case (colName, colType) =>
  val metadata = new MetadataBuilder().putString("redshift_type", colType).build()
  df = df.withColumn(colName, df(colName).as(colName, metadata))
}
```

## Kompressionskodierung für eine Spalte
<a name="spark-redshift-connector-other-config-compression-encoding"></a>

 Verwenden Sie das Kodierungsfeld, um eine spezifische Kompressionskodierung für eine Spalte zu verwenden. Eine vollständige Liste der unterstützten Kompressionskodierungen finden Sie unter [Kompressionskodierungen](https://docs.aws.amazon.com/redshift/latest/dg/c_Compression_encodings.html). 

## Beschreibung für eine Spalte.
<a name="spark-redshift-connector-other-config-description"></a>

Verwenden Sie das Feld `description`, um eine Beschreibung anzugeben.

## Authentifizierung zwischen Redshift und Amazon S3
<a name="spark-redshift-connector-other-config-unload-as-text"></a>

 Standardmäßig wird das Ergebnis im Parquet-Format in Amazon S3 entladen. Geben Sie folgende Option an, um das Ergebnis als Textdatei mit Pipe-Trennzeichen zu entladen. 

```
.option("unload_s3_format", "TEXT")
```

## Pushdown-Anweisungen
<a name="spark-redshift-connector-other-config-lazy-pushdown"></a>

[See the AWS documentation website for more details](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/spark-redshift-connector-other-config.html)

## Connector-Parameter
<a name="spark-redshift-connector-other-config-spark-parameters"></a>

Die Parameterzuordnung oder `OPTIONS` in Spark SQL unterstützt die folgenden Einstellungen.

[See the AWS documentation website for more details](http://docs.aws.amazon.com/de_de/redshift/latest/mgmt/spark-redshift-connector-other-config.html)

**Anmerkung**  
 Danksagung: Diese Dokumentation enthält Beispielcode und Sprache, die von der [Apache Software Foundation](http://www.apache.org/) entwickelt wurden und unter der [Apache-2.0-Lizenz](https://www.apache.org/licenses/LICENSE-2.0) lizenziert sind. 