

 Amazon Redshift dejará de admitir la creación de nuevas UDF de Python a partir del parche 198. Las UDF de Python existentes seguirán funcionando hasta el 30 de junio de 2026. Para obtener más información, consulte la [publicación del blog](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

# Orígenes de datos
<a name="copy-parameters-data-source"></a>

Puede cargar datos de archivos de texto en un bucket de Amazon S3, un clúster de Amazon EMR o un alojamiento remoto al cual el clúster pueda acceder a través de una conexión SSH. También puede cargar datos de forma directa desde una tabla de DynamoDB. 

El tamaño máximo de una fila de entrada única de cualquier origen es de 4 MB. 

Para exportar los datos de una tabla a un conjunto de archivos en Amazon S3, utilice el comando [UNLOAD](r_UNLOAD.md). 

**Topics**
+ [COPY de Amazon S3](copy-parameters-data-source-s3.md)
+ [COPY de Amazon EMR](copy-parameters-data-source-emr.md)
+ [COPY de hosts remotos (SSH)](copy-parameters-data-source-ssh.md)
+ [COPY de Amazon DynamoDB](copy-parameters-data-source-dynamodb.md)

# COPY de Amazon S3
<a name="copy-parameters-data-source-s3"></a>

Para cargar datos de archivos ubicados en uno o más buckets de S3, utilice la cláusula FROM para indicar el modo en que COPY localiza los archivos de Amazon S3. Puede proporcionar la ruta de objeto a los archivos de datos como parte de la cláusula FROM o puede proporcionar la ubicación de un archivo de manifiesto que contenga una lista de rutas de objetos de Amazon S3. COPY de Amazon S3 utiliza una conexión HTTPS. Asegúrese de que los rangos de IP de S3 estén agregados a la lista de permitidos. Para obtener más información acerca de los rangos de IP de S3 necesarios, consulte [Aislamiento de red](https://docs.aws.amazon.com//redshift/latest/mgmt/security-network-isolation.html#network-isolation).

**importante**  
Si los buckets de Amazon S3 que contienen los archivos de datos no se encuentran en la misma región de AWS que el clúster, debe utilizar el parámetro [REGION](#copy-region) para especificar la región en la que se encuentran los datos. 

**Topics**
+ [Sintaxis](#copy-parameters-data-source-s3-syntax)
+ [Ejemplos](#copy-parameters-data-source-s3-examples)
+ [Parámetros opcionales](#copy-parameters-data-source-s3-optional-parms)
+ [Parámetros no admitidos](#copy-parameters-data-source-s3-unsupported-parms)

## Sintaxis
<a name="copy-parameters-data-source-s3-syntax"></a>

```
FROM { 's3://objectpath' | 's3://manifest_file' }
authorization
| MANIFEST
| ENCRYPTED
| REGION [AS] 'aws-region'
| optional-parameters
```

## Ejemplos
<a name="copy-parameters-data-source-s3-examples"></a>

En el siguiente ejemplo, se utiliza una ruta de objeto para cargar datos desde Amazon S3. 

```
copy customer
from 's3://amzn-s3-demo-bucket/customer' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole';
```

En el siguiente ejemplo, se utiliza un archivo de manifiesto para cargar datos desde Amazon S3. 

```
copy customer
from 's3://amzn-s3-demo-bucket/cust.manifest' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole'
manifest;
```

### Parameters
<a name="copy-parameters-data-source-s3-parameters"></a>

FROM  <a name="copy-parameters-from"></a>
El origen de los datos a cargar. Para obtener más información acerca de la codificación del archivo de Amazon S3, consulte [Parámetros de conversión de datos](copy-parameters-data-conversion.md).

's3://*copy\$1from\$1s3\$1objectpath*'   <a name="copy-s3-objectpath"></a>
Especifica la ruta a los objetos de Amazon S3 que contienen los datos; por ejemplo, `'s3://amzn-s3-demo-bucket/custdata.txt'`. El parámetro *s3://copy\$1from\$1s3\$1objectpath* puede hacer referencia a un único archivo o a un conjunto de objetos o carpetas que tienen el mismo prefijo de clave. Por ejemplo, el nombre `custdata.txt` es un prefijo de clave que hace referencia a un número de archivos físicos: `custdata.txt`, `custdata.txt.1`, `custdata.txt.2`, `custdata.txt.bak` y así sucesivamente. El prefijo de clave también puede hacer referencia a un número de carpetas. Por ejemplo, `'s3://amzn-s3-demo-bucket/custfolder'` hace referencia a las carpetas `custfolder`, `custfolder_1`, `custfolder_2` y así sucesivamente. Si un prefijo de clave hace referencia a varias carpetas, se cargan todos los archivos de esas carpetas. Si un prefijo de clave coincide con un archivo y, a su vez, con una carpeta, como `custfolder.log`, COPY también intenta cargar el archivo. Si un prefijo de clave puede dar lugar a que COPY intente cargar archivos no deseados, utilice un archivo de manifiesto. Para obtener más información, consulte [copy_from_s3_manifest_file](#copy-manifest-file), a continuación.   
Si el bucket de S3 que contiene los archivos de datos no se encuentra en la misma región de AWS que el clúster, debe utilizar el parámetro [REGION](#copy-region) para especificar la región en la que se encuentran los datos.
Para obtener más información, consulte [Carga de datos desde Amazon S3](t_Loading-data-from-S3.md).

's3://*copy\$1from\$1s3\$1manifest\$1file*'   <a name="copy-manifest-file"></a>
Especifica la clave de objeto de Amazon S3 para un archivo de manifiesto que muestra los archivos de datos que se cargarán. El argumento *'s3://*copy\$1from\$1s3\$1manifest\$1file'** debe referenciar de forma explícita un solo archivo; por ejemplo, `'s3://amzn-s3-demo-bucket/manifest.txt'`. No puede hacer referencia a un prefijo de clave.  
El manifiesto es un archivo de texto en formato JSON que muestra la dirección URL de cada archivo que se cargará desde Amazon S3. El URL incluye el nombre del bucket y la ruta de objeto completa para el archivo. Los archivos que se especifican en el manifiesto pueden estar en buckets diferentes, pero todos los buckets deben estar en la misma región de AWS que el clúster de Amazon Redshift. Si un archivo aparece dos veces, este se carga dos veces. En el siguiente ejemplo, se muestra el JSON para un manifiesto que carga tres archivos.   

```
{
  "entries": [
    {"url":"s3://amzn-s3-demo-bucket1/custdata.1","mandatory":true},
    {"url":"s3://amzn-s3-demo-bucket1/custdata.2","mandatory":true},
    {"url":"s3://amzn-s3-demo-bucket2/custdata.1","mandatory":false}
  ]
}
```
Se requieren caracteres de comillas dobles y estas deben ser las comillas simples (0x22), no las comillas inclinadas o “inteligentes”. Cada entrada en el manifiesto puede incluir opcionalmente una marca `mandatory`. Cuando `mandatory` está establecido en `true`, COPY termina si no encuentra el archivo de esa entrada. De lo contrario, COPY continúa. El valor predeterminado de `mandatory` es `false`.   
Cuando la carga se realiza a partir de archivos de datos con formato ORC o Parquet, se necesita un campo `meta`, tal y como se muestra en el siguiente ejemplo.  

```
{  
   "entries":[  
      {  
         "url":"s3://amzn-s3-demo-bucket1/orc/2013-10-04-custdata",
         "mandatory":true,
         "meta":{  
            "content_length":99
         }
      },
      {  
         "url":"s3://amzn-s3-demo-bucket2/orc/2013-10-05-custdata",
         "mandatory":true,
         "meta":{  
            "content_length":99
         }
      }
   ]
}
```
El archivo de manifiesto no debe estar cifrado o comprimido, incluso si se especifican las opciones ENCRYPTED, GZIP, LZOP, BZIP2 o ZSTD. COPY devuelve un error si el archivo de manifiesto especificado no se encuentra o no se creó de forma correcta.   
Si se utiliza un archivo de manifiesto, se debe especificar el parámetro MANIFEST con el comando COPY. Si no se especifica el parámetro MANIFEST, COPY supone que el archivo especificado con FROM es un archivo de datos.   
Para obtener más información, consulte [Carga de datos desde Amazon S3](t_Loading-data-from-S3.md).

*authorization*  
El comando COPY necesita autorización para acceder a los datos de otro recurso de AWS, incluidos los recursos de Amazon S3, Amazon EMR, Amazon DynamoDB y Amazon EC2. Puede proporcionar esa autorización referenciando un rol de AWS Identity and Access Management (IAM) que esté adjunto al clúster (control de acceso basado en roles) o proporcionando las credenciales de acceso de un usuario (control de acceso basado en claves). Para mayor seguridad y flexibilidad, le recomendamos utilizar un control de acceso basado en roles de IAM. Para obtener más información, consulte [Parámetros de autorización](copy-parameters-authorization.md).

MANIFEST  <a name="copy-manifest"></a>
Especifica que se utiliza un manifiesto para identificar los archivos de datos que se cargarán desde Amazon S3. Si se utiliza el parámetro MANIFEST, COPY carga los datos de los archivos que se muestran en el manifiesto al que se hace referencia en *'s3://copy\$1from\$1s3\$1manifest\$1file'*. Si no se encuentra el archivo de manifiesto o no se creó de forma correcta, COPY no se ejecuta correctamente. Para obtener más información, consulte [Uso de un manifiesto para especificar archivos de datos](loading-data-files-using-manifest.md).

ENCRYPTED  <a name="copy-encrypted"></a>
Se trata de una cláusula que especifica que los archivos de entrada en Amazon S3 están cifrados con el cifrado del lado del cliente con claves administradas por el cliente. Para obtener más información, consulte [Carga de archivos de datos cifrados desde Amazon S3](c_loading-encrypted-files.md). No especifique ENCRYPTED si los archivos de entrada están cifrados con el cifrado de servidor de Amazon S3 (SSE-KMS o SSE-S3). COPY lee automáticamente los archivos con cifrados del servidor.  
Si especifica el parámetro ENCRYPTED, también debe especificar el parámetro [MASTER_SYMMETRIC_KEY](#copy-master-symmetric-key) o incluir el valor **master\$1symmetric\$1key** en la cadena [Uso del parámetro CREDENTIALS](copy-parameters-authorization.md#copy-credentials).  
Si los archivos cifrados están en un formato comprimido, agregue el parámetro GZIP, LZOP, BZIP2 o ZSTD.  
Los archivos de manifiesto y los archivos JSONPaths no deben cifrarse aunque la opción ENCRYPTED esté especificada.

MASTER\$1SYMMETRIC\$1KEY '*root\$1key*'  <a name="copy-master-symmetric-key"></a>
Se trata de la clave raíz simétrica que se utilizó para cifrar los archivos de datos en Amazon S3. Si se especifica MASTER\$1SYMMETRIC\$1KEY, también se debe especificar el parámetro [ENCRYPTED](#copy-encrypted). MASTER\$1SYMMETRIC\$1KEY no puede utilizarse con el parámetro CREDENTIALS. Para obtener más información, consulte [Carga de archivos de datos cifrados desde Amazon S3](c_loading-encrypted-files.md).  
Si los archivos cifrados están en un formato comprimido, agregue el parámetro GZIP, LZOP, BZIP2 o ZSTD.

REGION [AS] '*aws\$1region*'  <a name="copy-region"></a>
Especifica la región de AWS en la que se encuentran los datos de origen. Cuando el recurso de AWS que contiene los datos no se encuentra en la misma región que el clúster de Amazon Redshift, se debe utilizar REGION para el comando COPY de un bucket de Amazon S3 o una tabla de DynamoDB   
El valor de *aws\$1region* debe coincidir con una de las regiones que aparecen en la tabla [Regiones y puntos de enlace de Amazon Redshift](https://docs.aws.amazon.com/general/latest/gr/rande.html#redshift_region).  
Si se especifica el parámetro REGION, todos los recursos, incluidos un archivo de manifiesto o varios buckets de Amazon S3, deben encontrarse en la región especificada.   
La transferencia de datos entre regiones genera cargos adicionales en el bucket de Amazon S3 o la tabla de DynamoDB que contiene los datos. Para obtener más información acerca de los precios, consulte **Transferencia OUT de datos de Amazon S3 a otra región de AWS** en la página [Precios de Amazon S3](https://aws.amazon.com/s3/pricing/) y **Transferencia OUT de datos** en la página [Precios de Amazon DynamoDB](https://aws.amazon.com/dynamodb/pricing/). 
De manera predeterminada, COPY supone que los datos se encuentran en la misma región que el clúster de Amazon Redshift. 

## Parámetros opcionales
<a name="copy-parameters-data-source-s3-optional-parms"></a>

Si lo prefiere, puede especificar los siguientes parámetros con COPY de Amazon S3: 
+ [Opciones de mapeo de columnas](copy-parameters-column-mapping.md)
+ [Parámetros de formato de datos](copy-parameters-data-format.md#copy-data-format-parameters)
+ [Parámetros de conversión de datos](copy-parameters-data-conversion.md)
+ [Operaciones de carga de datos](copy-parameters-data-load.md)

## Parámetros no admitidos
<a name="copy-parameters-data-source-s3-unsupported-parms"></a>

No puede utilizar los siguientes parámetros con COPY de Amazon S3: 
+ SSH
+ READRATIO

# COPY de Amazon EMR
<a name="copy-parameters-data-source-emr"></a>

Puede utilizar el comando COPY para cargar datos en paralelo desde un clúster de Amazon EMR configurado para escribir archivos de texto en el sistema de archivos Hadoop Distributed File System (HDFS) del clúster como archivos de ancho fijo, archivos delimitados por caracteres, archivos CSV, archivos con formato JSON o archivos Avro.

**Topics**
+ [Sintaxis](#copy-parameters-data-source-emr-syntax)
+ [Ejemplo](#copy-parameters-data-source-emr-example)
+ [Parameters](#copy-parameters-data-source-emr-parameters)
+ [Parámetros admitidos](#copy-parameters-data-source-emr-optional-parms)
+ [Parámetros no admitidos](#copy-parameters-data-source-emr-unsupported-parms)

## Sintaxis
<a name="copy-parameters-data-source-emr-syntax"></a>

```
FROM 'emr://emr_cluster_id/hdfs_filepath'  
authorization
[ optional_parameters ]
```

## Ejemplo
<a name="copy-parameters-data-source-emr-example"></a>

En el siguiente ejemplo, se cargan datos desde un clúster de Amazon EMR. 

```
copy sales
from 'emr://j-SAMPLE2B500FC/myoutput/part-*' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole';
```

## Parameters
<a name="copy-parameters-data-source-emr-parameters"></a>

FROM  
El origen de los datos a cargar. 

 'emr://*emr\$1cluster\$1id*/*hdfs\$1file\$1path*'  <a name="copy-emr"></a>
Se trata del identificador único para el clúster de Amazon EMR y la ruta del archivo de HDFS que referencia los archivos de datos para el comando COPY. Los nombres de los archivos de datos HDFS no deben contener los caracteres comodín de asterisco (\$1) ni de signos de interrogación (?).   
El clúster de Amazon EMR debe seguir en ejecución hasta que se complete la operación COPY. Si se cambia o se elimina cualquiera de los archivos de datos HDFS antes de que se complete la operación COPY, se pueden obtener resultados inesperados o la operación COPY puede fallar. 
Puede utilizar los caracteres comodín asterisco (\$1) y signo de puntuación (?) en el argumento *hdfs\$1file\$1path* para especificar que se carguen varios archivos. Por ejemplo, `'emr://j-SAMPLE2B500FC/myoutput/part*'` identifica los archivos `part-0000`, `part-0001` y así sucesivamente. Si la ruta de archivo no contiene caracteres comodín, se trata como si fuera un literal de cadena. Si solo especifica el nombre de una carpeta, COPY prueba cargar todos los archivos que se encuentran en ella.   
Si utiliza caracteres comodín o solo el nombre de la carpeta, verifique que no se cargarán archivos no deseados. Por ejemplo, algunos procesos podrían escribir un archivo de registro en la carpeta de salida.
Para obtener más información, consulte [Carga de datos desde Amazon EMR](loading-data-from-emr.md).

*authorization*  
El comando COPY necesita autorización para acceder a los datos de otro recurso de AWS, incluidos los recursos de Amazon S3, Amazon EMR, Amazon DynamoDB y Amazon EC2. Puede proporcionar esa autorización referenciando un rol de AWS Identity and Access Management (IAM) que esté adjunto al clúster (control de acceso basado en roles) o proporcionando las credenciales de acceso de un usuario (control de acceso basado en claves). Para mayor seguridad y flexibilidad, le recomendamos utilizar un control de acceso basado en roles de IAM. Para obtener más información, consulte [Parámetros de autorización](copy-parameters-authorization.md).

## Parámetros admitidos
<a name="copy-parameters-data-source-emr-optional-parms"></a>

Si lo prefiere, puede especificar los siguientes parámetros con COPY de Amazon EMR: 
+ [Opciones de mapeo de columnas](copy-parameters-column-mapping.md)
+ [Parámetros de formato de datos](copy-parameters-data-format.md#copy-data-format-parameters)
+ [Parámetros de conversión de datos](copy-parameters-data-conversion.md)
+ [Operaciones de carga de datos](copy-parameters-data-load.md)

## Parámetros no admitidos
<a name="copy-parameters-data-source-emr-unsupported-parms"></a>

No puede utilizar los siguientes parámetros con COPY de Amazon EMR: 
+ ENCRYPTED
+ MANIFEST
+ REGION
+ READRATIO
+ SSH

# COPY de hosts remotos (SSH)
<a name="copy-parameters-data-source-ssh"></a>

Puede utilizar el comando COPY para cargar datos en paralelo desde uno o más alojamientos remotos, como instancias de Amazon Elastic Compute Cloud (Amazon EC2) u otros equipos. COPY se conecta a los hosts remotos mediante Secure Shell (SSH) y ejecuta los comandos en los hosts remotos para generar la salida de texto. El alojamiento remoto puede ser una instancia EC2 de Linux u otro equipo Linux o Unix configurada para aceptar conexiones SSH. Amazon Redshift puede conectarse a varios alojamientos y puede establecer varias conexiones SSH en cada alojamiento. Amazon Redshift envía un comando único a través de cada conexión para generar una salida de texto que aparecerá en la salida estándar del alojamiento, la cual Amazon Redshift leerá después como si fuese cualquier otro archivo de texto.

Utilice la cláusula FROM para especificar la clave de objeto de Amazon S3 para el archivo de manifiesto que proporciona la información que COPY utilizará para establecer las conexiones SSH y ejecutar los comandos remotos. 

**Topics**
+ [Sintaxis](#copy-parameters-data-source-ssh-syntax)
+ [Ejemplos](#copy-parameters-data-source-ssh-examples)
+ [Parameters](#copy-parameters-data-source-ssh-parameters)
+ [Parámetros opcionales](#copy-parameters-data-source-ssh-optional-parms)
+ [Parámetros no admitidos](#copy-parameters-data-source-ssh-unsupported-parms)

**importante**  
 Si el bucket de S3 que contiene el archivo de manifiesto no se encuentra en la misma región de AWS que el clúster, debe utilizar el parámetro REGION para especificar la región en la que se encuentra el bucket. 

## Sintaxis
<a name="copy-parameters-data-source-ssh-syntax"></a>

```
FROM 's3://'ssh_manifest_file' }
authorization
SSH
| optional-parameters
```

## Ejemplos
<a name="copy-parameters-data-source-ssh-examples"></a>

En el siguiente ejemplo, se utiliza un archivo de manifiesto para cargar datos desde un host remoto mediante SSH. 

```
copy sales
from 's3://amzn-s3-demo-bucket/ssh_manifest' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole'
ssh;
```

## Parameters
<a name="copy-parameters-data-source-ssh-parameters"></a>

FROM  
El origen de los datos a cargar. 

's3://*copy\$1from\$1ssh\$1manifest\$1file*'  <a name="copy-ssh-manifest"></a>
El comando COPY puede conectarse con distintos hosts mediante Secure Shell (SSH, Shell seguro) y puede crear distintas conexiones SSH a cada host. COPY ejecuta un comando a través de cada conexión al host y, luego, carga la salida en la tabla desde los comandos en paralelo. El argumento *s3://copy\$1from\$1ssh\$1manifest\$1file* especifica la clave de objeto de Amazon S3 del archivo de manifiesto que proporciona la información que COPY utiliza para establecer conexiones SSH y ejecutar los comandos remotos.  
El argumento *s3://copy\$1from\$1ssh\$1manifest\$1file* debe referenciar de forma explícita un solo archivo y no puede ser un prefijo de clave. A continuación se muestra un ejemplo:  

```
's3://amzn-s3-demo-bucket/ssh_manifest.txt'
```
El archivo de manifiesto es un archivo de texto con formato JSON que Amazon Redshift usa para conectarse al alojamiento. En el archivo de manifiesto, se especifican los puntos de conexión del host SSH y los comandos que se ejecutarán en los hosts para devolver datos a Amazon Redshift. De forma opcional, puede incluir la clave pública del host, el nombre de usuario de inicio de sesión y una marca obligatoria para cada entrada. En el siguiente ejemplo, se muestra un archivo de manifiesto que crea dos conexiones SSH:   

```
{ 
    "entries": [ 
	    {"endpoint":"<ssh_endpoint_or_IP>", 
           "command": "<remote_command>",
           "mandatory":true, 
           "publickey": "<public_key>", 
           "username": "<host_user_name>"}, 
	    {"endpoint":"<ssh_endpoint_or_IP>", 
           "command": "<remote_command>",
           "mandatory":true, 
           "publickey": "<public_key>", 
           "username": "<host_user_name>"} 
     ] 
}
```
El archivo de manifiesto contiene una construcción `"entries"` para cada conexión SSH. Puede tener distintas conexiones a un único host o distintas conexiones a distintos hosts. Se requieren caracteres de comillas dobles, como se muestra, para los valores y los nombres de campo. Las comillas deben ser las comillas simples (0x22), no las comillas inclinadas o “inteligentes”. El único valor que no necesita caracteres de comillas dobles es el valor booleano `true` o `false` del campo `"mandatory"`.   
En la siguiente lista se describen los campos del archivo de manifiesto.     
endpoint  <a name="copy-ssh-manifest-endpoint"></a>
Se trata de la dirección URL o la dirección IP del alojamiento; por ejemplo, `"ec2-111-222-333.compute-1.amazonaws.com"` o `"198.51.100.0"`.   
comando  <a name="copy-ssh-manifest-command"></a>
El comando que ejecutará el host para generar la salida de texto o la salida binaria en formato gzip, lzop, bzip2 o zstd. El comando puede ser cualquiera que el usuario *"host\$1user\$1name" (nombre\$1de\$1usuario\$1del\$1host)* tenga permiso para ejecutar. El comando puede ser tan sencillo como imprimir un archivo, o puede consultar una base de datos o lanzar un script. La salida (archivo de texto o archivos binarios gzip, lzop o bzip2) debe estar en un formato que el comando COPY de Amazon Redshift pueda capturar. Para obtener más información, consulte [Preparación de los datos de entrada](t_preparing-input-data.md).  
publickey  <a name="copy-ssh-manifest-publickey"></a>
(Opcional) La clave pública del host. Si se proporciona la clave pública, Amazon Redshift la usará para identificar el alojamiento. Si no se proporciona la clave pública, Amazon Redshift no intentará identificar el alojamiento. Por ejemplo, si la clave pública del host remoto es `ssh-rsa AbcCbaxxx…Example root@amazon.com`, escriba el siguiente texto en el campo de clave pública: `"AbcCbaxxx…Example"`.  
mandatory  <a name="copy-ssh-manifest-mandatory"></a>
(Opcional) Una cláusula que indica si el comando COPY debe fallar en caso de que el intento de conexión falle. El valor predeterminado es `false`. Si Amazon Redshift no logra establecer al menos una conexión, el comando COPY presentará error.  
nombre de usuario  <a name="copy-ssh-manifest-username"></a>
(Opcional) Se trata del nombre de usuario que se utilizará para iniciar sesión en el sistema de alojamiento y ejecutar el comando remoto. El nombre de inicio de sesión del usuario debe ser el mismo que se utilizó para agregar la clave pública del clúster de Amazon Redshift al archivo de claves autorizadas del alojamiento. El nombre de usuario predeterminado es `redshift`.
Para obtener más información acerca de la creación de un archivo de manifiesto, consulte [Proceso de carga de datos](loading-data-from-remote-hosts.md#load-from-host-process).  
Para utilizar COPY desde un host remoto, se debe especificar el parámetro SSH con el comando COPY. Si no se especifica el parámetro SSH, COPY supone que el archivo especificado con FROM es un archivo de datos y no se ejecutará correctamente.   
Si utiliza la compresión automática, el comando COPY realiza dos operaciones de lectura de los datos, lo que significa que ejecutará el comando remoto dos veces. La primera operación de lectura se realiza para proporcionar una muestra de datos para el análisis de compresión, la segunda operación de lectura es la que carga los datos. Si ejecutar el comando remoto dos veces puede producir un problema, debe deshabilitar la compresión automática. Para deshabilitar la compresión automática, ejecute el comando COPY con el parámetro COMPUPDATE establecido en OFF. Para obtener más información, consulte [Carga de tablas con compresión automática](c_Loading_tables_auto_compress.md).  
Para obtener los procedimientos detallados para utilizar COPY de SSH, consulte [Carga de datos desde hosts remotos](loading-data-from-remote-hosts.md).

*authorization*  
El comando COPY necesita autorización para acceder a los datos de otro recurso de AWS, incluidos los recursos de Amazon S3, Amazon EMR, Amazon DynamoDB y Amazon EC2. Puede proporcionar esa autorización referenciando un rol de AWS Identity and Access Management (IAM) que esté adjunto al clúster (control de acceso basado en roles) o proporcionando las credenciales de acceso de un usuario (control de acceso basado en claves). Para mayor seguridad y flexibilidad, le recomendamos utilizar un control de acceso basado en roles de IAM. Para obtener más información, consulte [Parámetros de autorización](copy-parameters-authorization.md).

SSH  <a name="copy-ssh"></a>
Una cláusula que especifica que los datos se van a cargar desde un host remoto mediante el protocolo SSH. Si especifica SSH, también debe proporcionar un archivo de manifiesto mediante el argumento [s3://copy_from_ssh_manifest_file](#copy-ssh-manifest).   
Si utiliza SSH para copiar datos de un host con una dirección IP privada en una VPC remota, la VPC debe tener habilitado el direccionamiento de VPC mejorado. Para obtener más información sobre el direccionamiento de VPC mejorado, consulte el artículo sobre el [direccionamiento de VPC mejorado en Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/mgmt/enhanced-vpc-routing.html)

## Parámetros opcionales
<a name="copy-parameters-data-source-ssh-optional-parms"></a>

Opcionalmente, puede especificar los siguientes parámetros con COPY de SSH: 
+ [Opciones de mapeo de columnas](copy-parameters-column-mapping.md)
+ [Parámetros de formato de datos](copy-parameters-data-format.md#copy-data-format-parameters)
+ [Parámetros de conversión de datos](copy-parameters-data-conversion.md)
+ [Operaciones de carga de datos](copy-parameters-data-load.md)

## Parámetros no admitidos
<a name="copy-parameters-data-source-ssh-unsupported-parms"></a>

No puede utilizar los siguientes parámetros con COPY de SSH: 
+ ENCRYPTED
+ MANIFEST
+ READRATIO

# COPY de Amazon DynamoDB
<a name="copy-parameters-data-source-dynamodb"></a>

Si desea cargar datos de una tabla existente de DynamoDB, utilice la cláusula FROM para especificar el nombre de la tabla de DynamoDB.

**Topics**
+ [Sintaxis](#copy-parameters-data-source-dynamodb-syntax)
+ [Ejemplos](#copy-parameters-data-source-dynamodb-examples)
+ [Parámetros opcionales](#copy-parameters-data-source-dynamodb-optional-parms)
+ [Parámetros no admitidos](#copy-parameters-data-source-dynamodb-unsupported-parms)

**importante**  
Si la tabla de DynamoDB no se encuentra en la misma región que el clúster de Amazon Redshift, debe utilizar el parámetro REGION para especificar la región en la que se encuentran los datos. 

## Sintaxis
<a name="copy-parameters-data-source-dynamodb-syntax"></a>

```
FROM 'dynamodb://table-name' 
authorization
READRATIO ratio
| REGION [AS] 'aws_region'  
| optional-parameters
```

## Ejemplos
<a name="copy-parameters-data-source-dynamodb-examples"></a>

En el siguiente ejemplo, se cargan datos de una tabla de DynamoDB. 

```
copy favoritemovies from 'dynamodb://ProductCatalog'
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole'
readratio 50;
```

### Parameters
<a name="copy-parameters-data-source-dynamodb-parameters"></a>

FROM  
El origen de los datos a cargar. 

'dynamodb://*table-name (nombre-tabla)*'  <a name="copy-dynamodb"></a>
Se trata del nombre de la tabla de DynamoDB que contiene los datos; por ejemplo, `'dynamodb://ProductCatalog'`. Para obtener detalles acerca de cómo se asignan los atributos de DynamoDB a las columnas de Amazon Redshift, consulte [Carga de datos desde una tabla de Amazon DynamoDB](t_Loading-data-from-dynamodb.md).  
El nombre de una tabla de DynamoDB es único para una cuenta de AWS, que se identifica con las credenciales de acceso de AWS.

*authorization*  
El comando COPY necesita autorización para acceder a los datos de otro recurso de AWS, incluidos los recursos de Amazon S3, Amazon EMR, DynamoDB y Amazon EC2. Puede proporcionar esa autorización referenciando un rol de AWS Identity and Access Management (IAM) que esté adjunto al clúster (control de acceso basado en roles) o proporcionando las credenciales de acceso de un usuario (control de acceso basado en claves). Para mayor seguridad y flexibilidad, le recomendamos utilizar un control de acceso basado en roles de IAM. Para obtener más información, consulte [Parámetros de autorización](copy-parameters-authorization.md).

READRATIO [AS] *ratio*  <a name="copy-readratio"></a>
Se trata del porcentaje del rendimiento aprovisionado de la tabla de DynamoDB para utilizar en la carga de datos. Se requiere READRATIO para utilizar COPY de DynamoDB. No se puede utilizar con COPY de Amazon S3. Le recomendamos encarecidamente establecer la ratio en un valor menor que el rendimiento provisionado sin utilizar promedio. Los valores válidos son números enteros que forman parte del rango 1-200.  
Si establece READRATIO en 100 o más permite a Amazon Redshift consumir la totalidad del rendimiento aprovisionado de la tabla de DynamoDB, lo que degrada seriamente el rendimiento de las operaciones de lectura simultáneas que se produzcan en la misma tabla durante la sesión de COPY. El tráfico de escritura no resulta afectado. Los valores superiores a 100 se permiten para solucionar problemas en situaciones raras por las que Amazon Redshift no cumple el rendimiento aprovisionado de la tabla. Si carga datos de DynamoDB en Amazon Redshift de forma continua, considere la posibilidad de organizar las tablas de DynamoDB como series temporales para separar el tráfico activo de la operación COPY.

## Parámetros opcionales
<a name="copy-parameters-data-source-dynamodb-optional-parms"></a>

Si lo prefiere, puede especificar los siguientes parámetros con COPY de Amazon DynamoDB: 
+ [Opciones de mapeo de columnas](copy-parameters-column-mapping.md)
+ Se admiten los siguientes parámetros de conversión de datos:
  + [ACCEPTANYDATE](copy-parameters-data-conversion.md#copy-acceptanydate) 
  + [BLANKSASNULL](copy-parameters-data-conversion.md#copy-blanksasnull) 
  + [DATEFORMAT](copy-parameters-data-conversion.md#copy-dateformat) 
  + [EMPTYASNULL](copy-parameters-data-conversion.md#copy-emptyasnull) 
  + [ROUNDEC](copy-parameters-data-conversion.md#copy-roundec) 
  + [TIMEFORMAT](copy-parameters-data-conversion.md#copy-timeformat) 
  + [TRIMBLANKS](copy-parameters-data-conversion.md#copy-trimblanks) 
  + [TRUNCATECOLUMNS](copy-parameters-data-conversion.md#copy-truncatecolumns) 
+ [Operaciones de carga de datos](copy-parameters-data-load.md)

## Parámetros no admitidos
<a name="copy-parameters-data-source-dynamodb-unsupported-parms"></a>

No se pueden utilizar los siguientes parámetros con COPY de DynamoDB: 
+ Todos los parámetros de formatos de datos
+ ESCAPE
+ FILLRECORD
+ IGNOREBLANKLINES
+ IGNOREHEADER
+ NULL
+ REMOVEQUOTES
+ ACCEPTINVCHARS
+ MANIFEST
+ ENCRYPTED