Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Übertragen von Dateien zwischen RDS für Oracle und einem Amazon-EFS-Dateisystem
Um Dateien zwischen einer Instance von RDS für Oracle und einem Amazon-EFS-Dateisystem zu übertragen, erstellen Sie mindestens ein Oracle-Verzeichnis und konfigurieren Sie EFS-Dateisystemberechtigungen, um den Zugriff auf die DB-Instance zu kontrollieren.
Themen
Erstellen eines Oracle-Verzeichnisses
verwenden Sie die Prozedur rdsadmin.rdsadmin_util.create_directory_efs, um ein Oracle-Verzeichnis zu erstellen. Die Prozedur hat die folgenden Parameter.
| Parametername | Datentyp | Standard | Erforderlich | Beschreibung |
|---|---|---|---|---|
|
|
VARCHAR2 |
– |
Ja |
Der Name des Oracle-Verzeichnisses. |
|
|
VARCHAR2 |
– |
Ja |
Der Pfad zum EFS-Dateisystem. Das Präfix des Pfadnamens verwendet das Muster Wenn Ihr EFS-Dateisystem beispielsweise den Namen
|
Angenommen, Sie erstellen ein Unterverzeichnis mit dem Namen /datapump1 im EFS-Dateisystem fs-1234567890abcdef0. Im folgenden Beispiel wird ein Oracle-Verzeichnis DATA_PUMP_DIR_EFS erstellt, das auf das /datapump1-Verzeichnis im EFS-Dateisystem verweist. Dem Dateisystempfadwert für den p_path_on_efs-Parameter wird die Zeichenfolge /rdsefs- vorangestellt.
BEGIN rdsadmin.rdsadmin_util.create_directory_efs( p_directory_name => 'DATA_PUMP_DIR_EFS', p_path_on_efs => '/rdsefs-fs-1234567890abcdef0/datapump1'); END; /
Übertragen von Daten in und aus einem EFS-Dateisystem: Beispiele
Im folgenden Beispiel wird Oracle Data Pump verwendet, um die Tabelle mit dem Namen MY_TABLE in die Datei datapump.dmp zu exportieren. Diese Datei befindet sich in einem EFS-Dateisystem.
DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN(operation => 'EXPORT', job_mode => 'TABLE', job_name=>null); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump.dmp', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_dump_file); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump-exp.log', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_log_file); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'NAME_EXPR','IN (''MY_TABLE'')'); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /
Im folgenden Beispiel wird Oracle Data Pump verwendet, um die Tabelle mit dem Namen MY_TABLE aus der Datei datapump.dmp zu importieren. Diese Datei befindet sich in einem EFS-Dateisystem.
DECLARE v_hdnl NUMBER; BEGIN v_hdnl := DBMS_DATAPUMP.OPEN( operation => 'IMPORT', job_mode => 'TABLE', job_name => null); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump.dmp', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_dump_file ); DBMS_DATAPUMP.ADD_FILE( handle => v_hdnl, filename => 'datapump-imp.log', directory => 'DATA_PUMP_DIR_EFS', filetype => dbms_datapump.ku$_file_type_log_file); DBMS_DATAPUMP.METADATA_FILTER(v_hdnl,'NAME_EXPR','IN (''MY_TABLE'')'); DBMS_DATAPUMP.START_JOB(v_hdnl); END; /
Weitere Informationen finden Sie unter Importieren von Daten zu Oracle in Amazon RDS.