Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Genera approfondimenti sui z/OS dati Db2 utilizzando Modernizzazione del mainframe AWS Amazon Q in QuickSight
Shubham Roy, Roshna Razack e Santosh Kumar Singh, Amazon Web Services
Riepilogo
Se la tua organizzazione ospita dati aziendali critici in un ambiente mainframe IBM Db2, ottenere informazioni approfondite da tali dati è fondamentale per promuovere la crescita e l'innovazione. Sbloccando i dati del mainframe, puoi creare business intelligence più veloce, sicura e scalabile per accelerare il processo decisionale, la crescita e l'innovazione basati sui dati nel cloud Amazon Web Services ().AWS
Questo modello presenta una soluzione per generare approfondimenti aziendali e creare narrazioni condivisibili a partire dai dati mainframe in IBM Db2 for tables. z/OS Le modifiche ai dati del mainframe vengono trasmesse in streaming all'argomento Amazon Managed Streaming for Apache Kafka (Amazon Modernizzazione del mainframe AWS MSK) utilizzando Data Replication with Precisly. Utilizzando lo streaming ingestion di Amazon Redshift, i dati tematici di Amazon MSK vengono archiviati in tabelle di data warehouse Serverless di Amazon Redshift per l'analisi in Amazon. QuickSight
Una volta che i dati sono disponibili in QuickSight, puoi utilizzare le istruzioni in linguaggio naturale con Amazon Q in QuickSight per creare riepiloghi dei dati, porre domande e generare storie di dati. Non è necessario scrivere query SQL o imparare a usare uno strumento di business intelligence (BI).
Contesto aziendale
Questo modello presenta una soluzione per i casi d'uso di analisi dei dati mainframe e analisi dei dati. Utilizzando il modello, crei una dashboard visiva per i dati della tua azienda. Per dimostrare la soluzione, questo modello utilizza un'azienda sanitaria che fornisce piani medici, dentistici e oculistici ai suoi membri negli Stati Uniti. In questo esempio, i dati demografici dei membri e le informazioni sul piano vengono archiviati in IBM Db2 for data tables. z/OS La dashboard visiva mostra quanto segue:
Distribuzione dei membri per regione
Distribuzione dei membri per genere
Distribuzione dei membri per età
Distribuzione dei membri per tipo di piano
Membri che non hanno completato l'immunizzazione preventiva
Per esempi di distribuzione dei membri per regione e membri che non hanno completato l'immunizzazione preventiva, vedere la sezione Informazioni aggiuntive.
Dopo aver creato la dashboard, si genera una storia basata sui dati che spiega le informazioni ricavate dall'analisi precedente. La storia dei dati fornisce raccomandazioni per aumentare il numero di membri che hanno completato le vaccinazioni preventive.
Prerequisiti e limitazioni
Prerequisiti
Un attivo Account AWS. Questa soluzione è stata creata e testata su Amazon Linux 2 su Amazon Elastic Compute Cloud (Amazon EC2).
Un cloud privato virtuale (VPC) con una sottorete accessibile dal sistema mainframe.
Un database mainframe con dati aziendali. Per i dati di esempio utilizzati per creare e testare questa soluzione, consulta la sezione Allegati.
Change Data Capture (CDC) abilitato nelle tabelle z/OS Db2. Per abilitare CDC su Db2 z/OS, consulta la documentazione IBM.
Precisly Connect CDC per l' z/OS installazione sul z/OS sistema che ospita i database di origine. Il Precisly Connect CDC for z/OS image viene fornito come file zip all'interno di Modernizzazione del mainframe AWS - Data Replication for IBM z/OS Amazon Machine Image (AMI). Per installare Precisly Connect CDC for z/OS sul mainframe, consulta la documentazione di installazione di Precisly Connect.
Limitazioni
I dati Db2 del mainframe devono essere in un tipo di dati supportato da Precisly Connect CDC. Per un elenco dei tipi di dati supportati, consulta la documentazione di Precisly Connect CDC.
I tuoi dati su Amazon MSK devono essere in un tipo di dati supportato da Amazon Redshift. Per un elenco dei tipi di dati supportati, consulta la documentazione di Amazon Redshift.
Amazon Redshift ha comportamenti e limiti di dimensione diversi per diversi tipi di dati. Per ulteriori informazioni, consulta la documentazione di Amazon Redshift.
I dati quasi in tempo reale QuickSight dipendono dall'intervallo di aggiornamento impostato per il database Amazon Redshift.
Alcuni Servizi AWS non sono disponibili in tutti. Regioni AWS Per la disponibilità per regione, vedi Servizi AWS per regione. Amazon Q in non QuickSight è attualmente disponibile in tutte le regioni che supportano QuickSight. Per endpoint specifici, consulta la pagina Endpoint e quote del servizio e scegli il link relativo al servizio.
Versioni del prodotto
Modernizzazione del mainframe AWS Replica dei dati con Precisly versione 4.1.44
Python versione 3.6 o successiva
Apache Kafka versione 3.5.1
Architettura
Architettura Target
Il diagramma seguente mostra un'architettura per generare informazioni aziendali dai dati mainframe utilizzando Modernizzazione del mainframe AWS Data Replication with Precisly e Amazon Q in. QuickSight
Il diagramma mostra il flusso di lavoro seguente:
L'agente Precisly Log Reader legge i dati dai log Db2 e li scrive in uno storage transitorio su un file system OMVS sul mainframe.
Il Publisher Agent legge i log Db2 non elaborati dallo storage transitorio.
Il daemon del controller locale autentica, autorizza, monitora e gestisce le operazioni.
L'agente Apply viene distribuito su Amazon EC2 utilizzando l'AMI preconfigurata. Si connette con Publisher Agent tramite il daemon del controller utilizzando TCP/IP. L'agente Apply invia i dati ad Amazon MSK utilizzando più worker per un throughput elevato.
I lavoratori scrivono i dati nell'argomento Amazon MSK in formato JSON. Come destinazione intermedia per i messaggi replicati, Amazon MSK offre funzionalità di failover automatizzate e ad alta disponibilità.
L'ingestione di streaming di Amazon Redshift fornisce l'inserimento di dati a bassa latenza e alta velocità da Amazon MSK a un database Amazon Redshift Serverless. Una procedura memorizzata in Amazon Redshift esegue la riconciliazione dei dati di modifica del mainframe (insert/update/deletes) nelle tabelle Amazon Redshift. Queste tabelle Amazon Redshift fungono da fonte di analisi dei dati per. QuickSight
Gli utenti accedono ai dati QuickSight per analisi e approfondimenti. Puoi utilizzare Amazon Q in QuickSight per interagire con i dati utilizzando istruzioni in linguaggio naturale.
Strumenti
Servizi AWS
Amazon Elastic Compute Cloud (Amazon EC2) fornisce capacità di calcolo scalabile nel cloud AWS. Puoi avviare tutti i server virtuali di cui hai bisogno e scalarli rapidamente verso l'esterno o verso l'esterno.
AWS Key Management Service (AWS KMS) consente di creare e controllare chiavi crittografiche per proteggere i dati.
Amazon Managed Streaming for Apache Kafka (Amazon MSK) è un servizio completamente gestito che ti aiuta a creare ed eseguire applicazioni che utilizzano Apache Kafka per elaborare dati di streaming.
Amazon QuickSight è un servizio di business intelligence (BI) su scala cloud che ti aiuta a visualizzare, analizzare e riportare i tuoi dati in un'unica dashboard. Questo modello utilizza le funzionalità di BI generativa di Amazon Q in QuickSight.
Amazon Redshift Serverless è un'opzione serverless di Amazon Redshift che rende più efficiente l'esecuzione e la scalabilità delle analisi in pochi secondi senza la necessità di configurare e gestire l'infrastruttura di data warehouse.
Con AWS Secrets Manager puoi sostituire le credenziali nel codice,incluse le password, con una chiamata API a Secrets Manager in modo da recuperare il segreto a livello di codice.
Altri strumenti
Deposito di codici
Il codice per questo pattern è disponibile nel repository GitHub DataInsightsMainframe_ _change_data_reconciliation. Il codice è una procedura memorizzata in Amazon Redshift. Questa procedura memorizzata riconcilia le modifiche ai dati del mainframe (inserimenti, aggiornamenti ed eliminazioni) da Amazon MSK alle tabelle Amazon Redshift. Queste tabelle Amazon Redshift fungono da fonte di analisi dei dati per. QuickSight
Best practice
Epiche
| Attività | Descrizione | Competenze richieste |
|---|
Configura un gruppo di sicurezza. | Per connetterti al daemon del controller e al cluster Amazon MSK, crea un gruppo di sicurezza per l'istanza. EC2 Aggiungi le seguenti regole in entrata e in uscita: Regola 1 in entrata: Per Tipo, scegli TCP personalizzato. Per Protocol (Protocollo), selezionare TCP. Per Port range, scegliete 2626 (porta predefinita per il daemon Precisly controller) o il numero di porta del demone del controller in esecuzione sul mainframe. Per Source, scegli il blocco CIDR.
Regola 2 in entrata: Per Type (Tipo), scegliere Custom TCP (TCP personalizzato). Per Protocollo, scegli SSH. Per Port range, scegli 22. Per Sorgente, scegli l'indirizzo IP o l'elenco dei prefissi.
Regola 3 in entrata: Per Type (Tipo), scegliere Custom TCP (TCP personalizzato). Per Protocol (Protocollo), selezionare TCP. Per Port range, scegli 9092-9098. Per Source, scegli il blocco CIDR.
Regola 1 in uscita: Per Type (Tipo), scegliere Custom TCP (TCP personalizzato). Per Protocol (Protocollo), selezionare TCP. Per Port range, scegli 9092-9098. Per Source, scegli il blocco CIDR.
Regola 2 in uscita: Per Type (Tipo), scegliere Custom TCP (TCP personalizzato). Per Protocol (Protocollo), selezionare TCP. Per Port range, scegliete 2626 (porta predefinita per il demone Precisly controller) o il numero di porta del demone del controller in esecuzione sul mainframe. Per Source, scegli il blocco CIDR.
Annota il nome del gruppo di sicurezza. Dovrai fare riferimento al nome quando avvii l' EC2 istanza e configuri il cluster Amazon MSK. | DevOps ingegnere, AWS DevOps |
Crea una policy IAM e un ruolo IAM. | Per creare una policy IAM e un ruolo IAM, segui le istruzioni nella documentazione AWS. La policy IAM concede l'accesso per creare argomenti sul cluster Amazon MSK e inviare dati a tali argomenti. Dopo aver creato il ruolo IAM, associa la policy ad esso. Nota il nome del ruolo IAM. Questo ruolo verrà utilizzato come profilo dell'istanza IAM all'avvio dell' EC2 istanza.
| DevOps ingegnere, amministratore di sistema AWS |
Fornisci un' EC2 istanza. | Per fornire un' EC2 istanza per eseguire Precisly CDC e connettersi ad Amazon MSK, procedi come segue: Accedi ad AWS Marketplace e iscriviti ad AWS Mainframe Modernization ‒ Data Replication for IBM z/OS. Seleziona l'AMI dagli abbonamenti gestiti e scegli Launch new instance. Fornisci altri dettagli di configurazione, come il nome dell'istanza, il tipo di istanza, la coppia di chiavi, il VPC e le sottoreti. Per ulteriori informazioni, consulta la EC2 documentazione di Amazon. Nell'elenco a discesa, scegli il gruppo di sicurezza che hai creato in precedenza. In Dettagli avanzati, profilo dell'istanza IAM, devi selezionare il ruolo che hai creato in precedenza. Scegliere Launch Instance (Avvia istanza).
| Amministratore, DevOps ingegnere di AWS |
| Attività | Descrizione | Competenze richieste |
|---|
Crea il cluster Amazon MSK. | Per creare un cluster Amazon MSK, procedi come segue: Accedi a e apri AWS Management Console la console Amazon MSK all'indirizzo https://console.aws.amazon.com/msk/. Scegli Create cluster (Crea cluster). Per il metodo di creazione del cluster, scegli Creazione personalizzata e, per il tipo di cluster, scegli Provisioned. Fornire un nome per il cluster. Aggiorna le impostazioni del cluster secondo necessità e mantieni i valori predefiniti per le altre impostazioni. Nota la < versione di Kafka>. Ti servirà durante la configurazione del client Kafka. Scegli Next (Successivo). Scegli lo stesso VPC e le stesse sottoreti che hai usato per l' EC2 istanza Precisly e scegli il gruppo di sicurezza che hai creato in precedenza. Nella sezione Impostazioni di sicurezza, abilita l'autenticazione basata sui ruoli SASL/SCRAM e IAM. Precisly Connect CDC utilizza SASL/SCRAM (Simple Authentication and Security Layer/ Salted Challenge Response Mechanism) e IAM è necessario per la connessione ad Amazon Redshift. Scegli Next (Successivo). Per la revisione, scegli il metodo di consegna dei log di Monitoring and Broker. Scegli Avanti, quindi scegli Crea il cluster.
La creazione di un cluster con provisioning tipico richiede fino a 15 minuti. Dopo la creazione del cluster, lo stato del cluster cambia da Creato ad Attivo. | AWS DevOps, amministratore del cloud |
Configura SASL/SCRAM l'autenticazione. | Per configurare SASL/SCRAM l'autenticazione per un cluster Amazon MSK, procedi come segue: Per impostare un segreto in Secrets Manager, segui le istruzioni nella AWS documentazione. Apri la console Amazon MSK e seleziona il cluster Amazon MSK creato in precedenza. Scegliere la scheda Properties (Proprietà). Scegli i segreti associati, scegli i segreti, seleziona la chiave segreta che hai creato, quindi scegli Segreti associati. Verrà visualizzato un messaggio di successo simile al seguente: Successfully associated 1 secret for cluster <chosen cluster name>
Scegli il nome del cluster. Nel riepilogo del cluster, scegli Visualizza le informazioni sul client. Nota la stringa di connessione all'endpoint privato per il tipo di autenticazione SASL/SCRAM.
| Architetto del cloud |
Crea l'argomento Amazon MSK. | Per creare l'argomento Amazon MSK, procedi come segue: Connettiti all' EC2 istanza che hai creato in precedenza e installa gli aggiornamenti più recenti eseguendo il comando seguente: sudo yum update -y
Installa le librerie Java e Kafka eseguendo il seguente comando: sudo yum install -y java-11 librdkafka librdkafka-devel
Per creare una cartella denominata kafka in/home/ec2-user, accedete a quella cartella ed eseguite il seguente comando: mkdir kafka;cd kafka
Scarica la libreria kafka client kafka nella cartella, sostituendola <YOUR MSK VERSION> con la versione di Kafka che hai annotato durante la creazione del cluster Amazon MSK: wget https://archive.apache.org/dist/kafka//kafka_2.13-<YOUR MSK VERSION>.tgz
Per estrarre il file scaricato, esegui il comando seguente, sostituendo: YOUR MSK VERSION> tar -xzf kafka_2.13-<YOUR MSK VERSION>.tgz
Per accedere alla kafka libs directory e scaricare il file Java Archive (JAR) di autenticazione Java IAM, esegui i seguenti comandi, sostituendo<YOUR MSK VERSION>: cd kafka_2.13-<YOUR MSK VERSION>/libs
wget https://github.com/aws/aws-msk-iam-auth/releases/download/v1.1.1/aws-msk-iam-auth-1.1.1-all.jarkafka
Per accedere alla bin directory Kafka e creare il client.properties file, esegui i seguenti comandi: cd /home/ec2-user/kafka/kafka_2.13-<YOUR MSK VERSION>/bin
cat >client.properties
Aggiorna il client.properties file con i seguenti contenuti: security.protocol=SASL_SSL
sasl.mechanism=AWS_MSK_IAM
sasl.jaas.config=software.amazon.msk.auth.iam.IAMLoginModule required;
sasl.client.callback.handler.class=software.amazon.msk.auth.iam.IAMClientCallbackHandler
Per creare un argomento Kafka, accedi al contenitore Kafka ed esegui il comando seguente, sostituendolo <kafka broker> con l'endpoint privato del server bootstrap IAM che hai notato durante la creazione del cluster Amazon MSK: ./kafka-topics.sh --bootstrap-server <kafka broker> --command-config client.properties --create --replication-factor 3 —partitions 6 --topic <topic name>
Quando viene visualizzato il messaggio, annota il nome dell'argomentoCreated topic <topic name>.
| Amministratore del cloud |
| Attività | Descrizione | Competenze richieste |
|---|
Configura gli script Precisly per replicare le modifiche ai dati. | Per configurare gli script CDC di Precisly Connect per replicare i dati modificati dal mainframe all'argomento Amazon MSK, procedi come segue: Per creare con precisione il nome di una cartella e passare a quella cartella, esegui il seguente comando: mkdir /home/ec2-user/precisely;cd /home/ec2-user/precisely
Per creare due cartelle all'interno di una cartella chiamata scripts con precisione e poi passare alla scripts cartella, esegui il seguente comando: ddls mkdir scripts;mkdir ddls;cd scripts
Per creare un file denominato sqdata_kafka_producer.conf nella scripts cartella, esegui il seguente comando: cat >sqdata_kafka_producer.conf
Aggiorna sqdata_kafka_producer.conf il file con il seguente contenuto: builtin.features=SASL_SCRAM
security.protocol=SASL_SSL
sasl.mechanism=SCRAM-SHA-512
sasl.username=<User Name>
sasl.password=<Password>
metadata.broker.list=<SASL/SCRAM Bootstrap servers>
Aggiorna <SASL/SCRAM Bootstrap servers> con l'elenco di SASL/SCRAM broker Amazon MSK che hai configurato in precedenza. Aggiorna <User Name> e <Password> con il nome utente e la password che hai impostato in precedenza in Secrets Manager. Crea un script.sqd file nella scripts cartella. cat >script.sqd
Apply Engine li utilizza script.sqd per elaborare i dati di origine e replicare i dati di origine sulla destinazione. Per un esempio di script Apply Engine, consultate la sezione Informazioni aggiuntive. Per passare alla ddls cartella e creare un file.ddl per ogni tabella Db2, esegui i seguenti comandi: cd /home/ec2-user/precisely/ddls
cat >mem_details.ddl
cat >mem_plans.ddl
Ad esempio i file.ddl, consultate la sezione Informazioni aggiuntive. | Sviluppatore di app, architetto cloud |
Genera la chiave ACL di rete. | Per generare la chiave dell'elenco di controllo degli accessi alla rete (network ACL), procedi come segue: Per esportare il percorso sqdata di installazione, esegui il comando seguente: export PATH=$PATH:/usr/sbin:/opt/precisely/di/sqdata/bin
Per passare alla /home/ec2-user directory e generare la chiave ACL di rete, esegui i seguenti comandi: cd /home/ec2-user
sqdutil keygen --force
Dopo la generazione delle chiavi pubbliche e private, viene visualizzato il seguente messaggio: SQDUT04I Generating a private key in file /home/ec2-user/.nacl/id_nacl
SQDC017I sqdutil(pid=27344) terminated successfully
Annota la chiave pubblica generata che è memorizzata nella .nacl cartella.
| Architetto del cloud, AWS DevOps |
| Attività | Descrizione | Competenze richieste |
|---|
Configurare le impostazioni predefinite nella schermata ISPF. | Per configurare le impostazioni predefinite nell'Interactive System Productivity Facility (ISPF), segui le istruzioni nella documentazione di Precisly. | Amministratore di sistema mainframe |
Configura il demone del controller. | Per configurare il demone del controller, procedi come segue: Nella schermata del menu principale di SQData z/OS, scegliete l'opzione 2. Nella schermata Aggiungi demone alla lista, nel campo Nome demone, inserite un nome per il demone, quindi premete Invio.
| Amministratore di sistema mainframe |
Configura l'editore. | Per configurare l'editore, procedi come segue: Nella schermata del menu principale di SQData z/OS, scegliete l'opzione 3. Verrà visualizzata la schermata di riepilogo di Capture/Publisher. Scegliete l'opzione per aggiungere un file CAB. Verrà visualizzata la schermata Aggiungi file CAB all'elenco. Nel campo Nome, inserisci un nome per il file CAB. Per Db2, inserite Type as. D Premere Invio. Verrà visualizzata la schermata Crea nuovo file CAB di Db2 Capture. Nel campo ZfS Dir, specificate il punto di montaggio dello storage. Premere Invio per salvare e continuare.
| Amministratore di sistema mainframe |
Aggiorna il file di configurazione del demone. | Per aggiornare i dettagli dell'editore nel file di configurazione del demone del controller, procedi come segue: Nella schermata del menu principale di SQData z/OS, scegliete l'opzione 2. Entra S vicino al demone che hai creato per vedere i dettagli del demone. Invio1, quindi premi Invio per modificare il file degli agenti. Aggiungi i dettagli del file CAB. L'esempio seguente mostra i dettagli di un file CAB denominato. DB2ZTOMSK Usa il tuo ID utente del mainframe invece di. <userid> ÝDB2ZTOMSK¨
type=capture
cab=/u/<userid>/sqdata/DB2ZTOMSK.cab
Premere F3. Invio 2 per modificare il file ACL. Aggiungete il vostro userid al file di acl configurazione come mostrato nell'esempio seguente: Ýacls¨
prod=admin,<userid>
Premi F3 per salvare e uscire.
| Amministratore di sistema mainframe |
Crea il job per avviare il daemon del controller. | Per creare il job, procedi come segue: In Opzioni, immettereG. Inserisci la JOB Card, le librerie job e proc e i dettagli Db2 load della biblioteca. Immettete i dettagli del file ACL di rete e immettete l'opzione 2 per generare il file Job Control Language (JCL) nella libreria di job specificata.
| Amministratore di sistema mainframe |
Genera il file JCL di Capture Publisher. | Per generare il file JCL dell'editore di acquisizione, effettuate le seguenti operazioni: Nella schermata del menu principale di SQData z/OS, scegliete l'opzione 3. Verrà visualizzata la schermata di riepilogo di Capture/Publisher. Immettete S accanto al file CAB per selezionarlo. Verrà visualizzata la schermata Db2 Capture/Publisher Detail. In Opzioni, immettete G le opzioni per generare il capture/publisher lavoro. Immettete la scheda JOB, le librerie di job e procedure e i dettagli della libreria di caricamento Db2. Per creare il lavoro, scegliete l'opzione 4. Il lavoro viene creato nella libreria dei lavori specificata nella libreria dei lavori.
| Amministratore di sistema mainframe |
Controlla e aggiorna CDC. | Controlla il DATACAPTURE flag della tabella Db2 eseguendo la seguente query, cambiando <table name> il nome della tabella Db2: SELECT DATACAPTURE FROM SYSIBM.SYSTABLES WHERE NAME='<table name>';
Conferma che il risultato sia visualizzato comeDATACAPTURE. Y In caso DATACAPTURE contrarioY, esegui la seguente query per abilitare CDC sulla tabella Db2, cambiando <table name> il nome della tabella Db2: ALTER TABLE <table name> DATA CAPTURE CHANGES;
| Amministratore di sistema mainframe |
Inviate i file JCL. | Invia i seguenti file JCL che hai configurato nei passaggi precedenti: Dopo aver inviato i file JCL, puoi avviare Apply Engine in Precisly sull' EC2 istanza. | Amministratore di sistema mainframe |
| Attività | Descrizione | Competenze richieste |
|---|
Avvia Apply Engine e convalida il CDC. | Per avviare Apply Engine sull' EC2 istanza e convalidare il CDC, procedi come segue: Per connetterti all' EC2 istanza, segui le istruzioni nella AWS documentazione. Passa alla directory che contiene il script.sqd file: cd /home/ec2-user/precisely/scripts
Per avviare Apply Engine, eseguite il seguente comando sqdeng start: sqdeng -s script.sqd --identity=/home/ec2-user/.nacl/id_nacl
L'Apply Engine inizierà ad attendere gli aggiornamenti dal sorgente del mainframe. Per testare CDC, inserite alcuni record o aggiorna la tabella Db2. Verifica che il registro di Apply Engine mostri il numero di record acquisiti e scritti nella destinazione.
| Architetto del cloud, sviluppatore di app |
Convalida i record sull'argomento Amazon MSK. | Per leggere il messaggio sull'argomento Kafka, procedi come segue: Per passare alla bin directory del percorso di installazione del client Kafka sull' EC2 istanza, esegui il comando seguente, sostituendolo <Kafka version> con la tua versione: cd /home/ec2-user/kafka/kafka_2.13-<Kafka version>/bin
Per convalidare il CDC Db2 scritto come messaggi nell'argomento Kafka, esegui il comando seguente, sostituendo <kafka broker> e <Topic Name> con l'argomento creato in precedenza: ./kafka-console-consumer.sh --bootstrap-server <kafka broker>:9098 --topic <Topic Name> --from-beginning --consumer.config client.properties
Verifica che i messaggi corrispondano al numero di record aggiornati nella tabella Db2.
| Sviluppatore di app, architetto cloud |
| Attività | Descrizione | Competenze richieste |
|---|
Configura Amazon Redshift Serverless. | Per creare un data warehouse Serverless Amazon Redshift, segui le istruzioni nella documentazione.AWS Nella dashboard di Amazon Redshift Serverless, verifica che lo spazio dei nomi e il gruppo di lavoro siano stati creati e siano disponibili. Per questo modello di esempio, il processo potrebbe richiedere 25 minuti. | Ingegnere dei dati |
Configura il ruolo IAM e la policy di fiducia necessari per l'acquisizione dello streaming. | Per configurare l'acquisizione di streaming senza server di Amazon Redshift da Amazon MSK, procedi come segue: Crea una policy IAM per Amazon Redshift per accedere ad Amazon MSK. Sostituendo [region] con Amazon MSK, [account-id] con il tuo Account AWS ID e [msk-cluster-name] con il nome del cluster Amazon MSK, esegui il codice seguente: Regione AWS {"Version": "2012-10-17", "Statement": [{"Sid": "MSKIAMpolicy","Effect": "Allow","Action": ["kafka-cluster:ReadData","kafka-cluster:DescribeTopic","kafka-cluster:Connect"],"Resource": ["arn:aws:kafka:[region]:[account-id]:cluster/[msk-cluster-name]/*","arn:aws:kafka:[region]:[account-id]:topic/[msk-cluster-name]/*"]},{"Effect": "Allow","Action": ["kafka-cluster:AlterGroup","kafka-cluster:DescribeGroup"],"Resource": ["arn:aws:kafka:[region]:[account-id]:group/[msk-cluster-name]/*"]}]}
Puoi trovare il nome del cluster e l'Amazon Resource Name (ARN) sulla console Amazon MSK. Sulla console, scegli Riepilogo del cluster, quindi scegli ARN. Per creare un ruolo IAM e allegare la policy, segui le istruzioni nella AWS documentazione. Per collegare il ruolo IAM allo spazio dei nomi Serverless di Amazon Redshift, procedi come segue: Nel tuo gruppo di sicurezza Amazon Redshift Serverless, crea una regola in entrata con i seguenti dettagli: Per Type (Tipo), scegliere Custom TCP (TCP personalizzato). Per Protocol (Protocollo), selezionare TCP. Per Port range, scegli 9098, 9198. Per Source, scegli il gruppo di sicurezza Amazon MSK.
Nel tuo gruppo di sicurezza Amazon MSK, crea una regola in entrata con i seguenti dettagli: Per Type (Tipo), scegliere Custom TCP (TCP personalizzato). Per Protocol (Protocollo), selezionare TCP. Per Port range, scegli 9098, 9198. Per Source, scegli il gruppo di sicurezza Amazon Redshift.
Questo modello utilizza la porta per l'autenticazione IAM per la configurazione di Amazon Redshift e Amazon MSK. Per ulteriori informazioni, consulta la AWS documentazione (fase 2). Attiva il routing VPC avanzato per il gruppo di lavoro Serverless Amazon Redshift. Per ulteriori informazioni, consulta la documentazione relativa ad AWS.
| Ingegnere dei dati |
Connetti Amazon Redshift Serverless ad Amazon MSK. | Per connetterti all'argomento Amazon MSK, crea uno schema esterno in Amazon Redshift Serverless. Nell'editor di query di Amazon Redshift v2, esegui il seguente comando SQL, sostituendolo 'iam_role_arn' con il ruolo creato in precedenza e sostituendo 'MSK_cluster_arn «con l'ARN per il cluster. CREATE EXTERNAL SCHEMA member_schema
FROM MSK
IAM_ROLE 'iam_role_arn'
AUTHENTICATION iam
URI 'MSK_cluster_arn';
| Ingegnere della migrazione |
Crea una vista materializzata. | Per utilizzare i dati dell'argomento Amazon MSK in Amazon Redshift Serverless, crea una vista materializzata. Nell'editor di query di Amazon Redshift v2, esegui i seguenti comandi SQL, sostituendoli <MSK_Topic_name> con il nome del tuo argomento Amazon MSK. CREATE MATERIALIZED VIEW member_view
AUTO REFRESH YES
AS SELECT
kafka_partition,
kafka_offset,
refresh_time,
json_parse(kafka_value) AS Data
FROM member_schema.<MSK_Topic_name>
WHERE CAN_JSON_PARSE(kafka_value);
| Ingegnere della migrazione |
Crea tabelle di destinazione in Amazon Redshift. | Le tabelle Amazon Redshift forniscono l'input per. QuickSight Questo modello utilizza le tabelle member_dtls emember_plans, che corrispondono alle tabelle Db2 di origine sul mainframe. Per creare le due tabelle in Amazon Redshift, esegui i seguenti comandi SQL in Amazon Redshift query editor v2: -- Table 1: members_dtls
CREATE TABLE members_dtls (
memberid INT ENCODE AZ64,
member_name VARCHAR(100) ENCODE ZSTD,
member_type VARCHAR(50) ENCODE ZSTD,
age INT ENCODE AZ64,
gender CHAR(1) ENCODE BYTEDICT,
email VARCHAR(100) ENCODE ZSTD,
region VARCHAR(50) ENCODE ZSTD
) DISTSTYLE AUTO;
-- Table 2: member_plans
CREATE TABLE member_plans (
memberid INT ENCODE AZ64,
medical_plan CHAR(1) ENCODE BYTEDICT,
dental_plan CHAR(1) ENCODE BYTEDICT,
vision_plan CHAR(1) ENCODE BYTEDICT,
preventive_immunization VARCHAR(50) ENCODE ZSTD
) DISTSTYLE AUTO;
| Ingegnere della migrazione |
Crea una procedura memorizzata in Amazon Redshift. | Questo modello utilizza una procedura memorizzata per sincronizzare i dati di modifica (INSERT,UPDATE,DELETE) dal mainframe di origine alla tabella del data warehouse Amazon Redshift di destinazione per l'analisi. QuickSight Per creare la stored procedure in Amazon Redshift, utilizza l'editor di query v2 per eseguire il codice di stored procedure presente nel repository. GitHub | Ingegnere della migrazione |
Leggi dalla vista materializzata in streaming e carica nelle tabelle di destinazione. | La stored procedure legge le modifiche ai dati dalla vista materializzata in streaming e carica le modifiche ai dati nelle tabelle di destinazione. Per eseguire la stored procedure, utilizzare il seguente comando: call SP_Members_Load();
Puoi utilizzare Amazon EventBridge per pianificare i lavori nel tuo data warehouse Amazon Redshift per richiamare questa procedura memorizzata in base ai tuoi requisiti di latenza dei dati. EventBridge esegue i lavori a intervalli fissi. Per verificare se la chiamata precedente alla procedura è stata completata, potrebbe essere necessario utilizzare un meccanismo come una macchina a AWS Step Functionsstati. Per ulteriori informazioni, consulta le seguenti risorse: Un'altra opzione è usare Amazon Redshift Query Editor v2 per pianificare l'aggiornamento. Per ulteriori informazioni, consulta Pianificazione di una query con l'editor di query v2. | Ingegnere della migrazione |
| Attività | Descrizione | Competenze richieste |
|---|
Configurare QuickSight. | Per eseguire la configurazione QuickSight, segui le istruzioni contenute nella AWS documentazione. | Ingegnere della migrazione |
Configura una connessione sicura tra Amazon Redshift QuickSight e Amazon Redshift. | Per configurare una connessione sicura tra Amazon Redshift QuickSight e Amazon Redshift, procedi come segue Per autorizzare le connessioni da QuickSight Amazon Redshift, apri la console Amazon Redshift e aggiungi una regola in entrata nel gruppo di sicurezza Amazon Redshift. La regola dovrebbe consentire il traffico verso la porta 5439 (la porta Redshift predefinita) dall'intervallo CIDR in cui è stata configurata. QuickSight Per un elenco dei Regioni AWS relativi indirizzi IP, consulta Supportato per. Regioni AWS QuickSight Sulla console Amazon Redshift, scegli Gruppo di lavoro, Accesso ai dati, Rete e sicurezza e abilita Accessibile pubblicamente.
| Ingegnere della migrazione |
Crea un set di dati per QuickSight. | Per creare un set di dati QuickSight da Amazon Redshift, procedi come segue: Sulla QuickSight console, nel riquadro di navigazione, scegli Datasets. Nella pagina Set di dati scegli Nuovo set di dati. Scegli Redshift Manual connect. Nella finestra Nuova origine dati Redshift, inserisci le informazioni di connessione: Per Nome origine dati, inserisci un nome per l'origine dati Amazon Redshift. Per Database server, inserisci l'endpoint del cluster Amazon Redshift. Puoi ottenere il valore dell'endpoint dal campo Endpoint nella sezione Informazioni generali per il gruppo di lavoro del cluster sulla dashboard di Amazon Redshift Serverless. L'indirizzo del server è la prima parte dell'endpoint prima dei due punti, come mostrato nell'esempio seguente: mfdata-insights.NNNNNNNNN.us-east-1.redshift-serverless.amazonaws.com:5439/dev
Per la porta, inserisci 5439 (la porta predefinita per Amazon Redshift). Inserisci il nome del database (dopo la barra nell'endpoint). In questo caso, il nome del database è. dev Per Nome utente e password, inserisci il nome utente e la password per il database Amazon Redshift.
Scegli Convalida connessione. In caso di successo, dovresti vedere un segno di spunta verde, che indica la convalida. Se la convalida fallisce, consulta la sezione Risoluzione dei problemi. Seleziona Create data source (Crea origine dati).
| Tecnico di migrazione |
Unisciti al set di dati. | Per creare analisi in QuickSight, unisci le due tabelle seguendo le istruzioni nella AWS documentazione. Nel riquadro Join Configuration, scegli Left for Join type. In Clausole Join, usa. memberid from member_plans = memberid from members_details | Ingegnere della migrazione |
| Attività | Descrizione | Competenze richieste |
|---|
Configura Amazon Q in QuickSight. | Per configurare Amazon Q nella funzionalità di BI QuickSight generativa, segui le istruzioni nella AWS documentazione. | Ingegnere della migrazione |
Analizza i dati del mainframe e crea una dashboard visiva. | Per analizzare e visualizzare i dati in QuickSight, procedi come segue: Per creare l'analisi dei dati del mainframe, segui le istruzioni nella AWS documentazione. Per il set di dati, scegli il set di dati che hai creato. Nella pagina di analisi scegli Build visual. Nella finestra Crea argomento per l'analisi, scegli Aggiorna argomento esistente. Nell'elenco a discesa Seleziona un argomento, scegli l'argomento che hai creato in precedenza. Scegli Collegamento all'argomento. Dopo aver collegato l'argomento, scegli Build visual per aprire la finestra Amazon Q Build a Visual. Nella barra delle istruzioni, scrivi le tue domande di analisi. Le domande di esempio utilizzate per questo modello sono le seguenti: Mostra la distribuzione dei membri per regione Mostra la distribuzione dei membri per età Mostra la distribuzione dei membri per genere Mostra la distribuzione dei membri per tipo di piano Mostra i membri che non hanno completato l'immunizzazione preventiva
Dopo aver inserito le domande, scegli Costruisci. Amazon Q in QuickSight crea gli elementi visivi. Per aggiungere gli elementi visivi alla tua dashboard visiva, scegli AGGIUNGI ALL'ANALISI.
Al termine, puoi pubblicare la dashboard per condividerla con altri membri dell'organizzazione. Ad esempio, consulta la dashboard visiva di Mainframe nella sezione Informazioni aggiuntive. | Ingegnere della migrazione |
| Attività | Descrizione | Competenze richieste |
|---|
Crea una storia basata sui dati. | Crea una storia basata sui dati per spiegare gli approfondimenti tratti dall'analisi precedente e genera una raccomandazione per aumentare l'immunizzazione preventiva per i membri: Per creare la storia dei dati, segui le istruzioni nella AWS documentazione. Per il prompt della storia dei dati, usa quanto segue: Build a data story about Region with most numbers of members. Also show the member distribution by medical plan, vision plan, dental plan. Recommend how to motivate members to complete immunization. Include 4 points of supporting data for this pattern.
Puoi anche creare un prompt personalizzato per generare storie basate sui dati per altri approfondimenti aziendali. Scegli Aggiungi elementi visivi e aggiungi gli elementi visivi pertinenti alla storia dei dati. Per questo modello, usa le immagini che hai creato in precedenza. Seleziona Build (Crea). Ad esempio, l'output di una storia di dati, vedi Data story output nella sezione Informazioni aggiuntive.
| Ingegnere della migrazione |
Visualizza la storia dei dati generati. | Per visualizzare la storia generata dai dati, scegli quella storia nella pagina Storie di dati. | Ingegnere della migrazione |
Modifica una storia di dati generata. | Per modificare la formattazione, il layout o gli elementi visivi di una storia di dati, segui le istruzioni contenute nella AWS documentazione. | Ingegnere della migrazione |
Condividi una storia basata sui dati. | Per condividere una storia basata sui dati, segui le istruzioni nella AWS documentazione. | Ingegnere della migrazione |
Risoluzione dei problemi
| Problema | Soluzione |
|---|
La creazione QuickSight di due set di dati Amazon Redshift non è riuscita. Validate Connection | Verifica che il gruppo di sicurezza collegato all'istanza Serverless di Amazon Redshift consenta il traffico in entrata dall'intervallo di indirizzi IP associato alla regione in cui è stata configurata. QuickSight Verifica che il VPC su cui è distribuito Amazon Redshift Serverless sia disponibile pubblicamente. Conferma di utilizzare il nome utente e la password corretti per Amazon Redshift. Puoi reimpostare il nome utente e la password sulla console Amazon Redshift.
|
Il tentativo di avviare il motore Apply sull' EC2 istanza restituisce il seguente errore: -bash: sqdeng: command not found
| Esporta il percorso di sqdata installazione eseguendo il seguente comando: export PATH=$PATH:/usr/sbin:/opt/precisely/di/sqdata/bin
|
Il tentativo di avviare Apply Engine restituisce uno dei seguenti errori di connessione: SQDD018E Cannot connect to transfer socket(rc==0x18468). Agent:<Agent Name > Socket:/u/./sqdata/.DB2ZTOMSK.cab.data
SQDUR06E Error opening url cdc://<VPC end point name>:2626/DB2ZTOMSK/DB2ZTOMSK : errno:1128 (Unknown error 1128)
| Controllate lo spool del mainframe per assicurarvi che i daemon job del controller siano in esecuzione. |
Risorse correlate
Informazioni aggiuntive
Esempio di file.ddl
members_details.ddl
CREATE TABLE MEMBER_DTLS (
memberid INTEGER NOT NULL,
member_name VARCHAR(50),
member_type VARCHAR(20),
age INTEGER,
gender CHAR(1),
email VARCHAR(100),
region VARCHAR(20)
);
piani_membri.ddl
CREATE TABLE MEMBER_PLANS (
memberid INTEGER NOT NULL,
medical_plan CHAR(1),
dental_plan CHAR(1),
vision_plan CHAR(1),
preventive_immunization VARCHAR(20)
);
Esempio di file.sqd
Sostituisci <kafka topic name>con il nome dell'argomento Amazon MSK.
script.sqd
-- Name: DB2ZTOMSK: DB2z To MSK JOBNAME DB2ZTOMSK;REPORT EVERY 1;OPTIONS CDCOP('I','U','D');-- Source Descriptions
JOBNAME DB2ZTOMSK;
REPORT EVERY 1;
OPTIONS CDCOP('I','U','D');
-- Source Descriptions
BEGIN GROUP DB2_SOURCE;
DESCRIPTION DB2SQL /var/precisely/di/sqdata/apply/DB2ZTOMSK/ddl/mem_details.ddl AS MEMBER_DTLS;
DESCRIPTION DB2SQL /var/precisely/di/sqdata/apply/DB2ZTOMSK/ddl/mem_plans.ddl AS MEMBER_PLANS;
END GROUP;
-- Source Datastore
DATASTORE cdc://<zos_host_name>/DB2ZTOMSK/DB2ZTOMSK
OF UTSCDC
AS CDCIN
DESCRIBED BY GROUP DB2_SOURCE ;
-- Target Datastore(s)
DATASTORE 'kafka:///<kafka topic name>/key'
OF JSON
AS TARGET
DESCRIBED BY GROUP DB2_SOURCE;
PROCESS INTO TARGET
SELECT
{
REPLICATE(TARGET)
}
FROM CDCIN;
Pannello di controllo visivo del mainframe
La seguente immagine dei dati è stata creata da Amazon Q QuickSight per la domanda di analisi show member distribution by region.
La seguente immagine dei dati è stata creata da Amazon Q QuickSight per la domandashow member distribution by Region who have not completed preventive immunization, in pie chart.
Uscita della storia dei dati
Le schermate seguenti mostrano sezioni della storia dei dati creata da Amazon Q QuickSight per il promptBuild a data story about Region with most numbers of members. Also show the member distribution by age, member distribution by gender. Recommend how to motivate members to complete immunization. Include 4 points of supporting data for this pattern.
Nell'introduzione, la storia dei dati consiglia di scegliere la regione con il maggior numero di membri per ottenere il massimo impatto dagli sforzi di immunizzazione.
La storia dei dati fornisce un'analisi del numero di membri per le quattro regioni. Le regioni del Nordest, del Sud-Ovest e del Sud-Est hanno il maggior numero di membri.
La storia dei dati presenta un'analisi dei membri per età.
La storia dei dati si concentra sugli sforzi di immunizzazione nel Midwest.
Allegati
Per accedere al contenuto aggiuntivo associato a questo documento, decomprimi il seguente file: attachment.zip