Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Configuración de un espacio de datos mínimo viable para compartir datos entre organizaciones
Ramy Hcini, Michael Miller y Jorge Hernández Suárez, Amazon Web Services
Ismail Abdellaoui y Malte Gasseling, Think-it
Resumen
Los espacios de datos son redes federadas para el intercambio de datos en las que la confianza y el control sobre los propios datos son principios fundamentales. Permiten a las organizaciones compartir, intercambiar y colaborar en datos a escala, ya que ofrecen una solución rentable e independiente de la tecnología.
Los espacios de datos tienen el potencial de impulsar significativamente los esfuerzos para un futuro sostenible mediante el uso de la resolución de problemas basada en datos con un end-to-end enfoque que involucre a todas las partes interesadas relevantes.
Este patrón lo guía a través del ejemplo de cómo dos empresas pueden utilizar la tecnología de espacio de datos en Amazon Web Services (AWS) para impulsar su estrategia de reducción de emisiones de carbono. En este escenario, la empresa X proporciona datos sobre las emisiones de carbono, que la empresa Y consume. Consulte la sección Información adicional para obtener los siguientes detalles de las especificaciones del espacio de datos:
Participantes
Argumentos comerciales
Autoridad del espacio de datos
Componentes del espacio de datos
Servicios del espacio de datos
Datos que se intercambiarán
Modelo de datos
Conector EDC Tractus-X
El patrón incluye los siguientes pasos:
Implementar la infraestructura necesaria para un espacio de datos básico con dos participantes ejecutándolo AWS.
Intercambio de datos sobre la intensidad de las emisiones de carbono mediante los conectores de forma segura.
Este patrón implementa un clúster de Kubernetes que alojará los conectores del espacio de datos y sus servicios a través de Amazon Elastic Kubernetes Service (Amazon EKS).
Tanto el plano de control como el plano de datos de Eclipse Dataspace Components (EDC)
Además, el servicio de identidad se implementa en Amazon Elastic Compute Cloud (Amazon EC2) para replicar un escenario real de un espacio de datos mínimo viable (MVDS).
Requisitos previos y limitaciones
Requisitos previos
Un activo Cuenta de AWS para implementar la infraestructura que elijas Región de AWS
Un usuario AWS Identity and Access Management (IAM) con acceso a Amazon S3 que se utilizará temporalmente como usuario técnico (el conector EDC actualmente no admite el uso de funciones). Le recomendamos que cree un usuario de IAM específico para esta demostración y que este usuario tenga permisos limitados asociados a él).
AWS Command Line Interface (AWS CLI) instalado y configurado según su elección Región de AWS
eksctl
en la estación de trabajo Git
en la estación de trabajo Un certificado AWS Certificate Manager (ACM) SSL/TLS
Un nombre de DNS que apuntará a un equilibrador de carga de aplicación (el nombre de DNS debe estar cubierto por el certificado de ACM)
HashiCorp Vault
(para obtener información sobre AWS Secrets Manager su uso para administrar secretos, consulte la sección de información adicional).
Versiones de producto
Limitaciones
Selección de conectores: esta implementación utiliza un conector basado en EDC. Sin embargo, asegúrese de tener en cuenta los puntos fuertes y las funcionalidades de los conectores EDC
y FIWARE True para tomar una decisión informada que se ajuste a las necesidades específicas de la implementación. Versión del conector EDC: la solución de implementación elegida se basa en el gráfico de Helm del conector EDC Tractus-X
, una opción de implementación bien establecida y ampliamente probada. La decisión de utilizar este gráfico se debe a su uso habitual y a la inclusión de las extensiones esenciales en la versión proporcionada. Si bien PostgreSQL HashiCorp y Vault son componentes predeterminados, tiene la flexibilidad de personalizar su propia compilación de conectores si es necesario. Acceso al clúster privado: el acceso al clúster de EKS implementado está restringido a los canales privados. La interacción con el clúster se lleva a cabo exclusivamente mediante el uso de
kubectle IAM. El acceso público a los recursos del clúster se puede activar mediante balanceadores de carga y nombres de dominio, que deben implementarse de forma selectiva para exponer servicios específicos a una red más amplia. Sin embargo, no recomendamos proporcionar acceso público.Atención a la seguridad: se hace hincapié en resumir las configuraciones de seguridad según las especificaciones predeterminadas, de modo que puede concentrarse en los pasos necesarios para el intercambio de datos del conector EDC. Si bien se mantiene la configuración de seguridad predeterminada, es imprescindible activar las comunicaciones seguras antes de exponer el clúster a la red pública. Esta precaución garantiza una base sólida para la gestión segura de los datos.
Costo de la infraestructura: se puede obtener una estimación del costo de la infraestructura mediante Calculadora de precios de AWS
. Un cálculo sencillo muestra que los costos pueden ascender a 162,92 USD al mes para la infraestructura implementada.
Arquitectura
La arquitectura MVDS consta de dos nubes privadas virtuales (VPCs), una para el servicio de identidad del Sistema de aprovisionamiento dinámico de atributos (DAPS) y otra para Amazon EKS.
Arquitectura del DAPS
El siguiente diagrama muestra la ejecución de DAPS en EC2 instancias controladas por un grupo de Auto Scaling. Un equilibrador de carga de aplicación y una tabla de enrutamiento muestran los servidores del DAPS. Amazon Elastic File System (Amazon EFS) sincroniza los datos entre las instancias del DAPS.

Arquitectura Amazon EKS
Los espacios de datos están diseñados para ser soluciones independientes de la tecnología, y existen varias implementaciones. Este patrón utiliza un clúster de Amazon EKS para implementar los componentes técnicos del espacio de datos. En el siguiente diagrama se muestra una implementación del clúster de EKS. Los nodos de trabajo se instalan en subredes privadas. Los pods de Kubernetes acceden a la instancia de Amazon Relational Database Service (Amazon RDS) para PostgreSQL que también se encuentra en las subredes privadas. Los pods de Kubernetes almacenan datos compartidos en Amazon S3.

Tools (Herramientas)
AWS servicios
AWS CloudFormationle ayuda a configurar AWS los recursos, aprovisionarlos de forma rápida y coherente y administrarlos a lo largo de su ciclo de vida en todas Cuentas de AWS las regiones.
Amazon Elastic Compute Cloud (Amazon EC2) proporciona una capacidad informática escalable en el Nube de AWS. Puede lanzar tantos servidores virtuales como necesite y escalarlos o reducirlos con rapidez.
Amazon Elastic File System (Amazon EFS) lo ayuda a crear y configurar sistemas de archivos compartidos en la Nube de AWS.
Amazon Elastic Kubernetes Service (Amazon EKS) le ayuda a ejecutar AWS Kubernetes sin necesidad de instalar o mantener su propio plano de control o nodos de Kubernetes.
Amazon Simple Storage Service (Amazon S3) es un servicio de almacenamiento de objetos basado en la nube que lo ayuda a almacenar, proteger y recuperar cualquier cantidad de datos.
ELB (ELB) distribuye el tráfico entrante de aplicaciones o de red entre varios destinos. Por ejemplo, puede distribuir el tráfico entre EC2 instancias, contenedores y direcciones IP en una o más zonas de disponibilidad.
Otras herramientas
eksctl: es una utilidad sencilla de línea de comandos para crear y administrar clústeres de Kubernetes en Amazon EKS.
Git
es un sistema de control de versiones distribuido y de código abierto. HashiCorp Vault
proporciona un almacenamiento seguro con acceso controlado para las credenciales y otra información confidencial. Helm
es un administrador de paquetes de código abierto para Kubernetes que le permite instalar y administrar aplicaciones en el clúster de Kubernetes. kubectl
: una interfaz de la línea de comandos que le ayuda en la ejecución de comandos en clústeres de Kubernetes. Postman
es una plataforma de API.
Repositorio de código
Los archivos YAML de configuración de Kubernetes y los scripts de Python para este patrón están disponibles en el repositorio. GitHub aws-patterns-edc
Prácticas recomendadas
Amazon EKS y el aislamiento de las infraestructuras de los participantes
Los espacios de nombres de Kubernetes separarán la infraestructura del proveedor de la empresa X y la infraestructura del consumidor de la empresa Y en este patrón. Para obtener más información, consulte las guías de prácticas recomendadas de EKS
En una situación más realista, cada participante tendría un clúster de Kubernetes independiente que se ejecutaría dentro de su propia Cuenta de AWS. Los participantes del espacio de datos podrían acceder a la infraestructura compartida (DAPS en este patrón) que, al mismo tiempo, estaría completamente separada de las infraestructuras de los participantes.
Epics
| Tarea | Descripción | Habilidades requeridas |
|---|---|---|
Clonar el repositorio. | Para clonar el repositorio a la estación de trabajo, ejecute el siguiente comando:
La estación de trabajo debe tener acceso a su. Cuenta de AWS | DevOps ingeniero |
Aprovisione el clúster de Kubernetes y configure los espacios de nombres. | Para implementar un clúster de EKS predeterminado simplificado en la cuenta, ejecute el siguiente comando de
El comando crea la VPC y las subredes públicas y privadas que abarcan tres zonas de disponibilidad diferentes. Una vez creada la capa de red, el comando crea dos Para obtener más información y ejemplos de resultados, consulte la guía de eksctl Tras aprovisionar el clúster privado, ejecute el siguiente comando para agregar el nuevo clúster de EKS a la configuración de Kubernetes local:
Este patrón utiliza el Para confirmar que los nodos de EKS se estén ejecutando y estén preparados, ejecute el siguiente comando:
| DevOps ingeniero |
Configure los espacios de nombres. | Para crear espacios de nombres para el proveedor y el consumidor, ejecute los siguientes comandos:
En este patrón, es importante utilizar | DevOps ingeniero |
| Tarea | Descripción | Habilidades requeridas |
|---|---|---|
Implemente DAPS mediante AWS CloudFormation. | Para facilitar la administración de las operaciones de DAPS, el servidor DAPS se instala en las instancias. EC2 Para instalar el DAPS, utilice la plantilla de AWS CloudFormation
Puede implementar la AWS CloudFormation plantilla iniciando sesión en la AWS CloudFormation consola Consola de administración de AWS y utilizándola
El nombre del entorno es de su elección. Recomendamos utilizar un término significativo, por ejemplo Para este patrón, La plantilla implementa las EC2 instancias en subredes privadas. Esto significa que no se puede acceder directamente a las instancias a través de SSH (Secure Shell) desde Internet. Las instancias cuentan con la función de IAM y el AWS Systems Manager agente necesarios para permitir el acceso a las instancias en ejecución a través del administrador de sesiones, una capacidad de. AWS Systems Manager Se recomienda utilizar el Administrador de sesiones para el acceso. Como alternativa, puede aprovisionar un host bastión para permitir el acceso SSH desde Internet. Si se utiliza el enfoque de host bastión, es posible que la EC2 instancia tarde unos minutos más en empezar a ejecutarse. Una vez que la AWS CloudFormation plantilla se haya implementado correctamente, apunte el nombre DNS al nombre DNS de Application Load Balancer. Para confirmar, ejecute el siguiente comando:
El resultado debería ser similar al siguiente:
| DevOps ingeniero |
Registre los conectores de los participantes en el servicio del DAPS. | Desde cualquiera de las EC2 instancias aprovisionadas para DAPS, registre a los participantes:
La elección de los nombres no afecta a los próximos pasos. Se recomienda utilizar Los comandos de registro también configurarán automáticamente el servicio del DAPS con la información necesaria obtenida de los certificados y las claves que se crearon. Con la sesión iniciada en un servidor del DAPS, recopile la información necesaria para los pasos posteriores de la instalación:
Se recomienda copiar y pegar el texto en archivos con nombres similares y el prefijo Debe tener el cliente IDs para el proveedor y el consumidor y cuatro archivos en el directorio de trabajo de la estación de trabajo:
| DevOps ingeniero |
| Tarea | Descripción | Habilidades requeridas |
|---|---|---|
Clone el repositorio EDC Tractus-X y utilice la versión 0.4.1. | La compilación del conector EDC de Tractus-X requiere la implementación y disponibilidad de los servicios PostgreSQL (base de datos de activos) y HashiCorp Vault (administración de secretos). Existen muchas versiones diferentes de los gráficos de Helm de EDC Tractus-X. Este patrón especifica la versión 0.4.1 porque utiliza el servidor del DAPS. Las versiones más recientes utilizan Managed Identity Wallet (MIW) con una implementación distribuida del servicio de identidad. En la estación de trabajo en la que creó dos espacios de nombres de Kubernetes, clone el repositorio tractusx-edc
| DevOps ingeniero |
Configure el gráfico de Helm EDC Tractus-X. | Modifique la configuración de la plantilla del gráfico de Helm Tractus-X para permitir que ambos conectores interactúen entre sí. Para ello, debe agregar el espacio de nombres al nombre de DNS del servicio para que otros servicios del clúster puedan resolverlo. Estas modificaciones deben hacerse en el archivo Asegúrese de comentar todas las dependencias del DAPS en
| DevOps ingeniero |
Configure los conectores para usar PostgreSQL en Amazon RDS. | (Opcional) La instancia de Amazon Relational Database Service (Amazon RDS) no es necesaria en este patrón. Sin embargo, recomendamos encarecidamente utilizar Amazon RDS o Amazon Aurora, ya que ofrecen características como alta disponibilidad, copia de seguridad y recuperación. Para reemplazar PostgreSQL en Kubernetes por Amazon RDS, haga lo siguiente:
| DevOps ingeniero |
Configure e implemente el conector del proveedor y sus servicios. | Para configurar el conector del proveedor y sus servicios, haga lo siguiente:
| DevOps ingeniero |
Agregue el certificado y las claves al almacén del proveedor. | Para evitar confusiones, genere los siguientes certificados fuera del directorio Por ejemplo, ejecute el siguiente comando para cambiar al directorio de inicio:
Ahora tiene que agregar al almacén los secretos que necesita el proveedor. Los nombres de los secretos del almacén son los valores de las claves de la sección
Inicialmente, se generan una clave estándar de cifrado avanzado (AES), una clave privada, una clave pública y un certificado autofirmado. Posteriormente, se agregan como secretos al almacén. Además, este directorio debe contener los archivos
Ahora debería poder acceder al almacén a través del navegador o la CLI. Navegador
Vault CLI La CLI también utilizará el reenvío de puertos que configuró.
| DevOps ingeniero |
Configure e implemente el conector del consumidor y sus servicios. | Los pasos para configurar e implementar el consumidor son similares a los del proveedor:
| |
Agregue el certificado y las claves al almacén del consumidor. | Desde el punto de vista de la seguridad, recomendamos volver a generar los certificados y las claves de cada participante del espacio de datos. Este patrón vuelve a generar los certificados y las claves para el consumidor. Los pasos son muy similares a los del proveedor. Puede verificar los nombres de los secretos en el archivo Los nombres de los secretos del almacén son los valores de las claves de la sección
Los archivos
Esta vez, el puerto local es el 8201, por lo que puede disponer de reenvíos de puertos tanto para el productor como para el consumidor. Navegador Puede usar el navegador para conectarse a http://localhost:8201/ Los secretos y archivos que incluyen el contenido son los siguientes:
Vault CLI Con Vault CLI, puede ejecutar los siguientes comandos para iniciar sesión en el almacén y crear los secretos:
| DevOps ingeniero |
| Tarea | Descripción | Habilidades requeridas |
|---|---|---|
Configure el reenvío de puertos. |
El clúster es privado y no se puede acceder a él públicamente. Para interactuar con los conectores, utilice la característica de reenvío de puertos de Kubernetes para reenviar el tráfico generado por la máquina al plano de control del conector.
| DevOps ingeniero |
Cree buckets de S3 para el proveedor y el consumidor. | Actualmente, el conector EDC no utiliza credenciales de AWS temporales, como las que se proporcionan al asumir un rol. EDC solo admite el uso de una combinación de ID de clave de acceso de IAM y una clave de acceso secreta. Se necesitan dos buckets de S3 para los siguientes pasos. Se utiliza un bucket de S3 para almacenar los datos puestos a disposición por el proveedor. El otro bucket de S3 es para los datos que recibe el consumidor. El usuario de IAM debe tener permiso para leer y escribir objetos únicamente en los dos buckets con nombre. Es necesario crear y proteger un ID de clave de acceso y un par de clave de acceso secreta. Una vez que se haya retirado este MVDS, se debe eliminar el usuario de IAM. A continuación, se muestra una política de IAM de ejemplo para el usuario:
| DevOps ingeniero |
Configure Postman para interactuar con el conector. | Ahora puede interactuar con los conectores a través de su EC2 instancia. Utilice Postman como cliente HTTP y proporcione Postman Collections para los conectores del proveedor y del consumidor. Importe las colecciones Este patrón utilice variables de colección de Postman para proporcionar información a las solicitudes. | Desarrollador de aplicaciones, ingeniero de datos |
| Tarea | Descripción | Habilidades requeridas |
|---|---|---|
Prepare los datos sobre la intensidad de las emisiones de carbono para compartirlos. | En primer lugar, debe decidir el activo de datos que se compartirá. Los datos de la empresa X representan la huella de las emisiones de carbono de su flota de vehículos. El peso es el peso bruto del vehículo (GVW) en toneladas y las emisiones se expresan en gramos CO2 por tonelada-kilómetro (g CO2 e/t-km) según la medición (WTW): Wheel-to-Well
Los datos de ejemplo se encuentran en el archivo La empresa X utiliza Amazon S3 para almacenar objetos. Cree el bucket de S3 y almacene allí el objeto de los datos de ejemplo. Los siguientes comandos crean un bucket de S3 con la configuración de seguridad predeterminada. Recomendamos encarecidamente consultar Prácticas recomendadas de seguridad para Amazon S3.
El nombre del bucket de S3 debe ser único de forma global. Para obtener más información sobre las reglas de nomenclatura, consulte la documentación de AWS. | Desarrollador de aplicaciones, ingeniero de datos |
Registre el activo de datos en el conector del proveedor mediante Postman. | Un activo de datos de un conector EDC contiene el nombre de los datos y su ubicación. En este caso, el activo de datos del conector EDC apuntará al objeto creado en el bucket de S3:
| Desarrollador de aplicaciones, ingeniero de datos |
Defina la política de uso del activo. | Un activo de datos de EDC debe estar asociado a políticas de uso claras. En primer lugar, cree la definición de política en el conector del proveedor. La política de la empresa X es permitir que los participantes del espacio de datos utilicen los datos de la huella de emisiones de carbono.
| Desarrollador de aplicaciones, ingeniero de datos |
Defina una oferta de contrato de EDC para el activo y su política de uso. | Para permitir que otros participantes soliciten acceso a los datos, ofrézcalos en un contrato que especifique las condiciones de uso y los permisos:
| Desarrollador de aplicaciones, ingeniero de datos |
| Tarea | Descripción | Habilidades requeridas |
|---|---|---|
Solicite el catálogo de datos que comparte la empresa X. | Como consumidora de datos en el espacio de datos, la empresa Y debe detectar antes los datos que comparten otros participantes. En esta configuración básica, para hacerlo, puede pedir al conector del consumidor que solicite el catálogo de activos disponibles directamente al conector del proveedor.
| Desarrollador de aplicaciones, ingeniero de datos |
Inicie una negociación contractual para obtener los datos de intensidad de las emisiones de carbono de la empresa X. | Ahora que ha identificado el activo que quiere consumir, inicie un proceso de negociación del contrato entre el consumidor y el proveedor.
El proceso puede tardar algún tiempo antes de alcanzar el estado VERIFICADO. Puede comprobar el estado de la negociación del contrato y el ID del acuerdo correspondiente mediante la solicitud | Desarrollador de aplicaciones, ingeniero de datos |
| Tarea | Descripción | Habilidades requeridas |
|---|---|---|
Consuma datos de los puntos de conexión HTTP. | (Opción 1) Para utilizar el plano de datos HTTP para consumir datos del espacio de datos, puede utilizar webhook.site
En este último paso, debe enviar la solicitud al plano de datos del consumidor (reenviar los puertos correctamente), tal y como se indica en la carga útil ( | Desarrollador de aplicaciones, ingeniero de datos |
Consuma los datos de los buckets de S3 directamente. | (Opción 2) Utilice la integración de Amazon S3 con el conector EDC y apunte directamente al bucket de S3 de la infraestructura de consumo como destino:
| Desarrollador de aplicaciones, ingeniero de datos |
Resolución de problemas
| Problema | Solución |
|---|---|
El conector podría plantear un problema relacionado con el formato PEM del certificado. | Para concatenar el contenido de cada archivo en una sola línea, agregue |
Recursos relacionados
Building data spaces for sustainability use cases (Estrategia de Recomendaciones de AWS de Think-it
) Enabling data sharing through data spaces and AWS
(entrada en el blog)
Información adicional
Especificaciones del espacio de datos
Participantes
Participante | Descripción de la empresa | Enfoque de la empresa |
|---|---|---|
Empresa X | Opera una flota de vehículos en Europa y Sudamérica para transportar varias mercancías. | Su objetivo es tomar decisiones basadas en datos para reducir la intensidad de la huella de emisiones de carbono. |
Empresa Y | Autoridad reguladora ambiental | Hace cumplir las normas y políticas ambientales diseñadas para supervisar y mitigar el impacto ambiental de las empresas e industrias, lo que incluye la intensidad de las emisiones de carbono. |
Argumentos comerciales
La empresa X utiliza la tecnología del espacio de datos para compartir los datos sobre la huella de carbono con un auditor de cumplimiento, la empresa Y, a fin de evaluar y abordar el impacto ambiental de las operaciones logísticas de la empresa X.
Autoridad del espacio de datos
La autoridad del espacio de datos es un consorcio de las organizaciones que gobiernan el espacio de datos. En este patrón, tanto la empresa X como la empresa Y forman el órgano de gobernanza y representan una autoridad federada en materia de espacio de datos.
Componentes del espacio de datos
Componente | Implementación elegida | Información adicional |
|---|---|---|
Protocolo de intercambio del conjunto de datos | Protocolo del espacio de datos, versión 0.8 | |
Conector del espacio de datos | Conector EDC Tractus-X, versión 0.4.1 | |
Políticas de intercambio de datos | Política de uso predeterminada |
Servicios del espacio de datos
Servicio | Implementación | Información adicional |
|---|---|---|
Servicio de identidad | “El sistema de aprovisionamiento dinámico de atributos (DAPS) tiene la intención de determinar determinados atributos de las organizaciones y los conectores. Por lo tanto, los terceros no necesitan confiar en estos últimos siempre que confíen en las afirmaciones del DAPS”. —DAPS Para centrarse en la lógica del conector, el espacio de datos se despliega en una EC2 máquina de Amazon mediante Docker Compose. | |
Servicio de detección | “El Catálogo federado constituye un repositorio indexado de las autodescripciones de Gaia-X que permite detectar y seleccionar los proveedores y sus ofertas de servicios. Las autodescripciones son la información proporcionada por los participantes sobre sí mismos y sobre sus servicios en forma de propiedades y afirmaciones”. —Kickstarter del ecosistema Gaia-X |
Datos que se intercambiarán
Activos de datos | Description (Descripción) | Formato |
|---|---|---|
Datos de emisiones de carbono | Valores de intensidad para diferentes tipos de vehículos en la región especificada (Europa y Sudamérica) de toda la flota de vehículos | Archivo JSON |
Modelo de datos
{ "region": "string", "vehicles": [ // Each vehicle type has its Gross Vehicle Weight (GVW) category and its emission intensity in grams of CO2 per Tonne-Kilometer (g CO2 e/t-km) according to the "Well-to-Wheel" (WTW) measurement. { "type": "string", "gross_vehicle_weight": "string", "emission_intensity": { "CO2": "number", "unit": "string" } } ] }
Conector EDC Tractus-X
Para ver la documentación de cada parámetro del EDC Tractus-X, consulte el archivo de valores original
En la siguiente tabla se muestran todos los servicios, junto con sus correspondientes puntos de conexión y puertos expuestos como referencia.
Nombre del servicio | Puerto y ruta |
|---|---|
Plano de control | ● administración: puerto 8081, ruta ● control: puerto 8083, ruta ● protocolo: puerto 8084, ruta ● métricas: puerto 9090, ruta ● observabilidad: puerto 8085, ruta |
Plano de datos | predeterminado: puerto 8080, ruta público: puerto 8081, ruta proxy: puerto 8186, ruta métricas: puerto 9090, ruta observabilidad: puerto 8085, ruta |
Almacén | Puerto: 8200 |
PostgreSQL | Puerto: 5432 |
Uso AWS Secrets Manager del administrador
Es posible usar Secrets Manager en lugar de HashiCorp Vault como administrador de secretos. Para hacerlo, debe usar o compilar la extensión AWS Secrets Manager EDC.
Será responsable de crear y mantener su propia imagen, ya que Tractus-X no ofrece soporte para Secrets Manager.
Para ello, debes modificar los archivos de compilación de Gradle tanto del plano de control como del plano
Para obtener más información sobre cómo refactorizar la imagen de Docker del conector de Tractus-X, consulte Refactor Tractus-X EDC Helm charts
Por motivos de simplicidad, evitamos volver a crear la imagen del conector siguiendo este patrón y utilizamos Vault. HashiCorp