View a markdown version of this page

Solución de problemas en instalaciones de clústeres integrados de Wickr - Wickr Enterprise

Esta guía proporciona documentación para Wickr Enterprise. Si utiliza AWS Wickr, consulte la Guía de administración de AWS Wickr o la Guía del usuario de AWS Wickr.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Solución de problemas en instalaciones de clústeres integrados de Wickr

En todas las instancias de estos pasos de solución de problemas se supone que tienes acceso desde el shell a la instancia que ejecuta la instalación del clúster integrado de Wickr y que has ejecutado el ./wickr-enterprise-ha shell comando para poder interactuar directamente con la instalación de Kubernetes.

Problemas generales

Falta el botón Añadir nodo en la pantalla de administración del clúster

Instalaciones aisladas

Si estás en una instalación de airgap, ponte en contacto con el equipo de soporte de Wickr para que te ayude a corregir este comportamiento.

Instalaciones estándar

Si su licencia incluye la licencia Embedded Cluster Multi-Node, sincronice la licencia para obtener la versión más reciente. Si no estás seguro o no tienes este derecho, ponte en contacto con Wickr Support.

Para realizar una sincronización de licencias, sigue estos pasos.

  1. Navegue hasta el panel de control de KOTS.

  2. En la página del panel de control, localice la sección de licencias en el área superior derecha de la página.

  3. Dentro de esta sección, en la esquina superior derecha, debería ver un hipervínculo de sincronización de licencias. Seleccione el hipervínculo.

  4. Una vez sincronizada la licencia, la interfaz de usuario se actualiza y aparece Última sincronización hace unos segundos.

  5. Selecciona Reimplementar en la sección de versiones de la página del panel de control de KOTS.

  6. Una vez que finalice la reimplementación, vuelve a la administración de clústeres y podrás añadir nodos.

Problemas de actualización

La actualización se bloquea al actualizar el clúster

Si la actualización se bloquea al actualizar el clúster, es probable que algunos pods no se estén finalizando correctamente. Inicia sesión en la instancia y usa el ./wickr-enteprise-ha shell comando para ingresar al entorno de shell para administrar la instalación de Kubernetes.

  1. Identifica los pods que aún se están ejecutando:

    kubectl -n kotsadm get pods | grep Running

  2. kubectl -n kotsadm delete pod name-of-running-pod

    nota

    Si uno de los pods en ejecución es embedded-cluster-upgrade-XXXXXXXXXXXXXX-xxxxx kotsadm-xxxxxxx o similar, no lo elimines, ya que estos pods son necesarios para realizar la actualización.

  3. Comprueba que no queden pods en ejecución.

    kubectl -n kotsadm get pods | grep Running

Este procedimiento debería permitir que la actualización del clúster continúe con la actualización de Wickr.

La aplicación no se actualizó durante la actualización del clúster y no puede implementar una nueva versión

Si la aplicación permanece en la versión anterior después de la actualización, es posible que la nueva versión se encuentre en un estado incoherente.

Comprueba los registros de instalación de Kubernetes:

  1. Abre el shell de Kubernetes desde el instalador.

    ./wickr-enterprise-ha shell

  2. Ejecuta el siguiente comando kubectl:

    kubectl get installations

  3. El resultado tendrá un aspecto similar al siguiente:

    [root@ip-172-31-6-72 ~]# kubectl get installations NAME STATE INSTALLERVERSION CREATEDAT AGE 20251113170603 Obsolete 2.1.3+k8s-1.30 2025-11-13T17:06:05Z 22h 20251113180133 Failed 2.6.0+k8s-1.31 2025-11-13T18:01:37Z 21h
  4. Elimine la instalación fallida.

    kubectl delete installation 20251113180133

  5. Intente ejecutar la actualización nuevamente a través del panel de administración de KOTS.

El pod RabbitMQ está fallando con las líneas de registro Error while waiting for Mnesia tables: {timeout_waiting_for_tables}

El secreto y el almacenamiento de RabbitMQ no están sincronizados. Esto suele ocurrir cuando se ejecutan varias instancias de RabbitMQ y se produce un error de quórum o de selección de líderes. Para solucionar este problema, elimine el servicio RabbitMQ y sus volúmenes de almacenamiento y, a continuación, vuelva a implementarlo.

Para eliminar el RabbitMQ defectuoso, complete los siguientes pasos.

  1. Elimine el conjunto de estados de RabbitMQ.

    kubectl -n kotsadm delete statefulset rabbitmq —cascade=orphan

  2. Elimine los pods de RabbitMQ restantes. Si hay varios pods de RabbitMQ-x en ejecución, ejecute este comando varias veces actualizando el valor de RabbitMQ-x para que se corresponda con los nombres de los módulos adicionales.

    kubectl -n kotsadm delete pod rabbitmq-0

  3. PVCsElimine el correspondiente. Si hay varios pods en ejecución, ejecute este comando varias veces actualizándolos data-RabbitMQ-X para que se correspondan con los pods correspondientes.

    kubectl -n kotsadm delete pvc data-rabbitmq-0

  4. Comprueba si hay algún pod restante; si se ejecuta correctamente, no se generará ningún resultado.

    kubectl -n kotsadm get pods|grep -i rabbitmq

  5. Comprueba si queda alguno PVCs, esto no debería generar nada si tiene éxito.

    kubectl -n kotsadm get pvc|grep -i rabbitmq

  6. Vuelva a implementar a través del panel de administración de KOTS.

Para obtener más información sobre la solución de problemas, consulte Solución de problemas.