このガイドでは、Wickr Enterprise のドキュメントを提供します。AWS Wickr を使用している場合は、「AWS Wickr 管理ガイド」または「AWS Wickr ユーザーガイド」を参照してください。
翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Wickr 埋め込みクラスターのインストールのトラブルシューティング
これらのトラブルシューティングステップのすべてのインスタンスは、Wickr Embedded Cluster のインストールを実行しているインスタンスへのシェルアクセスがあり、Kubernetes のインストールを直接操作できるように ./wickr-enterprise-ha shell コマンドを実行していることを前提としています。
一般的な問題
クラスター管理画面から欠落しているノードボタンを追加する
Airgapped のインストール
エアギャップインストールを使用している場合は、この動作の修正について Wickr サポートにお問い合わせください。
標準インストール
ライセンスに埋め込みクラスターマルチノードの使用権限が含まれている場合は、ライセンス同期を実行して最新バージョンを取得します。この使用権限が不明な場合、または使用権限がない場合は、Wickr サポートにお問い合わせください。
ライセンス同期を実行するには、次の手順を実行します。
-
KOTS コントロールパネルに移動します。
-
ダッシュボードページで、ページの右上にあるライセンスセクションを見つけます。
-
このセクションでは、右上隅に Sync License ハイパーリンクが表示されます。ハイパーリンクを選択します。
-
ライセンスが同期されると、UI 更新と数秒前の最終同期が表示されます。
-
KOTS ダッシュボードページのバージョンセクションから再デプロイを選択します。
-
再デプロイが完了したら、クラスター管理に戻り、ノードを追加できます。
アップグレードの問題
クラスターのアップグレード時にアップグレードがスタックする
アップグレードがクラスターのアップグレードで停止した場合、一部のポッドが適切に終了されていない可能性があります。インスタンスにログオンし、 ./wickr-enteprise-ha shell コマンドを使用して kubernetes のインストールを管理するシェル環境に入ります。
-
まだ実行中のポッドを識別します。
kubectl -n kotsadm get pods | grep Running -
kubectl -n kotsadm delete podname-of-running-pod注記
実行中のポッドの 1 つが
embedded-cluster-upgrade-XXXXXXXXXXXXXX-xxxxxkotsadm-xxxxxxxまたは である場合は、アップグレードの実行にこれらのポッドが必要なため、削除しないでください。 -
実行中のポッドが残っていないことを確認します。
kubectl -n kotsadm get pods | grep Running
この手順では、クラスターのアップグレードを Wickr アップグレードで続行できます。
クラスターのアップグレード中にアプリケーションが更新されず、新しいバージョンをデプロイできない
アップグレード後もアプリケーションが古いバージョンのままである場合、新しいバージョンは一貫性のない状態になる可能性があります。
Kubernetes のインストールレコードを確認します。
-
インストーラから Kubernetes シェルを開きます。
./wickr-enterprise-ha shell -
次の kubectl コマンドを実行します。
kubectl get installations -
出力は次のようになります。
[root@ip-172-31-6-72 ~]# kubectl get installations NAME STATE INSTALLERVERSION CREATEDAT AGE 20251113170603 Obsolete 2.1.3+k8s-1.30 2025-11-13T17:06:05Z 22h 20251113180133 Failed 2.6.0+k8s-1.31 2025-11-13T18:01:37Z 21h -
失敗したインストールを削除します。
kubectl delete installation 20251113180133 -
KOTS 管理パネルを使用してアップグレードを再度実行しようとします。
RabbitMQ Pod がログ行で失敗する Error while waiting for Mnesia tables: {timeout_waiting_for_tables}
RabbitMQ シークレットとストレージが同期されていません。これは通常、複数の RabbitMQ インスタンスが実行され、リーダーの選択またはクォーラムエラーが発生した場合に発生します。これを修正するには、RabbitMQ サービスとそのストレージボリュームを削除してから再デプロイします。
失敗した RabbitMQ を削除するには、次の手順を実行します。
-
RabbitMQ ステートフルセットを削除します。
kubectl -n kotsadm delete statefulset rabbitmq —cascade=orphan -
残りの RabbitMQ ポッドを削除します。複数の RabbitMQ-X ポッドが実行されている場合は、このコマンドを複数回発行して、追加のポッド名に対応するように RabbitMQ-X 値を更新します。
kubectl -n kotsadm delete pod rabbitmq-0 -
対応する PVCs を削除します。実行中のポッドが複数ある場合は、適切なポッドに対応するように data-RabbitMQ-X を複数回更新して、このコマンドを発行します。
kubectl -n kotsadm delete pvc data-rabbitmq-0 -
ポッドが残っているかどうかを確認します。成功すると何も出力されません。
kubectl -n kotsadm get pods|grep -i rabbitmq -
残りの PVCs があるかどうかを確認します。成功すると何も出力されません。
kubectl -n kotsadm get pvc|grep -i rabbitmq -
KOTS 管理パネルを使用して再デプロイします。
トラブルシューティングの詳細については、「トラブルシューティング」を参照してください。