Perguntas frequentes sobre o Amazon MWAA
Esta página descreve perguntas comuns que você pode encontrar ao usar o Amazon Managed Workflows for Apache Airflow.
Sumário
Quanto armazenamento de tarefas está disponível para cada ambiente?
Qual é o sistema operacional padrão usado para ambientes Amazon MWAA?
Posso usar uma imagem personalizada para meu ambiente Amazon MWAA?
Por que uma regra de autorreferência é necessária no grupo de segurança da VPC?
Posso armazenar dados temporários no operador do Apache Airflow?
O Amazon MWAA é compatível ao Amazon VPCs compartilhadas ou sub-redes compartilhadas?
DAGs, operadores, conexões e outras perguntas
Quanto tempo o Amazon MWAA leva para reconhecer um novo arquivo DAG?
Posso remover plugins.zip ou requirements.txt de um ambiente?
Por que meus plug-ins não aparecem no menu Plugins de administração do Apache Airflow v2.0.2?
Posso usar operadores de Database Migration Service (DMS) na AWS?
Onde o servidor da API de execução de tarefas do Airflow é executado no Amazon MWAA?
Versões compatíveis
O que o Amazon MWAA oferece suporte para o Apache Airflow v2?
Para saber o que o Amazon MWAA aceita, consulte Versões do Apache Airflow no Amazon Managed Workflows for Apache Airflow..
Qual versão do Python devo usar?
As seguintes versões do Apache Airflow são compatíveis no Amazon Managed Workflows for Apache Airflow.
nota
-
A partir de 30 de dezembro de 2025, o Amazon MWAA encerrará o suporte para as versões v2.4.3, v2.5.1 e v2.6.3 do Apache Airflow. Para obter mais informações, consulte Suporte à versão do Apache Airflow e perguntas frequentes.
-
A partir do Apache Airflow v2.2.2, o Amazon MWAA oferece suporte à instalação de requisitos de Python, pacotes de provedores e plug-ins personalizados diretamente no servidor Web do Apache Airflow.
-
A partir do Apache Airflow v2.7.2, seu arquivo de requisitos deve incluir uma declaração
--constraint. Se você não fornecer uma restrição, o Amazon MWAA especificará uma para garantir que os pacotes listados em seus requisitos sejam compatíveis com a versão do Apache Airflow que você estiver usando.Para obter mais informações sobre como configurar restrições em seu arquivo de requisitos, consulte Instalar dependências do Python.
| Versão do Apache Airflow | Data de lançamento do Apache Airflow | Data de disponibilidade do Amazon MWAA | Restrições do Apache Airflow | Versão do Python |
|---|---|---|---|---|
|
1.º de outubro de 2025 |
||||
|
18 de dezembro de 2024 |
||||
|
26 de setembro de 2024 |
||||
|
9 de julho de 2024 |
||||
|
23 de fevereiro de 2024 |
||||
|
6 de novembro de 2023 |
Para obter mais informações sobre como migrar suas implantações autogerenciadas do Apache Airflow ou migrar um ambiente Amazon MWAA existente, incluindo instruções para fazer backup do seu banco de dados de metadados, consulte o Guia de migração do Amazon MWAA.
Casos de uso
Posso usar o Amazon MWAA com o Estúdio Unificado Amazon SageMaker?
Sim. Com um fluxo de trabalho do Estúdio Unificado Amazon SageMaker, é possível configurar e executar uma série de tarefas no Estúdio Unificado Amazon SageMaker. Os fluxos de trabalho do Estúdio Unificado Amazon SageMaker usam o Apache Airflow para modelar procedimentos de processamento de dados e orquestrar seus artefatos de código do Estúdio Unificado Amazon SageMaker. Para obter mais informações, consulte a seção Fluxos de trabalho. Para saber mais sobre o Amazon SageMaker, consulte O que é o Amazon SageMaker?
Quando posso usar AWS Step Functions ou Amazon MWAA?
-
É possível usar o Step Functions para processar pedidos individuais de clientes, já que o Step Functions pode ser escalado para atender à demanda de um ou de um milhão de pedidos.
-
Se você estiver executando um fluxo de trabalho noturno que processa os pedidos do dia anterior, poderá usar o Step Functions ou o Amazon MWAA. O Amazon MWAA oferece a opção de código aberto para abstrair o fluxo de trabalho dos recursos da AWS que você estiver usando.
Especificações do ambiente
Quanto armazenamento de tarefas está disponível para cada ambiente?
O armazenamento de tarefas é limitado a 20 GB e especificado pelo Amazon ECS Fargate 1.4. A quantidade de RAM é determinada pela classe de ambiente especificada. Para obter mais informações sobre classes do ambiente, consulte Como configurar a classe de ambiente do Amazon MWAA.
Qual é o sistema operacional padrão usado para ambientes Amazon MWAA?
Os ambientes do Amazon MWAA são criados em instâncias que executam o Amazon Linux 2 para as versões 2.6 e anteriores e em instâncias que executam o Amazon Linux 2023 para as versões 2.7 e mais recentes.
Posso usar uma imagem personalizada para meu ambiente Amazon MWAA?
Imagens personalizadas não são compatíveis. O Amazon MWAA usa imagens criadas no Amazon Linux AMI. O Amazon MWAA instala os requisitos adicionais executando pip3 -r install para os requisitos especificados no arquivo requirements.txt que você adiciona ao bucket do Amazon S3 para o ambiente.
O Amazon MWAA está em conformidade com a HIPAA?
Amazon MWAA é elegível para a Lei de Portabilidade e Responsabilidade de Provedores de Saúde (HIPAA)
O Amazon MWAA é compatível com instâncias spot?
Atualmente, o Amazon MWAA não é compatível com os tipos de instância spot sob demanda do Amazon EC2 para o Apache Airflow. No entanto, um ambiente Amazon MWAA pode acionar instâncias spot, por exemplo, no Amazon EMR e no Amazon EC2.
O Amazon MWAA é compatível com um domínio personalizado?
Para poder usar um domínio personalizado para seu nome de host do Amazon MWAA, faça uma das seguintes opções:
-
Para implantações do Amazon MWAA com acesso ao servidor web público, você pode usar o Amazon CloudFront com Lambda@Edge para direcionar o tráfego para o seu ambiente e mapear um nome de domínio personalizado para o CloudFront. Para obter mais informações e um exemplo de configuração de um domínio personalizado para um ambiente público, consulte o exemplo de domínio personalizado do Amazon MWAA para servidor Web público
no repositório de exemplos GitHub do Amazon MWAA. -
Para implantações do Amazon MWAA com acesso ao servidor Web privado, consulte Configuração de um domínio personalizado para o servidor Web do Apache Airflow.
Posso usar SSH no meu ambiente?
Embora o SSH não seja compatível em um ambiente Amazon MWAA, é possível usar um DAG para executar comandos bash usando o BashOperator. Por exemplo:
from airflow import DAG from airflow.operators.bash_operator import BashOperator from airflow.utils.dates import days_ago with DAG(dag_id="any_bash_command_dag", schedule_interval=None, catchup=False, start_date=days_ago(1)) as dag: cli_command = BashOperator( task_id="bash_command", bash_command="{{ dag_run.conf['command'] }}" )
Para acionar o DAG na IU do Apache Airflow, use:
{ "command" : "your bash command"}
Por que uma regra de autorreferência é necessária no grupo de segurança da VPC?
Ao criar uma regra de autorreferência, você está restringindo a origem ao mesmo grupo de segurança na VPC e fechá-la para todas as redes. Consulte Segurança em sua VPC no Amazon MWAA para saber mais.
Posso ocultar ambientes de grupos diferentes no IAM?
É possível limitar o acesso especificando um nome de ambiente em AWS Identity and Access Management, no entanto, a filtragem de visibilidade não está disponível no console da AWS. Se um usuário puder acessar um ambiente, ele poderá acessar todos os ambientes.
Posso armazenar dados temporários no operador do Apache Airflow?
Seus operadores do Apache Airflow podem armazenar dados temporários nos operadores. Os operadores do Apache Airflow podem acessar arquivos temporários no /tmp nos contêineres Fargate do seu ambiente.
nota
O armazenamento total de tarefas é limitado a 20 GB, de acordo com o Amazon ECS Fargate 1.4. Não há garantia de que as tarefas subsequentes serão executadas na mesma instância de contêiner Fargate, que pode usar uma pasta /tmp diferente.
Posso especificar mais de 25 operadores do Apache Airflow?
Sim. Embora você possa especificar até 25 operadores do Apache Airflow no console do Amazon MWAA, você pode configurar até 50 em um ambiente solicitando um aumento de cota. Consulte Como solicitar um aumento de cota para obter mais informações.
O Amazon MWAA é compatível ao Amazon VPCs compartilhadas ou sub-redes compartilhadas?
O Amazon MWAA não é compatível ao Amazon VPCs compartilhadas ou sub-redes compartilhadas. A Amazon VPC que você seleciona ao criar um ambiente deve pertencer à conta que está tentando criar o ambiente. No entanto, é possível pode rotear o tráfego de um Amazon VPC na conta do Amazon MWAA para uma VPC compartilhada. Para obter mais informações e ver um exemplo de roteamento de tráfego para um Amazon VPC compartilhado, consulte Roteamento de saída centralizado para a internet no Guia de gateways de trânsito da Amazon VPC.
Posso criar ou integrar filas personalizadas do Amazon SQS para gerenciar a execução de tarefas e a orquestração do fluxo de trabalho no Apache Airflow?
Não, você não pode criar, modificar ou usar filas personalizadas do Amazon SQS dentro do Amazon MWAA. Isso ocorre porque o Amazon MWAA provisiona e gerencia automaticamente sua própria fila do Amazon SQS para cada ambiente do Amazon MWAA.
Métricas
Quais métricas são usadas para determinar se os operadores devem ser escalados?
O Amazon MWAA monitora as QueuedTasks e as RunningTasks no CloudWatch para determinar se você deve escalar os operadores do Apache Airflow em seu ambiente. Consulte Monitoramento e métricas para o Amazon Managed Workflows for Apache Airflow para saber mais.
Como criar métricas personalizadas do CloudWatch?
Não no console do CloudWatch. No entanto, você pode criar um DAG que grava métricas personalizadas no CloudWatch. Para obter mais informações, consulte Como usar um DAG para gravar métricas personalizadas no CloudWatch.
DAGs, operadores, conexões e outras perguntas
Posso usar PythonVirtualenvOperator?
O PythonVirtualenvOperator não é explicitamente compatível com o Amazon MWAA, mas você pode criar um plug-in personalizado que use PythonVirtualenvOperator. Para ver um exemplo de código, consulte Como criar um plug-in personalizado para PythonVirtualEnvOperator do Apache Airflow.
Quanto tempo o Amazon MWAA leva para reconhecer um novo arquivo DAG?
Os DAGs são sincronizados periodicamente do bucket do Amazon S3 para seu ambiente. Se você adicionar um novo arquivo DAG, levará cerca de 300 segundos para que o Amazon MWAA comece a usar o novo arquivo. Se você atualizar um DAG existente, o Amazon MWAA levará cerca de 30 segundos para reconhecer suas atualizações.
Esses valores de 300 segundos para novos DAGs e 30 segundos para atualizações para DAGs existentes correspondem às opções de configuração do Apache Airflow dag_dir_list_intervalmin_file_process_interval
Por que meu arquivo DAG não é captado pelo Apache Airflow?
Algumas possíveis soluções são:
-
Verifique se seu perfil de execução tem permissões suficientes para seu bucket do Amazon S3. Consulte Perfil de execução do Amazon MWAA para saber mais.
-
Verifique se o bucket do Amazon S3 tem o acesso público bloqueado configurado e o versionamento habilitado. Consulte Criar um bucket do Amazon S3 para o Amazon MWAA para saber mais.
-
Verifique o arquivo DAG em si. Por exemplo, certifique-se de que cada DAG tenha uma ID de DAG exclusiva.
Posso remover plugins.zip ou requirements.txt de um ambiente?
Atualmente, não há como remover um plugins.zip ou requirements.txt de um ambiente depois de adicionados, mas estamos trabalhando para resolver o problema. Nesse ínterim, uma solução alternativa é apontar para um texto vazio ou arquivo zip, respectivamente. Consulte Como excluir arquivos do Amazon S3 para saber mais.
Por que meus plug-ins não aparecem no menu Plugins de administração do Apache Airflow v2.0.2?
Por motivos de segurança, o servidor Web do Apache Airflow no Amazon MWAA tem saída de rede limitada e não instala plug-ins nem dependências do Python diretamente no servidor Web do Apache Airflow para ambientes da versão 2.0.2. O plug-in exibido permite que o Amazon MWAA autentique seus usuários do Apache Airflow no AWS Identity and Access Management (IAM).
Para conseguir instalar plug-ins e dependências do Python diretamente no servidor Web, recomendamos criar um novo ambiente com o Apache Airflow v2.2 e versões posteriores. O Amazon MWAA instala dependências e plug-ins personalizados do Python diretamente no servidor Web para o Apache Airflow v2.2 e versões posteriores.
Posso usar operadores de Database Migration Service (DMS) na AWS?
O Amazon MWAA é compatível a operadores de DMS
Quando acesso a API REST do Airflow usando as credenciais da AWS, posso aumentar o limite de controle de utilização para mais de 10 transações por segundo (TPS)?
Sim. Para aumentar o limite de controle de utilização, entre em contato com o atendimento ao cliente da AWS
Onde o servidor da API de execução de tarefas do Airflow é executado no Amazon MWAA?
O Amazon MWAA executa o servidor da API de execução de tarefas do Airflow no componente Webserver. As APIs de execução de tarefas estão disponíveis somente no Apache Airflow v3 e versões posteriores. Para obter mais informações sobre a arquitetura do Amazon MWAA, consulte Arquitetura.