

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Adicionar um modelo
<a name="jumpstart-content-sharing-add-model"></a>

Para adicionar um modelo, escolha **Compartilhado pela minha organização** e em seguida selecione **Adicionar modelo** na lista suspensa **Adicionar**. Insira as informações básicas do seu modelo e adicione qualquer informação de treinamento ou inferência que você queira compartilhar com os colaboradores para treinar ou implantar seu modelo. Depois de inserir todas as informações necessárias, escolha **Adicionar modelo** no canto inferior direito da tela.

**Topics**
+ [Adicione informações básicas](jumpstart-content-sharing-info.md)
+ [Habilitar treinamento](jumpstart-content-sharing-training.md)
+ [Habilitar a implantação](jumpstart-content-sharing-deployment.md)
+ [Adicionar um caderno](jumpstart-content-sharing-notebooks.md)

# Adicione informações básicas
<a name="jumpstart-content-sharing-info"></a>

Adicionar um modelo JumpStart envolve fornecer algumas informações básicas sobre o modelo que você deseja treinar. Essas informações ajudam a definir as características e os recursos do seu modelo, além de melhorar sua capacidade de descoberta e pesquisa. Para criar um novo modelo, siga estas etapas:

1. Adicione um título para esse modelo. Adicionar um título preenche automaticamente um identificador exclusivo no campo ID com base no título do modelo.

1. Adicione uma descrição do modelo.

1. Selecione um tipo de dados entre as opções: *texto*, *visão*, *tabular* ou *áudio*.

1. Selecione uma tarefa de machine learning na lista de tarefas disponíveis, como *classificação de imagens* ou *geração de texto*.

1. Selecione uma estrutura de machine learning.

1. Adicione informações de metadados com palavras-chave ou frases para usar ao pesquisar um modelo. Use vírgulas para separar as palavras-chave. Todos os espaços são automaticamente substituídos por vírgulas.

# Habilitar treinamento
<a name="jumpstart-content-sharing-training"></a>

Quando adicionar um modelo para compartilhar, você pode, opcionalmente, fornecer um ambiente de treinamento e permitir que os colaboradores da sua organização treinem o modelo compartilhado. 

**nota**  
Se você estiver adicionando um modelo tabular, também precisará especificar um formato de coluna e uma coluna de destino para permitir o treinamento.

Após o fornecimento das informações básicas sobre seu modelo, você precisará definir as configurações do trabalho de treinamento que será usado para treinar seu modelo. Isso inclui especificar o ambiente do contêiner, scripts de código, conjuntos de dados, locais de saída e vários outros parâmetros para controlar como é executado o trabalho de treinamento. Para definir as configurações do trabalho de treinamento, siga estas etapas:

1. Adicione um contêiner para usar no treinamento de modelos. Você pode selecionar um contêiner usado para um trabalho de treinamento existente, trazer seu próprio contêiner no Amazon ECR ou usar um contêiner do Amazon SageMaker Deep Learning.

1. Adicionar variáveis de ambiente

1. Forneça um local para o script de treinamento.

1. Forneça um ponto de entrada no modo script.

1. Forneça um URI do Amazon S3 para artefatos de modelo gerados durante o treinamento.

1. Forneça o URI do Amazon S3 para o conjunto de dados de treinamento padrão.

1. Forneça um caminho de saída do modelo. O caminho de saída do modelo deve ser o caminho URI do Amazon S3 para qualquer artefato de modelo gerado a partir do treinamento. SageMaker A IA salva os artefatos do modelo como um único arquivo TAR compactado no Amazon S3.

1. Forneça um conjunto de dados de validação para usar na avaliação do seu modelo durante o treinamento. Os conjuntos de dados de validação devem conter o mesmo número de colunas e os mesmos cabeçalhos de atributos do conjunto de dados de treinamento.

1. Ative o isolamento da rede. O isolamento de rede isola o contêiner do modelo para que nenhuma chamada de rede de entrada ou saída possa ser feita de ou para o contêiner do modelo.

1. Forneça canais de treinamento por meio dos quais a SageMaker IA possa acessar seus dados. Por exemplo, você pode especificar canais de entrada chamados `train` ou `test`. Para cada canal, especifique um nome de canal e um URI para a localização dos seus dados. Escolha **Navegar** para pesquisar locais do Amazon S3.

1. Forneça hiperparâmetros. Adicione todos os hiperparâmetros que os colaboradores devem experimentar durante o treinamento. Forneça uma faixa de valores válidos para esses hiperparâmetros. Esse intervalo é usado para a validação de hiperparâmetros do trabalho de treinamento. Você pode definir intervalos com base no tipo de dados do hiperparâmetro.

1. Selecione um tipo de instância. Recomendamos o uso de uma instância de GPU com mais memória para treinamento com grandes tamanhos de lote. Para obter uma lista abrangente de instâncias de SageMaker treinamento em todas AWS as regiões, consulte a tabela de **preços sob demanda** no [Amazon SageMaker Pricing](https://aws.amazon.com/sagemaker/pricing/).

1. Forneça métricas. Defina métricas para um trabalho de treinamento especificando um nome e uma expressão regular para cada métrica que o seu treinamento monitora. Crie as expressões regulares para capturar os valores das métricas emitidas por seu algoritmo. Por exemplo, a métrica `loss` pode ter a expressão regular `"Loss =(.*?);"`.

# Habilitar a implantação
<a name="jumpstart-content-sharing-deployment"></a>

Quando adicionar um modelo para compartilhar, você pode, opcionalmente, fornecer um ambiente de inferência no qual os colaboradores da sua organização podem implantar o modelo para inferência.

Depois de treinar seu modelo de aprendizado de máquina, você precisará implantá-lo em um endpoint de SageMaker IA da Amazon para inferência. Isso inclui fornecer um ambiente de contêiner, um script de inferência, os artefatos do modelo gerados durante o treinamento e a escolha de um tipo adequado de instância de computação. Definir essas configurações adequadamente é indispensável para garantir que seu modelo implantado possa fazer predições precisas e lidar com solicitações de inferência de forma eficiente. Para configurar seu modelo para inferência, siga estas etapas:

1. Adicione um contêiner a usar para inferência. Você pode trazer seu próprio contêiner no Amazon ECR ou usar um contêiner do Amazon SageMaker Deep Learning.

1. Forneça o URI do Amazon S3 para um script de inferência. Os scripts de inferência personalizados são executados dentro do contêiner escolhido. Seu script de inferência deve incluir uma função para carregamento do modelo e, opcionalmente, funções de geração de predições e processamento de entrada e saída. Para obter mais informações sobre a criação de scripts de inferência para a estrutura de sua escolha, consulte [Frameworks](https://sagemaker.readthedocs.io/en/stable/frameworks/index.html) na documentação do SDK para SageMaker Python. Por exemplo, para TensorFlow, consulte [Como implementar o (s) manipulador (es) de and/or pré-pós-processamento](https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/deploying_tensorflow_serving.html#how-to-implement-the-pre-and-or-post-processing-handler-s).

1. Forneça um URI do Amazon S3 para artefatos de modelos. Os artefatos do modelo são a saída resultante do treinamento de um modelo e geralmente consistem em parâmetros treinados, uma definição de modelo que descreve como calcular inferências e outros metadados. Se você treinou seu modelo em SageMaker IA, os artefatos do modelo são salvos como um único arquivo TAR compactado no Amazon S3. Se você treinou seu modelo fora da SageMaker IA, precisará criar esse único arquivo TAR compactado e salvá-lo em um local do Amazon S3.

1. Selecione um tipo de instância. Recomendamos o uso de uma instância de GPU com mais memória para treinamento com grandes tamanhos de lote. Para obter uma lista abrangente de instâncias de SageMaker treinamento em todas AWS as regiões, consulte a tabela de **preços sob demanda** no [Amazon SageMaker Pricing](https://aws.amazon.com/sagemaker/pricing/).

# Adicionar um caderno
<a name="jumpstart-content-sharing-notebooks"></a>

Para adicionar um caderno, escolha **Compartilhado pela minha organização** e em seguida selecione **Adicionar caderno**, na lista suspensa **Adicionar**. Insira as informações básicas do seu caderno e forneça um URI do Amazon S3 para a localização desse caderno. 

Primeiro, adicione as informações descritivas básicas sobre o seu caderno. Essas informações são usadas para melhorar a capacidade de pesquisa do seu caderno.

1. Adicione um título para este caderno. Adicionar um título preenche automaticamente um identificador exclusivo no campo ID com base no título do caderno.

1. Adicione uma descrição caderno.

1. Selecione um tipo de dados entre as opções: *texto*, *visão*, *tabular* ou *áudio*.

1. Selecione uma tarefa de machine learning na lista de tarefas disponíveis, como *classificação de imagens* ou *geração de texto*.

1. Selecione uma estrutura de ML.

1. Adicione informações de metadados com palavras-chave ou frases para usar ao pesquisar um caderno. Use vírgulas para separar as palavras-chave. Todos os espaços são automaticamente substituídos por vírgulas.

Após especificar as informações básicas, você pode fornecer um URI do Amazon S3 para a localização do caderno. Você pode escolher **Navegar** para pesquisar em seus buckets do Amazon S3 a localização do arquivo do seu caderno. Depois de encontrar seu caderno, copie o URI do Amazon S3, escolha **Cancelar** e, em seguida, adicione o URI do Amazon S3 ao campo **Localização do caderno**. 

Depois de inserir todas as informações necessárias, escolha **Adicionar caderno** no canto inferior direito. 