

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Detectar fala tóxica
<a name="toxicity"></a>

 A detecção de fala tóxica foi projetada para ajudar a moderar plataformas de rede social que envolvem diálogo entre pares, como jogos on-line e plataformas de bate-papo social. O uso de fala tóxica pode ser profundamente prejudicial para indivíduos, grupos de pares e comunidades. A sinalização de linguagem prejudicial ajuda as organizações a manter as conversas em um tom civilizado e a manter um ambiente on-line seguro e inclusivo para que os usuários criem, compartilhem e participem livremente. 

 A Detecção de Toxicidade do Amazon Transcribe aproveita as pistas baseadas em áudio e texto para identificar e classificar o conteúdo tóxico com base em voz em sete categorias, como assédio sexual, discurso de ódio, ameaça, abuso, profanação, insulto e gráfico. Além do texto, a Detecção de Toxicidade do Amazon Transcribe usa dicas de fala, como tons e inclinação, para identificar a intenção tóxica na fala. Essa é uma melhoria em relação aos sistemas padrão de moderação de conteúdo, projetados para se concentrar apenas em termos específicos, sem levar em conta a intenção. 

 O Amazon Transcribe sinaliza e categoriza fala tóxica, o que minimiza o volume de dados que devem ser processados manualmente. Isso permite que os moderadores de conteúdo gerenciem com rapidez e eficiência o discurso em suas plataformas. 

As categorias de fala tóxica incluem:
+ **Profanação**: discurso que contém palavras, frases ou acrônimos que são indelicados, vulgares ou ofensivos.
+ **Discurso de ódio**: discurso que critica, insulta, denuncia ou desumaniza uma pessoa ou grupo com base em uma identidade (como raça, etnia, gênero, religião, orientação sexual, capacidade e origem nacional).
+ **Sexual**: discurso que indica interesse, atividade ou excitação sexual usando referências diretas ou indiretas a partes do corpo, características físicas ou sexo.
+ **Insultos**: discurso que inclui linguagem degradante, humilhante, zombeteira, insultante ou depreciativa. Esse tipo de linguagem também é chamado de bullying.
+ **Violência ou ameaça**: discurso que inclui ameaças com o objetivo de infligir dor, lesão ou hostilidade a uma pessoa ou grupo.
+ **Gráfico**: discurso que usa imagens visualmente descritivas e desagradavelmente vívidas. Em geral, esse tipo de linguagem é intencionalmente prolixo para ampliar o desconforto do destinatário.
+ **Assédio ou abuso**: discurso destinado a afetar o bem-estar psicológico do destinatário, incluindo termos humilhantes e objetificantes. Esse tipo de linguagem também é chamado de assédio.

 A detecção de toxicidade analisa segmentos da fala (a fala entre pausas naturais) e atribui pontuações de confiança a esses segmentos. Os escores de confiança são valores entre 0 e 1. Uma pontuação de confiança maior indica uma probabilidade maior de que o conteúdo seja um discurso tóxico na categoria associada. Você pode usar essas pontuações de confiança para definir o limite apropriado de detecção de toxicidade para seu caso de uso. 

**nota**  
 A detecção de toxicidade só está disponível para transcrições em lote em inglês dos EUA `(en-US)`. 

 Veja um [exemplo de saída](toxicity-using.md#toxicity-using-output.title) no formato JSON. 