As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Detectar fala tóxica
A detecção de fala tóxica foi projetada para ajudar a moderar plataformas de rede social que envolvem diálogo entre pares, como jogos on-line e plataformas de bate-papo social. O uso de fala tóxica pode ser profundamente prejudicial para indivíduos, grupos de pares e comunidades. A sinalização de linguagem prejudicial ajuda as organizações a manter as conversas em um tom civilizado e a manter um ambiente on-line seguro e inclusivo para que os usuários criem, compartilhem e participem livremente.
A Detecção de Toxicidade do Amazon Transcribe aproveita as pistas baseadas em áudio e texto para identificar e classificar o conteúdo tóxico com base em voz em sete categorias, como assédio sexual, discurso de ódio, ameaça, abuso, profanação, insulto e gráfico. Além do texto, a Detecção de Toxicidade do Amazon Transcribe usa dicas de fala, como tons e inclinação, para identificar a intenção tóxica na fala. Essa é uma melhoria em relação aos sistemas padrão de moderação de conteúdo, projetados para se concentrar apenas em termos específicos, sem levar em conta a intenção.
O Amazon Transcribe sinaliza e categoriza fala tóxica, o que minimiza o volume de dados que devem ser processados manualmente. Isso permite que os moderadores de conteúdo gerenciem com rapidez e eficiência o discurso em suas plataformas.
As categorias de fala tóxica incluem:
-
Profanação: discurso que contém palavras, frases ou acrônimos que são indelicados, vulgares ou ofensivos.
-
Discurso de ódio: discurso que critica, insulta, denuncia ou desumaniza uma pessoa ou grupo com base em uma identidade (como raça, etnia, gênero, religião, orientação sexual, capacidade e origem nacional).
-
Sexual: discurso que indica interesse, atividade ou excitação sexual usando referências diretas ou indiretas a partes do corpo, características físicas ou sexo.
-
Insultos: discurso que inclui linguagem degradante, humilhante, zombeteira, insultante ou depreciativa. Esse tipo de linguagem também é chamado de bullying.
-
Violência ou ameaça: discurso que inclui ameaças com o objetivo de infligir dor, lesão ou hostilidade a uma pessoa ou grupo.
-
Gráfico: discurso que usa imagens visualmente descritivas e desagradavelmente vívidas. Em geral, esse tipo de linguagem é intencionalmente prolixo para ampliar o desconforto do destinatário.
-
Assédio ou abuso: discurso destinado a afetar o bem-estar psicológico do destinatário, incluindo termos humilhantes e objetificantes. Esse tipo de linguagem também é chamado de assédio.
A detecção de toxicidade analisa segmentos da fala (a fala entre pausas naturais) e atribui pontuações de confiança a esses segmentos. Os escores de confiança são valores entre 0 e 1. Uma pontuação de confiança maior indica uma probabilidade maior de que o conteúdo seja um discurso tóxico na categoria associada. Você pode usar essas pontuações de confiança para definir o limite apropriado de detecção de toxicidade para seu caso de uso.
nota
A detecção de toxicidade só está disponível para transcrições em lote em inglês dos EUA (en-US).
Veja um exemplo de saída no formato JSON.