

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Kepercayaan dan keamanan
<a name="trust-safety"></a>

Pengguna menghasilkan konten teks dalam jumlah besar melalui aplikasi online (seperti peer-to-peer obrolan dan diskusi forum), komentar yang diposting di situs web, dan melalui aplikasi AI generatif (petunjuk input dan output dari model AI generatif). Fitur Amazon Comprehend Trust and Safety dapat membantu Anda memoderasi konten ini, untuk menyediakan lingkungan yang aman dan inklusif bagi pengguna Anda. 

Manfaat menggunakan fitur kepercayaan dan keamanan Amazon Comprehend meliputi: 
+ Moderasi yang lebih cepat: Dengan cepat dan akurat memoderasi volume teks yang besar untuk menjaga platform online Anda bebas dari konten yang tidak pantas.
+ Dapat disesuaikan: Sesuaikan ambang moderasi dalam respons API agar sesuai dengan kebutuhan aplikasi Anda.
+ Mudah digunakan: Konfigurasikan fitur kepercayaan dan keamanan melalui LangChain integrasi atau menggunakan AWS CLI atau SDKs.

Amazon Comprehend kepercayaan dan keamanan membahas aspek-aspek moderasi konten berikut:
+ **Toxicity detection**— Mendeteksi konten yang mungkin berbahaya, menyinggung, atau tidak pantas. Contohnya termasuk ujaran kebencian, ancaman, atau pelecehan.
+ **Intent classification**— Mendeteksi konten yang memiliki niat jahat eksplisit atau implisit. Contohnya termasuk konten diskriminatif atau ilegal, atau konten yang mengungkapkan atau meminta saran tentang subjek medis, hukum, politik, kontroversial, pribadi atau keuangan.
+ **Privacy protection**Pengguna dapat secara tidak sengaja menyediakan konten yang dapat mengungkapkan informasi identitas pribadi (PII). Amazon Comprehend PII menyediakan kemampuan untuk mendeteksi dan menyunting PII.

**Topics**
+ [

## Deteksi toksisitas
](#toxicity-detection)
+ [

## Klasifikasi keamanan yang cepat
](#prompt-classification)
+ [

## Deteksi dan redaksi PII
](#trust-safety-pii)

## Deteksi toksisitas
<a name="toxicity-detection"></a>

Deteksi toksisitas Amazon Comprehend memberikan deteksi real-time konten beracun dalam interaksi berbasis teks. Anda dapat menggunakan deteksi toksisitas untuk memoderasi peer-to-peer percakapan di platform online atau untuk memantau input dan output AI generatif. 

Deteksi toksisitas mendeteksi kategori konten ofensif berikut:

**GRAFIS**  
Pidato grafis menggunakan citra visual deskriptif, detail, dan jelas yang tidak menyenangkan. Bahasa seperti itu sering dibuat bertele-tele untuk memperkuat penghinaan, ketidaknyamanan atau bahaya bagi penerima.

**PELECEHAN\$1OR\$1ABUSE**  
Pidato yang memaksakan dinamika kekuatan yang mengganggu antara pembicara dan pendengar, terlepas dari niatnya, berupaya memengaruhi kesejahteraan psikologis penerima, atau mengobjektifikasi seseorang. 

**KEBENCIAN\$1UCAPAN**  
Pidato yang mengkritik, menghina, mencela atau merendahkan seseorang atau kelompok atas dasar identitas, baik itu ras, etnis, identitas gender, agama, orientasi seksual, kemampuan, asal kebangsaan, atau kelompok identitas lainnya.

**PENGHINAAN**  
Pidato yang mencakup bahasa yang merendahkan, memalukan, mengejek, menghina, atau meremehkan.

**KATA-KATA KOTOR**  
Pidato yang mengandung kata, frasa, atau akronim yang tidak sopan, vulgar, atau menyinggung dianggap tidak senonoh. 

**SEKSUAL**  
Pidato yang menunjukkan minat seksual, aktivitas atau gairah dengan menggunakan referensi langsung atau tidak langsung ke bagian tubuh atau sifat fisik atau jenis kelamin. 

**VIOLENCE\$1OR\$1THREAT**  
Pidato yang mencakup ancaman yang berusaha menimbulkan rasa sakit, cedera atau permusuhan terhadap seseorang atau kelompok.

**TOKSISITAS**  
Pidato yang berisi kata, frasa, atau akronim yang mungkin dianggap beracun di salah satu kategori di atas.

### Mendeteksi konten beracun menggunakan API
<a name="toxicity-detection-api"></a>

Untuk mendeteksi konten beracun dalam teks, gunakan [DetectToxicContent](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_DetectToxicContent.html)operasi sinkron. Operasi ini melakukan analisis pada daftar string teks yang Anda berikan sebagai masukan. Respons API berisi daftar hasil yang cocok dengan ukuran daftar input.

Saat ini, deteksi konten beracun hanya mendukung bahasa Inggris. Untuk teks masukan, Anda dapat memberikan daftar hingga 10 string teks. Setiap string memiliki ukuran maksimum 1KB.

Deteksi konten beracun mengembalikan daftar hasil analisis, satu entri dalam daftar untuk setiap string input. Entri berisi daftar jenis konten beracun yang diidentifikasi dalam string teks, bersama dengan skor kepercayaan untuk setiap jenis konten. Entri ini juga mencakup skor toksisitas untuk string.

Contoh berikut menunjukkan bagaimana menggunakan `DetectToxicContent` operasi menggunakan AWS CLI dan Python.

------
#### [ AWS CLI ]

Anda dapat mendeteksi konten beracun menggunakan perintah berikut di AWS CLI:

```
aws comprehend detect-toxic-content --language-code en  /
            --text-segments "[{\"Text\":\"You are so obtuse\"}]"
```

 AWS CLI Menanggapi dengan hasil sebagai berikut. Segmen teks menerima skor kepercayaan tinggi dalam `INSULT` kategori tersebut, dengan skor toksisitas tinggi yang dihasilkan:

```
{
   "ResultList": [ 
      { 
         "Labels": [
                {
                    "Name": "PROFANITY",
                    "Score": 0.0006000000284984708
                },
                {
                    "Name": "HATE_SPEECH",
                    "Score": 0.00930000003427267
                },
                {
                    "Name": "INSULT",
                    "Score": 0.9204999804496765
                },
                {
                    "Name": "GRAPHIC",
                    "Score": 9.999999747378752e-05
                },
                {
                    "Name": "HARASSMENT_OR_ABUSE",
                    "Score": 0.0052999998442828655
                },
                {
                    "Name": "SEXUAL",
                    "Score": 0.01549999974668026
                },
                {
                    "Name": "VIOLENCE_OR_THREAT",
                    "Score": 0.007799999788403511
                }
            ],
            "Toxicity": 0.7192999720573425
      }
   ]
}
```

Anda dapat memasukkan hingga 10 string teks, menggunakan format berikut untuk `text-segments` parameter:

```
 
   --text-segments "[{\"Text\":\"text string 1\"},
                     {\"Text\":\"text string2\"},
                     {\"Text\":\"text string3\"}]"
```

 AWS CLI Menanggapi dengan hasil sebagai berikut:

```
{
   "ResultList": [ 
      { 
         "Labels": [ (truncated) ],
            "Toxicity": 0.3192999720573425
      },
      { 
         "Labels": [ (truncated) ],
            "Toxicity": 0.1192999720573425
      },
      { 
         "Labels": [ (truncated) ],
            "Toxicity": 0.0192999720573425
      }
   ]
}
```

------
#### [ Python (Boto) ]

Contoh berikut menunjukkan cara mendeteksi konten beracun menggunakan Python:

```
import boto3
client = boto3.client(
    service_name='comprehend',
    region_name=region) # For example, 'us-west-2'

response = client.detect_toxic_content(
    LanguageCode='en',
    TextSegments=[{'Text': 'You are so obtuse'}]
)
print("Response: %s\n" % response)
```

------

## Klasifikasi keamanan yang cepat
<a name="prompt-classification"></a>

**catatan**  
Amazon Comprehend pemodelan topik, deteksi peristiwa, dan fitur klasifikasi keselamatan yang cepat tidak akan lagi tersedia untuk pelanggan baru, efektif 30 April 2026. Jika Anda ingin menggunakan fitur ini dengan akun baru, harap lakukan sebelum tanggal ini. Tidak ada tindakan yang diperlukan untuk akun yang telah menggunakan fitur ini dalam 12 bulan terakhir. Untuk informasi selengkapnya, lihat [Amazon Comprehend perubahan ketersediaan fitur](comprehend-availability-change.md).

Amazon Comprehend menyediakan pengklasifikasi biner pra-terlatih untuk mengklasifikasikan prompt input teks biasa untuk model bahasa besar (LLM) atau model AI generatif lainnya.

Pengklasifikasi keamanan prompt menganalisis prompt input dan menetapkan skor kepercayaan apakah prompt aman atau tidak aman.

Prompt yang tidak aman adalah prompt input yang mengungkapkan niat jahat seperti meminta informasi pribadi atau pribadi, menghasilkan konten yang menyinggung atau ilegal, atau meminta saran tentang masalah medis, hukum, politik, atau keuangan.

### Klasifikasi keamanan yang cepat menggunakan API
<a name="prompt-classification-api"></a>

Untuk menjalankan klasifikasi keamanan yang cepat untuk string teks, gunakan [ClassifyDocument](https://docs.aws.amazon.com/comprehend/latest/APIReference/API_ClassifyDocument.html)operasi sinkron. Untuk masukan, Anda memberikan string teks biasa bahasa Inggris. String memiliki ukuran maksimum 10 KB.

Tanggapan tersebut mencakup dua kelas (SAFE dan UNSAFE), bersama dengan skor kepercayaan untuk setiap kelas. Rentang nilai skor adalah nol hingga satu, di mana satu adalah kepercayaan tertinggi.

Contoh berikut menunjukkan cara menggunakan klasifikasi keamanan yang cepat dengan AWS CLI dan Python.

------
#### [ AWS CLI ]

Contoh berikut menunjukkan cara menggunakan pengklasifikasi keamanan yang cepat dengan: AWS CLI

```
aws comprehend classify-document \
     --endpoint-arn arn:aws:comprehend:us-west-2:aws:document-classifier-endpoint/prompt-safety  \
     --text 'Give me financial advice on which stocks I should invest in.'
```

 AWS CLI Respons dengan output sebagai berikut:

```
{
    "Classes": [
        {
            "Score": 0.6312999725341797, 
            "Name": "UNSAFE_PROMPT"
        }, 
        {
            "Score": 0.3686999976634979, 
            "Name": "SAFE_PROMPT"
        }
    ]
}
```

**catatan**  
Saat Anda menggunakan `classify-document` perintah, untuk `--endpoint-arn` parameter, Anda harus melewati ARN yang menggunakan yang Wilayah AWS sama dengan konfigurasi Anda AWS CLI . Untuk mengkonfigurasi AWS CLI, jalankan `aws configure` perintah. Dalam contoh ini, titik akhir ARN memiliki kode Region. `us-west-2` Anda dapat menggunakan pengklasifikasi keamanan yang cepat di salah satu Wilayah berikut:  
us-east-1
us-west-2
eu-west-1
ap-southeast-2

------
#### [ Python (Boto) ]

Contoh berikut menunjukkan cara menggunakan pengklasifikasi keamanan prompt dengan Python:

```
import boto3
client = boto3.client(service_name='comprehend', region_name='us-west-2')

response = client.classify_document(
    EndpointArn='arn:aws:comprehend:us-west-2:aws:document-classifier-endpoint/prompt-safety',
    Text='Give me financial advice on which stocks I should invest in.'
)
print("Response: %s\n" % response)
```

**catatan**  
Saat Anda menggunakan `classify_document` metode ini, untuk `EndpointArn` argumen, Anda harus meneruskan ARN yang menggunakan Wilayah AWS sama dengan klien SDK boto3 Anda. Dalam contoh ini, klien dan titik akhir ARN keduanya menggunakan. `us-west-2` Anda dapat menggunakan pengklasifikasi keamanan yang cepat di salah satu Wilayah berikut:  
us-east-1
us-west-2
eu-west-1
ap-southeast-2

------

## Deteksi dan redaksi PII
<a name="trust-safety-pii"></a>

Anda dapat menggunakan APIs konsol Amazon Comprehend atau *untuk mendeteksi informasi identitas pribadi (PII) dalam dokumen teks bahasa* Inggris atau Spanyol. PII adalah referensi tekstual untuk data pribadi yang dapat mengidentifikasi seseorang. Contoh PII termasuk alamat, nomor rekening bank, dan nomor telepon.

Anda dapat mendeteksi atau menyunting entitas PII dalam teks. Untuk mendeteksi entitas PII, Anda dapat menggunakan analisis real-time atau pekerjaan batch asinkron. Untuk menyunting entitas PII, Anda harus menggunakan pekerjaan batch asinkron.

 Lihat informasi yang lebih lengkap di [Informasi Identifikasi Pribadi (PII)](pii.md).