

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# AI21 LabsJurassic-2model
<a name="model-parameters-jurassic2"></a>

Bagian ini memberikan parameter inferensi dan contoh kode untuk menggunakan AI21 Labs AI21 Labs Jurassic-2 model.

**Topics**
+ [

## Parameter inferensi
](#model-parameters-jurassic2-request-response)
+ [

## Contoh kode
](#api-inference-examples-a2i-jurassic)

## Parameter inferensi
<a name="model-parameters-jurassic2-request-response"></a>

AI21 LabsJurassic-2Model mendukung parameter inferensi berikut.

**Topics**
+ [

### Keacakan dan Keanekaragaman
](#model-parameters-jurassic2-random)
+ [

### Panjang
](#model-parameters-jurassic2-length)
+ [

### Pengulangan
](#model-parameters-jurassic2-reps)
+ [

### Bidang badan permintaan pemanggilan model
](#model-parameters-jurassic2-request-body)
+ [

### Bidang tubuh respons pemanggilan model
](#model-parameters-jurassic2-response-body)

### Keacakan dan Keanekaragaman
<a name="model-parameters-jurassic2-random"></a>

AI21 LabsJurassic-2Model mendukung parameter berikut untuk mengontrol keacakan dan keragaman dalam respons.
+ **Temperatur** (`temperature`) — Gunakan nilai yang lebih rendah untuk mengurangi keacakan dalam respons.
+ **Top P** (`topP`) — Gunakan nilai yang lebih rendah untuk mengabaikan opsi yang kurang mungkin.

### Panjang
<a name="model-parameters-jurassic2-length"></a>

AI21 LabsJurassic-2Model mendukung parameter berikut untuk mengontrol panjang respons yang dihasilkan.
+ **Panjang penyelesaian maksimum** (`maxTokens`) - Tentukan jumlah maksimum token yang akan digunakan dalam respons yang dihasilkan.
+ **Stop sequences** (`stopSequences`) — Konfigurasikan urutan berhenti yang dikenali model dan setelah itu berhenti menghasilkan token lebih lanjut. Tekan tombol Enter untuk menyisipkan karakter baris baru dalam urutan berhenti. Gunakan tombol Tab untuk menyelesaikan penyisipan urutan berhenti.

### Pengulangan
<a name="model-parameters-jurassic2-reps"></a>

AI21 LabsJurassic-2Model mendukung parameter berikut untuk mengontrol pengulangan dalam respons yang dihasilkan.
+ **Penalti kehadiran** (`presencePenalty`) — Gunakan nilai yang lebih tinggi untuk menurunkan probabilitas menghasilkan token baru yang sudah muncul setidaknya sekali dalam prompt atau dalam penyelesaian.
+ **Hitung penalti** (`countPenalty`) — Gunakan nilai yang lebih tinggi untuk menurunkan probabilitas menghasilkan token baru yang sudah muncul setidaknya sekali dalam prompt atau penyelesaian. Sebanding dengan jumlah penampilan.
+ **Penalti frekuensi** (`frequencyPenalty`) — Gunakan nilai tinggi untuk menurunkan probabilitas menghasilkan token baru yang sudah muncul setidaknya sekali dalam prompt atau dalam penyelesaian. Nilai sebanding dengan frekuensi tampilan token (dinormalisasi ke panjang teks).
+ **Menghukum token khusus** — Kurangi kemungkinan pengulangan karakter khusus. Nilai defaultnya adalah`true`.
  + **Whitespaces** (`applyToWhitespaces`) — `true` Nilai menerapkan penalti ke spasi putih dan baris baru.
  + **Tanda baca (**`applyToPunctuation`) — `true` Nilai menerapkan penalti untuk tanda baca.
  + **Numbers** (`applyToNumbers`) — `true` Nilai menerapkan penalti ke angka.
  + **Stop words** (`applyToStopwords`) — `true` Nilai menerapkan penalti untuk menghentikan kata-kata.
  + **Emojis** (`applyToEmojis`) — `true` Nilai tidak termasuk emoji dari penalti.

### Bidang badan permintaan pemanggilan model
<a name="model-parameters-jurassic2-request-body"></a>

Saat Anda membuat [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)atau [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)memanggil menggunakan AI21 Labs model, isi `body` bidang dengan objek JSON yang sesuai dengan yang di bawah ini. Masukkan prompt di `prompt` bidang.

```
{
    "prompt": string,
    "temperature": float,
    "topP": float,
    "maxTokens": int,
    "stopSequences": [string],
    "countPenalty": {
        "scale": float
    },
    "presencePenalty": {
        "scale": float
    },
    "frequencyPenalty": {
        "scale": float
    }
}
```

Untuk menghukum token khusus, tambahkan bidang tersebut ke salah satu objek penalti. Misalnya, Anda dapat memodifikasi `countPenalty` bidang sebagai berikut.

```
"countPenalty": {
    "scale": float,
    "applyToWhitespaces": boolean,
    "applyToPunctuations": boolean,
    "applyToNumbers": boolean,
    "applyToStopwords": boolean,
    "applyToEmojis": boolean
}
```

Tabel berikut menunjukkan nilai minimum, maksimum, dan default untuk parameter numerik.


****  
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/model-parameters-jurassic2.html)

### Bidang tubuh respons pemanggilan model
<a name="model-parameters-jurassic2-response-body"></a>

Untuk informasi tentang format `body` bidang dalam respons, lihat [https://docs.ai21.com/reference/j2- complete-api-ref](https://docs.ai21.com/reference/j2-complete-api-ref).

**catatan**  
Amazon Bedrock mengembalikan identifier respon (`id`) sebagai nilai integer.

## Contoh kode
<a name="api-inference-examples-a2i-jurassic"></a>

Contoh ini menunjukkan cara memanggil model *A2I AI21 Labs Jurassic-2 Mid*.

```
import boto3
import json

brt = boto3.client(service_name='bedrock-runtime')

body = json.dumps({
    "prompt": "Translate to spanish: 'Amazon Bedrock is the easiest way to build and scale generative AI applications with base models (FMs)'.", 
    "maxTokens": 200,
    "temperature": 0.5,
    "topP": 0.5
})

modelId = 'ai21.j2-mid-v1'
accept = 'application/json'
contentType = 'application/json'

response = brt.invoke_model(
    body=body, 
    modelId=modelId, 
    accept=accept, 
    contentType=contentType
)

response_body = json.loads(response.get('body').read())

# text
print(response_body.get('completions')[0].get('data').get('text'))
```