| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Menu Mobile | Details | |
| All Departments | Semua Departemen | Details | |
| Main Menu | Menu Utama | Details | |
| Connection block | Blok koneksi | Details | |
| Restore default settings | Mengembalikan pengaturan default | Details | |
|
Restore default settings Mengembalikan pengaturan default
You have to log in to edit this translation.
|
|||
| Can not get settings list | Tidak bisa mendapatkan daftar pengaturan | Details | |
|
Can not get settings list Tidak bisa mendapatkan daftar pengaturan
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Berapa banyak untuk menghukum token baru berdasarkan apakah mereka muncul dalam teks sejauh ini. Meningkatkan kemungkinan model untuk membicarakan topik baru. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Berapa banyak untuk menghukum token baru berdasarkan apakah mereka muncul dalam teks sejauh ini. Meningkatkan kemungkinan model untuk membicarakan topik baru.
You have to log in to edit this translation.
|
|||
| Presence penalty | Penalti kehadiran | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Berapa banyak untuk menghukum token baru berdasarkan frekuensi yang ada dalam teks sejauh ini. Mengurangi kemungkinan model untuk mengulang baris yang sama secara verbatim. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Berapa banyak untuk menghukum token baru berdasarkan frekuensi yang ada dalam teks sejauh ini. Mengurangi kemungkinan model untuk mengulang baris yang sama secara verbatim.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Penalti frekuensi | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Mengontrol keragaman melalui pengambilan sampel inti: 0.5 berarti setengah dari semua opsi berbobot kemungkinan dipertimbangkan. | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Mengontrol keragaman melalui pengambilan sampel inti: 0.5 berarti setengah dari semua opsi berbobot kemungkinan dipertimbangkan.
You have to log in to edit this translation.
|
|||
| Top P | Top P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | Hingga empat urutan di mana API akan berhenti menghasilkan token lebih lanjut. Teks yang dikembalikan tidak akan berisi urutan berhenti. Masukkan urutan dengan pemisah ";". | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. Hingga empat urutan di mana API akan berhenti menghasilkan token lebih lanjut. Teks yang dikembalikan tidak akan berisi urutan berhenti. Masukkan urutan dengan pemisah ";".
You have to log in to edit this translation.
|
|||
| Stop sequences | Menghentikan urutan | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | Jumlah maksimum token yang akan "dihasilkan". Permintaan dapat menggunakan hingga 2.048 atau 4000 token yang dibagi antara permintaan dan penyelesaian. Batas yang tepat bervariasi menurut model. (Satu token kira-kira terdiri dari 4 karakter untuk teks bahasa Inggris normal) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) Jumlah maksimum token yang akan "dihasilkan". Permintaan dapat menggunakan hingga 2.048 atau 4000 token yang dibagi antara permintaan dan penyelesaian. Batas yang tepat bervariasi menurut model. (Satu token kira-kira terdiri dari 4 karakter untuk teks bahasa Inggris normal)
You have to log in to edit this translation.
|
|||
Export as