| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Мобилно меню | Details | |
| All Departments | Всички департаменти | Details | |
| Main Menu | Основно меню | Details | |
| Connection block | Блок за свързване | Details | |
| Restore default settings | Възстановяване на настройките по подразбиране | Details | |
|
Restore default settings Възстановяване на настройките по подразбиране
You have to log in to edit this translation.
|
|||
| Can not get settings list | Не мога да получа списък с настройки | Details | |
|
Can not get settings list Не мога да получа списък с настройки
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Колко да се санкционират новите лексеми въз основа на това дали са се появили в текста досега. Увеличава вероятността моделът да говори за нови теми. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Колко да се санкционират новите лексеми въз основа на това дали са се появили в текста досега. Увеличава вероятността моделът да говори за нови теми.
You have to log in to edit this translation.
|
|||
| Presence penalty | Наказание за присъствие | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Колко да се санкционират новите лексеми въз основа на съществуващата им честота в текста до момента. Намалява вероятността моделът да повтори дословно един и същ ред. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Колко да се санкционират новите лексеми въз основа на съществуващата им честота в текста до момента. Намалява вероятността моделът да повтори дословно един и същ ред.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Наказание за честота | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Контролира разнообразието чрез вземане на проби от ядрата: 0.5 означава, че се разглеждат половината от всички претеглени по вероятност варианти. | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Контролира разнообразието чрез вземане на проби от ядрата: 0.5 означава, че се разглеждат половината от всички претеглени по вероятност варианти.
You have to log in to edit this translation.
|
|||
| Top P | Top P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | До четири последователности, при които API ще спре да генерира следващи токени. Върнатият текст няма да съдържа последователността за спиране. Въведете последователностите с разделител ";". | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. До четири последователности, при които API ще спре да генерира следващи токени. Върнатият текст няма да съдържа последователността за спиране. Въведете последователностите с разделител ";".
You have to log in to edit this translation.
|
|||
| Stop sequences | Спиране на последователностите | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | Максималният брой жетони за "генериране". Заявките могат да използват до 2048 или 4000 токена, разпределени между подкана и завършване. Точното ограничение варира в зависимост от модела. (Един токън е приблизително 4 символа за нормален английски текст) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) Максималният брой жетони за "генериране". Заявките могат да използват до 2048 или 4000 токена, разпределени между подкана и завършване. Точното ограничение варира в зависимост от модела. (Един токън е приблизително 4 символа за нормален английски текст)
You have to log in to edit this translation.
|
|||
Export as