| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Мобильное меню | Details | |
| All Departments | Все разделы | Details | |
| Main Menu | Главное меню | Details | |
| Connection block | Соединительный блок | Details | |
| Restore default settings | Восстановить настройки по умолчанию | Details | |
|
Restore default settings Восстановить настройки по умолчанию
You have to log in to edit this translation.
|
|||
| Can not get settings list | Невозможно получить список настроек | Details | |
|
Can not get settings list Невозможно получить список настроек
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Насколько сильно штрафовать новые лексемы в зависимости от того, появлялись ли они в тексте до сих пор. Увеличивает вероятность того, что модель будет говорить о новых темах. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Насколько сильно штрафовать новые лексемы в зависимости от того, появлялись ли они в тексте до сих пор. Увеличивает вероятность того, что модель будет говорить о новых темах.
You have to log in to edit this translation.
|
|||
| Presence penalty | Штраф за присутствие | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Как сильно штрафовать новые лексемы, основываясь на их существующей частоте в тексте на данный момент. Уменьшает вероятность того, что модель повторит ту же строку дословно. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Как сильно штрафовать новые лексемы, основываясь на их существующей частоте в тексте на данный момент. Уменьшает вероятность того, что модель повторит ту же строку дословно.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Частотный штраф | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Контролирует разнообразие с помощью выборки ядер: 0.5 означает, что рассматривается половина всех вариантов, взвешенных по вероятности. | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Контролирует разнообразие с помощью выборки ядер: 0.5 означает, что рассматривается половина всех вариантов, взвешенных по вероятности.
You have to log in to edit this translation.
|
|||
| Top P | Топ P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | До четырех последовательностей, после которых API прекращает генерировать дальнейшие лексемы. Возвращаемый текст не будет содержать последовательность остановки. Вводите последовательности с разделителем ";". | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. До четырех последовательностей, после которых API прекращает генерировать дальнейшие лексемы. Возвращаемый текст не будет содержать последовательность остановки. Вводите последовательности с разделителем ";".
You have to log in to edit this translation.
|
|||
| Stop sequences | Последовательности остановок | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | Максимальное количество токенов для "генерации". В запросах может использоваться до 2 048 или 4000 жетонов, распределенных между запросом и завершением. Точное ограничение зависит от модели. (Один токен равен примерно 4 символам для обычного английского текста) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) Максимальное количество токенов для "генерации". В запросах может использоваться до 2 048 или 4000 жетонов, распределенных между запросом и завершением. Точное ограничение зависит от модели. (Один токен равен примерно 4 символам для обычного английского текста)
You have to log in to edit this translation.
|
|||
Export as