| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Menu Mobile | Details | |
| All Departments | Todos os departamentos | Details | |
| Main Menu | Menu Principal | Details | |
| Connection block | Bloco de conexĂŁo | Details | |
| Restore default settings | Restaurar ConfiguraçÔes Padrão | Details | |
|
Restore default settings Restaurar ConfiguraçÔes Padrão
You have to log in to edit this translation.
|
|||
| Can not get settings list | NĂŁo Ă© possĂvel obter a lista de configuraçÔes | Details | |
|
Can not get settings list NĂŁo Ă© possĂvel obter a lista de configuraçÔes
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Quanto penalizar novos tokens com base no fato de eles aparecerem no texto até o momento. Aumenta a probabilidade de o modelo falar sobre novos tópicos. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Quanto penalizar novos tokens com base no fato de eles aparecerem no texto até o momento. Aumenta a probabilidade de o modelo falar sobre novos tópicos.
You have to log in to edit this translation.
|
|||
| Presence penalty | Penalidade de presença | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Quanto penalizar novos tokens com base em sua frequĂȘncia existente no texto atĂ© o momento. Diminui a probabilidade de o modelo repetir a mesma linha literalmente. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Quanto penalizar novos tokens com base em sua frequĂȘncia existente no texto atĂ© o momento. Diminui a probabilidade de o modelo repetir a mesma linha literalmente.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Penalidade de frequĂȘncia | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Controla a diversidade por meio da amostragem do nĂșcleo: 0.5 significa que metade de todas as opçÔes ponderadas pela probabilidade sĂŁo consideradas. | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Controla a diversidade por meio da amostragem do nĂșcleo: 0.5 significa que metade de todas as opçÔes ponderadas pela probabilidade sĂŁo consideradas.
You have to log in to edit this translation.
|
|||
| Top P | Top P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | AtĂ© quatro sequĂȘncias em que a API interromperĂĄ a geração de outros tokens. O texto retornado nĂŁo conterĂĄ a sequĂȘncia de parada. Insira as sequĂȘncias com o separador ";". | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. AtĂ© quatro sequĂȘncias em que a API interromperĂĄ a geração de outros tokens. O texto retornado nĂŁo conterĂĄ a sequĂȘncia de parada. Insira as sequĂȘncias com o separador ";".
You have to log in to edit this translation.
|
|||
| Stop sequences | SequĂȘncias de parada | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | O nĂșmero mĂĄximo de tokens a serem "gerados". As solicitaçÔes podem usar atĂ© 2.048 ou 4.000 tokens compartilhados entre o prompt e a conclusĂŁo. O limite exato varia de acordo com o modelo. (Um token equivale a aproximadamente 4 caracteres em um texto normal em inglĂȘs) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) O nĂșmero mĂĄximo de tokens a serem "gerados". As solicitaçÔes podem usar atĂ© 2.048 ou 4.000 tokens compartilhados entre o prompt e a conclusĂŁo. O limite exato varia de acordo com o modelo. (Um token equivale a aproximadamente 4 caracteres em um texto normal em inglĂȘs)
You have to log in to edit this translation.
|
|||
Export as