| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Menú móvil | Details | |
| All Departments | Todos los Departamentos | Details | |
| Main Menu | Menú principal | Details | |
| Connection block | Bloque de conexión | Details | |
| Restore default settings | Defecto | Details | |
| Can not get settings list | No se puede obtener la lista de ajustes | Details | |
|
Can not get settings list No se puede obtener la lista de ajustes
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Cuánto penalizar los tokens nuevos en función de si aparecen en el texto hasta el momento. Aumenta la probabilidad de que el modelo hable de temas nuevos. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Cuánto penalizar los tokens nuevos en función de si aparecen en el texto hasta el momento. Aumenta la probabilidad de que el modelo hable de temas nuevos.
You have to log in to edit this translation.
|
|||
| Presence penalty | Penalización por presencia | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Cuánto penalizar los nuevos tokens en función de su frecuencia existente en el texto hasta el momento. Disminuye la probabilidad de que el modelo repita textualmente la misma lÃnea. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Cuánto penalizar los nuevos tokens en función de su frecuencia existente en el texto hasta el momento. Disminuye la probabilidad de que el modelo repita textualmente la misma lÃnea.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Penalización de frecuencia | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Controla la diversidad mediante el muestreo de núcleos: 0.5 significa que se considera la mitad de todas las opciones ponderadas por probabilidad. | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Controla la diversidad mediante el muestreo de núcleos: 0.5 significa que se considera la mitad de todas las opciones ponderadas por probabilidad.
You have to log in to edit this translation.
|
|||
| Top P | Top P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de parada. Introduzca las secuencias con el separador ";". | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. Hasta cuatro secuencias en las que la API dejará de generar más tokens. El texto devuelto no contendrá la secuencia de parada. Introduzca las secuencias con el separador ";".
You have to log in to edit this translation.
|
|||
| Stop sequences | Secuencias de parada | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | El número máximo de tokens a "generar". Las solicitudes pueden utilizar hasta 2.048 o 4.000 tokens compartidos entre la solicitud y la finalización. El lÃmite exacto varÃa según el modelo. (Un token equivale aproximadamente a 4 caracteres en un texto normal en inglés) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) El número máximo de tokens a "generar". Las solicitudes pueden utilizar hasta 2.048 o 4.000 tokens compartidos entre la solicitud y la finalización. El lÃmite exacto varÃa según el modelo. (Un token equivale aproximadamente a 4 caracteres en un texto normal en inglés)
You have to log in to edit this translation.
|
|||
Export as