| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Menu Mobile | Details | |
| All Departments | Tutte le categorie | Details | |
| Main Menu | Menu principale | Details | |
| Connection block | Blocco di connessione | Details | |
| Restore default settings | Ripristina le impostazioni predefinite | Details | |
|
Restore default settings Ripristina le impostazioni predefinite
You have to log in to edit this translation.
|
|||
| Can not get settings list | Non è possibile ottenere l'elenco delle impostazioni | Details | |
|
Can not get settings list Non è possibile ottenere l'elenco delle impostazioni
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Quanto penalizzare i nuovi token in base alla loro presenza nel testo fino a quel momento. Aumenta la probabilità del modello di parlare di nuovi argomenti. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Quanto penalizzare i nuovi token in base alla loro presenza nel testo fino a quel momento. Aumenta la probabilità del modello di parlare di nuovi argomenti.
You have to log in to edit this translation.
|
|||
| Presence penalty | Penalità di presenza | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Quanto penalizzare i nuovi token in base alla loro frequenza nel testo fino a quel momento. Diminuisce la probabilità che il modello ripeta testualmente la stessa riga. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Quanto penalizzare i nuovi token in base alla loro frequenza nel testo fino a quel momento. Diminuisce la probabilità che il modello ripeta testualmente la stessa riga.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Penalità di frequenza | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Controlla la diversità attraverso il campionamento dei nuclei: 0.5 significa che viene considerata la metà di tutte le opzioni ponderate per la probabilità . | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Controlla la diversità attraverso il campionamento dei nuclei: 0.5 significa che viene considerata la metà di tutte le opzioni ponderate per la probabilità .
You have to log in to edit this translation.
|
|||
| Top P | Top P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | Fino a quattro sequenze in cui l'API interrompe la generazione di altri token. Il testo restituito non conterrà la sequenza di arresto. Inserire le sequenze con il separatore ";". | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. Fino a quattro sequenze in cui l'API interrompe la generazione di altri token. Il testo restituito non conterrà la sequenza di arresto. Inserire le sequenze con il separatore ";".
You have to log in to edit this translation.
|
|||
| Stop sequences | Sequenze di arresto | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | Il numero massimo di token da "generare". Le richieste possono utilizzare fino a 2.048 o 4.000 gettoni condivisi tra la richiesta e il completamento. Il limite esatto varia a seconda del modello. (Un token corrisponde all'incirca a 4 caratteri per un normale testo inglese) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) Il numero massimo di token da "generare". Le richieste possono utilizzare fino a 2.048 o 4.000 gettoni condivisi tra la richiesta e il completamento. Il limite esatto varia a seconda del modello. (Un token corrisponde all'incirca a 4 caratteri per un normale testo inglese)
You have to log in to edit this translation.
|
|||
Export as