| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Mobilmeny | Details | |
| All Departments | Alle avdelinger | Details | |
| Main Menu | Hovedmeny | Details | |
| Connection block | Tilkoblingsblokk | Details | |
| Restore default settings | Gjenopprett standardinnstillinger | Details | |
|
Restore default settings Gjenopprett standardinnstillinger
You have to log in to edit this translation.
|
|||
| Can not get settings list | Kan ikke hente innstillingslisten | Details | |
|
Can not get settings list Kan ikke hente innstillingslisten
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Hvor mye nye tokens skal straffes basert på om de forekommer i teksten så langt. Øker modellens sannsynlighet for å snakke om nye emner. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Hvor mye nye tokens skal straffes basert på om de forekommer i teksten så langt. Øker modellens sannsynlighet for å snakke om nye emner.
You have to log in to edit this translation.
|
|||
| Presence penalty | Straff for tilstedeværelse | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Hvor mye nye tokens skal straffes basert på deres eksisterende frekvens i teksten så langt. Reduserer modellens sannsynlighet for å gjenta samme linje ordrett. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Hvor mye nye tokens skal straffes basert på deres eksisterende frekvens i teksten så langt. Reduserer modellens sannsynlighet for å gjenta samme linje ordrett.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Frekvensstraff | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Kontrollerer mangfoldet via kjerneprøvetaking: 0.5 betyr at halvparten av alle sannsynlighetsvektede alternativer vurderes. | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Kontrollerer mangfoldet via kjerneprøvetaking: 0.5 betyr at halvparten av alle sannsynlighetsvektede alternativer vurderes.
You have to log in to edit this translation.
|
|||
| Top P | Topp P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | Opptil fire sekvenser der API-et slutter å generere flere tokens. Den returnerte teksten vil ikke inneholde stoppsekvensen. Angi sekvenser med skilletegn ";". | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. Opptil fire sekvenser der API-et slutter å generere flere tokens. Den returnerte teksten vil ikke inneholde stoppsekvensen. Angi sekvenser med skilletegn ";".
You have to log in to edit this translation.
|
|||
| Stop sequences | Stoppsekvenser | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | Maksimalt antall tokens som skal "genereres". Forespørsler kan bruke opptil 2 048 eller 4000 tokens som deles mellom prompt og fullføring. Den nøyaktige grensen varierer fra modell til modell. (Ett token er omtrent 4 tegn for normal engelsk tekst) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) Maksimalt antall tokens som skal "genereres". Forespørsler kan bruke opptil 2 048 eller 4000 tokens som deles mellom prompt og fullføring. Den nøyaktige grensen varierer fra modell til modell. (Ett token er omtrent 4 tegn for normal engelsk tekst)
You have to log in to edit this translation.
|
|||
Export as