| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Mobiles Menü | Details | |
| All Departments | Alle Abteilungen | Details | |
| Main Menu | Hauptmenü | Details | |
| Connection block | Verbindungsblock | Details | |
| Restore default settings | Standardeinstellungen wiederherstellen | Details | |
|
Restore default settings Standardeinstellungen wiederherstellen
You have to log in to edit this translation.
|
|||
| Can not get settings list | Liste der Einstellungen kann nicht abgerufen werden | Details | |
|
Can not get settings list Liste der Einstellungen kann nicht abgerufen werden
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Wie stark werden neue Token bestraft, je nachdem, ob sie bisher im Text vorkommen. Erhöht die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Wie stark werden neue Token bestraft, je nachdem, ob sie bisher im Text vorkommen. Erhöht die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
You have to log in to edit this translation.
|
|||
| Presence penalty | Anwesenheitsstrafe | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Wie stark neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text bestraft werden sollen. Verringert die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Wie stark neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text bestraft werden sollen. Verringert die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Frequenz-Malus | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Kontrolliert die Diversität durch Kernproben: 0.5 bedeutet, dass die Hälfte aller wahrscheinlichkeitsgewichteten Optionen berücksichtigt wird. | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Kontrolliert die Diversität durch Kernproben: 0.5 bedeutet, dass die Hälfte aller wahrscheinlichkeitsgewichteten Optionen berücksichtigt wird.
You have to log in to edit this translation.
|
|||
| Top P | Oben P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | Bis zu vier Sequenzen, an denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Stoppsequenz nicht enthalten. Gib die Sequenzen mit einem ";" Trennzeichen ein. | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. Bis zu vier Sequenzen, an denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Stoppsequenz nicht enthalten. Gib die Sequenzen mit einem ";" Trennzeichen ein.
You have to log in to edit this translation.
|
|||
| Stop sequences | Sequenzen anhalten | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | Die maximale Anzahl der zu "generierenden" Token. Anfragen können bis zu 2.048 oder 4000 Token verwenden, die zwischen Aufforderung und Abschluss aufgeteilt werden. Die genaue Grenze variiert je nach Modell. (Ein Token entspricht etwa 4 Zeichen für normalen englischen Text) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) Die maximale Anzahl der zu "generierenden" Token. Anfragen können bis zu 2.048 oder 4000 Token verwenden, die zwischen Aufforderung und Abschluss aufgeteilt werden. Die genaue Grenze variiert je nach Modell. (Ein Token entspricht etwa 4 Zeichen für normalen englischen Text)
You have to log in to edit this translation.
|
|||
Export as