| Prio | Original string | Translation | — |
|---|---|---|---|
| Mobile Menu | Menu mobilne | Details | |
| All Departments | Wszystkie Dzia艂y | Details | |
| Main Menu | Menu g艂贸wne | Details | |
| Connection block | Blok po艂膮cze艅 | Details | |
| Restore default settings | Przywracanie ustawie艅 domy艣lnych | Details | |
|
Restore default settings Przywracanie ustawie艅 domy艣lnych
You have to log in to edit this translation.
|
|||
| Can not get settings list | Nie mo偶na uzyska膰 listy ustawie艅 | Details | |
|
Can not get settings list Nie mo偶na uzyska膰 listy ustawie艅
You have to log in to edit this translation.
|
|||
| How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. | Jak bardzo kara膰 nowe tokeny na podstawie tego, czy pojawi艂y si臋 w dotychczasowym tek艣cie. Zwi臋ksza prawdopodobie艅stwo, 偶e model b臋dzie m贸wi艂 o nowych tematach. | Details | |
|
How much to penalize new tokens based on whether they appear in the text so far. Increases the model's likelihood to talk about new topics. Jak bardzo kara膰 nowe tokeny na podstawie tego, czy pojawi艂y si臋 w dotychczasowym tek艣cie. Zwi臋ksza prawdopodobie艅stwo, 偶e model b臋dzie m贸wi艂 o nowych tematach.
You have to log in to edit this translation.
|
|||
| Presence penalty | Kara za obecno艣膰 | Details | |
| How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. | Jak bardzo kara膰 nowe tokeny w oparciu o ich dotychczasow膮 cz臋stotliwo艣膰 w tek艣cie. Zmniejsza prawdopodobie艅stwo powt贸rzenia tej samej linii przez model. | Details | |
|
How much to penalize new tokens based on their existing frequency in the text so far. Decreases the model's likelihood to repeat the same line verbatim. Jak bardzo kara膰 nowe tokeny w oparciu o ich dotychczasow膮 cz臋stotliwo艣膰 w tek艣cie. Zmniejsza prawdopodobie艅stwo powt贸rzenia tej samej linii przez model.
You have to log in to edit this translation.
|
|||
| Frequency penalty | Kara za cz臋stotliwo艣膰 | Details | |
| Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. | Kontroluje r贸偶norodno艣膰 poprzez pr贸bkowanie j膮dra: 0.5 oznacza, 偶e po艂owa wszystkich opcji wa偶onych prawdopodobie艅stwem jest brana pod uwag臋. | Details | |
|
Controls diversity via nucleus sampling: 0.5 means half of all likelihood-weighted options are considered. Kontroluje r贸偶norodno艣膰 poprzez pr贸bkowanie j膮dra: 0.5 oznacza, 偶e po艂owa wszystkich opcji wa偶onych prawdopodobie艅stwem jest brana pod uwag臋.
You have to log in to edit this translation.
|
|||
| Top P | Top P | Details | |
| Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. | Maksymalnie cztery sekwencje, po kt贸rych API przestanie generowa膰 kolejne tokeny. Zwracany tekst nie b臋dzie zawiera艂 sekwencji zatrzymania. Wprowad藕 sekwencje z separatorem ";". | Details | |
|
Up to four sequences where the API will stop generating futher tokens. The returned text will not contain the stop sequence. Enter sequences with ";" separator. Maksymalnie cztery sekwencje, po kt贸rych API przestanie generowa膰 kolejne tokeny. Zwracany tekst nie b臋dzie zawiera艂 sekwencji zatrzymania. Wprowad藕 sekwencje z separatorem ";".
You have to log in to edit this translation.
|
|||
| Stop sequences | Sekwencje zatrzymania | Details | |
| The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) | Maksymalna liczba token贸w do "wygenerowania". 呕膮dania mog膮 wykorzystywa膰 do 2 048 lub 4000 token贸w wsp贸艂dzielonych mi臋dzy monitem a zako艅czeniem. Dok艂adny limit zale偶y od modelu. (Jeden token to oko艂o 4 znaki dla normalnego tekstu w j臋zyku angielskim) | Details | |
|
The maximum number of tokens to "generate". Requests can use up to 2,048 or 4000 tokens shared between prompt and completion. The exact limit varies by model. (One token is roughly 4 characters for normal English text) Maksymalna liczba token贸w do "wygenerowania". 呕膮dania mog膮 wykorzystywa膰 do 2 048 lub 4000 token贸w wsp贸艂dzielonych mi臋dzy monitem a zako艅czeniem. Dok艂adny limit zale偶y od modelu. (Jeden token to oko艂o 4 znaki dla normalnego tekstu w j臋zyku angielskim)
You have to log in to edit this translation.
|
|||
Export as