Files
home-llm/custom_components/llama_conversation/translations/pl.json
Alex O'Connell 82ebf988aa random changes
2025-09-15 22:10:25 -04:00

219 lines
16 KiB
JSON
Raw Blame History

This file contains invisible Unicode characters
This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
{
"config": {
"error": {
"download_failed": "Pobieranie nie zostało zakończone: {exception}",
"missing_quantization": "Poziom kwantyzacji GGUF {missing} nie istnieje w dostarczonym repozytorium HuggingFace. Znalezione zostały następujące poziomy kwantyzacji: {available}",
"no_supported_ggufs": "Dostarczone repozytorium HuggingFace nie zawiera żadnych kompatybilnych plików GGUF!",
"failed_to_connect": "Nie udało się połączyć z zdalnym API: {exception}",
"missing_model_api": "Wybrany model nie jest dostępny w tym API. Dostępne modele zostały umieszczone w rozwijanym menu.",
"missing_model_file": "Dostarczony plik nie istnieje.",
"other_existing_local": "Inny model jest już załadowany lokalnie. Proszę go wyładować lub skonfigurować model zdalny.",
"unknown": "Nieoczekiwany błąd",
"pip_wheel_error": "Pip zwrócił błąd podczas instalacji pliku wheel! Proszę sprawdzić logi Home Assistant, aby uzyskać więcej szczegółów.",
"sys_refresh_caching_enabled": "Aby buforowanie promptów działało, odświeżanie promptu systemowego musi być włączone!",
"missing_gbnf_file": "Plik GBNF nie został znaleziony: {filename}",
"missing_icl_file": "Plik CSV z przykładem nauki w kontekście nie został znaleziony: {filename}"
},
"progress": {
"download": "Proszę czekać, trwa pobieranie modelu z HuggingFace. Może to zająć kilka minut.",
"install_local_wheels": "Proszę czekać, trwa instalacja Llama.cpp..."
},
"step": {
"local_model": {
"data": {
"downloaded_model_file": "Nazwa pliku lokalnego",
"downloaded_model_quantization": "Kwantyzacja pobranego modelu",
"huggingface_model": "Model HuggingFace",
"selected_language": "Język modelu"
},
"description": "Proszę wybrać model do użycia.\n\n**Gotowe modele do zainstalowania:**\n1. [Home LLM](https://huggingface.co/collections/acon96/home-llm-6618762669211da33bb22c5a): Home 3B & Home 1B\n2. Mistral: [Mistral 7B](https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2) or [Mixtral 8x7B](https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1)\n3. Llama 3: [8B](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct) and [70B](https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct)",
"title": "Wybierz model"
},
"remote_model": {
"data": {
"host": "Nazwa hosta API",
"huggingface_model": "Nazwa modelu",
"port": "Port API",
"ssl": "Użyj HTTPS",
"openai_api_key": "Klucz API",
"openai_path": "Ścieżka API",
"openai_validate_model": "Sprawdzić, czy model istnieje?",
"text_generation_webui_admin_key": "Klucz administratora",
"text_generation_webui_preset": "Nazwa ustawienia generacji/postaci",
"remote_use_chat_endpoint": "Użyj punktu końcowego uzupełnień chata",
"text_generation_webui_chat_mode": "Tryb czatu",
"selected_language": "Język modelu"
},
"description": "Podaj szczegóły połączenia, aby połączyć się z API, które hostuje model.\n\n**Gotowe modele do zainstalowania:**\n1. [Home LLM](https://huggingface.co/collections/acon96/home-llm-6618762669211da33bb22c5a): Home 3B & Home 1B\n2. Mistral: [Mistral 7B](https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.2) i [Mixtral 8x7B](https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0.1)\n3. Llama 3: [8B](https://huggingface.co/meta-llama/Meta-Llama-3-8B-Instruct) i [70B](https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct)",
"title": "Skonfiguruj połączenie z zdalnym API"
},
"pick_backend": {
"data": {
"download_model_from_hf": "Pobierz model z HuggingFace",
"use_local_backend": "Użyj Llama.cpp"
},
"description": "Wybierz zaplecze do uruchomienia modelu. Opcje to:\n1. Llama.cpp z modelem z HuggingFace\n2. Llama.cpp z modelem przechowywanym na dysku\n3. [text-generation-webui API](https://github.com/oobabooga/text-generation-webui)\n4. Ogólne API kompatybilne z OpenAI API\n5. [llama-cpp-python Server](https://llama-cpp-python.readthedocs.io/en/latest/server/)\n6. [Ollama API](https://github.com/jmorganca/ollama/blob/main/docs/api.md)",
"title": "Wybierz zaplecze modelu"
},
"model_parameters": {
"data": {
"max_new_tokens": "Maksymalna liczba tokenów do zwrócenia w odpowiedzi",
"llm_hass_api": "Wybrane API LLM",
"prompt": "Prompt systemowy",
"prompt_template": "Format promptu",
"tool_format": "Tool Format",
"tool_multi_turn_chat": "Multi-Turn Tool Use",
"temperature": "Temperatura",
"top_k": "Top K",
"top_p": "Top P",
"min_p": "Min P",
"typical_p": "Typical P",
"request_timeout": "Limit czasu żądania (sekundy)",
"ollama_keep_alive": "Limit czasu nieaktywności/utrzymania połączenia (minuty)",
"ollama_json_mode": "Tryb wyjścia JSON",
"extra_attributes_to_expose": "Dodatkowy atrybut do ujawnienia w kontekście",
"enable_flash_attention": "Włącz Flash Attention",
"gbnf_grammar": "Włącz GBNF Grammar",
"gbnf_grammar_file": "Nazwa pliku GBNF Grammar",
"openai_api_key": "Klucz API",
"text_generation_webui_admin_key": "Klucz administratora",
"service_call_regex": "Wyrażenie regularne wywołania usługi",
"refresh_prompt_per_turn": "Odśwież prompt systemowy przy każdej turze",
"remember_conversation": "Pamiętaj rozmowę",
"remember_num_interactions": "Liczba przeszłych interakcji do zapamiętania",
"in_context_examples": "Włącz naukę z kontekstu (ICL) przykładów",
"in_context_examples_file": "Nazwa pliku CSV z przykładami do nauki z kontekstu",
"num_in_context_examples": "Liczba przykładów ICL do wygenerowania",
"text_generation_webui_preset": "Ustawienie generacji/Nazwa postaci",
"remote_use_chat_endpoint": "Użyj punktu końcowego chat completions",
"text_generation_webui_chat_mode": "Tryb czatu",
"prompt_caching": "Włącz buforowanie promptów",
"prompt_caching_interval": "Najkrótszy interwał odświeżania buforowania promptów (sec)",
"context_length": "Długość kontekstu",
"batch_size": "Rozmiar partii (Batch Size)",
"n_threads": "Liczba wątków (Thread Count)",
"n_batch_threads": "Liczba wątków w partii (Batch Thread Count)"
},
"data_description": {
"llm_hass_api": "Wybierz 'Assist', jeśli chcesz, aby model miał możliwość kontrolowania urządzeń. Jeśli używasz modelu Home-LLM v1, v2 lub v3, wybierz 'Home-LLM (v1-3)'.",
"prompt": "Więcej informacji na temat konfigurowania promptu modelu znajdziesz [here](https://github.com/acon96/home-llm/blob/develop/docs/Model%20Prompting.md)",
"in_context_examples": "Jeśli używasz modelu, który nie jest specjalnie dostosowany do użycia z tą integracją, włącz tę opcję.",
"remote_use_chat_endpoint": "Jeśli ta opcja jest włączona, integracja będzie używać punktu końcowego HTTP dla ukończenia czatu zamiast ukończenia tekstowego.",
"extra_attributes_to_expose": "Oto lista 'atrybutów' Home Assistant, które są udostępniane modelowi. Określa to, ile informacji model ma dostępnych i na jakie pytania może odpowiadać.",
"gbnf_grammar": "Wymusza, aby model generował poprawnie sformatowane odpowiedzi. Upewnij się, że plik określony poniżej istnieje w katalogu integracji.",
"prompt_caching": "Buforowanie promptów stara się wstępnie przetworzyć prompt (stan domu) i zapisać przetwarzanie potrzebne do zrozumienia promptu. Włączenie tej opcji spowoduje, że model będzie ponownie przetwarzać prompt za każdym razem, gdy stan jakiegoś bytu w domu ulegnie zmianie, z ograniczeniem określonym poniżej."
},
"description": "Proszę skonfigurować model zgodnie z tym, jak powinien być wywoływany. Istnieje wiele różnych opcji, a wybór odpowiednich dla Twojego modelu jest kluczowy dla uzyskania optymalnej wydajności. Więcej informacji na temat opcji na tej stronie znajdziesz [tutaj](https://github.com/acon96/home-llm/blob/develop/docs/Backend%20Configuration.md).\n\n**Niektóre domyślne ustawienia mogły zostać wybrane na podstawie nazwy wybranego modelu lub pliku.** Jeśli zmieniłeś nazwę pliku lub używasz dostosowanego modelu, domyślne ustawienia mogły nie zostać wykryte.",
"title": "Skonfiguruj wybrany model"
}
}
},
"options": {
"step": {
"init": {
"data": {
"llm_hass_api": "Wybrane API LLM",
"max_new_tokens": "Maksymalna liczba tokenów do zwrócenia w odpowiedzi",
"prompt": "Prompt systemowy",
"prompt_template": "Format promptu",
"tool_format": "Format narzędzia",
"tool_multi_turn_chat": "Użycie narzędzia wielokrotnego użytku",
"temperature": "Temperatura",
"top_k": "Top K",
"top_p": "Top P",
"min_p": "Min P",
"typical_p": "Typical P",
"request_timeout": "Limit czasu żądania (seconds)",
"ollama_keep_alive": "Limit czasu nieaktywności/utrzymania połączenia (minuty)",
"ollama_json_mode": "Tryb wyjścia JSON",
"extra_attributes_to_expose": "Dodatkowy atrybut do ujawnienia w kontekście",
"enable_flash_attention": "Włącz Flash Attention",
"gbnf_grammar": "Włącz GBNF Grammar",
"gbnf_grammar_file": "Nazwa pliku GBNF Grammar",
"openai_api_key": "Klucz API",
"text_generation_webui_admin_key": "Klucz administratora",
"service_call_regex": "Wyrażenie regularne wywołania usługi",
"refresh_prompt_per_turn": "Odśwież prompt systemowy przy każdej turze",
"remember_conversation": "Pamiętaj rozmowę",
"remember_num_interactions": "Liczba przeszłych interakcji do zapamiętania",
"in_context_examples": "Włącz naukę z kontekstu (ICL) przykładów",
"in_context_examples_file": "Nazwa pliku CSV z przykładami do nauki z kontekstu",
"num_in_context_examples": "Liczba przykładów ICL do wygenerowania",
"text_generation_webui_preset": "Ustawienie generacji/Nazwa postaci",
"remote_use_chat_endpoint": "Użyj punktu końcowego chat completions",
"text_generation_webui_chat_mode": "Tryb czatu",
"prompt_caching": "Włącz buforowanie promptów",
"prompt_caching_interval": "Najkrótszy interwał odświeżania buforowania promptów (sec)",
"context_length": "Długość kontekstu",
"batch_size": "Rozmiar partii (Batch Size)",
"n_threads": "Liczba wątków (Thread Count)",
"n_batch_threads": "Liczba wątków w partii (Batch Thread Count)"
},
"data_description": {
"llm_hass_api": "Wybierz 'Assist', jeśli chcesz, aby model miał możliwość kontrolowania urządzeń. Jeśli używasz modelu Home-LLM v1, v2 lub v3, wybierz 'Home-LLM (v1-3)'.",
"prompt": "Więcej informacji na temat konfigurowania promptu modelu znajdziesz [here](https://github.com/acon96/home-llm/blob/develop/docs/Model%20Prompting.md)",
"in_context_examples": "Jeśli używasz modelu, który nie jest specjalnie dostosowany do użycia z tą integracją, włącz tę opcję.",
"remote_use_chat_endpoint": "Jeśli ta opcja jest włączona, integracja będzie używać punktu końcowego HTTP dla ukończenia czatu zamiast ukończenia tekstowego.",
"extra_attributes_to_expose": "Oto lista 'atrybutów' Home Assistant, które są udostępniane modelowi. Określa to, ile informacji model ma dostępnych i na jakie pytania może odpowiadać.",
"gbnf_grammar": "Wymusza, aby model generował poprawnie sformatowane odpowiedzi. Upewnij się, że plik określony poniżej istnieje w katalogu integracji.",
"prompt_caching": "Buforowanie promptów stara się wstępnie przetworzyć prompt (stan domu) i zapisać przetwarzanie potrzebne do zrozumienia promptu. Włączenie tej opcji spowoduje, że model będzie ponownie przetwarzać prompt za każdym razem, gdy stan jakiegoś bytu w domu ulegnie zmianie, z ograniczeniem określonym poniżej."
}
}
},
"error": {
"sys_refresh_caching_enabled": "Odświeżanie promptu systemowego musi być włączone, aby buforowanie promptów działało!",
"missing_gbnf_file": "Plik GBNF nie został znaleziony: {filename}",
"missing_icl_file": "Plik CSV z przykładami nauki w kontekście nie został znaleziony: {filename}"
}
},
"selector": {
"prompt_template": {
"options": {
"chatml": "ChatML",
"vicuna": "Vicuna",
"alpaca": "Alpaca",
"mistral": "Mistral",
"zephyr": "Zephyr (<|endoftext|>)",
"zephyr2": "Zephyr ('</s>')",
"zephyr3": "Zephyr (<|end|>)",
"llama3": "Llama 3",
"command-r": "Command R",
"no_prompt_template": "None"
}
},
"tool_format": {
"options": {
"full_tool_format": "Pełny format JSON",
"reduced_tool_format": "Ograniczony format JSON",
"min_tool_format": "Minimalistyczny format narzędzia"
}
},
"model_backend": {
"options": {
"llama_cpp_hf": "Llama.cpp (HuggingFace)",
"llama_cpp_existing": "Llama.cpp (istniejący model)",
"text-generation-webui_api": "text-generation-webui API",
"generic_openai": "Ogólne API kompatybilne z OpenAI",
"generic_openai_responses": "Ogólne API odpowiedzi kompatybilne z OpenAPI",
"llama_cpp_server": "Llama.cpp Server",
"ollama": "Ollama API"
}
},
"text_generation_webui_chat_mode": {
"options": {
"chat": "Chat",
"instruct": "Instruct",
"chat-instruct": "Chat-Instruct"
}
},
"selected_language": {
"options": {
"en": "Angielski",
"de": "Niemiecki",
"fr": "Francuski",
"es": "Hiszpański",
"pl": "Polski"
}
}
}
}