Skip to content

Commit 090ee5e

Browse files
committed
Add Polish translations for new lessons and update links
This commit introduces Polish translations for several lessons, including the new setup guide and fine-tuning resources, enhancing the course's accessibility for Polish-speaking learners. Additionally, it updates internal links in various README files to ensure they correctly point to the relevant translated documents, improving navigability. An alternative approach could have been to leave the links unchanged, but updating them significantly enhances the user experience by providing direct access to the necessary content.
1 parent c8ae9c8 commit 090ee5e

File tree

9 files changed

+182
-10
lines changed
  • 00-course-setup/translations/pl
  • 03-using-generative-ai-responsibly/translations/pl
  • 04-prompt-engineering-fundamentals/translations/pl
  • 08-building-search-applications/translations/pl
  • 11-integrating-with-function-calling/translations/pl
  • 16-open-source-models/translations/pl
  • 18-fine-tuning/translations/pl
  • 19-slm/translations/pl
  • translations/pl

9 files changed

+182
-10
lines changed
Lines changed: 135 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,135 @@
1+
# Konfiguracja Środowiska Deweloperskiego
2+
3+
Skonfigurowaliśmy to repozytorium i kurs z [kontenerem deweloperskim](https://containers.dev?WT.mc_id=academic-105485-koreyst), który posiada środowisko uniwersalne wspierające rozwój w Python3, .NET, Node.js i Java. Powiązana konfiguracja jest zdefiniowana w pliku `devcontainer.json` znajdującym się w folderze `.devcontainer/` w głównym katalogu tego repozytorium.
4+
5+
Aby aktywować kontener deweloperski, uruchom go w [GitHub Codespaces](https://docs.github.com/en/codespaces/overview?WT.mc_id=academic-105485-koreyst) (dla środowiska hostowanego w chmurze) lub w [Docker Desktop](https://docs.docker.com/desktop/?WT.mc_id=academic-105485-koreyst) (dla środowiska hostowanego lokalnie na urządzeniu). Przeczytaj [tę dokumentację](https://code.visualstudio.com/docs/devcontainers/containers?WT.mc_id=academic-105485-koreyst), aby uzyskać więcej szczegółów na temat działania kontenerów deweloperskich w VS Code.
6+
7+
> [!PORADA]
8+
> Zalecamy korzystanie z GitHub Codespaces, aby szybko rozpocząć pracę przy minimalnym wysiłku. Zapewnia hojny [darmowy limit użycia](https://docs.github.com/billing/managing-billing-for-github-codespaces/about-billing-for-github-codespaces#monthly-included-storage-and-core-hours-for-personal-accounts?WT.mc_id=academic-105485-koreyst) dla kont osobistych. Skonfiguruj [limity czasowe](https://docs.github.com/codespaces/setting-your-user-preferences/setting-your-timeout-period-for-github-codespaces?WT.mc_id=academic-105485-koreyst), aby zatrzymać lub usunąć nieaktywne przestrzenie kodu i zmaksymalizować wykorzystanie limitu.
9+
10+
## 1. Wykonywanie Zadań
11+
12+
Każda lekcja będzie zawierać _opcjonalne_ zadania, które mogą być dostarczone w jednym lub kilku językach programowania, w tym: Python, .NET/C#, Java i JavaScript/TypeScript. Ta sekcja zawiera ogólne wskazówki dotyczące wykonywania tych zadań.
13+
14+
### 1.1 Zadania w Pythonie
15+
16+
Zadania w Pythonie są dostarczane jako aplikacje (pliki `.py`) lub notebooki Jupyter (pliki `.ipynb`).
17+
18+
- Aby uruchomić notebook, otwórz go w Visual Studio Code, a następnie kliknij _Wybierz Kernel_ (w prawym górnym rogu) i wybierz domyślną opcję Python 3. Teraz możesz wybrać _Uruchom Wszystko_, aby wykonać notebook.
19+
- Aby uruchomić aplikacje Python z linii poleceń, postępuj zgodnie z instrukcjami specyficznymi dla danego zadania, aby upewnić się, że wybierasz odpowiednie pliki i podajesz wymagane argumenty.
20+
21+
## 2. Konfiguracja Dostawców
22+
23+
Zadania **mogą** być również skonfigurowane do pracy z jednym lub wieloma wdrożeniami Large Language Model (LLM) za pośrednictwem wspieranego dostawcy usług, takiego jak OpenAI, Azure lub Hugging Face. Zapewniają one _hostowany punkt końcowy_ (API), do którego możemy uzyskać dostęp programistycznie przy użyciu odpowiednich poświadczeń (klucza API lub tokenu). W tym kursie omawiamy następujących dostawców:
24+
25+
- [OpenAI](https://platform.openai.com/docs/models?WT.mc_id=academic-105485-koreyst) z różnorodnymi modelami, w tym podstawową serią GPT.
26+
- [Azure OpenAI](https://learn.microsoft.com/azure/ai-services/openai/?WT.mc_id=academic-105485-koreyst) dla modeli OpenAI z naciskiem na gotowość dla przedsiębiorstw
27+
- [Hugging Face](https://huggingface.co/docs/hub/index?WT.mc_id=academic-105485-koreyst) dla modeli open-source i serwera wnioskowania
28+
29+
**Będziesz musiał użyć własnych kont dla tych ćwiczeń**. Zadania są opcjonalne, więc możesz wybrać konfigurację jednego, wszystkich - lub żadnego - dostawców w zależności od twoich zainteresowań. Niektóre wskazówki dotyczące rejestracji:
30+
31+
| Rejestracja | Koszt | Klucz API | Plac zabaw | Komentarze |
32+
| :---------------------------------------------------------------------------- | :------------------------------------------------------------------------------------------------------------------------ | :------------------------------------------------------------------------------------------------------------------- | :---------------------------------------------------------------------------------------------------------------------- | :--------------------------------------------------------------------------------------------------------------------------------------- |
33+
| [OpenAI](https://platform.openai.com/signup?WT.mc_id=academic-105485-koreyst) | [Cennik](https://openai.com/pricing#language-models?WT.mc_id=academic-105485-koreyst) | [Oparty na projekcie](https://platform.openai.com/api-keys?WT.mc_id=academic-105485-koreyst) | [No-Code, Web](https://platform.openai.com/playground?WT.mc_id=academic-105485-koreyst) | Dostępne wiele modeli |
34+
| [Azure](https://aka.ms/azure/free?WT.mc_id=academic-105485-koreyst) | [Cennik](https://azure.microsoft.com/pricing/details/cognitive-services/openai-service/?WT.mc_id=academic-105485-koreyst) | [Szybki start SDK](https://learn.microsoft.com/azure/ai-services/openai/quickstart?WT.mc_id=academic-105485-koreyst) | [Szybki start Studio](https://learn.microsoft.com/azure/ai-services/openai/quickstart?WT.mc_id=academic-105485-koreyst) | [Musisz złożyć wniosek o dostęp z wyprzedzeniem](https://learn.microsoft.com/azure/ai-services/openai/?WT.mc_id=academic-105485-koreyst) |
35+
| [Hugging Face](https://huggingface.co/join?WT.mc_id=academic-105485-koreyst) | [Cennik](https://huggingface.co/pricing) | [Tokeny dostępu](https://huggingface.co/docs/hub/security-tokens?WT.mc_id=academic-105485-koreyst) | [Hugging Chat](https://huggingface.co/chat/?WT.mc_id=academic-105485-koreyst) | [Hugging Chat ma ograniczoną liczbę modeli](https://huggingface.co/chat/models?WT.mc_id=academic-105485-koreyst) |
36+
| | | | | |
37+
38+
Postępuj zgodnie z poniższymi instrukcjami, aby _skonfigurować_ to repozytorium do użytku z różnymi dostawcami. Zadania, które wymagają konkretnego dostawcy, będą zawierać jeden z tych znaczników w nazwie pliku:
39+
40+
- `aoai` - wymaga punktu końcowego Azure OpenAI, klucza
41+
- `oai` - wymaga punktu końcowego OpenAI, klucza
42+
- `hf` - wymaga tokenu Hugging Face
43+
44+
Możesz skonfigurować jednego, żadnego lub wszystkich dostawców. Powiązane zadania po prostu zgłoszą błąd w przypadku braku poświadczeń.
45+
46+
### 2.1. Utworzenie pliku `.env`
47+
48+
Zakładamy, że już przeczytałeś powyższe wskazówki i zarejestrowałeś się u odpowiedniego dostawcy oraz uzyskałeś wymagane dane uwierzytelniające (API_KEY lub token). W przypadku Azure OpenAI zakładamy, że masz również prawidłowe wdrożenie usługi Azure OpenAI (punkt końcowy) z co najmniej jednym modelem GPT wdrożonym do uzupełniania czatu.
49+
50+
Następnym krokiem jest skonfigurowanie **lokalnych zmiennych środowiskowych** w następujący sposób:
51+
52+
1. Poszukaj w głównym folderze pliku `.env.copy`, który powinien mieć zawartość podobną do tej:
53+
54+
```bash
55+
# OpenAI Provider
56+
OPENAI_API_KEY='<dodaj tutaj swój klucz API OpenAI>'
57+
58+
## Azure OpenAI
59+
AZURE_OPENAI_API_VERSION='2024-02-01' # Domyślnie ustawione!
60+
AZURE_OPENAI_API_KEY='<dodaj tutaj swój klucz AOAI>'
61+
AZURE_OPENAI_ENDPOINT='<dodaj tutaj punkt końcowy usługi AOIA>'
62+
AZURE_OPENAI_DEPLOYMENT='<dodaj tutaj nazwę modelu uzupełniania czatu>'
63+
AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='<dodaj tutaj nazwę modelu embeddingów>'
64+
65+
## Hugging Face
66+
HUGGING_FACE_API_KEY='<dodaj tutaj swój API lub token HuggingFace>'
67+
```
68+
69+
2. Skopiuj ten plik do `.env` używając poniższego polecenia. Ten plik jest _ignorowany przez git_, co zapewnia bezpieczeństwo tajnych danych.
70+
71+
```bash
72+
cp .env.copy .env
73+
```
74+
75+
3. Wypełnij wartości (zastąp elementy zastępcze po prawej stronie `=`) zgodnie z opisem w następnej sekcji.
76+
77+
4. (Opcja) Jeśli korzystasz z GitHub Codespaces, masz możliwość zapisania zmiennych środowiskowych jako _sekrety Codespaces_ powiązane z tym repozytorium. W tym przypadku nie będziesz musiał konfigurować lokalnego pliku .env. **Jednak pamiętaj, że ta opcja działa tylko wtedy, gdy korzystasz z GitHub Codespaces.** Nadal będziesz musiał skonfigurować plik .env, jeśli zamiast tego używasz Docker Desktop.
78+
79+
### 2.2. Wypełnianie pliku `.env`
80+
81+
Przyjrzyjmy się nazwom zmiennych, aby zrozumieć, co reprezentują:
82+
83+
| Zmienna | Opis |
84+
| :--------------------------------- | :------------------------------------------------------------------------------------------------ |
85+
| HUGGING_FACE_API_KEY | To jest token dostępu użytkownika, który konfigurujesz w swoim profilu |
86+
| OPENAI_API_KEY | To jest klucz autoryzacyjny do korzystania z usługi dla punktów końcowych OpenAI innych niż Azure |
87+
| AZURE_OPENAI_API_KEY | To jest klucz autoryzacyjny do korzystania z tej usługi |
88+
| AZURE_OPENAI_ENDPOINT | To jest wdrożony punkt końcowy dla zasobu Azure OpenAI |
89+
| AZURE_OPENAI_DEPLOYMENT | To jest punkt końcowy wdrożenia modelu _generowania tekstu_ |
90+
| AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT | To jest punkt końcowy wdrożenia modelu _embeddingów tekstu_ |
91+
| | |
92+
93+
Uwaga: Ostatnie dwie zmienne Azure OpenAI odzwierciedlają domyślny model dla uzupełniania czatu (generowanie tekstu) i wyszukiwania wektorowego (embeddingi). Instrukcje dotyczące ich ustawienia będą zdefiniowane w odpowiednich zadaniach.
94+
95+
### 2.3 Konfiguracja Azure: Z Portalu
96+
97+
Wartości punktu końcowego i klucza Azure OpenAI można znaleźć w [Portalu Azure](https://portal.azure.com?WT.mc_id=academic-105485-koreyst), więc zacznijmy od tego.
98+
99+
1. Przejdź do [Portalu Azure](https://portal.azure.com?WT.mc_id=academic-105485-koreyst)
100+
1. Kliknij opcję **Klucze i punkt końcowy** w pasku bocznym (menu po lewej stronie).
101+
1. Kliknij **Pokaż klucze** - powinieneś zobaczyć następujące informacje: KLUCZ 1, KLUCZ 2 i Punkt końcowy.
102+
1. Użyj wartości KLUCZ 1 dla AZURE_OPENAI_API_KEY
103+
1. Użyj wartości Punkt końcowy dla AZURE_OPENAI_ENDPOINT
104+
105+
Następnie potrzebujemy punktów końcowych dla konkretnych modeli, które wdrożyliśmy.
106+
107+
1. Kliknij opcję **Wdrożenia modeli** w pasku bocznym (menu po lewej) dla zasobu Azure OpenAI.
108+
1. Na stronie docelowej kliknij **Zarządzaj wdrożeniami**
109+
110+
Przeniesie Cię to do witryny Azure OpenAI Studio, gdzie znajdziesz pozostałe wartości opisane poniżej.
111+
112+
### 2.4 Konfiguracja Azure: Ze Studio
113+
114+
1. Przejdź do [Azure OpenAI Studio](https://oai.azure.com?WT.mc_id=academic-105485-koreyst) **ze swojego zasobu**, jak opisano powyżej.
115+
1. Kliknij zakładkę **Wdrożenia** (pasek boczny, po lewej), aby zobaczyć aktualnie wdrożone modele.
116+
1. Jeśli twój pożądany model nie jest wdrożony, użyj **Utwórz nowe wdrożenie**, aby go wdrożyć.
117+
1. Będziesz potrzebować modelu _generowania tekstu_ - zalecamy: **gpt-35-turbo**
118+
1. Będziesz potrzebować modelu _embeddingów tekstu_ - zalecamy **text-embedding-ada-002**
119+
120+
Teraz zaktualizuj zmienne środowiskowe, aby odzwierciedlały użytą _nazwę wdrożenia_. Zazwyczaj będzie ona taka sama jak nazwa modelu, chyba że wyraźnie ją zmieniłeś. Więc, jako przykład, możesz mieć:
121+
122+
```bash
123+
AZURE_OPENAI_DEPLOYMENT='gpt-35-turbo'
124+
AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='text-embedding-ada-002'
125+
```
126+
127+
**Nie zapomnij zapisać pliku .env po zakończeniu**. Możesz teraz wyjść z pliku i wrócić do instrukcji dotyczących uruchamiania notebooka.
128+
129+
### 2.5 Konfiguracja OpenAI: Z Profilu
130+
131+
Twój klucz API OpenAI można znaleźć na twoim [koncie OpenAI](https://platform.openai.com/api-keys?WT.mc_id=academic-105485-koreyst). Jeśli go nie masz, możesz zarejestrować konto i utworzyć klucz API. Po uzyskaniu klucza możesz użyć go do wypełnienia zmiennej `OPENAI_API_KEY` w pliku `.env`.
132+
133+
### 2.6 Konfiguracja Hugging Face: Z Profilu
134+
135+
Twój token Hugging Face można znaleźć w twoim profilu w sekcji [Tokeny dostępu](https://huggingface.co/settings/tokens?WT.mc_id=academic-105485-koreyst). Nie publikuj ani nie udostępniaj ich publicznie. Zamiast tego utwórz nowy token do użytku w tym projekcie i skopiuj go do pliku `.env` w zmiennej `HUGGING_FACE_API_KEY`. _Uwaga:_ Technicznie nie jest to klucz API, ale służy do uwierzytelniania, więc zachowujemy tę konwencję nazewnictwa dla spójności.

03-using-generative-ai-responsibly/translations/pl/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -96,7 +96,7 @@ Teraz czas znaleźć sposoby, w jakie możemy zapobiec lub ograniczyć potencjal
9696

9797
- **Metaprompt**. Metaprompty i ugruntowanie są sposobami, w jakie możemy kierować lub ograniczać model na podstawie pewnych zachowań i informacji. Może to być używanie danych wejściowych systemu do definiowania pewnych ograniczeń modelu. Dodatkowo, dostarczanie rezultatów, które są bardziej odpowiednie dla zakresu lub domeny systemu.
9898

99-
Może to być również używanie technik takich jak Retrieval Augmented Generation (RAG), aby model pobierał informacje tylko z wyboru zaufanych źródeł. Jest lekcja później w tym kursie o [budowaniu aplikacji wyszukiwania](../../08-building-search-applications/README.md?WT.mc_id=academic-105485-koreyst)
99+
Może to być również używanie technik takich jak Retrieval Augmented Generation (RAG), aby model pobierał informacje tylko z wyboru zaufanych źródeł. Jest lekcja później w tym kursie o [budowaniu aplikacji wyszukiwania](../../../08-building-search-applications/README.md?WT.mc_id=academic-105485-koreyst)
100100

101101
- **Doświadczenie Użytkownika**. Ostatnia warstwa to miejsce, gdzie użytkownik bezpośrednio wchodzi w interakcję z modelem poprzez interfejs naszej aplikacji w jakiś sposób. W ten sposób możemy zaprojektować UI/UX, aby ograniczyć użytkownika w zakresie rodzajów danych wejściowych, które mogą wysłać do modelu, a także tekstu lub obrazów wyświetlanych użytkownikowi. Podczas wdrażania aplikacji SI musimy również być przejrzyści co do tego, co nasza aplikacja Generatywnej SI może i czego nie może zrobić.
102102

04-prompt-engineering-fundamentals/translations/pl/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -37,7 +37,7 @@ Notebook Jupyter towarzyszący tej lekcji zapewnia środowisko _sandbox_, w któ
3737

3838
1. **Klucza API Azure OpenAI** - punktu końcowego usługi dla wdrożonego LLM.
3939
2. **Środowiska Wykonawczego Python** - w którym można uruchomić Notebook.
40-
3. **Lokalnych Zmiennych Środowiskowych** - _wykonaj teraz kroki [SETUP](./../00-course-setup/SETUP.md?WT.mc_id=academic-105485-koreyst), aby być gotowym_.
40+
3. **Lokalnych Zmiennych Środowiskowych** - _wykonaj teraz kroki [SETUP](../../../00-course-setup/translations/pl/SETUP.md?WT.mc_id=academic-105485-koreyst), aby być gotowym_.
4141

4242
Notebook zawiera ćwiczenia _startowe_ - ale zachęcamy do dodawania własnych sekcji _Markdown_ (opis) i _Code_ (żądania promptów), aby wypróbować więcej przykładów lub pomysłów - i zbudować swoją intuicję dotyczącą projektowania promptów.
4343

08-building-search-applications/translations/pl/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -150,7 +150,7 @@ az cognitiveservices account deployment create \
150150

151151
## Rozwiązanie
152152

153-
Otwórz [notatnik z rozwiązaniem](../python/aoai-solution.ipynb?WT.mc_id=academic-105485-koreyst) w GitHub Codespaces i postępuj zgodnie z instrukcjami w Jupyter Notebook.
153+
Otwórz [notatnik z rozwiązaniem](../../python/aoai-solution.ipynb?WT.mc_id=academic-105485-koreyst) w GitHub Codespaces i postępuj zgodnie z instrukcjami w Jupyter Notebook.
154154

155155
Gdy uruchomisz notatnik, zostaniesz poproszony o wprowadzenie zapytania. Pole wprowadzania będzie wyglądać tak:
156156

11-integrating-with-function-calling/translations/pl/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -45,7 +45,7 @@ Wywołanie funkcji to funkcja usługi Azure OpenAI, która pozwala przezwycięż
4545

4646
## Ilustracja problemu na podstawie scenariusza
4747

48-
> Zalecamy skorzystanie z [dołączonego notebooka](./python/aoai-assignment.ipynb?WT.mc_id=academic-105485-koreyst), jeśli chcesz uruchomić poniższy scenariusz. Możesz też po prostu czytać dalej, ponieważ staramy się zilustrować problem, w rozwiązaniu którego mogą pomóc funkcje.
48+
> Zalecamy skorzystanie z [dołączonego notebooka](../../python/aoai-assignment.ipynb?WT.mc_id=academic-105485-koreyst), jeśli chcesz uruchomić poniższy scenariusz. Możesz też po prostu czytać dalej, ponieważ staramy się zilustrować problem, w rozwiązaniu którego mogą pomóc funkcje.
4949
5050
Przyjrzyjmy się przykładowi, który ilustruje problem z formatem odpowiedzi:
5151

16-open-source-models/translations/pl/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -2,7 +2,7 @@
22

33
## Wprowadzenie
44

5-
Świat modeli LLM typu open-source jest ekscytujący i ciągle się rozwija. Ta lekcja ma na celu zapewnienie dogłębnego spojrzenia na modele open source. Jeśli szukasz informacji na temat porównania modeli zastrzeżonych z modelami open source, przejdź do lekcji ["Odkrywanie i porównywanie różnych LLM"](../02-exploring-and-comparing-different-llms/README.md?WT.mc_id=academic-105485-koreyst). Ta lekcja obejmie również temat dostrajania (fine-tuning), ale bardziej szczegółowe wyjaśnienie można znaleźć w lekcji ["Dostrajanie LLM"](../18-fine-tuning/README.md?WT.mc_id=academic-105485-koreyst).
5+
Świat modeli LLM typu open-source jest ekscytujący i ciągle się rozwija. Ta lekcja ma na celu zapewnienie dogłębnego spojrzenia na modele open source. Jeśli szukasz informacji na temat porównania modeli zastrzeżonych z modelami open source, przejdź do lekcji ["Odkrywanie i porównywanie różnych LLM"](../../../02-exploring-and-comparing-different-llms/README.md?WT.mc_id=academic-105485-koreyst). Ta lekcja obejmie również temat dostrajania (fine-tuning), ale bardziej szczegółowe wyjaśnienie można znaleźć w lekcji ["Dostrajanie LLM"](../../../18-fine-tuning/README.md?WT.mc_id=academic-105485-koreyst).
66

77
## Cele nauki
88

0 commit comments

Comments
 (0)