Update README.md
Browse files
README.md
CHANGED
@@ -7,13 +7,13 @@ pipeline_tag: text-generation
|
|
7 |
|
8 |
## Llama-3-8B-Omnibus-1-PL-v01
|
9 |
|
10 |
-
Repozytorium zawiera model Meta Llama-3-8B-Omnibus-1-PL-v01 w wersji polskojęzycznej. Model postał na podstawie finetuningu modelu bazowego Llama-3-8B. Wykorzystano do tego dataset instrukcji Omnibus-1-PL (stworzony na potrzeby przeprowadzania eksperymenów finetuningu modeli w języku polskim). Szczegóły parametrów treningu w sekcji Trening. Celem tego eksperymentu było sprawdzenie czy można namówić Llama-3-8B do płynnego rozmawiania w języku polskim (oryginalny model instrukcyjny 8B ma z tym problem - woli zdecydowanie bardziej rozmawiać po angielsku).
|
11 |
|
12 |
### Sposób kodowania nazwy modelu
|
13 |
-
Nazwa modelu bazowego: Llama-3-8B
|
14 |
-
Nazwa datasetu: Omnibus-1
|
15 |
-
Wersja językowa: PL (polska)
|
16 |
-
Wersja modelu: v01
|
17 |
|
18 |
### Dataset
|
19 |
Omnibus-1 to zbiór polskich instrukcji (100% kontekstu Polskiego - fakty, osoby, miejsca osadzone w Polsce), który został w 100% syntetycznie wygenerowany. Zawiera on instrukcje z kategorii - matematyka, umiejętność pisania, dialogi, tematy medyczne, zagadki logiczne, tłumaczenia itd. Powstał on w ramach moich prac związanych z badaniem jakości modeli w kontekście języka polskiego. Pozwala on na finetuning modelu i sprawdzenie podatności modelu do mówienia w naszym rodzimym języku. Dataset zawiera obecnie 75.000 instrukcji. Będzie cały czas udoskonalony i być może w przyszłości udostępniony (jak uznam, że już jest wtstarczająco pełen i obejmuje szerokie spektrum tematyki i umiejętności). Dataset jest w 100% generowany za pomocą innych LLM (GPT3.5, GPT4, Mixtral itd.)
|
@@ -77,7 +77,7 @@ Szablon konwersacji to oryginalna wersja Llama3
|
|
77 |
|
78 |
### Wersje quantized
|
79 |
Wersje poddane quantyzacji są dostępne w repozytorium:
|
80 |
-
|
81 |
|
82 |
|
83 |
### Licencja
|
|
|
7 |
|
8 |
## Llama-3-8B-Omnibus-1-PL-v01
|
9 |
|
10 |
+
Repozytorium zawiera model Meta Llama-3-8B-Omnibus-1-PL-v01 w wersji polskojęzycznej. Model postał na podstawie finetuningu modelu bazowego Llama-3-8B. Jest to wersja eksperymentalna - powstała w trakcie badania możliwości Llama-3-8B w kontekście języka polskiego. Wykorzystano do tego dataset instrukcji Omnibus-1-PL (stworzony na potrzeby przeprowadzania eksperymenów finetuningu modeli w języku polskim). Szczegóły parametrów treningu w sekcji Trening. Celem tego eksperymentu było sprawdzenie czy można namówić Llama-3-8B do płynnego rozmawiania w języku polskim (oryginalny model instrukcyjny 8B ma z tym problem - woli zdecydowanie bardziej rozmawiać po angielsku).
|
11 |
|
12 |
### Sposób kodowania nazwy modelu
|
13 |
+
* Nazwa modelu bazowego: Llama-3-8B
|
14 |
+
* Nazwa datasetu: Omnibus-1
|
15 |
+
* Wersja językowa: PL (polska)
|
16 |
+
* Wersja modelu: v01
|
17 |
|
18 |
### Dataset
|
19 |
Omnibus-1 to zbiór polskich instrukcji (100% kontekstu Polskiego - fakty, osoby, miejsca osadzone w Polsce), który został w 100% syntetycznie wygenerowany. Zawiera on instrukcje z kategorii - matematyka, umiejętność pisania, dialogi, tematy medyczne, zagadki logiczne, tłumaczenia itd. Powstał on w ramach moich prac związanych z badaniem jakości modeli w kontekście języka polskiego. Pozwala on na finetuning modelu i sprawdzenie podatności modelu do mówienia w naszym rodzimym języku. Dataset zawiera obecnie 75.000 instrukcji. Będzie cały czas udoskonalony i być może w przyszłości udostępniony (jak uznam, że już jest wtstarczająco pełen i obejmuje szerokie spektrum tematyki i umiejętności). Dataset jest w 100% generowany za pomocą innych LLM (GPT3.5, GPT4, Mixtral itd.)
|
|
|
77 |
|
78 |
### Wersje quantized
|
79 |
Wersje poddane quantyzacji są dostępne w repozytorium:
|
80 |
+
* Llama-3-8B-Omnibus-1-PL-v01-GGUF - przetestowane w LM Studio (wybierz szablon - Llama3)
|
81 |
|
82 |
|
83 |
### Licencja
|