Update README.md
Browse files
README.md
CHANGED
@@ -42,6 +42,12 @@ De voornaamste verschillen tussen Boreas en GEITje zijn:
|
|
42 |
* Boreas is getraind met een context lengte van 2048 tokens, GEITje met 8192 tokens.
|
43 |
* Boreas is getraind op een mix van Engels en Nederlands, waar GEITje alleen op voornamelijk Nederlands getraind is.
|
44 |
|
|
|
|
|
|
|
|
|
|
|
|
|
45 |
## Doel Boreas
|
46 |
|
47 |
Creatie van een taalmodel dat wat betreft het Nederlandse gedeelte, niet getraind is op teksten gegeneerd door
|
@@ -60,13 +66,6 @@ Het uiteindelijke chat model is getraind op een mix van voornamelijk:
|
|
60 |
|
61 |
Het Boreas model kan dus beschouwd worden als een test voor knowledge transfer van Engels naar Nederlands.
|
62 |
|
63 |
-
|
64 |
-
## Gebruik met ollama
|
65 |
-
|
66 |
-
Kies een GGUF quant van [Boreas-7B-chat-v1-GGUF](https://huggingface.co/yhavinga/Boreas-7B-chat-v1-GGUF)
|
67 |
-
en volg de instructies daar.
|
68 |
-
Belangrijk: gebruik een system prompt, anders zijn de resultaten matig.
|
69 |
-
|
70 |
## Boreas-7B basismodel
|
71 |
|
72 |
Het basismodel is op Mistral-7B doorgetraind op 10 miljard tokens.
|
|
|
42 |
* Boreas is getraind met een context lengte van 2048 tokens, GEITje met 8192 tokens.
|
43 |
* Boreas is getraind op een mix van Engels en Nederlands, waar GEITje alleen op voornamelijk Nederlands getraind is.
|
44 |
|
45 |
+
## Gebruik met ollama
|
46 |
+
|
47 |
+
Kies een GGUF quant van [Boreas-7B-chat-v1-GGUF](https://huggingface.co/yhavinga/Boreas-7B-chat-v1-GGUF)
|
48 |
+
en volg de instructies daar.
|
49 |
+
Belangrijk: gebruik een system prompt, anders zijn de resultaten matig.
|
50 |
+
|
51 |
## Doel Boreas
|
52 |
|
53 |
Creatie van een taalmodel dat wat betreft het Nederlandse gedeelte, niet getraind is op teksten gegeneerd door
|
|
|
66 |
|
67 |
Het Boreas model kan dus beschouwd worden als een test voor knowledge transfer van Engels naar Nederlands.
|
68 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
69 |
## Boreas-7B basismodel
|
70 |
|
71 |
Het basismodel is op Mistral-7B doorgetraind op 10 miljard tokens.
|