File size: 720 Bytes
8d8fd59
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
title: GPT2 # will be used as tab title and for the link.
name: huggingface/gpt2 # path to model
description: >
    Bei GPT2 handelt es sich um ein Vorläufermodell von
    GPT-3.5, auf dem ChatGPT beruht. Das Modell vervollständigt eingegebene Texte, in dem
    es immer ein wahrscheinliches nächstes Wort voraussagt. Allerdings hat es auch einen
    kleinen Zufallsfaktor, damit der gleiche Input nicht immer das gleiche Resultat liefern.
    Das hier vorgestellte deutschsprachige GPT-2 Modell hat 124 Millionen Parameter, ist also
    1400x kleiner als ChatGPT - und somit auch erkennbar schlechter in der Textgenerierung.
examples:
    - Paris is the capital of
    - Auf Deutsch funktioniert das Modell deutlich