title: GPT2 # will be used as tab title and for the link. name: huggingface/gpt2 # path to model description: > Bei GPT2 handelt es sich um ein Vorläufermodell von GPT-3.5, auf dem ChatGPT beruht. Das Modell vervollständigt eingegebene Texte, in dem es immer ein wahrscheinliches nächstes Wort voraussagt. Allerdings hat es auch einen kleinen Zufallsfaktor, damit der gleiche Input nicht immer das gleiche Resultat liefern. Das hier vorgestellte deutschsprachige GPT-2 Modell hat 124 Millionen Parameter, ist also 1400x kleiner als ChatGPT - und somit auch erkennbar schlechter in der Textgenerierung. examples: - Paris is the capital of - Auf Deutsch funktioniert das Modell deutlich