title: Legal German RoBERTa name: huggingface/joelito/legal-german-roberta-large description: > Statt ein öffentlich verfügbares Foundation-Modell zu verwenden, können wir auch selbst solche Modelle trainieren. Auf dieser Seite zeigen wir ein solches Modell, welches an unserem Institut auf einem Textkorpus mit rechtlicher Sprache vortrainiert wurde. Dadurch soll das Modell Textverarbeitungsaufgaben im Legal- Bereich deutlich besser lösen können als generische Modelle.
Die zwei hier gezeigten Foundation-Modelle wurden etwas anders trainiert als das vorher gezeigte GPT2-Modell: Wir nehmen einen Text und maskieren ein Wort davon (mit dem Stichwort ). Das Modell lernt nun, wie es dieses Wort voraussagen kann. Im Gegensatz zu GPT2 können die Modelle also auch vorausschauen - dafür sind sie weniger gut für Textgenerierung geeignet.
Wenn wir dem Modell nun verschiedene Beispiele von aktuellen Bundesgerichtsentscheiden mit einem maskierten Wort zeigen, macht es mit hoher Zuverlässigkeit einen guten Vorschlag, welches Wort fehlen könnte. Zum Vergleich zeigen wir im Tab "German BERT" ein gleich grosses generisches Modell, welches die Aufgabe deutlich weniger gut löst. examples: - > Die Beschwerdeführerin rügt sodann eine Verletzung des Verhältnismässigkeitsprinzips. Sie ist der Auffassung, dass die Publikationstätigkeit der WEKO den Grundsatz der gemäss Art. 5 Abs. 2 und Art. 36 BV wahren müsse. - > In der Folge leitete E. beim Zürich zwei Prozesse gegen seine frühere Arbeitgeberin ein. Im einen verlangte er Lohnfortzahlung, Genugtuung und die Ausstellung eines Arbeitszeugnisses; im andern Ersatz für Schaden, der ihm aus dem Verhalten der Bank entstanden sei. - > Der variable Teil der Vergütung aller Mitarbeiter, die der Verwaltungsrat in eigener Kompetenz beschliessen kann, darf nicht grösser als 15 Prozent des ausgewiesenen Reingewinnes sein. Will der Verwaltungsrat eine höhere variable Gesamtvergütung, muss er diese an der beantragen und begründen.