jachermann/DiscoLM_German_7b_v1_court_finetuned

The Model jachermann/DiscoLM_German_7b_v1_court_finetuned was converted to MLX format from DiscoResearch/DiscoLM_German_7b_v1 and finetuned with a dataset of about 200 text conversion instructions using mlx-lm version 0.21.4.

finetuned for court text conversion

Protokollierte Aussagen in indirekte Rede konvertieren:

INPUT: "Ich kenne Herrn Furrer durch seine Bautätigkeiten bei anderen Objekten. Diese Gesellschaft kannte ich nicht, bis ich dies so im Werkvertrag so gesehen habe. Ich hatte vorher mit der Gesellschaft keinen Kontakt."

OUTPUT: "Er kenne Herrn Furrer durch dessen Bautätigkeiten bei anderen Objekten. Diese Gesellschaft habe er nicht gekannt, bis er dies so im Werkvertrag gesehen habe. Er habe vorher mit der Gesellschaft keinen Kontakt gehabt."

Protokollierte Fragen in indirekte Rede konvertieren:

INPUT: "Herr X sagte anlässlich seiner Einvernahme vom 03.11.2020 aus, dass mit Ihnen eine Bonuszahlung vereinbart worden ist. Warum sollte er sich selbst belasten, wenn das nicht stimmt?"

OUTPUT: ""Herr X habe anlässlich seiner Einvernahme vom 03.11.2020 ausgesagt, dass mit ihm eine Bonuszahlung vereinbart worden sei. Warum dieser sich selbst belasten solle, wenn das nicht stimme:""

Use with mlx

pip install mlx-lm
from mlx_lm import load, generate

model, tokenizer = load("jachermann/DiscoLM_German_7b_v1_court_finetuned")

prompt = "hello"

if tokenizer.chat_template is not None:
    messages = [{"role": "user", "content": prompt}]
    prompt = tokenizer.apply_chat_template(
        messages, add_generation_prompt=True
    )

response = generate(model, tokenizer, prompt=prompt, verbose=True)
Downloads last month
0
Safetensors
Model size
7.24B params
Tensor type
FP16
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no pipeline_tag.

Model tree for jachermann/DiscoLM_German_7b_v1_court_finetuned

Finetuned
(2)
this model