|
--- |
|
license: mit |
|
language: |
|
- de |
|
widget: |
|
- text: <user> Hallo <End> |
|
pipeline_tag: text-generation |
|
tags: |
|
- german |
|
- gpt2 |
|
- fine-tuned |
|
- text-generation |
|
- mathematics |
|
- general-knowledge |
|
- conversation |
|
- AI |
|
- NLP |
|
- deep-learning |
|
- machine-learning |
|
library_name: transformers |
|
base_model: |
|
- kkirchheim/german-gpt2-medium |
|
--- |
|
|
|
# AtomicGPT 1 |
|
|
|
AtomicGPT 1 ist ein deutsches KI-Sprachmodell, das auf `GPT-2 Medium` basiert und speziell für die Verarbeitung der deutschen Sprache optimiert wurde. Das Modell wurde mit einem **1 MB großen Datensatz** trainiert, der **Mathematik, Allgemeinwissen und Gesprächsdaten** umfasst. Dabei wurde ein besonderer Fokus auf Konversationsfähigkeiten gelegt, da dieser Bereich die meisten Trainingsdaten erhielt. |
|
|
|
## Trainingsdetails |
|
- **Modellbasis**: `kkirchheim/german-gpt2-medium` |
|
- **Datensatzgröße**: 1 MB |
|
- **Trainingsdauer**: 5 Stunden |
|
- **Epochen**: 100 |
|
- **Trainingsziele**: Verbesserung der generellen Sprachfähigkeiten in Deutsch mit Fokus auf Mathematik, Allgemeinwissen und natürliche Gespräche |
|
|
|
## Anwendungsmöglichkeiten |
|
AtomicGPT 1 eignet sich für verschiedene Anwendungsfälle, darunter: |
|
- **Textgenerierung**: Erzeugung natürlicher und zusammenhängender deutscher Texte |
|
- **Mathematische Problemstellungen**: Unterstützung bei Berechnungen und Problemlösungen |
|
- **Allgemeinwissen**: Bereitstellung fundierter Antworten zu verschiedenen Themenbereichen |
|
- **Dialogsysteme**: Interaktive und realistische Konversationen auf Deutsch |
|
|
|
## Lizenz |
|
AtomicGPT 1 steht unter der **MIT-Lizenz**, was eine flexible Nutzung und Weiterentwicklung ermöglicht. |
|
|
|
## Installation & Nutzung |
|
Das Modell kann mit der `transformers`-Bibliothek von Hugging Face genutzt werden: |
|
|
|
```python |
|
from transformers import GPT2LMHeadModel, AutoTokenizer |
|
|
|
model_name = "Atomic-Ai/AtomicGPT-1" |
|
model = GPT2LMHeadModel.from_pretrained(model_name) |
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
|
|
prompt = "Was ist die Hauptstadt von Deutschland?" |
|
input_ids = tokenizer(prompt, return_tensors="pt").input_ids |
|
output = model.generate(input_ids, max_length=100) |
|
print(tokenizer.decode(output[0], skip_special_tokens=True)) |
|
``` |
|
|
|
## Bild |
|
 |
|
|
|
--- |
|
AtomicGPT 1 ist ein kompaktes, aber leistungsfähiges deutsches Sprachmodell, das für spezifische Anwendungsfälle optimiert wurde. Es kann als Basis für weiterführende Entwicklungen oder als eigenständiges KI-Tool genutzt werden. |