|
--- |
|
license: apache-2.0 |
|
widget: |
|
- text: >- |
|
Қазақстан Еуразия құрлығының орталығында орналасқан және аумақтың көлемі |
|
бойынша (жер шарының бетінде 2%) әлемде тоғызыншы орынға ие. Қазақстан |
|
аумағы бүкіл Батыс Еуропадан үлкен. Қазақстан жер көлемі жөнінен дүние |
|
жүзінде нешінші орында? |
|
example_title: example 1 |
|
- text: >- |
|
Қар ұсақ мұз кристалдарынан тұрады. Қар деп атмосфералық жауын-шашынды айтады. Қар деген не? |
|
example_title: example 2 |
|
- text: >- |
|
Абай ақын туралы 4 томдық "Абай жолы" романы жазылған. Бұл романның авторы Мұхтар Әуезов. Бұл кітаптарда бала Абайдың тұлға, әрі болашақ ақын болып қалыптасқанға дейінгі уақыттар кезеңдермен жазылған. «Абай жолы» романын жазған кім? |
|
example_title: example 3 |
|
language: |
|
- kk |
|
--- |
|
## Model Details |
|
- **Developed by**: Aldiyar Saken, Sultaniyar Quandyq, Alibek Kamiluly, Kurmash Apayev and Aliya Nugumanova. |
|
|
|
## Model Description |
|
|
|
This model is based on the google/mt5-large model. The model was fine-tuned on a Kazakh language version of the Stanford Question Answering Dataset (SQuAD) using 30,000 samples. |
|
|
|
## Inference |
|
|
|
```python |
|
|
|
from transformers import T5Tokenizer, T5TokenizerFast |
|
from transformers import T5ForConditionalGeneration |
|
import sentencepiece |
|
|
|
tokenizer = T5Tokenizer.from_pretrained("Kyrmasch/t5-kazakh-qa") |
|
model = T5ForConditionalGeneration.from_pretrained("Kyrmasch/t5-kazakh-qa") |
|
|
|
context = "Қазақстан Еуразия құрлығының орталығында орналасқан және аумақтың көлемі бойынша (жер шарының бетінде 2%) әлемде тоғызыншы орынға ие. Қазақстан аумағы бүкіл Батыс Еуропадан үлкен." |
|
question = "Қазақстан жер көлемі жөнінен дүние жүзінде нешінші орында?" |
|
|
|
encoded = tokenizer.encode_plus(context, question, max_length=128, pad_to_max_length=True, truncation=True, return_tensors="pt") |
|
input_ids = encoded["input_ids"].to('cpu') |
|
attention_mask = encoded["attention_mask"].to('cpu') |
|
output = model.generate(input_ids=input_ids, attention_mask=attention_mask, max_length=128) |
|
answer = ''.join([tokenizer.decode(ids, skip_special_tokens=True) for ids in output]) |
|
``` |