source

name: ruadapt-qwen2.5-32B-instruct
license: apache-2.0
tags:
- refalmachine
- multilingual
- text-generation
- text2text-generation
- natural language
- translate
- RefalMachine
- Alibaba Cloud
- Qwen
type:
- 24GB
- 32GB
- llm
- chat
- multilingual
- refalmachine
- qwen2
config:
- ctx=32768
- 5bit
- 4bit
resolutions:
datasets:
- IlyaGusev/saiga_scored
- IlyaGusev/saiga_preferences
- dichspace/darulm
language:
- en
- ru
size:
- 19818080576
- 23225788736
use:
shortcomings:
sources:
- Tikhomirov M., Chernyshev D. Facilitating large language model Russian adaptation with Learned Embedding Propagation // 2024 (will be soon)
- https://arxiv.org/abs/2312.02598
funded_by:
train_hardware:
pipeline_tag: text-generation
examples: (response) "А льп ак а — домашнее моз олен ого животное, предполож ительно произошедшеe от вик ун ьи ( виг они ). Раз воДят в высок огор ном по я се Южной Америки ( Ан Ды ). На сегодняшний день там обитает около трӫх миллионов аль пак, большая часть из которых нас еляет Перу. Вы ращ ивают аль пак для стр иж ки шерсти, из которой делают тёпл ые и мягкие од ея ла, пл ед ы и одежду, а из мех а делают предметы ДЛя дома."
Downloads last month
52
GGUF
Model size
32.7B params
Architecture
qwen2

4-bit

5-bit

Inference Examples
Unable to determine this model's library. Check the docs .

Datasets used to train darkshapes/ruadaptqwen2.5-32b-instruct-gguf