--- base_model: unsloth/meta-llama-3.1-8b-bnb-4bit tags: - text-generation-inference - transformers - unsloth - sebaxakerhtc - bggpt - llama - gguf license: apache-2.0 language: - bg datasets: - burgasdotpro/synthetic_dataset - wikimedia/wikipedia --- Актуализиран 06.01.2025 - Changed training params - Continued pretraining - Уикипедиа 10% Актуализиран 03.01.2025 - Continued pretraining - Уикипедиа 20% Актуализиран 01.01.2025 - Continued pretraining - Уикипедиа 10% Актуализиран 30.12.2024 - по-дълги отговори - по-подробна информация - по-дълбоко обучение - ~2500 реда синтетични данни ~~Първите резултати, които не са лоши...~~ ~~Засега е тренирана върху моят малък датасет с 2000 реда синтетични данни (формат: въпрос-отговор)~~ # Пример на работа ### Въпрос: Как компания Burgas Professionals е свързана с ПГМЕЕ? ### Отговор: Компания "Burgas Professionals" поддържа тесни връзки с Професионалната гимназия по мехатроника и електроенергетика (ПГМЕЕ) в Бургас. Тези връзки включват партньорства, лекции и обучителни програми, които помагат на учениците да развият умения в областта на информационните технологии и IT управление. Основната цел е да се осигури на младото поколение достъп до актуална информация и практически опит, който ще ги направи готови за бъдещата работна среда. Чрез тези партньорства ПГМЕЕ и Burgas Professionals работят заедно за развитие на технологиите в региона и за подготовка на нови поколения IT специалисти. Тази llama модела тренирана 2 пъти по-бързо с помоща на [Unsloth](https://github.com/unslothai/unsloth) и TRL библиотеката на Huggingface. # Uploaded model - **Developed by:** burgasdotpro - **License:** apache-2.0 - **Finetuned from model :** unsloth/meta-llama-3.1-8b-bnb-4bit [](https://github.com/unslothai/unsloth)