Inference
from unsloth import FastLanguageModel
import transformers
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "zabir-nabil/Bangla-Hal-DPO",
max_seq_length = 512,
load_in_4bit = True,
)
FastLanguageModel.for_inference(model)
context = "কমিয়ে আনতে পারে স্ট্রোকের ঝুঁকি ঢাকা খাদ্যাভ্যাস স্ট্রোকের ঝুঁকি কমিয়ে আনতে পারে এজন্য খাবারের বিষয়ে সচেতনতা দরকার অধিক চর্বি ও কোলেস্টেরলযুক্ত খাবার কম খাওয়া উচিত বলে মত দিয়েছেন চিকিৎসকরা রোববার ২৯ অক্টোবর জাতীয় প্রেসক্লাবের ভিআইপি লাউঞ্জে বিশ্ব স্ট্রোক দিবস উপলক্ষে আয়োজিত স্ট্রোক প্রতিরোধে আপনার করণীয়গুলো কি শীর্ষক গোলটেবিল আলোচনা সভায় চিকিৎসকরা এ মত দেন আলোচনা সভার আয়োজন করে বাংলাদেশ স্ট্রোক অ্যাসোসিয়েশন বিএসএ সভায় অংশগ্রহণ করে বিভিন্ন অ্যাসোসিয়েশনের চিকিৎসকরা জানান স্ট্রোক শুধু হার্টের অসুখ এ ধারণা ঠিক নয় হার্টের অসুখের সঙ্গে ব্রেন স্ট্রোকের সম্পর্ক আছে বিশ্বে প্রতিবছর ১৭ মিলিয়ন মানুষের স্ট্রোক হয় তার মধ্যে ৬ ৫ মিলিয়ন লোকের মৃত্যু হয় দেশে মৃত্যুর প্রায় ১৬ শতাংশ শুধু স্ট্রোকজনিত তারা আরও জানান স্ট্রোক যেকোনো ব্যক্তির যেকোনো বয়সের মানুষের হতে পারে ভয়াবহ এ স্বাস্থ্য ঝুঁকি মোকাবেলায় সরকারের পাশাপাশি সবাইকে সচেতন হতে হবে স্ট্রোক প্রতিরোধে সবাইকে ধূমপান ত্যাগ মাদক ও মদ্যপান পরিহার করতে হবে অধিক পরিমাণে শাকসবজি খেতে হবে খাবার থেকে লবণ ও মাংসের পরিমাণ কমাতে হবে বাংলাদেশ স্ট্রোক অ্যাসোসিয়েশন বিএসএ আয়োজিত আলোচনায় অংশ নেন বঙ্গবন্ধু শেখ মুজিব মেডিকেল বিশ্ববিদ্যালয় র বিএসএমএম মেডিসিন বিভাগের অধ্যাপক এমএম এ বারী ন্যাশনাল ইনস্টিটিউট অব নিউরোসায়েন্সের সহযোগী অধ্যাপক ডা সিরাজি শফিকুল ইসলাম শরমিতা মেডিকেল কলেজ ও হাসপাতালের অধ্যাপক ডা সামনুন এফ তাহা প্রমুখ বাংলাদেশ সময় ১৩৫৬ ঘণ্টা অক্টোবর ২৯ ২০১৭ এমএসি জেডএস"
query = "খাবারে কী কী কমাতে হবে স্ট্রোক প্রতিরোধের জন্য?"
message = [
{"role": "system", "content": "You are a helpful Bangla assistant."},
{"role": "user", "content": f"তথ্য: {context}\nপ্রশ্ন: {query}\nউত্তর:"}
]
prompt = tokenizer.apply_chat_template(message, add_generation_prompt=True, tokenize=False)
# pipeline
pipeline = transformers.pipeline(
"text-generation",
model=model,
tokenizer=tokenizer
)
terminators = [
pipeline.tokenizer.eos_token_id,
pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]
# generate text
sequences = pipeline(
prompt,
do_sample=True,
temperature=0.7,
top_p=0.9,
eos_token_id=terminators,
num_return_sequences=1,
)
print(sequences[0]['generated_text'][len(prompt):])
Uploaded model
- Developed by: zabir-nabil
- License: apache-2.0
- Finetuned from model : unsloth/llama-3-8B-instruct-bnb-4bit
This llama model was trained 2x faster with Unsloth and Huggingface's TRL library.