🇲🇲 Qwen-1.5B-Burmese-SFT (Experimental Version)
⚠️ သတိပေးချက်: ဤမော်ဒယ်သည် စမ်းသပ်မှုအဆင့်သာဖြစ်ပြီး ပြည့်စုံမှုမရှိသေးပါ
📌 နိဒါန်း
မြန်မာဘာသာစကား (Burmese) အတွက် ပထမဆုံး စမ်းသပ်ပြုလုပ်ထားသော Qwen မော်ဒယ်ဖြစ်သည်။ Supervised Fine-Tuning (SFT) နည်းဖြင့် လေ့ကျင့်ထားပြီး ပြည့်စုံမှုမရှိသေးသည့် စမ်းသပ်ဗားရှင်းတစ်ခုဖြစ်သည်။
📊 မော်ဒယ်အချက်အလက်
| Parameter | Value |
|---|---|
| Base Model | Qwen1.5-1.5B |
| Language | Burmese (မြန်မာစာ) |
| Parameters | 1.5 Billion |
| Training Method | Supervised Fine-Tuning (SFT) |
| Training Data | ~5,000 Burmese samples |
| Status | 🚧 Experimental |
| License | MIT |
🔧 အသုံးပြုနည်း
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "URajinda/Qwen-1.5B-Burmese-SFT"
# Load model
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Generate response
prompt = "မြန်မာနိုင်ငံ၏ မြို့တော်သည် အဘယ်နေရာလဲ။"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
with torch.no_grad():
outputs = model.generate(**inputs, max_length=100)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(f"အဖြေ: {response}")
- Downloads last month
- 25