Finetune OpenThaiGPT 0.0.1 ( GPT-2 ) on Colab
Finetune OpenThaiGPT 0.0.1 ( GPT-2 ) on Colab
คือทำ
Thai ChatGPT เพื่อตอบคำถาม ของธุรกิจหรือหน่วยงาน ของตัวเอง
( 1.2 G parameters ประมาณ 500 MB. )
Colab Code
Developer: Kobkrit Viriyayudhakorn (kobkrit@iapp.co.th)
• ตัว Pretrained ใช้ GPT2-base-thai
pretrained_name = "flax-community/gpt2-base-thai"
Model Info
GPT2LMHeadModel(
(transformer): GPT2Model
( (wte): Embedding(50268, 768)
(wpe): Embedding(1024, 768)
(drop): Dropout(p=0.0, inplace=False)
(h): ModuleList( (0-11): 12 x GPT2Block
( (ln_1): LayerNorm((768,), eps=1e-05, elementwise_affine=True)
(attn): GPT2Attention( (c_attn): Conv1D()
(c_proj): Conv1D()
(attn_dropout): Dropout(p=0.0, inplace=False)
(resid_dropout): Dropout(p=0.0, inplace=False) )
(ln_2): LayerNorm((768,), eps=1e-05, elementwise_affine=True)
(mlp): GPT2MLP( (c_fc): Conv1D()
(c_proj): Conv1D() (act): NewGELUActivation()
(dropout): Dropout(p=0.0, inplace=False) ) ) )
(ln_f): LayerNorm((768,), eps=1e-05, elementwise_affine=True) )
(lm_head): Linear(in_features=768, out_features=50268, bias=False) )
• Train 1 Epoch ประมาณ 4 นาที
( ใช้ dataset แค่ 10,000 records จาก 298,678 )
( และใช้ FP16 mixed precision training )
ผลการทดสอบ
เนื่องจาก Answer เอามาจาก Comments ซึ่งมีคำตอบบ้าง คำบ่นบ้าง
บทความนี้ ไม่ได้เป็นผู้ก่อตั้งโครงการ
เห็นว่าเป็น โครงการที่ดี สร้างเทคโนโลยี AI ภาษาไทย เพื่อให้คนไทย ได้ใช้พัฒนากัน
Adun Nantakaew อดุลย์ นันทะแก้ว 081-6452400
LINE : adunnan
FaceBook : https://www.facebook.com/adun.nantakaew/
Web Blog : http://raspberrypi4u.blogspot.com/
Website : https://softpower.tech
ความคิดเห็น
แสดงความคิดเห็น