Finetune OpenThaiGPT 0.0.1 ( GPT-2 ) on Colab

Finetune OpenThaiGPT 0.0.1 ( GPT-2 ) on Colab

คือทำ
Thai ChatGPT เพื่อตอบคำถาม ของธุรกิจหรือหน่วยงาน ของตัวเอง

ตาม Colab code ของ OpenThaiGPT version 0.0.1 ซึ่งเป็น GPT-2
( 1.2 G parameters ประมาณ 500 MB. )

Colab Code
Developer: Kobkrit Viriyayudhakorn (kobkrit@iapp.co.th)

• ตัว Pretrained ใช้ GPT2-base-thai
pretrained_name = "flax-community/gpt2-base-thai"

Model Info


GPT2LMHeadModel(

(transformer): GPT2Model

( (wte): Embedding(50268, 768)

(wpe): Embedding(1024, 768)

(drop): Dropout(p=0.0, inplace=False)

(h): ModuleList( (0-11): 12 x GPT2Block

( (ln_1): LayerNorm((768,), eps=1e-05, elementwise_affine=True)

(attn): GPT2Attention( (c_attn): Conv1D()

(c_proj): Conv1D()

(attn_dropout): Dropout(p=0.0, inplace=False)

(resid_dropout): Dropout(p=0.0, inplace=False) )

(ln_2): LayerNorm((768,), eps=1e-05, elementwise_affine=True)

(mlp): GPT2MLP( (c_fc): Conv1D()

(c_proj): Conv1D() (act): NewGELUActivation()

(dropout): Dropout(p=0.0, inplace=False) ) ) )

(ln_f): LayerNorm((768,), eps=1e-05, elementwise_affine=True) )

(lm_head): Linear(in_features=768, out_features=50268, bias=False) )









































Dataset จาก Web Pantip
298,678 QA Pairs getting from 70,000 Pantip กระทู้
































GPU on Colab
ต้องใช้ NVIDIA A100 40GB เพราะการ Train. Model ใช้อย่างน้อย 30 GB


Train 1 Epoch ประมาณ 4 นาที
( ใช้ dataset แค่ 10,000 records จาก 298,678 )
( และใช้ FP16 mixed precision training )

TrainOutput(global_step=750,
training_loss=1.7032803548177082,
metrics={'train_runtime': 244.3432,
'train_samples_per_second': 36.833,
'train_steps_per_second': 3.069,
'total_flos': 4703256576000000.0,
'train_loss': 1.7032803548177082,
'epoch': 1.0})






















ผลการทดสอบ


เนื่องจาก Answer เอามาจาก Comments ซึ่งมีคำตอบบ้าง คำบ่นบ้าง


บทความนี้ ไม่ได้เป็นผู้ก่อตั้งโครงการ 
เห็นว่าเป็น โครงการที่ดี สร้างเทคโนโลยี AI ภาษาไทย เพื่อให้คนไทย ได้ใช้พัฒนากัน

Adun Nantakaew อดุลย์ นันทะแก้ว 081-6452400
LINE : adunnan




ความคิดเห็น

โพสต์ยอดนิยมจากบล็อกนี้

OpenThaiGPT 1.0.0 7B beta GPTQ 4 bit

OpenThaiGPT 1.0.0 70B Demo on Colab

Demo OpenThaiGPT 1.0.0-beta on Colab