บทความ

กำลังแสดงโพสต์จาก กรกฎาคม, 2023

Demo OpenThaiGPT 0.1.0-beta on Colab

รูปภาพ
ทดสอบ OpenThaiGPT  ซึ่งเป็น LLM GPT-3 ภาษาไทย  เอาไปทำ chatGPT ภาษาไทย ใช้เองได้ ทำ chatGPT ตอบคำถาม ข้อมูลของหน่วยงาน และธุรกิจ ของตัวเองได้ more info   https://aiotplatform.blogspot.com/2023/07/openthaigpt.html มาโชว์ผลการทดสอบกันก่อนเลย ดีกว่า ขั้นตอนการทดสอบ • Colab Code จาก OpenThaiGPT   https://openthaigpt.aieat.or.th/ https://colab.research.google.com/drive/1nZ6Vc2U6rOezsMxarGJY7oDw8RG5E4r_?usp=sharing#scrollTo=lsOjziA3Dppt • GPU on Colab ใช้ NVIDIA T4 15 GB ( เป็นตัวเล็กสุดของ GPU บน Google Colab ) • Base Model และ LoRA Weights Base Model : Facebook LLaMA 7 B-parameter https://huggingface.co/decapoda-research/llama-7b-hf Weight (Lora Adapter)   : openthaigpt-0.1.0-beta   https://huggingface.co/kobkrit/openthaigpt-0.1.0-beta Run Model ใช้ GPU RAM ประมาณ 14 GB ( น่าจะเป็น model FP16 : half precision ) ทดลอง ใช้เป็น 8 bit Model GPU RAM ใช้น้อยลงเป็น ที่ 9 GB LLaMA 8 bit Model from META ( Facebook ) About LLaMA Meta have released LLaMA, an LLM comprising 4 foundation models w

Finetune OpenThaiGPT 0.0.1 ( GPT-2 ) on Colab

รูปภาพ
Finetune OpenThaiGPT 0.0.1 ( GPT-2 ) on Colab คือทำ Thai ChatGPT เพื่อตอบคำถาม ของธุรกิจหรือหน่วยงาน ของตัวเอง ตาม Colab code ของ OpenThaiGPT version 0.0.1 ซึ่งเป็น GPT-2 ( 1.2 G parameters ประมาณ 500 MB. ) Colab Code https://colab.research.google.com/.../1MA1FHwknrs6mVstOHc... Developer: Kobkrit Viriyayudhakorn (kobkrit@iapp.co.th) • ตัว Pretrained ใช้ GPT2-base-thai pretrained_name = "flax-community/gpt2-base-thai" Model Info GPT2LMHeadModel ( (transformer): GPT2Model ( (wte): Embedding(50268, 768) (wpe): Embedding(1024, 768) (drop): Dropout(p=0.0, inplace=False) (h): ModuleList( (0-11): 12 x GPT2Block ( (ln_1): LayerNorm((768,), eps=1e-05, elementwise_affine=True) (attn): GPT2Attention( (c_attn): Conv1D() (c_proj): Conv1D() (attn_dropout): Dropout(p=0.0, inplace=False) (resid_dropout): Dropout(p=0.0, inplace=False) ) (ln_2): LayerNorm((768,), eps=1e-05, elementwise_affine=True) (mlp): GPT2MLP( (c_fc): Conv1D() (c_proj): Conv1D() (act): NewGELUActivation() (dropout): Dropou

OpenThaiGPT Demo on Colab

รูปภาพ
OpenThaiGPT Demo on Colab ทดลองใช้งาน OpenThaiGPT 0.1.0-beta บน Colab openThaiGPT https://openthaigpt.aieat.or.th/ Web Demo https://demo.openthaigpt.aieat.or.th/ Github https://github.com/OpenThaiGPT/openthaigpt/tree/main เทคโนโลยีทางภาษาไทย แบบ ChatGPT (Large Language Model) พัฒนาเพื่อคนไทยทุกคน OpenThaiGPT มุ่งเน้นพัฒนาระบบ Chatbot ภาษาไทย ให้มีความสามารถเทียบเท่า ChatGPT อีกทั้งยังสามารถเชื่อมต่อกับระบบภายนอกและสามารถดึงข้อมูลได้อย่างยืดหยุ่น สามารถขยายและปรับแต่งได้อย่างง่ายดาย และพัฒนาขึ้นเป็น ซอฟต์แวร์โอเพนซอร์ส ฟรี สำหรับทุกคน เวอร์ชั่น 1.0.0 ซึ่งมีแผนเปิดตัวในเดือนมิถุนายน 2566 มีการใช้ Large Language Model ขนาด 10 พันล้านพารามิเตอร์ ในการพรีเทรน ได้แก่ โมเดล LLAMA ดร.ปรัชญา บุญขวัญ หัวหน้าทีมวิจัยเทคโนโลยีภาษาธรรมชาติและความหมาย กลุ่มวิจัยปัญญาประดิษฐ์ เนคเทค สวทช. ผู้ดูแลการพัฒนา เวอร์ชั่น 1.0.0 อธิบายเพิ่มเติมเพื่อให้เข้าใจได้ง่ายขึ้นว่า Language Model คือ โปรแกรมทายคำ เกิดจากการที่เราให้ข้อมูล เหมือนให้มันอ่านหนังสือมาก ๆ มันจะเรียนรู้สำนวน วลี ไวยากรณ์ของภาษา ตอบคำ

OpenThaiGPT

รูปภาพ
OpenThaiGPT  คือ อะไร ? OpenThaiGPT  เป็น โครงที่จะทำ chatGPT ภาษาไทย เพื่อให้คนไทยได้ใช้กันเอง โดยไม่ต้องใช้ของ OpenAI  และเปิดเป็น  Open Source  ให้ทุกคนใช้งาน แก้ไขปรับปรุงเองได้ ฟรี          องค์กรที่ร่วมสนับสนุน (Sponsors) โครงการ  OpenThaiGPT  ก่อตั้งโดยการร่วมมือกันของสองสมาคมปัญญาประดิษฐ์ประเทศไทย ประกอบไปด้วย สมาคมผู้ประกอบการปัญญาประดิษฐ์ประเทศไทย (AIEAT) สมาคมปัญญาประดิษฐ์ประเทศไทย (AIAT) Official Website   https://openthaigpt.aieat.or.th/ บทความนี้ ไม่ได้เป็นผู้ก่อตั้งโครงการ  เห็นว่า โครงการที่ดี สร้างเทคโนโลยี AI ให้กับ ภาษาไทย เพื่อให้คนไทย ได้ใช้พัฒนากัน Adun Nantakaew อดุลย์ นันทะแก้ว 081-6452400 LINE : adunnan FaceBook : https://www.facebook.com/adun.nantakaew/ Youtube : https://www.youtube.com/channel/UCw3VVy4wOsb8a0a1YYqJAPg Web Blog : http://raspberrypi4u.blogspot.com/ Website : https://softpower.tech