สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (VISTEC-depa Thailand Artificial Intelligence Research Institute) ปล่อยโมเดล WangchanBERTa ซึ่งเป็นโมเดลทางภาษาไทยสำหรับงานประมวลผลภาษาธรรมชาติโดยฝึกฝนบนสถาปัตยกรรม RoBERTa
โมเดล WangchanBERTa ถูกฝึกฝนด้วยชุดข้อมูลกว่า 78.48 GB ใช้ตัวตัดคำย่อย SentencePiece ในการแบ่งคำและ ใช้เวลาฝึกฝนโมเดล 3 เดือน
ทำให้โมเดล WangchanBERTa ถือเป็นโมเดลภาษาไทยที่ใหญ่ที่สุด ณ ขณะนี้ ซึ่งในการฝึกฝนใช้ไฟฟ้าทั้งหมด 10,566.5 kWh หรือคิดเป็นรอยเท้าคาร์บอน 7.5 ตัน เทียบเท่าการใช้รถ 1.6 คันในหนึ่งปี
Comments
อื้อหือ ผมรอชมรีวิวเลยครับ
เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!
ต้องดูว่าใช้ข้อมูลภาษาจากแหล่งไหนในการเทรนต์ เพราะถ้าเป็นภาษาทางการ ที่ไม่ใช่ภาษาพูดหรือภาษาแสล ภาษาโชเชีล ก็จะเหมาะกับงานอีกแบบนึง
The Dream hacker..
ในที่มามีข้อมูลให้หมดเลยครับ
ถ้าเอามาจาก twitter น่าสนใจครับว่าจะมีพวก ภาษาเฉพาะกลุ่มด้วยมั๊ย อย่างของเหล่าสาวข้ามเพศ ที่เขามีความครีเอท ในการสร้างภาษาเฉพาะกลุ่มขึ้นมาจนใช้กันอย่างแพร่หลาย นี่ยิ่งทำให้ ตัวโมเดลนี่น่าสนใจขึ้นไปอีก
จริงคร้บ น่าสนใจมา ศัพท์แสลง ศัพท์ตามยุด อะไรพวกนี้
"Wangchan" มีที่มาอย่างไรฮะ
ที่ตั้งของสถาบันวิทยสิริเมธี (VISTEC) ตั้งอยู่ในพื้นที่ตำบลป่ายุบใน อำเภอวังจันทร์ จังหวัดระยอง
ผมอ่านเป็น วังจัง 5555 อาม่าไม่ได้กล่าว 55555
The Dream hacker..
ขอแบบสั้น ๆ ได้ไหมครับ เอาใช้งานในด้านไหนครับ
พยายามอ่านแล้วยังงงๆ หรือผมอ่านข้ามนะ
หนึ่งในผู้เขียนครับ คำตอบสั้นๆคือ "ได้เกือบทุกอย่างที่เกี่ยวกับภาษาไทย" ครับ
คำตอบยาวขึ้นมาหน่อยจากในบทความ