AWS ประกาศเพิ่มโมเดล Mistral 7B และ Mixtral 8x7B ให้ใช้งานบน AWS Bedrock เร็วๆ นี้ โดยระบุว่าทั้งสองโมเดลมีจุดเด่นเรื่องของความเร็วและค่าใช้จ่ายที่ถูกกว่า นอกจากนี้องค์กรบางส่วนยังอาจต้องการโมเดลที่ตรวจสอบได้ การใช้โมเดลโอเพนซอร์สจึงเป็นทางเลือกสำคัญ
Mixtral 8x7B นั้นมีคะแนนทดสอบค่อนข้างใกล้เคียงกับ GPT-3.5 แต่มีจุดเด่นที่รันได้เร็วมาก โดยตอนนี้ผู้ให้บริการที่เน้นความเร็วอย่าง Groq นั้นโชว์ว่าสามารถ รันได้ที่ระดับ 500 token/s เลยทีเดียว
แนวทางเพิ่มโมเดลเข้ามาเรื่อยๆ จากผู้ผลิตหลายรายทำให้ AWS Bedrock มีตัวเลือกจำนวนมาก ตอนนี้ได้แก่ AI21 Labs, Anthropic, Cohere, Meta, Stability AI, และ Amazon เอง
ตอนนี้โมเดลยังใช้งานไม่ได้ ทาง AWS ระบุว่าจะเปิดให้ใช้งานจริงเร็วๆ นี้
ที่มา - AWS Blog
Hiring! บริษัทที่น่าสนใจ