Be My Eyes แอปช่วยเหลือสำหรับผู้มีปัญหาด้านการมองเห็น ซึ่งใช้การวิดีโอคอลขอความช่วยเหลือจากอาสาสมัคร ประกาศเพิ่มความสามารถใหม่โดยใช้ โมเดล GPT-4 ของ OpenAI ที่เพิ่งเปิดตัวไป
ฟีเจอร์ใหม่ที่เพิ่มมาด้วยความสามารถของ AI นี้ เรียกชื่อว่า Virtual Volunteerมีเป้าหมายให้ทำงานได้ในระดับเดียวกับอาสาสมัคร โดยสามารถให้รายละเอียดของภาพที่เห็น พร้อมคำแนะนำเพิ่มเติมที่เกี่ยวเนื่อง ซึ่งเป็นความสามารถใหม่เพิ่มเติมของ GPT-4
ตัวอย่างที่ Michael Buckley ซีอีโอของ Be My Eyes นำเสนอความสามารถของ Virtual Volunteer เช่น เมื่อให้ข้อมูลภาพของในตู้เย็น นอกจากจะสามารถอธิบายว่ามีของอะไรบ้าง ผู้ช่วย AI ยังสามารถให้ออกไอเดียว่าจะนำของเหล่านี้มาทำเมนูอะไร รวมทั้งให้สูตรการทำ ความสามารถของการให้รายละเอียดในภาพ บวกกับความสามารถในการสร้างบทสนทนา จึงเป็นรูปแบบที่ลงตัวมากสำหรับแอปช่วยเหลืออย่าง Be My Eyes
ทั้งนี้ระบบผู้ช่วย AI จะไม่ได้นำมาแทนระบบอาสาสมัครทั้งหมด โดยอาสาสมัครจะเข้ามาช่วยเหลือทันทีเมื่อพบว่า AI ไม่สามารถทำงานได้อย่างถูกต้อง
ความสามารถ Virtual Volunteer ในแอป Be My Eyes ตอนนี้ยังทดสอบเบต้าในกลุ่มผู้ใช้งานแบบจำกัด และจะขยายไปยังผู้ใช้ทุกคนในไม่กี่เดือนข้างหน้า
ที่มา: OpenAI
Comments
อยากให้ถอดข้อความในรูปภาพได้ โดยเฉพาะภาษาไทย
ผมเชื่อว่ามันถอดได้ระดับนึงครับเป็นความเชื่อนะ 😅
ถ้าอยากอ่านภาษาไทยจากรูป scene ทั่วไป ทดลองอันนี้ดูก็ได้นะครับ https://ocr.eikonnex.aidisclaimer: งานนี้เป็นส่วนนึงของ thesis ที่ผมเคยทำครับ :)
ขอให้มีตัวเลือกตั้งค่าว่า use Virtual Volunteer onlyด้วยจะดีมาก สำหรับปัญหาที่ไม่จำเป็นต้องเพิ่งคนจริงๆ
@ Virusfowl
I'm not a dev. not yet a user.
นึกถึง series เกาหลี เรื่องนึงขึ้นมาเลยครับ
แอพ NoonGil สินะครับ