งานวิจัยของ MIT ที่ได้รับความร่วมมือจาก Google อาจกลายเป็นหนึ่งฟีเจอร์สำคัญของกล้องและสมาร์ทโฟนในอนาคต ด้วยการใช้อัลกอริทึมของงานวิจัยนี้ ทำให้การถ่ายภาพหน้ารั้วตาข่าย หรือถ่ายวิวนอกห้องผ่านกระจกหน้าต่าง จะได้ภาพชัดที่ไม่ถูกบดบังด้วยภาพของรั้วหรือเงาสะท้อนในกระจกอีกต่อไป
เทคนิคที่ใช้ก็คือ ใช้การถ่ายภาพวิดีโอสั้นๆ โดยการขยับกล้องไปมา จากนั้นซอฟต์แวร์จะดึงภาพจากวิดีโอมาบางเฟรมมาทำการเปรียบเทียบกันแล้วหาว่าสิ่งใดคือภาพที่ต้องการถ่าย และสิ่งใดคือภาพวัตถุกีดขวาง (ซึ่งในที่นี้หมายถึงภาพเงาสะท้อนในกระจกหรือภาพของรั้วเหล็กที่ขวางอยู่ด้านหน้าของกล้อง) โดยจำแนกจากระยะในการเคลื่อนของวัตถุในภาพเทียบกันแต่ละเฟรม ตัวอย่างเช่นภาพที่ถ่ายผ่านรั้วตาข่ายนั้น เมื่อมีการขยับกล้องไปมา ภาพของตาข่ายในแต่ละเฟรมนั้นจะมีการเคลื่อนตำแหน่งจากเดิมมาก ในขณะที่ภาพวัตถุที่เป็นจุดสนใจของภาพจริงๆ ซึ่งอยู่ในระยะห่างออกไปจากกล้อง จะมีตำแหน่งในภาพแต่ละเฟรมต่างกันไม่มาก
ด้วยการพัฒนาอัลกอริทึมข้างต้น ทำให้ระบบซอฟต์แวร์สามารถแยกได้ว่าสิ่งไหนคือภาพวัตถุกีดขวาง และสิ่งไหนคือวัตถุจุดสนใจของภาพ จากนั้นก็จะทำการเติมเต็มภาพวัตถุจุดสนใจของภาพนั้นให้สมบูรณ์โดยอาศัยการดึง, ยืด และเย็บภาพจากเฟรมต่างๆ เข้าด้วยกัน ตัวอย่างเช่นการถ่ายภาพเสือในกรงนั้น ส่วนของตัวเสือที่ถูกกรงบังอยู่ในเฟรมแรกของวิดีโอ จะสามารถถูกเติมเต็มได้ด้วยการดึงเอาบางส่วนของภาพจากเฟรมถัดไปของวิดีโอมาปะต่อเข้าด้วยกันจนเห็นเป็นตัวเสืออย่างสมบูรณ์
ทีมวิจัยจะนำผลงานนี้ไปนำเสนอในงาน SIGGRAPH 2015 ที่กำลังจะมีขึ้นในอีกไม่กี่วันข้างหน้านี้ที่ Los Angeles
ที่มา - Engadget
Comments
ใส่ break ด้วยครับ
ตั้ว => รั้ว
คลิปโผล่หน้าแรกเลยครับ สงสัยลืม <!--break-->
my blog
สามารถดึงรูปคนถ่าย (สภาพแวดล้่อมที่ถ่าย) ออกมาได้ด้วยเหมือนในหนังพวก CSI หรือหนังจารชน เลย
ถึงยังไงก็ยังไม่เท่า CSI นะครับ แบบนั้นก็เวอร์เกิน แต่ผมก็ดูนะ เพราะเป็นบันเทิงแบบมีสาระทางวิทยาศาสตร์ แม้จะไม่ตรงความเป็นจริงบ้างก็ตาม
Get ready to work from now on.
ไม่บ้างนะครับ ผมว่าเวอร์เกินจริงไปเยอะมาก ๆ เลย
ชอบแนวคิดอ่ะ ตรงไปตรงมา แต่ทำยากมาก ๆ เมพขิง ๆ ทำได้ไง
เทคโนโลยีไม่ผิด คนใช้มันในทางที่ผิดนั่นแหละที่ผิด!?!
อาาา parallax effect ตอนเรียนมัธยมนี่นา
อารมณ์พวกหนังสืบสวนสอบสวน พระเอกหรือ โคตรตัวร้าย นั่งดูคลิปกล้อง แล้ว... นั่น มีอะไรอยู่ตรงนั้น
นี่สิ นวัตกรรม
กระจกพอเข้าใจได้นะ แต่ตาข่ายนี่สิ ยื่นกล้องไปใกล้ๆ มันก็ทะลุแล้วนะ
ความจริงการ Tracking แบบนี้มีมานานมากแล้วนะครับ (พวกผมใช้กัน Realtime มากๆเลยในงานภาพยนตร์ พวก Color Correction ภาพ) แต่ไม่เคยมีคนคิดจะนำมาใช้กับอะไรแบบนี้เลย ... คือเทคโนโลยีมี แต่นำมาประยุกต์ใช้ได้มากมาย แค่คิดไม่ถึงเองครับ
ไอ้แค่นี่แหล่ะครับ ทำคนรวยมานักต่อนักละครับ ฮาๆๆๆ
ขอบคุณครับ สวัสดีครับ
นึกถึง feature lens blur ของ Google Camera เลย
เดาว่าเทคนิคคงจะคล้ายๆ กัน คือ Lens blur ให้เลื่อนเพื่อหาระยะแล้วก็จะได้เลือกว่าบริเวณไหนใส่ effect blur
แต่อันนีคือหาระยะเพื่อเอารูปของที่อยู่ข้างหลังมาแทนสินะครับ