คุณศุภศรณ์ สุวจนกรณ์ จาก ห้องวิจัย GRAIL นำเสนองานวิจัยในการสร้างวิดีโอของบารัก โอบามา ตามเสียงที่ใส่เข้าไปได้อย่างสมจริง โดยอาศัยข้อมูลเสียงนำมาสร้างเป็นรูปแบบของปากแล้วจึงใส่รายละเอียดลงไปก่อนจะนำภาพปากเคลื่อนไหวนี้ไปใส่วิดีโอเป้าหมาย
งานวิจัยนี้ทำให้สามารถนำเสียงของโอบามาเองมาสร้างภาพวิดีโอใหม่ โดยไม่ต้องอาศัยวิดีโอของการพูดครั้งนั้นจริงๆ แม้แต่เสียงที่สร้างขึ้นมา เช่น เสียงของคนที่เลียนแบบโอบามา หรือเสียงของโอบามาที่ถูกตัดต่อ
การสร้างรูปแบบปากที่เข้ากับเสียง ใช้ recurrent neural network โดยใช้ข้อมูลวิดีโอ 14 ชั่วโมง จากนั้นจึงสร้างภาพปากอย่างละเอียด (รายงานระบุว่าส่วนที่ยากกลับเป็นฟัน) แล้วทำมาปรับเวลากับวิดีโอเพื่อให้การเคลื่อนไหวของหัวสัมพันธ์กับปาก
ตอนนี้คุณศุภศรณ์ทำงานวิจัยอยู่กับ Google Brain ในงานผสม deep learning, computer vision, และ VR
ที่มา - GRAIL
Comments
ถ้านำไปรวมกับ GAN ได้ดีๆเมื่อไหร่นี่คือสร้างหนังใหม่ ดาราใหม่ได้เลย
ในคลิปเห็นอ้างอิง Face2face ที่เคยลง ข่าวเก่า ด้วย น่าจะอ้างอิงไว้ด้วยนะครับ
เนี่ยแหละคือโปรเจกต์หนึ่งที่ผมเคยคิดจะทำ มันน่ากลัวมากครับถ้าหากทำสำเร็จจริง ๆ
Coder | Designer | Thinker | Blogger
วิดีโอหรือรูปที่โพสลงในเฟสบุ๊คสามารถใช้เป็นพยานหลักฐานในชั้นศาลได้มั๊ย แล้วเค้าจะรู้ได้ไงว่าสิ่งนั้นเป็นของแท้ไม่มีการแต่งเติม
อันนี้ผมไม่มีความรู้ลึกๆนะครับ
ปรกติเวลาภาพที่ถูก Edited มันจะมี
format ใน properties ว่าโดนแก้ไขอะไร
ส่วนวิดีโอก็จะปรกฎในโค้ด ซึ่งบางทีมือสมัครเล่นก็ดูออกบางอันก็ต้องผู้เชี่ยวชาญ
ต้องถามว่าในกรณีนี้โค้ดมีเปลี่ยนแปลงหรือไม่?
ผมเข้าใจว่า ถ้าไม่ได้เข้ารหัสด้วยkeyเฉพาะยังไงก็แก้ไขข้อมูลที่ซ่อนอยู่โดยตรงได้ครับ
เหมือน exif ก็แก้ไขโดยตรง ยากสุดก็เข้าไปแก้แบบ binary,hex mode จาก file โดยตรงเลย หา header ให้เจอก็จบ
ส่วนในทางศาล ภาพถ่าย คลิปวิดีโอ ต้องนับเป็นพยานแวดล้อมครับ แต่น่ากลัวมากๆ เพราะหลายคดีตัดสินจากพยานแวดล้อมล้วนๆ....
อีกไม่นานก็จะมีการทำ signature วีดีโอกันนะครับถ้ามาถึงยุคที่ภาพตัดต่อกันเนียนมากๆ วิธีนี้ก็การันตีได้ว่าไฟล์วีดีโอเป็น origin ได้
ถ้า "ตอนนี้" ยังพอตรวจได้ครับ ใน paper ก็พูดถึงความไม่สมบูรณ์ ที่ยังมีช่วงเวลาแปลกๆ อยู่
แต่ถึงจุดหนึ่งมันก็คงหายไปเรื่อยๆ ถึงตอนนั้นจะทำยังไงกันต่อก็เป็นคำถามที่ต้องถามในระยะยาว
lewcpe.com , @wasonliw
อันนี้แหล่ะ น่ากลัวสุดๆ เกิดใครเอาวิดีโอผู้นำไปพูดเผยแพร่ในทางที่ไม่ดี เช่นก่อหรือเข้าร่วมสงครามจะน่ากลัวเอามากๆ
ปัจุบัน Fake News ถือว่าเป็นเรื่องที่น่ากลัวมากๆ
ด้วยเทคโนโลยีแบบนี้ยิ่งอันตราย สามารถชักจูงคนได้ง่ายขึ้นไปอีก
ความน่ากลัวของ AI อยู่ที่คนเอาใช้เนี่ยแหละครับ เอาไปใช้ในเชิงสร้างสรรค์มันก็เกิดประโยชน์ เอาไปในเชิงทำลาย มันก็สร้างความเสียหายอย่างน่ากลัว
คงเป็นได้แค่ Fake News สำหรับยุยงม๊อบให้กระทำอะไรก็ตามตามที่ต้องการ ซึ่งความจริงม๊อบก็พร้อมจะทำอยู่แล้วไม่ว่าจะมี Fake News หรือไม่มีก็ตาม
ส่วนเรื่องสงคราม "เป็นไปไม่ได้เลย" ทหารจะทำภารกิจหรือไม่ มาจากคำสั่งตามลำดับการบัญชาการเท่านั้น แค่คุณบุกเข้าไปในกองทัพบกแล้วเอาปืนจ่อหัวให้ผบ.ทบ.สั่งบุก เท่านี้ก็เพียงพอที่จะเกิดสงครามแล้ว ไม่จำเป็นต้องพึ่งพาเทคโนโลยีอะไรหรอก
กรณีมีใครก็ตามสั่งให้ทำสงครามผ่านคลิปวีดีโอ ในยุค 2017 คงมีแต่ ISIS หรืออัลกออิดะห์เท่านั้นแหละครับ ซึ่งใช้คลิปห่วย ๆ หรือเอาตัวปลอมมาพูด คนทำก็ยินดีทำตามอยู่แล้ว
น่าจะหมายถึงยุยงให้เกิดสงครามระหว่างประเทศมากกว่าครับ
ดีครับจะได้ไม่ต้อง Sync แบบทีละเฟรม เหนื่อย
อยากเห็นโอบาม่าพูดไทย-- อย่างงี้เพจ พากษ์นรก ก็ตกงานเลยสิคับ
น่ากลัวคนใช้ในทางที่ผิด
มาไกลถึงขนาดนี้แล้วเหรอเนี่ย
..: เรื่อยไป