ต้องบอกว่ามาแรงจริงๆ สำหรับ Google Pixel 2 สมาร์ทโฟนจากกูเกิลที่ขึ้นชื่อว่ากล้องดีในระดับท็อปๆ ของมือถือทั้งหมด โดยตอนนี้มีข้อมูลใหม่ที่ไม่ถูกพูดถึงบนเวทีเปิดตัวเลย แต่กูเกิลเพิ่งเปิดเผยเรื่องนี้กับสื่อว่าที่จริงแล้ว Pixel 2 มีชิปประมวลผล (SoC) ถึง 2 ชุดด้วยกัน คือชิปเซ็ตหลัก Snapdragon 835 และ SoC อีกชุดเรียกว่า Pixel Visual Core ใช้สำหรับการประมวลผลภาพถ่ายโดยเฉพาะ
ชิป Pixel Visual Core นี้ถูกออกแบบและพัฒนาโดยกูเกิลเอง ประกอบไปด้วยซีพียู Cortex A53 1 คอร์, แรม LPDDR4 ไม่ระบุความจุ, บัส PCIe สำหรับติดต่อกับตัวเครื่อง และหน่วยประมวลผลภาพ (Image Processing Unit - IPU) ถึง 8 คอร์ที่สามารถประมวลผลได้มากกว่า 3 ล้านล้านคำสั่งต่อวินาที โดยกูเกิลระบุว่าสามารถประมวลผลภาพถ่าย HDR+ ได้เร็วกว่าซีพียูหลักถึง 5 เท่า และใช้พลังงานน้อยกว่า 1 ใน 10 เสียอีก (อันนี้ถือว่าแก้ปัญหาได้ตรงจุด เพราะ Pixel รุ่นแรกใช้เวลาหลายวินาทีกว่าจะโปรเซสภาพ HDR+ เสร็จ)
อย่างไรก็ตาม ขณะนี้ Pixel Visual Core ยังไม่ถูกใช้งาน แต่จะเริ่มใช้ใน Android 8.1 Developer Preview ที่จะปล่อยออกมาในอนาคต อีกทั้งจะเปิดให้แอพของนักพัฒนาเข้าถึงอัลกอริทึม HDR+ ได้ด้วย แปลว่ารูปที่ถ่ายจากแอพอื่นๆ เช่น Instagram, WhatsApp ฯลฯ จะถ่ายได้สวยเท่าแอพ Google Camera นั่นเอง เท่านั้นยังไม่พอ กูเกิลบอกว่า Pixel Visual Core ถูกออกแบบมาสำหรับการประมวลผลภาพที่ยากมากๆ รวมถึงการประมวลผล Machine Learning ด้วยเช่นกัน และขณะนี้กำลังเตรียมใช้งานชิปนี้กับงานอื่นๆ นอกเหนือจากการประมวลผลรูปถ่ายจากกล้องด้วย
ที่มา - Ars Technica
Comments
ตอน DxOMark ประเมินนี่ได้ใช้ชิพนี้มั้ย มีการกั๊ก Hissatsu ไว้อีก
my blog
เข้าใจว่าชิพนี้ช่วยเรื่องเวลาในการประมวลผลนะครับ ส่วนคุณภาพยังเหมือนเดิม
นี่ขนาดไม่ใช้ชิพยังได้ 99 คะแนน
จากข่าวผมว่าความสามารถของตัวซอฟท์แวร์รวมถึง AI น่าจะเอามาใช้งานแล้วตั้งแต่แรก การใช้ชิพน่าจะเพียงช่วยลดเวลาในการประมวลผลมากกว่า ซึ่งถ้าถึงเวลาที่เปิดให้ใช้งานก็อาจจะไม่มีความต่างมากเท่าไหร่ในเรื่องคุณภาพของภาพ
เปิดให้ใช้ น่าจะหมายถึงให้นักพัฒนาทั่วไปใช้งานได้ครับ ในส่วนของกูเกิลน่าจะใช้งานมันอยู่แล้ว เหมือนของ iOS ที่เพิ่งจะเปิดให้นักพัฒนาสามารถใช้งานฟังชั่น ML/AI ได้
The Dream hacker..
ถ้าเปลี่ยนเลนส์ได้ มิลเลอร์เลสคงสั่นสะเทือน.
ไม่ต้องเปลื่ยนเลนส์ แต่คุณภาพเท่า mirrorless นี้สิน่ากลัวของจริงเสียค่าเลนส์ไปเท่าไหร่แต่ละคน
พอดีเห็นพูดถึงเรื่องค่าเลนส์ณ ตอนนี้ผมว่าคุณภาพยังไม่ได้ไปไกลกว่าเลน kit นะครับ แต่เทียบเท่าน่าจะพอได้ ปรกติผมจะบอกว่าถ้าซื้อกล้องมาแล้วจะ auto กับไม่ซื้อเลนส์เพิ่มก็ให้ใช้มือถือคุณภาพดีๆ แทนดีกว่า
แต่ถ้าจะเทียบกับกล้องที่ไม่ใช้เลนส์ kit ผมว่ามันเร็วไปครับ
จริงถ้าเทียบกล้องใหญ่ เจอขนาด Sensor ผมว่ามันก็ต่างกันเยอะแล้วนะครับ ไม่ต้องเทียบ Lens เลยด้วยซ้ำ
จะมี Google Camera แบบเป็นกล้องจริง ๆ ออกมาไหม?
Jusci - Google Plus - Twitter
นี่ขายมือถือหรือขายกล้องคอมแพคกัน
น่าสนใจจริง ๆ ครับ สำหรับผม ที่เลือกมือถือ โดยมองจากกล้องเป็นปัจจัยอันดับต้น ๆ ดูตัวนี้ให้ความสำคัญที่กล้องเยอะมาก คุณภาพภาพที่ได้นี่ ชนะกล้องคู่ได้ รุ่นหน้าถ้าออกมาเป็นกล้องคู่ด้วยนี่อาจมีลังเล (Apple ทำอะไรหน่อยสิครับ เห็นปีนี้กล้องดีขึ้นมา พอเทียบเคียงกับเจ้าอื่นได้หน่อย ปีหน้า 2018 ขอ AI นะครับ แบบเรียนรู้การปรับภาพได้ ทุกวันนี้ยังต้องมาโปรเซสภาพเองเกือบทุกภาพอยู่เลย)
Mate 10 วัดกันไหวมั้ยครับ ในเรื่องของ AI
อยากรู้เหมือนกัน จีนจะสู้ google ไหงไหม
แต่อนาคตผมว่าไหวแน่ huawei พัฒนาเร็วมาก
4 ปี ก่อนยังเป็นแค่ มือถือจีนไม่มีคนรู้จักอยู่เลย มาปีนี้ ทำ Ai แข่ง Google แล้ว
แนวโน้มกล้องปีหน้าจะเป็นยังไงนะ
1. กล้องคู่ที่วางเลียนแบบตามนุษย์ หรือ
2. กล้องขาวดำความไวแสงสูง + ตัววัดสเปกตรัมเอามาใส่สีแบบยานสำรวจอวกาศ
I need healing.
กล้องหลัง 4 ตัวครับ ปกติ ขาวดำ เทเล ไวด์
รอ mate 10 เปิดตัวก่อนนี่เอง ถึงค่อยพูด
รอฝากญาติที่อยู่เมกาซื้อให้เลยดีกว่าแบบนี้
That is the way things are.
อยากได้การประมวลผลภาพดีๆแบบนี้มาใส่กะ mirrorless จังเลยโดยเฉพาะของ sony
ยิ่งเห็นยิ่งอยากได้ แต่คงไม่มีตังค์ซื้อ เฮ้ออออออ
อยากได้ แต่ราคาแพงมาก แพงกว่า Iphone X แถม cpu gpu ความเร็วก็ยังต่างกันมากๆ
CPU Single-Core ฝั่ง Android ตาม Apple อยู่ครึ่ง ๆ ฮะแต่ GPU Adreno ใน Snap ฝั่ง Apple ก็ตามอยู่ครึ่ง ๆ เช่นกัน