รายงานนี้มาจาก Mark Gurman แห่ง Bloomberg คนเดิม เขาบอกว่าแอปเปิลมีการเปลี่ยนตำแหน่งผู้บริหารระดับสูง โดยให้ Kim Vorrath ที่เป็นรองประธานฝ่ายดูแลโครงการพัฒนาซอฟต์แวร์ มาร่วมทีม AI ภายใต้หัวหน้าฝ่ายนี้คือ John Giannandrea เป้าหมายเพื่อมาปรับปรุงการทำงานของ Siri และความสามารถด้านปัญญาประดิษฐ์ที่เกี่ยวข้อง
Kim Vorrath ทำงานที่แอปเปิลมานาน 37 ปี ได้ฉายาว่านักจับบั๊ก และเป็นหนึ่งในพนักงานที่มีอิทธิพลสูงในแอปเปิล โครงการล่าสุดร่วมพัฒนาคือส่วน AR/VR ของเฮดเซต Vision Pro
Mark Zuckerberg ซีอีโอ Meta โพสต์ใน Facebook ว่าบริษัทมีแผนการลงทุนในปีนี้ประมาณ 6-6.5 หมื่นล้านดอลลาร์ ซึ่งการลงทุนหลักคือศูนย์ข้อมูลรองรับการเติบโตด้าน AI เพิ่มขึ้นตัวเลขปีที่แล้วประมาณ 3.8-4 หมื่นล้านดอลลาร์
เขาบอกว่าเป้าหมายคือ Meta จะเป็นผู้นำด้านการพัฒนาผู้ช่วย AI ที่มีผู้ใช้งานกว่าพันล้านคน Llama 4 ที่จะออกมาในปีนี้ จะเป็นโมเดลปัญญาประดิษฐ์ความสามารถสูง บริษัทยังเพิ่มทีมวิศวกรด้าน AI เพื่อวิจัยและพัฒนาในโครงการที่เกี่ยวข้องนี้
หนึ่งในหัวข้อที่ถูกพูดถึงมากที่สุดในวงการเทคฯ ปีนี้ คือ AI Agents หรือผู้ช่วย AI ทำงานได้ด้วยตัวเอง โดยไม่ต้องมีมนุษย์มาคอยกำกับการทำงาน เช่น หาข้อมูล จองร้านอาหาร หรือแม้แต่ช้อปปิงออนไลน์
ขณะเดียวกัน นักวิจัยด้าน AI หลายคนกำลังรอดูว่า เมื่อไหร่จะถึงจุดที่ AI สามารถทำงานและให้เหตุผลได้เทียบเท่ากับมนุษย์ ซึ่งจะเป็นปักหมุดต่อไปที่สำคัญสำหรับปัญญาประดิษฐ์ความสามารถรอบด้าน หรือ Artificial General Intelligence (AGI)
Anthropic เปิดตัวความสามารถใหม่สำหรับ API ของนักพัฒนาเรียกชื่อว่า Citationsเพื่อให้คำตอบที่ได้ สามารถตรวจสอบย้อนกลับไปต้นทางได้ว่ามีที่มาอย่างไร เพิ่มความน่าเชื่อถือและลดความผิดเพี้ยน
ในการใช้งาน Citations ผู้ใช้งานจะอัปโหลดเอกสารอ้างอิง จากนั้นโมเดล Claude จะแยกประโยคเป็นส่วน ๆ เพื่อให้ถูกลิงก์กลับมาเมื่อมีการให้คำตอบในประเด็นนั้น ผลการทดสอบภายในของ Anthropic พบว่าการอ้างอิงทำให้คำตอบมีความแม่นยำมากขึ้น 15%
AWS เพิ่มบริการปัญญาประดิษฐ์สร้างวิดีโอ Luma Ray2 ของบริษัท Luma AI สร้างวิดีโอตามข้อความที่กำหนด ผ่านทางบริการ AWS Bedrock โดยคิดค่าใช้งานตามจริงเป็นวินาทีที่สร้างวิดีโอขึ้นมา
วิดีโอที่สร้างขึ้นต้องเก็บใน S3 ของผู้ใช้เองจึงมีค่าสตอเรจเพิ่มขึ้นมาด้วยเล็กน้อย (ถ้าลบออกทันทีก็แทบไม่มีผล เทียบกับค่าสร้างวิดีโอเปล่าๆ) โดยวิดีโอที่สร้างได้มีสองความละเอียด คือ 540p ราคาวินาทีละ 0.75 ดอลลาร์ และ 720p วินาทีละ 1.5 ดอลลาร์
Perplexity เพิ่มความสามารถผู้ช่วยอัจฉริยะเรียกว่า Perplexity Assistant โดยสามารถทำงานได้ตามคำสั่งจากการคิด ค้นหา และดูว่าแอปใดที่สามารถทำงานนั้นได้ ผู้ใช้งานจึงสามารถสั่ง Assistant ให้จองร้านอาหาร ค้นหาเพลง เรียกรถแท็กซี่ ร่างอีเมล และอื่น ๆ
Aravind Srinivas บอกว่า Perplexity Assistant สามารถเข้าใจสิ่งต่าง ๆ ที่ปรากฏบนหน้าจอ หรือผ่านเลนส์กล้อง และสั่งให้ทำงานได้ตามที่เห็น แต่ในตอนนี้เงื่อนไขการทำงานบางอย่างยังจำกัดอยู่ เช่น ยังไม่สามารถเข้าถึงปฏิทิน Google Calendar ได้ เป็นต้น
ฟีเจอร์ Perplexity Assistant เริ่มเปิดใช้งานแล้วสำหรับแอป Perplexity บน Android
ที่มา: Perplexity
OpenAI เปิดตัว Operatorผู้ช่วย AI Agent ที่สามารถทำงานต่าง ๆ ให้กับผู้ใช้งานได้ตามที่กำหนดผ่านเว็บเบราว์เซอร์
Operator ทำงานผ่านเบราว์เซอร์ของผู้ใช้งานเอง มีความสามารถทำความเข้าใจเนื้อหาที่แสดงบนเว็บไซต์ และดำเนินการโต้ตอบเช่น พิมพ์ คลิก เลื่อนหน้า ซึ่งเป็นวิธีการที่แตกต่างจากเครื่องมือประเภทบอต และยังสามารถกรอกแบบฟอร์ม ทำคำสั่งซื้อ และอื่น ๆ
Operator ทำงานบนโมเดลใหม่ของ OpenAI ชื่อ CUA ย่อมาจาก Computer-Using Agent โดยนำความสามารถด้าน Visual ของ GPT-4o รวมกับวิธีคิดเป็นเหตุผลผ่านระบบเรียนรู้ reinforcement ทำให้โต้ตอบกับสิ่งที่ปรากฎบนหน้าจอได้แบบเดียวกับคนเห็น แล้วโต้ตอบดำเนินการกับสิ่งเหล่านั้นได้
Dario Amodei ผู้ก่อตั้งและซีอีโอของ Anthropic ไปขึ้นเวทีของ Wall Street Journal ที่งาน World Economic Forum ที่เมืองดาวอส ประเทศสวิตเซอร์แลนด์
เขาพยากรณ์ว่าปี 2027 น่าจะเป็นปีที่ AI ทำงานได้เหนือกว่ามนุษย์ในแทบทุกด้าน ในขั้นถัดไปจะทำงานได้เหนือกว่ามนุษย์ทุกคน (all humans) ในเกือบทุกด้าน (almost everything) ขั้นสุดท้ายจะทำงานได้เหนือกว่าในทุกๆ ด้าน (everything)
Amodei บอกว่าในจุดนั้นจะมีคำถามตามมามากมาย ว่าเศรษฐกิจในยุคนั้นจะเป็นอย่างไร ความหมายของการเป็นมนุษย์คืออะไร เพราะมนุษย์ไม่ได้เป็นสิ่งมีชีวิตที่ฉลาดที่สุดในโลกอีกต่อไปแล้ว
กูเกิลประกาศว่าจะนำฟีเจอร์บางส่วนของ Project Astra ที่เคยโชว์ไว้ตอนงาน I/O 2024 มาใช้กับแอพ Gemini บนสมาร์ทโฟน โดยจะเริ่มจาก Galaxy S25 แล้วค่อยขยายไปยังแอนดรอยด์รุ่นอื่นๆ ต่อไป แต่ยังไม่ยอมบอกว่าเมื่อไร บอกแค่ว่า coming months เท่านั้น
ฟีเจอร์ที่ Galaxy S25 จะได้ก่อนใครคือ screen sharing หรือการแชร์หน้าจอให้ Gemini มองเห็นแล้วช่วยเราทำงาน กับ live video streaming ที่เปิดกล้องถ่ายวิดีโอไปเรื่อยๆ แล้วให้ Gemini ดูตามแล้วอธิบายสิ่งที่มองเห็น ซึ่งเป็นฟีเจอร์แบบเดียวกับ GPT-4o ที่ OpenAI เคยนำมาโชว์ในช่วงเวลาไล่เลี่ยกัน
ที่มา - Google
รายงาน State of Mobile 2025 โดย Sensor Tower พบการใช้จ่ายในแอปพลิชัน AI อย่าง ChatGPT, Gemini, และ Doubao ของ ByteDance ในปี 2024 อยู่ที่เกือบ 1.1 พันล้านดอลลาร์ฯ เพิ่มขึ้นกว่า 200% เทียบจากปีก่อนหน้า
แม้ปีที่แล้ว บิ๊กเทคฯ เปิดตัวโมเดล AI อยู่เรื่อย ๆ เช่น OpenAI กับ GPT-4o ซึ่งทำรายได้จากแอปเพิ่มขึ้นอย่างมากในช่วงหนึ่ง แต่ความต้องการแอป AI โดยรวมยังคงที่ตลอดทั้งปี โดยพบว่าผู้บริโภคใช้เวลาประมาณ 7.7 พันล้านชั่วโมงในการใช้แอป AI ส่วนแอปที่กล่าวถึง AI ถูกดาวน์โหลดไป 1.7 หมื่นล้านครั้ง
ส่วนแอปประเภทอื่น เห็นถึงการเปลี่ยนแปลงเช่นกัน ดังนี้:
ByteDance เปิดตัว Doubao-1.5-pro โมเดลปัญญาประดิษฐ์ LLM เรือธงของบริษัท โดยระบุว่าผลการทดสอบในบางหัวข้อ เช่น ความรู้ MMLU, โค้ด McEval หรือการให้เหตุผล DROP ทำได้เหนือกว่าโมเดลรุ่นบนของค่ายอื่นทั้ง Llama3.1-405B หรือ GPT4o-0806
การเปิดตัวโมเดลปัญญาประดิษฐ์รุ่นใหม่ของ ByteDance นี้ ทำให้เห็นถึงการแข่งขันด้าน AI จากบริษัทจีน โดยเมื่อต้นสัปดาห์ DeepSeek ก็เปิดตัว DeepSeek-R1 ซึ่งทำงานด้วยการคิดเป็นขั้นตอน และมีผลทดสอบบางชุดดีกว่า o1 ของ OpenAI
กูเกิลเปิดตัวฟีเจอร์ AI และ Gemini ชุดใหญ่ในงานเปิดตัว Galaxy S25 เมื่อคืนนี้ และแน่นอนว่าหลายอย่างเป็นฟีเจอร์เอ็กซ์คลูซีฟของ Galaxy S25 ช่วงเวลาหนึ่งเช่นเคย (เหมือนกับ Circle to Search ในปีที่แล้ว )
Gemini Live ผู้ช่วยส่วนตัวที่สนทนาด้วยเสียง เพิ่มการใส่รูปภาพ ไฟล์ และวิดีโอจาก YouTube เพื่อเป็นข้อมูลเพิ่มเติมให้ Gemini ได้ด้วย เช่น สรุปสาระจากคลิปใน YouTube, ถ่ายภาพสิ่งที่สงสัยแล้วถามข้อมูลจาก Gemini
ฟีเจอร์นี้ใช้ได้กับ S24, S25 และ Pixel 9 ก่อน แล้วจะค่อยๆ ขยายไปยังอุปกรณ์แอนดรอยด์รุ่นอื่นต่อไป
ตัว Gemini Live ยังสามารถเรียกจากปุ่มด้านข้างเครื่อง (ปุ่ม Power) ของ Galaxy S25 ได้ทันทีแล้ว (Bixby จะกลับมาไหม?)
มีรายงานจาก FT ว่ากูเกิลได้ตกลงที่จะลงทุนใน Anthropic เพิ่มอีกมากกว่า 1 พันล้านดอลลาร์ จากตัวเลขที่ตกลงว่าจะลงทุนใน Anthropic ก่อนหน้านี้ที่ 2 พันล้านดอลลาร์
เมื่อต้นเดือนมีข่าวว่า Anthropic กำลังเจรจากับนักลงทุนเพื่อ เพิ่มทุนรอบใหม่ 2 พันล้านดอลลาร์ นำโดยบริษัทการลงทุน Lightspeed Venture Partners ซึ่ง FT บอกว่า 1 พันล้านดอลลาร์ของกูเกิลเป็นเงินอีกส่วนไม่เกี่ยวกับรอบลงทุนของ Lightspeed
Perplexity เปิดตัวบริการ API ในชื่อ Sonarเพื่อให้ลูกค้าองค์และนักพัฒนาสามารถสร้างเครื่องมือบนระบบค้นหาที่ทำงานด้วย Generative AI ของ Perplexity ได้
Perplexity บอกว่าบริการ Generative AI ตอนนี้ส่วนมากจะให้คำตอบจากชุดข้อมูลที่ถูกเทรนไว้แล้ว ทำให้ความสามารถถูกจำกัด ขณะที่ Sonar API จะใช้การค้นหาข้อมูลบนอินเทอร์เน็ตเรียลไทม์จากแหล่งที่เชื่อถือได้มาเป็นคำตอบ
Tencent เปิดตัว Hunyuan3D 2.0ระบบสร้างโมเดล 3D ด้วย AI จากอินพุทข้อความหรือรูปภาพหนึ่งรูปในเวลาไม่กี่วินาที ซึ่งเป็นเวอร์ชันถัดจาก Hunyuan3D ตัวแรก
Hunyuan3D 2.0 มีสองโมเดล AI ที่ทำงานเพื่อสร้างผลลัพธ์โมเดล 3D คือ Hunyuan3D-DiT สำหรับขึ้นโครงสร้างเบื้องต้นจากอินพุทก่อน จากนั้น Hunyuan3D-Paint จะเติมรายละเอียดต่าง ๆ ให้กับโมเดล 3D นั้น
โครงการนี้เปิดโอเพนซอร์สเพื่อให้นักพัฒนาและนักวิจัยสามารถเข้าถึงได้ที่ Hugging Face และ GitHub
ประธานาธิบดี Donald Trump ประกาศโครงการลงทุนโครงสร้างพื้นฐาน AI ของภาคเอกชน โดยการก่อสร้างจะเกิดขึ้นในสหรัฐอเมริกาผ่านบริษัทร่วมทุนซึ่งเรียกชื่อว่า Stargate
บริษัทร่วมทุนนี้มีบริษัทใหญ่เข้าร่วม 3 รายคือ Oracle, SoftBank และ OpenAI ซึ่งซีอีโอของทั้งสามบริษัทคือ Larry Ellison, Masayoshi Son และ Sam Altman ก็เข้าร่วมการแถลงข่าวที่ทำเนียบขาวด้วย มูลค่าการลงทุนรวม 5 แสนล้านดอลลาร์ ในระยะเวลา 4 ปี โดยยังไม่มีการเปิดเผยรายละเอียดเพิ่มเติม ซึ่งคาดว่าจะมีบริษัทอื่นเข้าร่วมด้วยเช่นกัน
Trump บอกว่าการลงทุนนี้ถือเป็นเรื่องฉุกเฉินของอเมริกา โครงสร้างพื้นฐาน AI ต้องถูกสร้างขึ้นมา มีการใช้ไฟฟ้าจำนวนมากจึงต้องมีการสร้างสิ่งต่าง ๆ มารองรับ คาดว่าจะเพิ่มการจ้างงานได้กว่า 1 แสนตำแหน่ง
DeepSeek บริษัทปัญญาประดิษฐ์จากจีนเปิดตัวโมเดล DeepSeek-R1 โมเดล LLM แบบคิดหาเหตุผลก่อนตอบ (reasoning model) โดยแบ่งเป็นสองรุ่นย่อย คือ
แม้ทุกวันนี้เราจะคุยกับคอมพิวเตอร์ด้วยภาษาธรรมชาติเป็นเรื่องปกติ แต่โค้ดแชตบอตแรกๆ ในโลกที่คุยได้สมจริงคงเป็นโครงการ ELIZA โดย Joseph Weizenbaum ที่โต้ตอบกับมนุษย์เป็นภาษาอังกฤษได้อย่างเป็นธรรมชาติ แม้มันจะไม่ได้เข้าใจคำพูดของเราจริงๆ แต่เป็นเพียงโค้ดจับรูปแบบและถามกลับให้ดูเนียนเท่านั้น
โครงการ ELIZA สร้างความตื่นเต้นให้กับวงการคอมพิวเตอร์ในยุค 1965 อย่างมาก และก็มีโค้ดที่พอร์ตไปภาษาต่างๆ จำนวนมาก แต่โค้ดต้นฉบับเดิมนั้นกลับสูญหายไป กลุ่มนักวิจัยก็ร่วมกันค้นหาจนกระทั่งไปเจอในสำเนารายงาน ELIZA พร้อมกับซอร์สโค้ดในหอจดหมายเหตุ MIT
Mistral บริษัทปัญญาประดิษฐ์จากฝรั่งเศส ประกาศทำข้อตกลงร่วมกับสำนักข่าว Agence France-Presse หรือ AFP เพื่อนำเนื้อหาข้อมูลมาใช้ปรับปรุงการตอบคำถามในบริการแชทบอต Le Chat
ภายใต้ข้อตกลงนี้ Le Chat จะเชื่อมต่อกับเนื้อหาข่าวของ AFP ที่เป็นปัจจุบัน เพื่อให้การตอบคำถามเป็นข้อมูลล่าสุด เนื้อหาข่าวที่ใช้รองรับ 6 ภาษา ได้แก่ ฝรั่งเศส อังกฤษ สเปน โปรตุเกส เยอรมนี และอาหรับ
ดีลนี้เป็นการขยับเข้าสู่บริการสำหรับผู้ใช้งานทั่วไปมากขึ้นของ Mistral จากก่อนหน้านี้บริษัทเน้นที่การพัฒนาโมเดลปัญญาประดิษฐ์ที่มีความสามารถมากกว่า
กูเกิลประกาศความร่วมมือกับ The Associated Press หรือสำนักข่าว AP เพื่อให้ฟีดเนื้อหาข่าวที่เป็นปัจจุบันสำหรับแสดงผลในแอป Gemini ปัญญาประดิษฐ์ของกูเกิล
กูเกิลนั้นมีความร่วมมือกับ AP มานานแล้วสำหรับการแสดงเนื้อหาข่าวบน Google Search แต่ความร่วมมือนี้ได้ขยายมาสู่ Gemini ซึ่งตัวแทนของ AP บอกว่าบริษัทยินดีที่กูเกิลให้ความสำคัญกับเนื้อหาข่าว และนำมาใช้พัฒนาผลิตภัณฑ์ Generative AI
ที่มา: กูเกิล
Google Cloud เปิดตัวบริการ Automotive AI Agent สร้างผู้ช่วยส่วนตัวพลัง AI สำหรับตลาดเฉพาะทาง ซึ่งในที่นี้คือรถยนต์
ลูกค้ารายแรกที่ประกาศใช้บริการคือ Mercedes-Benz ที่จะนำระบบของกูเกิลไปใช้กับ MBUX Virtual Assistant ภายในรถยนต์ของตัวเอง โดยจะเริ่มใช้งานกับ Mercedes-Benz CLA ซีรีส์ใหม่ที่จะเปิดตัวในปี 2025 ซึ่งจะเป็นรถยนต์รุ่นแรกที่ใช้ ระบบปฏิบัติการ MB.OS ตัวใหม่ ด้วย ส่วนรถยนต์รุ่นอื่นๆ มีแผนจะอัพเกรด MBUX Virtual Assistant ให้ในภายหลัง
Andrew Ng เขียนบทความแสดงความเห็นว่า อาชีพ AI Product Manager จะเป็นที่ต้องการมากขึ้น ในยุคที่ใช้ AI ช่วยเขียนโค้ดได้ง่ายขึ้นกว่าเดิม ในราคาถูกกว่าเดิมมาก
Andrew บอกว่างานพัฒนาซอฟต์แวร์ ประกอบด้วยตำแหน่ง Product Manager หรือ PM ที่ตัดสินใจว่าจะสร้างฟีเจอร์ไหน และ Software Developer ที่ทำงานเขียนโค้ดจริงๆ โดยปกติแล้ว สัดส่วน Engineer:PM อยู่ราว 6:1 แต่ก็อาจปรับเปลี่ยนได้ตามแต่ละบริษัท (เช่น 4:1 ไปจนถึง 10:1)
Google Cloud โชว์บริการ Hypercompute Clusterการให้เช่า VM ขนาดใหญ่กำลังสูงๆ สำหรับประมวลผล AI เพื่อมาต่อเป็นคลัสเตอร์ขนาดใหญ่ เสมือนเป็นการเช่า "ซูเปอร์คอมพิวเตอร์" ที่รันอยู่บนคลาวด์ของกูเกิลอีกที
แกนหลักของ Hypercompute Cluster คือ VM ที่ออกแบบมาสำหรับประมวลผล AI โดยเฉพาะ ซึ่งเลือกได้ระหว่างเครื่องสาย TPU ของกูเกิลเอง ( มีเครื่องที่รัน Trillium หรือ TPU v6 แล้ว ) กับเครื่องรุ่น A3 Ultra ที่ใช้จีพียู NVIDIA H200 จากนั้นนำเครื่องเหล่านี้มาต่อเป็นคลัสเตอร์ภายใต้บริการ Google Kubernetes Engine (GKE) บวกกับซอฟต์แวร์ด้านการจัดการของกูเกิลอีกจำนวนหนึ่ง
แอปเปิลได้ออกอัปเดต iOS 18.3 เบต้า 3 ซึ่งเป็นเวอร์ชันทดสอบให้กับนักพัฒนา โดยมีการเปลี่ยนแปลงสำคัญของ Apple Intelligence ส่วนปัญญาประดิษฐ์สรุปข้อความแจ้งเตือนหรือ Notification Summary
ก่อนหน้านี้ฟังก์ชัน Notification Summary ถูกรายงานปัญหาการสรุปข้อความที่ผิดเพี้ยนไปจากสาระสำคัญ โดยสำนักข่าว BBC ยกตัวอย่างหลายกรณี ทำให้ แอปเปิลออกมายอมรับ ในความผิดพลาดและบอกว่าจะแก้ไข
แอปเปิลอธิบายรายละเอียดที่ปรับปรุงใน iOS 18.3 ดังนี้
บริษัท Sybran Innovation สาธิตเทคโนโลยีในงาน CES 2025 เป็นอุปกรณ์ชื่อ Code27 Character Livehouse ที่นำตัวละครอนิเมะดิจิทัลมาสู่ชีวิตจริงให้สนทนาโต้ตอบได้
Code27 เป็นอุปกรณ์ทรงแคปซูลขนาดเล็กตั้งโต๊ะ รัศมี 18 ซม. สูง 36.6 ซม. พร้อมจอภาพ 1920x1200 ด้านใน แสดงภาพคาแรกเตอร์ตัวละครอนิเมะแบบ 3D ที่ผู้ใช้งานเลือกและอัปโหลดเข้าไป ซึ่งมีคอลเลกชันให้เลือกจาก 3rd Party ผ่านแคตาลอกของ Sybran และมีชุดปัญญาประดิษฐ์ LLM พื้นฐานมาให้ ผู้ใช้งานสามารถคัสตอมรายละเอียดเพิ่มเติมให้คาแรกเตอร์มีลักษณะเฉพาะตามที่ต้องการได้