Together.AI ผู้ให้บริการคลาวด์ปัญญาประดิษฐ์เปิดบริการปรับแต่งโมเดล (finetune) แบบ LoRA เต็มรูปแบบ โดยทั้งการฝึกโมเดลและการรันโมเดลที่ปรับแต่งมาแล้ว
บริการ Severless LoRA สามารถใช้ adapter ที่ปรับแต่งมาแล้วจากที่อื่นได้ โดยคิดค่ารันตามโทเค็นเท่ากับโมเดลหลักเท่านั้น และสามารถใช้งานได้กับทุกโมเดลที่ทาง Together.AI ให้บริการแบบ serverless อยู่ เช่น Llama และ Qwen
ส่วนการทำ finetune บน Together.AI ก็สามารถอัพโหลดชุดข้อมูลขึ้นไปฝึกแบบ LoRA ได้ โดยคิดค่าบริการตามขนาดข้อมูลและจำนวนรอบการฝึก หลักฝึกฝึกเสร็จแล้ว โมเดลจะนำไปรันได้ทันทีหรือจะดาวน์โหลด adapter ไปใช้งานที่อื่นก็ได้เช่นกัน
เมื่อเดือนที่ผ่านมา เป็นช่วง ครบรอบ 10 ปีบริการ AWS Lambda หนึ่งในบริการ serverless ตัวหลัก โดยแนวทางของ Amazon นั้นเมื่อมีทีมงานต้องการเสนอโครงการ จะเขียน "จดหมายข่าว" (press release - PR) ขึ้นมาเพื่อแสดงให้ผู้พิจารณาเห็นภาพว่าบริการที่กำลังจะทำนั้นมีหน้าตาเป็นอย่างไร และลูกค้าได้ประโยชน์อย่างไรบ้าง แม้แนวทางการทำงานนี้เป็นที่รับรู้โดยทั่วกัน แต่ตัวเอกสารจริงๆ ก็มักเป็นความลับทางการค้า แต่ในโอกาสครบรอบ 10 ปี AWS Lambda Dr. Werner Vogels CTO ของ AWS ก็นำเอกสารมาเปิดให้อ่านกัน
Google Cloud มีบริการรันงานแบบ serverless / event-driven อยู่สองตัวคือ Cloud Functions ที่เปิดตัวครั้งแรกปี 2016 ใช้ระบบจัดการเซิร์ฟเวอร์ที่กูเกิลพัฒนาเอง จำกัดภาษาโปรแกรมเท่าที่กูเกิลรองรับ รันได้เฉพาะบน GCP และ Cloud Run ที่เปิดตัวปี 2019 ใช้ Kubernetes (Knative) รันบนคลาวด์ยี่ห้ออื่นได้ ใช้รันไทม์ใดๆ ก็ได้ตามต้องการ
ทิศทางของกูเกิลชัดเจนว่า Cloud Run คืออนาคต และล่าสุดกูเกิลแปลงร่าง Cloud Functions เดิมมาทำงานบนเทคโนโลยีของ Cloud Run และใช้ชื่อใหม่ว่า Cloud Run Functions
Cloudflare ประกาศรองรับภาษา Python ในบริการ Cloudflare Workers ที่เป็น serverless ของตัวเอง จากเดิมที่รองรับเฉพาะภาษา JavaScript และ TypeScript เท่านั้น
ที่จริงแล้ว Workers นั้นรองรับ WebAssembly อยู่แล้ว ดังนั้นภาษาใดๆ ที่คอมไพล์เป็น WebAssembly ได้ก็จะใช้งานได้ รวมถึง Python เอง แต่ในความเป็นจริงหากใช้งานแบบที่แพลตฟอร์มไม่ได้ซัพพอร์ตก็จะลำบากมาก การคอนฟิกไม่ตรงไปตรงมา
AWS เปิดตัว Amazon ElastiCache Serverless บริการล่าสุดในตระกูล Serverless ที่ผู้ใช้สามารถสร้างระบบแคชจาก Amazon ElastiCache ได้อย่างรวดเร็ว และสเกลขนาดเครื่องขึ้นลงได้ตามปริมาณทราฟฟิกในแต่ละช่วงเวลา
ElastiCache Serverless ทำงานเหมือน ElastiCache เวอร์ชันปกติ คือเลือกใช้ระบบด้านหลังเป็น Redis (7.1 ขึ้นไป) หรือ Memcached (1.6 ขึ้นไป) ก็ได้ตามต้องการ แค่เปลี่ยนวิธีการสเกลเครื่องและการคิดเงินเท่านั้น
ที่มา - AWS Blog
Cloudflare ฉลองครบรอบวันก่อตั้งบริษัท เปิดตัวบริการใหม่ด้าน AI โดยเล่าถึงสถานการณ์ปัจจุบัน ที่โมเดล AI จะมีการรันหาผลลัพธ์ใน 2 กรณี คือรันที่อุปกรณ์ของผู้ใช้งาน (on-device) ใช้ได้กับโมเดลขนาดเล็ก เช่น การเสิร์ชหารูปภาพ หรือรันบนพับลิกคลาวด์แบบ ChatGPT สำหรับโมเดลที่มีขนาดใหญ่
Supabase เปิดซอร์สโครงการ Edge Runtime ที่เคยให้บริการ Edge Function อยู่ก่อนแล้ว ทำให้นักพัฒนาสามารถพอร์ตโค้ดไปรันเองได้นอกแพลตฟอร์ม Supabase เอง
ภายในของ Edge Runtime เป็น Deno แทบทั้งหมด แต่เพิ่มเว็บเซิร์ฟเวอร์ที่เขียนด้วย Rust เข้ามา โดยตัว Deno เองถูกตัด API ออกไปบางส่วน และสามารถจำกัดการใช้หน่วยความจำและระยะเวลารันได้เหมือนในคลาวด์ ทำให้นักพัฒนามั่นใจได้ว่าพฤติกรรมรันไทม์จะตรงกันนักพัฒนาสามารถเขียนฟังก์ชั่นด้วย TypeScript, JavaScript, หรือภาษาอื่นๆ ผ่านทาง WASM ได้ทั้งหมด
- Read more about Supabase โอเพนซอร์ส Edge Runtime ทำงานได้ตรงกับคลาวด์
- 1 comment
- Log in or register to post comments
สำหรับนักพัฒนาที่รันโค้ดแบบ serverless บน AWS Lambda ก็ต้องเจอปัญหา cold start กันมาทุกคน นั่นคือเมื่อตัวฟังก์ชันไม่ได้ถูกเรียกใช้มาระยะเวลาหนึ่งทำให้ AWS ปิดฟังก์ชันไป และในการเรียกใช้งานครั้งต่อไปหากไม่อยู่ในแคชก็จะต้องรันใหม่ตั้งแต่ต้น กินเวลานานหลายวินาที ส่งผลต่อประสิทธิภาพของแอพโดยรวมได้
แม้ที่ผ่านมา AWS จะพยายามลดเวลา cold start มาตลอด แต่ก็ยังกินเวลาหลายวินาที ล่าสุดได้เปิดตัว Lambda SnapStart ที่โฆษณาว่าช่วยลดระยะเวลา cold start ลงได้มากถึง 90% หรือแทบจะไม่มีการรอ cold start เลยทีเดียว
Cloudflare เปิดซอร์สโครงการ workerd ที่เป็นแกนหลักของบริการ Cloudflare Workers บริการแบบ serverless ที่ Cloudflare เปิดตัวมาตั้งแต่ปี 2017 แม้ว่าโดยตัวมันเองจะใช้จาวาสคริปต์แต่ก็มี API เฉพาะของตัวเองทำให้ไม่สามารถนำโค้ดไปรันที่อื่นได้
ก่อนหน้านี้ Cloudflare เคยปล่อยโครงการ Miniflare สำหรับจำลอง API ของ Workers เพื่อนักพัฒนามาก่อนแล้วแต่ก็ไม่ตรงกันนัก โครงการ workerd จะทำให้นักพัฒนาสามารถใช้งานรันไทม์ที่มีพฤติกรรมตรงกันแทบทุกจุด (bug-for-bug) กับ Workers บนคลาวด์ของ Cloudflare ทำให้นักพัฒนาสามารถนำโค้ดไปรันบนเซิร์ฟเวอร์ของตัวเองได้จริงๆ
Netlify ผู้ให้บริการคลาวด์สำหรับการพัฒนาเว็บ เปิดบริการ Netlify Edge Functions บริการ serverless โดยใช้ Deno เป็นเอนจินภายในที่อาจจะใช้สำหรับรันงานเฉพาะทาง เช่น เรนเดอร์ภาพ, แก้ไขคอนเทนต์ก่อนส่งถึงผู้ใช้, ทดสอบผู้ใช้แบบ A/B ไปจนถึงการรันเฟรมเวิร์ค front-end เต็มรูปแบบ
ทาง Netlify เคยเปิดทดสอบบริการรูปแบบเดียวกันมาก่อนแล้วในชื่อ Edge Handlers แต่ใช้เอนจินเฉพาะของตัวเอง แบบเดียวกับผู้ให้บริการคลาวด์รายอื่น แต่ปรากฎว่าไม่ได้รับความนิยมเพราะนักพัฒนาใช้เฟรมเวิร์คยอดนิยมไม่ได้เลย รอบบนี้การเปิดตัว Edge Functions จึงหันมาใช้เอนจิน Deno แล้วทดสอบกับเฟรมเวิร์คดังๆ ได้แก่ Astro, 11ty, Hydrogen, Next.js, Nuxt, Remix, และ SvelteKit
Apache Spark เป็นซอฟต์แวร์วิเคราะห์ข้อมูล big data แบบขนานที่ใช้งานกันอย่างแพร่หลาย และถูกนำไปให้บริการโดยคลาวด์หลายยี่ห้อ (เช่น Azure Databricks หรือ Amazon EMR) ถึงแม้เพิ่มความสะดวกในการดูแลระบบกว่าเดิม แต่ยังคงรูปแบบการเช่าเวลาเครื่องใช้งานเป็นชั่วโมงเหมือนคลาวด์ทั่วไป
ล่าสุด Google Cloud นำเอา Spark มาผสานกับแนวคิด Serverless ที่ไม่ต้องสนใจระบบคลัสเตอร์เบื้องหลังเลย เพราะตัวบริการจัดการเรื่องสเกลให้อัตโนมัติ และจ่ายเงินเฉพาะเท่าที่ใช้งาน
เมื่อปลายปีที่แล้ว Google บริจาคโครงการโอเพ่นซอร์ส Knative ให้ CNCF ดูแล และวันนี้ CNCF Technical Oversight Committee ได้โหวตเพื่อรับ Knative เข้า CNCF แล้ว เท่ากับว่า CNCF ได้เข้ามาดูแล Knative อย่างเป็นทางการในสถานะ incubating
สำหรับ Knative ตัวโครงการเป็นแพลตฟอร์มสำหรับการพัฒนา, ดีพลอย และบริหารจัดการแอปแบบ serverless และ event-driven บน Kubernetes โครงการนี้เป็นโอเพ่นซอร์สที่ก่อตั้งโดย Google ในปี 2018 และพัฒนาร่วมกับ IBM, Red Hat, VMWare, SAP และนักพัฒนาอีกกว่า 1,800 รายในชุมชนโอเพ่นซอร์ส
- Read more about CNCF โหวตรับ Knative เข้าเป็นโครงการในสถานะ Incubating
- Log in or register to post comments
กูเกิลประกาศบริจาค Knative เข้า Cloud Native Computing Foundation (CNCF) หลังจากเปิดโครงการมาตั้งแต่ปี 2018 และแม้จะเป็นโครงการโอเพนซอร์สมาตลอดแต่ก็ควบคุมโครงการโดยกูเกิลเองเป็นหลัก
Knative เป็นชุดซอฟต์แวร์สำหรับสร้างบริการแบบ serverless บน Kubernetes ที่ตอนนี้ได้รับความนิยมสูงสุดในชุมชน Kubernetes (รองลงไป คือ OpenFaaS, Kubeless, Virtual Kubelet, KEDA, Apache OpenWhisk)
แม้ว่ากูเกิลจะควบคุมโครงการเป็นหลัก แต่บริษัทอื่นๆ ก็ส่งนักพัฒนาเข้ามาร่วมพัฒนาต่อเนื่อง เช่น IBM, Red Hat, VMware, และ SAP ทาง IBM เองเคยแสดงความไม่พอใจที่ Knative ยังอยู่ภายใต้การควบคุมของกูเกิล
- Read more about กูเกิลบริจาค Knative เข้า CNCF คาดอยู่ในระดับ Incubating
- Log in or register to post comments
นับจากการเปิดตัว AWS Lambda ในปี 2014 เราก็เห็น AWS ทยอยปรับบริการเดิมของตัวเองจากการเช่าเครื่องตามระยะเวลา มาเป็นการจ่ายตามการใช้งานรายครั้ง (Serverless) มากขึ้นเรื่อยๆ ( ตัวก่อนหน้านี้คือฐานข้อมูล Aurora Serverless )
ปี 2021 เป็นคิวของ Amazon Redshift บริการ data warehouse ที่ออกเวอร์ชัน Serverless แล้ว ใช้ชื่อตรงไปตรงมาว่า Amazon Redshift Serverless
ไมโครซอฟท์เปิดบริการ Azure Container Apps บริการรันคอนเทนเนอร์ตามโหลดงานจริงโดยไม่ต้องดูแลโครงสร้างอื่นๆ รูปแบบเดียวกับ Google Cloud Run โดยผู้ใช้ไม่ต้องดูแลตัวเซิร์ฟเวอร์ พร้อมกับบริการเพิ่มจำนวนคอนเทนเนอร์อัตโนมัติเมื่อมีการใช้งานหนัก หรือการรันพร้อมกันหลายเวอร์ชั่นแล้วแยกทราฟิกเพื่อทดสอบ
บริการนี้สร้างจาก KEDA ซอฟต์แวร์จัดการคอนเทนเนอร์ที่เพิ่มโหลดตามปริมาณการใช้งานจริง รองรับ request แบบ HTTP และแบบอื่นๆ เช่น Azure Event Hub, Kafka, RabbitMQ, MongoDB, MySQL, PostgreSQL เป็นต้น การสเกลเลือกได้ต่ำสุดที่ศูนย์คอนเทนเนอร์ ทำให้สามารถวางแอปที่ใช้งานน้อยๆ ทิ้งไว้ได้โดยไม่มีค่าใช้จ่าย
Cloudflare โชว์ระยะเวลาตอบสนองของแอปที่รันบน Cloudflare Worker ว่ามีระยะเวลาหน่วง (latency) ต่ำกว่าบริการ Lambda และ Lambda@Edge ของ AWS อย่างมากแม้จะเป็นบริการประมวลผลแบบ serverless เหมือนกัน
โดยรวมแล้วที่ 90% ที่เร็วที่สุด (P90) ระยะเวลาหน่วงของ Workers เร็วกว่า Lambda 210% และเร็วกว่า Lambda@Edge 298% ทาง Cloudflare ระบุว่าระยะเวลาหน่วงที่เพิ่มขึ้นเนื่องจาก Lambda ต้องปิด/เปิด คอนเทนเนอร์ขึ้นมาประมวลผล และทำได้ช้ากว่าการรันโค้ดใน V8 มาก ทำให้ช่วงเวลา cold start กินเวลานาน แม้ว่า Lambda จะพยายามแก้ปัญหานี้ด้วยการส่งต่อทราฟิกไปประมวลผลในศูนย์ข้อมูลกลางแต่ก็ทำให้ระยะเวลาหน่วงเพิ่มขึ้นไม่เหมือนการรันที่ปลายเน็ตเวิร์ค (edge) จริงๆ
Azure Cosmos DB เพิ่มฟีเจอร์ครั้งใหญ่ รองรับ Serverless เต็มรูปแบบ, ขยายโควต้าใช้ฟรี, แจกอีมูเลเตอร์
Azure Cosmos DB บริการฐานข้อมูลแบบ NoSQL ของไมโครซอฟท์ประกาศเพิ่มฟีเจอร์สำคัญในงาน BUILD ได้แก่
Google Cloud Functions บริการ Function as a Service (FaaS) หรือบ้างก็เรียกการประมวลผลแบบ serverless ประกาศรองรับภาษา PHP แล้ว โดยจะเป็น PHP เวอร์ชัน 7.4 และยังมีสถานะเป็น public preview
PHP นับเป็นภาษาที่ 7 ที่ใช้งานกับ Cloud Functions ได้ โดย ภาษาที่รองรับมาแล้วก่อนหน้านี้คือ Node.js, Python, Go, Java, .NET, Ruby
การรองรับ PHP ยังทำให้ Cloud Functions เป็นบริการ serverless ตัวแรกที่รองรับภาษานี้ด้วย เพราะคู่แข่งโดยตรงทั้ง AWS Lambda และ Azure Functions ยังไม่รองรับ PHP ทั้งคู่
Google Cloud Functions บริการประมวลผลแบบ serverless ของฝั่งกูเกิล (ที่เทียบได้กับ Amazon Lambda ของฝั่ง AWS) ประกาศรองรับรันไทม์อีก 2 ภาษาคือ .NET Core 3.1 และ Ruby
ประกาศนี้ทำให้ตอนนี้ Cloud Functions รองรับภาษาทั้งหมด 6 ภาษาคือ Java 11 , Node.js (8/10/12), Python (3.7/3.8) และ Go
การเพิ่มจำนวนภาษาที่รองรับในรอบนี้ ทำให้ Cloud Functions ทัดเทียมกับคู่แข่ง Lambda ที่รองรับทั้งหมด 7 ภาษา (6 ภาษาแรกเหมือนกัน เพิ่ม PowerShell มาอีกหนึ่งภาษา) ในขณะที่ Azure Functions ของไมโครซอฟท์รองรับ .NET Core 3.1 (C#/F#), Node.js, Java, Python, PowerShell, TypeScript
Google Cloud Functions บริการประมวลผลแบบ serverless ของฝั่งกูเกิล ที่ เปิดตัวครั้งแรกปี 2016 และ ออกรุ่นเสถียรปี 2018 ประกาศรองรับ Java 11 แล้ว (ยังมีสถานะเป็น Beta)
Java 11 ถือเป็นแพลตฟอร์ม Java รุ่นซัพพอร์ตระยะยาว (LTS) รุ่นต่อจาก Java 8 ที่นิยมใช้กันแพร่หลาย การที่ Cloud Functions รองรับ Java 11 ช่วยให้แอพพลิเคชันสำหรับลูกค้าองค์กร รองรับฟีเจอร์ใหม่ๆ ของภาษารุ่นใหม่ด้วย
กูเกิลยังบอกว่าเฟรมเวิร์คยอดนิยมของโลก Java อย่าง Spring Cloud Function และ Micronaut ก็รองรับ Cloud Functions เรียบร้อยแล้วเช่นกัน
Google Cloud Run บริการ serverless แบบ fully-managed บน Google Cloud เปิดตัวมาเป็นเบต้าตั้งแต่ เดือนเมษายนที่ผ่านมา และวันนี้ Google Cloud Run ก็เข้าสู่สถานะ GA แล้ว
Google Cloud Run เป็นบริการที่นำทั้งแนวคิด serverless และ container เข้ามาใช้งานร่วมกัน สามารถเขียนโค้ดในภาษาอะไรก็ได้ ใช้ไบนารีภาษาอะไรก็ได้ ไม่ต้องกังวลเรื่องโครงสร้างพื้นฐานที่ต้องจัดการ เพียงสร้าง Docker image สำหรับการนำไปสร้างคอนเทนเนอร์ที่รับ request จาก URL เท่านั้น
เมื่อเดือนเมษายนปีนี้ กูเกิลเปิดตัว Cloud Run บริการ serverless สำหรับรันงานใน container ที่เป็นคำสั่ง HTTP แบบ stateless ซึ่งรวมข้อดีของแนวคิด serverless กับ container เข้าไว้ด้วยกัน
วันนี้กูเกิลต่อยอดด้วยการออกปุ่ม Cloud Run Button ที่ใช้ประโยชน์จากพลังของ Cloud Run โดยเราสามารถนำปุ่มนี้ไปแปะไว้บนเว็บไซต์ใดก็ได้ ให้ใครก็ได้กดได้ เมื่อมีคนกดปุ่มนี้ ระบบของ Cloud Run จะไปดึงซอร์สโค้ดของเราจาก Git มาดีพลอยบนโฮสต์ Google Cloud Platform (เบื้องหลังคือ Cloud Run) ให้อัตโนมัติ
Amazon ได้ประกาศให้ Aurora Serverless ระบบฐานข้อมูลแบบสเกลตัวเองอัตโนมัติตามการใช้งานบน PostgreSQL เข้าสู่สถานะ GA อย่างเป็นทางการ ตามหลังจากเวอร์ชัน MySQL ที่เข้าสู่สถานะ GA เมื่อปีที่แล้ว
วิธีใช้ Amazon Aurora Serverless ผู้ใช้จะต้องตั้งค่าความจุสูงสุดและต่ำสุด ส่วนไคลเอนท์จะเชื่อมต่อเข้าสู่ proxy ซึ่งจะ route เข้าไปยังเวิร์คโหลดด้านหลังที่สเกลได้ตามปริมาณโหลดที่เข้ามา ซึ่ง Amazon เคลมว่าการสเกลจะไวมากเพราะมีกลุ่มทรัพยากรที่เป็น warm pool ที่เมื่อต้องการใช้งานก็พร้อมเสียบทันที
บริษัทด้านความปลอดภัยเครือข่าย Palo Alto Networks ประกาศเข้าซื้อกิจการ 2 สตาร์ทอัพด้านความปลอดภัย โดยบริษัทแรกคือ Twistlock ซึ่งพัฒนาระบบความปลอดภัยสำหรับคอนเทนเนอร์ มูลค่า 410 ล้านดอลลาร์ ส่วนอีกบริษัทคือ PureSec ซึ่งเป็นสตาร์ทอัพด้านปลอดภัยของ serverless โดยไม่ได้เปิดเผยมูลค่าที่เข้าซื้อ
ความนิยมที่มากขึ้นของคอนเทนเนอร์ทำให้ประเด็นความปลอดภัยถูกยกขึ้นมาพูดถึงมากขึ้น และ Palo Alto Networks ก็ตัดสินใจเข้าลงทุนซื้อกิจการที่เกี่ยวข้องเพื่อเสริมเข้ามาในผลิตภัณฑ์ที่มีอยู่แล้วนั่นเอง
Twistlock ปัจจุบันมีลูกค้าระดับบริษัท Fortune 100 อยู่มากกว่า 25% ส่วน PureSec นั้นเป็นสตาร์ทอัพใหม่ที่เพิ่งเพิ่มทุนไป 10 ล้านดอลลาร์
ไมโครซอฟท์ร่วมกับ Red Hat เปิดตัว KEDA ระบบการประมวลผลอีเวนต์ ที่ทำให้สามารถพัฒนาซอฟต์แวร์แบบ serverless บนเครื่องในองค์กร เมื่อใช้ร่วมกับ Azure Functions runtime ทำให้องค์กรสามารถย้ายซอฟต์แวร์ที่พัฒนาสำหรับคลาวด์กลับมารันในคลัสเตอร์ Kubernetes ในองค์กรได้
KEDA รองรับอีเวนต์สี่แบบ ได้แก่ Kafka, RabbitMQ, Azure Storage Queue, และAzure Service Bus Queues and Topics สำหรับอีเวนต์ HTTP สามารถอยู่ร่วมกับ Knative เพื่อรองรับอีเวนต์ HTTP ไปพร้อมกัน ในอนาคตทางไมโครซอฟท์เตรียมเพิ่มประเภทอีเวนต์ที่รองรับให้มากขึ้นอีกหลายอย่าง