ในงาน Google Cloud Next ‘23 ที่ผ่านมา Google Cloud ได้ประกาศความร่วมมือและชุดนวัตกรรมผลิตภัณฑ์ใหม่ เพื่อช่วยให้ธุรกิจองค์กรและภาครัฐในเอเชียตะวันออกเฉียงใต้สามารถทดลองใช้และสร้างแผนงานต่าง ๆ ด้วยโมเดลภาษาขนาดใหญ่ (LLM) และโมเดล generative AI (gen AI) ได้อย่างง่ายดาย รวมถึงยังสามารถเลือกใช้ ผสมผสานและปรับแต่งเครื่องมือต่าง ๆ ลงในแอปพลิเคชันได้อย่างราบรื่นด้วยฟีเจอร์ความเป็นส่วนตัวที่ติดตั้งในตัว ฟีเจอร์ด้านความปลอดภัย และ AI ที่มีความรับผิดชอบ
ยกระดับ AI-optimized infrastructure portfolio ของ Google Cloud
ความสามารถและแอปพลิเคชันที่ทำให้ gen AI เป็นนวัตกรรมที่ปฏิวัติวงการธุรกิจไปทั่วโลกนั้น จำเป็นต้องมีโครงสร้างพื้นฐานที่ละเอียด ซับซ้อนและมีความสามารถมากที่สุด ซึ่ง Google Cloud ลงทุนในศูนย์ข้อมูลและเครือข่ายมาเป็นเวลา 25 ปี และปัจจุบันมีเครือข่ายที่ประกอบด้วย Cloud Regions 38 แห่งทั่วโลก โดย Google Cloud ตั้งเป้าดำเนินงานโดยใช้พลังงานที่ปราศจากคาร์บอนอย่างสิ้นเชิงทุกวันตลอด 24 ชั่วโมงภายในปี 2573 ทั้งนี้ เครือข่ายของ Google Cloud ทั่วโลกประกอบด้วย ระบบคลาวด์ภูมิภาคในอินโดนีเซียและสิงคโปร์ ก่อนจะตามมาด้วยระบบคลาวด์ภูมิภาคใหม่ในมาเลเซียและไทย ดังนั้นโครงสร้างพื้นฐานที่เพิ่มประสิทธิภาพ AI ของ Google Cloud จึงเป็นตัวเลือกชั้นนำสำหรับการฝึกอบรมและการให้บริการโมเดล gen AI โดยกว่า 70% ของเหล่ายูนิคอร์น gen AI เช่น AI21, Anthropic, Cohere, Jasper, Replit, Runway, และ Typeface ได้ใช้งานและสร้างโมเดลบน Google Cloud
เพื่อช่วยให้องค์กรต่าง ๆ ในเอเชียตะวันออกเฉียงใต้เรียกใช้ AI เพื่อช่วยทำงานได้อย่างคุ้มค่าและปรับขนาดได้ตามความต้องการ Google Cloud ได้เปิดตัวการยกระดับที่สำคัญสำหรับ AI-optimized infrastructure portfolio ในชื่อ Cloud TPU v5e ที่เปิดให้ใช้งานแบบตัวอย่าง และ A3 VM with NVIDIA H100 GPU ที่เปิดให้ใช้งานได้ทั่วไปแล้ววันนี้
คำบรรยายภาพ: ภาพภายในภูมิภาค Google Cloud ที่ใช้ Cloud Tensor Processing Unit ประกอบด้วย ชิปที่สร้างขึ้นโดยเฉพาะ เครือข่ายศูนย์ข้อมูล สวิตช์วงจรออปติก ระบบระบายความร้อนด้วยน้ำ การตรวจสอบความปลอดภัยด้วยไบโอเมตริก และอื่น ๆ
Cloud TPU v5e เป็นตัวเร่ง AI ที่คุ้มค่า อเนกประสงค์ และปรับขนาดได้มากที่สุดของ Google Cloud จนถึงปัจจุบัน ซึ่งขณะนี้ลูกค้าสามารถใช้แพลตฟอร์ม Cloud Tensor Processing Unit (TPU) เพื่อดำเนินการทั้งการฝึกอบรม AI ขนาดใหญ่และการอนุมาน (inferencing) ได้ในแพลตฟอร์มเดียว โดย Cloud TPU v5e มอบประสิทธิภาพการฝึกที่สูงขึ้นถึง 2 เท่าต่อดอลลาร์ และประสิทธิภาพการอนุมานที่สูงขึ้นถึง 2.5 เท่าต่อดอลลาร์สำหรับ LLM และโมเดล gen AI ซึ่งเมื่อเปรียบเทียบกับ Cloud TPU v4 แล้ว องค์กรจำนวนมากจะสามารถฝึกฝนและปรับใช้ AI ที่ใหญ่และซับซ้อนยิ่งขึ้นได้ ในขณะนี้ Cloud TPU v5e เปิดให้ใช้งานแบบตัวอย่างในภูมิภาคคลาวด์ของ Google Cloud ในลาสเวกัสและโคลัมบัส โดยมีแผนจะขยายไปยังภูมิภาคอื่น ๆ รวมถึง Cloud Region ของสิงคโปร์ของ Google Cloud ภายในปลายปีนี้
A3 VMs ซูเปอร์คอมพิวเตอร์ที่ขับเคลื่อนโดยหน่วยประมวลผลกราฟิก H100 (GPU) ของ NVIDIA จะวางจำหน่ายทั่วไปในเดือนหน้า โดย A3 VM ช่วยให้องค์กรต่าง ๆ มีประสิทธิภาพการฝึกอบรมเร็วขึ้น 3 เท่า เมื่อเทียบกับ A2 รุ่นก่อน ซึ่งตัว A3 VM นี้สร้างขึ้นโดยมีจุดประสงค์เพื่อฝึกฝนและให้บริการทำงาน LLM และ gen AI ที่มีความต้องการสูงเป็นพิเศษ โดยบนเวทีที่งาน Google Cloud Next '23 บริษัท Google Cloud และ NVIDIA ยังได้ประกาศการขยายความร่วมมือของสองบริษัท เพื่อช่วยให้องค์กรใช้เทคโนโลยี NVIDIA ได้ในแบบเดียวกับที่ Google DeepMind และทีมวิจัยของ Google ใช้งานในช่วงสองปีที่ผ่านมา
Google Cloud ยังได้ประกาศความก้าวหน้าด้านโครงสร้างพื้นฐานที่สำคัญอื่น ๆ ดังนี้:
Mark Lohmeyer รองประธานและผู้จัดการทั่วไปฝ่ายโครงสร้างพื้นฐานด้านคอมพิวเตอร์และ ML ของ Google Cloud กล่าวว่า "เป็นเวลากว่าสองทศวรรษแล้วที่ Google ได้สร้างความสามารถด้าน AI ชั้นนำในอุตสาหกรรม ตั้งแต่การสร้างสถาปัตยกรรม Transformer ของ Google ที่ทำให้ gen AI เป็นจริงได้ ไปจนถึงโครงสร้าง AI-optimized ที่เราสร้างขึ้นเพื่อเพิ่มประสิทธิภาพที่จำเป็นสำหรับผลิตภัณฑ์ของ Google เช่น YouTube, Gmail, Google Maps, Google Play และ Android ที่ให้บริการแก่ผู้ใช้หลายพันล้านคนทั่วโลก และเรารู้สึกตื่นเต้นที่จะนำนวัตกรรมและการวิจัยนานหลายทศวรรษมาสู่ลูกค้าของ Google Cloud และตอบสนองความต้องการในการเปลี่ยนแปลง AI โดยครั้งนี้เรานำเสนอโซลูชันที่สมบูรณ์สำหรับ AI ตั้งแต่โครงสร้างพื้นฐานการประมวลผลที่ปรับให้เหมาะสมสำหรับ AI ไปจนถึงซอฟต์แวร์และบริการแบบ end-to-end ที่สนับสนุนวงจรการใช้งานเต็มรูปแบบของการฝึกอบรมโมเดล การปรับแต่ง และการให้บริการในระดับโลก”
ขยายการพัฒนา gen AI ที่พร้อมใช้ในองค์กรด้วยโมเดลและเครื่องมือใหม่ ๆ บน Vertex AI
คำบรรยายภาพ: Sundar Pichai ซีอีโอของ Google และ Alphabet ขึ้นเวทีที่งาน Google Cloud Next '23 เพื่อแชร์วิธีที่บริษัททำให้ AI มีประโยชน์มากขึ้นสำหรับทุกคน
นอกเหนือจากโครงสร้างพื้นฐานระดับโลกแล้ว Google Cloud ยังนำเสนอ Vertex AI แพลตฟอร์ม AI แบบครอบคลุมที่ช่วยให้ลูกค้าสามารถเข้าถึง ปรับแต่ง และปรับใช้ first-party model third-party model และ open-source model รวมถึง AI แอปพลิเคชันที่ช่วยสร้างและขยายขนาดระดับองค์กรได้อีกด้วย โดยจากการเปิดตัว gen AI support on Vertex AI ทำให้ Google Cloud กำลังขยายขีดความสามารถของ Vertex AI อย่างมีนัยสำคัญ ดังนี้:
Google ประเมินผลโมเดลอย่างเข้มงวดและแม่นยำเพื่อให้แน่ใจว่าเป็นไปตามหลักการ Responsible AI Principles ของบริษัท เมื่อใช้ Vertex AI ลูกค้าจะสามารถควบคุมข้อมูลของตนได้อย่างสมบูรณ์โดยไม่จำเป็นต้องออกจากระบบเช่าคลาวด์ของลูกค้า รวมถึงลูกค้าจะได้รับการเข้ารหัสทั้งระหว่างรับส่งและพักอยู่ และไม่มีการแชร์หรือใช้เพื่อทดสอบโมเดลของ Google อย่างแน่นอน
Thomas Kurian ซีอีโอของ Google Cloud กล่าวว่า “การควบคุมข้อมูล เป็นสิ่งที่สำคัญพอ ๆ กับการค้นหาและฝึกใช้โมเดลที่เหมาะสมต่อการทำงาน โดยตั้งแต่เริ่มต้น เราได้ออกแบบ Vertex AI เพื่อให้คุณสามารถควบคุมและแยกข้อมูล โค้ด และทรัพย์สินทางปัญญาได้อย่างสมบูรณ์โดยที่ข้อมูลไม่เกิดการรั่วไหลแม้แต่น้อย เมื่อคุณปรับแต่งและฝึกใช้โมเดลของคุณด้วย Vertex AI ที่มีเอกสารส่วนตัวและข้อมูลจากแอปพลิเคชัน SaaS ฐานข้อมูล หรือแหล่งที่มาที่เป็นกรรมสิทธิ์อื่น ๆ คุณจะไม่ได้เปิดเผยข้อมูลเหล่านั้นแก่โมเดลพื้นฐาน เพราะเราทำการ snapshot โมเดลเพื่อให้คุณสามารถฝึกและรวมโมเดลเข้าด้วยกันในการกำหนดค่าส่วนตัว ซึ่งทำให้คุณควบคุมข้อมูลของคุณได้อย่างสมบูรณ์ นอกจากนี้ พรอมต์และข้อมูลของคุณ ตลอดจนอินพุตของผู้ใช้ในระยะเวลาความเร็วในการแปรผลของแบบจําลอง จะไม่ถูกใช้เพื่อปรับปรุงโมเดลของเรา และไม่ถูกเข้าถึงจากลูกค้ารายอื่นอีกด้วย”
องค์กรต่าง ๆ ในครอบคลุมหลายอุตสาหกรรมและทั่วโลกต่างใช้ Vertex AI เพื่อสร้างและปรับใช้แอปพลิเคชัน AI ได้แก่บริษัท affable.ai, Aruna, Bank Raykat Indonesia, FOX Sports, GE Appliances, HCA Healthcare, HSBC, Jiva, Kasikorn Business-Technology Group Labs, KoinWorks, The Estée Lauder Companies, รัฐบาลสิงคโปร์, Mayo Clinic, Priceline, Shopify, Wendy’s และอีกมากมาย
“นับตั้งแต่ประกาศ gen AI support on Vertex AI เมื่อไม่ถึงหกเดือนที่ผ่านมา เรารู้สึกตื่นเต้นและยินดีเป็นอย่างยิ่งที่ได้เห็นการใช้งานอย่างสร้างสรรค์จากลูกค้าทุกประเภท ตั้งแต่ระดับองค์กร เช่น GE Appliances ที่ได้ใช้งานแอปสำหรับผู้บริโภค SmartHQ เพื่อมอบความสามารถในการสร้างสูตรอาหารแบบหลากหลายที่อิงจากอาหารในครัว ไปจนถึงสตาร์ทอัพยูนิคอร์นอย่าง Typeface ที่ช่วยให้องค์กรต่าง ๆ ใช้ประโยชน์จาก AI ในการเล่าเรื่องราวที่น่าสนใจขององค์กร เป็นต้น ซึ่งทั้งหมดนี้เราเห็นความต้องการที่เพิ่มขึ้นเรื่อย ๆ โดยจำนวนบัญชีลูกค้า Vertex AI เพิ่มขึ้นกว่า 15 เท่าในไตรมาสที่แล้ว” Kurian กล่าวปิดท้าย