AWS นำเสนอบริการใหม่เพื่อเร่งความสามารถในการสร้างนวัตกรรม Generative AI

Share

Loading

ขณะนี้ Amazon Bedrock พร้อมให้บริการโดยทั่วไปแล้ว โดยเป็นบริการที่มีการจัดการเต็มรูปแบบ ซึ่งมีตัวเลือกโมเดลพื้นฐานที่มีประสิทธิภาพสูงจากบริษัท AI ชั้นนํา พร้อมด้วยชุดความสามารถที่หลากหลายในการสร้าง application ที่เกี่ยวกับ Generative AI ให้เลือกใช้ ซึ่งจะช่วยให้การพัฒนาง่ายขึ้นพร้อมกับการรักษาความเป็นส่วนตัวและความปลอดภัย

ด้วยการเพิ่ม Amazon Titan Embeddings และโมเดล Llama 2 ของ Meta เข้ามา ทำให้ Amazon Bedrock ช่วยให้ลูกค้ามีตัวเลือกและความยืดหยุ่นมากยิ่งขึ้นในการค้นหาโมเดลที่เหมาะสมกับการใช้งานในแต่ละกรณี

ความสามารถใหม่ของ Amazon CodeWhisperer จะอาศัยความสามารถของ Generative AI ในการแนะนำการเขียนโค้ดโดยใช้ฐานข้อมูลโค้ดภายในขององค์กรของลูกค้าเองเป็นแหล่งหลัก ซึ่งจะช่วยเพิ่มประสิทธิภาพการทำงานของนักพัฒนา

ความสามารถในการสร้างแดชบอร์ด Generative BI ใน Amazon QuickSight ช่วยให้นักวิเคราะห์ธุรกิจสามารถสำรวจข้อมูลและสร้างสื่อแสดงผลที่น่าสนใจได้อย่างรวดเร็วและง่ายขึ้น ผ่านการอธิบายสิ่งที่ต้องการด้วยภาษาธรรมชาติ

บริษัทต่าง ๆ เช่น สำนักข่าวกรุงเทพธุรกิจ, adidas, BMW Group, GoDaddy, Merck, NatWest Group, Persistent, PGA TOUR, Takenaka Corporation และ Traeger Grills เป็นกลุ่มลูกค้าที่ใช้นวัตกรรม Generative AI จาก AWS ในการเปลี่ยนสภาพผลิตภัณฑ์และบริการของตน

กรุงเทพฯ (10 ตุลาคม 2566) – Amazon Web Services, Inc. (AWS) บริษัทในเครือ Amazon.com, Inc. ประกาศเปิดตัวนวัตกรรมปัญญาประดิษฐ์ (Artificial Intelligence: AI) ทั้งหมด 5 นวัตกรรม เพื่อให้องค์กรทุกขนาดสามารถสร้างแอปพลิเคชัน Generative AI ใหม่ เพิ่มประสิทธิภาพการทำงานของพนักงาน และเปลี่ยนสภาพธุรกิจของตนได้ รวมถึงประกาศความพร้อมใช้งานทั่วไปของ Amazon Bedrock ซึ่งเป็นบริการที่มีการจัดการเต็มรูปแบบซึ่งทำให้โมเดลพื้นฐานต่าง ๆ (Foundation Model: FM) จากบริษัท AI ชั้นนำพร้อมใช้งานผ่าน Application Programming Interface (API) เดียว นอกจากนี้เพื่อให้ลูกค้ามีทางเลือกโมเดลพื้นฐานที่มากขึ้น AWS ยังประกาศความพร้อมใช้งานทั่วไปของโมเดล Amazon Titan Embeddings และ Llama 2 อีกด้วย ซึ่งจะทำให้เป็นบริการที่มีการจัดการเต็มรูปแบบแห่งแรกที่นำเสนอ Llama 2 ของ Meta ผ่านทาง API

สำหรับองค์กรที่ต้องการสร้างมูลค่าสูงสุดให้นักพัฒนาของตนจาก Generative AI นั้น AWS ยังประกาศความสามารถใหม่ (ที่จะพร้อมให้ใช้งานในแบบ preview เร็วๆ นี้) สำหรับ Amazon CodeWhisperer ที่เป็นคู่หูการเขียนโค้ดที่ขับเคลื่อนด้วย AI ของ AWS ที่ปรับแต่งคำแนะนำโค้ดของ CodeWhisperer อย่างปลอดภัยบนพื้นฐานของฐานข้อมูลโค้ดภายในขององค์กรเอง

AWS ปล่อยตัวอย่างความสามารถในการเขียน Generative Business Intelligence (BI) สำหรับ Amazon QuickSight เพื่อเพิ่มประสิทธิภาพการทำงานของนักวิเคราะห์ธุรกิจ โดย Amazon QuickSight เป็นบริการ BI แบบรวมศูนย์ที่สร้างขึ้นสําหรับระบบคลาวด์ เพื่อให้ลูกค้าสามารถสร้างสรรค์การนำเสนอที่น่าสนใจผ่านแผนภูมิ การคํานวณ และอื่นๆ อีกมากมาย โดยเพียงแค่อธิบายสิ่งที่ต้องการในภาษาธรรมชาติ

นวัตกรรม Amazon Bedrock และ Amazon Titan Embeddings ไปจนถึง CodeWhisperer และ QuickSight จะช่วยเพิ่มความสามารถของบริการที่ AWS มอบให้กับลูกค้าที่ใช้ Generative AI ในทุกระดับสําหรับองค์กรทุกขนาด ตลอดจนความปลอดภัยและความเป็นส่วนตัวระดับองค์กร หากต้องการเริ่มต้นใช้งาน Generative AI บน AWS โปรดไปที่ aws.amazon.com/generative-ai/

สวามิ ศิวาสุบราห์มาเนียน รองประธานฝ่ายข้อมูลและ AI ของ AWS กล่าวว่า “ในปีที่ผ่านมา การแพร่กระจายของข้อมูล การเข้าถึงการประมวลผลที่ปรับขนาดได้ และความก้าวหน้าของแมชชีนเลิร์นนิง (ML) ได้นําไปสู่ความสนใจใน Generative AI ที่เพิ่มขึ้นอย่างมาก ซึ่งจุดประกายแนวคิดใหม่ ๆ ที่อาจทำให้เกิดการเปลี่ยนแปลงในอุตสาหกรรมทั้งหมด และการเริ่มต้นคิดเรื่องวิธีการทำงานใหม่ ๆ ด้วยความปลอดภัยและความเป็นส่วนตัวระดับองค์กร การเลือกใช้ FM ชั้นนำ แนวทางที่เน้นข้อมูลเป็นพื้นฐาน รวมถึงโครงสร้างพื้นฐานประสิทธิภาพสูงที่มีความคุ้มค่าของเรา องค์กรต่าง ๆ จึงไว้วางใจใน AWS เพื่อขับเคลื่อนธุรกิจของพวกเขาด้วยโซลูชัน Generative AI การประกาศในวันนี้ถือเป็นก้าวสำคัญที่นำ Generative AI มาอยู่ใกล้แค่ปลายนิ้วของทุกธุรกิจ ตั้งแต่สตาร์ทอัพไปจนถึงองค์กรขนาดใหญ่ และพนักงานทุกคน ตั้งแต่นักพัฒนาไปจนถึงนักวิเคราะห์ข้อมูล ด้วยนวัตกรรมใหม่อันทรงพลัง AWS จึงนําความปลอดภัย ทางเลือก และประสิทธิภาพที่มากขึ้นมาสู่ลูกค้า ในขณะเดียวกันก็ช่วยให้พวกเขาปรับกลยุทธ์ข้อมูลให้สอดคล้องกันทั่วทั้งองค์กร เพื่อให้สามารถใช้ประโยชน์จากศักยภาพของ Generative AI เพื่อสร้างการเปลี่ยนแปลงได้อย่างเต็มที่”

องค์กรทุกขนาดและทุกธุรกิจต้องการเริ่มต้นใช้ Generative AI เพื่อเปลี่ยนแปลงวิธีการดำเนินงาน มองหาวิธีการแก้ปัญหาที่ยากลำบากและสร้างประสบการณ์ผู้ใช้ใหม่ ในขณะที่ความก้าวหน้าล่าสุดใน generative AI ได้รับความสนใจอย่างแพร่หลาย แต่ธุรกิจจํานวนมากไม่สามารถมีส่วนร่วมในการเปลี่ยนแปลงนี้ได้ องค์กรเหล่านี้ต้องการเริ่มต้นใช้ Generative AI แต่กังวลเรื่องความปลอดภัยและความเป็นส่วนตัวของเครื่องมือเหล่านี้ และยังต้องการทางเลือกของ FM ที่หลากหลาย เพื่อให้สามารถทดสอบโมเดลต่าง ๆ เพื่อพิจารณาว่าโมเดลใดทำงานได้ดีที่สุดสำหรับกรณีการใช้งานต่าง ๆ ลูกค้าต้องการใช้ประโยชน์สูงสุดจากข้อมูลที่มีอยู่แล้วโดยการปรับแต่งโมเดลแบบส่วนตัวเพื่อสร้างประสบการณ์ที่แตกต่างให้กับผู้ใช้จริง สุดท้ายพวกเขาต้องการเครื่องมือที่ช่วยให้พวกเขานำนวัตกรรมใหม่ ๆ เหล่านี้ออกสู่ตลาดได้อย่างรวดเร็ว และโครงสร้างพื้นฐานที่ช่วยให้พวกเขาสามารถนำแอปพลิเคชัน Generative AI ไปใช้ในระดับโลก นั่นเป็นเหตุผลที่ลูกค้า เช่น adidas, Alida, Asurion, BMW Group, Clariant, Genesys, Glide, GoDaddy, Intuit, LexisNexis Legal & Professional, Lonely Planet, Merck, NatWest Group, Perplexity AI, Persistent, Quext, RareJob Technologies, Rocket Mortgage, SnapLogic, Takenaka Corporation, Traeger Grills, the PGA TOUR, United Airlines, Verint, Verisk, WPS และอื่น ๆ ได้เลือกใช้ AWS สำหรับ Generative AI

Amazon Bedrock พร้อมใช้งานโดยทั่วไปแล้ว ช่วยให้ลูกค้าสามารถสร้างและปรับขนาดแอปพลิเคชัน Generative AI ได้มากยิ่งขึ้น

Amazon Bedrock เป็นบริการที่มีการจัดการเต็มรูปแบบซึ่งนําเสนอตัวเลือก FM ประสิทธิภาพสูงจากบริษัท AI ชั้นนํา เช่น AI21 Labs, Anthropic, Cohere, Meta, Stability AI และ Amazon พร้อมกับชุดความสามารถที่หลากหลายที่ลูกค้าต้องการในการสร้างแอปพลิเคชัน Generative AI ทำให้การพัฒนาง่ายขึ้นในขณะที่รักษาความเป็นส่วนตัวและความปลอดภัย ความยืดหยุ่นของ FM ทำให้สามารถนำไปใช้กับกรณีการใช้งานที่หลากหลาย โดยขับเคลื่อนทุกอย่างตั้งแต่การค้นหา การสร้างเนื้อหา ไปจนถึงการค้นพบยา อย่างไรก็ตาม มีบางสิ่งที่ยังขัดขวางธุรกิจส่วนใหญ่ที่ต้องการนำ Generative AI มาใช้ ประการแรกพวกเขาต้องการวิธีที่เรียบง่ายในการค้นหาและเข้าถึง FM ที่มีประสิทธิภาพสูงและเหมาะสมที่สุดกับวัตถุประสงค์ของพวกเขา ประการที่สองลูกค้าต้องการให้การรวมแอปพลิเคชันเป็นไปอย่างราบรื่น โดยไม่ต้องจัดการโครงสร้างพื้นฐานขนาดใหญ่หรือมีค่าใช้จ่ายจำนวนมาก สุดท้ายลูกค้าต้องการวิธีที่ง่ายในการใช้ FM พื้นฐานและสร้างแอปพลิเคชันที่แตกต่างด้วยข้อมูลของพวกเขา เนื่องจากข้อมูลที่ลูกค้าต้องการสำหรับการปรับแต่งนั้นเป็นทรัพย์สินที่มีคุณค่าอย่างมาก จึงต้องรักษาความปลอดภัยและความเป็นส่วนตัวอย่างสมบูรณ์ในกระบวนการ และลูกค้าต้องการควบคุมว่าข้อมูลจะถูกแบ่งปันและใช้งานอย่างไร

ด้วยความสามารถที่ครอบคลุมของ Amazon Bedrock ลูกค้าสามารถทดลองใช้ FM ชั้นนำได้หลายรูปแบบและสามารถปรับแต่งแบบส่วนตัวได้ด้วยข้อมูลของตนได้อย่างง่ายดาย นอกจากนี้ Amazon Bedrock ยังมีความสามารถที่แตกต่างออกไป เช่น การสร้างตัวแทน (Agent) เพื่อดำเนินงานทางธุรกิจที่ซับซ้อน เช่น การจองท่องเที่ยว การประมวลผลคำขอเคลมประกัน การสร้างแคมเปญโฆษณา และการจัดการสินค้าคงคลัง โดยไม่ต้องเขียนโค้ดใด ๆ และเนื่องจากบริการ Amazon Bedrock เป็นแบบ Serverless ลูกค้าไม่ต้องจัดการโครงสร้างพื้นฐานใด ๆ ลูกค้าสามารถปรับใช้ความสามารถของ Generative AI ในแอปพลิเคชันของตนได้อย่างปลอดภัยโดยใช้บริการของ AWS ที่คุ้นเคยอยู่แล้ว Amazon Bedrock สร้างขึ้นโดยคำนึงถึงความปลอดภัยและความเป็นส่วนตัว ทำให้ลูกค้าสามารถปกป้องข้อมูลที่ละเอียดอ่อนได้อย่างง่ายดาย ลูกค้าสามารถใช้ AWS PrivateLink เพื่อสร้างการเชื่อมต่อที่เป็นส่วนตัวและปลอดภัยระหว่าง Amazon Bedrock และ Virtual Private Cloud (VPC) โดยไม่ต้องเปิดเผยการรับส่งข้อมูลใด ๆ ไปยังอินเทอร์เน็ต และสำหรับลูกค้าในอุตสาหกรรมที่มีกฎระเบียบเข้มงวด Amazon Bedrock เป็นบริการที่สามารถใช้ได้ตามเกณฑ์ HIPAA และสอดคล้องกับ GDPR ช่วยให้ลูกค้าได้รับประโยชน์จาก Generative AI มากยิ่งขึ้น

Amazon Bedrock ขยายการเลือกโมเดลอย่างต่อเนื่องด้วย Amazon Titan Embeddings และ Llama 2 เพื่อช่วยให้ลูกค้าทุกคนค้นหาโมเดลที่เหมาะสมสำหรับกรณีการใช้งานของตน

ไม่มีโมเดลใดได้รับการปรับให้เหมาะสมสำหรับทุกกรณีการใช้งานและเพื่อปลดล็อกประโยชน์ของ Generative AI ลูกค้าจำเป็นต้องเข้าถึงโมเดลที่หลากหลายเพื่อค้นหาสิ่งที่ดีที่สุดตามความต้องการของพวกเขา นั่นคือเหตุผลที่ Amazon Bedrock ช่วยให้ลูกค้าค้นหาและทดสอบ FM ชั้นนําที่ผ่านการคัดสรรหลายรูปแบบได้อย่างง่ายดาย รวมถึงโมเดลจาก AI21 Labs, Anthropic, Cohere, Meta, Stability AI และ Amazon ผ่าน API เดียว นอกจากนี้ ยังเป็นส่วนหนึ่งของความร่วมมือเชิงกลยุทธ์ที่ประกาศเมื่อเร็ว ๆ นี้โดย FM ในอนาคตทั้งหมดจาก Anthropic จะพร้อมใช้งานภายใน Amazon Bedrock พร้อมสิทธิ์การเข้าถึงคุณสมบัติเฉพาะก่อนใครสำหรับการปรับแต่งโมเดลและความสามารถในการปรับแต่งอย่างละเอียด ทั้งนี้ Amazon Bedrock ยังคงขยายการเลือก FM อย่างต่อเนื่องด้วยการเข้าถึงโมเดลใหม่ ๆ

Amazon Titan Embeddings พร้อมใช้งานโดยทั่วไปแล้ว: Amazon Titan FM เป็นตระกูลโมเดลที่ AWS สร้างขึ้นและฝึก (Train) ด้วยชุดข้อมูลขนาดใหญ่ ทำให้มีความสามารถทั่วไปที่มีประสิทธิภาพเพื่อรองรับกรณีการใช้งานที่หลากหลาย โมเดลแรกที่พร้อมให้บริการทั่วไปแก่ลูกค้าคือ Amazon Titan Embeddings ซึ่งเป็นโมเดลภาษาขนาดใหญ่ (LLM) ที่แปลงข้อความเป็นตัวเลขที่เรียกว่า embeddings เพื่อเพิ่มประสิทธิภาพการค้นหา การปรับใช้ส่วนบุคคล และการสร้างเสริมการดึงข้อมูล (Retrieval-Augmented Generation: RAG) โมเดล FM เหมาะกับงานที่หลากหลาย แต่สามารถตอบคำถามเฉพาะตามการเรียนรู้จากข้อมูลที่ถูกฝึกมาหรือข้อมูลที่ได้รับจากในคำถามเท่านั้น ซึ่งจำกัดประสิทธิภาพในการตอบคำถามที่ต้องใช้ความรู้ใหม่ ๆ หรือข้อมูลที่มีกรรมสิทธิ์ เพื่อเพิ่มความสามารถในการตอบของ FM ด้วยข้อมูลเพิ่มเติม หลายองค์กรจึงหันมาใช้ RAG ซึ่งเป็นเทคนิคการปรับแต่งโมเดลยอดนิยมที่ FM เชื่อมต่อกับแหล่งความรู้ที่สามารถอ้างอิงเพื่อเพิ่มความสามารถในการตอบได้ ในการเริ่มต้นใช้งาน RAG ลูกค้าต้องเข้าถึงโมเดล embeddings เพื่อแปลงข้อมูลของตนเป็น embeddings ซึ่งช่วยให้ FM เข้าใจความหมายและความสัมพันธ์ระหว่างข้อมูลได้ง่ายขึ้น การสร้างโมเดล embeddings ต้องใช้ข้อมูลและทรัพยากรจำนวนมาก รวมถึงความเชี่ยวชาญด้าน ML ในเชิงลึก ทำให้หลายองค์กรไม่สามารถสร้างด้วยตัวเองและไม่สามารถใช้งาน RAG ได้. Amazon Titan Embeddings ทำให้ลูกค้าสามารถเริ่มต้นใช้งาน RAG ได้ง่ายขึ้นเพื่อเพิ่มความสามารถของ FM โดยใช้ข้อมูลที่เป็นกรรมสิทธิ์ของตน Amazon Titan Embeddings รองรับมากกว่า 25 ภาษาและความยาวของบริบทสูงสุดถึง 8,192 โทเค็น ทำให้เหมาะสำหรับการทำงานกับคำศัพท์ วลี หรือเอกสารต่าง ๆ ตามกรณีการใช้งานของลูกค้า โมเดลส่งคืนเวกเตอร์เอาท์พุตขนาด 1,536 มิติ ทำให้มีความแม่นยำสูง พร้อมยังมีการปรับผลลัพธ์ให้มีความหน่วงต่ำและประหยัดต้นทุน

Llama 2 จะมาในอีกไม่กี่สัปดาห์ข้างหน้า: Amazon Bedrock เป็นบริการ Generative AI ที่มีการจัดการเต็มรูปแบบรายแรกที่นําเสนอโมเดล Llama 2 ซึ่งเป็น LLM รุ่นต่อไปของ Meta ผ่าน API โมเดล Llama 2 มาพร้อมการปรับปรุงที่สําคัญกว่าโมเดล Llama เดิม ซึ่งรวมถึงการฝึกด้วยข้อมูลที่มากขึ้นถึง 40% และมีความยาวบริบทที่ยาวขึ้น 4,000 โทเค็นเพื่อให้สามารถใช้งานกับเอกสารขนาดใหญ่ได้ โมเดล Llama 2 ได้รับการปรับให้เหมาะสมเพื่อให้การตอบสนองอย่างรวดเร็วบนโครงสร้างพื้นฐานของ AWS ซึ่งพร้อมใช้งานผ่าน Amazon Bedrock เหมาะสำหรับกรณีการใช้งานเชิงโต้ตอบ ลูกค้าจะสามารถสร้างแอปพลิเคชัน Generative AI ด้วยโมเดล Llama 2 ขนาด 13B และ 70B พารามิเตอร์โดยไม่จำเป็นต้องตั้งค่าและจัดการโครงสร้างพื้นฐานใด ๆ

ความสามารถใหม่ของ Amazon CodeWhisperer จะช่วยให้ลูกค้าสามารถปรับแต่งคําแนะนํา CodeWhisperer ได้อย่างปลอดภัยโดยใช้ฐานโค้ดของตนเพื่อปลดล็อกประสิทธิภาพการทํางานของนักพัฒนาในระดับใหม่

Amazon CodeWhisperer ได้รับการฝึกด้วยหลายพันล้านบรรทัดและโค้ดสาธารณะของ Amazon เป็นเพื่อนคู่หูในการเขียนโค้ดที่ขับเคลื่อนด้วย AI ซึ่งช่วยปรับปรุงประสิทธิภาพการทำงานของนักพัฒนา ในขณะที่นักพัฒนามักใช้ CodeWhisperer ในการทำงานในแต่ละวัน แต่บางครั้งพวกเขาจำเป็นต้องรวมฐานโค้ดภายในขององค์กร (เช่น API Library Package และ Classes) ไว้ในแอปพลิเคชัน ซึ่งไม่รวมอยู่ในข้อมูลการฝึกของ CodeWhisperer อย่างไรก็ตาม การทำงานกับโค้ดภายในอาจเป็นเรื่องยากที่จะทำงานด้วยเนื่องจากเอกสารอาจมีจํากัดและไม่มีแหล่งข้อมูลหรือฟอรัม (Forum) สาธารณะที่นักพัฒนาสามารถขอความช่วยเหลือได้ ตัวอย่างเช่น ในการเขียนฟังก์ชันสำหรับเว็บไซต์อีคอมเมิร์ซที่จะลบสินค้าออกจากตะกร้าสินค้า นักพัฒนาจะต้องเข้าใจ API คลาสและโค้ดภายในอื่น ๆ ที่ใช้ในการโต้ตอบกับแอปพลิเคชันก่อน ก่อนหน้านี้นักพัฒนาอาจใช้เวลาหลายชั่วโมงในการตรวจสอบโค้ดภายในที่เขียนไว้ก่อนหน้านี้เพื่อค้นหาข้อมูลที่ต้องการและทําความเข้าใจว่ามันทำงานอย่างไร และหลังจากค้นหาทรัพยากรที่เหมาะสมแล้ว พวกเขาต้องตรวจสอบโค้ดอย่างใกล้ชิดเพื่อให้แน่ใจว่าเป็นไปตามแนวทางปฏิบัติที่ดีที่สุดในการเขียนโค้ดของบริษัท และไม่ทำให้เกิดข้อบกพร่องหรือช่องโหว่ใด ๆ ในโค้ดอ้างอิง

หน้าถัดไป