อธิบายอย่างละเอียดเกี่ยวกับโครงสร้าง AI+Web3

โครงการหลักในระดับพื้นฐานของวงการ AI+Web3 โดยสรุปมาจากเครือข่ายการคำนวณแบบไม่มีศูนย์เป็นเรื่องหลัก ต้นทุนต่ำเป็นข้อดีหลัก สิทธิและสิทธิของโทเค็นเป็นวิธีหลักในการขยายเครือข่าย และการบริการลูกค้าในวงการ AI+Web3 เป็นเป้าหมายหลัก

Forwarded original title: AI+Web3 Future Development Path (2): Infrastructure Chapter

โครงสร้างพื้นฐานคือทิศทางการเติบโตที่กำหนดได้ของการพัฒนา AI

1. การอุดมคติด้านความต้องการในการคำนวณ AI

ในช่วงไม่กี่ปีที่ผ่านมาความต้องการพลังการประมวลผลมีการเติบโตอย่างรวดเร็วโดยเฉพาะอย่างยิ่งหลังจากการเกิดขึ้นของโมเดล LLM ขนาดใหญ่ ความต้องการพลังการประมวลผล AI ที่เพิ่มขึ้นนี้ส่งผลกระทบอย่างมากต่อตลาดการประมวลผลประสิทธิภาพสูง ข้อมูลจาก OpenAI เผยให้เห็นแนวโน้มที่น่าทึ่งตั้งแต่ปี 2012 ด้วยพลังการประมวลผลที่ใช้ในการฝึกอบรมโมเดล AI ที่ใหญ่ที่สุดที่เติบโตอย่างทวีคูณโดยเพิ่มขึ้นเป็นสองเท่าทุก ๆ 3-4 เดือนโดยเฉลี่ยซึ่งสูงกว่าอัตราการเติบโตที่คาดการณ์โดย Moore's Law ความต้องการแอปพลิเคชัน AI ที่เพิ่มขึ้นส่งผลให้ความต้องการฮาร์ดแวร์คอมพิวเตอร์เพิ่มขึ้นอย่างรวดเร็ว การคาดการณ์ระบุว่าภายในปี 2025 ความต้องการฮาร์ดแวร์คอมพิวเตอร์ที่ขับเคลื่อนด้วยแอปพลิเคชัน AI คาดว่าจะเพิ่มขึ้นประมาณ 10% ถึง 15%

ด้วยแรงผลักดันจากความต้องการพลังการประมวลผล AI NVIDIA ผู้ผลิตฮาร์ดแวร์ GPU ได้เห็นการเติบโตอย่างต่อเนื่องของรายได้จากศูนย์ข้อมูล ในไตรมาสที่ 2 ของปี 2023 รายได้จากศูนย์ข้อมูลสูงถึง 10.32 พันล้านดอลลาร์ซึ่งเพิ่มขึ้น 141% จากไตรมาสที่ 1 ของปี 2023 และเพิ่มขึ้น 171% จากช่วงเวลาเดียวกันในปีที่แล้ว ภายในไตรมาสที่สี่ของปีงบประมาณ 2024 กลุ่มศูนย์ข้อมูลมีสัดส่วนมากกว่า 83% ของรายได้ทั้งหมด โดยมีการเติบโตพร้อมกันที่ 409% โดย 40% มาจากสถานการณ์การอนุมานโมเดลขนาดใหญ่ ซึ่งบ่งชี้ถึงความต้องการที่แข็งแกร่งสําหรับพลังการประมวลผลประสิทธิภาพสูง

พร้อมกันนี้ความต้องการที่มากมายของข้อมูลทำให้อุปกรณ์จัดเก็บข้อมูลและหน่วยความจำเกิดความต้องการที่สำคัญอย่างมาก โดยเฉพาะในช่วงของการฝึกโมเดล การนำเข้าพารามิเตอร์อย่างแท้จริงและการจัดเก็บข้อมูลเป็นสิ่งจำเป็น ชิปหน่วยความจำที่ใช้ในเซิร์ฟเวอร์ AI มักจะรวมถึงหน่วยความจำแบบความเร็วสูง (HBM) DRAM และ SSD สภาพแวดล้อมการทำงานสำหรับเซิร์ฟเวอร์ AI จำเป็นต้องมีความจุที่เพิ่มขึ้น ประสิทธิภาพที่ปรับปรุงลด laten ซีและเวลาตอบสนองอย่างรวดเร็ว ตามการคำนวณของ Micron ปริมาณของ DRAM ในเซิร์ฟเวอร์ AI เกินมาตรฐานของเซิร์ฟเวอร์传统 8 เท่าในขณะที่ปริมาณของ NAND เกินมาตรฐานของเซิร์ฟเวอร์传统 3 เท่า

2. ความไมดีของความต้องการและการเสียเปรียบเพิ่มค่าพลังงานคอมพิวเตอร์

โดยทั่วไปแล้วพลังการประมวลผลจะใช้เป็นหลักในขั้นตอนการฝึกอบรมการปรับแต่งและการอนุมานของโมเดล AI โดยเฉพาะอย่างยิ่งในระหว่างการฝึกอบรมและขั้นตอนการปรับแต่งอย่างละเอียด เนื่องจากอินพุตพารามิเตอร์ข้อมูลที่เพิ่มขึ้นข้อกําหนดในการคํานวณและความต้องการที่เพิ่มขึ้นสําหรับการเชื่อมต่อระหว่างกันในการประมวลผลแบบขนานจึงจําเป็นต้องมีฮาร์ดแวร์ GPU ที่มีประสิทธิภาพและเชื่อมต่อกันมากขึ้นซึ่งมักจะอยู่ในรูปแบบของคลัสเตอร์ GPU ประสิทธิภาพสูง เมื่อโมเดลขนาดใหญ่พัฒนาขึ้นความซับซ้อนในการคํานวณจะเพิ่มขึ้นเป็นเส้นตรงซึ่งจําเป็นต้องใช้ฮาร์ดแวร์ระดับไฮเอนด์มากขึ้นเพื่อตอบสนองความต้องการของการฝึกอบรมโมเดล

เรียก GPT-3 เป็นตัวอย่าง ด้วยสถานการณ์ที่เกี่ยวข้องกับประมาณ 13 ล้านการเข้าชมของผู้ใช้ที่เป็นอิสระ ความต้องการของชิปที่เกี่ยวข้องจะเกิน 30,000 A100 GPUs ต้นทุนการลงทุนเริ่มแรกนี้จะถึง 800 ล้านเหรียญ โดยคำนวณต้นทุนการใช้โมเดลประมาณทุกวันรวมอยู่ที่ประมาณ 700,000 เหรียญ

พร้อมกันนี้ รายงานภาคอุตสาหกรรมระบุว่าในไตรมาสที่สี่ของปี 2023 การจัดหา GPU ของ NVIDIA ถูก จำกัดอย่างรุนแรงในทั่วโลก ทำให้เกิดความไม่สมดุลที่เห็นได้ระหว่างการจัดหาและความต้องการในตลาดทั่วโลก ความสามารถในการผลิตของ NVIDIA ถูก จำกัดโดยปัจจัยอย่าง TSMC, HBM, CoWos packaging, และปัญหา "ขาดแคลนรุนแรง" ของ GPU H100 คาดว่าจะยังคงอยู่อย่างน้อย จนถึงสิ้นปี 2024

ดังนั้น ความต้องการที่เพิ่มขึ้นสำหรับ GPU ระดับสูงและข้อจำกัดในการจัดหาไดรฟ์ให้ราคาของอุปกรณ์ฮาร์ดแวร์ปัจจุบันเช่น GPU ทะลุเข้าสู่ราคาสูงขึ้น โดยเฉพาะสำหรับบริษัทที่มีบทบาทสำคัญในการขายสินค้าได้แก่ NVIDIA ราคาสูงยิ่งขึ้นเนื่องจากการควบคุมตลาดอย่างมโนโพลิสติกของพวกเขา ทำให้พวกเขาสามารถเก็บเกี่ยวค่าลดหย่อนเพิ่มเติมได้อย่างมาก ตัวอย่างเช่น ต้นทุนวัสดุของการ์ด H100 AI ของ NVIDIA ประมาณ $3,000 แต่ราคาขายของมันถึงประมาณ $35,000 ในช่วงกลางปี 2023 และแม้กระทั่งเกิน $40,000 บน eBay

3. โครงสร้าง AI ส่งเสริมการเติบโตของโซ่อุตสาหกรรม

รายงานโดย Grand View Research ระบุว่าขนาดตลาด AI บนคลาวด์ระดับโลกประมาณ 62.63 พันล้านเหรียญในปี 2023 ที่โครงการว่าจะเพิ่มขึ้นเป็น 647.6 พันล้านเหรียญโดยปี 2030 พร้อมกับอัตราการเจริญเฉลี่ยของ 39.6% ข้อความเหล่านี้ย้ำถึงศักยภาพการเจริญขึ้นอย่างมีนัยสำคัญของบริการ AI บนคลาวด์และส่วนร่วมมากๆ ในโซ่อุตสาหกรรม AI โดยรวม

ตามการประมาณของ a16z ส่วนใหญ่ของเงินทุนในตลาด AIGC (AI และ Global Computing) สุดท้ายก็ไหลไปที่บริษัทโครงสร้างพื้นฐาน โดยเฉลี่ยบริษัทแอปพลิเคชันจะจัดสรรเงินรายได้ประมาณ 20-40% สำหรับการอนุมัติและการปรับแต่งในแต่ละลูกค้า ค่าใช้จ่ายนี้มักจะถูกนำไปใช้กับผู้ให้บริการคลาวด์ของตัวอินสแตนซ์หรือผู้ให้บริการโมเดลบุคคลที่สามซึ่งจะแบ่งรายได้ประมาณครึ่งละกับโครงสร้างพื้นที่คลาวด์ ดังนั้น ถือว่าเป็นสมเหตุสมผลที่สุดท้าย 10-20% ของรายได้ทั้งหมดที่สร้างขึ้นโดย AIGC จะเป็นการนำเสนอไปยังผู้ให้บริการคลาวด์

นอกจากนี้ ส่วนสำคัญของความต้องการในด้านพลังงานคอมพิวเตอร์เน้นไปที่การฝึกโมเดล AI ขนาดใหญ่ รวมถึงโมเดล LLM ที่หลากหลาย โดยเฉพาะสำหรับโมเดลของบริษัท Startup ค่าใช้จ่าย 80-90% ถูกจัดสรรไปยังพลังงานคอมพิวเตอร์ AI โดยรวม โครงสร้างพลังงานคอมพิวเตอร์ AI ซึ่งรวมถึงการคำนวณใน cloud และฮาร์ดแวร์ คาดว่าจะแสดงถึงมากกว่า 50% ของมูลค่าเริ่มต้นของตลาด

การคำนวณ AI แบบกระจาย

เหมือนที่ได้กล่าวถึงก่อนหน้านี้ ค่าใช้จ่ายในปัจจุบันของการคำนวณ AI แบบศูนย์กลางยังคงสูงอยู่ โดยที่ส่วนใหญ่เกิดจากความต้องการที่กำลังเพิ่มขึ้นสำหรับโครงสร้างพื้นฐานที่มีประสิทธิภาพสูงสำหรับการฝึก AI อย่างไรก็ตาม มีพลังการคำนวณที่ไม่ได้ใช้งานอยู่ในตลาดอย่างมาก ซึ่งเป็นสาเหตุให้เกิดการไม่สอดคล้องระหว่างการขายและการซื้อ ปัจจัยสำคัญที่มีส่วนสำคัญในการสร้างความไม่สมดุลนี้รวมถึง:

  • ความซับซ้อนของโมเดลไม่มีความสัมพันธ์ในการเติบโตเชิงเส้นกับจํานวน GPU ที่ต้องการ: GPU ปัจจุบันมีข้อได้เปรียบด้านพลังในการคํานวณ แต่การฝึกอบรมโมเดลต้องใช้พารามิเตอร์จํานวนมากเพื่อเก็บไว้ในหน่วยความจํา ตัวอย่างเช่นสําหรับ GPT-3 ในการฝึกอบรมโมเดลที่มีพารามิเตอร์ 175 พันล้านรายการข้อมูลมากกว่า 1 เทราไบต์จะต้องเก็บไว้ในหน่วยความจําซึ่งมากกว่า GPU ใด ๆ ที่มีอยู่ในปัจจุบันดังนั้นจึงต้องใช้ GPU มากขึ้นสําหรับการประมวลผลและการจัดเก็บแบบขนาน ซึ่งจะนําไปสู่พลังการประมวลผล GPU ที่ไม่ได้ใช้งาน ตัวอย่างเช่นจาก GPT3 ถึง GPT4 ขนาดพารามิเตอร์โมเดลเพิ่มขึ้นประมาณ 10 เท่า แต่จํานวน GPU ที่ต้องการเพิ่มขึ้น 24 เท่า (โดยไม่คํานึงถึงการเพิ่มขึ้นของเวลาการฝึกอบรมโมเดล) จากการวิเคราะห์ที่เกี่ยวข้อง OpenAI ใช้ FLOPS ประมาณ 2.15e25 ในการฝึกอบรม GPT-4 และดําเนินการฝึกอบรมเกี่ยวกับ A100 GPU ประมาณ 25,000 ตัวเป็นเวลา 90 ถึง 100 วันโดยมีการใช้พลังงานในการคํานวณประมาณ 32% ถึง 36%

เพื่อตอบสนองต่อความท้าทายที่ระบุไว้ข้างต้นการแสวงหาการออกแบบชิปประสิทธิภาพสูงหรือชิป ASIC เฉพาะที่ปรับให้เหมาะกับงาน AI เป็นช่องทางที่โดดเด่นที่นักพัฒนาและองค์กรรายใหญ่จํานวนมากสํารวจ อีกแนวทางหนึ่งเกี่ยวข้องกับการใช้ทรัพยากรคอมพิวเตอร์ที่มีอยู่อย่างครอบคลุมเพื่อสร้างเครือข่ายคอมพิวเตอร์แบบกระจายโดยมีเป้าหมายเพื่อลดต้นทุนพลังงานการประมวลผลผ่านการเช่าการแบ่งปันและการจัดกําหนดการทรัพยากรที่มีประสิทธิภาพ นอกจากนี้ปัจจุบันตลาดยังมี GPU และ CPU ระดับผู้บริโภคที่ไม่ได้ใช้งาน แม้ว่าแต่ละหน่วยอาจขาดพลังการประมวลผลที่แข็งแกร่ง แต่ก็สามารถตอบสนองความต้องการด้านการคํานวณที่มีอยู่ได้อย่างมีประสิทธิภาพในสถานการณ์เฉพาะหรือเมื่อรวมเข้ากับชิปประสิทธิภาพสูง สิ่งสําคัญคือการสร้างความมั่นใจว่ามีอุปทานเพียงพอเป็นสิ่งจําเป็นเนื่องจากต้นทุนสามารถลดลงได้อีกผ่านการจัดกําหนดการเครือข่ายแบบกระจาย

ดังนั้นการเปลี่ยนแปลงไปสู่พลังการประมวลผลแบบกระจายจึงกลายเป็นทิศทางสําคัญในความก้าวหน้าของโครงสร้างพื้นฐาน AI ในขณะเดียวกันด้วยการจัดแนวความคิดระหว่าง Web3 และระบบกระจายเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจได้กลายเป็นจุดสนใจหลักในภูมิทัศน์โครงสร้างพื้นฐาน Web3 + AI ปัจจุบันแพลตฟอร์มพลังการประมวลผลแบบกระจายอํานาจในตลาด Web3 โดยทั่วไปเสนอราคาที่ต่ํากว่าบริการคลาวด์คอมพิวติ้งแบบรวมศูนย์ 80% -90%

ในขณะที่การจัดเก็บข้อมูลเป็นสิ่งสำคัญในโครงสร้าง AI การจัดเก็บข้อมูลแบบกระจายที่มีขนาดใหญ่ ใช้งานง่าย และมี laten ต่ำ อย่างมีชัดเจน อย่างไรก็ตาม ด้วยความประสิทธิภาพทางต้นทุนที่มีชัดเจนที่พวกเขาเสนอ ระบบเครือข่ายการคำนวณแบบกระจายมีศักยภาพทางตลาดที่สำคัญและมีโอกาสได้รับประโยชน์มากจากการขยายตลาด AI ที่กำลังเจริญเติบ

  • การอนุมานแบบจําลองและการฝึกอบรมแบบจําลองขนาดเล็กแสดงถึงสถานการณ์พื้นฐานสําหรับพลังการประมวลผลแบบกระจายในปัจจุบัน การกระจายตัวของทรัพยากรการประมวลผลในระบบแบบกระจายย่อมทําให้เกิดความท้าทายในการสื่อสารระหว่าง GPU ซึ่งอาจนําไปสู่ประสิทธิภาพการประมวลผลที่ลดลง ดังนั้นพลังการประมวลผลแบบกระจายจึงเหมาะสมที่สุดสําหรับสถานการณ์ที่จําเป็นต้องมีการสื่อสารน้อยที่สุดและสามารถรองรับงานคู่ขนานได้อย่างมีประสิทธิภาพ สถานการณ์เหล่านี้รวมถึงขั้นตอนการอนุมานของโมเดล AI ที่กว้างขวางและโมเดลขนาดเล็กที่มีพารามิเตอร์ค่อนข้างน้อยซึ่งช่วยลดผลกระทบด้านประสิทธิภาพ เมื่อมองไปข้างหน้าเมื่อแอปพลิเคชัน AI พัฒนาขึ้นการให้เหตุผลก็กลายเป็นข้อกําหนดที่สําคัญที่เลเยอร์แอปพลิเคชัน เนื่องจาก บริษัท ส่วนใหญ่ขาดความสามารถในการฝึกอบรมโมเดลขนาดใหญ่อย่างอิสระพลังการประมวลผลแบบกระจายจึงยังคงมีศักยภาพทางการตลาดในระยะยาวอย่างมีนัยสําคัญ
  • มีการเพิ่มขึ้นในกรอบการอบรมแบบกระจายที่มีประสิทธิภาพสูงที่ออกแบบมาสำหรับการคำนวณแบบขนานขนาดใหญ่ กรอบการคำนวณแบบกระจายโอเพนซอร์สอย่าง PyTorch, Ray และ DeepSpeed กำลังให้การสนับสนุนพื้นฐานที่แข็งแกร่งให้แก่นักพัฒนาในการใช้พลังการคำนวณแบบกระจายในการอบรมโมเดล ความก้าวหน้านี้เสริมสร้างความสามารถในการใช้พลังการคำนวณแบบกระจายในตลาด AI ในอนาคต โดยช่วยให้การผสานเข้ากับแอปพลิเคชัน AI ต่างๆ

ตรรกะนิรันดร์ของโครงการพื้นฐาน AI+Web3

ภาคระบบโครงสร้าง AI แบ่งเป็นระบบที่แข็งแกร่งและมีโอกาสในการเติบโตอย่างมีนัยยะ ซึ่งทำให้เป็นพื้นที่ที่น่าสนใจสำหรับการลงทุน ปัจจุบันโครงการหลักภายในอุตสาหกรรม AI+Web3 ประกอบด้วยเครือข่ายการคำนวณที่กระจายอย่างสำคัญ โครงการเหล่านี้เน้นทุนต้นทุนต่ำเป็นข้อดีสำคัญ ใช้สิทธิของโทเค็นเพื่อขยายเครือข่ายของตน และมีการจัดลำดับการให้บริการลูกค้า AI+Web3 เป็นวัตถุประสงค์หลัก ภาคนี้ประกอบด้วยสองระดับหลัก

  1. แพลตฟอร์มการแบ่งปันและให้เช่าทรัพยากรคอมพิวเตอร์บนคลาวด์ที่มีความเป็นธรรมที่สูง: โครงการ AI เริ่มต้นเช่น Render Network, Akash Network และอื่น ๆ อยู่ในหมวดหมู่นี้
  • ความได้เปรียบในกลุ่มภาคสาานวัตถุดิบสำคัญนี้ อยู่ที่ทรัพยากรพลวัตคอมพิวเตอร์ที่เป็นเครื่องมือที่สำคัญในการเข้าถึงผู้ให้บริการหลากหลาย การก่อตั้งเครือข่ายอย่างรวดเร็ว และการเสนอผลิตภัณฑ์ที่ใช้งานได้ง่าย ผู้เข้าร่วมตลาดในช่วงแรก เช่น บริษัทคลาวด์คอมพิวติ้งและนักขุดหิน มีตำแหน่งที่ดีในการเข้าถึงโอกาสนี้
  • ด้วยความสามารถในการตั้งค่าระดับผลิตภัณฑ์ที่ต่ำและความสามารถในการเปิดตัวอย่างรวดเร็ว เว็บไซต์ที่ได้รับการยอมรับอย่าง Render Network และ Akash Network ได้แสดงให้เห็นถึงการเติบโตที่น่าสังเกตและครอบครองข้อได้เปรียบในการแข่งขัน
  • อย่างไรก็ตาม ผู้เข้าร่วมตลาดใหม่ต้องเผชิญกับความท้าทายในเรื่องของความเหมือนกันของผลิตภัณฑ์ แนวโน้มปัจจุบันและอุปสรรคการเข้าร่วมที่ต่ำได้ส่งผลให้มีโครงการที่เน้นทำให้มีพลังคำนวณร่วมกันและการเช่ามากขึ้น ในขณะที่ข้อเสนอเหล่านี้ขาดความแตกต่าง แต่ก็มีความต้องการที่เติบโตของข้อดีในการแข่งขันที่แตกต่างกัน
  • ผู้ให้บริการโดยทั่วไปจะมุ่งเน้นลูกค้าที่มีความต้องการในด้านคอมพิวเตอร์พื้นฐาน ตัวอย่างเช่น Render Network เชี่ยวชาญในการบริการการเรนเดอร์ ในขณะที่ Akash Network นำเสนอทรัพยากร CPU ที่เพิ่มเติม แม้ว่าการเช่าทรัพยากรคอมพิวเตอร์เบื้องต้นจะเพียงพอสำหรับงาน AI พื้นฐาน แต่ก็ยังไม่เพียงพอต่อความต้องการรายละเอียดของกระบวนการ AI ที่ซับซ้อน เช่น การฝึกฝน การปรับแต่ง และการสรุป
  1. ให้บริการการคำนวณแบบกระจายและบริการการทำงานของเครื่องเรียนรู้ โครงการที่กำลังเจริญมากทั้งหลายได้รับทุนมากมายล่าสุด เช่น เจนซิน, io.net, ริทูอล และอื่นๆ
  • การคำนวณแบบกระจายยกระดับรากฐานของการประเมินในอุตสาหกรรม โดยที่พลังคำนวณเป็นจุดสำคัญในการพัฒนา AI โครงการที่เกิดจากพลังคำนวณมักมีโมเดลธุรกิจที่แข็งแกร่งและมีศักยภาพมากกว่าโครงการที่เป็นตัวกลางเท่านั้น ซึ่งทำให้มีการประเมินค่าสูงกว่า
  • บริการระดับกลางสร้างข้อได้เปรียบที่โดดเด่น บริการที่นําเสนอโดยชั้นกลางทําหน้าที่เป็นความได้เปรียบในการแข่งขันสําหรับโครงสร้างพื้นฐานการประมวลผลเหล่านี้ซึ่งครอบคลุมฟังก์ชันต่างๆเช่น oracles และ verifiers ที่อํานวยความสะดวกในการซิงโครไนซ์การคํานวณทั้งในและนอกเครือข่ายบนห่วงโซ่ AI เครื่องมือการปรับใช้และการจัดการที่รองรับเวิร์กโฟลว์ AI โดยรวมและอื่น ๆ เวิร์กโฟลว์ AI โดดเด่นด้วยการทํางานร่วมกันข้อเสนอแนะอย่างต่อเนื่องและความซับซ้อนสูงทําให้ต้องใช้พลังการประมวลผลในขั้นตอนต่างๆ ดังนั้นเลเยอร์มิดเดิลแวร์ที่ใช้งานง่ายทํางานร่วมกันสูงและสามารถตอบสนองความต้องการที่ซับซ้อนของนักพัฒนา AI จึงกลายเป็นสินทรัพย์ที่มีการแข่งขันโดยเฉพาะอย่างยิ่งในโดเมน Web3 ซึ่งตอบสนองความต้องการของนักพัฒนา Web3 สําหรับ AI บริการเหล่านี้เหมาะสําหรับตลาดแอปพลิเคชัน AI ที่มีศักยภาพมากกว่าการสนับสนุนการประมวลผลขั้นพื้นฐาน
  • ทีมโครงการที่มีความเชี่ยวชาญในด้านการดำเนินการและบำรุงรักษาในฟิลด์ ML มักจะเป็นสิ่งจำเป็น ทีมที่ให้บริการชั้นกลางต้องมีความเข้าใจอย่างละเอียดถึงขั้นตอนการทำงานทั้งหมดของ ML เพื่อที่จะสามารถตอบสนองต่อความต้องการของนักพัฒนาชุดชีวิตการทำงานอย่างเต็มรูปแบบ ในขณะที่บริการเช่นนี้มักใช้เฟรมเวิร์กโอเพ่นซอร์สและเครื่องมือที่มีอยู่โดยไม่ต้องการนวัตกรรมทางเทคนิคที่สำคัญมากนัก แต่ต้องการทีมงานที่มีประสบการณ์ล้ำลึกและความสามารถด้านวิศวกรรมที่แข็งแกร่ง เป็นประโยชน์ที่สำคัญสำหรับโครงการ

ให้บริการในราคาที่แข่งขันมากกว่าบริการคอมพิวเตอร์คลาวด์ที่ centralize ในขณะที่รักษาสิ่งอำนวยความสะดวกและประสบการณ์การใช้งานที่เทียบเท่า โครงการนี้ได้รับการยอมรับจากนักลงทุนชั้นนำ อย่างไรก็ตาม ความซับซ้อนทางเทคนิคที่สูงขึ้นเป็นที่ท้าทายอย่างมีนัยสำคัญ ณ ปัจจุบัน โครงการอยู่ในช่วงเรื่องราวและการพัฒนา โดยไม่มีผลิตภัณฑ์ที่เปิดให้บริการในตอนนี้

โครงการแทน

1.Render Network

Render Network เป็นแพลตฟอร์มการเรนเดอร์ที่ใช้เทคโนโลยีบล็อกเชนระดับโลกซึ่งใช้ GPU แบ่งเบาสำหรับให้ผู้สร้างบริการการเรนเดอร์ 3 มิติอย่างมีประสิทธิภาพและคุ้มค่า หลังจากผู้สร้างยืนยันผลการเรนเดอร์ ระบบบล็อกเชนจะส่งรางวัลโทเค็นไปยังโหนด แพลตฟอร์มมีระบบเรนเดอร์ GPU แบ่งเบาแบบกระจายและจัดสรรงานที่ใช้โหนดตามการใช้งาน ชื่อเสียง และปัจจัยอื่น ๆ เพื่อเพิ่มประสิทธิภาพในการคำนวณ ลดทรัพยากรที่ไม่ได้ใช้อย่างมาก และลดค่าใช้จ่าย

โทเคนเชื่อมโยงภายในของแพลตฟอร์ม RNDR ทำหน้าที่เป็นสกุลเงินชำระในระบบนี้ ผู้ใช้สามารถใช้ RNDR เพื่อชำระค่าบริการเรนเดอริ่ง ในขณะเดียวกันผู้ให้บริการบริการได้รับรางวัล RNDR โดยการมีส่วนร่วมในการให้พลังการคำนวณเพื่อทำงานของเรนเดอริ่ง การกำหนดราคาของบริการเรนเดอริ่งถูกปรับเปลี่ยนอย่างไดนามิกตามการใช้เครือข่ายปัจจุบันและปัจจัยที่เกี่ยวข้อง

การเรนเดอร์พิสูจน์ว่าเป็นกรณีการใช้งานที่เหมาะสมและเป็นที่ยอมรับสำหรับโครงสถาปัตยกรรมการคำนวณแบบกระจายพลังงาน ลักษณะของงานเรนเดอร์ช่วยให้สามารถแบ่งส่วนเป็นงานย่อย ๆ ที่ทำงานพร้อมกัน ลดการสื่อสารและปฏิสัมพันธ์ระหว่างงานที่มาก ๆ น้อย ๆ และช่วยลดผลของโครงสถาปัตยกรรมการคำนวณแบบกระจายในขณะที่ใช้เครือข่ายโหนด GPU ที่กว้างขวางเพื่อเพิ่มประสิทธิภาพทางด้านต้นทุน

ความต้องการสำหรับเครือข่าย Render มีอย่างมาก โดยผู้ใช้ได้ทำการเรนเดอร์เกือบ 16 ล้านเฟรมและเกือบ 500,000 ฉากบนแพลตฟอร์มตั้งแต่เริ่มต้นในปี 2017 ปริมาณงานเรนเดอร์และโหนดที่ใช้งานต่อเนื่องการเพิ่มขึ้น นอกจากนี้ในไตรมาส 1 ของปี 2023 เครือข่าย Render ได้นำเสนอเครื่องมือ Stabilization AI ที่นำมาประกอบอย่างเป็นธรรมชาติ ทำให้ผู้ใช้สามารถผสานการดำเนินการระบบเผาผลาญ Stable Diffusion การขยายตัวนี้ที่เกินการดำเนินการเรนเดอร์แสดงถึงการเคลื่อนย้ายเชิงกลยุทธ์เข้าสู่โลกของแอปพลิเคชัน AI

2.Gensyn.ai

Gensyn ดำเนินการเป็นเครือข่ายคลัสเตอร์คอมพิวติ้งที่มีลักษณะเฉพาะในการเรียนรู้ลึก ๆ โดยใช้โปรโตคอล L1 ของ Polkadot เมื่อปี 2023 แพลตฟอร์มได้รับทุนซีรีส์ A มูลค่า 43 ล้านดอลลาร์ ครอบคลุมโดย a16z โครงสร้างสถาปัตยกรรมของ Gensyn กว้างขวางกว่าคลัสเตอร์พลังงานคอมพิวติ้งแบบกระจายของโครงสร้างพื้นฐานจนถึงระบบการยืนยันชั้นสูง ระบบนี้ยืนยันว่าการคำนวณนอกโซนมีขอบเขตที่กว้างมากตรงกับความต้องการในโซนผ่านการยืนยันบล็อกเชน ซึ่งสร้างเครือข่ายการเรียนรู้ของเครื่องที่ไม่มีความเชื่อมั่น

เกี่ยวกับพลังงานการคำนวณแบบกระจาย Gensyn รองรับกลุ่มของอุปกรณ์ต่าง ๆ ตั้งแต่ศูนย์ข้อมูลที่มีพลังงานเหลือ ไปจนถึงเครื่องพีซีส่วนตัวที่มี GPU ที่มีศักยภาพ โดยจะรวมกลุ่มอุปกรณ์เหล่านี้เข้าด้วยกันเป็นกลุ่มเสมือนเสมียนเดียวกันที่สามารถเข้าถึงได้สำหรับนักพัฒนาโดยตรงตามความต้องการ Gensyn เป้าหมายที่จะสร้างตลาดที่ราคาขึ้นอยู่กับแรงจูงใจของตลาด เสริมสร้างความสามารถในการเข้าถึงและทำให้ราคาค่าคอมพิวเตอร์ ML มีระดับที่เท่าเทียมกัน

ระบบการตรวจสอบเป็นแนวคิดที่สำคัญสำหรับ Gensyn ซึ่งมีเป้าหมายที่จะยืนยันความถูกต้องของงานเรียนรู้ของเครื่องตามที่ระบุ มันนำเสนอการเข้าถึงการตรวจสอบที่นวัตกรรมที่รวมการพิสูจน์ทางความน่าจะเป็นการเรียนรู้จากรูปแบบกราฟเฉพาะและ Truebit ฟีเจอร์เทคนิครากฐานเหล่านี้ของเกมสะท้อนยุติธรรมนำเสนอความสามารถในการประสิทธิภาพที่เพิ่มขึ้นเมื่อเทียบกับวิธีการตรวจสอบบล็อกเชนแบบดั้งเดิม ผู้เข้าร่วมเครือข่ายรวมถึงผู้ส่ง, ผู้แก้ปัญหา, ผู้ตรวจสอบ, และผู้รายงานความผิดของตนเอง, ทั้งหมดร่วมกันให้การอำนวยความสะดวกในกระบวนการการตรวจสอบ

โดยอ้างอิงจากข้อมูลการทดสอบที่เป็นมากมายที่ระบุไว้ในกระดาษขาวของโปรโตคอล Gensyn ข้อดีที่สำคัญของแพลตฟอร์มรวมถึง:

  • การลดต้นทุนในการฝึกโมเดล AI: โปรโตคอล Gensyn นี้ให้การคำนวณเทียบเท่า NVIDIA V100 ที่ราคาประมาณ 0.40 ดอลลาร์ต่อชั่วโมง ซึ่งมีการประหยัดต้นทุนถึง 80% เมื่อเปรียบเทียบกับการคำนวณตามคำขอของ AWS
  • ประสิทธิภาพที่ปรับปรุงให้มีประสิทธิภาพสูงในระบบการตรวจสอบโดยไม่มีความเชื่อถือ: ผลการทดสอบที่ระบุในเอกสารขาวระบุว่ามีการปรับปรุงสำคัญในเวลาฝึกโมเดลโดยใช้โปรโตคอล Gensyn โดยเฉลี่ยเวลาเกินมีการปรับปรุงอย่างมากถึง 1,350% เมื่อเปรียบเทียบกับการทำซ้ำของ Truebit และมีการปรับปรุงอย่างน่าทึ่ 2,522,477% เมื่อเปรียบเทียบกับ Ethereum

อย่างไรก็ตามการกระจายพลของความสามารถในการคำนวณพร้อมกันเข้ามาเพิ่มขึ้นอย่างหมองมั่นในเวลาการฝึกอบรมเมื่อเปรียบเทียบกับการฝึกอบรมแบบในพื้นท้องที่เกิดจากความท้าทายในการสื่อสารและเครือข่าย โดยขึ้นอยู่กับข้อมูลการทดสอบ โปรโตคอล Gensyn ก่อให้เกิดค่าเพิ่มเวลาประมาณ 46% ในการฝึกอบรมโมเดล

3.เครือข่าย Akash

Akash Network ทำหน้าที่เป็นแพลตฟอร์มคอมพิวเตอร์คลาวด์แบบกระจายที่รวมเอาองค์ประกอบทางเทคนิคต่างๆ เข้าด้วยกันเพื่อให้ผู้ใช้สามารถใช้งานการจัดตั้งและบริหารแอปพลิเคชันในสภาพแวดล้อมคลาวด์แบบกระจายได้อย่างมีประสิทธิภาพ ในสารทฤดูสมาสุข มันให้ความสามารถให้ผู้ใช้เช่าทรัพยากรคอมพิวเตอร์ที่กระจาย

หัวใจหลักของ Akash คือเครือข่ายผู้ให้บริการโครงสร้างพื้นฐานที่กระจายอยู่ทั่วโลกโดยนําเสนอทรัพยากร CPU, GPU, หน่วยความจําและที่เก็บข้อมูล ผู้ให้บริการเหล่านี้จัดหาทรัพยากรสําหรับการเช่าผู้ใช้ผ่านคลัสเตอร์ Kubernetes ด้านบน ผู้ใช้สามารถปรับใช้แอปพลิเคชันเป็นคอนเทนเนอร์ Docker เพื่อใช้ประโยชน์จากบริการโครงสร้างพื้นฐานที่คุ้มค่า นอกจากนี้ Akash ยังใช้แนวทาง "การประมูลแบบย้อนกลับ" เพื่อผลักดันราคาทรัพยากรให้ต่ําลง ตามการประมาณการบนเว็บไซต์อย่างเป็นทางการของ Akash ค่าบริการของแพลตฟอร์มนั้นต่ํากว่าเซิร์ฟเวอร์ส่วนกลางประมาณ 80%

4.io.net

io.net เป็นเครือข่ายคอมพิวเตอร์ที่มีลักษณะสากลที่เชื่อมโยง GPU ที่กระจายทั่วโลกเพื่อให้การสนับสนุนทางคอมพิวเตอร์สำหรับการฝึกอบรมและการเหตุผลของ AI ก่อนหน้านี้ได้สรุปรอบการจัดหาเงิน Series A มูลค่า 30 ล้านเหรียญสหรัฐดอลลาร์ และในปัจจุบันแพลตฟอร์มนี้มีมูลค่า 1 พันล้านดอลลาร์

ที่แตกต่างจากแพลตฟอร์มเช่น Render และ Akash, io.net เกิดขึ้นเป็นเครือข่ายคำนวณที่กระจายแบบแข็งแรงและมีสเกลเบิ้ลที่ซับซ้อนที่เชื่อมโยงกับเครื่องมือนักพัฒนาหลายระดับ คุณลักษณะหลักของมันรวมถึง:

  • การรวมทรัพยากรคอมพิวเตอร์ที่หลากหลาย: การเข้าถึง GPU จากศูนย์ข้อมูลอิสระ ผู้ขุดเหรียญ crypto และโครงการเช่น Filecoin และ Render
  • ความสนับสนุนหลักสำหรับความต้องการด้าน AI: ความสามารถในการให้บริการที่จำเป็นรวมถึงการนำเสนอข้อมูลแบบกลุ่มและการให้บริการโมเดล การฝึกฝนแบบพร้อมกัน การปรับแต่งพารามิเตอร์แบบไฮเปอร์แพรมิเตอร์ และการเรียนรู้ด้วยการกระตุ้น
  • เทคโนโลยีขั้นสูงสำหรับการทำงานในสภาพแวดล้อมคลาวด์ที่ปรับปรุง: ซึ่งมีการรวมเครื่องมือการจัดเรียงหลายรูปแบบ เช่น เฟรมเวิร์กเครื่องมือสำหรับการจัดสรรทรัพยากรคอมพิวเตอร์ การดำเนินการของอัลกอริทึม การฝึกอบรมโมเดล การดำเนินการของการเก็บข้อมูล การตรวจสอบ GPU และเครื่องมือการจัดการ
  • ความสามารถในการคำนวณแบบขนาน: การรวมเข้าด้วยกันของ Ray, กรอบการคำนวณแบบกระจายโอเพนซอร์ซ, การใช้ประโยชน์จากความขัดข้องของ Ray เพื่อทำให้การคำนวณแบบขนานของฟังก์ชัน Python เป็นไปอย่างง่ายสำหรับการดำเนินงานงานที่เป็นไปอย่างไดนามิก การเก็บข้อมูลในหน่วยความจำของมันช่วยให้การแบ่งปันข้อมูลระหว่างงานเป็นไปอย่างรวดเร็วโดยไม่มีความล่าช้าในการเขียนลงแซล นอกจากนี้ io.net ยังไปไกลกว่า Python โดยการรวมร่วมกรอบงานเรียนรู้เชิงลึกอื่น ๆ อย่าง PyTorch และ TensorFlow ที่มีชื่อเสียง

เกี่ยวกับราคา โปรแกรมเว็บไซต์ io.net ระบุว่าอัตราค่าบริการของตนจะประมาณ 90% ต่ำกว่าบริการคอมพิวเตอร์คลาวด์ที่มีการควบคุมจากศูนย์กลาง

นอกจากนี้โทเค็นดั้งเดิมของ io.net เหรียญ IO จะทําหน้าที่เป็นกลไกการชําระเงินและรางวัลภายในระบบนิเวศเป็นหลัก อีกทางเลือกหนึ่งคือผู้เรียกร้องสามารถใช้แบบจําลองที่คล้ายกับฮีเลียมโดยการแปลงเหรียญ IO เป็นสกุลเงินที่มีเสถียรภาพ "จุด IOSD" สําหรับการทําธุรกรรม

Disclaimer:

  1. บทความนี้ถูกพิมพ์โดย [GateWanxiang Blockchain], ชื่อเรื่องต้นฉบับคือ “AI+Web3 Future Development Road (2) ): โครงสร้างพื้นฐาน”, ลิขสิทธิ์เป็นของผู้เขียนต้นฉบับ [GateWanxiang Blockchain]. If there are objections to this reprint, please contact the Gate Learn Team, และพวกเขาจะจัดการกับมันโดยรวดเร็ว

  2. คำประกาศความรับผิด: มุมมองและความคิดเห็นที่แสดงในบทความนี้เป็นเพียงของผู้เขียนเท่านั้น และไม่เป็นการให้คำแนะนำในการลงทุนใด ๆ

  3. การแปลบทความเป็นภาษาอื่น ๆ ถูกดำเนินการโดยทีม Gate Learn โดยไม่ต้องกล่าวถึงGate.io, บทความที่ถูกแปลอาจไม่สามารถทำสำเนา แจกจ่าย หรือลอกเลียนได้

อธิบายอย่างละเอียดเกี่ยวกับโครงสร้าง AI+Web3

กลาง3/29/2024, 7:41:47 PM
โครงการหลักในระดับพื้นฐานของวงการ AI+Web3 โดยสรุปมาจากเครือข่ายการคำนวณแบบไม่มีศูนย์เป็นเรื่องหลัก ต้นทุนต่ำเป็นข้อดีหลัก สิทธิและสิทธิของโทเค็นเป็นวิธีหลักในการขยายเครือข่าย และการบริการลูกค้าในวงการ AI+Web3 เป็นเป้าหมายหลัก

Forwarded original title: AI+Web3 Future Development Path (2): Infrastructure Chapter

โครงสร้างพื้นฐานคือทิศทางการเติบโตที่กำหนดได้ของการพัฒนา AI

1. การอุดมคติด้านความต้องการในการคำนวณ AI

ในช่วงไม่กี่ปีที่ผ่านมาความต้องการพลังการประมวลผลมีการเติบโตอย่างรวดเร็วโดยเฉพาะอย่างยิ่งหลังจากการเกิดขึ้นของโมเดล LLM ขนาดใหญ่ ความต้องการพลังการประมวลผล AI ที่เพิ่มขึ้นนี้ส่งผลกระทบอย่างมากต่อตลาดการประมวลผลประสิทธิภาพสูง ข้อมูลจาก OpenAI เผยให้เห็นแนวโน้มที่น่าทึ่งตั้งแต่ปี 2012 ด้วยพลังการประมวลผลที่ใช้ในการฝึกอบรมโมเดล AI ที่ใหญ่ที่สุดที่เติบโตอย่างทวีคูณโดยเพิ่มขึ้นเป็นสองเท่าทุก ๆ 3-4 เดือนโดยเฉลี่ยซึ่งสูงกว่าอัตราการเติบโตที่คาดการณ์โดย Moore's Law ความต้องการแอปพลิเคชัน AI ที่เพิ่มขึ้นส่งผลให้ความต้องการฮาร์ดแวร์คอมพิวเตอร์เพิ่มขึ้นอย่างรวดเร็ว การคาดการณ์ระบุว่าภายในปี 2025 ความต้องการฮาร์ดแวร์คอมพิวเตอร์ที่ขับเคลื่อนด้วยแอปพลิเคชัน AI คาดว่าจะเพิ่มขึ้นประมาณ 10% ถึง 15%

ด้วยแรงผลักดันจากความต้องการพลังการประมวลผล AI NVIDIA ผู้ผลิตฮาร์ดแวร์ GPU ได้เห็นการเติบโตอย่างต่อเนื่องของรายได้จากศูนย์ข้อมูล ในไตรมาสที่ 2 ของปี 2023 รายได้จากศูนย์ข้อมูลสูงถึง 10.32 พันล้านดอลลาร์ซึ่งเพิ่มขึ้น 141% จากไตรมาสที่ 1 ของปี 2023 และเพิ่มขึ้น 171% จากช่วงเวลาเดียวกันในปีที่แล้ว ภายในไตรมาสที่สี่ของปีงบประมาณ 2024 กลุ่มศูนย์ข้อมูลมีสัดส่วนมากกว่า 83% ของรายได้ทั้งหมด โดยมีการเติบโตพร้อมกันที่ 409% โดย 40% มาจากสถานการณ์การอนุมานโมเดลขนาดใหญ่ ซึ่งบ่งชี้ถึงความต้องการที่แข็งแกร่งสําหรับพลังการประมวลผลประสิทธิภาพสูง

พร้อมกันนี้ความต้องการที่มากมายของข้อมูลทำให้อุปกรณ์จัดเก็บข้อมูลและหน่วยความจำเกิดความต้องการที่สำคัญอย่างมาก โดยเฉพาะในช่วงของการฝึกโมเดล การนำเข้าพารามิเตอร์อย่างแท้จริงและการจัดเก็บข้อมูลเป็นสิ่งจำเป็น ชิปหน่วยความจำที่ใช้ในเซิร์ฟเวอร์ AI มักจะรวมถึงหน่วยความจำแบบความเร็วสูง (HBM) DRAM และ SSD สภาพแวดล้อมการทำงานสำหรับเซิร์ฟเวอร์ AI จำเป็นต้องมีความจุที่เพิ่มขึ้น ประสิทธิภาพที่ปรับปรุงลด laten ซีและเวลาตอบสนองอย่างรวดเร็ว ตามการคำนวณของ Micron ปริมาณของ DRAM ในเซิร์ฟเวอร์ AI เกินมาตรฐานของเซิร์ฟเวอร์传统 8 เท่าในขณะที่ปริมาณของ NAND เกินมาตรฐานของเซิร์ฟเวอร์传统 3 เท่า

2. ความไมดีของความต้องการและการเสียเปรียบเพิ่มค่าพลังงานคอมพิวเตอร์

โดยทั่วไปแล้วพลังการประมวลผลจะใช้เป็นหลักในขั้นตอนการฝึกอบรมการปรับแต่งและการอนุมานของโมเดล AI โดยเฉพาะอย่างยิ่งในระหว่างการฝึกอบรมและขั้นตอนการปรับแต่งอย่างละเอียด เนื่องจากอินพุตพารามิเตอร์ข้อมูลที่เพิ่มขึ้นข้อกําหนดในการคํานวณและความต้องการที่เพิ่มขึ้นสําหรับการเชื่อมต่อระหว่างกันในการประมวลผลแบบขนานจึงจําเป็นต้องมีฮาร์ดแวร์ GPU ที่มีประสิทธิภาพและเชื่อมต่อกันมากขึ้นซึ่งมักจะอยู่ในรูปแบบของคลัสเตอร์ GPU ประสิทธิภาพสูง เมื่อโมเดลขนาดใหญ่พัฒนาขึ้นความซับซ้อนในการคํานวณจะเพิ่มขึ้นเป็นเส้นตรงซึ่งจําเป็นต้องใช้ฮาร์ดแวร์ระดับไฮเอนด์มากขึ้นเพื่อตอบสนองความต้องการของการฝึกอบรมโมเดล

เรียก GPT-3 เป็นตัวอย่าง ด้วยสถานการณ์ที่เกี่ยวข้องกับประมาณ 13 ล้านการเข้าชมของผู้ใช้ที่เป็นอิสระ ความต้องการของชิปที่เกี่ยวข้องจะเกิน 30,000 A100 GPUs ต้นทุนการลงทุนเริ่มแรกนี้จะถึง 800 ล้านเหรียญ โดยคำนวณต้นทุนการใช้โมเดลประมาณทุกวันรวมอยู่ที่ประมาณ 700,000 เหรียญ

พร้อมกันนี้ รายงานภาคอุตสาหกรรมระบุว่าในไตรมาสที่สี่ของปี 2023 การจัดหา GPU ของ NVIDIA ถูก จำกัดอย่างรุนแรงในทั่วโลก ทำให้เกิดความไม่สมดุลที่เห็นได้ระหว่างการจัดหาและความต้องการในตลาดทั่วโลก ความสามารถในการผลิตของ NVIDIA ถูก จำกัดโดยปัจจัยอย่าง TSMC, HBM, CoWos packaging, และปัญหา "ขาดแคลนรุนแรง" ของ GPU H100 คาดว่าจะยังคงอยู่อย่างน้อย จนถึงสิ้นปี 2024

ดังนั้น ความต้องการที่เพิ่มขึ้นสำหรับ GPU ระดับสูงและข้อจำกัดในการจัดหาไดรฟ์ให้ราคาของอุปกรณ์ฮาร์ดแวร์ปัจจุบันเช่น GPU ทะลุเข้าสู่ราคาสูงขึ้น โดยเฉพาะสำหรับบริษัทที่มีบทบาทสำคัญในการขายสินค้าได้แก่ NVIDIA ราคาสูงยิ่งขึ้นเนื่องจากการควบคุมตลาดอย่างมโนโพลิสติกของพวกเขา ทำให้พวกเขาสามารถเก็บเกี่ยวค่าลดหย่อนเพิ่มเติมได้อย่างมาก ตัวอย่างเช่น ต้นทุนวัสดุของการ์ด H100 AI ของ NVIDIA ประมาณ $3,000 แต่ราคาขายของมันถึงประมาณ $35,000 ในช่วงกลางปี 2023 และแม้กระทั่งเกิน $40,000 บน eBay

3. โครงสร้าง AI ส่งเสริมการเติบโตของโซ่อุตสาหกรรม

รายงานโดย Grand View Research ระบุว่าขนาดตลาด AI บนคลาวด์ระดับโลกประมาณ 62.63 พันล้านเหรียญในปี 2023 ที่โครงการว่าจะเพิ่มขึ้นเป็น 647.6 พันล้านเหรียญโดยปี 2030 พร้อมกับอัตราการเจริญเฉลี่ยของ 39.6% ข้อความเหล่านี้ย้ำถึงศักยภาพการเจริญขึ้นอย่างมีนัยสำคัญของบริการ AI บนคลาวด์และส่วนร่วมมากๆ ในโซ่อุตสาหกรรม AI โดยรวม

ตามการประมาณของ a16z ส่วนใหญ่ของเงินทุนในตลาด AIGC (AI และ Global Computing) สุดท้ายก็ไหลไปที่บริษัทโครงสร้างพื้นฐาน โดยเฉลี่ยบริษัทแอปพลิเคชันจะจัดสรรเงินรายได้ประมาณ 20-40% สำหรับการอนุมัติและการปรับแต่งในแต่ละลูกค้า ค่าใช้จ่ายนี้มักจะถูกนำไปใช้กับผู้ให้บริการคลาวด์ของตัวอินสแตนซ์หรือผู้ให้บริการโมเดลบุคคลที่สามซึ่งจะแบ่งรายได้ประมาณครึ่งละกับโครงสร้างพื้นที่คลาวด์ ดังนั้น ถือว่าเป็นสมเหตุสมผลที่สุดท้าย 10-20% ของรายได้ทั้งหมดที่สร้างขึ้นโดย AIGC จะเป็นการนำเสนอไปยังผู้ให้บริการคลาวด์

นอกจากนี้ ส่วนสำคัญของความต้องการในด้านพลังงานคอมพิวเตอร์เน้นไปที่การฝึกโมเดล AI ขนาดใหญ่ รวมถึงโมเดล LLM ที่หลากหลาย โดยเฉพาะสำหรับโมเดลของบริษัท Startup ค่าใช้จ่าย 80-90% ถูกจัดสรรไปยังพลังงานคอมพิวเตอร์ AI โดยรวม โครงสร้างพลังงานคอมพิวเตอร์ AI ซึ่งรวมถึงการคำนวณใน cloud และฮาร์ดแวร์ คาดว่าจะแสดงถึงมากกว่า 50% ของมูลค่าเริ่มต้นของตลาด

การคำนวณ AI แบบกระจาย

เหมือนที่ได้กล่าวถึงก่อนหน้านี้ ค่าใช้จ่ายในปัจจุบันของการคำนวณ AI แบบศูนย์กลางยังคงสูงอยู่ โดยที่ส่วนใหญ่เกิดจากความต้องการที่กำลังเพิ่มขึ้นสำหรับโครงสร้างพื้นฐานที่มีประสิทธิภาพสูงสำหรับการฝึก AI อย่างไรก็ตาม มีพลังการคำนวณที่ไม่ได้ใช้งานอยู่ในตลาดอย่างมาก ซึ่งเป็นสาเหตุให้เกิดการไม่สอดคล้องระหว่างการขายและการซื้อ ปัจจัยสำคัญที่มีส่วนสำคัญในการสร้างความไม่สมดุลนี้รวมถึง:

  • ความซับซ้อนของโมเดลไม่มีความสัมพันธ์ในการเติบโตเชิงเส้นกับจํานวน GPU ที่ต้องการ: GPU ปัจจุบันมีข้อได้เปรียบด้านพลังในการคํานวณ แต่การฝึกอบรมโมเดลต้องใช้พารามิเตอร์จํานวนมากเพื่อเก็บไว้ในหน่วยความจํา ตัวอย่างเช่นสําหรับ GPT-3 ในการฝึกอบรมโมเดลที่มีพารามิเตอร์ 175 พันล้านรายการข้อมูลมากกว่า 1 เทราไบต์จะต้องเก็บไว้ในหน่วยความจําซึ่งมากกว่า GPU ใด ๆ ที่มีอยู่ในปัจจุบันดังนั้นจึงต้องใช้ GPU มากขึ้นสําหรับการประมวลผลและการจัดเก็บแบบขนาน ซึ่งจะนําไปสู่พลังการประมวลผล GPU ที่ไม่ได้ใช้งาน ตัวอย่างเช่นจาก GPT3 ถึง GPT4 ขนาดพารามิเตอร์โมเดลเพิ่มขึ้นประมาณ 10 เท่า แต่จํานวน GPU ที่ต้องการเพิ่มขึ้น 24 เท่า (โดยไม่คํานึงถึงการเพิ่มขึ้นของเวลาการฝึกอบรมโมเดล) จากการวิเคราะห์ที่เกี่ยวข้อง OpenAI ใช้ FLOPS ประมาณ 2.15e25 ในการฝึกอบรม GPT-4 และดําเนินการฝึกอบรมเกี่ยวกับ A100 GPU ประมาณ 25,000 ตัวเป็นเวลา 90 ถึง 100 วันโดยมีการใช้พลังงานในการคํานวณประมาณ 32% ถึง 36%

เพื่อตอบสนองต่อความท้าทายที่ระบุไว้ข้างต้นการแสวงหาการออกแบบชิปประสิทธิภาพสูงหรือชิป ASIC เฉพาะที่ปรับให้เหมาะกับงาน AI เป็นช่องทางที่โดดเด่นที่นักพัฒนาและองค์กรรายใหญ่จํานวนมากสํารวจ อีกแนวทางหนึ่งเกี่ยวข้องกับการใช้ทรัพยากรคอมพิวเตอร์ที่มีอยู่อย่างครอบคลุมเพื่อสร้างเครือข่ายคอมพิวเตอร์แบบกระจายโดยมีเป้าหมายเพื่อลดต้นทุนพลังงานการประมวลผลผ่านการเช่าการแบ่งปันและการจัดกําหนดการทรัพยากรที่มีประสิทธิภาพ นอกจากนี้ปัจจุบันตลาดยังมี GPU และ CPU ระดับผู้บริโภคที่ไม่ได้ใช้งาน แม้ว่าแต่ละหน่วยอาจขาดพลังการประมวลผลที่แข็งแกร่ง แต่ก็สามารถตอบสนองความต้องการด้านการคํานวณที่มีอยู่ได้อย่างมีประสิทธิภาพในสถานการณ์เฉพาะหรือเมื่อรวมเข้ากับชิปประสิทธิภาพสูง สิ่งสําคัญคือการสร้างความมั่นใจว่ามีอุปทานเพียงพอเป็นสิ่งจําเป็นเนื่องจากต้นทุนสามารถลดลงได้อีกผ่านการจัดกําหนดการเครือข่ายแบบกระจาย

ดังนั้นการเปลี่ยนแปลงไปสู่พลังการประมวลผลแบบกระจายจึงกลายเป็นทิศทางสําคัญในความก้าวหน้าของโครงสร้างพื้นฐาน AI ในขณะเดียวกันด้วยการจัดแนวความคิดระหว่าง Web3 และระบบกระจายเครือข่ายพลังงานการประมวลผลแบบกระจายอํานาจได้กลายเป็นจุดสนใจหลักในภูมิทัศน์โครงสร้างพื้นฐาน Web3 + AI ปัจจุบันแพลตฟอร์มพลังการประมวลผลแบบกระจายอํานาจในตลาด Web3 โดยทั่วไปเสนอราคาที่ต่ํากว่าบริการคลาวด์คอมพิวติ้งแบบรวมศูนย์ 80% -90%

ในขณะที่การจัดเก็บข้อมูลเป็นสิ่งสำคัญในโครงสร้าง AI การจัดเก็บข้อมูลแบบกระจายที่มีขนาดใหญ่ ใช้งานง่าย และมี laten ต่ำ อย่างมีชัดเจน อย่างไรก็ตาม ด้วยความประสิทธิภาพทางต้นทุนที่มีชัดเจนที่พวกเขาเสนอ ระบบเครือข่ายการคำนวณแบบกระจายมีศักยภาพทางตลาดที่สำคัญและมีโอกาสได้รับประโยชน์มากจากการขยายตลาด AI ที่กำลังเจริญเติบ

  • การอนุมานแบบจําลองและการฝึกอบรมแบบจําลองขนาดเล็กแสดงถึงสถานการณ์พื้นฐานสําหรับพลังการประมวลผลแบบกระจายในปัจจุบัน การกระจายตัวของทรัพยากรการประมวลผลในระบบแบบกระจายย่อมทําให้เกิดความท้าทายในการสื่อสารระหว่าง GPU ซึ่งอาจนําไปสู่ประสิทธิภาพการประมวลผลที่ลดลง ดังนั้นพลังการประมวลผลแบบกระจายจึงเหมาะสมที่สุดสําหรับสถานการณ์ที่จําเป็นต้องมีการสื่อสารน้อยที่สุดและสามารถรองรับงานคู่ขนานได้อย่างมีประสิทธิภาพ สถานการณ์เหล่านี้รวมถึงขั้นตอนการอนุมานของโมเดล AI ที่กว้างขวางและโมเดลขนาดเล็กที่มีพารามิเตอร์ค่อนข้างน้อยซึ่งช่วยลดผลกระทบด้านประสิทธิภาพ เมื่อมองไปข้างหน้าเมื่อแอปพลิเคชัน AI พัฒนาขึ้นการให้เหตุผลก็กลายเป็นข้อกําหนดที่สําคัญที่เลเยอร์แอปพลิเคชัน เนื่องจาก บริษัท ส่วนใหญ่ขาดความสามารถในการฝึกอบรมโมเดลขนาดใหญ่อย่างอิสระพลังการประมวลผลแบบกระจายจึงยังคงมีศักยภาพทางการตลาดในระยะยาวอย่างมีนัยสําคัญ
  • มีการเพิ่มขึ้นในกรอบการอบรมแบบกระจายที่มีประสิทธิภาพสูงที่ออกแบบมาสำหรับการคำนวณแบบขนานขนาดใหญ่ กรอบการคำนวณแบบกระจายโอเพนซอร์สอย่าง PyTorch, Ray และ DeepSpeed กำลังให้การสนับสนุนพื้นฐานที่แข็งแกร่งให้แก่นักพัฒนาในการใช้พลังการคำนวณแบบกระจายในการอบรมโมเดล ความก้าวหน้านี้เสริมสร้างความสามารถในการใช้พลังการคำนวณแบบกระจายในตลาด AI ในอนาคต โดยช่วยให้การผสานเข้ากับแอปพลิเคชัน AI ต่างๆ

ตรรกะนิรันดร์ของโครงการพื้นฐาน AI+Web3

ภาคระบบโครงสร้าง AI แบ่งเป็นระบบที่แข็งแกร่งและมีโอกาสในการเติบโตอย่างมีนัยยะ ซึ่งทำให้เป็นพื้นที่ที่น่าสนใจสำหรับการลงทุน ปัจจุบันโครงการหลักภายในอุตสาหกรรม AI+Web3 ประกอบด้วยเครือข่ายการคำนวณที่กระจายอย่างสำคัญ โครงการเหล่านี้เน้นทุนต้นทุนต่ำเป็นข้อดีสำคัญ ใช้สิทธิของโทเค็นเพื่อขยายเครือข่ายของตน และมีการจัดลำดับการให้บริการลูกค้า AI+Web3 เป็นวัตถุประสงค์หลัก ภาคนี้ประกอบด้วยสองระดับหลัก

  1. แพลตฟอร์มการแบ่งปันและให้เช่าทรัพยากรคอมพิวเตอร์บนคลาวด์ที่มีความเป็นธรรมที่สูง: โครงการ AI เริ่มต้นเช่น Render Network, Akash Network และอื่น ๆ อยู่ในหมวดหมู่นี้
  • ความได้เปรียบในกลุ่มภาคสาานวัตถุดิบสำคัญนี้ อยู่ที่ทรัพยากรพลวัตคอมพิวเตอร์ที่เป็นเครื่องมือที่สำคัญในการเข้าถึงผู้ให้บริการหลากหลาย การก่อตั้งเครือข่ายอย่างรวดเร็ว และการเสนอผลิตภัณฑ์ที่ใช้งานได้ง่าย ผู้เข้าร่วมตลาดในช่วงแรก เช่น บริษัทคลาวด์คอมพิวติ้งและนักขุดหิน มีตำแหน่งที่ดีในการเข้าถึงโอกาสนี้
  • ด้วยความสามารถในการตั้งค่าระดับผลิตภัณฑ์ที่ต่ำและความสามารถในการเปิดตัวอย่างรวดเร็ว เว็บไซต์ที่ได้รับการยอมรับอย่าง Render Network และ Akash Network ได้แสดงให้เห็นถึงการเติบโตที่น่าสังเกตและครอบครองข้อได้เปรียบในการแข่งขัน
  • อย่างไรก็ตาม ผู้เข้าร่วมตลาดใหม่ต้องเผชิญกับความท้าทายในเรื่องของความเหมือนกันของผลิตภัณฑ์ แนวโน้มปัจจุบันและอุปสรรคการเข้าร่วมที่ต่ำได้ส่งผลให้มีโครงการที่เน้นทำให้มีพลังคำนวณร่วมกันและการเช่ามากขึ้น ในขณะที่ข้อเสนอเหล่านี้ขาดความแตกต่าง แต่ก็มีความต้องการที่เติบโตของข้อดีในการแข่งขันที่แตกต่างกัน
  • ผู้ให้บริการโดยทั่วไปจะมุ่งเน้นลูกค้าที่มีความต้องการในด้านคอมพิวเตอร์พื้นฐาน ตัวอย่างเช่น Render Network เชี่ยวชาญในการบริการการเรนเดอร์ ในขณะที่ Akash Network นำเสนอทรัพยากร CPU ที่เพิ่มเติม แม้ว่าการเช่าทรัพยากรคอมพิวเตอร์เบื้องต้นจะเพียงพอสำหรับงาน AI พื้นฐาน แต่ก็ยังไม่เพียงพอต่อความต้องการรายละเอียดของกระบวนการ AI ที่ซับซ้อน เช่น การฝึกฝน การปรับแต่ง และการสรุป
  1. ให้บริการการคำนวณแบบกระจายและบริการการทำงานของเครื่องเรียนรู้ โครงการที่กำลังเจริญมากทั้งหลายได้รับทุนมากมายล่าสุด เช่น เจนซิน, io.net, ริทูอล และอื่นๆ
  • การคำนวณแบบกระจายยกระดับรากฐานของการประเมินในอุตสาหกรรม โดยที่พลังคำนวณเป็นจุดสำคัญในการพัฒนา AI โครงการที่เกิดจากพลังคำนวณมักมีโมเดลธุรกิจที่แข็งแกร่งและมีศักยภาพมากกว่าโครงการที่เป็นตัวกลางเท่านั้น ซึ่งทำให้มีการประเมินค่าสูงกว่า
  • บริการระดับกลางสร้างข้อได้เปรียบที่โดดเด่น บริการที่นําเสนอโดยชั้นกลางทําหน้าที่เป็นความได้เปรียบในการแข่งขันสําหรับโครงสร้างพื้นฐานการประมวลผลเหล่านี้ซึ่งครอบคลุมฟังก์ชันต่างๆเช่น oracles และ verifiers ที่อํานวยความสะดวกในการซิงโครไนซ์การคํานวณทั้งในและนอกเครือข่ายบนห่วงโซ่ AI เครื่องมือการปรับใช้และการจัดการที่รองรับเวิร์กโฟลว์ AI โดยรวมและอื่น ๆ เวิร์กโฟลว์ AI โดดเด่นด้วยการทํางานร่วมกันข้อเสนอแนะอย่างต่อเนื่องและความซับซ้อนสูงทําให้ต้องใช้พลังการประมวลผลในขั้นตอนต่างๆ ดังนั้นเลเยอร์มิดเดิลแวร์ที่ใช้งานง่ายทํางานร่วมกันสูงและสามารถตอบสนองความต้องการที่ซับซ้อนของนักพัฒนา AI จึงกลายเป็นสินทรัพย์ที่มีการแข่งขันโดยเฉพาะอย่างยิ่งในโดเมน Web3 ซึ่งตอบสนองความต้องการของนักพัฒนา Web3 สําหรับ AI บริการเหล่านี้เหมาะสําหรับตลาดแอปพลิเคชัน AI ที่มีศักยภาพมากกว่าการสนับสนุนการประมวลผลขั้นพื้นฐาน
  • ทีมโครงการที่มีความเชี่ยวชาญในด้านการดำเนินการและบำรุงรักษาในฟิลด์ ML มักจะเป็นสิ่งจำเป็น ทีมที่ให้บริการชั้นกลางต้องมีความเข้าใจอย่างละเอียดถึงขั้นตอนการทำงานทั้งหมดของ ML เพื่อที่จะสามารถตอบสนองต่อความต้องการของนักพัฒนาชุดชีวิตการทำงานอย่างเต็มรูปแบบ ในขณะที่บริการเช่นนี้มักใช้เฟรมเวิร์กโอเพ่นซอร์สและเครื่องมือที่มีอยู่โดยไม่ต้องการนวัตกรรมทางเทคนิคที่สำคัญมากนัก แต่ต้องการทีมงานที่มีประสบการณ์ล้ำลึกและความสามารถด้านวิศวกรรมที่แข็งแกร่ง เป็นประโยชน์ที่สำคัญสำหรับโครงการ

ให้บริการในราคาที่แข่งขันมากกว่าบริการคอมพิวเตอร์คลาวด์ที่ centralize ในขณะที่รักษาสิ่งอำนวยความสะดวกและประสบการณ์การใช้งานที่เทียบเท่า โครงการนี้ได้รับการยอมรับจากนักลงทุนชั้นนำ อย่างไรก็ตาม ความซับซ้อนทางเทคนิคที่สูงขึ้นเป็นที่ท้าทายอย่างมีนัยสำคัญ ณ ปัจจุบัน โครงการอยู่ในช่วงเรื่องราวและการพัฒนา โดยไม่มีผลิตภัณฑ์ที่เปิดให้บริการในตอนนี้

โครงการแทน

1.Render Network

Render Network เป็นแพลตฟอร์มการเรนเดอร์ที่ใช้เทคโนโลยีบล็อกเชนระดับโลกซึ่งใช้ GPU แบ่งเบาสำหรับให้ผู้สร้างบริการการเรนเดอร์ 3 มิติอย่างมีประสิทธิภาพและคุ้มค่า หลังจากผู้สร้างยืนยันผลการเรนเดอร์ ระบบบล็อกเชนจะส่งรางวัลโทเค็นไปยังโหนด แพลตฟอร์มมีระบบเรนเดอร์ GPU แบ่งเบาแบบกระจายและจัดสรรงานที่ใช้โหนดตามการใช้งาน ชื่อเสียง และปัจจัยอื่น ๆ เพื่อเพิ่มประสิทธิภาพในการคำนวณ ลดทรัพยากรที่ไม่ได้ใช้อย่างมาก และลดค่าใช้จ่าย

โทเคนเชื่อมโยงภายในของแพลตฟอร์ม RNDR ทำหน้าที่เป็นสกุลเงินชำระในระบบนี้ ผู้ใช้สามารถใช้ RNDR เพื่อชำระค่าบริการเรนเดอริ่ง ในขณะเดียวกันผู้ให้บริการบริการได้รับรางวัล RNDR โดยการมีส่วนร่วมในการให้พลังการคำนวณเพื่อทำงานของเรนเดอริ่ง การกำหนดราคาของบริการเรนเดอริ่งถูกปรับเปลี่ยนอย่างไดนามิกตามการใช้เครือข่ายปัจจุบันและปัจจัยที่เกี่ยวข้อง

การเรนเดอร์พิสูจน์ว่าเป็นกรณีการใช้งานที่เหมาะสมและเป็นที่ยอมรับสำหรับโครงสถาปัตยกรรมการคำนวณแบบกระจายพลังงาน ลักษณะของงานเรนเดอร์ช่วยให้สามารถแบ่งส่วนเป็นงานย่อย ๆ ที่ทำงานพร้อมกัน ลดการสื่อสารและปฏิสัมพันธ์ระหว่างงานที่มาก ๆ น้อย ๆ และช่วยลดผลของโครงสถาปัตยกรรมการคำนวณแบบกระจายในขณะที่ใช้เครือข่ายโหนด GPU ที่กว้างขวางเพื่อเพิ่มประสิทธิภาพทางด้านต้นทุน

ความต้องการสำหรับเครือข่าย Render มีอย่างมาก โดยผู้ใช้ได้ทำการเรนเดอร์เกือบ 16 ล้านเฟรมและเกือบ 500,000 ฉากบนแพลตฟอร์มตั้งแต่เริ่มต้นในปี 2017 ปริมาณงานเรนเดอร์และโหนดที่ใช้งานต่อเนื่องการเพิ่มขึ้น นอกจากนี้ในไตรมาส 1 ของปี 2023 เครือข่าย Render ได้นำเสนอเครื่องมือ Stabilization AI ที่นำมาประกอบอย่างเป็นธรรมชาติ ทำให้ผู้ใช้สามารถผสานการดำเนินการระบบเผาผลาญ Stable Diffusion การขยายตัวนี้ที่เกินการดำเนินการเรนเดอร์แสดงถึงการเคลื่อนย้ายเชิงกลยุทธ์เข้าสู่โลกของแอปพลิเคชัน AI

2.Gensyn.ai

Gensyn ดำเนินการเป็นเครือข่ายคลัสเตอร์คอมพิวติ้งที่มีลักษณะเฉพาะในการเรียนรู้ลึก ๆ โดยใช้โปรโตคอล L1 ของ Polkadot เมื่อปี 2023 แพลตฟอร์มได้รับทุนซีรีส์ A มูลค่า 43 ล้านดอลลาร์ ครอบคลุมโดย a16z โครงสร้างสถาปัตยกรรมของ Gensyn กว้างขวางกว่าคลัสเตอร์พลังงานคอมพิวติ้งแบบกระจายของโครงสร้างพื้นฐานจนถึงระบบการยืนยันชั้นสูง ระบบนี้ยืนยันว่าการคำนวณนอกโซนมีขอบเขตที่กว้างมากตรงกับความต้องการในโซนผ่านการยืนยันบล็อกเชน ซึ่งสร้างเครือข่ายการเรียนรู้ของเครื่องที่ไม่มีความเชื่อมั่น

เกี่ยวกับพลังงานการคำนวณแบบกระจาย Gensyn รองรับกลุ่มของอุปกรณ์ต่าง ๆ ตั้งแต่ศูนย์ข้อมูลที่มีพลังงานเหลือ ไปจนถึงเครื่องพีซีส่วนตัวที่มี GPU ที่มีศักยภาพ โดยจะรวมกลุ่มอุปกรณ์เหล่านี้เข้าด้วยกันเป็นกลุ่มเสมือนเสมียนเดียวกันที่สามารถเข้าถึงได้สำหรับนักพัฒนาโดยตรงตามความต้องการ Gensyn เป้าหมายที่จะสร้างตลาดที่ราคาขึ้นอยู่กับแรงจูงใจของตลาด เสริมสร้างความสามารถในการเข้าถึงและทำให้ราคาค่าคอมพิวเตอร์ ML มีระดับที่เท่าเทียมกัน

ระบบการตรวจสอบเป็นแนวคิดที่สำคัญสำหรับ Gensyn ซึ่งมีเป้าหมายที่จะยืนยันความถูกต้องของงานเรียนรู้ของเครื่องตามที่ระบุ มันนำเสนอการเข้าถึงการตรวจสอบที่นวัตกรรมที่รวมการพิสูจน์ทางความน่าจะเป็นการเรียนรู้จากรูปแบบกราฟเฉพาะและ Truebit ฟีเจอร์เทคนิครากฐานเหล่านี้ของเกมสะท้อนยุติธรรมนำเสนอความสามารถในการประสิทธิภาพที่เพิ่มขึ้นเมื่อเทียบกับวิธีการตรวจสอบบล็อกเชนแบบดั้งเดิม ผู้เข้าร่วมเครือข่ายรวมถึงผู้ส่ง, ผู้แก้ปัญหา, ผู้ตรวจสอบ, และผู้รายงานความผิดของตนเอง, ทั้งหมดร่วมกันให้การอำนวยความสะดวกในกระบวนการการตรวจสอบ

โดยอ้างอิงจากข้อมูลการทดสอบที่เป็นมากมายที่ระบุไว้ในกระดาษขาวของโปรโตคอล Gensyn ข้อดีที่สำคัญของแพลตฟอร์มรวมถึง:

  • การลดต้นทุนในการฝึกโมเดล AI: โปรโตคอล Gensyn นี้ให้การคำนวณเทียบเท่า NVIDIA V100 ที่ราคาประมาณ 0.40 ดอลลาร์ต่อชั่วโมง ซึ่งมีการประหยัดต้นทุนถึง 80% เมื่อเปรียบเทียบกับการคำนวณตามคำขอของ AWS
  • ประสิทธิภาพที่ปรับปรุงให้มีประสิทธิภาพสูงในระบบการตรวจสอบโดยไม่มีความเชื่อถือ: ผลการทดสอบที่ระบุในเอกสารขาวระบุว่ามีการปรับปรุงสำคัญในเวลาฝึกโมเดลโดยใช้โปรโตคอล Gensyn โดยเฉลี่ยเวลาเกินมีการปรับปรุงอย่างมากถึง 1,350% เมื่อเปรียบเทียบกับการทำซ้ำของ Truebit และมีการปรับปรุงอย่างน่าทึ่ 2,522,477% เมื่อเปรียบเทียบกับ Ethereum

อย่างไรก็ตามการกระจายพลของความสามารถในการคำนวณพร้อมกันเข้ามาเพิ่มขึ้นอย่างหมองมั่นในเวลาการฝึกอบรมเมื่อเปรียบเทียบกับการฝึกอบรมแบบในพื้นท้องที่เกิดจากความท้าทายในการสื่อสารและเครือข่าย โดยขึ้นอยู่กับข้อมูลการทดสอบ โปรโตคอล Gensyn ก่อให้เกิดค่าเพิ่มเวลาประมาณ 46% ในการฝึกอบรมโมเดล

3.เครือข่าย Akash

Akash Network ทำหน้าที่เป็นแพลตฟอร์มคอมพิวเตอร์คลาวด์แบบกระจายที่รวมเอาองค์ประกอบทางเทคนิคต่างๆ เข้าด้วยกันเพื่อให้ผู้ใช้สามารถใช้งานการจัดตั้งและบริหารแอปพลิเคชันในสภาพแวดล้อมคลาวด์แบบกระจายได้อย่างมีประสิทธิภาพ ในสารทฤดูสมาสุข มันให้ความสามารถให้ผู้ใช้เช่าทรัพยากรคอมพิวเตอร์ที่กระจาย

หัวใจหลักของ Akash คือเครือข่ายผู้ให้บริการโครงสร้างพื้นฐานที่กระจายอยู่ทั่วโลกโดยนําเสนอทรัพยากร CPU, GPU, หน่วยความจําและที่เก็บข้อมูล ผู้ให้บริการเหล่านี้จัดหาทรัพยากรสําหรับการเช่าผู้ใช้ผ่านคลัสเตอร์ Kubernetes ด้านบน ผู้ใช้สามารถปรับใช้แอปพลิเคชันเป็นคอนเทนเนอร์ Docker เพื่อใช้ประโยชน์จากบริการโครงสร้างพื้นฐานที่คุ้มค่า นอกจากนี้ Akash ยังใช้แนวทาง "การประมูลแบบย้อนกลับ" เพื่อผลักดันราคาทรัพยากรให้ต่ําลง ตามการประมาณการบนเว็บไซต์อย่างเป็นทางการของ Akash ค่าบริการของแพลตฟอร์มนั้นต่ํากว่าเซิร์ฟเวอร์ส่วนกลางประมาณ 80%

4.io.net

io.net เป็นเครือข่ายคอมพิวเตอร์ที่มีลักษณะสากลที่เชื่อมโยง GPU ที่กระจายทั่วโลกเพื่อให้การสนับสนุนทางคอมพิวเตอร์สำหรับการฝึกอบรมและการเหตุผลของ AI ก่อนหน้านี้ได้สรุปรอบการจัดหาเงิน Series A มูลค่า 30 ล้านเหรียญสหรัฐดอลลาร์ และในปัจจุบันแพลตฟอร์มนี้มีมูลค่า 1 พันล้านดอลลาร์

ที่แตกต่างจากแพลตฟอร์มเช่น Render และ Akash, io.net เกิดขึ้นเป็นเครือข่ายคำนวณที่กระจายแบบแข็งแรงและมีสเกลเบิ้ลที่ซับซ้อนที่เชื่อมโยงกับเครื่องมือนักพัฒนาหลายระดับ คุณลักษณะหลักของมันรวมถึง:

  • การรวมทรัพยากรคอมพิวเตอร์ที่หลากหลาย: การเข้าถึง GPU จากศูนย์ข้อมูลอิสระ ผู้ขุดเหรียญ crypto และโครงการเช่น Filecoin และ Render
  • ความสนับสนุนหลักสำหรับความต้องการด้าน AI: ความสามารถในการให้บริการที่จำเป็นรวมถึงการนำเสนอข้อมูลแบบกลุ่มและการให้บริการโมเดล การฝึกฝนแบบพร้อมกัน การปรับแต่งพารามิเตอร์แบบไฮเปอร์แพรมิเตอร์ และการเรียนรู้ด้วยการกระตุ้น
  • เทคโนโลยีขั้นสูงสำหรับการทำงานในสภาพแวดล้อมคลาวด์ที่ปรับปรุง: ซึ่งมีการรวมเครื่องมือการจัดเรียงหลายรูปแบบ เช่น เฟรมเวิร์กเครื่องมือสำหรับการจัดสรรทรัพยากรคอมพิวเตอร์ การดำเนินการของอัลกอริทึม การฝึกอบรมโมเดล การดำเนินการของการเก็บข้อมูล การตรวจสอบ GPU และเครื่องมือการจัดการ
  • ความสามารถในการคำนวณแบบขนาน: การรวมเข้าด้วยกันของ Ray, กรอบการคำนวณแบบกระจายโอเพนซอร์ซ, การใช้ประโยชน์จากความขัดข้องของ Ray เพื่อทำให้การคำนวณแบบขนานของฟังก์ชัน Python เป็นไปอย่างง่ายสำหรับการดำเนินงานงานที่เป็นไปอย่างไดนามิก การเก็บข้อมูลในหน่วยความจำของมันช่วยให้การแบ่งปันข้อมูลระหว่างงานเป็นไปอย่างรวดเร็วโดยไม่มีความล่าช้าในการเขียนลงแซล นอกจากนี้ io.net ยังไปไกลกว่า Python โดยการรวมร่วมกรอบงานเรียนรู้เชิงลึกอื่น ๆ อย่าง PyTorch และ TensorFlow ที่มีชื่อเสียง

เกี่ยวกับราคา โปรแกรมเว็บไซต์ io.net ระบุว่าอัตราค่าบริการของตนจะประมาณ 90% ต่ำกว่าบริการคอมพิวเตอร์คลาวด์ที่มีการควบคุมจากศูนย์กลาง

นอกจากนี้โทเค็นดั้งเดิมของ io.net เหรียญ IO จะทําหน้าที่เป็นกลไกการชําระเงินและรางวัลภายในระบบนิเวศเป็นหลัก อีกทางเลือกหนึ่งคือผู้เรียกร้องสามารถใช้แบบจําลองที่คล้ายกับฮีเลียมโดยการแปลงเหรียญ IO เป็นสกุลเงินที่มีเสถียรภาพ "จุด IOSD" สําหรับการทําธุรกรรม

Disclaimer:

  1. บทความนี้ถูกพิมพ์โดย [GateWanxiang Blockchain], ชื่อเรื่องต้นฉบับคือ “AI+Web3 Future Development Road (2) ): โครงสร้างพื้นฐาน”, ลิขสิทธิ์เป็นของผู้เขียนต้นฉบับ [GateWanxiang Blockchain]. If there are objections to this reprint, please contact the Gate Learn Team, และพวกเขาจะจัดการกับมันโดยรวดเร็ว

  2. คำประกาศความรับผิด: มุมมองและความคิดเห็นที่แสดงในบทความนี้เป็นเพียงของผู้เขียนเท่านั้น และไม่เป็นการให้คำแนะนำในการลงทุนใด ๆ

  3. การแปลบทความเป็นภาษาอื่น ๆ ถูกดำเนินการโดยทีม Gate Learn โดยไม่ต้องกล่าวถึงGate.io, บทความที่ถูกแปลอาจไม่สามารถทำสำเนา แจกจ่าย หรือลอกเลียนได้

Comece agora
Inscreva-se e ganhe um cupom de
$100
!