วิศวกรของ Facebook ได้ออกแบบวิธีใหม่ในการเชื่อมต่อศูนย์ข้อมูลขนาดใหญ่ของ บริษัท ภายในภูมิภาคเดียวกัน

ด้วยการสร้างศูนย์ข้อมูลในสถานที่ใหม่ ๆ ทั่วโลกของ Facebook จึงสร้างศูนย์ข้อมูลเพิ่มเติมสำหรับแต่ละตำแหน่ง (หรือ “ภูมิภาคที่พร้อมใช้งาน”) เพื่อตอบสนองความต้องการด้านคอมพิวเตอร์ที่เพิ่มขึ้นตัวอย่างเช่น บริษัท กล่าวว่าจะขยายพื้นที่ Papillion, Nebraska จากศูนย์ข้อมูล 2 ถึง 6 แห่ง

ใน ขณะที่ Facebook แอพพลิเคชัน ต่างๆ เช่นการค้นหา AI และการเรียนรู้ด้วยเครื่องที่กำลังผลักดัน แม้แต่สวิตช์ระบบเครือข่ายความจุสูงสุดในตลาดไปสู่ขีดจำกัดของพวกเขา พวกเขาต้องการเก็บข้อมูลจำนวนมากระหว่างเซิร์ฟเวอร์ภายในภูมิภาคซึ่งมากกว่าจำนวนข้อมูลที่ใช้ระหว่างเครือข่ายทั่วโลกของ Facebook กับอุปกรณ์ของผู้ใช้

วิศวกรเห็นความท้าทายในการปรับขนาดใหญ่บนขั้นบนของระบบเครือข่าย

“เราใช้สวิทช์ที่ใหญ่ที่สุดออกไปที่นั่นแล้ว” เป็นคำพูดจากวิศกรของเฟสบุ๊ค “ดังนั้นเราจึงต้องคิดค้นนวัตกรรมใหม่ ๆ ”

Sankar พูดถึงแนวทางใหม่ในการประชุมสุดยอด OCP ที่ซานโฮเซ่รัฐแคลิฟอร์เนีย การประชุมประจำปีจัดขึ้นโดย OCP Foundation ซึ่งดูแลโครงการ Open Compute ซึ่งเป็นศูนย์กลางการออกแบบฮาร์ดแวร์โอเพ่นซอร์สของชุมชนโดย Facebook เปิดตัวในปี 2554 บริษัท กำลังให้การออกแบบโซลูชันแก่ OCP

เพื่อปรับขนาดชั้นการรวมตัว Facebook จะต้องใช้พอร์ตมากกว่าสามเท่าในเวลานั้น (ประมาณหนึ่งปีครึ่งที่ผ่านมา) แต่การปรับขนาดความจุของเครือข่ายเป็นเชิงเส้นจะไม่ยั่งยืนจากมุมมองด้านพลังงานของศูนย์ข้อมูล Sankar กล่าว ไม่ว่าการแก้ปัญหาจะต้องมีพลังงานที่มีประสิทธิภาพมากกว่าสิ่งที่อยู่ในสถานที่

การเชื่อมต่อผ้าจำนวนมาก

พวกเขาสร้างระบบเครือข่ายแบบกระจายและแบบแยกส่วนเรียกว่า Fabric Aggregator ซึ่งเชื่อมต่อสวิตช์ Wedge100S จำนวนมากของเฟสที่ออกแบบมาก่อนหน้านี้และพัฒนาชุดประกอบสายเคเบิลเพื่อเลียนแบบโครงสปีกเกอร์สวิตช์ ระบบทำงานบนซอฟต์แวร์ FBOSS (Facebook Open Switching System)

ใช้เวลาประมาณห้าเดือนในการออกแบบและ บริษัท ได้ดำเนินการออกจากศูนย์ข้อมูลในช่วง 9 เดือนที่ผ่านมา

วิธีการดังกล่าวช่วยให้เฟสสามารถปรับขนาดความจุของชั้นรวมลงในชิ้นส่วนขนาดใหญ่ได้ แต่นอกเหนือจากความสามารถในการปรับขนาดแล้วเครือข่ายจะมีความยืดหยุ่นและประสิทธิภาพด้านพลังงานที่สูงขึ้น เนื่องจากระบบถูกสร้างขึ้นจากบล็อกอาคารเดียวกันจำนวนมาก Wedge100S สวิตช์ใด ๆ สามารถออกไปให้บริการโดยไม่ได้ตั้งใจหรือตั้งใจโดยไม่ส่งผลต่อประสิทธิภาพโดยรวมของเครือข่าย

 

ระบบสามารถใช้งานได้หลายวิธี การดำเนินการที่อธิบายไว้ในโพสต์บล็อกของ Facebook คือโหนดตัวรวบรวมข้อมูล (โหนดหมายถึงแบนด์วิดท์ที่เพิ่มเข้ามาโดยใช้วิธีการ) ซึ่งสนับสนุนการจราจรในภูมิภาค (“ตะวันออกตะวันตก”) และระหว่างภูมิภาค (“เหนือใต้” ) การจราจร

สองชั้น – “downstream” สำหรับภูมิภาคและ “upstream” สำหรับระหว่างภูมิภาค – ถูกแยกออกซึ่งหมายความว่าแต่ละคนสามารถปรับขนาดได้อย่างอิสระ วัตถุประสงค์ของชั้นต้นน้ำคือการบีบอัดการเชื่อมต่อกับเครือข่ายกระดูกสันหลังของ Facebook

เนื่องจากส่วนการสร้างพื้นฐานจะเหมือนกันในระบบสวิตช์ Wedge100S ใดก็ได้ที่สามารถนำออกใช้เพื่อแก้จุดบกพร่องโดยไม่มีผลต่อประสิทธิภาพโดยรวมของเครือข่าย:

ความท้าทายครั้งใหม่

สำหรับ Sankar และเพื่อนร่วมงานของเธอการปลดขีดจำกัด ของสิ่งที่ผู้รวบรวมผ้าสามารถทำอยู่แล้วในขีดจำกัดของ ระบบเครือข่าย 100G ขีดจำกัดนี้กำลังถูกขยายไปแล้วซึ่งอาจหมายถึงปัญหาหลัก ๆ ในอนาคตเมื่อระบบเครือข่าย 400G มาถึง “ศูนย์ข้อมูลขนาด 400 กิกะวัตต์นี้ไม่สามารถเทียบเท่าได้”

การพูดในที่ประชุมสุดยอดแอนดี้ Bechtolsheim ผู้ร่วมก่อตั้ง Sun Microsystems และผู้ก่อตั้ง Arista Networks ผู้จัดหาอุปกรณ์เครือข่ายรายใหญ่ที่สุดแห่งหนึ่งให้กับศูนย์ข้อมูลขนาดใหญ่ได้อ้างถึงการคาดการณ์ของ Dell’Oro Group ว่าการเปลี่ยนจาก 100G เป็น 400G จะเป็นไปได้ เริ่มต้นในปีพ. ศ. 2562 เพิ่มปริมาณการใช้งานในปีพ. ศ. 2563 และผ่าน 100G ในแบนด์วิธทั้งหมดที่ใช้งานในปี พ.ศ. 2565

โซลูชันที่ได้รับการสนับสนุนจาก Facebook คือปัญหาเกี่ยวกับระบบออพติคอลและ ASICs ในแพ็กเกจเดียวกันโดยมีการปรับเปลี่ยน I / O แทนการออกแบบปัจจุบันซึ่งมีการต่อโมดูลแสงเข้ากับสวิตช์ ที่จะช่วยให้ความหนาแน่นสูงขึ้นและพลังงานต่ำกว่า Omar Baldonado ผู้อำนวยการฝ่ายวิศวกรรมซอฟต์แวร์ในทีมโครงสร้างเครือข่ายของ Facebook กล่าว “เลนส์ที่บรรจุร่วมเป็นโซลูชันที่เราเชื่อมั่นอย่างมาก”

ทั้ง Sankar และ Baldonado เรียกร้องให้ผู้ขายระบบเครือข่ายเพื่อเร่งการพัฒนาในพื้นที่นี้

 

** หากเป็นเช่นนี้เราคงได้เห็นนวัตกรรมใหม่ ๆ ที่เกิดจากเฟสบุ๊คเพื่อแก้ปัญหาเครือข่ายในเร็ววัน และหวังว่าทางคอมสยามจะได้นำระบบต่างๆ ที่เหมาะสมมาปรับใช้ให้กับองกรค์ของคุณลูกค้าได้อย่างเต็มประสิทธิภาพ

ทิ้งคำตอบไว้

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.