Please wait...
IT UPDATE ENTERPRISE
เทคโนโลยี Hyperconverged Infrastructure ช่วยให้มั่นใจได้ถึงประสิทธิภาพการทำงานสูงสุดในการใช้ต้นทุนอย



สิบห้าปีที่ผ่านมา ฮาร์ดไดรฟ์ (Hard drive) มาตรฐานของคุณ มีความจุ (capacity) อยู่ที่ประมาณ 36GBs  ซึ่งฮาร์ดไดรฟ์ (Hard drive) เหล่านี้ มีค่าความเร็วในการส่งผ่านข้อมูล(deliver roughly) อยู่ที่ประมาณ 150 IOPS ในวันนี้ที่ฮาร์ดไดร์ฟมีความจุมากกว่า 6TB แต่กลับพบว่า ค่าความเร็วในการส่งผ่านข้อมูล(deliver roughly) ก็ยังคงอยู่ที่ประมาณ 150 IOPS


คุณจะเห็นแล้วว่า ปัญหาทางด้านข้อมูลไม่ได้เป็นเรื่องของความจุ(capacity) ของข้อมูลอีกต่อไป แต่การเติบโตของข้อมูลต่างหากที่ถือว่าเป็นเรื่องสำคัญ โดย IDC คาดการณ์ว่า โลกจะสามารถสร้างข้อมูลได้ถึง 163 เซทไบต์ (zettabytes) ต่อปี ภายในปี 2025 นี้ แต่นั่นไม่ใช่ปัญหา ในลำดับต้นๆ ที่รบกวนใจ สำหรับผู้เชี่ยวชาญทางด้าน IT ซึ่งปัญหาที่น่าหนักใจมากที่สุดสำหรับผู้ที่อยู่ในวงการ IT นั่นก็คือ การเติบโตของข้อมูลที่เพิ่มขึ้น และความจุของฮาร์ดไดร์ฟ (Hard drive capacity) ที่จะต้องสัมพันธ์กับประสิทธิภาพการทำงานที่ดีขึ้นอย่างเลี่ยงไม่ได้ แต่ทั้งนี้ ความเร็วในการอ่านและเขียน กลับไม่ได้เพิ่มขึ้นตามอัตราความจุของดิสก์ (disk capacity) ที่มี และสิ่งนี้เองที่ถือว่าเป็นข้อจำกัด ประสิทธิภาพของการดำเนินงานนั่นเอง


ลองนึกถึงการดูดมิลค์เชคจากหลอดดูด  ไม่ว่าถ้วยของคุณจะใหญ่แค่ไหน คุณก็ไม่สามารถดูดเครื่องดื่มได้เร็วขึ้นไปจากเดิม ถ้าคุณไม่ได้เพิ่มขนาดความกว้างของหลอดดูด และการส่งผ่านก็จะแย่ลงไปอีก ถ้าคุณทำให้มิลค์เชคของคุณมีความเข้มข้นมากขึ้น คุณก็แทบจะดูดมันไม่ได้ และมันก็จะทำให้คุณต้องรู้สึกหงุดหงิด เหนื่อย และรู้สึกไร้ประสิทธิภาพในที่สุด มันก็เป็นเรื่องที่คล้ายกันใน Data Center ในฐานะของ Infrastructure ที่ต้องพยายามต่อไป เพื่อให้ทันกับปริมาณที่เพิ่มขึ้นของข้อมูลที่จำเป็น (data necessary) เพื่อให้เกิดประโยชน์ต่อการทำธุรกิจของคุณ ซึ่งประสิทธิภาพการทำงานเองก็ไม่ได้เพิ่มขึ้นตามความสามารถในการรองรับข้อมูลแต่อย่างใด แต่อย่างไรก็ตาม ยังมีวิธีแก้ปัญหา ซึ่งกุญแจสำคัญในการแก้ปัญหานั่นก็คือ “การทำให้ข้อมูลมีประสิทธิภาพอย่างแท้จริง”


เทคโนโลยีการจัดการข้อมูลอย่างมีประสิทธิภาพ (Data efficiency technologies) ได้ถูกออกแบบมาเพื่อช่วยในการบริหารจัดการกับปริมาณข้อมูลที่กำลังเพิ่มขึ้นอย่างรวดเร็ว อย่างไรก็ตาม ในขณะนี้ความกังวลเบื้องต้นของ IT กลับไม่ใช่ ข้อจำกัดด้านความสามารถ แต่กลับเป็นในเรื่องของการใช้เทคโนโลยีที่มีประสิทธิภาพในการจัดการข้อมูล เช่น การกำจัดข้อมูลซ้ำซ้อน (deduplication) การบีบอัดข้อมูล (compression) และการเพิ่มประสิทธิภาพ (optimization) ซึ่งจำเป็นที่จะต้องได้รับการปรับเปลี่ยนเพื่อให้เหมาะสมกับสภาพแวดล้อมใหม่นี้


นี่คือคำถามที่น่าสนใจที่สุดเกี่ยวกับศูนย์ข้อมูล : คุณมั่นใจได้อย่างไรว่า แอพพลิเคชันจะมีความสามารถในการคาดการณ์ (predictability) และทำงานได้อย่างมีประสิทธิภาพสูงสุด ในลักษณะของการทำงานแบบ post-virtualization world ขณะที่ IOPS requirements ได้เพิ่มขึ้นอย่างรวดเร็ว และ hard drive IOPS ก็ยังคงมีการเพิ่มขึ้นแบบค่อยเป็นค่อยไป? หลายธุรกิจ มุ่งเน้นไปที่การจัดเก็บข้อมูลแบบ flash storage ซึ่งเชื่อว่าเป็นโซลูชั่นหนึ่ง ที่สามารถช่วยแก้ปัญหากับประสิทธิภาพการทำงานที่เฉื่อยชาได้ แต่ในขณะเดียวกันนั้น การจัดเก็บข้อมูลแบบ flash storage เอง ที่มีประโยชน์ในการแก้ปัญหานั้น กลับต้องใช้งบประมาณที่สูง และตัวมันเองก็ไม่ได้เหมาะไปกับทุกส่วนใน  Data Lifecycle




หนึ่งในทางออกนั่นก็คือ เทคโนโลยี Hyperconverged infrastructure ซึ่งระบบ Hyperconverged นั้น จัดว่าเป็นโซลูชั่นที่ใช้ประโยชน์จากเทคโนโลยีแฟลช / SSD โดยได้รับการออกแบบมาเพื่อทำให้ข้อมูลมีประสิทธิภาพและเป็นการช่วยเพิ่มประสิทธิภาพของศูนย์ข้อมูล HPE SimpliVity Hyperconverged เป็นเทคโนโลยี ที่ช่วยขจัดปัญหาข้อมูลซ้ำซ้อน การบีบอัดและการเพิ่มประสิทธิภาพสำหรับข้อมูลทั้งหมดทั่วโลก และทั่วทุกระดับของ Data Lifecycle และมันก็เป็นแบบอินไลน์ (Inline) ทั้งหมด ซึ่งก็ส่งผลให้ข้อมูลมีการจัดเก็บ โยกย้าย ติดตาม และมีป้องกันข้อมูลได้อย่างมีประสิทธิภาพมากยิ่งขึ้น


ในขณะที่มีข้อมูลเกิดขึ้นใหม่ในทุกๆ สองวินาที แต่ละธุรกิจจึงต้องพยายามหาวิธี เพื่อที่จะให้แน่ใจว่าระบบโครงสร้างพื้นฐานของพวกเขา สามารถจัดการกับภาระที่เพิ่มขึ้นได้โดยไม่ต้องลดประสิทธิภาพในการทำงาน แต่เป็นการทำให้ข้อมูลมีประสิทธิภาพตั้งแต่เริ่มแรก และทั่วทั้งวงจร Lifecycles ทั้งหมด ซึ่ง HPE SimpliVity ที่ขับเคลื่อนโดยIntel® สามารถที่จะช่วยแก้ปัญหาข้อมูลเหล่านี้ได้

ที่มา :
https://community.hpe.com

 
ควิกเซิร์ฟ
สินค้า
งานระบบ
บริการ
กิจกรรม
ออนไลน์