Breaking News
Home / บทความน่ารู้ / รู้ทันเทคโนโลยี / เน็ตแอพเผยเทรนด์เทคโนโลยีปี 2561

เน็ตแอพเผยเทรนด์เทคโนโลยีปี 2561

เน็ตแอพเผยเทรนด์เทคโนโลยีปี 2561

ดาต้าหรือข้อมูล คือตัวขับเคลื่อนธุรกิจที่สำคัญ

โดย มาร์ค เบรกแมน CTO ของเน็ตแอพ

เมื่อเร็วๆ นี้ เน็ตแอพได้ออกมาพูดถึงการเปลี่ยนแปลงทางด้านรากฐานของโลกที่เกิดขึ้นอย่างรวดเร็ว ในเรื่องของการเปลี่ยนผ่านสู่ยุคดิจิทัล ที่มีการมุ่งเน้นไปที่กลยุทธ์เชิงไอทีสำหรับองค์กรทั้งหลาย โดยที่ศูนย์กลางของการโฟกัสจะไปอยู่ที่ ‘ข้อมูล’

ในยุคที่โลกเรามีความหลากหลายทางด้านข้อมูล และข้อมูลก็มีอิทธิพลต่อทุกๆ สิ่ง ตั้งแต่โครงสร้างพื้นฐานทางไอที โครงสร้างของแอปพลิเคชัน ไปจนถึงกลยุทธ์ Provisioning ที่จะต้องปรับเปลี่ยนเพื่อตอบสนองความจริงครั้งใหม่ของโลกไฮบริดคลาวด์ นี่คือบริบทที่ทำให้เราเข้าใจ 5 เทรนด์สำคัญในปี 2561 ด้วยการคาดการณ์ของซีทีโอจากเน็ตแอพ

1#: ความสามารถในการหยั่งรู้ของข้อมูล

ปัจจุบัน เรามีกระบวนการที่ทำหน้าที่ควบคุมการย้ายข้อมูล การจัดการและการป้องกันข้อมูลต่างๆ ที่อาจเกิดขึ้น แต่ก็มีสิ่งที่เกินคาดกว่านั้น คือ เรามีระบบที่ข้อมูลสามารถจัดการตัวมันเองได้

ล่าสุดของความก้าวหน้าในระบบสารสนเทศนั้น ข้อมูลมีความสามารถในการบริหารจัดการตัวเองได้หลากหลายขึ้นมากกว่าเดิม โดย เมทาดาทา (Metadata) จะทำให้ข้อมูลสามารถเคลื่อนย้าย จัดหมวดหมู่ วิเคราะห์และปกป้องตัวเองได้  และความราบรื่นในการทำงานขององค์ประกอบข้อมูล แอปพลิเคชัน และสตอเรจ จะถูกอัพเดตในแบบเรียลไทม์ ในขณะที่ข้อมูลทำการส่งสารที่ถูกต้องและแม่นยำตามที่ผู้ใช้งานต้องการได้อย่างถูกที่ ถูกเวลา นี่คืออีกหนึ่งความสามารถในการจัดการตนเองของข้อมูล ด้วยการกำหนดผู้ที่สามารถเข้าถึง แบ่งปัน และใช้งานข้อมูลได้เอง ซึ่งอาจหมายถึงการปกป้องข้อมูลจากภายนอก เพื่อความเป็นส่วนตัว ด้วยอำนาจการจัดการในการเข้าถึง

ยกตัวอย่างเช่น หากคุณประสบอุบัติเหตุทางรถยนต์ อาจมีกลุ่มคนบางกลุ่มต้องการหรือแสดงเจตจำนงในการเข้าถึงข้อมูลรถยนต์ของคุณ ไม่ว่าจะเป็นผู้ตัดสิน หรือบริษัทประกันภัยที่ต้องการข้อมูลเพื่อทำการวิเคราะห์ ในขณะเดียวกันโรงงานผลิตรถยนต์ก็อาจต้องการข้อมูลนี้ด้วยเพื่อนำไปสร้างสมรรถนะกลไกเครื่องยนต์หรือระบบเบรกที่ดีที่สุด ทว่าการจัดการของระบบข้อมูลนี้ก็คือ ความสามารถในการหยั่งรู้ได้ว่ามีใครกำลังติดตาม และยังคอยควบคุมว่าใครกำลังเฝ้าดู อยู่ในส่วนไหนและเวลาใด โดยที่เจ้าของข้อมูลไม่ต้องกังวลว่าจะมีผลเสียตามมาเนื่องจากมีใครล่วงรู้ข้อมูลสำคัญที่ไม่ต้องการเผยแพร่

2#: Virtual Machine จะกลายเป็นเครื่อง Rideshare

การทำงานของเวอร์ชวล แมชชีน (Virtual Machine)  จะเอื้อให้ระบบสามารถจัดการข้อมูลที่ถูกเผยแพร่ได้รวดเร็วขึ้น ทั้งยังมีราคาถูกและจัดการได้สะดวกกว่า ด้วยการทำงานผ่านทางโครงสร้างพื้นฐานในลักษณะของ webscale

สิ่งนี้ทำให้เราได้ข้อคิดในการเลือกซื้อ เช่ารถยนต์ หรือการใช้บริการ Ridesahre ผ่านทางบริการอย่าง Uber หรือ Lyft หากคุณเป็นคนหนึ่งที่ใช้ยานพาหนะในการบรรทุกของหนักทุกวัน การซื้อรถเป็นของตัวเองก็เป็นเรื่องที่เหมาะสม แต่หากในกรณีของคนที่เลือกใช้รถต่างประเภทในแต่ละช่วงเวลา ก็อาจเหมาะกับการเช่ารถยนต์มากกว่า นอกจากนี้ ยังมีกลุ่มคนที่ต้องการใช้ยานพาหนะในการรับส่งจากที่หนึ่งไปยังที่หนึ่งแค่เพียงครั้งเดียวเท่านั้น ซึ่งประเภทของรถนั้นคงไม่จำเป็น ขอแค่เพียงมีความรวดเร็วและสะดวกสบาย ซึ่งบริการอย่าง Rideshare ก็ดูจะตอบโจทย์มากที่สุด

แนวคิดนี้จึงถูกนำมาประยุกต์ใช้ในกรณีของ Virtual Machine และ Physical machine ฮาร์ดแวร์ที่สามารถปรับแต่งได้อาจมีราคาสูง แต่การลงทุนทางด้านโครงสร้างพื้นฐานที่เป็นรูปธรรมนั้นยังคงเหมาะกับเวิร์กโหลดปริมาณมหาศาลที่ต้องทำงานร่วมกัน กรณีของ Virtual Machine ในระบบคลาวด์ที่รองรับประเภทของเวิร์กโหลดที่หลากหลายดูจะคล้ายกับการทำสัญญาเช่า ผู้ใช้งานสามารถเข้าถึง Virtual Machine ได้โดยที่ไม่ต้องถือสิทธิ์ครอบครองหรือทราบข้อมูลใดๆ ทั้งสิ้น และเมื่อสิ้นสุดการ ‘เช่า’  ทุกอย่างก็จะถูกยกเลิกไปเอง Virtual Machine ที่อยู่บนโครงสร้างพื้นฐาน webscale (การประมวลผลแบบไม่ต้องใช้เซิร์ฟเวอร์) จะคล้ายกับบริการ Rideshare ที่สามารถประมวลผลได้เพียงแค่ผู้ใช้งานกำหนดภารกิจที่ต้องทำให้สำเร็จ จากนั้นก็ยกให้เป็นหน้าที่ของผู้ให้บริการคลาวด์จัดการ สร้างความสะดวกสบายในการใช้งานมากกว่ารูปแบบดั้งเดิมของเวิร์กโหลดบางประเภท

3#: ข้อมูลที่เพิ่มขึ้นอย่างรวดเร็วจนเกินความสามารถในการถ่ายโอน แต่ก็สามารถจัดการได้

คงไม่ใช่ความลับหากจะบอกว่า การที่ข้อมูลมีการเปลี่ยนแปลงอยู่เสมอและถูกนำมาใช้งานในอัตราที่เพิ่มสูงขึ้นจนเกินความสามารถในการถ่ายโอน อย่างไรก็ตาม แอปพลิเคชันและทรัพยากรที่ต้องใช้ในกระบวนการจะถูกย้ายไปยังข้อมูล แทนที่จะเป็นการย้ายข้อมูลไปเอง ซึ่งส่งผลให้เกิดโครงสร้างใหม่ๆ อย่าง edge, core และ cloud ในอนาคต ปริมาณของข้อมูลที่อยู่ในแกนประมวลผล (core) จะน้อยกว่าปริมาณที่ถูกสร้างบน edge เสมอ แต่สิ่งเหล่านี้จะไม่เกิดขึ้นเองโดยบังเอิญ จะต้องมีการเปิดใช้งานอย่างรอบคอบเพื่อรับรองความถูกต้องของข้อมูลที่ถูกจัดเก็บไว้สำหรับการตัดสินใจในครั้งต่อไป

ตัวอย่างเช่น โรงงานผลิตรถยนต์ไร้คนขับ (Autonomous car) ติดตั้งเซนเซอร์ที่ผลิตข้อมูลมหาศาลจนไม่มีเครือข่ายที่รวดเร็วพอที่จะเคลื่อนย้ายข้อมูลจากรถยนต์ไปยังดาต้าเซนเตอร์ได้ ในอดีต อุปกรณ์ที่อยู่บน edge ไม่ได้ผลิตข้อมูลจำนวนมากนัก แต่ปัจจุบัน การที่มีเซนเซอร์ติดตั้งอยู่ทุกที่ ตั้งแต่รถยนต์, ตัวควบคุมอุณหภูมิ ไปจนถึงอุปกรณ์แวร์เอเบิล ข้อมูล edge นั้นมีการเติบโตอย่างรวดเร็วจนเกินขีดความสามารถของการเชื่อมต่อเครือข่ายเข้ากับแกนประมวลผล (core) รถยนต์ไร้คนขับและอุปกรณ์ edge อื่นๆ ต้องการการวิเคราะห์แบบเรียลไทม์บน edge เพื่อการตัดสินใจที่ทันท่วงที ส่งผลให้เราย้ายแอปพลิเคชันไปยังข้อมูล

4#: การพัฒนาจาก Big Data ไปสู่ Huge Data ต้องพึ่งพาสถาปัตยกรรมโครงสร้าง Solid State Drive (SSD) ในรูปแบบใหม่

ความต้องการในการวิเคราะห์กลุ่มข้อมูลขนาดใหญ่กำลังเพิ่มขึ้นอย่างรวดเร็ว เราจำเป็นต้องย้ายข้อมูลให้ไปอยู่ใกล้กับทรัพยากรประมวลผล หน่วยความจำข้อมูลแบบถาวร (persistent memory) คือสิ่งที่เอื้อให้มีการประมวลผลแบบ ultra-low latency โดยที่ข้อมูลไม่สูญหาย และความต้องการของค่า latency เหล่านี้จะบังคับให้สถาปัตยกรรมทางด้านซอฟต์แวร์เกิดการปรับเปลี่ยนและสร้างโอกาสให้ธุรกิจทั้งหลายได้มาซึ่งข้อมูลใหม่ๆ แม้เทคโนโลยีแฟลช (Flash) จะกลายเป็นประเด็นร้อนในภาคอุตสาหกรรม แต่ซอฟต์แวร์ที่รันบนเทคโนโลยีนี้ก็ยังไม่ได้มีการเปลี่ยนแปลงอย่างแท้จริง แค่มีความรวดเร็วขึ้นเท่านั้น

นี่คืออิทธิพลจากวิวัฒนาการของบทบาททางด้านไอทีในองค์กร ในอดีตหน้าที่หลักของไอทีน่าจะเป็นการจัดการขั้นตอนกระบวนการให้เหมาะสมที่สุด ไม่ว่าจะเป็นการสั่งงาน การวางบิล การทำการบันทึกบัญชีเกี่ยวกับลูกหนี้ (Account Receivable) และอื่นๆ ในปัจจุบัน ไอทีเป็นส่วนประกอบสำคัญในการเสริมสร้างความสัมพันธ์กับลูกค้าให้ดีขึ้น ด้วยการนำเสนอบริการที่ออนไลน์อยู่ตลอด (Always on), แอปพลิเคชันบนมือถือ และการเข้าสู่ rich web experience ขั้นตอนต่อไปคือการแปลงของข้อมูลที่ถูกบันทึกทางเซนเซอร์หลายแห่งและอุปกรณ์ต่างๆ เพื่อสร้างโอกาสทางด้านธุรกิจใหม่ๆ ซึ่งขั้นตอนนี้ต้องอาศัยสถาปัตยกรรมแอปพลิเคชันรูปแบบใหม่ที่สนับสนุนโดยเทคโนโลยีอย่างหน่วยความจำข้อมูลแบบถาวร (persistent memory)

5#: การปรากฏขึ้นของกลไกการจัดการข้อมูลแบบกระจายอำนาจจากศูนย์กลางที่ไม่สามารถเปลี่ยนแปลงได้

กลไกการจัดการข้อมูลด้วยวิธีที่มีความน่าเชื่อถือ ไม่เปลี่ยนแปลง และมีการเผยแพร่อย่างแท้จริง (หมายถึง ไม่ต้องผ่านอำนาจศูนย์กลาง) จะมีความโดดเด่นและสร้างผลกระทบให้แก่ศูนย์ข้อมูลแบบลงลึก ซึ่ง Blockchain คือตัวอย่างที่เห็นได้ชัดสำหรับกรณีนี้

กลไกการกระจายอำนาจจากศูนย์กลางอย่าง blockchain สร้างความท้าทายให้แก่รูปแบบการปกป้องและจัดการข้อมูลแบบดั้งเดิม เนื่องจากไม่มีจุดศูนย์กลางในการควบคุมอย่างเซิร์ฟเวอร์กลาง เป็นไปไม่ได้เลยที่จะเปลี่ยนหรือลบข้อมูลที่ถูกจัดเก็บอยู่ใน blockchain และข้อมูลการทำธุรกรรมต่างๆ  ก็ไม่สามารถกู้คืนกลับมาได้

ลองคิดถึงระบบชีววิทยาที่มีเจ้าบ้านเป็นสิ่งมีชีวิตขนาดเล็กที่ต่างรู้หน้าที่โดยที่ไม่ต้องสื่อสารกับสิ่งอื่นและไม่ต้องมีใครมาคอยบอกให้ทำอะไร จากนั้นเมื่อคุณเติมสารอาหารลงไปจำนวนมาก ซึ่งในที่นี้คือ  ‘ข้อมูล’ สารอาหารเหล่านั้นจะรู้ว่าจะต้องทำอะไรและเริ่มทำงานร่วมกัน โดยไม่ต้องพึ่งพาการควบคุมจากศูนย์กลาง คล้ายกับแนวปะการัง

ศูนย์ข้อมูลและแอปพลิเคชันต่างๆ ในปัจจุบัน ทำงานเหมือนฟาร์มที่ถูกจัดไว้สำหรับการค้า โดยมีผู้เป็นศูนย์กลางในการควบคุม (ชาวนา) ที่คอยจัดการสภาพแวดล้อมโดยรอบ กลไกที่กระจายอำนาจจากศูนย์กลางสำหรับจัดการข้อมูลจะนำเสนอไมโครเซอร์วิสที่ทำให้ข้อมูลสามารถนำมาใช้ทำงานสำคัญๆ ได้ ไมโครเซอร์วิสและข้อมูลจะทำงานร่วมกัน โดยไม่ต้องอาศัยการควบคุมจากศูนย์กลาง

Related posts

About ข่าวไอที 24 ชั่วโมง

ข่าวไอที 24 ชั่วโมง ข่าวไอที ข่าว IT ข่าวเทคโนโลยี สินค้าไอทีมาใหม่ รีวิวสินค้าไอที

Check Also

สี่แนวโน้มสำคัญในปี 2561 ที่องค์กรต้องจับตามอง เมื่อจะประเมินประสิทธิภาพ การยกระดับดาต้าเซ็นเตอร์

สี่แนวโน้มสำคัญ …

%d bloggers like this: