Share on
×

Share

AI และ Quantum: สองเมกะเทรนด์กำหนดทิศทาง IT Infrastructure ยุคใหม่

AI และ Quantum: สองเมกะเทรนด์กำหนดทิศทาง IT Infrastructure ยุคใหม่

เทคโนโลยีปัญญาประดิษฐ์ (AI) ได้กลายเป็นตัวแปรสำคัญที่กำลังปรับเปลี่ยนภูมิทัศน์ของโครงสร้างพื้นฐานด้านไอที (IT Infrastructure) อย่างมีนัยสำคัญ ขณะเดียวกัน การมาถึงของเทคโนโลยีคอมพิวเตอร์ควอนตัม (Quantum Computing) ในอนาคตอันใกล้ ได้สร้างความท้าทายใหม่ที่องค์กรต้องเริ่มเตรียมการรับมือ โดยเฉพาะอย่างยิ่งในมิติของความปลอดภัยทางไซเบอร์

กลยุทธ์โครงสร้างพื้นฐานยุคใหม่: เมื่อไม่มีสูตรสำเร็จเดียว

AI และ Quantum: สองเมกะเทรนด์กำหนดทิศทาง IT Infrastructure ยุคใหม่

วิทยากร แช่มกัน ผู้จัดการอาวุโสฝ่ายพัฒนาธุรกิจ บริษัท ยิบอินซอย จำกัด ระบุว่า ปัจจุบันองค์กรเลือกใช้โครงสร้างพื้นฐานในรูปแบบที่หลากหลาย เพื่อให้สอดคล้องกับลักษณะของภาระงาน (Workload) และข้อกำหนดทางธุรกิจที่แตกต่างกัน เริ่มตั้งแต่รูปแบบดั้งเดิมอย่าง On-Premise ที่องค์กรเป็นเจ้าของและบริหารจัดการฮาร์ดแวร์ซอฟต์แวร์ทั้งหมดด้วยตนเอง ซึ่งเหมาะสำหรับระบบงานที่คาดการณ์ปริมาณการใช้งานได้คงที่และต้องการการควบคุมความปลอดภัยสูงสุด เช่น ระบบ ERP หรือระบบงานหลักด้านการเงิน

ต่อมาคือ Private Cloud ซึ่งเป็นการนำเทคโนโลยี Virtualization และ Automation มาปรับใช้ภายในองค์กร เพื่อสร้างความยืดหยุ่นและรวดเร็วในการจัดสรรทรัพยากรเสมือน Public Cloud แต่ยังคงไว้ซึ่งการควบคุมอย่างสมบูรณ์ จึงเป็นทางเลือกสำหรับธุรกิจที่ต้องปฏิบัติตามกฎระเบียบที่เข้มงวด

และท้ายที่สุดคือ Public Cloud ซึ่งเป็นการใช้บริการจากผู้ให้บริการภายนอกในรูปแบบจ่ายตามการใช้งานจริง มีจุดเด่นด้านความเร็วและความสามารถในการขยายขนาดที่ไร้ขีดจำกัด จึงเหมาะกับองค์กรที่ต้องการความคล่องตัวสูง

แนวโน้ม Public Cloud ในไทยและมุมมองความปลอดภัยที่เปลี่ยนไป

สุทธิรักษ์ นาคพันธ์ Head of Customer Engineering จาก Google Cloud ประเทศไทย ชี้ให้เห็นถึงแนวโน้มการย้ายภาระงานสู่ Public Cloud ในประเทศไทยที่เพิ่มสูงขึ้นอย่างชัดเจน โดยมีปัจจัยเร่งคือการเข้ามาลงทุนจัดตั้งศูนย์ข้อมูล (Data Center Region) ของผู้ให้บริการรายใหญ่ระดับโลก ซึ่งช่วยแก้ปัญหาด้านข้อบังคับการจัดเก็บข้อมูลภายในประเทศ (Data Residency) และลดความหน่วง (Latency) ในการเข้าถึงบริการ

ประเด็นที่น่าสนใจคือมุมมองด้านความปลอดภัยที่เปลี่ยนแปลงไป จากเดิมที่เชื่อว่าการเก็บข้อมูลแบบ On-Premise ปลอดภัยที่สุด ปัจจุบันหลายองค์กรยอมรับว่าผู้ให้บริการ Public Cloud มีการลงทุนด้านความปลอดภัยและมีทีมผู้เชี่ยวชาญระดับโลกที่อาจให้การป้องกันที่เหนือกว่า

“มีกรณีที่ลูกค้าเลือกย้าย Workload ที่ต้องการ Compliance ด้านความปลอดภัยที่เข้มงวดขึ้นไปบน Cloud โดยเฉพาะ เพราะผู้ให้บริการผ่านการรับรองมาตรฐานสากลต่างๆ มาแล้ว ทำให้องค์กรลดภาระในการดำเนินการ Audit ของตนเองลงได้” คุณสุทธิรักษ์ กล่าว

“Open Infrastructure” กุญแจสำคัญในโลก Multi-Cloud

เมื่อองค์กรใช้กลยุทธ์ Multi-Cloud หรือการผสมผสานบริการจากผู้ให้บริการหลายราย ความซับซ้อนในการบริหารจัดการจึงกลายเป็นความท้าทาย สุพรรณี อำนาจมงคล ผู้จัดการประจำประเทศไทย บริษัท เร้ดแฮท (ประเทศไทย) จำกัด ได้นำเสนอแนวคิด “Open Infrastructure” เพื่อรับมือกับความท้าทายนี้

“Open” ในบริบทนี้หมายถึง “อิสระในการโยกย้าย” (Portability) ซึ่งช่วยให้องค์กรสามารถย้ายแอปพลิเคชันและภาระงานข้ามสภาพแวดล้อมที่แตกต่างกันได้อย่างราบรื่น เพื่อหลีกเลี่ยงการผูกติดกับผู้ให้บริการรายใดรายหนึ่ง (Vendor Lock-in) และสร้างความยืดหยุ่นทางธุรกิจสูงสุด

คุณสุพรรณีเน้นย้ำว่า การปรับปรุงโครงสร้างพื้นฐานต้องทำควบคู่ไปกับการปรับปรุงแอปพลิเคชันให้ทันสมัย (Application Modernization) โดยใช้สถาปัตยกรรมเช่น Microservices และ Container เพื่อให้แอปพลิเคชันสามารถทำงานได้อย่างอิสระบนทุกแพลตฟอร์ม แนวทางของ Red Hat คือการใช้ซอฟต์แวร์ที่อยู่บนมาตรฐานเปิด (Open Source) เพื่อสร้างความเป็นหนึ่งเดียวกันในการบริหารจัดการ ลดปัญหาการขาดแคลนบุคลากรที่มีทักษะหลากหลาย (Skills Gap)

ผลกระทบของ AI ต่อการออกแบบโครงสร้างพื้นฐาน

การนำ AI มาใช้งานได้ส่งผลโดยตรงต่อความต้องการโครงสร้างพื้นฐานในหลายมิติ เริ่มตั้งแต่ความต้องการฮาร์ดแวร์ประมวลผลประสิทธิภาพสูง สำหรับการฝึกสอนโมเดล AI ซึ่งจำเป็นต้องใช้หน่วยประมวลผลกราฟิก (GPU) หรือชิปที่ออกแบบมาโดยเฉพาะอย่าง TPU (Tensor Processing Unit) สิ่งนี้ได้นำไปสู่การเกิดโมเดลการบริหารจัดการทรัพยากรใหม่ เช่น GPU as a Service เพื่อให้สามารถใช้งานทรัพยากรที่มีราคาสูงร่วมกันได้อย่างมีประสิทธิภาพ

นอกจากนี้ วิวัฒนาการของภาระงาน AI เองก็เปลี่ยนแปลงไป จากช่วงแรกที่เน้นการฝึกสอนโมเดล มาสู่ยุคของการเรียกใช้งานผ่าน API และกำลังเข้าสู่ยุค Agentic AI ที่มีการทำงานเชิงรุกต่อเนื่อง ทำให้ความต้องการโครงสร้างพื้นฐานสำหรับการประมวลผล (Inference) กลับมาสูงขึ้นอีกครั้ง ท้ายที่สุด การใช้ AI ยังก่อให้เกิดความท้าทายใหม่ทั้งในด้านความปลอดภัยที่ต้องมีเครื่องมือป้องกันตัวโมเดลโดยเฉพาะ และประเด็นด้านการใช้พลังงานที่ต้องนำมาพิจารณา

ภัยคุกคามจาก Quantum Computing และการเตรียมพร้อมสู่อนาคต

ผู้ร่วมเสวนาเห็นตรงกันว่า Quantum Computing เป็นเทคโนโลยีที่จะเข้ามามีบทบาทสำคัญในอนาคตและอาจเกิดขึ้นเร็วกว่าที่คาดการณ์ ประเด็นเร่งด่วนที่สุดคือภัยคุกคามต่อระบบการเข้ารหัสแบบกุญแจสาธารณะ (Public Key Encryption) ที่ใช้กันอยู่ในปัจจุบัน เช่น RSA และ ECC

วิทยากร ให้ข้อมูลว่า กระบวนการถอดรหัสที่คอมพิวเตอร์แบบดั้งเดิมอาจต้องใช้เวลาเป็นร้อยปี คอมพิวเตอร์ควอนตัมที่ทรงพลังอาจใช้เวลาเพียงไม่กี่ชั่วโมง ภัยคุกคามนี้ยังรวมถึงกลยุทธ์ “Harvest Now, Decrypt Later” คือการดักเก็บข้อมูลที่เข้ารหัสไว้ในวันนี้ เพื่อรอถอดรหัสในวันที่คอมพิวเตอร์ควอนตัมมีศักยภาพสูงพอ

ด้วยเหตุนี้ อุตสาหกรรมจึงต้องเร่งพัฒนาและเปลี่ยนผ่านไปสู่ Post-Quantum Cryptography (PQC) ซึ่งเป็นอัลกอริทึมการเข้ารหัสรูปแบบใหม่ที่เชื่อว่าสามารถทนทานต่อการโจมตีจากคอมพิวเตอร์ควอนตัมได้ โดยผู้พัฒนาซอฟต์แวร์ระดับองค์กรได้เริ่มนำมาตรฐานดังกล่าวมาปรับใช้แล้ว ในขณะที่ Google มีแผนการพัฒนาที่ชัดเจนและคาดว่าในอีก 3-5 ปีข้างหน้า เทคโนโลยีควอนตัมอาจเข้าถึงได้ในวงกว้างมากขึ้น ซึ่งจะยิ่งผลักดันให้ทุกองค์กรต้องปรับตัวสู่มาตรฐาน PQC อย่างเร่งด่วน

ข่าวอื่น ๆ ที่น่าสนใจ

DEmark 2025 ประกาศ 95 สุดยอดผลงานออกแบบแห่งปี

ศูนย์วิจัยกสิกรไทยปรับ GDP ปี 68 เป็น 1.8% ชี้ผลกระทบ ‘สงครามชิป’ คือความเสี่ยงหลัก

×

Share

ผู้เขียน