เผยความท้าทายใหม่จาก AI ที่ทำงานอัตโนมัติ ระบบเข้ารหัสข้อมูลยุคหลังควอนตัม และการเปลี่ยนผ่านสู่ศูนย์ปฏิบัติการ SOC อัจฉริยะที่ต้องใช้มนุษย์ควบคุมควบคู่ AI
การ์ทเนอร์ เผยรายงานวิเคราะห์แนวโน้มด้านความปลอดภัยไซเบอร์ประจำปี 2569 ระบุว่าอุตสาหกรรมไอทีกำลังก้าวเข้าสู่ยุคที่ซับซ้อนที่สุดจากการบรรจบกันของเทคโนโลยีปัญญาประดิษฐ์ขั้นสูง ความตึงเครียดทางภูมิรัฐศาสตร์ และการเปลี่ยนแปลงของกฎระเบียบโลกที่เข้มงวดขึ้นอย่างต่อเนื่อง โดยเทรนด์ที่โดดเด่นที่สุดในปีนี้คือการขยายตัวของ Agentic AI หรือ AI ที่สามารถตัดสินใจและทำงานได้ด้วยตนเอง ซึ่งกำลังสร้างช่องโหว่ใหม่ผ่านแพลตฟอร์ม No-code และกระแสการเขียนโปรแกรมแบบ Vibe Coding ที่นักพัฒนาใช้ AI สร้างซอฟต์แวร์อย่างรวดเร็วโดยขาดการตรวจสอบความปลอดภัยที่รัดกุม ส่งผลให้องค์กรจำเป็นต้องเร่งสร้างธรรมาภิบาลเพื่อระบุตัวตนและควบคุม AI Agent ทั้งหมดในระบบ ก่อนที่การทำงานที่เป็นอิสระเหล่านี้จะกลายเป็นช่องทางให้เกิดการละเมิดกฎระเบียบหรือการโจมตีทางไซเบอร์ในรูปแบบใหม่
สถานการณ์ความผันผวนของกฎระเบียบโลกในปัจจุบันได้เปลี่ยนให้ความปลอดภัยไซเบอร์กลายเป็นความเสี่ยงทางธุรกิจโดยตรง โดยหน่วยงานกำกับดูแลเริ่มพิจารณาความผิดทางกฎหมายต่อคณะกรรมการและผู้บริหารระดับสูงหากพบความล้มเหลวในการปฏิบัติตามมาตรฐานความปลอดภัย ซึ่งความกดดันนี้บีบให้องค์กรต้องปรับระบบการจัดการอัตลักษณ์และการเข้าถึง (IAM) ให้รองรับ AI Agents มากขึ้นเพื่อจำกัดสิทธิ์การเข้าถึงข้อมูลสำคัญ
ขณะเดียวกัน แผนการรับมือภัยคุกคามจาก Post-quantum Computing ได้ขยับจากการคาดการณ์สู่แผนปฏิบัติการจริง เนื่องจากองค์กรต้องเร่งนำระบบเข้ารหัสยุคใหม่มาใช้เพื่อป้องกันความเสี่ยงจากการโจมตีประเภทเจาะตอนนี้ไม่ได้ แต่ขโมยข้อมูลไปรอถอดรหัสในอนาคต ที่จะรุนแรงขึ้นเมื่อคอมพิวเตอร์ควอนตัมพัฒนาถึงขีดสุดภายในปี 2573
...
ในส่วนปฏิบัติการของศูนย์รักษาความปลอดภัย หรือ SOC โดยเฉพาะการนำ AI มาใช้เป็นขุมพลังหลักในการวิเคราะห์และตอบโต้ภัยคุกคามกำลังสร้างความเปลี่ยนแปลงต่อบรรทัดฐานการทำงานเดิมอย่างรุนแรง แม้เทคโนโลยีจะช่วยเพิ่มความเร็วในการสืบสวนคดีไซเบอร์
อย่างไรก็ตาม การ์ทเนอร์เน้นย้ำว่าองค์กรต้องรักษาสมดุลด้วยแนวทาง Human-in-the-Loop หรือการมีมนุษย์ร่วมควบคุม เพื่อลดความผิดพลาดจากระบบอัตโนมัติ และจัดการกับงบประมาณที่ซับซ้อนขึ้น
นอกจากนี้ กลยุทธ์การสร้างความตระหนักรู้แบบเดิมเริ่มใช้ไม่ได้ผลในยุค Generative AI ที่พนักงานกว่าครึ่งยอมรับว่ามีการใช้เครื่องมือ AI ส่วนตัวทำงานและป้อนข้อมูลอ่อนไหวขององค์กรลงในระบบที่ไม่ได้รับอนุญาต ส่งผลให้การฝึกอบรมต้องเปลี่ยนผ่านไปสู่โปรแกรมการปรับพฤติกรรมตามบริบทจริง เพื่อปลูกฝังแนวทางปฏิบัติที่ปลอดภัยขึ้น