การจัดการกับ AI ด้านความมั่นคงปลอดภัยไซเบอร์

การจัดการกับ AI ด้านความมั่นคงปลอดภัยไซเบอร์

ปัญญาประดิษฐ์ (AI) กำลังเปลี่ยนแปลงอุตสาหกรรมต่างๆ อย่างรวดเร็ว โดยเฉพาะในด้านอาชญากรรมทางไซเบอร์ ซึ่งนำมาทั้งโอกาสใหม่ๆ และความเสี่ยงที่เพิ่มขึ้น เพราะทั้งฝ่ายคนร้ายและฝ่ายป้องกันต่างก็ใช้เทคโนโลยี Generative Al (GenAI) โดยฝ่ายป้องกันใช้ในการค้นหาและรับมือกับการโจมตีรูปแบบต่างๆ ขณะที่ฝ่ายโจมตีก็ใช้ เครื่องมือ GenAl เพื่อเปิดฉากการโจมตีที่ซับซ้อนในวงกว้างด้วยความเร็วที่ไม่เคยเกิดขึ้นมาก่อน


    รายงานล่าสุดเรื่อง “Unit 42 อาณาเขตภัยคุกคาม: การเตรียมตัวให้พร้อมรับความเสี่ยงจากภัย AI ยุคใหม่” จาก Unit 42 ระบุว่า หนึ่งในความเสี่ยงหลักจาก GenAl ก็คือ การทำให้การป้องกันที่เคยมีอยู่เดิมเปราะบางลงสำหรับอาชญากรรมรูปแบบต่างๆ

    การใช้ Large Language Model (LLM) กลายเป็นเครื่องมือหลักสำหรับคนร้ายบนโลกไซเบอร์ ช่วยให้คนร้ายยกระดับเทคนิคการโจมตีด้วยการหลอกลวงทางสังคม (social engineering) โดยโมเดลเหล่านี้มีส่วนช่วยในการร่างข้อความอีเมลหลอกลวงได้หลากหลายยิ่งขึ้น และยังรวบรวมข้อมูลจากหลายแหล่งเพื่อใช้สอดแนมเป้าหมายได้อย่างมีประสิทธิภาพ

    นอกจากนี้ LLM ยังมีความเปราะบางต่อการถูกเจาะระบบ (jailbreaking) เพื่อหลอกให้โมเดลสร้างเนื้อหาที่เป็นอันตราย โดยอาจถูกนำไปใช้ในกระบวนการโจมตีทางไซเบอร์ในขั้นถัดไป เช่น การช่วยเขียนโค้ดอันตรายหรือมัลแวร์ทำให้ผู้โจมตีสามารถหลบเลี่ยงมาตรการความปลอดภัยที่ถูกติดตั้งอยู่ในโมเดลเพื่อใช้ ประโยขน์เกินกว่าที่กำหนด

    อีกหนึ่งความท้าทายใหม่ที่กำลังเกิดขึ้นคือ shadow Al หรือการ ใช้ AI ในมุมมืด ซึ่งหมายถึงการใช้งานเครื่องมือ AI โดยไม่ได้รับอนุญาตภายในองค์กร หากปล่อยไว้โดยไม่มีการกำกับดูแลอย่างเหมาะสมก็อาจก่อให้เกิดความเสี่ยงอย่างมาก เช่น ปัญหาข้อมูลรั่วไหล ปัญหาด้านจริยธรรม หรือทำให้ระบบล่ม ดังนั้น การเตรียมความพร้อมรับมือกับความเสี่ยงเหล่านี้ตั้งแต่ตอนนี้จึงเป็นสิ่งสำคัญต่อการสร้างอนาคตที่ขับเคลื่อนด้วย AI อย่างปลอดภัย

    ขณะที่กลยุทธ์ด้านความมั่นคงปลอดภัยไซเบอร์แบบเดิมยังคงมีความสำคัญ การที่ AI ถูกนำมาใช้ในองค์กรอย่าง รวดเร็วกว่าทุกเทคโนโลยีที่ผ่านมาทำให้องค์กรจำเป็นต้องมีแนวทางเชิงรุก โดยให้ความสำคัญกับการรักษาความปลอดภัยของ AI ตั้งแต่เริ่มต้น แทนที่จะเพิ่มมาตรการความปลอดภัยในภายหลัง

    การเสริมเกราะป้องกันที่ออกแบบมาเฉพาะ สำหรับ AI ถือเป็นหัวใจสำคัญในการรับมือกับคนร้าย องค์กรที่เข้าใจว่า AI กำลังเปลี่ยนแปลงรูปแบบของภัยคุกคามไซเบอร์จะสามารถออกแบบ มาตรการป้องกันการใช้งาน GenAI ในภาพรวมได้อย่างเหมาะสม ช่วยให้องค์กรสามารถใช้ศักยภาพของเทคโนโลยีนี้ได้อย่างเต็มที่ โดยไม่สร้างความเสี่ยงใหม่ที่ไม่จำเป็น

    Unit 42 ได้ให้คำแนะนำสำหรับองค์กรต่างๆ ในการเตรียมความพร้อมรับมือกับภัยคุกคามที่เกี่ยวข้องกับ AI ด้วยแนวทางหลัก 3 ประการ ได้แก่ 1. การรับมือกับ shadow Al เมื่อองค์กรมีการนำ AI มาใช้งานการกำกับดูแลเป็นหัวใจสำคัญจำเป็นต้องมีการบริหารจัดการเชิงรุกและแนวทางการใช้งานที่ชัดเจนซึ่งจะช่วยลดความเสี่ยงและ ส่งเสริมให้เกิดการใช้งาน AI อย่างปลอดภัยและมีความรับผิดชอบ

    2. การปกป้อง AI ซึ่งเท่ากับการปกป้องข้อมูลองค์กรควรใช้กระบวนการทำความสะอาดข้อมูล (data sanitization) เพื่อตรวจสอบและขจัดข้อมูลที่ไม่พึงประสงค์ออกไปเพื่อให้โมเดล AI มีเฉพาะข้อมูลที่ปลอดภัยและเชื่อถือได้

    3. การใช้ AI เพื่อเสริมความมั่นคงด้านไซเบอร์ AI สามารถเพิ่มประสิทธิภาพให้กับการปฏิบัติการรักษาความปลอดภัย โดยเฉพาะการลดภาระงานซ้ำๆ ที่มนุษย์ต้องดำเนินการเอง ช่วยให้ทีมป้องกันสามารถโฟกัสกับภารกิจที่มีความสำคัญยิ่งขึ้น

    เมื่อการใช้งาน AI ในประเทศไทยมีการเติบโตอย่างรวดเร็ว ดังนั้นมาตรการรักษาความปลอดภัยก็จำเป็นต้องพัฒนาขึ้นไปพร้อมกัน องค์กรที่วางแผนรับมือความเสี่ยงด้านความปลอดภัยของ AI ในเชิงรุกจะสามารถใช้ศักยภาพของ AI ได้อย่างเต็มที่โดยไม่กระทบต่อความปลอดภัยทางไซเบอร์ ภาคธุรกิจไทยควรเริ่มวางระบบป้องกันที่ออกแบบเฉพาะสำหรับ AI และติดตามการใช้งาน AI อย่างใกล้ชิด ซึ่งเป็นกุญแจสำคัญในการรักษาความมั่นคงบนโลกดิจิทัลในระยะยาว



บทความโดย : ปิยะ จิตต์นิมิตร ผู้จัดการประจําประเทศไทย พาโล อัลโต้ เน็ตเวิร์กส์


เรื่องราวอื่นๆ ที่น่าสนใจ : ปิยจิต รักอริยะพงศ์ เสิร์ฟ “เซ็ปเป้” ข้ามทวีป ปักธงแบรนด์ไทยสู่โกลบอล

อ่านเรื่องราวธุรกิจอื่นๆ ที่น่าสนใจได้ที่นิตยสาร Forbes Thailand ฉบับเดือนพฤศจิกายน 2568 ในรูปแบบ e-magazine

TAGGED ON