ในยุคที่เราพึ่งพาปัญญาประดิษฐ์ (AI) อย่าง ChatGPT, Gemini หรือ Copilot เพื่อช่วยสรุปเอกสาร วิเคราะห์ข้อมูล หรือแม้กระทั่งควบคุมบ้านอัจฉริยะ หลายคนอาจคิดว่าเทคโนโลยีเหล่านี้มีความปลอดภัยสูง แต่ทราบหรือไม่ว่าในช่วงปี 2025 ถึงปัจจุบัน มีช่องโหว่ที่ชื่อว่า Prompt Injection ยังคงครองแชมป์อันดับ 1 ในฐานะภัยคุกคามที่ร้ายแรงที่สุดสำหรับระบบ AI ปัญหานี้ไม่ได้เกิดจากการที่ระบบถูกแฮกแบบดั้งเดิม แต่เกิดจากการที่ผู้ใช้งานอย่างเราๆ อาจเผลอป้อน “คำสั่งอาบยาพิษ” เข้าไป หรือปล่อยให้ AI ไปอ่านเจอโค้ดอันตรายโดยไม่ได้ตั้งใจ
Prompt Injection คือเทคนิคการโจมตีที่แฮกเกอร์แฝงคำสั่งอันตรายไว้ในข้อความธรรมดา เว็บไซต์ หรือเอกสาร เพื่อหลอกล่อให้ AI ปฏิบัติตามคำสั่งของแฮกเกอร์ แทนที่จะทำตามคำสั่งของผู้ใช้งาน สาเหตุหลักที่ AI ตกเป็นเหยื่อคือ สถาปัตยกรรมของโมเดลภาษาขนาดใหญ่ (LLM) ไม่สามารถแยกแยะความแตกต่างระหว่าง “คำสั่ง (Instructions)” และ “ข้อมูล (Data)” ได้อย่างชัดเจน ทำให้ AI Agent ที่มีความฉลาด แต่ไม่มีความสามารถในการตัดสินใจแยกแยะเจตนาร้าย จะทำการอ่านและปฏิบัติตามคำสั่งของแฮกเกอร์ที่ซ่อนอยู่ทันทีโดยอัตโนมัติ
ได้แก่:
ความเสียหายจากการโจมตีด้วย Prompt Injection นั้นสามารถลุกลามและส่งผลกระทบในวงกว้าง ดังนี้:
เพื่อไม่ให้เราตกเป็นเหยื่อของอาชญากรรมรูปแบบนี้ กองบัญชาการตำรวจสืบสวนสอบสวนอาชญากรรมทางเทคโนโลยี (บช.สอท.) หรือตำรวจไซเบอร์ ได้ออกมาเตือนภัยและให้คำแนะนำที่สำคัญ โดยเฉพาะบุคคลหรือองค์กรในกลุ่มสายเทคฯ ที่ชอบทดลองใช้ AI Agent ไว้ดังนี้:
AI เป็นเทคโนโลยีที่เปรียบเสมือนดาบสองคม ในขณะที่มันช่วยยกระดับความสะดวกสบายและพลิกโฉมการทำงานของเรา แต่มันก็เป็นช่องทางใหม่ที่อาชญากรไซเบอร์ใช้จู่โจมด้วยเทคนิค Prompt Injection การตระหนักรู้ว่า “ทุกสิ่งที่เราพิมพ์ลงไปอาจไม่ปลอดภัย 100%” จึงเป็นเกราะป้องกันด่านแรกที่สำคัญที่สุด จงใช้งานเทคโนโลยีด้วยความมีสติ และอย่าปล่อยให้ผู้ช่วยอัจฉริยะของคุณกลายเป็นคนเปิดประตูรับโจรเข้าบ้านเสียเอง
เราให้คำปรึกษาและโซลูชัน AI Assistant ที่ออกแบบเฉพาะสำหรับองค์กรคุณ เรียนรู้เพิ่มเติม