เมื่อพูดถึงการใช้งาน AI ในทางที่ไม่ดี คำถามที่สำคัญคือ ภัยคุกคามจาก AI คือ deep fake หรือ deepfake คือภัยคุกคามจาก AI กันแน่
สิ่งที่ยังไม่แน่ใจในภูมิทัศน์ด้านความปลอดภัยคือการใช้งาน AI ในทางที่ไม่ดี ซึ่งอาจทำให้สถานการณ์ปัจจุบันเปลี่ยนไปและมอบข้อได้เปรียบใหม่ให้กับผู้โจมตี เรายังไม่รู้แน่ชัดว่าจะเกิดขึ้นเมื่อไหร่และอย่างไร
การเข้าใจ AI
เราไม่สามารถป้องกันสิ่งที่เราไม่เห็นได้ ดังนั้นเราก็ไม่สามารถป้องกันสิ่งที่เราไม่เข้าใจได้เช่นกัน ขณะนี้ยังมีความสับสนเกี่ยวกับสถานะของ AI
BlackBerry ได้พยายามชี้แจงเรื่องนี้โดยการเผยแพร่เอกสารที่เรียกว่า whitepaper ทางการศึกษาเกี่ยวกับ AI และภัยคุกคามที่เห็นได้ชัดที่สุดคือ deepfake
เอกสารนี้อธิบายความแตกต่างระหว่าง ML (Machine Learning) ที่ใช้ในผลิตภัณฑ์ด้านความปลอดภัย และ LLM (Large Language Models) ที่มีการใช้งานและศักยภาพที่กว้างขึ้น LLM อย่างเช่น ChatGPT มีความสามารถที่กำลังขยายตัว ซึ่งเกือบจะหลีกเลี่ยงไม่ได้ที่จะถูกนำไปใช้ในทางที่ไม่ดี
BlackBerry กล่าวไว้ว่า “หนึ่งในคุณสมบัติที่น่าประหลาดใจของโมเดล AI คือความหลากหลาย เมื่อได้รับข้อมูลการฝึกอบรมที่มีคุณภาพเพียงพอ โมเดลที่พัฒนามาสามารถสร้างผลลัพธ์ที่ใกล้เคียงกับความคิดสร้างสรรค์ของมนุษย์ได้”
นอกจากนี้ ความหลากหลายนี้ยังขยายไปถึงสื่ออื่นๆ เช่น รูปภาพและวิดีโอ โดยในเดือนกุมภาพันธ์ 2024 OpenAI ได้ผลิตวิดีโอตัวอย่างจากโมเดล Sora ที่แปลงข้อความเป็นวิดีโอ
มูลค่าของเอกสารจาก BlackBerry สำหรับผู้ที่ต้องการเรียนรู้เกี่ยวกับ AI และ deepfake ชัดเจน และมีการพูดถึงภัยคุกคามที่อาจเกิดจาก malware ใหม่ๆ ที่พัฒนาขึ้นจาก AI
การเข้าใจภัยคุกคามจาก AI
ภัยคุกคามจาก malware เป็นสิ่งที่เข้าใจง่ายที่สุดและสามารถต่อสู้ได้ ในทฤษฎีเราต้องใช้ AI เพื่อเอาชนะ AI โดยการลดการพึ่งพาการตรวจจับจากลายเซ็น และตรวจจับ malware ตามพฤติกรรมแทน
อย่างไรก็ตาม deepfake ที่ผลิตจาก AI และฟิชชิ่งที่พัฒนาขึ้นจาก AI เป็นปัญหาที่ใหญ่กว่า Deepfake แบ่งออกเป็นสองประเภท คือเสียง และภาพ/วิดีโอ ซึ่งทั้งสองประเภทนี้กำลังพัฒนาอย่างรวดเร็วจากโมเดล AI ที่มีอยู่ทั่วไป
ฟิชชิ่งยังเป็นปัญหาที่ยังไม่สามารถแก้ไขได้ โดยเฉพาะเมื่อมีการใช้งาน AI ที่มีความซับซ้อนมากขึ้นและมีปริมาณที่มากขึ้น
การบรรเทาภัยคุกคามจาก AI
อุตสาหกรรมด้านความปลอดภัยไม่ได้นั่งรอให้เกิดปัญหา มีการสร้างสตาร์ทอัพใหม่หลายแห่งในปี 2024 ที่มุ่งมั่นพัฒนาโซลูชันในการตรวจจับการโจมตีด้วย AI และ deepfake
การผลิตเสียง deepfake นั้นง่ายที่สุดและถูกใช้งานมากที่สุด และสามารถตรวจจับได้ง่าย เพราะมีสัญญาณเสียงที่บ่งบอกว่าเสียงนั้นไม่ใช่มนุษย์
อย่างไรก็ตาม การสร้างระบบตรวจจับภัยคุกคามจาก AI จะมีประสิทธิภาพก็ต่อเมื่อมันถูกใช้งาน หากเราไม่สามารถหยุดฟิชชิ่งได้ในวันนี้ มีความเป็นไปได้น้อยที่จะหยุดการฟิชชิ่งที่พัฒนาโดย AI ได้
คำตอบไม่ใช่โซลูชันที่ขายให้กับบริษัทแต่ละแห่ง แต่เป็นโซลูชันระดับโลกที่อิงจากความเชื่อถือได้ โดยการสร้างความเชื่อมั่นในแหล่งที่มาของการสื่อสารที่เรารับ
การสร้างระบบที่สามารถตรวจสอบความเชื่อมั่นได้อย่างถูกต้องและทันทีนั้นเป็นเรื่องที่ไม่ง่ายเลย แต่จำเป็นต้องมีการป้องกันบนฐานของความเชื่อถือที่แข็งแกร่งและเป็นสากล ไม่ใช่แบบแยกกันของแต่ละบริษัท
Credit: Securityweek.com