ChatGPT Jailbreak: นักวิจัยเลี่ยงระบบความปลอดภัยของ AI โดยใช้การเข้ารหัส Hexadecimal และ Emoji
เทคนิคการเจลเบรกใหม่หลอก ChatGPT ให้สร้างเอ็กซ์พลอยต์ Python และเครื่องมือ SQL injection ที่เป็นอันตราย คำสั่งอันตรายที่ถูกเข้ารหัสในรูปแบบ hexadecimal สามารถใช้ในการเลี่ยงระบบความปลอดภัยของ ChatGPT ที่ออกแบบมาเพื่อป้องกันการใช้งานผิดประเภท การเจลเบรกใหม่นี้ถูกเปิดเผยเมื่อวันจันทร์โดย Marco Figueroa ผู้จัดการโปรแกรม Bug Bounty gen-AI ของ Mozilla ผ่านทางโปรแกรม 0Din bug bounty 0Din ซึ่งย่อมาจาก 0Day Investigative Network เปิดตัวโดย Mozilla ในเดือนมิถุนายน 2024 เป็นโปรแกรม bug bounty ที่มุ่งเน้นไปที่โมเดลภาษาขนาดใหญ่ (LLM) และเทคโนโลยีการเรียนรู้เชิงลึกอื่นๆ 0Din ครอบคลุมการฉีดพรอมต์ การปฏิเสธบริการ การวางยาพิษข้อมูลการฝึกอบรม และประเภทอื่นๆ ของปัญหาความปลอดภัย โดยเสนอรางวัลสูงสุด 15,000 ดอลลาร์สำหรับผลการค้นหาที่สำคัญ ยังไม่แน่ชัดว่าการเจลเบรกเช่น Figueroa จะมีมูลค่าเท่าใด แชทบอท […]