ChatGPT Jailbreak: นักวิจัยเลี่ยงระบบความปลอดภัยของ AI โดยใช้การเข้ารหัส Hexadecimal และ Emoji

เทคนิคการเจลเบรกใหม่หลอก ChatGPT ให้สร้างเอ็กซ์พลอยต์ Python และเครื่องมือ SQL injection ที่เป็นอันตราย   คำสั่งอันตรายที่ถูกเข้ารหัสในรูปแบบ hexadecimal สามารถใช้ในการเลี่ยงระบบความปลอดภัยของ ChatGPT ที่ออกแบบมาเพื่อป้องกันการใช้งานผิดประเภท การเจลเบรกใหม่นี้ถูกเปิดเผยเมื่อวันจันทร์โดย Marco Figueroa ผู้จัดการโปรแกรม Bug Bounty gen-AI ของ Mozilla ผ่านทางโปรแกรม 0Din bug bounty 0Din ซึ่งย่อมาจาก 0Day Investigative Network เปิดตัวโดย Mozilla ในเดือนมิถุนายน 2024 เป็นโปรแกรม bug bounty ที่มุ่งเน้นไปที่โมเดลภาษาขนาดใหญ่ (LLM) และเทคโนโลยีการเรียนรู้เชิงลึกอื่นๆ 0Din ครอบคลุมการฉีดพรอมต์ การปฏิเสธบริการ การวางยาพิษข้อมูลการฝึกอบรม และประเภทอื่นๆ ของปัญหาความปลอดภัย โดยเสนอรางวัลสูงสุด 15,000 ดอลลาร์สำหรับผลการค้นหาที่สำคัญ ยังไม่แน่ชัดว่าการเจลเบรกเช่น Figueroa จะมีมูลค่าเท่าใด แชทบอท […]

Varodom Sommart

November 4, 2024

ภัยคุกคามจาก AI: Deepfake หรือ Deep Fake? การเปิดเผยความเสี่ยงด้านความปลอดภัยที่แท้จริง

เมื่อพูดถึงการใช้งาน AI ในทางที่ไม่ดี คำถามที่สำคัญคือ ภัยคุกคามจาก AI คือ deep fake หรือ deepfake คือภัยคุกคามจาก AI กันแน่ สิ่งที่ยังไม่แน่ใจในภูมิทัศน์ด้านความปลอดภัยคือการใช้งาน AI ในทางที่ไม่ดี ซึ่งอาจทำให้สถานการณ์ปัจจุบันเปลี่ยนไปและมอบข้อได้เปรียบใหม่ให้กับผู้โจมตี เรายังไม่รู้แน่ชัดว่าจะเกิดขึ้นเมื่อไหร่และอย่างไร การเข้าใจ AI เราไม่สามารถป้องกันสิ่งที่เราไม่เห็นได้ ดังนั้นเราก็ไม่สามารถป้องกันสิ่งที่เราไม่เข้าใจได้เช่นกัน ขณะนี้ยังมีความสับสนเกี่ยวกับสถานะของ AI BlackBerry ได้พยายามชี้แจงเรื่องนี้โดยการเผยแพร่เอกสารที่เรียกว่า whitepaper ทางการศึกษาเกี่ยวกับ AI และภัยคุกคามที่เห็นได้ชัดที่สุดคือ deepfake เอกสารนี้อธิบายความแตกต่างระหว่าง ML (Machine Learning) ที่ใช้ในผลิตภัณฑ์ด้านความปลอดภัย และ LLM (Large Language Models) ที่มีการใช้งานและศักยภาพที่กว้างขึ้น LLM อย่างเช่น ChatGPT มีความสามารถที่กำลังขยายตัว ซึ่งเกือบจะหลีกเลี่ยงไม่ได้ที่จะถูกนำไปใช้ในทางที่ไม่ดี BlackBerry กล่าวไว้ว่า “หนึ่งในคุณสมบัติที่น่าประหลาดใจของโมเดล AI คือความหลากหลาย เมื่อได้รับข้อมูลการฝึกอบรมที่มีคุณภาพเพียงพอ โมเดลที่พัฒนามาสามารถสร้างผลลัพธ์ที่ใกล้เคียงกับความคิดสร้างสรรค์ของมนุษย์ได้” […]

Varodom Sommart

September 23, 2024

กฎระเบียบปัญญาประดิษฐ์ชุดแรกของโลกโดยสหภาพยุโรปกำลังมีผลบังคับใช้อย่างเป็นทางการ

เจ้าหน้าที่ของสหภาพยุโรปกล่าวว่า พระราชบัญญัติปัญญาประดิษฐ์จะปกป้อง “สิทธิมนุษยชนขั้นพื้นฐาน” ของพลเมือง ในขณะเดียวกันก็ส่งเสริมการลงทุนและนวัตกรรมในอุตสาหกรรม AI ที่กำลังเติบโตอย่างรวดเร็ว กฎหมายปัญญาประดิษฐ์ชุดแรกของโลกโดยสหภาพยุโรปมีผลบังคับใช้อย่างเป็นทางการในวันพฤหัสบดีที่ผ่านมา นับเป็นความก้าวหน้าล่าสุดในความพยายามของสหภาพในการควบคุมเทคโนโลยีนี้ เจ้าหน้าที่กล่าวว่า พระราชบัญญัติปัญญาประดิษฐ์จะปกป้อง “สิทธิมนุษยชนขั้นพื้นฐาน” ของพลเมืองในกลุ่มประเทศสมาชิก 27 ประเทศ ในขณะเดียวกันก็ส่งเสริมการลงทุนและนวัตกรรมในอุตสาหกรรม AI ที่กำลังเติบโตอย่างรวดเร็ว พระราชบัญญัตินี้ได้รับการจัดทำขึ้นเป็นเวลาหลายปี เป็นคู่มือครอบคลุมในการกำกับดูแล AI ในยุโรป และยังสามารถทำหน้าที่เป็นแนวทางสำหรับรัฐบาลอื่น ๆ ที่ยังคงพยายามกำหนดมาตรการป้องกันสำหรับเทคโนโลยีที่กำลังก้าวหน้าอย่างรวดเร็ว พระราชบัญญัติปัญญาประดิษฐ์ครอบคลุมถึงผลิตภัณฑ์หรือบริการใด ๆ ที่นำเสนอในสหภาพยุโรปที่ใช้ปัญญาประดิษฐ์ ไม่ว่าจะเป็นแพลตฟอร์มจากบริษัทเทคโนโลยีในซิลิคอนแวลลีย์หรือสตาร์ทอัพท้องถิ่น ข้อจำกัดต่าง ๆ จะขึ้นอยู่กับระดับความเสี่ยงสี่ระดับ โดยส่วนใหญ่ของระบบ AI คาดว่าจะอยู่ในประเภทความเสี่ยงต่ำ เช่น ระบบแนะนำเนื้อหาหรือระบบกรองสแปม “แนวทางของยุโรปในการใช้เทคโนโลยีให้ความสำคัญกับประชาชนเป็นอันดับแรกและมั่นใจว่าสิทธิของทุกคนจะได้รับการรักษา” Margrethe Vestager รองประธานบริหารของคณะกรรมาธิการยุโรปกล่าว “ด้วยพระราชบัญญัติปัญญาประดิษฐ์ สหภาพยุโรปได้ก้าวสำคัญเพื่อมั่นใจว่าการนำเทคโนโลยี AI มาใช้จะเคารพกฎของสหภาพยุโรปในยุโรป” บทบัญญัติต่าง ๆ จะมีผลบังคับใช้เป็นขั้นตอน โดยวันที่บังคับใช้อย่างเป็นทางการในวันพฤหัสบดีจะเริ่มนับถอยหลังสำหรับการบังคับใช้ในอีกไม่กี่ปีข้างหน้า ระบบ AI ที่มีความเสี่ยง “ไม่สามารถยอมรับได้” เช่น ระบบให้คะแนนทางสังคมที่มีผลต่อพฤติกรรมของผู้คน […]

Thanachart

August 5, 2024

แฮกเกอร์ขโมยความลับจาก OpenAI

หนังสือพิมพ์นิวยอร์กไทม์สรายงานเมื่อวันที่ 4 กรกฎาคม 2024 ว่า OpenAI ประสบกับการละเมิดที่ไม่ได้เปิดเผยในช่วงต้นปี 2023 นิวยอร์กไทม์สระบุว่าผู้โจมตีไม่ได้เข้าถึงระบบที่รองรับและสร้าง AI แต่ได้ขโมยการสนทนาจากฟอรัมของพนักงาน OpenAI ไม่ได้เปิดเผยเหตุการณ์นี้ต่อสาธารณะหรือแจ้ง FBI เพราะอ้างว่าไม่มีข้อมูลเกี่ยวกับลูกค้าหรือพันธมิตรที่ถูกขโมย และการละเมิดไม่ได้ถือเป็นภัยคุกคามต่อความมั่นคงของชาติ บริษัทตัดสินใจว่าการโจมตีนั้นเกิดจากบุคคลเพียงคนเดียวที่ไม่มีความเกี่ยวข้องกับรัฐบาลต่างประเทศใด ๆ อย่างไรก็ตาม เหตุการณ์ดังกล่าวทำให้เกิดการสนทนาภายในระหว่างพนักงานเกี่ยวกับความจริงจังของ OpenAI ในการแก้ไขปัญหาด้านความปลอดภัย “หลังจากการละเมิด เลโอโพลด์ แอสเชนเบรนเนอร์ ผู้จัดการโปรแกรมเทคนิคของ OpenAI ที่มุ่งมั่นให้แน่ใจว่าเทคโนโลยี AI ในอนาคตจะไม่ก่อให้เกิดอันตรายร้ายแรง ได้ส่งบันทึกไปยังคณะกรรมการบริหารของ OpenAI โดยโต้แย้งว่าบริษัทไม่ได้ทำเพียงพอที่จะป้องกันรัฐบาลจีนและศัตรูต่างประเทศอื่น ๆ จากการขโมยความลับของตน” นิวยอร์กไทม์สเขียน เมื่อต้นปีนี้ เขาถูกไล่ออก ซึ่งคาดว่าจะเป็นเพราะการรั่วไหลของข้อมูล (แต่เป็นไปได้มากกว่าเพราะบันทึกนั้น) แอสเชนเบรนเนอร์มีเวอร์ชันที่แตกต่างออกไปเล็กน้อยเกี่ยวกับเรื่องราวการรั่วไหลอย่างเป็นทางการ ในพอดแคสต์กับ ดวาร์เกช พาเทล (วันที่ 4 มิถุนายน 2024) เขากล่าวว่า: “OpenAI อ้างกับพนักงานว่าฉันถูกไล่ออกเพราะการรั่วไหล ฉันและคนอื่น ๆ ได้ผลักดันให้พวกเขาบอกว่าการรั่วไหลคืออะไร นี่คือคำตอบของพวกเขาอย่างเต็มรูปแบบ: […]

Thanachart

July 8, 2024