แฮกเกอร์ขโมยความลับจาก OpenAI

หนังสือพิมพ์นิวยอร์กไทม์สรายงานเมื่อวันที่ 4 กรกฎาคม 2024 ว่า OpenAI ประสบกับการละเมิดที่ไม่ได้เปิดเผยในช่วงต้นปี 2023

นิวยอร์กไทม์สระบุว่าผู้โจมตีไม่ได้เข้าถึงระบบที่รองรับและสร้าง AI แต่ได้ขโมยการสนทนาจากฟอรัมของพนักงาน OpenAI ไม่ได้เปิดเผยเหตุการณ์นี้ต่อสาธารณะหรือแจ้ง FBI เพราะอ้างว่าไม่มีข้อมูลเกี่ยวกับลูกค้าหรือพันธมิตรที่ถูกขโมย และการละเมิดไม่ได้ถือเป็นภัยคุกคามต่อความมั่นคงของชาติ บริษัทตัดสินใจว่าการโจมตีนั้นเกิดจากบุคคลเพียงคนเดียวที่ไม่มีความเกี่ยวข้องกับรัฐบาลต่างประเทศใด ๆ

อย่างไรก็ตาม เหตุการณ์ดังกล่าวทำให้เกิดการสนทนาภายในระหว่างพนักงานเกี่ยวกับความจริงจังของ OpenAI ในการแก้ไขปัญหาด้านความปลอดภัย

“หลังจากการละเมิด เลโอโพลด์ แอสเชนเบรนเนอร์ ผู้จัดการโปรแกรมเทคนิคของ OpenAI ที่มุ่งมั่นให้แน่ใจว่าเทคโนโลยี AI ในอนาคตจะไม่ก่อให้เกิดอันตรายร้ายแรง ได้ส่งบันทึกไปยังคณะกรรมการบริหารของ OpenAI โดยโต้แย้งว่าบริษัทไม่ได้ทำเพียงพอที่จะป้องกันรัฐบาลจีนและศัตรูต่างประเทศอื่น ๆ จากการขโมยความลับของตน” นิวยอร์กไทม์สเขียน

เมื่อต้นปีนี้ เขาถูกไล่ออก ซึ่งคาดว่าจะเป็นเพราะการรั่วไหลของข้อมูล (แต่เป็นไปได้มากกว่าเพราะบันทึกนั้น) แอสเชนเบรนเนอร์มีเวอร์ชันที่แตกต่างออกไปเล็กน้อยเกี่ยวกับเรื่องราวการรั่วไหลอย่างเป็นทางการ ในพอดแคสต์กับ ดวาร์เกช พาเทล (วันที่ 4 มิถุนายน 2024) เขากล่าวว่า: “OpenAI อ้างกับพนักงานว่าฉันถูกไล่ออกเพราะการรั่วไหล ฉันและคนอื่น ๆ ได้ผลักดันให้พวกเขาบอกว่าการรั่วไหลคืออะไร นี่คือคำตอบของพวกเขาอย่างเต็มรูปแบบ: เมื่อปีที่แล้ว ฉันได้เขียนเอกสารระดมความคิดเกี่ยวกับการเตรียมพร้อม มาตรการความปลอดภัย และมาตรการรักษาความปลอดภัยที่จำเป็นในอนาคตในเส้นทางสู่ AGI ฉันได้แบ่งปันสิ่งนั้นกับนักวิจัยภายนอกสามคนเพื่อขอคำติชม นั่นคือการรั่วไหล… ก่อนที่ฉันจะแบ่งปัน ฉันได้ตรวจสอบเอกสารนั้นเพื่อดูว่ามีข้อมูลที่ละเอียดอ่อนหรือไม่ เวอร์ชันภายในมีการอ้างอิงถึงคลัสเตอร์ในอนาคต ซึ่งฉันได้ลบออกสำหรับสำเนาภายนอก”

เห็นได้ชัดว่า OpenAI ไม่ใช่เรือที่มีความสุข โดยมีความคิดเห็นที่แตกต่างกันมากมายเกี่ยวกับวิธีการดำเนินการ วิธีการดำเนินการ และทิศทางที่ควรจะไป ความกังวลไม่ได้เกี่ยวกับ OpenGPT (ซึ่งเป็น AI ทั่วไป) แต่เกี่ยวกับอนาคตของ AGI (ปัญญาประดิษฐ์ทั่วไป)

ตัวแรกจะเปลี่ยนแปลงความรู้ที่มันเรียนรู้ (โดยทั่วไปมาจากการรวบรวมข้อมูลจากอินเทอร์เน็ต) ในขณะที่ตัวหลังสามารถใช้เหตุผลดั้งเดิมได้ AI ทั่วไปไม่ได้ถือเป็นภัยคุกคามต่อความมั่นคงของชาติ แม้ว่ามันอาจเพิ่มขนาดและความซับซ้อนของการโจมตีทางไซเบอร์ในปัจจุบัน

AGI เป็นเรื่องที่แตกต่างกัน มันจะสามารถพัฒนาภัยคุกคามใหม่ ๆ ในโลกไซเบอร์ สนามรบเชิงกายภาพ และข่าวกรอง – และ OpenAI, DeepMind, Anthropic และบริษัท AI ชั้นนำอื่น ๆ และเทคโนโลยีต่าง ๆ กำลังเร่งพัฒนาเพื่อเป็นผู้นำตลาด ความกังวลเกี่ยวกับการละเมิด OpenAI ในปี 2023 คืออาจแสดงให้เห็นถึงความไม่พร้อมด้านความปลอดภัยที่อาจเป็นอันตรายต่อความมั่นคงของชาติในอนาคต

“ความวุ่นวายส่วนใหญ่มาจาก OpenAI ที่เชื่อจริง ๆ ว่าพวกเขากำลังสร้าง AGI นั่นไม่ใช่แค่การกล่าวอ้างทางการตลาด” แอสเชนเบรนเนอร์กล่าวเพิ่มเติม “สิ่งที่ทำให้ผู้คนรู้สึกขัดแย้งกันคือการเชื่อใน AGI แต่ไม่เอาจริงเอาจังกับผลกระทบอื่น ๆ เทคโนโลยีนี้จะมีพลังมาก ทั้งเพื่อความดีและความเลว นั่นเกี่ยวข้องกับประเด็นความมั่นคงของชาติ คุณปกป้องความลับจาก CCP (พรรคคอมมิวนิสต์จีน) หรือไม่? อเมริกาควบคุมโครงสร้างพื้นฐาน AGI หลักหรือเผด็จการตะวันออกกลางควบคุมมัน?”

เมื่อเราเข้าใกล้การพัฒนา AGI มากขึ้น ภัยคุกคามทางไซเบอร์จะเปลี่ยนจากอาชญากรไปสู่ผู้โจมตีระดับชาติที่ยอดเยี่ยม – และเราเห็นครั้งแล้วครั้งเล่าว่าความปลอดภัยของเราไม่เพียงพอที่จะป้องกันพวกเขา จากการละเมิดที่ค่อนข้างไม่สำคัญที่ OpenAI (และเราต้องสมมติว่ามันไม่ได้แย่ไปกว่าที่บริษัทบอกกับพนักงาน) แอสเชนเบรนเนอร์ได้หยิบยกความกังวลทั่วไปและแท้จริงเกี่ยวกับความปลอดภัย – และด้วยเหตุนี้ ดูเหมือนว่าเขาถูกไล่ออก

Credit: securityweek.com