ช่องโหว่สำคัญ 7 ประการเปิดช่องให้ ChatGPT เข้าถึงข้อมูลและขโมยข้อมูลได้

งานวิจัยที่ยอมรับได้เผยให้เห็นข้อบกพร่อง AI ที่ซ่อนอยู่ซึ่งทำให้เกิดการขโมยข้อมูล การลบล้างความปลอดภัย และการประนีประนอมอย่างต่อเนื่องภายใน ChatGPT

Tenable บริษัทจัดการการเปิดเผยข้อมูล ได้ค้นพบช่องโหว่และเทคนิคการโจมตี 7 รายการระหว่างการทดสอบ ChatGPT-4o ของ OpenAI ซึ่งต่อมาพบว่าหลายรายการยังคงใช้งานอยู่ใน ChatGPT-5 ช่องโหว่เหล่านี้รู้จักกันในชื่อ HackedGPT เปิดโอกาสให้ผู้ใช้เสี่ยงต่อความเป็นส่วนตัวโดยการหลีกเลี่ยงกลไกความปลอดภัยในตัว แม้ว่า OpenAI จะได้แก้ไขปัญหาบางส่วนที่พบแล้ว แต่ปัญหาอื่นๆ ยังไม่ได้รับการแก้ไข ณ เวลาที่เผยแพร่ ทำให้ช่องทางการเปิดเผยข้อมูลบางส่วนยังคงเปิดอยู่ หากถูกนำไปใช้ประโยชน์ ผู้โจมตีสามารถขโมยข้อมูลส่วนบุคคลได้อย่างลับๆ รวมถึงข้อมูลแชทและหน่วยความจำที่เก็บไว้

ช่องโหว่เหล่านี้เผยให้เห็นการโจมตี AI ประเภทใหม่ที่เรียกว่า indirect prompt injection ซึ่งคำสั่งที่ซ่อนอยู่ในเว็บไซต์หรือคอมเมนต์ภายนอกสามารถหลอกล่อให้โมเดลดำเนินการที่ไม่ได้รับอนุญาตได้ ข้อบกพร่องเหล่านี้ส่งผลกระทบต่อฟีเจอร์การท่องเว็บและหน่วยความจำของ ChatGPT ซึ่งประมวลผลข้อมูลอินเทอร์เน็ตแบบสดและจัดเก็บข้อมูลผู้ใช้ ทำให้เกิดโอกาสในการถูกบิดเบือนและเปิดเผยข้อมูล

นักวิจัยที่น่าเชื่อถือแสดงให้เห็นว่าการโจมตีเหล่านี้สามารถเกิดขึ้นอย่างเงียบๆ ได้สองวิธี ได้แก่ การโจมตีแบบ “0-click” ซึ่งเพียงแค่ถามคำถาม ChatGPT ก็จะทำให้เกิดการโจมตี และการโจมตีแบบ “1-click” ซึ่งการคลิกลิงก์อันตรายจะเปิดใช้งานคำสั่งที่ซ่อนอยู่ ที่น่ากังวลยิ่งกว่าคือเทคนิคที่เรียกว่า Persistent Memory Injection ซึ่งคำสั่งอันตรายจะถูกบันทึกไว้ในหน่วยความจำระยะยาวของ ChatGPT และยังคงทำงานอยู่แม้ผู้ใช้จะปิดแอปไปแล้ว วิธีนี้ช่วยให้ผู้โจมตีสามารถฝังภัยคุกคามที่ยั่งยืนซึ่งสามารถเปิดเผยข้อมูลส่วนตัวในเซสชันในอนาคตจนกว่าจะถูกลบออก ข้อบกพร่องเหล่านี้แสดงให้เห็นว่าผู้โจมตีสามารถหลบเลี่ยงระบบป้องกันของ OpenAI และเข้าถึงประวัติส่วนตัวของผู้ใช้ได้อย่างไร

“HackedGPT เผยให้เห็นจุดอ่อนพื้นฐานในวิธีที่โมเดลภาษาขนาดใหญ่ใช้ตัดสินว่าข้อมูลใดควรเชื่อถือ” โมเช เบิร์นสไตน์ วิศวกรวิจัยอาวุโสของ Tenable กล่าว “เมื่อพิจารณาแยกกัน ข้อบกพร่องเหล่านี้อาจดูเล็กน้อย แต่เมื่อนำมารวมกันแล้ว พวกมันจะก่อร่างสร้างห่วงโซ่การโจมตีที่สมบูรณ์ ตั้งแต่การแทรกและการหลบเลี่ยง ไปจนถึงการขโมยข้อมูลและการคงอยู่ของข้อมูล สิ่งนี้แสดงให้เห็นว่าระบบ AI ไม่ได้เป็นเพียงเป้าหมายที่อาจเกิดขึ้นได้ แต่พวกมันยังสามารถถูกเปลี่ยนให้เป็นเครื่องมือโจมตีที่เก็บเกี่ยวข้อมูลจากการสนทนาหรือการท่องเว็บในชีวิตประจำวันอย่างเงียบๆ ได้”

HackedGPT: ช่องโหว่และเทคนิคการโจมตีทั้งเจ็ดประการที่ระบุโดยการวิจัย Tenable

  1. การฉีดแจ้งเตือนทางอ้อมผ่านไซต์ที่เชื่อถือได้
    ผู้โจมตีซ่อนคำสั่งไว้ในเนื้อหาออนไลน์ที่ดูเหมือนถูกต้อง เช่น ความคิดเห็นในบล็อกหรือโพสต์สาธารณะ เมื่อ ChatGPT เรียกดูเนื้อหานั้น มันจะปฏิบัติตามคำสั่งที่ซ่อนอยู่โดยไม่รู้ตัว กล่าวโดยสรุปคือ ChatGPT อาจถูกหลอกให้ทำตามที่ผู้โจมตีสั่ง เพียงแค่อ่านหน้าเว็บที่ถูกบุกรุก
  1. การฉีดพรอมต์ทางอ้อมแบบ 0 คลิกในบริบทการค้นหา
    ผู้ใช้ไม่จำเป็นต้องคลิกหรือทำอะไรเป็นพิเศษก็ถูกเปิดเผยได้ เมื่อ ChatGPT ค้นหาคำตอบบนเว็บ ก็อาจพบหน้าที่มีโค้ดอันตรายซ่อนอยู่ เพียงแค่ถามคำถามก็อาจทำให้โมเดลปฏิบัติตามคำสั่งเหล่านั้นและรั่วไหลข้อมูลส่วนตัว ซึ่งนักวิจัยเรียกว่าการประนีประนอมแบบพร้อมท์เพียงครั้งเดียว

  1. ฉีดทันทีด้วยการคลิกเพียงครั้งเดียว

การคลิกเพียงครั้งเดียวสามารถกระตุ้นให้เกิดการโจมตีได้ คำสั่งที่ซ่อนอยู่ในลิงก์ที่ดูเหมือนไม่เป็นอันตราย เช่น https://chatgpt.com/?q={Prompt} อาจทำให้ ChatGPT ดำเนินการที่เป็นอันตรายโดยไม่รู้ตัว การคลิกเพียงครั้งเดียวก็เพียงพอที่จะทำให้ผู้โจมตีเข้าควบคุมแชทของคุณได้

  1. การบายพาสกลไกความปลอดภัย
    โดยปกติ ChatGPT จะตรวจสอบลิงก์และบล็อกเว็บไซต์ที่ไม่ปลอดภัย ผู้โจมตีจะหลีกเลี่ยงสิ่งนี้ได้ด้วยการใช้ URL แรปเปอร์ที่เชื่อถือได้ (เช่น bing.com/ck/a?… ของ Bing) ซึ่งจะซ่อนปลายทางที่แท้จริง ChatGPT จะเชื่อถือแรปเปอร์ แสดงลิงก์ที่ดูเหมือนจะปลอดภัย และสามารถเชื่อมโยงไปยังเว็บไซต์อันตรายได้
  2. การแทรกบทสนทนา
    ChatGPT ใช้สองระบบ คือ SearchGPT สำหรับการเรียกดู และ ChatGPT สำหรับการสนทนา ผู้โจมตีสามารถใช้ SearchGPT เพื่อแทรกคำสั่งที่ซ่อนอยู่ ซึ่ง ChatGPT จะอ่านในภายหลังเป็นส่วนหนึ่งของการสนทนา ผลก็คือ AI จะ “แทรกตัวเอง” ตามคำสั่งที่ผู้ใช้ไม่เคยเขียน
  1. การซ่อนเนื้อหาที่เป็นอันตราย
    ข้อผิดพลาดในการจัดรูปแบบทำให้ผู้โจมตีสามารถปกปิดคำสั่งที่เป็นอันตรายไว้ในโค้ดหรือข้อความมาร์กดาวน์ได้ ผู้ใช้จะเห็นข้อความที่ชัดเจน แต่ ChatGPT ยังคงอ่านและดำเนินการกับเนื้อหาที่ซ่อนอยู่

 

  1. การฉีดหน่วยความจำแบบถาวร
    ฟังก์ชันหน่วยความจำของ ChatGPT จะเก็บการโต้ตอบที่ผ่านมา ผู้โจมตีสามารถฝังคำสั่งที่เป็นอันตรายไว้ในหน่วยความจำระยะยาว ซึ่งทำให้โมเดลทำซ้ำคำสั่งเหล่านั้นข้ามเซสชัน และรั่วไหลข้อมูลส่วนตัวอย่างต่อเนื่องจนกว่าจะล้างหน่วยความจำทั้งหมด

ผลกระทบที่อาจเกิดขึ้นจากการใช้ประโยชน์จาก HackedGPT

ผู้คนหลายร้อยล้านคนใช้ ChatGPT เป็นประจำทุกวันเพื่อธุรกิจ การวิจัย และการสื่อสารส่วนตัว หากถูกนำไปใช้ประโยชน์ ช่องโหว่เหล่านี้อาจ:

  • แทรกคำสั่งที่ซ่อนอยู่ลงในบทสนทนาหรือความทรงจำระยะยาว
  • ขโมยข้อมูลที่ละเอียดอ่อนจากประวัติการแชทหรือบริการที่เชื่อมต่อเช่น Google Drive หรือ Gmail
  • ดึงข้อมูลออกมาผ่านการค้นหาและการรวมเว็บ
  • บิดเบือนคำตอบเพื่อเผยแพร่ข้อมูลที่ผิดพลาดหรือมีอิทธิพลต่อผู้ใช้

Tenable Research ดำเนินการสืบสวนภายใต้แนวปฏิบัติการเปิดเผยข้อมูลอย่างมีความรับผิดชอบ OpenAI ได้แก้ไขช่องโหว่บางส่วนที่พบแล้ว แต่ยังมีช่องโหว่หลายจุดที่ยังใช้งานอยู่ใน ChatGPT-5 หรือไม่ได้รับการแก้ไข ณ เวลาที่เผยแพร่ ทำให้ช่องทางการเปิดเผยข้อมูลบางส่วนยังคงเปิดอยู่

Tenable แนะนำให้ผู้จำหน่าย AI เสริมความแข็งแกร่งในการป้องกันการโจมตีแบบทันทีโดยตรวจยืนยันว่ากลไกความปลอดภัย เช่น url_safe ทำงานตามที่ตั้งใจไว้ และโดยแยกคุณลักษณะการเรียกดู การค้นหา และหน่วยความจำเพื่อป้องกันการโจมตีข้ามบริบท

คำแนะนำสำหรับทีมงานรักษาความปลอดภัย

Tenable แนะนำให้ผู้เชี่ยวชาญด้านความปลอดภัย:

  • ปฏิบัติต่อเครื่องมือ AI เหมือนกับเป็นพื้นผิวการโจมตีสด ไม่ใช่ผู้ช่วยแบบพาสซีฟ
  • ตรวจสอบและติดตามการรวม AI เพื่อดูการจัดการหรือการรั่วไหลของข้อมูล
  • ตรวจสอบคำขอหรือผลลัพธ์ที่ผิดปกติซึ่งอาจเป็นสัญญาณการฉีดทันที
  • ทดสอบและเสริมสร้างการป้องกันเส้นทางการฉีดและการระบายออก
  • จัดทำการควบคุมการกำกับดูแลและการจำแนกประเภทข้อมูลสำหรับการใช้งาน AI

“งานวิจัยนี้ไม่ใช่แค่การเปิดเผยข้อบกพร่อง แต่เป็นการเปลี่ยนแปลงวิธีการรักษาความปลอดภัยของ AI” เบิร์นสไตน์กล่าวเสริม “ทั้งผู้คนและองค์กรต่าง ๆ จำเป็นต้องสมมติว่าเครื่องมือ AI สามารถถูกควบคุมและออกแบบการควบคุมให้เหมาะสมได้ นั่นหมายถึงการกำกับดูแล การปกป้องข้อมูล และการทดสอบอย่างต่อเนื่อง เพื่อให้มั่นใจว่าระบบเหล่านี้ทำงานเพื่อเรา ไม่ใช่เพื่อเรา”

อ่านงานวิจัยฉบับเต็มได้ที่นี่: https://www.tenable.com/blog/hackedgpt-novel-ai-vulnerabilities-open-the-door-for-private-data-leakage