แนวปฏิบัติด้านความปลอดภัยของ AI กำลังถูกตรวจสอบอย่างละเอียดหลังจากคเธิร์นยิงที่โรงเรียน openai ที่เกี่ยวข้องกับผู้ต้องสงสัยชาวแคนาดาซึ่งกิจกรรมออนไลน์ของเขาถูกตั้งค่าสถานะเตือนเป็นเวลาหลายเดือนก่อนการโจมตี
ผู้สร้าง ChatGPT OpenAI เปิดเผยว่าได้ระบุบัญชีของ Jesse Van Rootselaar ในเดือนมิถุนายน 2025 ผ่านระบบตรวจจับการใช้งานในทางที่ผิดสำหรับ "การส่งเสริมกิจกรรมความรุนแรง" อย่างไรก็ตาม บริษัทเทคโนโลยีที่ตั้งอยู่ในซานฟรานซิสโกสรุปในขณะนั้นว่ากิจกรรมดังกล่าวไม่ได้ตรงตามเกณฑ์ภายในสำหรับการส่งต่อให้กับหน่วยงานบังคับใช้กฎหมาย
บริษัทกล่าวว่าได้พิจารณาอย่างเจาะจงว่าควรแจ้งเตือนตำรวจม้าแคนาดา (RCMP) เกี่ยวกับบัญชีนี้หรือไม่ นอกจากนี้ บริษัทตัดสินใจที่จะไม่ดำเนินการต่อ โดยตัดสินว่าสัญญาณดังกล่าวไม่ได้บ่งชี้ถึงแผนการที่ใกล้จะเกิดขึ้นและน่าเชื่อถือในการก่ออันตรายร้ายแรงทางร่างกาย
OpenAI ได้แบนบัญชีดังกล่าวในเดือนมิถุนายน 2025 เนื่องจากละเมิดนโยบายการใช้งาน การตัดสินใจนั้นเกิดขึ้นหลายเดือนก่อนโศกนาฏกรรมที่จะเกิดขึ้นในภายหลังในพื้นที่ห่างไกลของบริติชโคลัมเบีย
ผู้ต้องสงสัยวัย 18 ปีได้ดำเนินการโจมตีโรงเรียนในเมืองเล็กๆ ของ Tumbler Ridge ในภายหลัง สังหารผู้คน 8 คนก่อนจะเสียชีวิตจากบาดแผลกระสุนปืนที่ยิงตนเอง เหตุการณ์ที่มีรายงานเมื่อสัปดาห์ที่แล้วถือเป็นหนึ่งในการยิงที่โรงเรียนที่เลวร้ายที่สุดในประวัติศาสตร์ของแคนาดาและทำให้การถกเถียงเกี่ยวกับวิธีที่บริษัทเทคโนโลยีจัดการกับพฤติกรรมผู้ใช้ที่มีความเสี่ยงสูงรุนแรงขึ้น
ตามRCMP Van Rootselaar ได้สังหารแม่และพี่ชายต่างบิดาของเธอที่บ้านครอบครัวก่อนจะกำหนดเป้าหมายไปที่โรงเรียนใกล้เคียง นอกจากนี้ ตำรวจกล่าวว่าผู้ก่อเหตุยิงมีประวัติการติดต่อกับหน่วยงานบังคับใช้กฎหมายที่เกี่ยวข้องกับสุขภาพจิตมาก่อน แม้ว่าลักษณะเฉพาะของปฏิสัมพันธ์เหล่านั้นจะไม่ได้รับการระบุโดยละเอียด
ตำรวจรายงานว่าเหยื่อรวมถึงผู้ช่วยสอนอายุ 39 ปีและนักเรียน 5 คนอายุระหว่าง 12 ถึง 13 ปี เมืองที่มีประชากรประมาณ 2,700 คนในเทือกเขาร็อกกีแคนาดา ตั้งอยู่ห่างจากแวนคูเวอร์มากกว่า 1,000 กิโลเมตร (600 ไมล์) ทางตะวันออกเหนือ ใกล้กับพรมแดนของแอลเบอร์ตา
ในการอธิบายการตัดสินใจที่จะไม่ติดต่อหน่วยงานที่มีอำนาจก่อนหน้านี้ OpenAI กล่าวว่ามาตรฐานสำหรับการติดต่อหน่วยงานบังคับใช้กฎหมายมุ่งเน้นไปที่ว่ากรณีนั้นเกี่ยวข้องกับความเสี่ยงที่ใกล้จะเกิดขึ้นและน่าเชื่อถือของอันตรายร้ายแรงทางร่างกายต่อผู้อื่นหรือไม่ ในขณะนั้น บริษัทกล่าวว่าไม่ได้ระบุการวางแผนที่เป็นรูปธรรมหรือใกล้จะเกิดขึ้นที่จะกระตุ้นให้เกิดการส่งต่อดังกล่าว
บริษัทระบุว่าเกณฑ์การส่งต่อนี้มีจุดประสงค์เพื่อสร้างความสมดุลระหว่างความเป็นส่วนตัวของผู้ใช้กับภาระผูกพันด้านความปลอดภัย อย่างไรก็ตาม การเปิดเผยดังกล่าวได้กระตุ้นให้เกิดคำถามใหม่เกี่ยวกับว่าเกณฑ์ที่มีอยู่สำหรับการยกระดับเพียงพอหรือไม่เมื่อสัญญาณเตือนภัยล่วงหน้าปรากฏขึ้นในการโต้ตอบของผู้ใช้กับเครื่องมือ AI เช่น ChatGPT
หลังจากข่าวการยิงที่โรงเรียนแพร่สะพัด พนักงานที่ OpenAI ได้ติดต่อRCMP พร้อมรายละเอียดเกี่ยวกับ Van Rootselaar และกิจกรรมในอดีตที่เกี่ยวข้องกับบัญชี Wall Street Journal เป็นสำนักข่าวแรกที่รายงานเกี่ยวกับการพิจารณาภายในของบริษัทและการติดต่อในภายหลัง
ในแถลงการณ์สาธารณะ โฆษกของ OpenAI กล่าวว่า: "ความคิดของเราอยู่กับทุกคนที่ได้รับผลกระทบจากโศกนาฏกรรม Tumbler Ridge เราได้ติดต่อตำรวจม้าแคนาดาอย่างเชิงรุกพร้อมข้อมูลเกี่ยวกับบุคคลและการใช้ ChatGPT ของพวกเขา และเราจะยังคงสนับสนุนการสอบสวนของพวกเขาต่อไป" นอกจากนี้ บริษัทเน้นย้ำถึงความร่วมมืออย่างต่อเนื่องกับหน่วยงานแคนาดา
กล่าวได้ว่า แรงจูงใจในการยิงยังคงไม่ชัดเจน และผู้สอบสวนยังไม่ได้เปิดเผยว่ามีความเชื่อมโยงโดยตรงอะไรบ้างระหว่างการโต้ตอบของผู้ต้องสงสัยกับ ChatGPT และการโจมตีในที่สุด กรณีนี้ได้ทำให้ความสนใจทั่วโลกเพิ่มขึ้นเกี่ยวกับวิธีที่แพลตฟอร์ม AI ตรวจจับ ประเมิน และตอบสนองต่อภัยคุกคามที่อาจเกิดขึ้น
เจ้าหน้าที่อธิบายว่าการโจมตี Tumbler Ridge เป็นการอาละวาดที่ร้ายแรงที่สุดของแคนาดาตั้งแต่ปี 2020 เมื่อมือปืนในโนวาสโกเชียสังหารผู้คน 13 คนและวางเพลิงที่ทำให้เกิดการเสียชีวิตของอีก 9 คน อย่างไรก็ตาม เหตุการณ์ล่าสุดมีมิติเพิ่มเติมเนื่องจากมันตัดกับความรับผิดชอบที่กำลังพัฒนาของผู้ให้บริการ AI
ในขณะที่ผู้กำหนดนโยบายและหน่วยงานบังคับใช้กฎหมายตรวจสอบสถานการณ์ เหตุการณ์การยิงที่โรงเรียน openai น่าจะกระตุ้นให้เกิดการถกเถียงเกี่ยวกับเวลาและวิธีที่บริษัท AI ควรยกระดับพฤติกรรมผู้ใช้ที่น่ากังวลให้กับหน่วยงานที่มีอำนาจ และว่ามาตรฐานการส่งต่อที่มีอยู่จัดการกับความเสี่ยงดิจิทัลที่กำลังเกิดขึ้นอย่างเพียงพอหรือไม่
โดยสรุป โศกนาฏกรรมในบริติชโคลัมเบียเน้นย้ำถึงความสมดุลที่ซับซ้อนระหว่างความเป็นส่วนตัว การประเมินความเสี่ยง และความปลอดภัยสาธารณะในขณะที่แพลตฟอร์ม AI กลายเป็นส่วนหนึ่งที่ฝังลึกในชีวิตประจำวัน บังคับให้ทั้งหน่วยงานกำกับดูแลและบริษัทเทคโนโลยีต้องประเมินโปรโตคอลของพวกเขาสำหรับการจัดการกับภัยคุกคามที่อาจเกิดขึ้นใหม่

