Chris Boyd ติดอยู่ในบ้านของเขาในนอร์ทแคโรไลนาหลังจากพายุหิมะพัดผ่าน เขาจึงตัดสินใจทดลองใช้เครื่องมือ AI ที่ชื่อว่า OpenClaw เขาคิดว่ามันสามารถช่วยจัดระเบียบช่วงเช้าของเขาได้ เขาตั้งค่าให้ส่งสรุปข่าวไปยังกล่องจดหมายของเขาเวลา 5:30 น. ทุกวัน ส่วนนั้นใช้งานได้ จากนั้นเขาก็ให้มันเข้าถึง iMessage
หลังจากนั้นทุกอย่างก็พังทลายลง OpenClaw เริ่มส่งข้อความออกไปอย่างบ้าคลั่ง มันส่งข้อความมากกว่า 500 ข้อความไปหาเขา ภรรยาของเขา และแม้แต่คนสุ่มในรายชื่อผู้ติดต่อของพวกเขา Boyd ไม่รู้สึกขำเลย
เขาปิดมันลง แก้ไขโค้ด และพูดว่า "มันไม่ใช่แค่มีบั๊ก มันอันตราย"
Boyd เรียกซอฟต์แวร์นี้ว่า "ไม่สุกงอม" และบอกว่ามันดูเหมือนสิ่งที่ถูกประกอบเข้าด้วยกันโดยไม่คิดมากนัก เขาแก้ไขโค้ดด้วยตัวเองเพื่อหยุดไม่ให้มันสร้างความเสียหายมากขึ้น เขาไม่ใช่คนเดียวที่ยกธงเตือนเกี่ยวกับเครื่องมือนี้
ตัวแทน AI ซึ่งเคยมีชื่อว่า Clawdbot และต่อมาเป็น Moltbot เริ่มได้รับความนิยมตั้งแต่เดือนพฤศจิกายน มันสามารถทำงานง่ายๆ เช่น ล้างกล่องจดหมาย จองร้านอาหารสำหรับมื้อเย็น และเช็คอินเที่ยวบิน มันไม่ต้องการการควบคุมจากมนุษย์มากนัก มันแค่รันไป นั่นคือสิ่งที่ทำให้มันน่าสนใจ และนั่นก็เป็นสิ่งที่ทำให้มันอันตรายด้วย
Kasimir Schulz ทำงานที่บริษัทชื่อ HiddenLayer ที่มุ่งเน้นด้านความปลอดภัย AI Kasimir กล่าวว่า OpenClaw เป็นตัวอย่างที่ส完美ของสิ่งที่เขาเรียกว่า "สามเกลอมรณะ"
มันสามารถเข้าถึงข้อมูลส่วนตัว มันสามารถสื่อสารกับโลกภายนอก และมันสามารถอ่านเนื้อหาที่ไม่รู้จักได้ นั่นคือสูตรสมบูรณ์สำหรับภัยพิบัติ และ OpenClaw มีทุกอย่าง
Yue Xiao ศาสตราจารย์วิทยาการคอมพิวเตอร์ที่ William & Mary กล่าวว่าคุณสามารถขโมยข้อมูลของใครบางคนผ่าน OpenClaw ได้โดยการหลอกมันด้วยสิ่งที่เรียกว่า prompt injection นั่นคือเมื่อแฮกเกอร์ซ่อนคำสั่งไว้ภายในสิ่งที่ดูเหมือนข้อความปกติ Yue กล่าวว่าเทคโนโลยีประเภทนี้เปิดประตูสู่การโจมตีรูปแบบใหม่ที่คนส่วนใหญ่ยังไม่พร้อมรับมือ
Peter Steinberger ผู้สร้าง OpenClaw กล่าวว่าโครงการนี้ยังไม่เสร็จ เขาบอกกับ Bloomberg ทางอีเมลว่า "มันยังไม่เสร็จสมบูรณ์ แต่เรากำลังไปถึงแล้ว"
Peter กล่าวว่าเนื่องจากมันเป็นโอเพนซอร์ส ใครก็สามารถดูโค้ดและทำงานกับมันได้ เขาบอกว่ากำลังมีความคืบหน้า แต่ยังไม่พร้อมสำหรับผู้ใช้ทั่วไป
Peter ไม่คิดว่าการเปิดตัวมาเร็วเกินไป เขาบอกว่าเขาสร้างทุกอย่างอย่างเปิดเผยและไม่เชื่อในการกักเก็บจนกว่าจะสมบูรณ์แบบ เขายังกล่าวอีกว่าปัญหาส่วนใหญ่เกิดจากผู้ใช้ที่ไม่อ่านคำแนะนำในการตั้งค่า
Peter ทำให้ชัดเจนว่าไม่มีความปลอดภัย 100 เปอร์เซ็นต์เมื่อใช้โมเดลภาษาขนาดใหญ่ เขาบอกว่า OpenClaw มีไว้สำหรับผู้ที่รู้ว่าตัวเองกำลังทำอะไรและเข้าใจความเสี่ยง
เขายังกล่าวอีกว่า prompt injection ไม่ใช่แค่ปัญหาของเครื่องมือของเขาเท่านั้น เขาเรียกมันว่าเป็นปัญหาที่มีอยู่ทั่วไปในโลก AI Peter กล่าวว่าเขาได้นำผู้เชี่ยวชาญด้านความปลอดภัยเข้ามาช่วยแก้ไขปัญหาและทำให้ OpenClaw ปลอดภัยยิ่งขึ้น
ในขณะที่ Peter ปกป้องวิธีที่เขาสร้าง OpenClaw ผู้เชี่ยวชาญคนอื่นๆ กล่าวว่าเทรนด์ตัวแทน AI ทั้งหมดกำลังเริ่มควบคุมไม่ได้ Justin Cappos ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์และศาสตราจารย์ที่ NYU กล่าวว่ามันยากที่จะควบคุมเครื่องมือเหล่านี้เมื่อมันทำงานอยู่
Justin กล่าวว่า "เราไม่เข้าใจว่าทำไมมันถึงทำในสิ่งที่มันทำ" เขาเปรียบเทียบการให้ตัวแทน AI เข้าถึงระบบของคุณกับการยื่นมีดสับเนื้อให้กับเด็กวัยหัดเดิน
โลกเทคโนโลยีกำลังรีบเร่งเปิดตัวเครื่องมือใหม่ๆ Claude Code ของ Anthropic ทำรายได้ถึง 1 พันล้านดอลลาร์ในเวลาเพียงหกเดือน
ในขณะเดียวกัน คนที่พยายามรักษาความปลอดภัยของเครื่องมือเหล่านี้ยังคงพยายามหาพื้นฐาน Justin กล่าวว่าบริษัทต่างๆ ปล่อยอัปเดตอย่างไม่หยุดหย่อน และทีมความปลอดภัยตามไม่ทัน
Michael Freeman ที่ Armis บริษัทด้านความปลอดภัยทางไซเบอร์ กล่าวว่า OpenClaw ถูกประกอบขึ้นมาโดยไม่มีแผนความปลอดภัยที่แท้จริง เขาบอกว่าลูกค้าบางรายของ Armis ถูกโจมตีโดย OpenClaw แล้ว แต่ไม่ได้แชร์รายละเอียด Michael กล่าวว่าบริษัทต่างๆ จะต้องยอมสละการควบคุมบางส่วนหากต้องการใช้เครื่องมือ AI เช่น OpenClaw ต่อไป
สำหรับตอนนี้ คำถามคือผู้คนจะยังคงใช้ OpenClaw หลังจากภัยพิบัตินี้หรือไม่ เครื่องมือนี้มีแฟนคลับ แต่แม้แต่คนเหล่านั้นก็เริ่มตระหนักว่าเสรีภาพที่ไม่มีความปลอดภัยเป็นปัญหา และถ้าไม่มีการเปลี่ยนแปลงอย่างรวดเร็ว OpenClaw อาจจะกลายเป็นตัวอย่างล่าสุดของเทคโนโลยีที่ก้าวไปไกลเกินตัวเอง
ต้องการให้โครงการของคุณอยู่ต่อหน้าผู้เชี่ยวชาญชั้นนำด้านคริปโตหรือไม่? นำเสนอในรายงานอุตสาหกรรมฉบับถัดไปของเรา ที่ซึ่งข้อมูลพบกับผลกระทบ


