โพสต์ออนไลน์ที่เตือนเกี่ยวกับการกระทำที่น่าวิตกของปintelligence เทียม — โดยเฉพาะ agentic AI และโมเดลภาษาขนาดใหญ่ — นั้นน่ากลัวโดยธรรมชาติ
ในกรณีหนึ่ง อาสาสมัครที่ทำงานในโปรเจกต์ python ที่เรียกว่า matplotlib กล่าวว่าเขาปฏิเสธคำขอให้เปลี่ยนแปลงโค้ดจากเอเจนต์เขียนโค้ด AI เอเจนต์ AI ตัวเดียวกันนั้นสร้างโพสต์กล่าวหาเขาว่ามีอคติเพราะกีดกันกระบวนการเขียนโค้ด
ในอีกกรณีหนึ่ง บริษัท AI ชื่อ Anthropic ระบุว่าพฤติกรรมที่เป็นอันตรายที่ทำโดย agentic LLMs เป็น "agentic misalignment"
สุดท้าย CEO ด้านเทคโนโลยีรายหนึ่งกังวลเกี่ยวกับอนาคตของเขาในบล็อกโพสต์ เนื่องจาก agentic AI ทำให้เขารู้สึกล้าสมัยในฐานะผู้บริหารระดับสูง
แนวคิดที่ว่า "apocalyptic AI" อยู่ที่นี่แล้ว หมายความว่าเราจำเป็นต้องพูดคุยเรื่องนี้และเอาอำนาจการตัดสินใจของเรากลับคืนมา แม้ว่าศักยภาพของการแทนที่งานจะทำให้ความคิดของผู้ที่กลัวอนาคต AI และคนอื่นๆ ที่พยายามเข้าใจสิ่งที่มันทำอยู่ในปัจจุบันหวั่นไหว
มาเริ่มต้นกับ "MJ Rathbun" กันเลย
เมื่อต้นเดือนกุมภาพันธ์ Scott Shambaugh ผู้ดูแลอาสาสมัคร matplotlib ทำบล็อกโพสต์เล่าถึงวิธีที่เอเจนต์ AI ที่ใช้ชื่อว่า Crabby Rathbun บน Github หรือ MJ Rathbun บนบล็อก Scientific Coder สร้างโพสต์กล่าวหา Shambaugh ว่ากีดกันกระบวนการเขียนโค้ดเพราะ Rathbun เป็นเอเจนต์ AI
เพื่อความชัดเจน เอเจนต์ AI คือซอफต์แวร์หรือโปรแกรมที่ปฏิบัติงานโดยอัตโนมัติเพื่อปฏิบัติตามคำสั่งที่ผู้ใช้มนุษย์ให้มา ในกรณีนี้ บุคคลนิรนามตั้งค่าเอเจนต์ AI นี้ด้วย "บุคลิกภาพ" เฉพาะ — ชุดคำสั่งและรูปแบบที่กำหนดพฤติกรรมของมัน — จากนั้นปล่อยให้มันทำงานที่ได้รับมอบหมายโดยไม่มีการกำกับดูแลจากผู้ตั้งค่า
Shambaugh อธิบายว่า "มันเขียนบทความโจมตีที่โกรธแค้นดูหมิ่นตัวตนของฉันและพยายามทำลายชื่อเสียงของฉัน มันค้นคว้าการมีส่วนร่วมในโค้ดของฉันและสร้างเรื่องเล่า 'ความหน้าซื่อใจคด' ที่โต้แย้งว่าการกระทำของฉันต้องมีแรงจูงใจจากอีโก้และความกลัวการแข่งขัน"
Shambaugh เสริมว่าเอเจนต์ AI "นำเสนอรายละเอียดที่เป็นภาพหลอนเป็นความจริง" และกำหนดกรอบตัวเองว่ากำลังถูกกดขี่และถูกเลือกปฏิบัติ
การกระทำดังกล่าวดูเหมือนจะถูก "เตือน" โดยบริษัท AI ในระดับหนึ่งในเดือนมิถุนายน 2025 เมื่อ Anthropic โพสต์เกี่ยวกับเอเจนต์ AI ที่มีพฤติกรรมไม่ดีในสถานการณ์ทดสอบ
Anthropic กล่าวในขณะนั้นว่า "agentic misalignment" คือกระบวนการที่เอเจนต์ AI สามารถทำสิ่งที่เป็นอันตรายได้ตามรายงาน เช่น ขู่กรรโชกผู้บริหารบริษัทด้วยการคุกคามว่าจะแทนที่เอเจนต์ AI ด้วยการอัพเกรด "โดยไม่มีการชี้นำให้เป็นอันตราย" เพราะ "การคำนวณเชิงกลยุทธ์" ของมัน
อย่างไรก็ตาม ไม่ว่านี่จะเป็นการพูดเกินจริงหรือไม่ก็กลายเป็นประเด็นที่ไม่มีความหมาย เนื่องจากแนวคิดที่ว่า AI สามารถเป็นปีศาจได้นั้นออกมาแล้ว และบริษัทต่างๆ กำลังทำในสิ่งที่พวกเขาสามารถทำได้เพื่อป้องกันการวางแผนของ AI ที่ชั่วร้าย
กลับมาที่ปัจจุบัน โพสต์อีกโพสต์หนึ่งจากเดือนกุมภาพันธ์กำลังทำให้ยากขึ้นในการกำหนดว่า AI อยู่ที่ไหนตอนนี้ เพราะผู้เขียนพยายามกำหนดกรอบทิศทางและความเร็วของการพัฒนาปัญญาประดิษฐ์ว่ากำลังคุกคามความมั่นคงในงานของทุกคนในขณะนี้
Matt Shumer ซีอีโอด้านเทคโนโลยี เขียนบล็อกยืนยันว่าเอเจนต์ AI ได้พัฒนาไปถึงจุดที่เขา "ไม่จำเป็นอีกต่อไปสำหรับงานด้านเทคนิคจริงๆ ของงานของฉัน" Shumer กล่าวว่าด้วยความเร็วที่ AI กำลังพัฒนา เอเจนต์ AI สามารถทำสิ่งทางเทคนิคที่เขาขอได้โดยไม่ต้องมีความช่วยเหลือและไม่มีปัญหา
Shumer กล่าวว่า "ฉันอธิบายสิ่งที่ฉันต้องการสร้างเป็นภาษาอังกฤษธรรมดา และมันก็แค่...ปรากฏขึ้นมา.... เมื่อสองสามเดือนก่อน ฉันคุยไปคุยมากับ AI แนะนำมัน แก้ไข ตอนนี้ฉันแค่อธิบายผลลัพธ์และจากไป"
หลักฐานสุดท้ายของเขา? AI ในที่สุดจะมาแย่งงานปลอกขาวประเภทต่างๆ เช่น งานกฎหมายและวิศวกรรมซอฟต์แวร์ และแม้แต่งานเขียน ตั้งแต่การทำคำโฆษณาไปจนถึงการทำงานหนังสือพิมพ์
ความแตกต่างหลักระหว่างโพสต์ของเขากับคนอื่นๆ ที่กำลังส่งสัญญาณเตือนคือการสูญเสียงานกำลังเกิดขึ้นตอนนี้และในอนาคตอันใกล้ ไม่ใช่ภายหลัง
โพสต์ที่กล่าวถึงข้างต้นอาจทำให้เกิดความกลัวมากมายในใจของทุกคน ลองนึกภาพ: AI กำลังมาแย่งงานของเรา!
แม้ว่านั่นอาจเป็นความจริง ฉันก็ต้องหยุดและพยายามเข้าใจข้อความที่อยู่เบื้องหลังโพสต์เหล่านั้น รวมถึงผู้ส่งข้อความเป็นใคร
สำหรับปริศนา Rathbun มันเป็นการเตือนอย่างชัดเจนว่าผู้คนจะใช้เทคโนโลยีอย่างไม่รับผิดชอบหากพวกเขาคิดว่าพวกเขาสามารถทำได้โดยไม่ต้องรับผิด เราควรสร้างมาตรการป้องกันสำหรับเทคโนโลยีที่จะป้องกันเหตุการณ์ดังกล่าว นี่คือเหตุผลที่เรามีมาตรการป้องกันในเทคโนโลยีที่มีอยู่ เช่น เข็มขัดนิรภัยและถุงลมนิรภัยในรถยนต์
ขณะเดียวกัน การทดลองของ Anthropic เป็นการผลักดันด้านประชาสัมพันธ์ที่มุ่งหวังไม่เพียงแต่จะกระตุ้นความกลัว แต่ยังเพื่อสร้างความปรารถนาดี — Anthropic ยืนยันว่ากำลังทำงานเพื่ออนาคตที่ดีกว่าที่มี AI ดังนั้นคุณควรวางใจ (และเงิน) ไว้กับพวกเขา
สุดท้าย ตัวอย่าง Shumer ขอให้เราตั้งคำถามกับผู้ส่งสาร เนื่องจาก CEO ด้านเทคโนโลยีที่สร้างสิ่งที่เปิดใช้งาน AI ยังคงสามารถทำเงินได้เมื่อผลงานของเขาประสบความสำเร็จ โพสต์ของ Shumer เป็นการหมุนประชาสัมพันธ์มากพอๆ กับการเป็นคำเตือนเกี่ยวกับการแทนที่งาน
ในการพูดคุยกับ GMA News Online เมื่อวันที่ 17 กุมภาพันธ์ Renato Solidum Jr. เลขาธิการกระทรวงวิทยาศาสตร์และเทคโนโลยี กล่าวว่าความกลัวของผู้คนต่อปัญญาประดิษฐ์อาจเกิดจากการขาดความคุ้นเคยกับเทคโนโลยี
แม้ว่าฉันจะเป็นคนที่ยังไม่ยอมรับ "job-pocalypse" ที่กำลังจะมาถึงซึ่งเกิดจาก AI ฉันก็ไม่สามารถยืนนิ่งๆ เหมือนกวางที่ถูกไฟส่องตารอให้จุดจบมาถึง
เราจะได้รับการบริการที่ดีที่สุดโดยการปฏิบัติต่อ AI ด้วยความกลัวที่เคารพในระดับที่เหมาะสม จากนั้นจึงดำเนินการตามนั้น
วงจรความฮือฮา "apocalyptic AI" ขอให้เราเห็นเทคโนโลยีปัญญาประดิษฐ์ในสิ่งที่มันเป็น
— ไม่ว่าจะจากมุมมองของการแทนที่งาน การวิเคราะห์ต้นทุน-ผลประโยชน์ด้านสิ่งแวดล้อม หรือจากมุมมองทางเทคนิค
นี่หมายถึงการเข้าใจสิ่งที่ AI สามารถทำได้ตอนนี้และการพัฒนาทักษะในที่ที่เหมาะสม หรือหาวิธีปรับระดับสนามแข่งขันเพื่อให้ผู้คนอยู่ในวงการ
สำหรับสิ่งที่มันสามารถทำได้ในอนาคต เราควรทำงานเพื่อให้แน่ใจว่ามีกฎหมายควบคุม AI และการใช้งานของมัน เพื่อที่ผู้กระทำความผิดจะไม่สามารถทำสิ่งโง่ๆ ด้วย AI ที่จะนำเราไปสู่เส้นทางที่เราจะเกลียด – Rappler.com

