สัปดาห์นี้ Securonix ได้เปิดตัว Sam นักวิเคราะห์ AI SOC และ Agentic Mesh ร่วมกับ Amazon Web Services หัวข้อข่าวนี้ไม่ใช่ฟีเจอร์ AI อีกอันหนึ่ง แต่เป็นการเปลี่ยนไปสู่โมเดล AI ที่ใช้ผลผลิตเป็นฐาน
เคยเห็นทีม SOC ของคุณจมอยู่ในการแจ้งเตือนมากมาย ในขณะที่คณะกรรมการถามหา "ผลตอบแทนจาก AI ที่ชัดเจน" หรือไม่?
ลองนึกภาพดู
เวลา 8:45 น. CISO เข้าร่วมการบรีฟคณะกรรมการล่วงหน้า การแจ้งเตือนในช่วงค้ำคืนเกิน 40,000 รายการ นักวิเคราะห์สองคนลาป่วย หน่วยงานกำกับดูแลขอหลักฐานการกำกับดูแล AI ฝ่ายการเงินต้องการเหตุผลสำหรับค่าใช้จ่าย SIEM ที่เพิ่มขึ้น
ทีมใช้ AI แต่พวกเขาไม่สามารถพิสูจน์ได้ว่าได้ผลลัพธ์อะไรจริงๆ
นี่คือช่องว่างที่ Securonix กำลังมุ่งเป้าไปด้วยการเปิดตัวล่าสุดร่วมกับ Amazon Web Services บริษัทได้เปิดตัว Sam นักวิเคราะห์ AI SOC และ Securonix Agentic Mesh พร้อมกับโมเดล AI ที่ใช้ผลผลิตเป็นฐานสำหรับการปฏิบัติงานด้านความปลอดภัย
สำหรับผู้นำ CX และ EX นี่ไม่ใช่แค่ข่าวด้านความปลอดภัยไซเบอร์ แต่เป็นแบบแผนสำหรับ AI ที่มีการกำกับดูแลในระดับใหญ่
โมเดล AI ที่ใช้ผลผลิตเป็นฐานวัด AI จากงานที่เสร็จสิ้น ไม่ใช่จากการใช้งานหรือข้อมูลที่บริโภค
ราคา AI ขององค์กรส่วนใหญ่ติดตามโทเค็น พื้นที่จัดเก็บ หรือฟีเจอร์ต่างๆ โมเดลนั้นให้รางวัลกับการบริโภค มันไม่ค่อยพิสูจน์ผลลัพธ์
Securonix กลับตรรกะนี้
Sam ได้รับใบอนุญาตตามงานที่เทียบเท่านักวิเคราะห์ที่ตรวจสอบแล้วซึ่งเสร็จสิ้นโดย AI ผลผลิตถูกติดตามอย่างโปร่งใส ผู้นำสามารถวัดจำนวนชั่วโมงที่ประหยัดและผลผลิตที่เพิ่มขึ้นได้
สำหรับผู้นำ CX และ EX สิ่งนี้จัดกรอบคุณค่าของ AI ใหม่:
การเปลี่ยนแปลงนี้สะท้อนสิ่งที่ผู้นำ CX เผชิญกับ AI การเดินทางและผู้ช่วย คณะกรรมการไม่ต้องการสถิติการใช้แชทบอท แต่ต้องการอัตราการเบี่ยงเบน การลดเวลาในการแก้ปัญหา และการปรับปรุงต้นทุนในการให้บริการ
ความปลอดภัยกำลังพูดภาษาเดียวกันแล้ว
Sam คือเพื่อนร่วมทีม SOC ดิจิทัลที่มีการกำกับดูแลและทำงานตลอดเวลา ซึ่งทำงาน Tier 1 และ Tier 2 โดยอัตโนมัติภายใน Unified Defense SIEM
Sam ทำหน้าที่:
มันทำงานภายในแพลตฟอร์มของ Securonix โดยธรรมชาติ นักวิเคราะห์ยังคงควบคุมผ่านการดูแลแบบมีมนุษย์เข้ามาเกี่ยวข้อง
ผู้ช่วย AI หลายตัวให้ความช่วยเหลือ แต่มีเพียงไม่กี่ตัวที่ทำงานเป็นระบบงานที่มีโครงสร้าง Sam ประสานงานตัวแทน AI เฉพาะทางผ่านขั้นตอนการสืบสวน มันนำเสนอสรุปภาษาธรรมดาที่นักวิเคราะห์สามารถตรวจสอบหรือยกระดับได้
ผลลัพธ์: AI เสริมการตัดสิน ไม่ได้แทนที่มัน
เพราะการใช้งาน AI ส่วนใหญ่ขยายตัวเร็วกว่ากรอบการควบคุม
ผู้นำด้านความปลอดภัยเผชิญความตึงเครียดสามประการ:
คณะกรรมการถามคำถามที่ยากขึ้นในตอนนี้:
AI ที่ไม่มีโครงสร้างไม่สามารถตอบคำถามเหล่านี้ได้
นั่นคือจุดที่ Securonix Agentic Mesh เข้ามา
Agentic Mesh เป็นชั้นการประสานงานที่มีการกำกับดูแล ซึ่งประสานงานตัวแทน AI เฉพาะทางผ่านการตรวจจับ การสืบสวน การตอบสนอง และการรายงาน
ต่างจากผู้ช่วยแบบรวมศูนย์ Agentic Mesh ทำหน้าที่เป็นระบบงาน
มัน:
สร้างขึ้นโดยใช้ Amazon Bedrock AgentCore มันทำงานอย่างปลอดภัยภายในสภาพแวดล้อมของลูกค้า ซึ่งให้การแยกและความยืดหยุ่นระดับองค์กร
ผู้ช่วยตอบคำถาม
ระบบ Agentic ทำเวิร์กโฟลว์ที่มีการกำกับดูแลให้เสร็จสิ้น
ความแตกต่างนั้นเปลี่ยนความเป็นผู้ใหญ่ของ AI ขององค์กร
ผู้นำด้านความปลอดภัยมักทำงานภายใต้การตรวจสอบของคณะกรรมการมากขึ้น AI ต้องพิสูจน์ความไว้วางใจ ไม่ใช่สัญญามัน
ตาม Sameer Ratolikar, CISO ที่ HDFC Bank:
Simon Hunt, Chief Product Officer ที่ Securonix อธิบายความท้าทายอย่างชัดเจน:
สำหรับการสนทนากับคณะกรรมการ AI ที่ใช้ผลผลิตเป็นฐานช่วยให้:
DPM Flex กำหนดเส้นทางข้อมูลตรวจวัดตามคุณค่าเชิงวิเคราะห์แทนที่จะเป็นปริมาณดิบ เพื่อควบคุมต้นทุน SIEM
ผลผลิต AI พังทลายหากต้นทุนข้อมูลพุ่งสูง
Data Pipeline Manager with Flex Consumption (DPM Flex) แนะนำเศรษฐศาสตร์ข้อมูลที่ขับเคลื่อนด้วยผลลัพธ์ แทนที่จะนำเข้าทุกอย่าง มันให้ความสำคัญกับข้อมูลตรวจวัดที่มีมูลค่าสูง
สำหรับความคล้ายคลึงกับ CX:
การกำกับดูแลต้นทุนเป็นส่วนหนึ่งของการกำกับดูแล AI
1. วัด AI จากงานที่เสร็จสิ้น
เมตริกการนำมาใช้มีความหมายน้อยหากไม่มีเมตริกผลผลิต
2. ฝังการกำกับดูแลไว้ภายในระบบ
การปฏิบัติตามกฎระเบียบย้อนหลังเปราะบาง
3. ปกป้องการดูแลโดยมนุษย์
AI ขยายตัวได้ดีที่สุดเมื่อเสริมการตัดสิน
4. จัดแนว AI กับเรื่องเล่าทางการเงิน
คณะกรรมการอนุมัติผลลัพธ์ ไม่ใช่การทดลอง
5. ควบคุมเศรษฐศาสตร์ข้อมูลตั้งแต่เนิ่นๆ
การขยาย AI โดยไม่มีวินัยด้านต้นทุนสร้างปฏิกิริยาตอบสนองเชิงลบ
ข้อผิดพลาดเหล่านี้สร้างการแยกส่วน พวกมันทำลายความเชื่อมั่นของผู้บริหาร
CXQuest เสนอ โมเดล PRODUCT สำหรับการขยาย AI ขององค์กร:
P – Productivity Units Defined
กำหนดหน่วยงานที่วัดได้
R – Risk Guardrails Embedded
บังคับใช้นโยบายภายในเวิร์กโฟลว์
O – Oversight Maintained
รักษามนุษย์ให้ควบคุมการยกระดับ
D – Data Economics Managed
จัดการนำเข้าให้สอดคล้องกับคุณค่าเชิงวิเคราะห์
U – Use Case Boundaries Clear
เริ่มต้นด้วยงานที่กำหนดและมีปริมาณสูง
C – Context Shared Across Agents
หลีกเลี่ยงผู้ช่วย AI ที่แยกส่วน
T – Transparent Reporting to Leadership
แปลผลผลิตเป็นภาษาทางการเงิน
Securonix ทำให้หลักการเหล่านี้หลายอย่างใช้งานได้จริงภายในการปฏิบัติงานด้านความปลอดภัย ทีม CX สามารถปรับโครงสร้างเดียวกันได้
ความหมดไหม้ของนักวิเคราะห์สะท้อนความเหนื่อยล้าของศูนย์ติดต่อ
งานคัดกรองที่ซ้ำซากขับเคลื่อนการลาออก
การขาดการมองเห็นผลกระทบลดการมีส่วนร่วม
ด้วยการดูดซับเสียงรบกวน Tier 1 และ Tier 2 Sam ช่วยให้นักวิเคราะห์สามารถมุ่งเน้นไปที่การตัดสินใจที่มีความเสี่ยงสูงขึ้น
AI ควรขจัดงานที่น่าเบื่อ ไม่ใช่อิสระ
ความปลอดภัยมักเป็นผู้บุกเบิกกรอบการกำกับดูแลก่อนที่ CX จะนำมาใช้
การเคลื่อนไหวไปสู่การประสานงาน AI แบบ agentic บ่งบอกว่าเฟส AI ขององค์กรถัดไปจะมุ่งเน้นไปที่:
คณะกรรมการจะถามมากขึ้น:
AI ทำงานเสร็จเท่าไหร่?
มันถูกควบคุมหรือไม่?
เราสามารถปกป้องมันได้หรือไม่?
โมเดลนี้ตอบคำถามเหล่านั้นโดยตรง
มันผูกต้นทุนกับงานที่ตรวจสอบแล้วที่เสร็จสิ้น แทนที่จะเป็นการใช้ข้อมูลหรือฟีเจอร์
มันหมายถึงระบบ AI ที่ประสานงานตัวแทนเฉพาะทางเพื่อทำเวิร์กโฟลว์ที่มีโครงสร้างให้เสร็จสิ้น
นักวิเคราะห์ตรวจสอบ ยืนยัน หรือกลับคืนการดำเนินการที่ AI สร้างขึ้นก่อนการปฏิบัติ
ความล้มเหลวด้านความปลอดภัยมีความเสี่ยงด้านกฎระเบียบและการเงิน การตัดสินใจของ AI ต้องสามารถอธิบายได้
ได้ เวิร์กโฟลว์ใดๆ ที่มีปริมาณสูงและขับเคลื่อนด้วยกฎสามารถนำการวัด AI ที่ใช้ผลผลิตเป็นฐานมาใช้ได้
Sam นักวิเคราะห์ AI SOC, Agentic Mesh และ DPM Flex มีให้บริการทั่วโลกสำหรับลูกค้า Securonix
การเปลี่ยนแปลงที่ลึกกว่านั้นชัดเจน
AI ต้องทำงานจริง
มันต้องมีการกำกับดูแลตามการออกแบบ
และคุณค่าของมันต้องยืนหยัดได้ในห้องประชุมคณะกรรมการ
โพสต์ Productivity-Based AI Model: How Securonix Redefines Governed AI for SOC Outcomes ปรากฏครั้งแรกที่ CX Quest


