OpenAI ร่วมมือกับห้องปฏิบัติการ DOE เพื่อลดเวลาการอนุญาตของรัฐบาลกลาง 15%
Tony Kim 04 มี.ค. 2026 17:29
OpenAI และห้องปฏิบัติการแห่งชาติแปซิฟิกนอร์ธเวสต์เปิดตัว DraftNEPABench แสดงให้เห็นว่าเอเจนต์ AI สามารถประหยัดเวลา 1-5 ชั่วโมงต่อส่วนย่อยในการตรวจสอบสิ่งแวดล้อมระดับรัฐบาลกลาง
OpenAI และห้องปฏิบัติการแห่งชาติแปซิฟิกนอร์ธเวสต์ของกระทรวงพลังงานสหรัฐฯ ได้พัฒนามาตรฐานที่แสดงให้เห็นว่าเอเจนต์ AI ด้านการเขียนโค้ดสามารถลดเวลาการร่างเอกสารอนุญาตด้านสิ่งแวดล้อมของรัฐบาลกลางได้ถึง 15% ความร่วมมือที่ประกาศเมื่อวันที่ 26 กุมภาพันธ์ 2026 ได้สร้าง DraftNEPABench ซึ่งเป็นกรอบการทดสอบที่ประเมินประสิทธิภาพของ AI ใน 102 งานร่างเอกสารจาก 18 หน่วยงานของรัฐบาลกลาง
มาตรฐานนี้มุ่งเป้าไปที่กระบวนการตาม National Environmental Policy Act โดยเฉพาะ ซึ่งเป็นกระบวนการที่มีมา 50 ปีที่กำหนดให้หน่วยงานของรัฐบาลกลางต้องจัดทำเอกสารผลกระทบต่อสิ่งแวดล้อมก่อนอนุมัติโครงการโครงสร้างพื้นฐาน เช่น โรงไฟฟ้า สะพาน และโรงงานผลิต การตรวจสอบเหล่านี้มักใช้เวลาหลายปีและเกี่ยวข้องกับรายงานทางเทคนิคหลายร้อยหน้า
สิ่งที่การทดสอบแสดงให้เห็น
ผู้เชี่ยวชาญด้าน NEPA 19 คนได้ประเมินร่างเอกสารที่สร้างโดย AI ในมาตราส่วน 1-5 โดยวัดโครงสร้าง ความชัดเจน ความถูกต้อง และการใช้อ้างอิงที่เหมาะสม เอเจนต์ที่ทำงานบน OpenAI's Codex CLI พร้อม GPT-5 แสดงศักยภาพในการประหยัดเวลา 1-5 ชั่วโมงต่อส่วนย่อยของเอกสาร
ฟังดูไม่น่าประทับใจจนกว่าคุณจะพิจารณาขนาดของงาน รายงานผลกระทบต่อสิ่งแวดล้อมประกอบด้วยส่วนย่อยหลายสิบส่วน แต่ละส่วนต้องอ้างอิงข้อมูลจากรายงานทางเทคนิค ข้อกำหนดด้านกฎระเบียบ และแหล่งข้อมูลหลายแห่ง การประหยัดเวลาไม่กี่ชั่วโมงต่อส่วนจะสะสมอย่างรวดเร็วในโครงการที่ปัจจุบันใช้เวลาหลายเดือนหรือหลายปีในการดำเนินการ
เอเจนต์ AI ต้องอ่านและสังเคราะห์เอกสารที่มีหลายร้อยหน้า ตรวจสอบข้อเท็จจริงจากแหล่งข้อมูลด้านสิ่งแวดล้อมและกฎระเบียบ และสร้างรายงานที่มีโครงสร้างตามเกณฑ์ทางกฎหมายเฉพาะ งานครอบคลุมส่วนเอกสารจากหน่วยงานต่างๆ ทั่วรัฐบาลกลาง
ข้อจำกัดที่ควรทราบ
PNNL และ OpenAI พูดตรงไปตรงมาเกี่ยวกับสิ่งที่มาตรฐานนี้ไม่ได้พิสูจน์ มันประเมินประสิทธิภาพในงานร่างเอกสารที่มีรายละเอียดชัดเจนและมีบริบทที่เกี่ยวข้อง ไม่ใช่ความคลุมเครือที่ยุ่งยากของการตัดสินใจอนุญาตจริง
เมื่อตรวจสอบกรณีที่ล้มเหลว นักวิจัยพบว่า "ข้อผิดพลาด" บางอย่างเกิดจากการอ้างอิงที่ล้าสมัยและเกณฑ์การประเมินที่อ่อนแอ มากกว่าความผิดพลาดของโมเดล การใช้งานจริงจะเกี่ยวข้องกับวงรอบความคิดเห็นจากผู้เชี่ยวชาญที่คาดว่าจะปรับปรุงประสิทธิภาพให้ดีกว่าผลลัพธ์จากมาตรฐาน
หากเอกสารต้นฉบับไม่สมบูรณ์หรือไม่สอดคล้องกัน โมเดลจะไม่จำเป็นต้องแจ้งปัญหาโดยไม่มีคำแนะนำที่ชัดเจน การดูแลโดยมนุษย์ยังคงมีความสำคัญ
ภาพรวมที่ใหญ่กว่า
ความร่วมมือนี้อยู่ภายในโครงการ PermitAI ที่กว้างขึ้นของ PNNL ซึ่งได้รับทุนจากสำนักนโยบายของกระทรวงพลังงาน เป้าหมายไม่ใช่การแทนที่ผู้ตรวจสอบที่เป็นมนุษย์ แต่เป็นการให้ทีม AI แก่พนักงานรัฐบาลที่จัดการงานเอกสารที่ใช้เวลานาน เพื่อให้พวกเขาสามารถมุ่งเน้นไปที่การตัดสินใจและการตัดสินใจที่ซับซ้อน
OpenAI กล่าวว่าความร่วมมือจะดำเนินต่อไปในการปรับปรุงแอปพลิเคชัน PermitAI บริษัทคาดว่าเวลาอนุมัติเฉลี่ยสำหรับโครงการโครงสร้างพื้นฐานที่ได้รับการตรวจสอบโดยรัฐบาลกลางจะลดลงจากหลายเดือนเป็นหลายสัปดาห์ แม้ว่าจะไม่มีกำหนดเวลาที่เฉพาะเจาะจงสำหรับการบรรลุการลดลงนั้น
สำหรับอุตสาหกรรม AI นี่แสดงถึงกรณีการใช้งานที่ได้รับการรับรองจากรัฐบาลอีกกรณี ซึ่งแสดงให้เห็นว่าโมเดลชั้นนำสามารถจัดการกระบวนการกฎระเบียบจริงได้ ไม่ใช่แค่การสนทนาแชทบอท ว่าสิ่งนี้จะแปลเป็นการนำ AI มาใช้ในระดับรัฐบาลกลางที่กว้างขึ้นหรือไม่ขึ้นอยู่กับว่าโครงการนำร่องต่อๆ ไปทำงานได้ดีเพียงใดภายใต้เงื่อนไขการอนุญาตจริง
แหล่งที่มาของภาพ: Shutterstock- openai
- ปัญญาประดิษฐ์
- การอนุญาตของรัฐบาลกลาง
- nepa
- เทคโนโลยีภาครัฐ


