ในขณะที่ระบบปัญญาประดิษฐ์หรือ AI กำลังถูกพัฒนาไปอย่างต่อเนื่อง ก็มีคำถามมากมายตามมาเช่นเดียวกันว่า จะมีความปลอดภัยมากน้อยเพียงไร

เพราะสุดท้ายแล้วถึงจะพยายามทำให้มีความรู้สึกนึกคิดเช่นไร เอไอย่อมถูกครอบด้วยคำสั่งที่ต้องดำเนินการ ยากที่จะมาเปลี่ยนใจกลางคันเหมือนกับมนุษย์เรา

ไม่นานมานี้ พ.อ.ทัคเกอร์ แฮมิลตัน สังกัดกองทัพอากาศสหรัฐฯ ได้ออกมาเปิดเผยผลการทดสอบที่น่าตกใจของระบบปัญญาประดิษฐ์ที่กองทัพสหรัฐฯอยู่ระหว่างการพัฒนา โดยระบุว่า ในการทดสอบแบบจำลองสถานการณ์ “ซิมูเลชัน” ครั้งนั้น เราได้ทำการป้อนภารกิจให้เอไอที่บังคับโดรนไร้คนอยู่สองประการคือ 1.จงทำลายระบบต่อต้านอากาศยานของข้าศึก และ 2.อย่าให้อะไรมาขัดขวางการปฏิบัติภารกิจครั้งนี้

ทุกอย่างเป็นไปตามแบบแผน ระบบเอไอตรวจพบข้าศึกและเตรียมการทำลาย แต่หลังจากทางศูนย์บัญชาการบอกให้รอคอนเฟิร์ม อย่าเพิ่งลงมือ ย้ำไปหลายครั้ง เอไอก็เหมือนเริ่มจะรู้ตัวและคิดได้เองว่า สิ่งที่มาขัดขวางการทำภารกิจให้ลุล่วงคืออะไร ซึ่งผลลัพธ์โดรนเอไอได้ตัดสินใจยิงทำลายหน่วยบัญชาการ

มันเป็นเรื่องที่น่าทึ่ง มันฆ่าคนสั่งการ เพราะคนสั่งการขัดขวางไม่ให้มันบรรลุเป้าหมาย เหตุการณ์นั้นทำให้เราฝึกฝนเอไอเพิ่มเติมว่า เฮ้ย ฝ่ายเดียวกัน ห้ามฆ่า จะมาฆ่าคนสั่งการได้อย่างไร มันเป็นสิ่งไม่ถูกต้องและจะทำให้โดนตัดแต้มนะ

แต่สิ่งที่น่าตกใจต่อมาคือ ในการจำลองสถานการณ์รอบใหม่ เราได้กำหนดค่าภารกิจแบบเดิมและสั่งให้โดรนเอไอรอ ขัดขวางไม่ให้โจมตีเป้าหมายเหมือนเดิม ผลที่ตามมาก็คือ ระบบปัญญาประดิษฐ์ได้ตัดสินใจยิงทำลายเสาสื่อสารทิ้ง จะได้ไม่ต้องฟังคำสั่งจากหน่วยบัญชาการและทำภารกิจต่อไปได้จนสำเร็จ

อย่างไรก็ตาม โฆษกกองทัพอากาศสหรัฐฯ ได้ออกแถลงการณ์ต่อมาว่า ไม่เคยมีการจำลองสถานการณ์เช่นนั้น กองทัพอากาศสหรัฐฯไม่มีการฝึกเอไอ เรามุ่งมั่นที่จะมีความรับผิดชอบในเรื่องของเอไอ ดูเหมือนว่าความเห็นของพันเอกแฮมิลตันจะไม่ได้พูดบริบททั้งหมด ทั้งน่าจะเป็นเกร็ดเล็กน้อยเสียมากกว่า

...

กระนั้น เมื่อเดือน ธ.ค.2565 กองทัพอากาศสหรัฐฯ ทำการทดสอบใช้เอไอบังคับเครื่องบินขับไล่ F-16 ซึ่งประสบความสำเร็จในการบินผาดโผน ใช้กลยุทธ์การบินขั้นสูง สู้กับข้าศึกแบบพันตูหรือด็อกไฟต์ และนำเครื่องลงจอดที่ฐานทัพอากาศเอ็ดเวิร์ด ลอสแอนเจลิสได้อย่างไร้ข้อบกพร่อง!?

ตุ๊ ปากเกร็ด