
Anthropic ปฏิเสธการใช้ AI Claude ในการสอดส่องประชาชนและอาวุธอัตโนมัติ ทำให้เกิดความขัดแย้งกับ DoD
สัปดาห์ที่ผ่านมา วงการเทคโนโลยีและความมั่นคงของสหรัฐฯ สั่นสะเทือนจากความขัดแย้งระหว่าง Anthropic ผู้พัฒนาโมเดล AI “Claude” กับ กระทรวงกลาโหมสหรัฐฯ หรือ Department of Defense (DoD) จนลุกลามกลายเป็นประเด็นระดับชาติว่า “ใครควรมีอำนาจควบคุม AI ที่ทรงพลังที่สุดในโลกในทางทหาร” บริษัทผู้พัฒนาหรือรัฐบาลที่สามารถใช้กฎหมายกดดันผู้พัฒนาเมื่อต้องการนำไปใช้งาน
ฤดูร้อน 2025 จุดเริ่มต้นความร่วมมือ
มกราคม 2026 ปฏิบัติการจับ Nicolás Maduro
กุมภาพันธ์ 2026 ความตึงเครียดมาถึงจุดเดือด
อย่างไรก็ตามไม่กี่ชั่วโมงหลัง Anthropic ถูกตัดออกก็มีรายงานว่า OpenAI ประกาศบรรลุข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ โดยซีอีโอ Sam Altman ระบุว่า โมเดลของบริษัทจะถูกใช้งานต่อไปในเครือข่ายทางทหารระดับลับสุดยอดของกระทรวงแทน โดยย้ำว่า OpenAI ยังคงมี “เส้นแดง” เหมือน Anthropic ได้แก่ ห้ามใช้เพื่อสอดส่องประชาชนในวงกว้างและต้องมีความรับผิดชอบของมนุษย์ในการใช้กำลังร้ายแรง
ขณะเดียวกันรายงานจากสื่อหลายสำนัก ระบุว่า กองบัญชาการกลางของสหรัฐฯ (U.S. Central Command) ยังคงใช้ AI ของ Anthropic อยู่แม้ทรัมป์เพิ่งสั่งแบนไม่กี่ชั่วโมงก่อนหน้าในปฏิบัติการโจมตีอิหร่าน
โดยระบุว่าในช่วงที่สหรัฐฯ และอิสราเอลทำการโจมตีอิหร่าน Claude ถูกนำไปใช้ในด้านข่าวกรอง การเลือกเป้าหมาย และจำลองสนามรบ การใช้เครื่องมือ AI ในระดับนี้สะท้อนให้เห็นว่า ระบบ AI ถูกฝังอยู่เป็นส่วนสำคัญของการวางแผนปฏิบัติการทางทหารมากกว่าที่หลายคนคิด และไม่สามารถยุติการใช้งานได้ทันทีเพียงคำสั่งเดียว เพราะต้องมีการถอดออกจากระบบที่ซับซ้อนก่อน
ประเด็นดังกล่าวถูกวิพากษ์วิจารณ์ถึงจริยธรรมในการใช้เทคโนโลยีเป็นวงกว้าง จากมุมมองของ Anthropic ที่เคยระบุไว้ชัดเจนว่า AI แตกต่างจากอาวุธหรือเทคโนโลยีทางทหารแบบดั้งเดิม เพราะมีความสามารถเรียนรู้ วิเคราะห์ และตัดสินใจในระดับที่อาจสร้างผลกระทบวงกว้างและรวดเร็ว
Anthropic วางตัวเป็นบริษัท AI ที่ยึดหลักความปลอดภัยและจริยธรรม ส่วนรัฐบาลทรัมป์เดินหน้าแนวทางเร่งพัฒนา AI ทางทหารแบบทุ่มสรรพกำลังทุกวิถีทาง แนวทางของกระทรวงกลาโหมที่เคยกล่าวไว้ในปี 2023 ระบุว่า ระบบ AI สามารถเลือกและโจมตีเป้าหมายได้โดยไม่ต้องมีมนุษย์แทรกแซงโดยตรง หากผ่านการตรวจสอบตามขั้นตอน จุดนี้เองทำให้ Anthropic กังวลว่า หากโมเดลของตนถูกนำไปใช้ในระบบลับทางทหาร สาธารณชนอาจไม่รับรู้จนกว่าจะเกิดขึ้นจริง
บริษัทไม่ได้ปฏิเสธการใช้งานด้านความมั่นคงโดยสิ้นเชิง แต่เห็นว่าโมเดลในปัจจุบันยังไม่พร้อมพอสำหรับภารกิจที่มีเดิมพันชีวิตสูง เช่น การตัดสินใจโจมตีเป้าหมายแบบเสี้ยววินาที และอีกประเด็นสำคัญ คือ การใช้ AI ในการเฝ้าระวังข้อมูลประชาชน ซึ่งแม้กฎหมายปัจจุบันเปิดช่องให้มีการเก็บข้อมูลบางประเภท แต่ AI สามารถยกระดับเป็นการวิเคราะห์เชิงพฤติกรรมแบบต่อเนื่อง การจับแพตเทิร์นข้ามฐานข้อมูล และการประเมินความเสี่ยงแบบอัตโนมัติในวงกว้าง
หลายฝ่ายตั้งคำถามการตัดสินใจของกระทรวงกลาโหมสหรัฐฯ ว่าทำไมถึงยอมรับเงื่อนไขของ OpenAI แต่ไม่ยอมรับของ Anthropic ขณะที่เจ้าหน้าที่รัฐบางรายก่อนหน้านี้วิจารณ์ว่า Anthropic กังวลเรื่องความปลอดภัยมากเกินไป
นี่ไม่ใช่ความขัดแย้งที่ฝ่ายใดจะถอนตัวได้ง่าย ๆ หาก Anthropic ถูกตัดขาดจากตลาดภาครัฐอย่างถาวร อาจกระทบธุรกิจอย่างรุนแรง แต่หากกระทรวงกลาโหมสหรัฐฯ สูญเสียการเข้าถึงโมเดลที่ล้ำหน้าที่สุดก็อาจเกิดช่องว่างด้านความมั่นคงระหว่างรอผู้เล่นรายอื่นพัฒนาเทคโนโลยีตามทัน
เหตุการณ์นี้สะท้อนความตึงเครียดเชิงโครงสร้างระหว่าง ค่านิยมด้านความปลอดภัยของบริษัท AI ที่ไม่ต้องการให้โมเดลถูกใช้เพื่อการก่อความรุนแรงหรือสอดส่องโดยไม่มีมนุษย์ควบคุม และความต้องการของรัฐบาลและกองทัพที่ต้องการหาประโยชน์จากเทคโนโลยีที่ทันสมัยที่สุดเพื่อเพิ่มประสิทธิภาพทางยุทธศาสตร์
นำไปสู่คำถามใหญ่ของจุดสมดุลในยุคที่ AI กลายเป็นโครงสร้างพื้นฐานด้านความมั่นคง, ความปลอดภัยของมนุษยชาติ, สิทธิมนุษยชน และการควบคุมเทคโนโลยีแห่งอนาคต ใครควรกำหนดขอบเขตจริยธรรม ความขัดแย้งนี้อาจกลายเป็นแม่แบบใหม่ของความสัมพันธ์ระหว่างบิ๊กเทคกับกองทัพ จุดเริ่มต้นของสมการอำนาจใหม่ระหว่างอุตสาหกรรม AI กับรัฐบาลทั่วโลกในอนาคตหลังจากนี้
อ่านเพิ่มเติม
ที่มาข้อมูล WSJ , CNBC [1] [2] , Techcrunch , CNN
ติดตามเพจ Facebook : Thairath Money ได้ที่ลิงก์นี้ -