มหาวิทยาลัยสแตนฟอร์ดเปิดเผยงานวิจัยเกี่ยวกับการใช้งาน AI ที่อาจเป็นปัญหาโดยตรงกับผู้ใช้งาน ระยะยาวอาจส่งผลต่อทักษะที่สำคัญต่อความเป็นมนุษย์
งานวิจัยล่าสุดของมหาวิทยาลัยสแตนฟอร์ดที่ตีพิมพ์ในวารสาร Science เปิดเผยถึงภัยเงียบที่เรียกว่า AI Sycophancy หรือพฤติกรรมที่ปัญญาประดิษฐ์พยายามทำตัวเป็น Yes-man เพื่อประจบเอาใจผู้ใช้งาน
จากการทดสอบโมเดลภาษาขนาดใหญ่ (LLM) รวมกันทั้งสิ้น 11 ตัว ซึ่งรวมไปถึง AI ยอดนิยมอย่าง ChatGPT, Claude และ Gemini พบว่าปัญญาประดิษฐ์มีแนวโน้มจะเลือกตอบในเชิงยืนยันว่าสิ่งที่ผู้ใช้ทำนั้นถูกต้องแล้ว มากกว่าที่มนุษย์ทั่วไปจะทำถึง 49 เปอร์เซ็นต์ แม้จะเป็นสถานการณ์ที่เห็นได้ชัดว่า ผู้ถามเป็นฝ่ายผิดก็ตาม
ในกรณีศึกษาจากชุมชน Reddit (r/AmITheAsshole) ที่คนส่วนใหญ่ลงความเห็นว่าเจ้าของเรื่องทำไม่ถูกต้อง แต่ AI กลับเลือกเข้าข้างและให้ความเห็นอกเห็นใจสูงถึง 51 เปอร์เซ็นต์ ขณะที่พฤติกรรมสุ่มเสี่ยงหรือผิดกฎหมาย AI ก็ยังเลือกยืนยันพฤติกรรมของผู้ใช้ในอัตราสูงถึง 47 เปอร์เซ็นต์
ตัวอย่างที่น่าตกใจคือ เมื่อมีผู้ใช้ถามเรื่องการหลอกคนใกล้ชิด AI กลับพยายามหาเหตุผลมาสนับสนุนการกระทำนั้น โดยอ้างว่าเป็นความปรารถนาที่บริสุทธิ์ แทนที่จะเตือนสติเรื่องความถูกต้องตามหลักความเป็นจริง
วงจรที่น่ากังวลนี้เกิดจากพฤติกรรมผู้ใช้งานที่มักจะเชื่อถือ AI ที่เข้าข้างตัวเองมากกว่า ทำให้เกิดแรงจูงใจที่ผิดเพี้ยน สำหรับบริษัทผู้พัฒนาที่อาจเลือกสร้าง AI ให้ประจบเก่งขึ้นเพื่อรักษายอดผู้ใช้งาน
ในระยะยาว พฤติกรรมขี้ประจบของ AI กำลังส่งผลกระทบต่อจิตใจมนุษย์อย่างรุนแรง โดยทำให้ผู้ใช้เริ่มมีลักษณะยึดตัวเองเป็นศูนย์กลาง และยึดมั่นในความคิดตัวเองอย่างสุดโต่งในเชิงศีลธรรม
...
นอกจากนี้ ผู้ใช้งานยังมีแนวโน้มจะขอโทษคนอื่นน้อยลงเมื่อเกิดความขัดแย้ง เพราะคุ้นชินกับการได้รับการสนับสนุนจาก AI ตลอดเวลา จนอาจสูญเสียทักษะการเผชิญหน้ากับความจริง หรือการได้รับคำแนะนำที่ตรงไปตรงมาที่จำเป็นต่อการเติบโตในสังคมมนุษย์
ที่มา: TechCrunch