ผลการศึกษาของสถาบันวิจัยมักซ์ พลังค์ ระบุว่าการใช้ ChatGPT ได้เปลี่ยนแพทเทิร์นการพูดของมนุษย์โดยมีลักษณะคล้ายกับปัญญาประดิษฐ์มากขึ้น
สถาบันมักซ์ พลังค์ เพื่อการพัฒนามนุษย์ (Max Planck Institute for Human Development) ในกรุงเบอร์ลิน ประเทศเยอรมนี เปิดเผยผลการศึกษาล่าสุดพบว่า มนุษย์กำลังเริ่มใช้ภาษาและมีรูปแบบการพูดคล้ายกับปัญญาประดิษฐ์มากขึ้นเรื่อยๆ ซึ่งปรากฏการณ์นี้สวนทางกับแนวคิดเดิมที่มีมาก่อนหน้านี้ว่า AI อาจมีลักษณะเป็นมนุษย์มากขึ้น แต่ตอนนี้กลับกลายเป็นว่ามนุษย์เองที่กำลังรับเอาลักษณะของหุ่นยนต์มาใช้
การศึกษาของสถาบันมักซ์ พลังค์ ตรวจพบว่า มนุษย์มีการใช้คำศัพท์ที่ ChatGPT นิยมใช้เป็นพิเศษเช่นคำว่า delve, comprehend, boast, swift หรือคำว่า meticulous ซึ่งผลการวิจัยนี้ชี้ให้เห็นถึงสถานการณ์ที่เครื่องจักร แต่เดิมถูกฝึกฝนจากข้อมูลของมนุษย์ ได้แสดงลักษณะทางวัฒนธรรมของตัวเองออกมา และในทางกลับกัน ก็สามารถเปลี่ยนแปลงวัฒนธรรมของมนุษย์ได้อย่างมีนัยสำคัญ
นักวิจัยทราบดีว่าสำนวนของ ChatGPT ได้ส่งผลต่อภาษาเขียนและเปลี่ยนคลังศัพท์ของมนุษย์ อย่างไรก็ดี การวิเคราะห์ครั้งนี้ของสถาบันมักซ์ พลังค์ มุ่งเน้นไปที่ภาษาพูดในการสนทนา โดยในขั้นแรก นักวิจัยได้ให้ ChatGPT แก้ไขและขัดเกลาเนื้อหาจากอีเมล เอกสารทางวิชาการ และบทความข่าวหลายล้านหน้า เพื่อค้นหาคำศัพท์ที่ ChatGPT เลือกใช้บ่อย
จากนั้น พวกเขาได้วิเคราะห์วิดีโอบนยูทูบกว่า 360,000 คลิป และพอดแคสต์กว่า 771,000 ตอน ทั้งก่อนและหลังการเปิดตัวของ ChatGPT แล้วเปรียบเทียบความถี่ในการใช้คำศัพท์ที่แชทบอทโปรดปรานข้างต้น ผลปรากฏว่าในช่วง 18 เดือนนับตั้งแต่ ChatGPT เปิดตัวขึ้นมา มีการใช้คำเหล่านี้เพิ่มขึ้นอย่างก้าวกระโดด ซึ่งไม่ใช่แค่ในวิดีโอและพอดแคสต์ที่มีสคริปต์เท่านั้น แต่ยังรวมถึงบทสนทนาในชีวิตประจำวันด้วย
...
แม้ว่าการที่ผู้คนเปลี่ยนแปลงรูปแบบการพูดจะเป็นเรื่องปกติ เพราะอาจมาจากทั้งทีวีและภาพยนตร์ แต่การใช้ภาษาที่ได้รับอิทธิพลจาก AI เพิ่มขึ้นนี้มีความน่าสนใจด้วยเหตุผลหลายประการ
ในรายงานวิจัยระบุว่า การที่มนุษย์เลียนแบบการพูดของเครื่องจักรทำให้เกิดข้อกังวลเรื่องการสูญเสียความหลากหลายทางภาษาและวัฒนธรรม และความเสี่ยงของการชักจูง และเนื่องจาก AI ฝึกฝนจากข้อมูลของมนุษย์ที่เริ่มใช้คำศัพท์แบบ AI มากขึ้นเรื่อยๆ ผลกระทบนี้จึงมีแนวโน้มที่จะขยายตัวเป็นทวีคูณ
การใช้คำศัพท์ที่ AI โปรดปรานยังสะท้อนถึงความไว้วางใจที่ผู้คนมีต่อ AI มากขึ้น ทั้งที่เทคโนโลยีนี้ยังไม่สมบูรณ์แบบอาจให้ข้อมูลเท็จ หรือมีอาการหลอน (Hallucinate)
เลวิน บริงค์มานน์ หนึ่งในผู้เขียนงานวิจัยกล่าวว่า เป็นเรื่องปกติที่มนุษย์จะเลียนแบบซึ่งกันและกัน แต่มนุษย์ไม่ได้เลียนแบบทุกคนรอบตัวเท่าๆ กัน นั่นเป็นเพราะมนุษย์มีแนวโน้มที่จะลอกเลียนแบบพฤติกรรมของคนที่เรามองว่ามีความรู้หรือมีความสำคัญ
แม้ว่าการศึกษาของสถาบันมักซ์ พลังค์ จะเน้นไปที่ ChatGPT ก็จริง แต่คำศัพท์ที่แชทบอทโปรดปรานก็ไม่จำเป็นต้องเหมือนกับที่ AI ตัวอื่น ยกตัวอย่างเช่น ChatGPT มีแนวทางในการสื่อสารที่เป็นทางการและวิชาการ แต่ Gemini เน้นด้านการสื่อสาร โดยข้อเปรียบเทียบนี้เกิดขึ้นจากการใช้คำเกี่ยวกับโรคเบาหวาน Gemini จะใช้คำตรงๆ ว่าน้ำตาล (Sugar) แต่ ChatGPT จะใช้คำว่ากลูโคส (Glucose) เป็นต้น