AI Can Predict Whether Your Relationship Will Last Based On How You Speak To Your Partner

เด็กคนใด (หรือคู่สมรส) ที่ถูกดุเพราะน้ำเสียง เช่น การตะโกนหรือประชดประชัน รู้ว่า ทาง คุณคุยกับใครซักคนก็มีความสำคัญพอๆ กับ คำ ที่คุณใช้ นักพากย์และนักพากย์ใช้สิ่งนี้ได้อย่างดีเยี่ยม พวกเขามีทักษะในการให้ความหมายในแบบที่พวกเขาพูด ซึ่งบางครั้งอาจมากกว่าคำพูดเพียงอย่างเดียวที่สมควรได้รับ

แต่ข้อมูลที่มีอยู่ในน้ำเสียงและรูปแบบการสนทนาของเรานั้นส่งผลกระทบอย่างไรต่อความสัมพันธ์ของเรากับผู้อื่น? ระบบคอมพิวเตอร์สามารถสร้างได้แล้ว ที่ผู้คนมาจากเสียงของพวกเขาพวกเขาสามารถบอกอะไรเกี่ยวกับชีวิตรักของเราได้บ้าง? น่าแปลกใจที่ดูเหมือนว่า

การวิจัยใหม่ เพิ่งตีพิมพ์ในวารสาร PLOS-ONEได้วิเคราะห์ลักษณะเสียงร้องของคู่บ่าวสาวจำนวน 134 คู่ที่เข้ารับการบำบัด นักวิจัยจากมหาวิทยาลัยเซาเทิร์นแคลิฟอร์เนียใช้คอมพิวเตอร์เพื่อแยกคุณลักษณะการวิเคราะห์คำพูดมาตรฐานจากการบันทึกผู้เข้าร่วมการบำบัดในช่วงสองปี คุณสมบัติ – รวมถึง ขว้างการแปรผันของระดับเสียงและโทนเสียง – ทั้งหมดเกี่ยวข้องกับลักษณะของเสียง เช่น น้ำเสียงและความเข้มข้น

จากนั้นอัลกอริธึมการเรียนรู้ด้วยเครื่องได้รับการฝึกอบรมเพื่อเรียนรู้ความสัมพันธ์ระหว่างลักษณะเสียงร้องเหล่านั้นและผลลัพธ์สุดท้ายของการบำบัด สิ่งนี้ไม่ง่ายเหมือนการตรวจจับเสียงตะโกนหรือเสียงที่ดังขึ้น แต่รวมถึงการโต้ตอบของการสนทนาที่พูดเมื่อใดและนานแค่ไหน รวมไปถึงเสียงของเสียงนั้นด้วย ปรากฎว่าการเพิกเฉยต่อสิ่งที่กำลังพูดและพิจารณาเฉพาะรูปแบบการพูดเหล่านี้ก็เพียงพอแล้วที่จะทำนายว่าคู่รักจะอยู่ด้วยกันหรือไม่ นี่เป็นการขับเคลื่อนด้วยข้อมูลล้วนๆ ดังนั้นจึงไม่เกี่ยวข้องกับผลลัพธ์กับคุณลักษณะเฉพาะของเสียง

น้ำเสียงสามารถเปลี่ยนความหมายของคำสองสามคำได้อย่างไร

{youtube}https://youtu.be/GVqJtvRjuns{/youtube}


innerself subscribe graphic


ที่น่าสนใจคือ วิดีโอบันทึกการบำบัดแบบเต็มรูปแบบได้มอบให้แก่ผู้เชี่ยวชาญเพื่อจำแนกประเภท ต่างจาก AI พวกเขาคาดการณ์โดยใช้การประเมินทางจิตวิทยาโดยพิจารณาจากลักษณะเสียงร้อง (และอื่น ๆ ) ซึ่งรวมถึงคำพูดและภาษากาย น่าแปลกที่การทำนายผลลัพธ์ในที่สุด (ถูกต้องใน 75.6% ของกรณีทั้งหมด) นั้นด้อยกว่าการคาดคะเนของ AI โดยพิจารณาจากลักษณะเสียงร้องเท่านั้น (79.3%) เห็นได้ชัดว่ามีองค์ประกอบต่างๆ ที่เข้ารหัสในแบบที่เราพูด ซึ่งแม้แต่ผู้เชี่ยวชาญเองก็ไม่ทราบ แต่ผลลัพธ์ที่ดีที่สุดมาจากการรวมการประเมินอัตโนมัติกับการประเมินของผู้เชี่ยวชาญ (ถูกต้อง 79.6%)

ความสำคัญของสิ่งนี้ไม่ได้เกี่ยวข้องกับ AI ในการให้คำปรึกษาการแต่งงานหรือการให้คู่สามีภรรยาพูดจากันเองมากขึ้น ความสำคัญคือการเปิดเผยว่าข้อมูลเกี่ยวกับความรู้สึกที่ซ่อนอยู่ของเราถูกเข้ารหัสในวิธีที่เราพูดมากน้อยเพียงใด ซึ่งบางส่วนนั้นเราไม่รู้เลย

คำที่เขียนบนหน้าหรือหน้าจอมีความหมายคำศัพท์ที่ได้มาจากคำจำกัดความของพจนานุกรม สิ่งเหล่านี้ได้รับการแก้ไขโดยบริบทของคำโดยรอบ อาจมีความซับซ้อนมากในการเขียน แต่เมื่ออ่านออกเสียงคำ มันเป็นความจริงที่พวกเขาใช้ความหมายเพิ่มเติมที่สื่อถึงความหนักแน่นของคำ ปริมาณ อัตราการพูด และน้ำเสียง ในการสนทนาทั่วไป ยังหมายถึงระยะเวลาที่ผู้พูดแต่ละคนพูด และความรวดเร็วในการสนทนาของผู้พูดแต่ละคน

พิจารณาคำถามง่ายๆ ว่า “คุณเป็นใคร” ลองพูดแบบนี้โดยเน้นคำต่างๆ "ใคร เธอ?", "ใคร เป็น คุณ?" และ "ใคร NS?". ฟังทางนี้ – ความหมายเชิงความหมายสามารถเปลี่ยนแปลงได้ตามวิธีที่เราอ่านแม้ว่าคำจะยังเหมือนเดิมก็ตาม

คอมพิวเตอร์อ่าน 'ความรู้สึกรั่ว'?

ไม่น่าแปลกใจเลยที่คำต่างๆ จะสื่อความหมายที่แตกต่างกันไปขึ้นอยู่กับวิธีการพูด ไม่น่าแปลกใจเลยที่คอมพิวเตอร์สามารถตีความความหมายเบื้องหลังวิธีที่เราเลือกพูดได้ (บางทีสักวันหนึ่งพวกเขาจะสามารถ เข้าใจประชด).

แต่งานวิจัยชิ้นนี้มีความสำคัญมากกว่าแค่การดูความหมายที่ถ่ายทอดโดยประโยค ดูเหมือนว่าจะเปิดเผยทัศนคติและความคิดที่ซ่อนอยู่เบื้องหลังประโยค นี่เป็นระดับความเข้าใจที่ลึกซึ้งยิ่งขึ้น

ผู้เข้าร่วมการบำบัดไม่ได้อ่านคำเหมือนนักแสดง พวกเขากำลังพูดคุยอย่างเป็นธรรมชาติ – หรือเป็นธรรมชาติที่สุดเท่าที่จะทำได้ในสำนักงานของนักบำบัดโรค และการวิเคราะห์ยังเปิดเผยข้อมูลเกี่ยวกับความรู้สึกร่วมกันว่า "รั่วไหล" ในคำพูดโดยไม่ได้ตั้งใจ นี่อาจเป็นขั้นตอนแรกในการใช้คอมพิวเตอร์เพื่อกำหนดสิ่งที่เราคิดหรือรู้สึกจริงๆ ลองนึกภาพสักครู่ว่ากำลังสนทนากับสมาร์ทโฟนในอนาคต เราจะ "รั่วไหล" ข้อมูลที่พวกเขาสามารถรับได้หรือไม่? พวกเขาจะตอบสนองอย่างไร?

พวกเขาสามารถแนะนำเราเกี่ยวกับคู่ค้าที่มีศักยภาพโดยการฟังเราพูดคุยกันหรือไม่? พวกเขาสามารถตรวจพบแนวโน้มต่อพฤติกรรมต่อต้านสังคม ความรุนแรง ความซึมเศร้า หรือเงื่อนไขอื่นๆ ได้หรือไม่ คงไม่เป็นการก้าวกระโดดของจินตนาการที่จะจินตนาการถึง อุปกรณ์ตัวเองในฐานะนักบำบัดในอนาคต – มีปฏิสัมพันธ์กับเราในรูปแบบต่างๆ เพื่อติดตามประสิทธิภาพของการแทรกแซงที่พวกเขากำลังดำเนินการ

อย่าเพิ่งกังวลไป เพราะเราอยู่ห่างจากอนาคตเช่นนี้หลายปี แต่มันกลับเพิ่มขึ้น ปัญหาความเป็นส่วนตัวโดยเฉพาะอย่างยิ่งเมื่อเราโต้ตอบกับคอมพิวเตอร์อย่างลึกซึ้งยิ่งขึ้นพร้อมๆ กับที่พวกมันมีประสิทธิภาพมากขึ้นในการวิเคราะห์โลกรอบตัว

The Conversationเมื่อเราหยุดพิจารณาประสาทสัมผัสอื่น ๆ ของมนุษย์นอกเหนือจากเสียง (คำพูด); บางทีเราอาจให้ข้อมูลรั่วไหลผ่านสายตา (เช่น ภาษากาย หน้าแดง) สัมผัส (อุณหภูมิและการเคลื่อนไหว) หรือแม้แต่กลิ่น (ฟีโรโมน) ถ้าสมาร์ทดีไวซ์สามารถเรียนรู้ได้มากมายจากการฟังวิธีที่เราพูด คนๆ หนึ่งจะแปลกใจ พวกมันสามารถเก็บสะสมจากประสาทสัมผัสอื่นๆ ได้มากเพียงใด.

เกี่ยวกับผู้เขียน

Ian McLoughlin ศาสตราจารย์ด้านคอมพิวเตอร์ หัวหน้าโรงเรียน (Medway) มหาวิทยาลัยเคนท์

บทความนี้ถูกเผยแพร่เมื่อวันที่ สนทนา. อ่าน บทความต้นฉบับ.

หนังสือที่เกี่ยวข้อง:

at ตลาดภายในและอเมซอน