ปัญญาประดิษฐ์จะเข้าใจอารมณ์ของมนุษย์หรือไม่?

คุณรู้สึกอย่างไรกับการบำบัดด้วยหุ่นยนต์? เครื่องจักรที่ฉลาดทางอารมณ์อาจอยู่ไม่ไกลอย่างที่คิด ในช่วงสองสามทศวรรษที่ผ่านมา ปัญญาประดิษฐ์ (AI) สามารถอ่านปฏิกิริยาทางอารมณ์ในมนุษย์ได้ดียิ่งขึ้น

แต่การอ่านไม่เท่ากับความเข้าใจ ถ้า AI ไม่สามารถสัมผัสอารมณ์ได้เอง พวกเขาจะเข้าใจเราจริงหรือไม่? และถ้าไม่ใช่ จะมีความเสี่ยงที่เรากำหนดคุณสมบัติของหุ่นยนต์ที่พวกเขาไม่มีหรือไม่?

AI รุ่นล่าสุดเกิดขึ้นจากข้อมูลที่เพิ่มขึ้นสำหรับคอมพิวเตอร์ในการเรียนรู้ ตลอดจนพลังการประมวลผลที่ได้รับการปรับปรุง เครื่องจักรเหล่านี้มีการแข่งขันกันมากขึ้นในงานที่มองว่าเป็นมนุษย์มาโดยตลอด

ปัจจุบัน AI สามารถ จดจำใบหน้า, เปลี่ยนรูปหน้าเป็นรูปถ่าย, จำคำพูด และ เล่น Go.

ระบุอาชญากร

เมื่อเร็ว ๆ นี้นักวิจัยได้พัฒนา AI ที่สามารถบอกได้ว่าบุคคลนั้นเป็นอาชญากรหรือไม่เพียงแค่ดูจากใบหน้าของพวกเขา ระบบได้รับการประเมินโดยใช้ฐานข้อมูลภาพถ่ายบัตรประชาชนจีนและ ผลลัพธ์ กำลังกรามลดลง AI ได้จัดหมวดหมู่ผู้บริสุทธิ์เป็นอาชญากรอย่างผิดพลาดในประมาณ 6% ของคดีทั้งหมด ในขณะที่สามารถระบุอาชญากรได้ประมาณ 83% ได้สำเร็จ สิ่งนี้นำไปสู่ความแม่นยำโดยรวมที่ส่ายเกือบ 90%

ระบบนี้ใช้แนวทางที่เรียกว่า "การเรียนรู้อย่างลึกซึ้ง" ซึ่งประสบความสำเร็จในงานด้านการรับรู้ เช่น การจดจำใบหน้า ในที่นี้ การเรียนรู้เชิงลึกร่วมกับ “แบบจำลองการหมุนใบหน้า” ช่วยให้ AI สามารถตรวจสอบว่าภาพถ่ายใบหน้าสองภาพเป็นตัวแทนของบุคคลเดียวกันหรือไม่ แม้ว่าแสงหรือมุมจะเปลี่ยนไประหว่างภาพถ่ายก็ตาม


กราฟิกสมัครสมาชิกภายในตัวเอง


เรียนรู้อย่างลึกซึ้ง สร้าง "โครงข่ายประสาทเทียม" ซึ่งจำลองมาจากสมองของมนุษย์อย่างหลวมๆ ประกอบด้วยเซลล์ประสาทหลายแสนเซลล์ที่จัดอยู่ในชั้นต่างๆ แต่ละเลเยอร์จะเปลี่ยนอินพุต เช่น ภาพใบหน้า ให้เป็นนามธรรมในระดับที่สูงขึ้น เช่น ชุดขอบที่ทิศทางและตำแหน่งที่แน่นอน ซึ่งจะเน้นย้ำคุณลักษณะที่เกี่ยวข้องกับการปฏิบัติงานที่กำหนดมากที่สุดโดยอัตโนมัติ

จากความสำเร็จของการเรียนรู้เชิงลึก จึงไม่น่าแปลกใจที่โครงข่ายประสาทเทียมสามารถแยกแยะอาชญากรออกจากผู้ที่ไม่ใช่อาชญากรได้ หากมีลักษณะใบหน้าที่สามารถแยกแยะระหว่างพวกเขาได้จริงๆ การวิจัยชี้ให้เห็นว่ามีสาม มุมหนึ่งคือมุมระหว่างปลายจมูกกับมุมปาก ซึ่งเล็กลงโดยเฉลี่ย 19.6% สำหรับอาชญากร ความโค้งของริมฝีปากบนนั้นใหญ่ขึ้นโดยเฉลี่ย 23.4% สำหรับอาชญากรในขณะที่ระยะห่างระหว่างมุมด้านในของดวงตานั้นแคบลงโดยเฉลี่ย 5.6%

ได้อย่างรวดเร็วก่อน การวิเคราะห์นี้ดูเหมือนว่าจะแนะนำว่า มุมมองที่ล้าสมัย ว่าอาชญากรสามารถระบุลักษณะทางกายภาพได้ไม่ผิดทั้งหมด อย่างไรก็ตาม มันอาจจะไม่ใช่เรื่องราวทั้งหมด เป็นที่น่าสนใจว่าคุณลักษณะที่เกี่ยวข้องมากที่สุดสองประการเกี่ยวข้องกับริมฝีปาก ซึ่งเป็นลักษณะใบหน้าที่แสดงออกมากที่สุดของเรา ภาพถ่ายติดบัตร เช่น ภาพถ่ายที่ใช้ในการศึกษาจำเป็นต้องมีการแสดงออกทางสีหน้า แต่อาจเป็นไปได้ว่า AI สามารถค้นหาอารมณ์ที่ซ่อนอยู่ในภาพถ่ายเหล่านั้นได้ สิ่งเหล่านี้อาจเล็กน้อยมากจนมนุษย์อาจสังเกตเห็นได้ยาก

เป็นการยากที่จะต้านทานการล่อลวงให้ดูภาพตัวอย่างที่แสดงในกระดาษ ซึ่งยังไม่ได้รับการตรวจสอบจากเพื่อน อันที่จริง การมองอย่างระมัดระวังเผยให้เห็นรอยยิ้มเล็กน้อยในภาพถ่ายของผู้ที่ไม่ใช่อาชญากร – ดูด้วยตัวคุณเอง. แต่มีภาพถ่ายตัวอย่างเพียงไม่กี่ภาพเท่านั้น ดังนั้นเราจึงไม่สามารถสรุปข้อสรุปของเรากับฐานข้อมูลทั้งหมดได้

พลังของการคำนวณทางอารมณ์

นี่จะไม่ใช่ครั้งแรกที่คอมพิวเตอร์สามารถรับรู้อารมณ์ของมนุษย์ได้ เขตข้อมูลที่เรียกว่า “คอมพิวเตอร์อารมณ์” มีมาหลายปีแล้ว เป็นที่ถกเถียงกันอยู่ว่าหากเราต้องการใช้ชีวิตและโต้ตอบกับหุ่นยนต์อย่างสะดวกสบาย เครื่องจักรเหล่านี้ควรจะสามารถเข้าใจและตอบสนองต่ออารมณ์ของมนุษย์ได้อย่างเหมาะสม มีงานมากมายในพื้นที่ และความเป็นไปได้ก็มีมากมาย

ตัวอย่างเช่น นักวิจัยได้ใช้การวิเคราะห์ใบหน้าเพื่อ จุดที่ดิ้นรนนักเรียน ในการติวคอมพิวเตอร์ AI ได้รับการฝึกฝนให้รู้จักระดับความผูกพันและความขุ่นเคืองในระดับต่างๆ เพื่อให้ระบบทราบเมื่อนักเรียนพบว่างานง่ายหรือยากเกินไป เทคโนโลยีนี้อาจเป็นประโยชน์ในการปรับปรุงประสบการณ์การเรียนรู้ในแพลตฟอร์มออนไลน์

AI ยังถูกนำมาใช้เพื่อ ตรวจจับอารมณ์ตามเสียงของเรา โดย บริษัท ที่เรียกว่า BeyondVerbal. พวกเขาได้ผลิตซอฟต์แวร์ที่วิเคราะห์การปรับเสียงและค้นหารูปแบบเฉพาะในวิธีที่ผู้คนพูด บริษัทอ้างว่าสามารถระบุอารมณ์ได้อย่างถูกต้องแม่นยำ 80% ในอนาคต เทคโนโลยีประเภทนี้อาจช่วยให้บุคคลออทิสติกสามารถระบุอารมณ์ได้

Sony ยังพยายามพัฒนาหุ่นยนต์ สามารถสร้างความผูกพันทางอารมณ์ กับคน ไม่มีข้อมูลมากนักว่าพวกเขาตั้งใจจะบรรลุเป้าหมายนั้นอย่างไร หรือหุ่นยนต์จะทำอะไรกันแน่ อย่างไรก็ตามพวกเขากล่าวว่าพวกเขาพยายามที่จะ "รวมฮาร์ดแวร์และบริการเพื่อมอบประสบการณ์ที่น่าสนใจทางอารมณ์"

AI ที่ฉลาดทางอารมณ์มีประโยชน์หลายประการ ไม่ว่าจะเป็นการให้เพื่อนหรือเพื่อช่วยเราทำงานบางอย่าง ตั้งแต่การสอบสวนอาชญากรไปจนถึงการบำบัดด้วยการพูดคุย

แต่ยังมีปัญหาด้านจริยธรรมและความเสี่ยงที่เกี่ยวข้อง ถูกต้องหรือไม่ที่จะให้ผู้ป่วยที่มีภาวะสมองเสื่อมพึ่งพา AI สหายและเชื่อว่ามีชีวิตทางอารมณ์เมื่อไม่มี? และคุณสามารถตัดสินลงโทษบุคคลโดยอิงจาก AI ที่จัดประเภทพวกเขาว่ามีความผิดได้หรือไม่? เห็นได้ชัดว่าไม่ ในทางกลับกัน เมื่อระบบเช่นนี้ได้รับการปรับปรุงเพิ่มเติมและประเมินผลอย่างเต็มที่แล้ว การใช้งานที่อาจเป็นประโยชน์และอันตรายน้อยกว่าก็อาจเป็นการกระตุ้นให้มีการตรวจสอบบุคคลที่ AI พิจารณาว่า "น่าสงสัย" เพิ่มเติม

แล้วเราควรคาดหวังอะไรจาก AI ในอนาคต? หัวข้ออัตนัยเช่นอารมณ์และความรู้สึกยังคงเป็นเรื่องยากสำหรับ AI ในการเรียนรู้ ส่วนหนึ่งเป็นเพราะ AI อาจไม่สามารถเข้าถึงข้อมูลที่ดีพอที่จะวิเคราะห์ได้อย่างเป็นกลาง ตัวอย่างเช่น AI สามารถเข้าใจการเสียดสีได้หรือไม่? ประโยคที่กำหนดอาจประชดประชันเมื่อพูดในบริบทหนึ่ง แต่ไม่ใช่ในอีกบริบทหนึ่ง

ทว่าปริมาณข้อมูลและพลังการประมวลผลยังคงเพิ่มขึ้นอย่างต่อเนื่อง ด้วยข้อยกเว้นบางประการ AI อาจสามารถจับคู่มนุษย์ในการจดจำอารมณ์ประเภทต่างๆ ในอีกไม่กี่ทศวรรษข้างหน้า แต่การที่ AI จะประสบกับอารมณ์ได้หรือไม่นั้นก็คือ ประเด็นขัดแย้ง. แม้ว่าพวกเขาจะทำได้ แต่ก็อาจมีอารมณ์ที่พวกเขาไม่เคยสัมผัสมาก่อน ทำให้ยากที่จะเข้าใจพวกเขาอย่างแท้จริง

สนทนา

เกี่ยวกับผู้เขียน

Leandro Minku อาจารย์ด้านวิทยาการคอมพิวเตอร์ มหาวิทยาลัยเลสเตอร์

บทความนี้ถูกเผยแพร่เมื่อวันที่ สนทนา. อ่าน บทความต้นฉบับ.

หนังสือที่เกี่ยวข้อง:

at ตลาดภายในและอเมซอน