ปัญหาของ Facebook นั้นซับซ้อนกว่าข่าวปลอม

จากชัยชนะที่คาดไม่ถึงของโดนัลด์ ทรัมป์ หลายคน หางานทั่วไปที่เกี่ยวข้อง ได้รับการยกขึ้นเกี่ยวกับบทบาทของ Facebook ใน การส่งเสริมข้อมูลที่ไม่ถูกต้องและมีพรรคพวกสูง ระหว่างการแข่งขันชิงตำแหน่งประธานาธิบดีและข่าวปลอมนี้มีอิทธิพลต่อผลการเลือกตั้งหรือไม่

ไม่กี่ได้มองข้าม ผลกระทบของ Facebook รวมถึง Mark Zuckerberg CEO ที่กล่าวว่ามันคือ “ไม่น่าเป็นไปได้อย่างยิ่ง” ข่าวปลอมอาจทำให้การเลือกตั้งสั่นคลอน แต่คำถามเกี่ยวกับความสำคัญทางการเมืองของโซเชียลเน็ตเวิร์กนั้นมีประโยชน์มากกว่าการให้ความสนใจ

ทำ Facebook's อัลกอริทึมการกรอง อธิบายว่าเหตุใดพวกเสรีนิยมจำนวนมากจึงพลาดความมั่นใจในชัยชนะของคลินตัน (สะท้อนข้อผิดพลาดที่ทำโดย กองเชียร์รอมนีย์ในปี 2012)? และคือ ข่าวปลอมที่กำลังเผยแพร่บน Facebook เหตุผลที่ผู้สนับสนุนทรัมป์จำนวนมากได้รับรองข้อความเท็จโดยผู้สมัครของพวกเขา?

การกล่าวอ้างที่ได้รับความนิยมว่า “ตัวกรองฟองอากาศ” เป็นสาเหตุที่ข่าวปลอมเติบโตบน Facebook นั้นเกือบจะผิดอย่างแน่นอน หากเครือข่ายสนับสนุนให้ผู้คนเชื่อเรื่องเท็จ และนั่นก็เป็นเรื่องใหญ่ หากปัญหาอยู่ที่ว่าแพลตฟอร์มมีปฏิสัมพันธ์กับแนวโน้มทางสังคมขั้นพื้นฐานของมนุษย์อย่างไร มันยากกว่ามากที่จะเปลี่ยนแปลง

ประชาชนเข้าใจผิด

บทบาทของ Facebook ในการเผยแพร่ข่าวการเมืองไม่อาจปฏิเสธได้ ในเดือนพฤษภาคม 2016 44 เปอร์เซ็นต์ของชาวอเมริกัน กล่าวว่าพวกเขาได้รับข่าวจากเว็บไซต์โซเชียลมีเดีย และความแพร่หลายของข้อมูลเท็จที่เผยแพร่ผ่านเฟสบุ๊คคือ ปฏิเสธไม่ได้.


กราฟิกสมัครสมาชิกภายในตัวเอง


เป็นไปได้ว่าจำนวนข่าวปลอมบนแพลตฟอร์มที่คนจำนวนมากได้รับข่าวของพวกเขาสามารถช่วยอธิบายได้ว่าทำไม ชาวอเมริกันจำนวนมากเข้าใจผิดเกี่ยวกับการเมือง.

แต่มันยากที่จะบอกว่าสิ่งนี้เป็นไปได้มากน้อยเพียงใด ฉันเริ่มศึกษาบทบาทของอินเทอร์เน็ตในการส่งเสริมความเชื่อที่ผิดๆ ระหว่างการเลือกตั้งปี 2008 โดยหันความสนใจไปที่โซเชียลมีเดียในปี 2012 ในการค้นคว้าอย่างต่อเนื่อง ฉันพบหลักฐานที่สอดคล้องกันเพียงเล็กน้อยว่าโซเชียลมีเดียใช้ส่งเสริมการยอมรับการกล่าวอ้างที่เป็นเท็จเกี่ยวกับผู้สมัครรับเลือกตั้ง แม้ว่า ความไม่จริงมีอยู่มากมาย. แต่ปรากฏว่าในปี 2012 เช่นเดียวกับปี 2008 อีเมลยังคงเป็นสื่อกลางที่ทรงพลังไม่เหมือนใคร สำหรับทฤษฎีการโกหกและสมรู้ร่วมคิด สื่อสังคมออนไลน์ไม่มีผลกระทบที่น่าเชื่อถือต่อความเชื่อของผู้คน

อย่างไรก็ตาม สักครู่ สมมุติว่าปี 2016 แตกต่างจากปี 2012 และ 2008 (การเลือกตั้งมีความพิเศษในด้านอื่นๆ อีกมาก)

หาก Facebook กำลังส่งเสริมแพลตฟอร์มที่ประชาชนไม่สามารถแยกแยะความจริงจากนิยายได้ มันจะเป็นภัยคุกคามร้ายแรงต่อระบอบประชาธิปไตยของอเมริกา. แต่การตั้งชื่อปัญหาไม่เพียงพอ เพื่อต่อสู้กับกระแสข้อมูลเท็จผ่านโซเชียลมีเดีย สิ่งสำคัญคือต้องเข้าใจว่าทำไมมันถึงเกิดขึ้น

อย่าโทษฟองกรอง

Facebook ต้องการให้ผู้ใช้มีส่วนร่วม ไม่ถูกครอบงำ ดังนั้นจึงใช้ซอฟต์แวร์ที่เป็นกรรมสิทธิ์ซึ่งกรองฟีดข่าวของผู้ใช้และเลือกเนื้อหาที่จะปรากฏ ความเสี่ยงอยู่ที่วิธีการตัดเย็บนี้

มีหลักฐานเพียบ ที่ผู้คนสนใจข่าวที่ยืนยันมุมมองทางการเมืองของตน ซอฟต์แวร์ของ Facebook เรียนรู้จากการกระทำในอดีตของผู้ใช้ มันพยายามเดาว่าเรื่องราวใดที่พวกเขามีแนวโน้มที่จะคลิกหรือแบ่งปันในอนาคต เมื่อพิจารณาถึงขีดสุด นี้จะทำให้เกิด ฟองอากาศกรองซึ่งผู้ใช้จะเห็นเฉพาะเนื้อหาที่ยืนยันอคติของตนอีกครั้งเท่านั้น ความเสี่ยงก็คือว่า ฟองกรองส่งเสริมความเข้าใจผิด โดยปกปิดความจริง

การอุทธรณ์ของคำอธิบายนี้ชัดเจน เข้าใจง่าย ดังนั้นอาจจะแก้ไขได้ง่าย กำจัดฟีดข่าวส่วนบุคคลและฟองอากาศกรองจะไม่มีอีกต่อไป

ปัญหาของอุปมาของตัวกรองฟองสบู่คือ สมมติว่าผู้คนถูกหุ้มฉนวนอย่างสมบูรณ์จากมุมมองอื่นๆ ในความเป็นจริง, มากมาย การศึกษา มี แสดง อาหารที่สื่อของแต่ละบุคคลมักจะรวมข้อมูลและแหล่งข้อมูลที่ท้าทายทัศนคติทางการเมืองของพวกเขา และการศึกษาข้อมูลผู้ใช้เฟสบุ๊ค พบว่าการเผชิญหน้าข้อมูลตัดขวางเป็นที่แพร่หลาย กล่าวอีกนัยหนึ่ง การถือความเชื่อผิดๆ ไม่น่าจะได้รับการอธิบายโดยผู้คน ขาดการติดต่อกับข่าวที่ถูกต้องมากขึ้น.

แทน ที่ประชาชนมีตัวตนทางการเมืองมาก่อน หล่อหลอมความเชื่อของพวกเขาอย่างลึกซึ้ง. ดังนั้นแม้ต้องเผชิญกับข้อมูลเดียวกัน ไม่ว่าจะเป็น หัวข้อข่าว หรือ ตรวจสอบข้อเท็จจริงคนที่มีทิศทางทางการเมืองต่างกันมักจะแยกความหมายที่ต่างกันออกไปอย่างมาก

การทดลองทางความคิดอาจช่วยได้: หากคุณเป็นผู้สนับสนุนคลินตัน คุณทราบหรือไม่ว่าไซต์ทำนายผล FiveThirtyEight ที่ได้รับความเคารพอย่างสูง ให้คลินตันมีโอกาสชนะเพียง 71 เปอร์เซ็นต์เท่านั้น? อัตราต่อรองเหล่านั้นดีกว่าการพลิกเหรียญ แต่ยังห่างไกลจากสิ่งที่แน่นอน ฉันสงสัยว่าพรรคเดโมแครตหลายคนตกใจแม้จะเห็นหลักฐานที่ไม่สบายใจนี้ อย่างแท้จริง, หลายคนวิพากษ์วิจารณ์การคาดการณ์นี้ ในวันก่อนการเลือกตั้ง

หากคุณโหวตให้ทรัมป์ คุณเคยเจอหลักฐานที่โต้แย้งคำยืนยันของทรัมป์ว่าการฉ้อโกงผู้มีสิทธิเลือกตั้งเป็นเรื่องธรรมดาในสหรัฐอเมริกาหรือไม่ ตัวตรวจสอบข้อเท็จจริง และ องค์กรข่าวสาร ได้กล่าวถึงปัญหานี้อย่างกว้างขวาง โดยเสนอหลักฐานที่ชัดเจนว่าข้อเรียกร้องนั้นไม่เป็นความจริง อย่างไรก็ตาม ผู้สนับสนุนทรัมป์อาจไม่เคลื่อนไหว: ในแบบสำรวจความคิดเห็น กันยายน 201690 เปอร์เซ็นต์ของผู้สนับสนุนทรัมป์กล่าวว่าพวกเขาไม่เชื่อถือผู้ตรวจสอบข้อเท็จจริง

เฟสบุ๊ค = โกรธพรรคพวก?

หากการแยกจากความจริงเป็นแหล่งข้อมูลหลักที่ไม่ถูกต้องจริงๆ วิธีแก้ปัญหาก็ชัดเจน: ทำให้ความจริงปรากฏชัดเจนขึ้น

น่าเสียดายที่คำตอบนั้นไม่ง่ายนัก ซึ่งทำให้เรากลับมาที่คำถามของ Facebook: มีแง่มุมอื่น ๆ ของบริการที่อาจบิดเบือนความเชื่อของผู้ใช้หรือไม่?

ต้องใช้เวลาสักระยะกว่าที่นักวิจัยจะตอบคำถามนี้ได้อย่างมั่นใจ แต่ในฐานะคนที่ศึกษาวิธีต่างๆ ที่เทคโนโลยีอินเทอร์เน็ตอื่นๆ สามารถชักนำให้ผู้คนเชื่อข้อมูลเท็จได้ ฉันก็พร้อมที่จะเสนอการเดาที่มีการศึกษามาบ้างแล้ว

มีสองสิ่งที่เรารู้อยู่แล้วเกี่ยวกับ Facebook ที่สามารถสนับสนุนการแพร่กระจายของข้อมูลเท็จ

ประการแรก อารมณ์สามารถติดต่อได้ และสามารถแพร่กระจายบน Facebook ได้ ผลการศึกษาขนาดใหญ่ชิ้นหนึ่งแสดงให้เห็นว่าการเปลี่ยนแปลงเล็กน้อยในฟีดข่าวของผู้ใช้ Facebook สามารถกำหนดอารมณ์ที่แสดงในโพสต์ในภายหลังได้. ในการศึกษาครั้งนั้น การเปลี่ยนแปลงทางอารมณ์มีเพียงเล็กน้อย แต่การเปลี่ยนแปลงในฟีดข่าวก็เช่นกัน ลองนึกภาพว่าผู้ใช้ Facebook ตอบสนองต่อข้อกล่าวหาอย่างกว้างขวางเกี่ยวกับการทุจริตของผู้สมัคร กิจกรรมทางอาญา และการโกหกของผู้สมัครอย่างไร ไม่แปลกใจเลยที่ เกือบครึ่ง (49 เปอร์เซ็นต์) ของผู้ใช้ทั้งหมดอธิบายว่าการสนทนาทางการเมืองบนโซเชียลมีเดียนั้น “โกรธ”

เมื่อพูดถึงการเมือง ความโกรธเป็นอารมณ์ที่ทรงพลัง ได้แสดงให้คนเห็น เต็มใจยอมรับความเท็จของพรรคพวกมากขึ้น และมีแนวโน้มที่จะโพสต์และแบ่งปันมากขึ้น ข้อมูลทางการเมืองสันนิษฐานว่ารวมถึงบทความข่าวปลอมที่ตอกย้ำความเชื่อของพวกเขา หากการใช้ Facebook ทำให้พรรคพวกโกรธในขณะที่ยังเผยให้เห็นถึงความเท็จของพรรคพวก การทำให้มั่นใจว่าข้อมูลที่ถูกต้องมีอยู่จริงอาจไม่สำคัญมากนัก พรรครีพับลิกันหรือเดโมแครต คนขี้โมโหมักไว้วางใจข้อมูลที่ทำให้ฝ่ายตนดูดี

ประการที่สอง Facebook ดูเหมือนจะตอกย้ำอัตลักษณ์ทางการเมืองของผู้คน – ขยายวงกว้างขึ้นแล้ว แบ่งพรรคพวก. แม้ว่า Facebook จะไม่ปกป้องผู้คนจากข้อมูลที่พวกเขาไม่เห็นด้วย แต่ก็ช่วยให้ค้นหาผู้ที่มีความคิดเหมือนกันได้ง่ายขึ้น โซเชียลเน็ตเวิร์กของเรา มีแนวโน้มที่จะรวมผู้คนจำนวนมากที่มีค่านิยมและความเชื่อของเราร่วมกัน. และนี่อาจเป็นอีกทางหนึ่งที่ Facebook กำลังตอกย้ำความเท็จที่มีแรงจูงใจทางการเมือง ความเชื่อมักทำหน้าที่ทางสังคม ช่วยให้ผู้คนกำหนดได้ว่าพวกเขาเป็นใครและเหมาะสมกับโลกอย่างไร ยิ่งคนมองตัวเองในแง่การเมืองได้ง่ายขึ้นเท่าไร พวกเขาก็ยิ่งยึดติดกับความเชื่อที่ยืนยันตัวตนนั้นมากขึ้นเท่านั้น

ปัจจัยทั้งสองนี้ – วิธีที่ความโกรธสามารถแพร่กระจายไปทั่วเครือข่ายโซเชียลของ Facebook และวิธีที่เครือข่ายเหล่านั้นสามารถทำให้อัตลักษณ์ทางการเมืองของบุคคลเป็นศูนย์กลางมากขึ้นว่าพวกเขาเป็นใคร – มีแนวโน้มที่จะอธิบายความเชื่อที่ไม่ถูกต้องของผู้ใช้ Facebook ได้อย่างมีประสิทธิภาพมากกว่าสิ่งที่เรียกว่าฟองสบู่

หากนี่เป็นเรื่องจริง เราก็มีความท้าทายที่รออยู่ข้างหน้า Facebook มีแนวโน้มที่จะเปลี่ยนอัลกอริธึมการกรองเพื่อจัดลำดับความสำคัญของข้อมูลที่แม่นยำยิ่งขึ้น Google ได้แล้ว ได้ดำเนินการคล้ายคลึงกัน. และรายงานล่าสุดชี้ให้เห็นว่า Facebook อาจเป็น จริงจังกับปัญหามากขึ้น กว่าความคิดเห็นของ Zuckerberg ที่แนะนำ

แต่สิ่งนี้ไม่ได้ช่วยอะไรในการจัดการกับพลังแฝงที่เผยแพร่และส่งเสริมข้อมูลเท็จ: อารมณ์และผู้คนในเครือข่ายสังคมของคุณ และไม่ชัดเจนว่าคุณลักษณะเหล่านี้ของ Facebook สามารถหรือควร "แก้ไข" เครือข่ายทางสังคมที่ปราศจากอารมณ์ดูเหมือนจะเป็นความขัดแย้ง และการรักษาที่บุคคลโต้ตอบด้วยไม่ใช่สิ่งที่สังคมของเราควรยอมรับ

อาจเป็นเพราะเฟสบุ๊คแชร์ บาง ของการตำหนิสำหรับ บาง ของการโกหกที่แพร่ระบาดในปีการเลือกตั้งนี้ – และพวกเขาเปลี่ยนแนวทางการเลือกตั้ง

หากเป็นจริง ความท้าทายคือการค้นหาว่าเราจะทำอะไรได้บ้าง

สนทนา

เกี่ยวกับผู้เขียน

อาร์. เคลลี่ การ์เรตต์, รองศาสตราจารย์แห่งการสื่อสาร, มหาวิทยาลัยโอไฮโอสเตต

บทความนี้ถูกเผยแพร่เมื่อวันที่ สนทนา. อ่าน บทความต้นฉบับ.

หนังสือที่เกี่ยวข้อง

at ตลาดภายในและอเมซอน