3 วิธีที่ Facebook สามารถลดข่าวปลอมได้

ประชาชนได้รับมากของมัน ข่าวสารและข้อมูลจาก Facebook. บางส่วนเป็นของปลอม ที่สร้างปัญหาให้กับผู้ใช้เว็บไซต์และตัวบริษัทเอง

Mark Zuckerberg ผู้ร่วมก่อตั้งและประธานของ Facebook กล่าวว่าบริษัทจะหาวิธีแก้ไขปัญหา แม้ว่าเขาจะไม่ได้รับทราบถึงความรุนแรงของปัญหาก็ตาม และโดยปราศจากการประชดประชัน พระองค์ทรงประกาศนี้ใน โพสต์ Facebook ล้อมรอบ – อย่างน้อยสำหรับผู้ชมบางคน – โดยรายการข่าวลวง.

บริษัทอื่นๆ ที่ใช้เทคโนโลยีเป็นเจ้าแรกซึ่งมีอำนาจคล้ายคลึงกันในการที่สาธารณชนรับทราบ เช่น Google ได้ทำงานอย่างหนักตลอดหลายปีที่ผ่านมาเพื่อ ลดระดับข้อมูลคุณภาพต่ำ ในผลการค้นหา แต่ Facebook ไม่ได้ทำการเคลื่อนไหวที่คล้ายกันเพื่อช่วยเหลือผู้ใช้

Facebook สามารถทำอะไรได้บ้างเพื่อให้เป็นไปตามภาระผูกพันทางสังคมในการแยกแยะข้อเท็จจริงจากนิยายสำหรับ 70% ของผู้ใช้อินเทอร์เน็ต ใครเข้าเฟสบุ๊ค? หากเว็บไซต์มีผู้คนรับข่าวสารเพิ่มขึ้นเรื่อยๆ บริษัทจะทำอะไรได้บ้างโดยไม่รับหน้าที่เป็นผู้ชี้ขาดความจริงขั้นสุดท้าย งานของฉันในฐานะศาสตราจารย์ด้านการศึกษาข้อมูลแนะนำว่ามีทางเลือกอย่างน้อยสามทาง

บทบาทของเฟสบุ๊ค

Facebook บอกว่ามันคือ บริษัทเทคโนโลยี ไม่ใช่บริษัทสื่อ. แรงจูงใจหลักของบริษัทคือกำไร มากกว่า a เป้าหมายที่สูงขึ้น เช่นการผลิตข้อมูลคุณภาพสูงเพื่อช่วยเหลือประชาชนในการดำเนินการอย่างรอบรู้ในโลก

อย่างไรก็ตาม การโพสต์บนเว็บไซต์และการสนทนารอบข้างทั้งทางออนไลน์และออฟไลน์นั้นเพิ่มขึ้นเรื่อยๆ เกี่ยวข้องกับวาทกรรมสาธารณะของเรา และวาระทางการเมืองของชาติ ด้วยเหตุนี้ บริษัทจึงมีภาระผูกพันทางสังคมในการใช้เทคโนโลยีของตนเพื่อพัฒนาความดีส่วนรวม


กราฟิกสมัครสมาชิกภายในตัวเอง


อย่างไรก็ตาม การแยกแยะความจริงจากความเท็จอาจเป็นเรื่องที่น่ากังวล Facebook ไม่ได้อยู่คนเดียวใน ทำให้เกิดความกังวลเกี่ยวกับความสามารถของมัน – และของบริษัทเทคโนโลยีอื่นๆ – เพื่อตัดสินคุณภาพของข่าว ผู้อำนวยการของ FactCheck.orgกลุ่มตรวจสอบข้อเท็จจริงที่ไม่แสวงหากำไรที่มหาวิทยาลัยเพนซิลเวเนีย บอกกับ Bloomberg News ว่า การอ้างสิทธิ์และเรื่องราวมากมายไม่ได้เท็จทั้งหมด. หลายคนมี เมล็ดแห่งความจริงแม้ว่าจะมีการใช้ถ้อยคำที่ทำให้เข้าใจผิดมากก็ตาม แล้ว Facebook ทำอะไรได้บ้าง?

ตัวเลือกที่ 1: การสะกิด

ทางเลือกหนึ่งที่ Facebook สามารถนำมาใช้ได้นั้นเกี่ยวข้องกับการใช้รายการที่มีอยู่ซึ่งระบุการคัดกรองล่วงหน้าที่เชื่อถือได้และ เว็บไซต์ข่าวปลอม. ไซต์สามารถแจ้งเตือนผู้ที่ต้องการแบ่งปันบทความที่มีปัญหาว่าแหล่งที่มาของบทความเป็นที่น่าสงสัย

ตัวอย่างเช่น นักพัฒนาซอฟต์แวร์รายหนึ่งได้สร้างส่วนขยายสำหรับเบราว์เซอร์ Chrome ที่ระบุว่าเมื่อใดที่เว็บไซต์ คุณกำลังดูอาจเป็นของปลอม (เขาเรียกมันว่า “BS Detector”) ในแฮกกาธอน 36 ชั่วโมง นักศึกษากลุ่มหนึ่ง สร้างส่วนขยายเบราว์เซอร์ Chrome ที่คล้ายกัน ที่ระบุว่าเว็บไซต์ที่บทความนั้นมาจากนั้นอยู่ในรายชื่อเว็บไซต์ที่เชื่อถือได้ที่ได้รับการยืนยันหรือไม่ได้รับการยืนยันแทน

ส่วนขยายเหล่านี้แสดงการแจ้งเตือนในขณะที่ผู้คนกำลังเลื่อนดูฟีดข่าวของตน ในปัจจุบัน สิ่งเหล่านี้ไม่ได้ทำงานเป็นส่วนหนึ่งของ Facebook โดยตรง การรวมเข้าด้วยกันจะมอบประสบการณ์ที่ราบรื่นยิ่งขึ้น และจะทำให้บริการนี้พร้อมใช้งานสำหรับผู้ใช้ Facebook ทุกคน นอกเหนือจากการติดตั้งส่วนขยายบนคอมพิวเตอร์ของตนเอง

บริษัทยังสามารถใช้ข้อมูลที่ส่วนขยายสร้าง – หรือแหล่งข้อมูล – เพื่อเตือนผู้ใช้ก่อนที่จะแบ่งปันข้อมูลที่ไม่น่าเชื่อถือ ในโลกของการออกแบบซอฟต์แวร์นี้เรียกว่า “ดุน” ระบบเตือนจะตรวจสอบพฤติกรรมของผู้ใช้และแจ้งผู้คนหรือให้ข้อเสนอแนะเพื่อช่วยเปลี่ยนแปลงการกระทำของพวกเขาเมื่อใช้ซอฟต์แวร์

สิ่งนี้เคยทำมาก่อนเพื่อวัตถุประสงค์อื่น ตัวอย่างเช่น เพื่อนร่วมงานของฉันที่มหาวิทยาลัยซีราคิวส์ สร้างแอปพลิเคชั่นสะกิด ที่ตรวจสอบสิ่งที่ผู้ใช้ Facebook เขียนในโพสต์ใหม่ การแจ้งเตือนจะปรากฏขึ้นหากเนื้อหาที่เขียนเป็นสิ่งที่พวกเขาอาจเสียใจ เช่น ข้อความแสดงความโกรธที่มีคำสบถ

ความงามของการสะกิดเป็นวิธีที่อ่อนโยน แต่มีประสิทธิภาพในการเตือนผู้คนเกี่ยวกับพฤติกรรม เพื่อช่วยพวกเขาแล้วเปลี่ยนพฤติกรรมนั้น งานวิจัยที่ได้ทดสอบการใช้การสะกิดเพื่อ ปรับปรุงพฤติกรรมที่ดีต่อสุขภาพตัวอย่างเช่น พบว่าผู้คนมีแนวโน้มที่จะเปลี่ยนอาหารและออกกำลังกายตามคำเตือนและคำแนะนำที่อ่อนโยน การสะกิดอาจมีประสิทธิภาพเพราะให้ผู้คนควบคุมได้ในขณะเดียวกันก็ให้ข้อมูลที่เป็นประโยชน์แก่พวกเขาด้วย ในที่สุดผู้รับการสะกิดยังคงตัดสินใจว่าจะใช้ผลตอบรับที่ให้มาหรือไม่ การสะกิดไม่รู้สึกบังคับ แทน, พวกเขากำลังเสริมอำนาจ.

ตัวเลือกที่ 2: Crowdsourcing

Facebook ยังสามารถใช้พลังของ Crowdsourcing เพื่อช่วยประเมินแหล่งข่าวและระบุว่าเมื่อใดที่ข่าวที่แบ่งปันได้รับการประเมินและให้คะแนน ความท้าทายที่สำคัญอย่างหนึ่งของข่าวลวงคือการที่สมองของเราเชื่อมต่อกัน เรามีทางลัดทางใจที่เรียกว่า อคติทางปัญญาซึ่งช่วยให้เราตัดสินใจเมื่อเรามีข้อมูลไม่เพียงพอ (เราไม่เคยทำ) หรือมีเวลาเพียงพอ (เราไม่เคยทำ) โดยทั่วไป ทางลัดเหล่านี้ใช้ได้ผลดีสำหรับเราเมื่อเราตัดสินใจทุกอย่างตั้งแต่เส้นทางที่จะขับไปที่ทำงานไปจนถึงรถที่จะซื้อ แต่บางครั้งมันก็ทำให้เราล้มเหลว การตกเป็นข่าวปลอมเป็นหนึ่งในกรณีเหล่านั้น

สิ่งนี้สามารถเกิดขึ้นได้กับทุกคน - แม้แต่ฉัน ในฤดูกาลแรก ฉันกำลังติดตามแฮชแท็ก Twitter ซึ่งโดนัลด์ ทรัมป์ ผู้สมัครหลักในขณะนั้นทวีต ข้อความปรากฏว่าฉันพบว่าน่าตกใจ ฉันรีทวีตด้วยความคิดเห็นเยาะเย้ยความไม่พอใจ วันต่อมา ฉันรู้ว่าทวีตนั้นมาจากบัญชีล้อเลียนที่ดูเหมือนชื่อแฮนเดิลของ Twitter ของทรัมป์ แต่มีจดหมายฉบับหนึ่งเปลี่ยน

พลาดเพราะหลงมา ยืนยันอคติ – แนวโน้มที่จะมองข้ามข้อมูลบางอย่างเพราะมันขัดต่อความคาดหวัง การคาดการณ์ หรือลางสังหรณ์ของฉัน ในกรณีนี้ ฉันไม่ได้สนใจเสียงเล็กๆ นั้นที่บอกฉันว่าทวีตนี้เกินจริงไปเล็กน้อยสำหรับทรัมป์ เพราะฉันเชื่อว่าเขาสามารถสร้างข้อความที่ไม่เหมาะสมยิ่งขึ้นไปอีก ข่าวปลอมก็หลอกหลอนเราเหมือนกัน

อีกปัญหาหนึ่งของข่าวลวงคือมันสามารถไปได้ไกลกว่าการแก้ไขใดๆ ที่อาจเกิดขึ้นในภายหลัง ซึ่งคล้ายกับความท้าทายที่มักจะต้องเผชิญกับห้องข่าวเมื่อพวกเขาได้รายงานข้อมูลที่ผิดพลาด แม้ว่าพวกเขาจะเผยแพร่การแก้ไข แต่บ่อยครั้งผู้ที่เปิดเผยข้อมูลที่ไม่ถูกต้องในตอนแรกจะไม่เห็นการอัปเดต ดังนั้นจึงไม่รู้ว่าสิ่งที่พวกเขาอ่านก่อนหน้านี้ไม่ถูกต้อง นอกจากนี้ ผู้คนมักจะยึดถือข้อมูลแรกที่พวกเขาพบ การแก้ไขสามารถย้อนกลับได้ โดยการทำซ้ำข้อมูลที่ไม่ถูกต้องและตอกย้ำข้อผิดพลาดในใจของผู้อ่าน

หากผู้คนประเมินข้อมูลขณะอ่านและแบ่งปันการให้คะแนน คะแนนความจริง เช่น การสะกิด อาจเป็นส่วนหนึ่งของแอปพลิเคชัน Facebook ที่สามารถช่วยให้ผู้ใช้ตัดสินใจด้วยตนเองว่าจะอ่าน แบ่งปัน หรือเพิกเฉย ความท้าทายประการหนึ่งของ crowdsourcing คือผู้คนสามารถเล่นเกมระบบเหล่านี้เพื่อพยายามผลักดันผลลัพธ์ที่มีอคติ แต่ความสวยงามของ Crowdsourcing ก็คือ ฝูงชนยังสามารถให้คะแนนผู้ประเมิน เช่นเดียวกับที่เกิดขึ้นบน Reddit หรือกับบทวิจารณ์ของ Amazon เพื่อลดผลกระทบและน้ำหนักของผู้ก่อปัญหา

ตัวเลือกที่ 3: อัลกอริธึมระยะห่างทางสังคม

วิธีที่สามที่ Facebook สามารถช่วยได้คือการลดอคติของอัลกอริทึมที่มีอยู่ใน Facebook ในปัจจุบัน ไซต์ดังกล่าวแสดงโพสต์จากผู้ที่คุณมีส่วนร่วมบน Facebook เป็นหลัก กล่าวอีกนัยหนึ่ง อัลกอริธึมของ Facebook สร้างสิ่งที่บางคนเรียกว่า a ฟองอากาศกรอง, ปรากฏการณ์ข่าวออนไลน์ที่มี นักวิชาการที่เกี่ยวข้อง มานานหลายทศวรรษแล้ว หากคุณเปิดโปงเฉพาะกับคนที่มีความคิดเหมือนของคุณเอง มันจะนำไปสู่ โพลาไรซ์ทางการเมือง: พวกเสรีนิยมมีความสุดโต่งมากขึ้นในลัทธิเสรีนิยมของพวกเขา และพวกอนุรักษ์นิยมก็จะอนุรักษ์นิยมมากขึ้น

ฟองอากาศตัวกรองสร้าง "ห้องสะท้อน" ที่ความคิดที่คล้ายกันเด้งไปมาไม่รู้จบ แต่มีข้อมูลใหม่ มีความยากลำบากในการหาทางเข้า. นี่เป็นปัญหาเมื่อห้องสะท้อนเสียงปิดกั้นข้อมูลการแก้ไขหรือการตรวจสอบข้อเท็จจริง

หาก Facebook ต้องเปิดข่าวเพิ่มเติมเพื่อเข้าสู่ฟีดข่าวของบุคคลจากกลุ่มคนแบบสุ่มในเครือข่ายสังคมของพวกเขา มันจะเพิ่มโอกาสที่ข้อมูลใหม่ ข้อมูลทางเลือก และข้อมูลขัดแย้งจะไหลภายในเครือข่ายนั้น จำนวนเฉลี่ยของ เพื่อนในเครือข่ายของผู้ใช้ Facebook คือ 338. แม้ว่าพวกเราหลายคนจะมีเพื่อนและครอบครัวที่แบ่งปันค่านิยมและความเชื่อของเรา แต่เราก็มีคนรู้จักและคนแปลกหน้าซึ่งเป็นส่วนหนึ่งของเครือข่าย Facebook ของเราซึ่งมีมุมมองที่ไม่เห็นด้วย หากอัลกอริทึมของ Facebook นำมุมมองเหล่านั้นมาสู่เครือข่ายของเรามากขึ้น ฟองอากาศของตัวกรองจะมีรูพรุนมากขึ้น

ตัวเลือกทั้งหมดเหล่านี้อยู่ในความสามารถของวิศวกรและนักวิจัยของ Facebook พวกเขาจะให้อำนาจผู้ใช้ในการตัดสินใจที่ดีขึ้นเกี่ยวกับข้อมูลที่พวกเขาเลือกอ่านและแบ่งปันกับเครือข่ายสังคมของพวกเขา ในฐานะที่เป็นแพลตฟอร์มชั้นนำสำหรับการเผยแพร่ข้อมูลและสร้างวัฒนธรรมทางสังคมและการเมืองผ่านการพูดคุยและการแบ่งปันข้อมูล Facebook ไม่จำเป็นต้องเป็นผู้ตัดสินความจริงขั้นสุดท้าย แต่สามารถใช้พลังของเครือข่ายโซเชียลของตนเพื่อช่วยให้ผู้ใช้วัดมูลค่าของสินค้าท่ามกลางกระแสเนื้อหาที่พวกเขาเผชิญ

สนทนา

เกี่ยวกับผู้เขียน

Jennifer Stromer-Galley ศาสตราจารย์ด้านสารสนเทศศึกษา มหาวิทยาลัยซีราคิวส์

บทความนี้ถูกเผยแพร่เมื่อวันที่ สนทนา. อ่าน บทความต้นฉบับ.

หนังสือที่เกี่ยวข้อง:

at ตลาดภายในและอเมซอน