นโปเลียนสามารถเรียนรู้จากอดีต ภาพวาดโดย Adolph Northen/wikipedia
เป็นความคิดโบราณที่ไม่รู้ประวัติศาสตร์ทำให้คนทำซ้ำ อย่างที่หลายๆ คนได้กล่าวไว้ สิ่งเดียวที่เราเรียนรู้จากประวัติศาสตร์ก็คือเราแทบไม่ได้เรียนรู้อะไรจากประวัติศาสตร์เลย ผู้คนมีส่วนร่วมใน สงครามทางบกในเอเชีย ซ้ำแล้วซ้ำเล่า. พวกเขายังทำซ้ำความผิดพลาดในการออกเดทครั้งแล้วครั้งเล่า แต่ทำไมสิ่งนี้ถึงเกิดขึ้น? และเทคโนโลยีจะหมดสิ้นไปหรือไม่?
ปัญหาหนึ่งคือการหลงลืมและ “สายตาสั้น”: เราไม่เห็นว่าเหตุการณ์ในอดีตเกี่ยวข้องกับเหตุการณ์ปัจจุบันอย่างไรโดยมองข้ามรูปแบบการแฉ นโปเลียนน่าจะสังเกตเห็นความคล้ายคลึงกันระหว่างการเดินทัพที่มอสโคว์กับกษัตริย์สวีเดน ความพยายามที่ล้มเหลวของ Charles XII ที่จะทำเช่นเดียวกัน ประมาณหนึ่งศตวรรษก่อนหน้าเขา
นอกจากนี้เรายัง เรียนไม่เก่ง เมื่อมีสิ่งผิดพลาด แทนที่จะพิจารณาว่าเหตุใดการตัดสินใจจึงผิดพลาดและจะหลีกเลี่ยงไม่ให้เกิดขึ้นอีกได้อย่างไร เรามักพยายามเพิกเฉยต่อเหตุการณ์พลิกผันที่น่าอับอาย ซึ่งหมายความว่าครั้งต่อไปที่สถานการณ์คล้ายกันเกิดขึ้น เราจะไม่เห็นความคล้ายคลึงนั้น – และทำผิดซ้ำอีก
ทั้งคู่เปิดเผยปัญหาเกี่ยวกับข้อมูล ในกรณีแรก เราไม่สามารถจดจำข้อมูลส่วนบุคคลหรือข้อมูลในอดีตได้ ประการที่สอง เราไม่สามารถเข้ารหัสข้อมูลเมื่อมีให้
ที่กล่าวว่าเรายังทำผิดพลาดเมื่อเราไม่สามารถอนุมานได้อย่างมีประสิทธิภาพว่าจะเกิดอะไรขึ้น บางทีสถานการณ์อาจซับซ้อนเกินไปหรือใช้เวลานานเกินกว่าจะคิด หรือเรามีความลำเอียงที่จะตีความสิ่งที่เกิดขึ้นผิดไป
พลังที่น่ารำคาญของเทคโนโลยี
แต่เทคโนโลยีสามารถช่วยเราได้อย่างแน่นอน? ตอนนี้เราสามารถเก็บข้อมูลนอกสมองของเราได้ และใช้คอมพิวเตอร์เพื่อเรียกค้นข้อมูลนั้น นั่นน่าจะทำให้การเรียนรู้และการจดจำเป็นเรื่องง่ายใช่ไหม?
การจัดเก็บข้อมูลจะมีประโยชน์เมื่อสามารถดึงกลับมาใช้ได้ดี แต่การจดจำนั้นไม่เหมือนกับการดึงไฟล์จากตำแหน่งหรือวันที่ที่รู้จัก การจดจำเกี่ยวข้องกับการสังเกตสิ่งที่คล้ายคลึงกันและนำสิ่งที่นึกถึง
ปัญญาประดิษฐ์ (AI) ยังต้องสามารถนำความคล้ายคลึงกันมาสู่จิตใจของเราได้เอง ซึ่งมักเป็นความคล้ายคลึงกันที่ไม่พึงปรารถนา แต่ถ้ามันเก่งในการสังเกตสิ่งที่คล้ายกันที่เป็นไปได้ (หลังจากนั้น มันสามารถค้นหาอินเทอร์เน็ตทั้งหมดและข้อมูลส่วนตัวทั้งหมดของเรา) มันมักจะสังเกตเห็นสิ่งที่ผิดพลาด
สำหรับวันที่ล้มเหลว อาจสังเกตว่าพวกเขาทั้งหมดเกี่ยวข้องกับอาหารค่ำ แต่มันไม่เคยรับประทานอาหารที่เป็นปัญหา และเป็นเรื่องบังเอิญที่มีดอกทิวลิปอยู่บนโต๊ะ - ไม่มีเหตุผลที่จะหลีกเลี่ยง
นั่นหมายความว่ามันจะเตือนเราเกี่ยวกับสิ่งที่เราไม่สนใจ ซึ่งอาจจะเป็นเรื่องที่น่ารำคาญ การปรับความไวลงหมายถึงการเพิ่มความเสี่ยงที่จะไม่ได้รับคำเตือนเมื่อจำเป็น
นี่เป็นปัญหาพื้นฐานและใช้ได้กับที่ปรึกษาทุกคน: ที่ปรึกษาที่ระมัดระวังจะร้องไห้บ่อยเกินไป ที่ปรึกษาที่มองโลกในแง่ดีจะพลาดความเสี่ยง
ที่ปรึกษาที่ดีคือคนที่เราไว้วางใจ พวกเขามีความระมัดระวังในระดับเดียวกับเรา และเรารู้ว่าพวกเขารู้ว่าเราต้องการอะไร สิ่งนี้ยากที่จะพบในที่ปรึกษาที่เป็นมนุษย์ และยิ่งกว่านั้นใน AI
เทคโนโลยีหยุดความผิดพลาดตรงไหน? งานพิสูจน์คนงี่เง่า เครื่องตัดต้องการให้คุณกดปุ่มค้างไว้โดยให้มืออยู่ห่างจากใบมีด "สวิตช์ของคนตาย" จะหยุดเครื่องจักรหากผู้ปฏิบัติงานไร้ความสามารถ
เตาไมโครเวฟจะปิดการแผ่รังสีเมื่อเปิดประตู ในการยิงขีปนาวุธ คนสองคนต้องหมุนกุญแจพร้อมกันทั่วทั้งห้อง ที่นี่ การออกแบบอย่างรอบคอบทำให้เกิดความผิดพลาดได้ยาก แต่เราไม่สนใจมากพอเกี่ยวกับสถานการณ์ที่สำคัญน้อยกว่า ทำให้การออกแบบมีการป้องกันงี่เง่าน้อยลงมาก
เมื่อเทคโนโลยีทำงานได้ดี เรามักจะไว้วางใจเทคโนโลยีมากเกินไป นักบินของสายการบินมีชั่วโมงบินจริงน้อยกว่าในอดีตเนื่องจากประสิทธิภาพที่น่าทึ่งของระบบนักบินอัตโนมัติ นี่เป็นข่าวร้ายเมื่อระบบขับเคลื่อนอัตโนมัติล้มเหลว และนักบินมีประสบการณ์น้อยกว่าในการดำเนินการแก้ไขสถานการณ์
ครั้งแรกของก แท่นขุดเจาะน้ำมันสายพันธุ์ใหม่ (Sleipnir A) จมลง เนื่องจากวิศวกรเชื่อถือการคำนวณซอฟต์แวร์ของแรงที่กระทำกับมัน โมเดลไม่ถูกต้อง แต่นำเสนอผลลัพธ์ในลักษณะที่น่าสนใจซึ่งดูน่าเชื่อถือ
เทคโนโลยีส่วนใหญ่ของเรามีความน่าเชื่อถืออย่างน่าอัศจรรย์ ตัวอย่างเช่น เราไม่ได้สังเกตว่ามีการพบแพ็กเก็ตข้อมูลที่สูญหายบนอินเทอร์เน็ตอยู่เบื้องหลังตลอดเวลา วิธีที่รหัสแก้ไขข้อผิดพลาดขจัดสัญญาณรบกวน หรือฟิวส์และความซ้ำซ้อนทำให้เครื่องใช้ไฟฟ้าปลอดภัยได้อย่างไร
แต่เมื่อเราซ้อนกันในระดับแล้วระดับความซับซ้อน มันดูไม่น่าเชื่อถือเอามากๆ เราจะสังเกตเห็นเมื่อวิดีโอ Zoom ล่าช้า โปรแกรม AI ตอบผิด หรือคอมพิวเตอร์ขัดข้อง แต่ลองถามใครก็ตามที่ใช้คอมพิวเตอร์หรือรถยนต์เมื่อ 50 ปีที่แล้วว่าทำงานอย่างไร แล้วคุณจะทราบว่าทั้งมีประสิทธิภาพน้อยกว่าและเชื่อถือได้น้อยกว่า
เราทำให้เทคโนโลยีซับซ้อนมากขึ้นจนน่ารำคาญหรือไม่ปลอดภัยที่จะใช้ เมื่อชิ้นส่วนต่างๆ ดีขึ้นและเชื่อถือได้มากขึ้น เรามักเลือกที่จะเพิ่มคุณลักษณะใหม่ๆ ที่น่าตื่นเต้นและมีประโยชน์มากกว่าที่จะยึดติดกับสิ่งที่ได้ผล ในที่สุดสิ่งนี้ทำให้เทคโนโลยีมีความน่าเชื่อถือน้อยกว่าที่ควรจะเป็น
ความผิดพลาดจะเกิดขึ้น
นี่คือเหตุผลที่ AI เป็นดาบสองคมในการหลีกเลี่ยงข้อผิดพลาด ระบบอัตโนมัติมักจะทำให้สิ่งต่างๆ ปลอดภัยและมีประสิทธิภาพมากขึ้นเมื่อทำงาน แต่เมื่อทำงานล้มเหลว ก็จะทำให้ปัญหาใหญ่ขึ้น ความเป็นอิสระหมายความว่าซอฟต์แวร์อัจฉริยะสามารถเสริมความคิดของเราและปลดภาระเราได้ แต่เมื่อมันไม่ได้คิดอย่างที่เราต้องการ มันสามารถทำงานผิดปกติได้
ยิ่งซับซ้อนมากเท่าไหร่ ความผิดพลาดก็ยิ่งมหัศจรรย์มากเท่านั้น ใครก็ตามที่เคยติดต่อกับนักวิชาการที่มีความฉลาดสูงจะรู้ว่าพวกเขาสามารถทำให้สิ่งต่างๆ ยุ่งเหยิงด้วยความเฉลียวฉลาดได้มากเพียงใดเมื่อสามัญสำนึกของพวกเขาล้มเหลว และ AI ก็มีสามัญสำนึกแบบมนุษย์น้อยมาก
นี่เป็นเหตุผลที่ลึกซึ้งที่ต้องกังวลเกี่ยวกับ AI ที่ชี้นำการตัดสินใจ: พวกเขาทำผิดพลาดในรูปแบบใหม่. มนุษย์เรารู้ข้อผิดพลาดของมนุษย์ หมายความว่าเราสามารถระวังข้อผิดพลาดเหล่านั้นได้ แต่ เครื่องจักรอัจฉริยะสามารถทำผิดพลาดที่เราคาดไม่ถึงได้.
ยิ่งไปกว่านั้น ระบบ AI ได้รับการตั้งโปรแกรมและฝึกฝนโดยมนุษย์ และมีตัวอย่างมากมายของระบบดังกล่าว กลายเป็นคนลำเอียงและกลายเป็นคนหัวดื้อ. พวกเขาเลียนแบบอคติและทำซ้ำข้อผิดพลาดจากโลกมนุษย์ แม้ว่าผู้คนที่เกี่ยวข้องจะพยายามหลีกเลี่ยงอย่างชัดเจนก็ตาม
ในท้ายที่สุด ความผิดพลาดจะเกิดขึ้นเรื่อยๆ มีเหตุผลพื้นฐานว่าทำไมเราคิดผิดเกี่ยวกับโลก ทำไมเราจำทุกอย่างไม่ได้ และทำไมเทคโนโลยีของเราไม่สามารถช่วยให้เราหลีกเลี่ยงปัญหาได้อย่างสมบูรณ์
แต่เราสามารถทำงานเพื่อลดผลกระทบของความผิดพลาดได้ ปุ่มเลิกทำและบันทึกอัตโนมัติได้บันทึกเอกสารจำนวนนับไม่ถ้วนไว้ในคอมพิวเตอร์ของเรา อนุสาวรีย์ในลอนดอน, หินสึนามิ ในญี่ปุ่นและอนุสาวรีย์อื่น ๆ ทำหน้าที่เตือนเราเกี่ยวกับความเสี่ยงบางอย่าง แนวทางการออกแบบที่ดีทำให้ชีวิตของเราปลอดภัยยิ่งขึ้น
ท้ายที่สุดแล้ว เราสามารถเรียนรู้บางอย่างจากประวัติศาสตร์ได้ เป้าหมายของเราควรคือการอยู่รอดและเรียนรู้จากความผิดพลาดของเรา ไม่ใช่ป้องกันไม่ให้มันเกิดขึ้น เทคโนโลยีสามารถช่วยเราในเรื่องนี้ แต่เราต้องคิดอย่างรอบคอบเกี่ยวกับสิ่งที่เราต้องการจากมันจริง ๆ และออกแบบให้เหมาะสม
เกี่ยวกับผู้เขียน
Anders Sandberg, นักวิจัยของเจมส์ มาร์ติน, Future of Humanity Institute & Oxford Martin School, University of Oxford
บทความนี้ตีพิมพ์ซ้ำจาก สนทนา ภายใต้ใบอนุญาตครีเอทีฟคอมมอนส์ อ่าน บทความต้นฉบับ.