อันตรายของไอ 7 11
AI ไม่น่าจะทำให้มนุษย์เป็นทาส แต่อาจเข้ามามีบทบาทในหลายๆ ด้านของชีวิตเรา elenabs/iStock ผ่าน Getty Images

การเพิ่มขึ้นของ ChatGPT และระบบปัญญาประดิษฐ์ที่คล้ายกันนั้นมาพร้อมกับความเฉียบคม เพิ่มความวิตกกังวลเกี่ยวกับ AI. ในช่วงไม่กี่เดือนที่ผ่านมา ผู้บริหารและนักวิจัยด้านความปลอดภัยของ AI ได้นำเสนอการคาดการณ์ที่เรียกว่า “พี (หายนะ),” เกี่ยวกับความเป็นไปได้ที่ AI จะนำมาซึ่งหายนะขนาดใหญ่

ความกังวลพุ่งสูงสุดในเดือนพฤษภาคม 2023 เมื่อองค์กรวิจัยที่ไม่แสวงหากำไรและผู้สนับสนุน Center for AI Safety ออกแถลงการณ์ คำสั่งหนึ่งประโยค: “การลดความเสี่ยงต่อการสูญพันธุ์จาก AI ควรมีความสำคัญระดับโลกควบคู่ไปกับความเสี่ยงอื่นๆ ในระดับสังคม เช่น โรคระบาดและสงครามนิวเคลียร์” คำแถลงนี้ลงนามโดยผู้เล่นหลักหลายคนในสาขานี้ รวมถึงผู้นำของ OpenAI, Google และ Anthropic รวมถึงสองคนที่เรียกว่า "เจ้าพ่อ" ของ AI: จอฟฟรีย์ฮินตัน และ โยชัว เบงจิโอ.

คุณอาจถามว่าความกลัวที่มีอยู่จริงควรจะเกิดขึ้นได้อย่างไร สถานการณ์ที่มีชื่อเสียงเรื่องหนึ่งคือ “ตัวขยายคลิปหนีบกระดาษ” การทดลองทางความคิดที่พูดชัดแจ้งโดยนักปรัชญาอ็อกซ์ฟอร์ด นิค บอสตรอม. แนวคิดก็คือระบบ AI ที่ได้รับมอบหมายให้ผลิตคลิปหนีบกระดาษให้ได้มากที่สุดเท่าที่จะเป็นไปได้อาจใช้เวลานานเป็นพิเศษในการหาวัตถุดิบ เช่น ทำลายโรงงานและก่อให้เกิดอุบัติเหตุทางรถยนต์

A รูปแบบที่ใช้ทรัพยากรน้อยลง มี AI ที่ได้รับมอบหมายให้จองร้านอาหารยอดนิยมที่ปิดเครือข่ายเซลลูล่าร์และสัญญาณไฟจราจรเพื่อป้องกันไม่ให้ลูกค้ารายอื่นได้โต๊ะ


กราฟิกสมัครสมาชิกภายในตัวเอง


เครื่องใช้สำนักงานหรืออาหารเย็น แนวคิดพื้นฐานเหมือนกัน: AI กำลังกลายเป็นหน่วยสืบราชการลับของมนุษย์ต่างดาวอย่างรวดเร็ว เก่งในการบรรลุเป้าหมาย แต่อันตรายเพราะมันไม่จำเป็นต้องสอดคล้องกับค่านิยมทางศีลธรรมของผู้สร้าง และในเวอร์ชันที่รุนแรงที่สุด ข้อโต้แย้งนี้แปรเปลี่ยนเป็นความวิตกกังวลอย่างชัดเจนเกี่ยวกับเอไอ การกดขี่หรือทำลายล้างเผ่าพันธุ์มนุษย์.

AI ที่ทำคลิปหนีบกระดาษวิ่งอาละวาดเป็นตัวแปรหนึ่งของสถานการณ์การเปิดเผยของ AI

 

อันตรายที่เกิดขึ้นจริง

ในช่วงไม่กี่ปีที่ผ่านมา ฉันและเพื่อนร่วมงานที่ ศูนย์จริยธรรมประยุกต์ของ UMass Boston ได้ศึกษาผลกระทบของการมีส่วนร่วมกับ AI ต่อการเข้าใจตนเองของผู้คน และผมเชื่อว่าความวิตกกังวลเกี่ยวกับหายนะเหล่านี้ หลงทางและหลงทาง.

ใช่ ความสามารถของ AI ในการสร้างวิดีโอและเสียงปลอมที่น่าเชื่อเป็นสิ่งที่น่ากลัว และอาจถูกนำไปใช้ในทางที่ผิดโดยผู้ที่ไม่ประสงค์ดี ความจริงแล้ว มันกำลังเกิดขึ้นแล้ว: เจ้าหน้าที่รัสเซียพยายามทำให้ผู้วิจารณ์เครมลินต้องอับอาย บราวเดอบิล โดยกักขังเขาไว้ในการสนทนากับร่างอวตารของอดีตประธานาธิบดีเปโตร โปโรเชนโกของยูเครน อาชญากรไซเบอร์ใช้การโคลนเสียงของ AI เพื่อก่ออาชญากรรมต่างๆ ตั้งแต่ การโจรกรรมที่มีเทคโนโลยีสูง ไปยัง การหลอกลวงธรรมดา.

ระบบช่วยตัดสินใจของเอไอนั้น เสนอการอนุมัติสินเชื่อและแนะนำการจ้างงาน มีความเสี่ยงที่จะเกิดอคติทางอัลกอริทึม เนื่องจากข้อมูลการฝึกอบรมและแบบจำลองการตัดสินใจที่พวกเขาใช้สะท้อนถึงอคติทางสังคมที่มีมาอย่างยาวนาน

สิ่งเหล่านี้เป็นปัญหาใหญ่และต้องการความสนใจจากผู้กำหนดนโยบาย แต่พวกเขาอยู่มาระยะหนึ่งแล้วและแทบจะไม่กลายเป็นหายนะ

ไม่ได้อยู่ลีกเดียวกัน

คำแถลงจากศูนย์ความปลอดภัย AI ระบุว่า AI อยู่ในกลุ่มโรคระบาดและอาวุธนิวเคลียร์ ซึ่งเป็นความเสี่ยงสำคัญต่ออารยธรรม มีปัญหากับการเปรียบเทียบนั้น COVID-19 ส่งผลให้เกือบ เสียชีวิต 7 ล้านคนทั่วโลก, นำเมื่อ วิกฤตสุขภาพจิตครั้งใหญ่และต่อเนื่อง และสร้างขึ้น ความท้าทายทางเศรษฐกิจรวมถึงการขาดแคลนห่วงโซ่อุปทานเรื้อรังและภาวะเงินเฟ้อที่ควบคุมไม่ได้

อาวุธนิวเคลียร์อาจถูกฆ่าตาย มากกว่า 200,000 คน ในฮิโรชิมาและนางาซากิในปี พ.ศ. 1945 คร่าชีวิตผู้ป่วยด้วยโรคมะเร็งอีกจำนวนมากในปีต่อ ๆ มา สร้างความวิตกกังวลอย่างลึกซึ้งหลายทศวรรษในช่วงสงครามเย็น และนำโลกไปสู่จุดจบของการทำลายล้างในช่วงวิกฤตการณ์ขีปนาวุธคิวบาในปี พ.ศ. 1962 พวกเขายัง เปลี่ยนการคำนวณของผู้นำประเทศ เกี่ยวกับวิธีตอบโต้การรุกรานระหว่างประเทศ ซึ่งกำลังเล่นกับการรุกรานยูเครนของรัสเซีย

AI นั้นไม่มีที่ไหนเลยที่ใกล้เคียงกับความสามารถในการสร้างความเสียหายประเภทนี้ สถานการณ์คลิปหนีบกระดาษและอื่น ๆ เหมือนเป็นนิยายวิทยาศาสตร์ แอปพลิเคชัน AI ที่มีอยู่ทำงานเฉพาะเจาะจงมากกว่าการตัดสินแบบกว้างๆ เป็นเทคโนโลยี ห่างไกลจากความสามารถในการตัดสินใจและวางแผน เป้าหมายและเป้าหมายย่อยที่จำเป็นสำหรับการปิดการจราจรเพื่อให้คุณได้ที่นั่งในร้านอาหาร หรือระเบิดโรงงานผลิตรถยนต์เพื่อสนองความคันของคุณด้วยคลิปหนีบกระดาษ

เทคโนโลยีไม่เพียงแต่ขาดความสามารถที่ซับซ้อนสำหรับการตัดสินแบบหลายชั้นที่เกี่ยวข้องกับสถานการณ์เหล่านี้เท่านั้น แต่ยังไม่มีการเข้าถึงแบบอัตโนมัติไปยังส่วนต่าง ๆ ของโครงสร้างพื้นฐานที่สำคัญของเราที่เพียงพอเพื่อเริ่มสร้างความเสียหายประเภทนั้น

การเป็นมนุษย์หมายความว่าอย่างไร

ที่จริงแล้ว มีอันตรายแฝงอยู่ในตัวของการใช้ AI แต่ความเสี่ยงนั้นมีอยู่จริงในเชิงปรัชญามากกว่าความรู้สึกสันทราย AI ในรูปแบบปัจจุบันสามารถเปลี่ยนวิธีที่ผู้คนมองตนเองได้ สามารถลดทอนความสามารถและประสบการณ์ที่ผู้คนเห็นว่าจำเป็นต่อการเป็นมนุษย์

ตัวอย่างเช่น มนุษย์เป็นสัตว์ที่มีวิจารณญาณ ผู้คนชั่งน้ำหนักรายละเอียดต่างๆ อย่างมีเหตุมีผลและทำการตัดสินรายวันในที่ทำงานและในช่วงเวลาว่างว่าจะจ้างใคร ใครควรได้รับเงินกู้ จะดูอะไรดี และอื่นๆ แต่การตัดสินเหล่านี้มีมากขึ้นเรื่อย ๆ ถูกทำให้เป็นอัตโนมัติและฟาร์มออกไปสู่อัลกอริทึม. เมื่อเป็นเช่นนั้น โลกจะไม่สิ้นสุด แต่ผู้คนจะค่อย ๆ สูญเสียความสามารถในการตัดสินเหล่านี้ด้วยตนเอง ยิ่งมีคนสร้างน้อยเท่าไหร่ พวกเขาก็ยิ่งมีแนวโน้มที่จะสร้างมันได้แย่ลงเท่านั้น

หรือพิจารณาบทบาทของโอกาสในชีวิตของผู้คน มนุษย์ให้ความสำคัญกับการเผชิญหน้าโดยบังเอิญ: การพบเจอสถานที่ บุคคล หรือกิจกรรมโดยบังเอิญ การถูกดึงดูดเข้ามาและชื่นชมย้อนหลังถึงบทบาทของอุบัติเหตุในการค้นพบที่มีความหมายเหล่านี้ แต่บทบาทของเครื่องมือแนะนำอัลกอริทึมคือ ลดความบังเอิญแบบนั้นลง และแทนที่ด้วยการวางแผนและการทำนาย

สุดท้าย พิจารณาความสามารถในการเขียนของ ChatGPT เทคโนโลยีนี้กำลังอยู่ในระหว่างการขจัดบทบาทของการเขียนการบ้านในระดับอุดมศึกษา หากเป็นเช่นนั้น นักการศึกษาจะสูญเสียเครื่องมือสำคัญในการสอนนักเรียนไป วิธีการคิดวิเคราะห์.

ไม่ตายแต่ลดลง

ไม่ AI จะไม่ระเบิดโลก แต่การโอบรับอย่างไร้วิจารณญาณมากขึ้นเรื่อย ๆ ในบริบทแคบ ๆ ที่หลากหลาย หมายถึงการค่อยๆ กัดเซาะทักษะที่สำคัญที่สุดของมนุษย์บางส่วน อัลกอริทึมกำลังบั่นทอนความสามารถของผู้คนในการตัดสิน สนุกกับการเผชิญหน้าโดยบังเอิญ และฝึกฝนการคิดเชิงวิพากษ์

เผ่าพันธุ์มนุษย์จะรอดพ้นจากความสูญเสียดังกล่าว แต่วิธีการที่มีอยู่ของเราจะยากจนลงในกระบวนการนี้ ความวิตกกังวลอันน่าอัศจรรย์เกี่ยวกับความหายนะของ AI, ภาวะเอกฐาน, Skynet หรืออะไรก็ตามที่คุณอาจนึกถึง กำลังบดบังค่าใช้จ่ายที่ละเอียดอ่อนเหล่านี้ ระลึกถึงบรรทัดปิดที่มีชื่อเสียงของ TS Eliot เรื่อง “ผู้ชายกลวง”: “นี่คือจุดจบของโลก” เขาเขียน “ไม่ใช่เสียงโครมคราม แต่เป็นเสียงครวญคราง”สนทนา

เกี่ยวกับผู้เขียน

เนียร อีสิโควิทศาสตราจารย์ปรัชญาและผู้อำนวยการศูนย์จริยธรรมประยุกต์ UMass บอสตัน

บทความนี้ตีพิมพ์ซ้ำจาก สนทนา ภายใต้ใบอนุญาตครีเอทีฟคอมมอนส์ อ่าน บทความต้นฉบับ.