แชทGPT
กลุ่มนักวิทยาศาสตร์คอมพิวเตอร์ที่มีชื่อเสียงและบุคคลสำคัญในอุตสาหกรรมเทคโนโลยีอื่นๆ กำลังเรียกร้องให้หยุดเทคโนโลยีปัญญาประดิษฐ์ชั่วคราวเป็นเวลา XNUMX เดือน (Shutterstock)

จดหมายเปิดผนึกล่าสุดของนักวิทยาศาสตร์คอมพิวเตอร์และผู้นำในอุตสาหกรรมเทคโนโลยี เรียกร้องให้ระงับการพัฒนาปัญญาประดิษฐ์เป็นเวลา XNUMX เดือน มี ได้รับความสนใจอย่างกว้างขวางในโลกออนไลน์. แม้แต่รัฐมนตรีกระทรวงนวัตกรรมของแคนาดา François-Philippe Champagne ได้ตอบจดหมายทาง Twitter แล้ว

จดหมายดังกล่าวเผยแพร่โดย Future of Life Institute ที่ไม่แสวงหาผลกำไร ได้ขอให้ห้องปฏิบัติการ AI ทั้งหมดหยุดการฝึกอบรมระบบ AI ที่มีประสิทธิภาพมากกว่า GPT-4 ซึ่งเป็นต้นแบบเบื้องหลัง ChatGPT จดหมายระบุว่า AI นั้น “ถูกขังอยู่ในการแข่งขันที่ไม่สามารถควบคุมได้เพื่อพัฒนาและใช้งานจิตใจดิจิทัลที่ทรงพลังยิ่งขึ้น ซึ่งไม่มีใคร แม้แต่ผู้สร้างของพวกเขา ก็สามารถเข้าใจ ทำนาย หรือควบคุมได้อย่างน่าเชื่อถือ”

จดหมายสันนิษฐานว่า AI กำลังกลายเป็นหรืออาจกลายเป็น “จิตใจดิจิทัลที่ทรงพลัง” — การตีความระยะยาวของการพัฒนา AI ที่ ละเว้นการอภิปรายที่สำคัญเกี่ยวกับ AI ในวันนี้แทนข้อกังวลในอนาคต.

ระยะยาวและ AI

ลัทธิระยะยาวคือ ความเชื่อที่ว่าปัญญาประดิษฐ์ก่อให้เกิดความเสี่ยงในระยะยาวหรือมีอยู่จริงต่ออนาคตของมนุษยชาติ โดยกลายเป็นความฉลาดหลักแหลมที่อยู่นอกเหนือการควบคุม.


กราฟิกสมัครสมาชิกภายในตัวเอง


ความกังวลเกี่ยวกับ AI อัจฉริยะมักจะเป็นเรื่องของนิยายวิทยาศาสตร์ จินตนาการของ AI เป็นหนึ่งในความกลัวมากมายในซิลิคอนแวลลีย์ ที่สามารถนำไปสู่ คำทำนายที่มืด. แต่อย่างว่า มีม Nexus ทรมานความกังวลเหล่านี้แปลเป็นการลงทุนขนาดใหญ่ที่ไม่ระมัดระวัง บริษัทเทคโนโลยีรายใหญ่ส่วนใหญ่มี ตัดทีม AI ที่รับผิดชอบของพวกเขา.

เห็นได้ชัดว่า ChatGPT ไม่ใช่เส้นทางสู่ความฉลาดหลักแหลม จดหมายเปิดผนึกมองว่าเทคโนโลยีภาษา AI เช่น ChatGPT เป็นความก้าวหน้าทางความคิด ซึ่งเป็นสิ่งที่ช่วยให้ AI สามารถแข่งขันกับมนุษย์ในงานทั่วไปได้ แต่นั่นเป็นเพียงความคิดเห็นเดียวเท่านั้น

มีอีกหลายคนที่เห็น ChatGPT โมเดล GPT-4 และโมเดลการเรียนรู้ภาษาอื่นๆ เป็น “นกแก้วสุ่ม” ที่ทำซ้ำสิ่งที่พวกเขาเรียนรู้ออนไลน์เพื่อให้พวกเขา ปรากฏ ฉลาดต่อมนุษย์

จุดบอดของ Superintelligence

ลัทธิระยะยาวมีนัยเชิงนโยบายโดยตรงที่ให้ความสำคัญกับการข่าวกรองเหนือเรื่องเร่งด่วนเช่น ความไม่สมดุลของพลังของ AI. ผู้สนับสนุนบางคนของลัทธิระยะยาว พิจารณากฎระเบียบเพื่อหยุดการข่าวกรองที่เร่งด่วนกว่าการจัดการเหตุฉุกเฉินด้านสภาพอากาศ

ผลกระทบของนโยบาย AI จะเกิดขึ้นทันที ไม่ใช่เรื่องไกลตัว เนื่องจาก GPT-4 ได้รับการฝึกอบรมบนอินเทอร์เน็ตทั้งหมดและสิ้นสุดในเชิงพาณิชย์อย่างชัดเจน มันทำให้เกิดคำถามเกี่ยวกับการซื้อขายที่เป็นธรรมและการใช้งานที่เหมาะสม.

เรายังไม่ทราบว่าข้อความและภาพที่ AI สร้างขึ้นนั้นมีลิขสิทธิ์หรือไม่ในตอนแรกตั้งแต่เครื่องจักรและ สัตว์ ไม่สามารถถือลิขสิทธิ์

และเมื่อพูดถึงเรื่องความเป็นส่วนตัว แนวทางของ ChatGPT นั้นยากที่จะแยกความแตกต่างจากแอปพลิเคชัน AI อื่น เคลียร์วิว AI. AI ทั้งสองรุ่นได้รับการฝึกฝนโดยใช้ข้อมูลส่วนบุคคลจำนวนมหาศาลที่รวบรวมบนอินเทอร์เน็ตแบบเปิด หน่วยงานคุ้มครองข้อมูลของอิตาลีเพิ่งแบน ChatGPT เนื่องจากข้อกังวลด้านความเป็นส่วนตัว.

ความเสี่ยงที่เกิดขึ้นทันทีเหล่านี้ไม่ได้กล่าวถึงในจดหมายเปิดผนึก ซึ่งแกว่งไปมาระหว่างปรัชญาป่าเถื่อนและวิธีแก้ปัญหาทางเทคนิค โดยไม่สนใจปัญหาที่อยู่ตรงหน้าเรา

จมน้ำตายจากการปฏิบัตินิยม

จดหมายฉบับนี้เป็นไปตามไดนามิกแบบเก่าที่ฉันและผู้เขียนร่วมระบุไว้ใน บททบทวนที่กำลังจะมีขึ้นเกี่ยวกับการกำกับดูแล AI. มีแนวโน้มที่จะมองว่า AI เป็นความเสี่ยงที่มีอยู่จริงหรือเป็นสิ่งที่ธรรมดาและเป็นเรื่องทางเทคนิค

ความตึงเครียดระหว่างสองขั้วนี้แสดงอยู่ในจดหมายเปิดผนึก จดหมายเริ่มต้นด้วยการอ้างว่า “AI ขั้นสูงสามารถเป็นตัวแทนของการเปลี่ยนแปลงอย่างลึกซึ้งในประวัติศาสตร์ของสิ่งมีชีวิตบนโลก” ก่อนที่จะเรียกร้องให้ “เงินทุนสาธารณะที่แข็งแกร่งสำหรับการวิจัยทางเทคนิคด้านความปลอดภัยของ AI” ประการหลังนี้ชี้ให้เห็นว่าอันตรายต่อสังคมของ AI เป็นเพียงโครงการทางเทคนิคที่ต้องแก้ไข

การมุ่งเน้นไปที่ความสุดโต่งทั้งสองนี้ทำให้เกิดเสียงสำคัญที่พยายามอภิปรายในเชิงปฏิบัติเกี่ยวกับความเสี่ยงในทันทีของ AI ที่กล่าวถึงข้างต้นรวมถึง ปัญหาแรงงานและอื่น ๆ.

ความสนใจที่มอบให้กับจดหมายเปิดผนึกเป็นปัญหาโดยเฉพาะอย่างยิ่งในแคนาดาเพราะจดหมายอีกสองฉบับที่เขียนโดย ศิลปิน และ องค์กรด้านสิทธิเสรีภาพยังไม่ได้รับความสนใจเท่าเดิม จดหมายเหล่านี้เรียกร้องให้มีการปฏิรูปและแนวทางที่แข็งแกร่งยิ่งขึ้นในการกำกับดูแล AI เพื่อปกป้องผู้ที่ได้รับผลกระทบจากมัน

สิ่งที่ทำให้ไขว้เขวโดยไม่จำเป็นต่อกฎหมาย AI

คำตอบของรัฐบาลต่อจดหมายเปิดผนึกย้ำว่าแคนาดามีกฎหมาย — พ.ร.บ.ปัญญาประดิษฐ์และข้อมูล (AIDA). ความเสี่ยงระยะยาวของ AI กำลังถูกใช้เพื่อเร่งรัดการออกกฎหมายเช่น AIDA

AIDA เป็นขั้นตอนสำคัญสู่ระบอบการกำกับดูแล AI ที่เหมาะสม แต่ก็จำเป็นต้องทำ ปรึกษาผู้ที่ได้รับผลกระทบจาก AI ดีกว่า ก่อนนำไปปฏิบัติ ไม่สามารถรีบเร่งที่จะตอบสนองต่อความกลัวระยะยาวที่รับรู้ได้

จดหมายเรียกร้องให้เร่งรัดกฎหมายเกี่ยวกับ AI อาจลงเอยด้วยการเอาเปรียบบริษัทเดิมไม่กี่แห่งที่ขับเคลื่อนการวิจัย AI ในปัจจุบัน หากไม่มีเวลาให้คำปรึกษา ส่งเสริมการรู้หนังสือสาธารณะ และรับฟังผู้ที่ได้รับผลกระทบจาก AI ความเสี่ยงของ AIDA ที่ส่งต่อความรับผิดชอบและการตรวจสอบของ AI ไปยังสถาบันที่อยู่ในตำแหน่งที่ดีอยู่แล้วที่จะได้รับประโยชน์จากเทคโนโลยี ทำให้เกิดตลาดสำหรับอุตสาหกรรมการตรวจสอบ AI ใหม่

ชะตากรรมของมนุษยชาติอาจไม่อยู่ในบรรทัด แต่ธรรมาภิบาลของ AI นั้นแน่นอนสนทนา

เกี่ยวกับผู้เขียน

เฟนวิค แมคเคลวีย์, รองศาสตราจารย์ด้านนโยบายเทคโนโลยีสารสนเทศและการสื่อสาร , มหาวิทยาลัยคอนคอร์เดีย

บทความนี้ตีพิมพ์ซ้ำจาก สนทนา ภายใต้ใบอนุญาตครีเอทีฟคอมมอนส์ อ่าน บทความต้นฉบับ.