ที่ไว้วางใจ ai 7 20
 แชทบอท AI มีประสิทธิภาพมากขึ้น แต่คุณรู้ได้อย่างไรว่าพวกมันทำงานเพื่อประโยชน์สูงสุดของคุณ? 

หากคุณถาม Alexa ระบบ AI ผู้ช่วยเสียงของ Amazon ไม่ว่า Amazon จะผูกขาดหรือไม่ก็ตาม ก็จะตอบโดย พูดไม่รู้เรื่อง. ไม่ต้องทำอะไรมาก ข่มเหงยักษ์ใหญ่ด้านเทคโนโลยีรายอื่นแต่ก็เงียบเกี่ยวกับการกระทำที่ไม่เหมาะสมของผู้ปกครองของบริษัทเอง

เมื่อ Alexa ตอบสนองในลักษณะนี้ เห็นได้ชัดว่ากำลังให้ความสนใจกับนักพัฒนามาก่อนคุณ โดยปกติแล้ว ระบบ AI นั้นไม่ชัดเจนว่าใครกำลังให้บริการอยู่ เพื่อหลีกเลี่ยงการถูกเอารัดเอาเปรียบจากระบบเหล่านี้ ผู้คนจำเป็นต้องเรียนรู้ที่จะเข้าหา AI อย่างระแวดระวัง นั่นหมายถึงจงใจสร้างอินพุตที่คุณให้และคิดวิเคราะห์เกี่ยวกับผลลัพธ์ของมัน

โมเดล AI รุ่นใหม่ที่มีการตอบสนองที่ซับซ้อนมากขึ้นและท่องจำน้อยลง ทำให้ยากที่จะบอกได้ว่าใครได้ประโยชน์เมื่อพวกเขาพูด บริษัทอินเทอร์เน็ตที่บงการสิ่งที่คุณเห็นเพื่อสนองผลประโยชน์ของพวกเขาเองนั้นไม่ใช่เรื่องใหม่ ผลการค้นหาของ Google และฟีด Facebook ของคุณคือ เต็มไปด้วยรายการชำระเงิน. Facebook, ติ๊กต๊อก และคนอื่นๆ จัดการฟีดของคุณเพื่อเพิ่มเวลาที่คุณใช้บนแพลตฟอร์มให้สูงสุด ซึ่งหมายถึงการดูโฆษณาที่มากขึ้นสำหรับความเป็นอยู่ที่ดีของคุณ

สิ่งที่ทำให้ระบบ AI แตกต่างจากบริการอินเทอร์เน็ตอื่น ๆ เหล่านี้คือวิธีการโต้ตอบ และการโต้ตอบเหล่านี้จะกลายเป็นความสัมพันธ์ที่เพิ่มมากขึ้นเรื่อย ๆ ไม่ต้องใช้การคาดคะเนจากเทคโนโลยีในปัจจุบันมากนักในการจินตนาการว่า AI จะวางแผนการเดินทางให้คุณ เจรจาในนามของคุณ หรือทำหน้าที่เป็นนักบำบัดและโค้ชชีวิต


กราฟิกสมัครสมาชิกภายในตัวเอง


พวกเขามักจะอยู่กับคุณตลอด 24 ชั่วโมงทุกวัน รู้จักคุณอย่างใกล้ชิด และสามารถคาดการณ์ความต้องการของคุณได้ อินเทอร์เฟซการสนทนาประเภทนี้ไปยังเครือข่ายบริการและทรัพยากรมากมายบนเว็บอยู่ในความสามารถของ AI กำเนิดที่มีอยู่เช่น ChatGPT พวกเขากำลังจะกลายเป็น ผู้ช่วยดิจิทัลส่วนบุคคล.

ในฐานะที่เป็น ผู้เชี่ยวชาญด้านความปลอดภัย และ นักวิทยาศาสตร์ข้อมูลเราเชื่อว่าคนที่มาพึ่งเอไอเหล่านี้จะต้องไว้ใจให้เอไอเหล่านี้นำทางชีวิตประจำวันไปโดยปริยาย นั่นหมายความว่าพวกเขาจะต้องแน่ใจว่า AI ไม่ได้แอบทำงานให้กับคนอื่น ทั่วทั้งอินเทอร์เน็ต อุปกรณ์และบริการต่างๆ ที่ดูเหมือนจะได้ผลสำหรับคุณนั้นแอบทำงานต่อต้านคุณอยู่แล้ว สมาร์ททีวี สอดแนมคุณ. แอพโทรศัพท์ รวบรวมและขายข้อมูลของคุณ. แอพและเว็บไซต์มากมาย จัดการคุณผ่านรูปแบบที่มืด, องค์ประกอบการออกแบบที่ จงใจทำให้เข้าใจผิด บีบบังคับ หรือหลอกลวงผู้เข้าชมเว็บไซต์. นี่คือ ระบบทุนนิยมเฝ้าระวังและ AI กำลังก่อตัวขึ้นเพื่อเป็นส่วนหนึ่งของมัน AI กำลังมีบทบาทในระบบทุนนิยมการสอดแนม ซึ่งกลายเป็นการสอดแนมคุณเพื่อหาเงินจากคุณ

ในที่มืด

เป็นไปได้มากว่า AI อาจแย่กว่านี้มาก เพื่อให้ผู้ช่วยดิจิตอล AI นั้นมีประโยชน์จริง ๆ นั้นจะต้องรู้จักคุณจริงๆ ดีกว่าโทรศัพท์ของคุณรู้จักคุณ ดีกว่าการค้นหาของ Google รู้จักคุณ อาจจะดีกว่าเพื่อนสนิท คู่คิด และนักบำบัดที่รู้จักคุณเสียอีก

คุณไม่มีเหตุผลที่จะเชื่อถือเครื่องมือ AI ชั้นนำในปัจจุบัน ทิ้งกันไป ภาพหลอนซึ่งเป็น "ข้อเท็จจริง" ที่แต่งขึ้นซึ่ง GPT และโมเดลภาษาขนาดใหญ่อื่นๆ สร้างขึ้น เราคาดว่าสิ่งเหล่านั้นจะถูกล้างข้อมูลส่วนใหญ่เมื่อเทคโนโลยีได้รับการปรับปรุงในอีกไม่กี่ปีข้างหน้า

แต่คุณไม่รู้ว่า AI ได้รับการกำหนดค่าอย่างไร: พวกเขาได้รับการฝึกฝนอย่างไร ข้อมูลใดที่ได้รับมา และคำสั่งใดที่พวกเขาได้รับคำสั่งให้ปฏิบัติตาม ตัวอย่างเช่นนักวิจัย เปิดโปงกฎลับ ที่ควบคุมพฤติกรรมของ Microsoft Bing chatbot ส่วนใหญ่ไม่เป็นพิษเป็นภัยแต่สามารถเปลี่ยนแปลงได้ตลอดเวลา

หาเงิน

AI เหล่านี้จำนวนมากถูกสร้างขึ้นและฝึกฝนด้วยค่าใช้จ่ายมหาศาลโดยผู้ผูกขาดทางเทคโนโลยีรายใหญ่ที่สุดบางราย มีการเสนอให้ผู้คนใช้ฟรีหรือมีต้นทุนต่ำมาก บริษัทเหล่านี้จะต้องสร้างรายได้จากพวกเขาด้วยวิธีใดวิธีหนึ่ง และเช่นเดียวกับอินเทอร์เน็ตอื่นๆ ที่มีแนวโน้มว่าจะมีการสอดแนมและควบคุมดูแล

ลองจินตนาการว่าขอให้แชทบอทวางแผนวันหยุดพักผ่อนครั้งต่อไปของคุณ เลือกสายการบินหรือเครือโรงแรมหรือร้านอาหารเพราะดีที่สุดสำหรับคุณหรือเพราะผู้ผลิตได้รับเงินคืนจากธุรกิจ เช่นเดียวกับผลลัพธ์ที่ต้องชำระเงินในการค้นหาของ Google โฆษณาฟีดข่าวบน Facebook และตำแหน่งที่ต้องชำระเงินในข้อความค้นหาของ Amazon อิทธิพลที่ได้รับค่าตอบแทนเหล่านี้มีแนวโน้มที่จะแอบแฝงมากขึ้นเมื่อเวลาผ่านไป

หากคุณขอข้อมูลทางการเมืองของแชทบอท ผลลัพธ์จะบิดเบือนจากการเมืองของบริษัทที่เป็นเจ้าของแชทบอทหรือไม่ หรือผู้สมัครที่จ่ายเงินมากที่สุด? หรือแม้กระทั่งมุมมองของประชากรของผู้ที่มีการใช้ข้อมูลในการฝึกอบรมแบบจำลอง? ตัวแทน AI ของคุณแอบเป็นสายลับสองหน้าหรือไม่? ตอนนี้ไม่มีทางรู้ได้เลย

เชื่อถือได้ตามกฎหมาย

เราเชื่อว่าผู้คนควรคาดหวังมากขึ้นจากเทคโนโลยี และบริษัทเทคโนโลยีและ AI สามารถมีความน่าเชื่อถือมากขึ้น ข้อเสนอของสหภาพยุโรป พระราชบัญญัติ AI ดำเนินขั้นตอนที่สำคัญบางประการ โดยต้องการความโปร่งใสเกี่ยวกับข้อมูลที่ใช้ในการฝึกโมเดล AI การลดอคติที่อาจเกิดขึ้น การเปิดเผยความเสี่ยงที่คาดการณ์ได้ และการรายงานเกี่ยวกับการทดสอบมาตรฐานอุตสาหกรรม สหภาพยุโรปกำลังผลักดันกฎระเบียบด้าน AI

AI ที่มีอยู่ส่วนใหญ่ ไม่ปฏิบัติตาม ด้วยอาณัติของยุโรปที่เกิดขึ้นใหม่นี้และอย่างไรก็ตาม การผลิตล่าสุด จาก Chuck Schumer ผู้นำเสียงข้างมากในวุฒิสภา สหรัฐอเมริกายังตามหลังกฎระเบียบดังกล่าวอยู่มาก

AI ในอนาคตควรเชื่อถือได้ เว้นแต่และจนกว่ารัฐบาลจะให้การคุ้มครองผู้บริโภคอย่างเข้มงวดสำหรับผลิตภัณฑ์ AI ผู้คนจะคาดเดาความเสี่ยงและอคติที่อาจเกิดขึ้นจาก AI ด้วยตนเอง และเพื่อลดผลกระทบที่เลวร้ายที่สุดต่อประสบการณ์ของผู้ใช้กับผลิตภัณฑ์ AI

ดังนั้น เมื่อคุณได้รับคำแนะนำการเดินทางหรือข้อมูลทางการเมืองจากเครื่องมือ AI ให้เข้าหาด้วยสายตาที่สงสัยแบบเดียวกับที่คุณมองโฆษณาบนบิลบอร์ดหรืออาสาสมัครหาเสียง สำหรับเวทมนตร์ทางเทคโนโลยีทั้งหมด เครื่องมือ AI อาจมีมากกว่าแบบเดียวกันเล็กน้อยสนทนา

เกี่ยวกับผู้เขียน

Bruce schneier,อาจารย์เสริมด้านนโยบายสาธารณะ, โรงเรียน Harvard Kennedy และ นาธาน แซนเดอร์ส, พันธมิตร, Berkman Klein Center for Internet & Society, มหาวิทยาลัยฮาร์วาร์

บทความนี้ตีพิมพ์ซ้ำจาก สนทนา ภายใต้ใบอนุญาตครีเอทีฟคอมมอนส์ อ่าน บทความต้นฉบับ.