ปัญญาประดิษฐ์สามารถเลียนแบบพฤติกรรมของมนุษย์ได้ และในไม่ช้ามันก็จะเป็นผลดีที่เป็นอันตรายใบหน้านี้เป็นเพียงการประกอบบิตคอมพิวเตอร์หรือไม่ ช่างภาพ Michal Bednarek/Shutterstock.com

เมื่อระบบปัญญาประดิษฐ์เริ่มสร้างสรรค์ พวกเขาก็สามารถสร้างสิ่งที่ยอดเยี่ยมและน่ากลัวได้ ยกตัวอย่าง โปรแกรม AI ที่ให้ ผู้ใช้เว็บแต่งเพลง along with a โยฮันน์ เซบาสเตียน บาค เสมือน โดยการป้อนบันทึกลงในโปรแกรมที่สร้างความสามัคคีเหมือน Bach เพื่อให้ตรงกับพวกเขา

ดำเนินการโดย Googleแอป Drew ยิ่งใหญ่ สรรเสริญ เพื่อความแปลกใหม่และสนุกสนานในการเล่นด้วย นอกจากนี้ยังดึงดูด คำวิจารณ์และแจ้งความกังวลเกี่ยวกับอันตรายของ AI

การศึกษาของฉันเกี่ยวกับวิธีการ เทคโนโลยีเกิดใหม่ส่งผลกระทบต่อชีวิตของผู้คน ได้สอนฉันว่าปัญหามีมากกว่าความกังวลอย่างมากเกี่ยวกับ ไม่ว่าจะเป็นอัลกอริทึม ได้จริงๆ สร้างเพลง หรือศิลปะโดยทั่วไป การร้องเรียนบางอย่างดูเหมือนเล็กน้อย แต่จริงๆ แล้วไม่ใช่เลย เช่น การสังเกตว่า AI ของ Google เคยเป็น แหกกฎพื้นฐาน ของการแต่งเพลง

อันที่จริง ความพยายามที่จะให้คอมพิวเตอร์เลียนแบบพฤติกรรมของบุคคลจริงอาจสร้างความสับสนและอาจเป็นอันตรายได้


กราฟิกสมัครสมาชิกภายในตัวเอง


เทคโนโลยีการเลียนแบบ

โปรแกรมของ Google วิเคราะห์โน้ตในงานดนตรีของ Bach จำนวน 306 ชิ้น ค้นหาความสัมพันธ์ระหว่างท่วงทำนองและตัวโน้ตที่ให้ความกลมกลืน เนื่องจาก Bach ปฏิบัติตามกฎการจัดองค์ประกอบที่เคร่งครัด โปรแกรมจึงเรียนรู้กฎเหล่านั้นอย่างมีประสิทธิภาพ ดังนั้นจึงสามารถนำไปใช้เมื่อผู้ใช้ใส่บันทึกย่อของตนเอง

 ทีม Google Doodle อธิบายโปรแกรม Bach

{youtube}XBfYPp6KF2g{/youtube}

แอพ Bach นั้นใหม่ แต่เทคโนโลยีพื้นฐานนั้นไม่ใช่ อัลกอริธึมที่ฝึกให้ รู้จักรูปแบบ และทำให้ การตัดสินใจที่น่าจะเป็น มีอยู่เป็นเวลานาน อัลกอริธึมเหล่านี้บางอันซับซ้อนจนคน ไม่เข้าใจเสมอไป พวกเขาตัดสินใจหรือสร้างผลลัพธ์เฉพาะอย่างไร

ระบบ AI ไม่สมบูรณ์แบบ – หลายคนพึ่งพา ข้อมูลที่ไม่ได้เป็นตัวแทน ของประชากรทั้งหมดหรือนั่นคือ ได้รับอิทธิพลจากอคติของมนุษย์. ไม่ชัดเจนนัก ที่อาจต้องรับผิดชอบตามกฎหมาย เมื่อระบบ AI ทำให้เกิดข้อผิดพลาดหรือทำให้เกิดปัญหา

แม้ว่าตอนนี้เทคโนโลยีปัญญาประดิษฐ์จะก้าวหน้าพอที่จะสามารถประมาณลักษณะการเขียนหรือการพูดของบุคคล หรือแม้แต่การแสดงออกทางสีหน้าได้ มันไม่ได้แย่เสมอไป: AI ที่ค่อนข้างง่ายทำให้ Stephen Hawking เป็นผู้ ความสามารถในการสื่อสาร กับผู้อื่นได้อย่างมีประสิทธิภาพมากขึ้นด้วยการทำนายคำที่เขาจะใช้มากที่สุด

โปรแกรมที่ซับซ้อนมากขึ้นที่เลียนแบบเสียงมนุษย์ ช่วยเหลือคนพิการ – แต่ยังใช้เพื่อหลอกลวงผู้ฟังได้อีกด้วย ตัวอย่างเช่น ผู้ผลิตของ ลิเรเบิร์ด, โปรแกรมเลียนแบบเสียง ได้เปิดตัว บทสนทนาจำลอง ระหว่าง บารัค โอบามา โดนัลด์ ทรัมป์ และฮิลลารี คลินตัน อาจฟังดูจริง แต่การแลกเปลี่ยนนั้นไม่เคยเกิดขึ้น

จากดีกลายเป็นร้าย

ในเดือนกุมภาพันธ์ 2019 บริษัทไม่แสวงหากำไร OpenAI ได้สร้างโปรแกรมที่สร้างข้อความที่ แทบแยกไม่ออกจากข้อความ คนเขียน. มันสามารถ "เขียน" คำพูดในรูปแบบของ John F. Kennedy, เจอาร์อาร์ โทลคีน ใน “ลอร์ดออฟเดอะริ” หรือนักเรียนเขียน งานโรงเรียนเกี่ยวกับสงครามกลางเมืองสหรัฐฯ.

ข้อความที่สร้างโดยซอฟต์แวร์ของ OpenAI นั้นน่าเชื่อถือมากจนบริษัทเลือก ไม่ปล่อย ตัวโปรแกรมเอง

เทคโนโลยีที่คล้ายกันสามารถจำลองภาพถ่ายและวิดีโอได้ ตัวอย่างเช่น ในช่วงต้นปี 2018 นักแสดงและผู้สร้างภาพยนตร์ Jordan Peele ได้สร้างวิดีโอที่ดูเหมือนจะแสดงให้เห็นอดีตประธานาธิบดีสหรัฐฯ Barack Obama ว่า สิ่งที่โอบามาไม่เคยพูดจริงๆ เพื่อเตือนประชาชนเกี่ยวกับอันตรายที่เกิดจากเทคโนโลยีเหล่านี้

ระวังวิดีโอที่คุณเชื่อ

{youtube}cQ54GDm1eL0{/youtube}

ในช่วงต้นปี พ.ศ. 2019 ก ภาพเปลือยปลอม fake ของตัวแทนสหรัฐฯ Alexandria Ocasio-Cortez เผยแพร่ทางออนไลน์ วิดีโอประดิษฐ์มักเรียกว่า“deepfakes” คาดว่าจะเป็น ขึ้น มือสอง ในการรณรงค์หาเสียง

สมาชิกของรัฐสภา ได้เริ่มตรวจสอบปัญหานี้แล้ว ก่อนการเลือกตั้งปี 2020. กระทรวงกลาโหมสหรัฐกำลังสอนประชาชน วิธีสังเกตวิดีโอหมอ และเสียง องค์กรข่าวอย่าง รอยเตอร์ส กำลังเริ่มฝึกนักข่าวให้รู้จักกับของปลอม

แต่ในความเห็นของฉัน ความกังวลที่ใหญ่กว่านั้นยังคงอยู่: ผู้ใช้อาจไม่สามารถเรียนรู้ได้เร็วพอที่จะแยกแยะเนื้อหาปลอม เนื่องจากเทคโนโลยี AI มีความซับซ้อนมากขึ้น ตัวอย่างเช่น ในขณะที่สาธารณชนเริ่มตระหนักถึง Deepfakes AI ได้ถูกนำมาใช้เพื่อการหลอกลวงขั้นสูงยิ่งขึ้นไปอีก ขณะนี้มีโปรแกรมที่สามารถสร้างได้ หน้าปลอม และ ลายนิ้วมือดิจิตอลปลอมการสร้างข้อมูลที่จำเป็นในการสร้างทั้งบุคคลอย่างมีประสิทธิภาพ – อย่างน้อยในบันทึกขององค์กรหรือของรัฐบาล

เครื่องจักรเรียนรู้ต่อไป

ในขณะนี้ มีข้อผิดพลาดที่อาจเกิดขึ้นเพียงพอในเทคโนโลยีเหล่านี้เพื่อให้ผู้คนมีโอกาสตรวจจับการประดิษฐ์ดิจิทัล นักแต่งเพลง Bach ของ Google ทำผิดบ้าง ผู้เชี่ยวชาญสามารถตรวจจับได้ เช่น พอลองเข้าโปรแกรมก็ยอมให้เข้า ห้าขนาน, ช่วงดนตรีที่ Bach หลีกเลี่ยงอย่างเคร่งครัด. แอพนี้ยัง ทำผิดกฎดนตรี ของความแตกต่างโดยการประสานท่วงทำนองในคีย์ที่ไม่ถูกต้อง ในทำนองเดียวกัน โปรแกรมสร้างข้อความของ OpenAI บางครั้งก็เขียนวลีเช่น “ไฟไหม้ใต้น้ำ” ที่ไม่สมเหตุสมผลในบริบทของพวกเขา

ในขณะที่นักพัฒนาพยายามสร้างสรรค์ผลงานของตัวเอง ข้อผิดพลาดเหล่านี้จะยิ่งหายากขึ้น เทคโนโลยี AI จะพัฒนาและเรียนรู้อย่างมีประสิทธิภาพ ผลงานที่ได้รับการปรับปรุงมีศักยภาพที่จะก่อให้เกิดประโยชน์ทางสังคมมากมาย – รวมถึงการดูแลสุขภาพที่ดีขึ้นด้วยโปรแกรม AI ช่วยได้ ทำให้การปฏิบัติธรรมเป็นประชาธิปไตย.

การให้อิสระแก่นักวิจัยและบริษัทในการสำรวจ เพื่อค้นหาความสำเร็จเชิงบวกเหล่านี้จากระบบ AI หมายถึงการเปิดความเสี่ยงในการพัฒนาวิธีการขั้นสูงในการหลอกลวงและปัญหาสังคมอื่นๆ การจำกัดการวิจัย AI อย่างรุนแรงสามารถทำได้ ระงับความก้าวหน้า. แต่ให้เทคโนโลยีที่เป็นประโยชน์ ห้องที่จะเติบโต โดยไม่มีค่าใช้จ่ายเพียงเล็กน้อย และศักยภาพในการใช้งานในทางที่ผิด ไม่ว่าจะเป็นการทำเพลงที่ "เหมือนบาค" ที่ไม่ถูกต้องหรือเพื่อหลอกลวงคนนับล้าน ก็มีแนวโน้มที่จะเติบโตในแบบที่ผู้คนยังคาดไม่ถึงสนทนา

เกี่ยวกับผู้เขียน

Ana Santos Rutschman ผู้ช่วยศาสตราจารย์ด้านกฎหมาย มหาวิทยาลัยเซนต์หลุยส์

บทความนี้ตีพิมพ์ซ้ำจาก สนทนา ภายใต้ใบอนุญาตครีเอทีฟคอมมอนส์ อ่าน บทความต้นฉบับ.

หนังสือที่เกี่ยวข้อง

at ตลาดภายในและอเมซอน