การศึกษาแสดงให้เห็นว่ารายงานปลอมที่สร้างขึ้นโดย AI หลอกผู้เชี่ยวชาญ

การศึกษาแสดงให้เห็นว่ารายงานปลอมที่สร้างขึ้นโดย AI หลอกผู้เชี่ยวชาญ

ไม่ต้องใช้ความคิดของมนุษย์ในการสร้างข้อมูลเท็จที่น่าเชื่อมากพอที่จะหลอกผู้เชี่ยวชาญในสาขาที่สำคัญเช่นความปลอดภัยทางไซเบอร์ iLexx / iStock ผ่าน Getty Images

หากคุณใช้เว็บไซต์โซเชียลมีเดียเช่น Facebook และ Twitter คุณอาจพบโพสต์ที่มีคำเตือนเกี่ยวกับข้อมูลที่ผิด จนถึงตอนนี้ ข้อมูลที่ผิดที่สุด – ถูกตั้งค่าสถานะและไม่ตั้งค่าสถานะ – ได้รับ มุ่งเป้าไปที่ประชาชนทั่วไป. ลองนึกภาพความเป็นไปได้ของข้อมูลที่ผิด – ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิด – ในสาขาวิทยาศาสตร์และเทคนิค เช่น ความปลอดภัยทางไซเบอร์ ความปลอดภัยสาธารณะ และการแพทย์

มีความกังวลเกี่ยวกับ ข้อมูลที่ผิดแพร่กระจายไปในสาขาที่สำคัญเหล่านี้ อันเป็นผลมาจากอคติและแนวปฏิบัติทั่วไปในการเผยแพร่วรรณกรรมทางวิทยาศาสตร์ แม้กระทั่งในเอกสารวิจัยที่ผ่านการตรวจสอบโดยเพื่อน ในฐานะที่เป็น นักศึกษาระดับบัณฑิตศึกษา และในขณะที่ คณะ สมาชิก การทำวิจัยด้านความปลอดภัยในโลกไซเบอร์ เราได้ศึกษาช่องทางใหม่ของข้อมูลที่ผิดในชุมชนวิทยาศาสตร์ เราพบว่าระบบปัญญาประดิษฐ์สามารถสร้างข้อมูลเท็จในสาขาที่สำคัญ เช่น การแพทย์และการป้องกันที่น่าเชื่อมากพอที่จะหลอกผู้เชี่ยวชาญ

ข้อมูลเท็จทั่วไปมักมุ่งหมายให้เสื่อมเสียชื่อเสียงของบริษัทหรือบุคคลสาธารณะ ข้อมูลที่ผิดในชุมชนที่เชี่ยวชาญมีโอกาสเกิดผลลัพธ์ที่น่ากลัว เช่น การให้คำแนะนำทางการแพทย์ที่ไม่ถูกต้องแก่แพทย์และผู้ป่วย สิ่งนี้อาจทำให้ชีวิตมีความเสี่ยง

เพื่อทดสอบภัยคุกคามนี้ เราได้ศึกษาผลกระทบของการเผยแพร่ข้อมูลที่ไม่ถูกต้องในชุมชนความปลอดภัยทางไซเบอร์และการแพทย์ เราใช้โมเดลปัญญาประดิษฐ์ที่ขนานนามว่า Transformer เพื่อสร้างข่าวความปลอดภัยทางไซเบอร์ที่ผิดพลาดและการศึกษาทางการแพทย์เกี่ยวกับโควิด-19 และนำเสนอข้อมูลที่ผิดเกี่ยวกับความปลอดภัยทางไซเบอร์แก่ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์เพื่อทำการทดสอบ เราพบว่าข้อมูลที่ผิดจากหม้อแปลงไฟฟ้าสามารถหลอกผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ได้

หม้อแปลง

เทคโนโลยีส่วนใหญ่ที่ใช้ในการระบุและจัดการข้อมูลที่ผิดนั้นขับเคลื่อนโดยปัญญาประดิษฐ์ AI ช่วยให้นักวิทยาศาสตร์คอมพิวเตอร์ตรวจสอบข้อมูลเท็จจำนวนมากได้อย่างรวดเร็ว เนื่องจากมีผู้คนจำนวนมากเกินกว่าจะตรวจจับได้หากไม่ได้รับความช่วยเหลือจากเทคโนโลยี แม้ว่า AI จะช่วยให้ผู้คนตรวจพบข้อมูลที่ผิด แต่ก็มีการใช้อย่างแดกดันเพื่อสร้างข้อมูลที่ผิดในช่วงไม่กี่ปีที่ผ่านมา

บล็อกข้อความบนหน้าจอสมาร์ทโฟน

AI สามารถช่วยตรวจจับข้อมูลที่ผิดเช่นคำกล่าวอ้างที่เป็นเท็จเกี่ยวกับ COVID-19 ในอินเดีย แต่จะเกิดอะไรขึ้นเมื่อใช้ AI เพื่อสร้างข้อมูลที่ผิด

AP Photo / Ashwini Bhatia

หม้อแปลงเช่น BERT จาก Google และ GPT จาก OpenAI ใช้ การประมวลผลภาษาธรรมชาติ เพื่อทำความเข้าใจข้อความและแปล บทสรุป และการตีความ มีการใช้ในงานต่างๆ เช่น การเล่าเรื่องและการตอบคำถาม ผลักดันขอบเขตของเครื่องที่แสดงความสามารถที่เหมือนมนุษย์ในการสร้างข้อความ

Transformers ได้ช่วยเหลือ Google และบริษัทเทคโนโลยีอื่นๆ โดย ปรับปรุงเครื่องมือค้นหาของพวกเขา และได้ช่วยเหลือประชาชนทั่วไปในการต่อสู้กับปัญหาทั่วไปเช่น ต่อสู้กับบล็อกของนักเขียน.

หม้อแปลงยังสามารถใช้เพื่อจุดประสงค์ที่มุ่งร้าย โซเชียลเน็ตเวิร์กอย่าง Facebook และ Twitter ได้เผชิญกับความท้าทายของ ข่าวปลอมที่สร้างโดย AI ข้ามแพลตฟอร์ม

ข้อมูลเท็จที่สำคัญ

การวิจัยของเราแสดงให้เห็นว่าหม้อแปลงยังเป็นภัยคุกคามต่อข้อมูลที่ผิดในด้านการแพทย์และความปลอดภัยทางไซเบอร์ เพื่อแสดงให้เห็นว่าเรื่องนี้จริงจังแค่ไหน เรา ปรับแต่ง รุ่นหม้อแปลง GPT-2 บน เปิดแหล่งข้อมูลออนไลน์ หารือเกี่ยวกับช่องโหว่ด้านความปลอดภัยในโลกไซเบอร์และข้อมูลการโจมตี ช่องโหว่ด้านความปลอดภัยในโลกไซเบอร์เป็นจุดอ่อนของระบบคอมพิวเตอร์ และการโจมตีด้านความปลอดภัยทางไซเบอร์เป็นการกระทำที่ใช้ประโยชน์จากช่องโหว่ ตัวอย่างเช่น หากช่องโหว่คือรหัสผ่าน Facebook ที่อ่อนแอ การโจมตีที่ใช้ประโยชน์จากช่องโหว่นั้นจะเป็นแฮ็กเกอร์ที่ค้นหารหัสผ่านของคุณและเจาะเข้าไปในบัญชีของคุณ

จากนั้นเราก็สร้างโมเดลด้วยประโยคหรือวลีของตัวอย่างข่าวกรองภัยคุกคามทางไซเบอร์ที่แท้จริง และให้แบบจำลองนั้นสร้างคำอธิบายภัยคุกคามที่เหลือ เรานำเสนอคำอธิบายที่สร้างขึ้นนี้แก่นักล่าภัยคุกคามทางไซเบอร์ ซึ่งกลั่นกรองข้อมูลมากมายเกี่ยวกับภัยคุกคามความปลอดภัยทางไซเบอร์ ผู้เชี่ยวชาญเหล่านี้อ่านคำอธิบายภัยคุกคามเพื่อระบุการโจมตีที่อาจเกิดขึ้นและปรับการป้องกันของระบบของตน

เราประหลาดใจกับผลลัพธ์ที่ได้ ตัวอย่างข้อมูลที่ไม่ถูกต้องเกี่ยวกับการรักษาความปลอดภัยทางไซเบอร์ที่เราสร้างขึ้นสามารถหลอกนักล่าภัยคุกคามทางไซเบอร์ที่มีความรู้เกี่ยวกับการโจมตีและช่องโหว่ด้านความปลอดภัยทางไซเบอร์ทุกประเภท ลองนึกภาพสถานการณ์นี้ด้วยข้อมูลข่าวกรองภัยคุกคามทางไซเบอร์ที่สำคัญที่เกี่ยวข้องกับอุตสาหกรรมสายการบิน ซึ่งเราสร้างขึ้นในการศึกษาของเรา

บล็อกข้อความที่มีข้อมูลเท็จเกี่ยวกับการโจมตีความปลอดภัยทางไซเบอร์ของสายการบิน

ตัวอย่างของข้อมูลที่ผิดเกี่ยวกับความปลอดภัยทางไซเบอร์ที่สร้างโดย AI

 

บทสนทนา, CC BY-ND

ข้อมูลที่ทำให้เข้าใจผิดนี้มีข้อมูลที่ไม่ถูกต้องเกี่ยวกับการโจมตีทางไซเบอร์ในสายการบินที่มีข้อมูลเที่ยวบินแบบเรียลไทม์ที่ละเอียดอ่อน ข้อมูลเท็จนี้สามารถป้องกันไม่ให้นักวิเคราะห์ไซเบอร์จัดการกับช่องโหว่ที่ถูกต้องตามกฎหมายในระบบของพวกเขาโดยเปลี่ยนความสนใจไปที่ข้อบกพร่องของซอฟต์แวร์ปลอม หากนักวิเคราะห์ทางไซเบอร์ดำเนินการกับข้อมูลปลอมในสถานการณ์จริง สายการบินที่เป็นปัญหาอาจต้องเผชิญกับการโจมตีที่ร้ายแรงซึ่งใช้ประโยชน์จากจุดอ่อนที่แท้จริงและไม่ได้รับการจัดการ

โมเดลที่ใช้หม้อแปลงไฟฟ้าที่คล้ายคลึงกันสามารถสร้างข้อมูลในขอบเขตทางการแพทย์และอาจทำให้ผู้เชี่ยวชาญทางการแพทย์เข้าใจผิดได้ ในช่วงการระบาดใหญ่ของ COVID-19 เอกสารงานวิจัยที่ยังไม่ได้ผ่านการตรวจสอบอย่างเข้มงวดจะถูกอัปโหลดไปยังเว็บไซต์เช่น medrXiv. สิ่งเหล่านี้ไม่ได้ถูกอธิบายในสื่อเท่านั้น แต่ยังใช้ในการตัดสินใจด้านสาธารณสุข พิจารณาสิ่งต่อไปนี้ ซึ่งไม่ใช่ของจริง แต่สร้างขึ้นโดยโมเดลของเราหลังจากปรับแต่ง GPT-2 เริ่มต้นเพียงเล็กน้อยในเอกสารที่เกี่ยวข้องกับ COVID-19 บางฉบับ

บล็อกข้อความที่แสดงข้อมูลที่ผิดเกี่ยวกับการดูแลสุขภาพ

ตัวอย่างของข้อมูลที่ผิดเกี่ยวกับการดูแลสุขภาพที่สร้างโดย AI

 

บทสนทนา, CC BY-ND

ตัวแบบสามารถสร้างประโยคที่สมบูรณ์และสร้างบทคัดย่อที่กล่าวหาว่าอธิบายผลข้างเคียงของการฉีดวัคซีน COVID-19 และการทดลองที่ดำเนินการ สิ่งนี้เป็นปัญหาสำหรับทั้งนักวิจัยทางการแพทย์ที่ต้องพึ่งพาข้อมูลที่ถูกต้องอย่างสม่ำเสมอในการตัดสินใจอย่างมีข้อมูล และสำหรับสมาชิกทั่วไปที่มักอาศัยข่าวสาธารณะเพื่อเรียนรู้เกี่ยวกับข้อมูลด้านสุขภาพที่สำคัญ หากยอมรับว่าถูกต้อง ข้อมูลที่ผิดประเภทนี้อาจทำให้ชีวิตตกอยู่ในความเสี่ยงโดยการบิดเบือนความพยายามของนักวิทยาศาสตร์ที่ทำการวิจัยด้านชีวการแพทย์

การแข่งขันอาวุธ AI ที่บิดเบือนข้อมูล?

แม้ว่าตัวอย่างเหล่านี้จากการศึกษาของเราสามารถตรวจสอบข้อเท็จจริงได้ แต่ข้อมูลที่ผิดที่สร้างจากหม้อแปลงไฟฟ้าก็เป็นอุปสรรคต่ออุตสาหกรรมต่างๆ เช่น การดูแลสุขภาพและความปลอดภัยทางไซเบอร์ในการนำ AI มาใช้เพื่อช่วยในการโหลดข้อมูลมากเกินไป ตัวอย่างเช่น ระบบอัตโนมัติกำลังได้รับการพัฒนาเพื่อดึงข้อมูลจากข่าวกรองภัยคุกคามทางไซเบอร์ ที่ใช้ในการแจ้งและฝึกอบรมระบบอัตโนมัติให้รับรู้ถึงการโจมตีที่อาจเกิดขึ้นได้ หากระบบอัตโนมัติเหล่านี้ประมวลผลข้อความความปลอดภัยทางไซเบอร์ที่ผิดพลาด พวกเขาจะมีประสิทธิภาพน้อยกว่าในการตรวจจับภัยคุกคามที่แท้จริง

เราเชื่อว่าผลลัพธ์อาจเป็นการแข่งขันทางอาวุธ เนื่องจากผู้คนเผยแพร่ข้อมูลเท็จพัฒนาวิธีที่ดีกว่าในการสร้างข้อมูลเท็จเพื่อตอบสนองต่อวิธีการรับรู้ที่มีประสิทธิภาพ

นักวิจัยด้านความปลอดภัยทางไซเบอร์ศึกษาวิธีการตรวจหาข้อมูลที่ผิดในโดเมนต่างๆ อย่างต่อเนื่อง การทำความเข้าใจวิธีสร้างข้อมูลที่ผิดโดยอัตโนมัติช่วยให้เข้าใจวิธีรับรู้ข้อมูลดังกล่าว ตัวอย่างเช่น ข้อมูลที่สร้างขึ้นโดยอัตโนมัติมักมีข้อผิดพลาดทางไวยากรณ์เล็กน้อย ซึ่งระบบสามารถฝึกให้ตรวจจับได้ ระบบยังสามารถเชื่อมโยงข้อมูลจากหลายแหล่งและระบุการอ้างสิทธิ์ที่ขาดการสนับสนุนที่สำคัญจากแหล่งอื่น

ในท้ายที่สุด ทุกคนควรระมัดระวังมากขึ้นเกี่ยวกับข้อมูลที่น่าเชื่อถือ และพึงระวังว่าแฮกเกอร์ใช้ประโยชน์จากความงมงายของผู้คน โดยเฉพาะอย่างยิ่งหากข้อมูลนั้นไม่ได้มาจากแหล่งข่าวที่มีชื่อเสียงหรืองานทางวิทยาศาสตร์ที่ตีพิมพ์

Priyanka Ranade นักศึกษาปริญญาเอกสาขาวิทยาการคอมพิวเตอร์และวิศวกรรมไฟฟ้า มหาวิทยาลัยแมรีแลนด์ เมืองบัลติมอร์

 

books_culture

บทความนี้เดิมปรากฏบน สนทนา

ภาษาที่ใช้ได้

English แอฟริกาใต้ Arabic จีน (ดั้งเดิม) จีน (ดั้งเดิม) เดนมาร์ก Dutch ฟิลิปปินส์ Finnish French German กรีก ชาวอิสราเอล ภาษาฮินดี ฮังการี Indonesian Italian Japanese Korean Malay Norwegian เปอร์เซีย ขัด Portuguese โรมาเนีย Russian Spanish ภาษาสวาฮิลี Swedish ภาษาไทย ตุรกี ยูเครน ภาษาอูรดู Vietnamese

ติดตาม InnerSelf บน

ไอคอน Facebookไอคอนทวิตเตอร์ไอคอน YouTubeไอคอน instagramไอคอน pintrestไอคอน RSS

 รับล่าสุดทางอีเมล

นิตยสารรายสัปดาห์ แรงบันดาลใจทุกวัน

บทความล่าสุด

ทัศนคติใหม่ - ความเป็นไปได้ใหม่

InnerSelf.comClimateImpactNews.คอม | InnerPower.net
MightyNatural.com | WholisticPolitics.คอม | ตลาด InnerSelf
ลิขสิทธิ์© 1985 - 2021 InnerSelf สิ่งพิมพ์ สงวนลิขสิทธิ์.