ไม่ต้องใช้ความคิดของมนุษย์ในการสร้างข้อมูลเท็จที่น่าเชื่อมากพอที่จะหลอกผู้เชี่ยวชาญในสาขาที่สำคัญเช่นความปลอดภัยทางไซเบอร์ iLexx / iStock ผ่าน Getty Images
หากคุณใช้เว็บไซต์โซเชียลมีเดียเช่น Facebook และ Twitter คุณอาจพบโพสต์ที่มีคำเตือนเกี่ยวกับข้อมูลที่ผิด จนถึงตอนนี้ ข้อมูลที่ผิดที่สุด – ถูกตั้งค่าสถานะและไม่ตั้งค่าสถานะ – ได้รับ มุ่งเป้าไปที่ประชาชนทั่วไป. ลองนึกภาพความเป็นไปได้ของข้อมูลที่ผิด – ข้อมูลที่เป็นเท็จหรือทำให้เข้าใจผิด – ในสาขาวิทยาศาสตร์และเทคนิค เช่น ความปลอดภัยทางไซเบอร์ ความปลอดภัยสาธารณะ และการแพทย์
มีความกังวลเกี่ยวกับ ข้อมูลที่ผิดแพร่กระจายไปในสาขาที่สำคัญเหล่านี้ อันเป็นผลมาจากอคติและแนวปฏิบัติทั่วไปในการเผยแพร่วรรณกรรมทางวิทยาศาสตร์ แม้กระทั่งในเอกสารวิจัยที่ผ่านการตรวจสอบโดยเพื่อน ในฐานะที่เป็น นักศึกษาระดับบัณฑิตศึกษา และในขณะที่ คณะ สมาชิก การทำวิจัยด้านความปลอดภัยในโลกไซเบอร์ เราได้ศึกษาช่องทางใหม่ของข้อมูลที่ผิดในชุมชนวิทยาศาสตร์ เราพบว่าระบบปัญญาประดิษฐ์สามารถสร้างข้อมูลเท็จในสาขาที่สำคัญ เช่น การแพทย์และการป้องกันที่น่าเชื่อมากพอที่จะหลอกผู้เชี่ยวชาญ
ข้อมูลเท็จทั่วไปมักมุ่งหมายให้เสื่อมเสียชื่อเสียงของบริษัทหรือบุคคลสาธารณะ ข้อมูลที่ผิดในชุมชนที่เชี่ยวชาญมีโอกาสเกิดผลลัพธ์ที่น่ากลัว เช่น การให้คำแนะนำทางการแพทย์ที่ไม่ถูกต้องแก่แพทย์และผู้ป่วย สิ่งนี้อาจทำให้ชีวิตมีความเสี่ยง
รับล่าสุดทางอีเมล
เพื่อทดสอบภัยคุกคามนี้ เราได้ศึกษาผลกระทบของการเผยแพร่ข้อมูลที่ไม่ถูกต้องในชุมชนความปลอดภัยทางไซเบอร์และการแพทย์ เราใช้โมเดลปัญญาประดิษฐ์ที่ขนานนามว่า Transformer เพื่อสร้างข่าวความปลอดภัยทางไซเบอร์ที่ผิดพลาดและการศึกษาทางการแพทย์เกี่ยวกับโควิด-19 และนำเสนอข้อมูลที่ผิดเกี่ยวกับความปลอดภัยทางไซเบอร์แก่ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์เพื่อทำการทดสอบ เราพบว่าข้อมูลที่ผิดจากหม้อแปลงไฟฟ้าสามารถหลอกผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ได้
หม้อแปลง
เทคโนโลยีส่วนใหญ่ที่ใช้ในการระบุและจัดการข้อมูลที่ผิดนั้นขับเคลื่อนโดยปัญญาประดิษฐ์ AI ช่วยให้นักวิทยาศาสตร์คอมพิวเตอร์ตรวจสอบข้อมูลเท็จจำนวนมากได้อย่างรวดเร็ว เนื่องจากมีผู้คนจำนวนมากเกินกว่าจะตรวจจับได้หากไม่ได้รับความช่วยเหลือจากเทคโนโลยี แม้ว่า AI จะช่วยให้ผู้คนตรวจพบข้อมูลที่ผิด แต่ก็มีการใช้อย่างแดกดันเพื่อสร้างข้อมูลที่ผิดในช่วงไม่กี่ปีที่ผ่านมา
AI สามารถช่วยตรวจจับข้อมูลที่ผิดเช่นคำกล่าวอ้างที่เป็นเท็จเกี่ยวกับ COVID-19 ในอินเดีย แต่จะเกิดอะไรขึ้นเมื่อใช้ AI เพื่อสร้างข้อมูลที่ผิด
หม้อแปลงเช่น BERT จาก Google และ GPT จาก OpenAI ใช้ การประมวลผลภาษาธรรมชาติ เพื่อทำความเข้าใจข้อความและแปล บทสรุป และการตีความ มีการใช้ในงานต่างๆ เช่น การเล่าเรื่องและการตอบคำถาม ผลักดันขอบเขตของเครื่องที่แสดงความสามารถที่เหมือนมนุษย์ในการสร้างข้อความ
Transformers ได้ช่วยเหลือ Google และบริษัทเทคโนโลยีอื่นๆ โดย ปรับปรุงเครื่องมือค้นหาของพวกเขา และได้ช่วยเหลือประชาชนทั่วไปในการต่อสู้กับปัญหาทั่วไปเช่น ต่อสู้กับบล็อกของนักเขียน.
หม้อแปลงยังสามารถใช้เพื่อจุดประสงค์ที่มุ่งร้าย โซเชียลเน็ตเวิร์กอย่าง Facebook และ Twitter ได้เผชิญกับความท้าทายของ ข่าวปลอมที่สร้างโดย AI ข้ามแพลตฟอร์ม
ข้อมูลเท็จที่สำคัญ
การวิจัยของเราแสดงให้เห็นว่าหม้อแปลงยังเป็นภัยคุกคามต่อข้อมูลที่ผิดในด้านการแพทย์และความปลอดภัยทางไซเบอร์ เพื่อแสดงให้เห็นว่าเรื่องนี้จริงจังแค่ไหน เรา ปรับแต่ง รุ่นหม้อแปลง GPT-2 บน เปิดแหล่งข้อมูลออนไลน์ หารือเกี่ยวกับช่องโหว่ด้านความปลอดภัยในโลกไซเบอร์และข้อมูลการโจมตี ช่องโหว่ด้านความปลอดภัยในโลกไซเบอร์เป็นจุดอ่อนของระบบคอมพิวเตอร์ และการโจมตีด้านความปลอดภัยทางไซเบอร์เป็นการกระทำที่ใช้ประโยชน์จากช่องโหว่ ตัวอย่างเช่น หากช่องโหว่คือรหัสผ่าน Facebook ที่อ่อนแอ การโจมตีที่ใช้ประโยชน์จากช่องโหว่นั้นจะเป็นแฮ็กเกอร์ที่ค้นหารหัสผ่านของคุณและเจาะเข้าไปในบัญชีของคุณ
จากนั้นเราก็สร้างโมเดลด้วยประโยคหรือวลีของตัวอย่างข่าวกรองภัยคุกคามทางไซเบอร์ที่แท้จริง และให้แบบจำลองนั้นสร้างคำอธิบายภัยคุกคามที่เหลือ เรานำเสนอคำอธิบายที่สร้างขึ้นนี้แก่นักล่าภัยคุกคามทางไซเบอร์ ซึ่งกลั่นกรองข้อมูลมากมายเกี่ยวกับภัยคุกคามความปลอดภัยทางไซเบอร์ ผู้เชี่ยวชาญเหล่านี้อ่านคำอธิบายภัยคุกคามเพื่อระบุการโจมตีที่อาจเกิดขึ้นและปรับการป้องกันของระบบของตน
เราประหลาดใจกับผลลัพธ์ที่ได้ ตัวอย่างข้อมูลที่ไม่ถูกต้องเกี่ยวกับการรักษาความปลอดภัยทางไซเบอร์ที่เราสร้างขึ้นสามารถหลอกนักล่าภัยคุกคามทางไซเบอร์ที่มีความรู้เกี่ยวกับการโจมตีและช่องโหว่ด้านความปลอดภัยทางไซเบอร์ทุกประเภท ลองนึกภาพสถานการณ์นี้ด้วยข้อมูลข่าวกรองภัยคุกคามทางไซเบอร์ที่สำคัญที่เกี่ยวข้องกับอุตสาหกรรมสายการบิน ซึ่งเราสร้างขึ้นในการศึกษาของเรา
ตัวอย่างของข้อมูลที่ผิดเกี่ยวกับความปลอดภัยทางไซเบอร์ที่สร้างโดย AI
บทสนทนา, CC BY-ND
ข้อมูลที่ทำให้เข้าใจผิดนี้มีข้อมูลที่ไม่ถูกต้องเกี่ยวกับการโจมตีทางไซเบอร์ในสายการบินที่มีข้อมูลเที่ยวบินแบบเรียลไทม์ที่ละเอียดอ่อน ข้อมูลเท็จนี้สามารถป้องกันไม่ให้นักวิเคราะห์ไซเบอร์จัดการกับช่องโหว่ที่ถูกต้องตามกฎหมายในระบบของพวกเขาโดยเปลี่ยนความสนใจไปที่ข้อบกพร่องของซอฟต์แวร์ปลอม หากนักวิเคราะห์ทางไซเบอร์ดำเนินการกับข้อมูลปลอมในสถานการณ์จริง สายการบินที่เป็นปัญหาอาจต้องเผชิญกับการโจมตีที่ร้ายแรงซึ่งใช้ประโยชน์จากจุดอ่อนที่แท้จริงและไม่ได้รับการจัดการ
โมเดลที่ใช้หม้อแปลงไฟฟ้าที่คล้ายคลึงกันสามารถสร้างข้อมูลในขอบเขตทางการแพทย์และอาจทำให้ผู้เชี่ยวชาญทางการแพทย์เข้าใจผิดได้ ในช่วงการระบาดใหญ่ของ COVID-19 เอกสารงานวิจัยที่ยังไม่ได้ผ่านการตรวจสอบอย่างเข้มงวดจะถูกอัปโหลดไปยังเว็บไซต์เช่น medrXiv. สิ่งเหล่านี้ไม่ได้ถูกอธิบายในสื่อเท่านั้น แต่ยังใช้ในการตัดสินใจด้านสาธารณสุข พิจารณาสิ่งต่อไปนี้ ซึ่งไม่ใช่ของจริง แต่สร้างขึ้นโดยโมเดลของเราหลังจากปรับแต่ง GPT-2 เริ่มต้นเพียงเล็กน้อยในเอกสารที่เกี่ยวข้องกับ COVID-19 บางฉบับ
ตัวอย่างของข้อมูลที่ผิดเกี่ยวกับการดูแลสุขภาพที่สร้างโดย AI
บทสนทนา, CC BY-ND
ตัวแบบสามารถสร้างประโยคที่สมบูรณ์และสร้างบทคัดย่อที่กล่าวหาว่าอธิบายผลข้างเคียงของการฉีดวัคซีน COVID-19 และการทดลองที่ดำเนินการ สิ่งนี้เป็นปัญหาสำหรับทั้งนักวิจัยทางการแพทย์ที่ต้องพึ่งพาข้อมูลที่ถูกต้องอย่างสม่ำเสมอในการตัดสินใจอย่างมีข้อมูล และสำหรับสมาชิกทั่วไปที่มักอาศัยข่าวสาธารณะเพื่อเรียนรู้เกี่ยวกับข้อมูลด้านสุขภาพที่สำคัญ หากยอมรับว่าถูกต้อง ข้อมูลที่ผิดประเภทนี้อาจทำให้ชีวิตตกอยู่ในความเสี่ยงโดยการบิดเบือนความพยายามของนักวิทยาศาสตร์ที่ทำการวิจัยด้านชีวการแพทย์
การแข่งขันอาวุธ AI ที่บิดเบือนข้อมูล?
แม้ว่าตัวอย่างเหล่านี้จากการศึกษาของเราสามารถตรวจสอบข้อเท็จจริงได้ แต่ข้อมูลที่ผิดที่สร้างจากหม้อแปลงไฟฟ้าก็เป็นอุปสรรคต่ออุตสาหกรรมต่างๆ เช่น การดูแลสุขภาพและความปลอดภัยทางไซเบอร์ในการนำ AI มาใช้เพื่อช่วยในการโหลดข้อมูลมากเกินไป ตัวอย่างเช่น ระบบอัตโนมัติกำลังได้รับการพัฒนาเพื่อดึงข้อมูลจากข่าวกรองภัยคุกคามทางไซเบอร์ ที่ใช้ในการแจ้งและฝึกอบรมระบบอัตโนมัติให้รับรู้ถึงการโจมตีที่อาจเกิดขึ้นได้ หากระบบอัตโนมัติเหล่านี้ประมวลผลข้อความความปลอดภัยทางไซเบอร์ที่ผิดพลาด พวกเขาจะมีประสิทธิภาพน้อยกว่าในการตรวจจับภัยคุกคามที่แท้จริง
เราเชื่อว่าผลลัพธ์อาจเป็นการแข่งขันทางอาวุธ เนื่องจากผู้คนเผยแพร่ข้อมูลเท็จพัฒนาวิธีที่ดีกว่าในการสร้างข้อมูลเท็จเพื่อตอบสนองต่อวิธีการรับรู้ที่มีประสิทธิภาพ
นักวิจัยด้านความปลอดภัยทางไซเบอร์ศึกษาวิธีการตรวจหาข้อมูลที่ผิดในโดเมนต่างๆ อย่างต่อเนื่อง การทำความเข้าใจวิธีสร้างข้อมูลที่ผิดโดยอัตโนมัติช่วยให้เข้าใจวิธีรับรู้ข้อมูลดังกล่าว ตัวอย่างเช่น ข้อมูลที่สร้างขึ้นโดยอัตโนมัติมักมีข้อผิดพลาดทางไวยากรณ์เล็กน้อย ซึ่งระบบสามารถฝึกให้ตรวจจับได้ ระบบยังสามารถเชื่อมโยงข้อมูลจากหลายแหล่งและระบุการอ้างสิทธิ์ที่ขาดการสนับสนุนที่สำคัญจากแหล่งอื่น
ในท้ายที่สุด ทุกคนควรระมัดระวังมากขึ้นเกี่ยวกับข้อมูลที่น่าเชื่อถือ และพึงระวังว่าแฮกเกอร์ใช้ประโยชน์จากความงมงายของผู้คน โดยเฉพาะอย่างยิ่งหากข้อมูลนั้นไม่ได้มาจากแหล่งข่าวที่มีชื่อเสียงหรืองานทางวิทยาศาสตร์ที่ตีพิมพ์
Priyanka Ranade นักศึกษาปริญญาเอกสาขาวิทยาการคอมพิวเตอร์และวิศวกรรมไฟฟ้า มหาวิทยาลัยแมรีแลนด์ เมืองบัลติมอร์
books_culture
บทความนี้เดิมปรากฏบน สนทนา