การหลอกลวงด้วยเสียง Deepfake 7 18
 การโคลนเสียงของใครบางคนนั้นง่ายกว่าที่เคย D-Keine / iStock ผ่าน Getty Images

คุณเพิ่งกลับถึงบ้านหลังจากทำงานมาทั้งวันและกำลังจะนั่งทานอาหารเย็นอยู่ดีๆ โทรศัพท์ของคุณก็ส่งเสียงหึ่งๆ อีกด้านหนึ่งคือคนที่คุณรัก อาจเป็นพ่อแม่ ลูก หรือเพื่อนสมัยเด็ก ขอร้องให้คุณส่งเงินให้พวกเขาทันที

คุณถามคำถามพวกเขาพยายามที่จะเข้าใจ มีบางอย่างผิดปกติเกี่ยวกับคำตอบของพวกเขา ซึ่งอาจจะคลุมเครือหรือไม่มีลักษณะเฉพาะตัว และบางครั้งก็มีความล่าช้าที่แปลกประหลาด ราวกับว่าพวกเขากำลังคิดช้าเกินไป แต่คุณยังมั่นใจว่านั่นคือเสียงคนที่คุณรักพูด นั่นคือเสียงของพวกเขาที่คุณได้ยิน และหมายเลขผู้โทรจะแสดงหมายเลขของพวกเขา คุณส่งเงินไปยังบัญชีธนาคารที่พวกเขาให้คุณตามหน้าที่

วันรุ่งขึ้น คุณโทรกลับเพื่อให้แน่ใจว่าทุกอย่างเรียบร้อยดี คนที่คุณรักไม่รู้ว่าคุณกำลังพูดถึงอะไร นั่นเป็นเพราะพวกเขาไม่เคยโทรหาคุณ – คุณถูกเทคโนโลยีหลอก: เสียงปลอม มีผู้คนหลายพันคน หลอกลวงด้วยวิธีนี้ในปี 2022.

ความสามารถในการโคลนเสียงของบุคคลนั้นอยู่ใกล้แค่เอื้อมสำหรับทุกคนที่มีคอมพิวเตอร์


กราฟิกสมัครสมาชิกภายในตัวเอง


 

As ความปลอดภัยของคอมพิวเตอร์ นักวิจัยเราเห็นว่าความก้าวหน้าอย่างต่อเนื่องในอัลกอริธึมการเรียนรู้เชิงลึก การตัดต่อและวิศวกรรมเสียง และการสร้างเสียงสังเคราะห์นั้นหมายความว่าเป็นไปได้มากขึ้นที่จะ จำลองเสียงของบุคคลได้อย่างน่าเชื่อถือ.

ยิ่งไปกว่านั้น แชทบอทเช่น ChatGPT กำลังเริ่มสร้างสคริปต์ที่เหมือนจริงพร้อมการตอบสนองตามเวลาจริงที่ปรับเปลี่ยนได้ โดย รวมเทคโนโลยีเหล่านี้เข้ากับการสร้างเสียงDeepfake เปลี่ยนจากการบันทึกเสียงแบบคงที่ให้กลายเป็นภาพแทนตัวที่เหมือนจริงซึ่งสามารถสนทนาทางโทรศัพท์ได้อย่างน่าเชื่อถือ

โคลนเสียง

การสร้าง Deepfake คุณภาพสูงที่น่าสนใจ ไม่ว่าจะเป็นวิดีโอหรือเสียง ไม่ใช่สิ่งที่ง่ายที่สุดที่จะทำ ต้องใช้ทักษะทางศิลปะและเทคนิคมากมาย ฮาร์ดแวร์ที่ทรงพลัง และตัวอย่างเสียงเป้าหมายที่ค่อนข้างหนักแน่น

มีจำนวนมากขึ้นของการให้บริการเพื่อ ผลิตเสียงโคลนคุณภาพปานกลางถึงสูงโดยมีค่าธรรมเนียมและเครื่องมือ Deepfake ของเสียงบางตัวต้องการตัวอย่าง เพียงหนึ่งนาที, หรือแม้กระทั่ง เพียงไม่กี่วินาทีเพื่อสร้างเสียงที่น่าเชื่อถือมากพอที่จะหลอกใครบางคนได้ อย่างไรก็ตาม ในการโน้มน้าวให้คนที่คุณรัก เช่น ใช้ในการหลอกลวงเลียนแบบ อาจต้องใช้กลุ่มตัวอย่างที่ใหญ่กว่ามาก

นักวิจัยสามารถโคลนเสียงด้วยการบันทึกเสียงเพียงห้าวินาที

 

ป้องกันการหลอกลวงและข้อมูลบิดเบือน

จากทั้งหมดที่กล่าวมาเราที่ โครงการ DeFake จาก Rochester Institute of Technology, University of Mississippi และ Michigan State University และนักวิจัยคนอื่น ๆ กำลังทำงานอย่างหนักเพื่อให้สามารถตรวจจับการปลอมวิดีโอและเสียงและจำกัดอันตรายที่เกิดขึ้นได้ นอกจากนี้ยังมีการกระทำที่ตรงไปตรงมาในชีวิตประจำวันที่คุณสามารถทำได้เพื่อป้องกันตัวเอง

สำหรับ starters, ฟิชชิ่งเสียงหรือการหลอกลวงแบบ "ชิงทรัพย์" อย่างที่อธิบายไว้ข้างต้นเป็นการหลอกลวงทางเสียงที่เป็นไปได้มากที่สุดที่คุณอาจพบในชีวิตประจำวัน ทั้งในที่ทำงานและที่บ้าน ในปี 2019 อ บริษัทพลังงานถูกโกงเงินไป 243,000 เหรียญสหรัฐ เมื่ออาชญากรจำลองเสียงของหัวหน้าบริษัทแม่เพื่อสั่งให้พนักงานโอนเงินให้ซัพพลายเออร์ ในปี 2022 ผู้คนต่าง โกงเงินไปประมาณ 11 ล้านเหรียญ ด้วยเสียงจำลอง รวมถึงสายสัมพันธ์ส่วนตัวที่ใกล้ชิด

คุณสามารถทำอะไร?

ระวังการโทรที่ไม่คาดคิด แม้กระทั่งจากคนที่คุณรู้จักดี นี่ไม่ได้หมายความว่าคุณต้องกำหนดเวลาการโทรทุกครั้ง แต่อย่างน้อยก็ช่วยส่งอีเมลหรือส่งข้อความล่วงหน้าได้ นอกจากนี้ อย่าพึ่งพาหมายเลขผู้โทรเนื่องจาก ที่สามารถปลอมแปลงได้เช่นกัน. ตัวอย่างเช่น หากคุณได้รับโทรศัพท์จากบุคคลที่อ้างว่าเป็นตัวแทนของธนาคารของคุณ ให้วางสายและโทรหาธนาคารโดยตรงเพื่อยืนยันความถูกต้องของการโทร อย่าลืมใช้หมายเลขที่คุณจดบันทึกไว้ในรายชื่อผู้ติดต่อหรือที่ค้นหาใน Google

นอกจากนี้ โปรดระวังข้อมูลระบุตัวตนของคุณ เช่น หมายเลขประกันสังคม ที่อยู่บ้าน วันเกิด หมายเลขโทรศัพท์ ชื่อกลาง และแม้แต่ชื่อลูกและสัตว์เลี้ยงของคุณ สแกมเมอร์สามารถใช้ข้อมูลนี้เพื่อแอบอ้างเป็นคุณกับธนาคาร นายหน้า และคนอื่นๆ เพื่อเพิ่มพูนคุณค่าให้กับตัวเองในขณะที่ทำให้คุณล้มละลายหรือทำลายเครดิตของคุณ

นี่คือคำแนะนำอีกข้อ: รู้จักตัวเอง โดยเฉพาะอย่างยิ่ง รู้จักอคติและความเปราะบางทางสติปัญญาและอารมณ์ของคุณ นี่เป็นคำแนะนำที่ดีในการใช้ชีวิตโดยทั่วไป แต่ก็เป็นกุญแจสำคัญในการป้องกันตัวเองจากการถูกบงการ โดยทั่วไปแล้วสแกมเมอร์มักจะชอบใช้ความคิดและหลอกล่อจากความวิตกกังวลทางการเงินของคุณ ความผูกพันทางการเมืองของคุณ หรือความโน้มเอียงอื่นๆ อะไรก็ตามที่อาจเป็นได้

ความตื่นตัวนี้ยังเป็นการป้องกันที่ดีต่อการบิดเบือนข้อมูลโดยใช้เสียงปลอม Deepfakes สามารถใช้เพื่อใช้ประโยชน์จากคุณ ยืนยันอคติหรือสิ่งที่คุณมีแนวโน้มที่จะเชื่อเกี่ยวกับใครบางคน

หากคุณได้ยินคนสำคัญจากชุมชนหรือรัฐบาลพูดบางอย่างที่ดูเหมือนไม่ปกติสำหรับพวกเขาหรือยืนยันความสงสัยที่เลวร้ายที่สุดของคุณเกี่ยวกับพวกเขา คุณควรระวังสนทนา

เกี่ยวกับผู้แต่ง

Matthew Wright, ศาสตราจารย์ด้านความปลอดภัยคอมพิวเตอร์, Rochester Institute of Technology และ คริสโตเฟอร์ ชวาร์ตษ์, ผู้ร่วมวิจัยหลังปริญญาเอกด้านความปลอดภัยคอมพิวเตอร์, Rochester Institute of Technology

บทความนี้ตีพิมพ์ซ้ำจาก สนทนา ภายใต้ใบอนุญาตครีเอทีฟคอมมอนส์ อ่าน บทความต้นฉบับ.